04.12.2025 à 13:03
L’« effet Lazare », ou quand certains êtres vivants ressurgissent après des millions d’années
Texte intégral (2259 mots)

Nommé d’après la figure biblique revenue d’entre les morts, l’« effet Lazare » désigne un phénomène bien plus fréquent qu’on ne le pense : la réapparition de certains groupes d’organismes que l’on croyait éteints.
Tout le monde connaît Lazare, ce personnage du Nouveau Testament que Jésus aurait ramené à la vie. C’est de cette image symbolique qu’est né le terme d’« effet Lazare », utilisé aujourd’hui dans différents domaines de la biologie.
En paléontologie et en phylogénie (l’étude des relations évolutives entre les organismes), il désigne un phénomène fascinant : celui de groupes d’organismes – espèces, genres ou familles – qui semblent avoir disparu pendant des millions d’années si l’on se fie à l’ensemble des fossiles découverts à ce jour, avant de réapparaître comme par miracle.
Le concept a été introduit dans les années 1980 par les scientifiques états-uniens Karl Flessa et David Jablonski, puis affiné par la suite. Toutefois, les scientifiques ne sont pas toujours d’accord sur la manière de le définir : certains, comme Jablonski, y voient une simple absence temporaire dans les archives fossiles pendant un intervalle de temps donné, d’autres le réservent aux retours spectaculaires après les grandes crises d’extinction massive.
Pourquoi ces « résurrections » apparentes ?
L’effet Lazare demeure de fait étroitement lié à la qualité du registre fossile, c’est-à-dire à l’ensemble des fossiles découverts à ce jour, qui n’offre qu’une image partielle du passé de la vie. La fossilisation est un processus rare et sélectif : certains organismes se fossilisent mieux (par exemple, ceux dotés de coquilles ou d’os) et certains milieux (comme les fonds marins) favorisent la conservation des restes biologiques. De plus, les roches peuvent être détruites, transformées ou tout simplement jamais explorées. Résultat : de larges pans de l’histoire du vivant nous échappent encore.
L’absence d’un taxon (unité de genre, de famille ou d’espèce) dans le registre fossile pendant des millions d’années peut donc avoir deux explications :
une cause « stratigraphique », autrement dit un trou dans les archives. Le taxon a bien survécu, mais nous n’en avons conservé aucune trace ;
une cause « biologique » signifiant qu’il s’agit d’un véritable événement évolutif.
Plusieurs scénarios peuvent alors expliquer cette disparition apparente :
→ Le taxon a pu trouver refuge dans des zones isolées, de petite taille ou mal explorées. Après une longue période d’isolement dans ces refuges, le taxon a ensuite envahi de nouveau son territoire originel et est réapparu dans le registre fossile.
→ Il a pu subsister à très faible densité, en dessous du seuil nécessaire pour laisser des traces fossiles. En dessous de ce seuil, la population reste viable, mais nous n’avons tout simplement aucune trace de son existence. Malheureusement, ce seuil varie selon les environnements et les taxons, et il est quasiment impossible à quantifier.
La distinction entre les alternatives stratigraphique et biologique est souvent difficile. L’intensité des fouilles, la qualité de l’identification des fossiles et le niveau taxonomique (espèce, genre, famille…) jouent tous un rôle crucial dans l’interprétation de ces cas. Il faut aussi noter que l’interprétation de l’effet Lazare est une procédure asymétrique, car l’alternative biologique n’est privilégiée que lorsque l’alternative stratigraphique ne peut être documentée. Par conséquent, les techniques analytiques évaluant l’exhaustivité des archives fossiles sont essentielles pour comprendre la signification des taxons Lazare.
Quand la vie joue à cache-cache : quelques exemples
Une chose reste elle certaine, les exemples de taxons Lazare sont bien moins rares qu’on pourrait le penser.
Les lézards iguanidés, par exemple, étaient très répandus et diversifiés en Europe durant l’Éocène (de -56 millions à -33,9 millions d’années). On pensait qu’ils avaient totalement disparu du continent après la transition Éocène-Oligocène. Pourtant, la découverte, en 2012, de spécimens du genre Geiseltaliellus dans le sud de la France a montré qu’ils avaient survécu quelque temps en faible abondance avant de s’éteindre définitivement, probablement à la fin de l’Oligocène, il y a 23 millions d’années.
Autre cas remarquable : le gastéropode du genre Calyptraphorus. Longtemps considéré comme disparu à la fin de l’Éocène, il a refait surface au Pliocène (de -5,3 millions à -2,6 millions d’années) dans des gisements des Philippines (Asie du Sud-Est), prolongeant son existence fossile d’environ 30 millions d’années ! Cette longévité cachée suggère qu’il aurait survécu discrètement dans des zones refuges du Pacifique tropical.
La redécouverte d’espèces vivantes appartenant à des groupes que l’on pensait éteints constitue une expression rare et spectaculaire de l’effet Lazare. Parmi les exemples les plus emblématiques on peut par exemple citer, le cœlacanthe, véritable icône de l’effet Lazare. Ce poisson, que l’on croyait éteint depuis 66 millions d’années, a été redécouvert vivant en 1938 au large de l’Afrique du Sud (Afrique australe).
Un autre cas remarquable est celui de Laonastes, un petit rongeur découvert en 2005 au Laos, en Asie du Sud-Est, sur les étals d’un marché local de viande sauvage. Au départ, les chercheurs pensaient avoir affaire à une nouvelle famille de rongeurs, qu’ils ont appelée Laonastidæ.
Cette classification reposait sur des analyses génétiques basées sur un nombre limité de gènes et sur la comparaison de sa morphologie avec celle d’espèces actuelles. Mais un véritable bouleversement scientifique est survenu lorsque les scientifiques ont intégré des fossiles dans leurs analyses morphologiques. En comparant en détail le crâne, la mandibule, les dents et le squelette de Laonastes avec des rongeurs fossiles et actuels, ils ont découvert qu’il appartenait en réalité à la famille des Diatomyidæ, que l’on croyait éteinte depuis plus de 11 millions d’années.
Ces analyses ont également révélé que les plus proches parents actuels de cette famille sont les goundis Ctenodactylus gundi. Des études génétiques plus poussées sur les espèces actuelles ont ensuite confirmé ce lien de parenté entre Laonastes et les goundis, et révélé que ces deux lignées auraient divergé il y a environ 44 millions d’années. Laonastes représente donc un exemple frappant de taxon Lazare.
Pourquoi ces découvertes sont-elles si importantes ?
Les taxons Lazare sont ainsi bien plus que des curiosités de la nature. Ils offrent aux scientifiques des clés uniques pour comprendre l’évolution du vivant, la résilience des espèces face aux crises et surtout les limites du registre fossile.
En phylogénie, leur réapparition peut modifier notre compréhension des liens de parenté entre les espèces, des dates de divergence et d’extinction ou encore de la vitesse d’évolution morphologique.
En paléontologie, ils rappellent à quel point le registre fossile est biaisé et incomplet, et combien il faut être prudent avant de déclarer une espèce « disparue ».
Enfin, les taxons Lazare montrent que la vie ne disparaît pas toujours là où on le croit. Parfois, elle se retire simplement dans l’ombre pour ressurgir des millions d’années plus tard, comme un témoin silencieux de la longue histoire de l’évolution.
Parce que dans les usages de nomenclature biologique, seuls les noms de rangs générique et infra-générique (genre, espèce, sous-espèce) se composent en italique, tandis que les noms de familles et au-dessus (famille, sous-famille, ordre, etc.) se composent en romain. Ainsi, Laonastidæ a parfois été perçu comme un nom de genre par confusion et mis en italique à tort, alors que Diatomyidæ est un nom de famille correctement laissé en romain.
Violaine Nicolas Colin a reçu des financements de l'ANR.
03.12.2025 à 16:52
Mal-être au champ : pourquoi les agriculteurs sont-ils plus à risque de suicide ?
Texte intégral (2268 mots)
Les agriculteurs, en particulier les hommes de moins de 64 ans, sont beaucoup plus à risque de suicide que la population générale. Comment expliquer ce phénomène ? Les raisons sont multiples : aucune, à elle seule, n’explique tout. Les pressions économiques jouent un rôle, tout comme le manque d’accès aux soins de santé mentale et une certaine construction du métier au masculin, qui rend encore plus compliqué le fait d’appeler à l’aide.
Derrière les images bucoliques, la réalité du monde agricole reste souvent rude, et parfois tragique. En France, un agriculteur se suicide tous les deux jours. En 2016, 529 exploitants affiliés à la Mutualité sociale agricole (MSA, le régime de protection sociale des agriculteurs) ont mis fin à leurs jours, un chiffre que les spécialistes considèrent comme sous-évalué.
Pourquoi ces hommes et ces femmes, qui nourrissent la société, sont-ils et elles si vulnérables face au risque de suicide ? Les difficultés économiques jouent un rôle, mais n’expliquent pas, à elles seules, un phénomène aussi massif et durable dans le temps : en 2015, la MSA dénombrait 604 suicides parmi ses bénéficiaires, tandis Santé publique France dénombrait près de 300 suicides entre 2010 et 2011.
Dans tous les cas, les agriculteurs âgés de 15 ans à 64 ans ont environ 46 % plus de risques de se suicider que les autres catégories socioprofessionnelles, selon le rapport 2025 de la MSA. Le suicide agricole révèle donc des mécanismes sociaux profonds.
Le suicide agricole, un fait social
Depuis Émile Durkheim (1897), le suicide est compris comme un fait social. Il ne dépend pas seulement de la psychologie individuelle, mais aussi de l’intégration et de la cohésion sociale.
Autrefois concentrés dans les villes, les suicides touchent désormais le monde rural, fragilisé par les transformations du travail agricole, la solitude et l’insuffisance des formes actuelles de solidarités.
Le rapport 2026 de la MSA montre que ce sont les non-salariés agricoles (par exemple, les chefs d’exploitation) qui présentent le surrisque de suicide le plus élevé. Ce surrisque, d’environ 56,7 %, est supérieur à la fois à celui des salariés agricoles (40 %) et à celui de la population générale.
Il touche plus particulièrement les hommes entre 45 ans et 54 ans et les plus de 65 ans, avec des disparités régionales marquées. Les taux de suicide supérieurs à la moyenne nationale se concentrent particulièrement dans les territoires ruraux et semi-ruraux de la France. La MSA identifie plusieurs territoires particulièrement à risque, dont la Bretagne et plus largement l’Armorique, la Dordogne et le Lot-et-Garonne, le Poitou, la Mayenne, l’Orne et la Sarthe, le Limousin, ainsi que les Charentes.
Les facteurs de risque incluent l’âge, le sexe (les hommes étant près de trois fois plus exposés que les femmes), les maladies psychiatriques et un antécédent de tentative de suicide dans les cinq années précédant le passage à l’acte.
Le suicide agricole est donc un symptôme de souffrance d’origine sociale. Le suicide agricole doit être compris non seulement comme une souffrance individuelle, mais aussi comme un phénomène façonné par des facteurs collectifs et structurels. Les régularités observées dans l’exposition au surrisque (âge, sexe, lieu de résidence, secteur d’activité, etc.) montrent qu’il s’agit d’un fait social, dont les causes sont avant tout sociales et contextuelles.
Elle ne peut être soulagée uniquement par une aide psychologique. L’analyse des parcours de soins montre qu’un profil majoritaire, qui représente plus des trois quarts des suicides, correspond à des personnes ayant peu recours aux soins dans l’année précédant leur décès. Si les territoires ruraux apparaissent davantage exposés selon la grille de densité de l’Insee, les statistiques révèlent ici qu’il n’existe aucun lien direct entre l’accessibilité aux soins primaires et le suicide.
Ainsi, le surrisque observé dans les zones rurales ne semble pas lié à la densité ou à l’accès aux soins, mais renvoie plutôt à d’autres déterminants sociaux. Agir sur les conditions qui produisent la souffrance est indispensable.
À lire aussi : Pourquoi tant de suicides chez les agriculteurs ?
Une conjonction de causes qui augmente le risque suicidaire
Réduire le suicide des agriculteurs à la crise économique serait une erreur. Crises du lait, de la vache folle ou hausse des coûts peuvent déclencher des passages à l’acte, mais ne constituent pas des causes uniques. Le sociologue Nicolas Deffontaines a montré que chaque situation combine des facteurs économiques, sociaux, symboliques et biographiques.
Chaque parcours est singulier. Certains vivent l’effondrement économique comme une perte d’identité. D’autres subissent la pression familiale ou le regard du voisinage. Les transformations du métier, la dépendance aux marchés mondiaux, la bureaucratisation et la précarisation bouleversent profondément les équilibres de vie. Le suicide agricole n’est pas conjoncturel : c’est un phénomène structurel, révélateur d’un système en mutation et d’une identité professionnelle en souffrance.
Entre 2018 et 2021, la Bretagne a expérimenté un dispositif de reconversion pour les agriculteurs en difficulté. Les témoignages des reconvertis mettent en lumière que perdre son activité, c’est perdre une expertise, un rôle social et un sens à sa vie quotidienne. La reconversion implique une recomposition identitaire difficile, comparable à un deuil : deuil d’une histoire, d’un statut, d’une vocation, parfois même d’un projet de vie. C’est une question que j’explore dans un article à paraître en décembre 2025 dans la revue Paysans et Société, 2025/6, n° 414.
À lire aussi : Ce que la crise agricole révèle des contradictions entre objectifs socio-écologiques et compétitivité
Un métier encore souvent construit au masculin
Le monde agricole reste profondément marqué par une construction genrée du métier. L’homme producteur, fort et silencieux, symbolise le « bon agriculteur ». Courage physique, endurance et dévouement total à l’exploitation définissent ce modèle.
Il relève de la masculinité hégémonique au sens de Raewyn Connell, qui valorise force, maîtrise de soi et distance face à la souffrance. La division sexuée du travail et la transmission patrimoniale renforcent cette identité masculine.
Ces représentations influencent directement la santé mentale des agriculteurs : demander de l’aide, se reposer ou reconnaître sa détresse peuvent être perçus comme une faiblesse ou une atteinte à l’honneur professionnel. La valorisation de l’autonomie, héritée de l’indépendance paysanne, peut ainsi conduire à un déni de vulnérabilité. Les normes de genre produisent une exposition différenciée à la souffrance et au risque suicidaire. Comprendre cette dimension genrée est essentiel pour toute politique de prévention.
Le suicide agricole est donc multifactoriel et ne se comprend qu’en articulant les dimensions économiques, sociales, culturelles et genrées du métier. Il révèle moins des fragilités individuelles que les tensions d’un système professionnel et symbolique en crise.
À lire aussi : Crise agricole : quels défis pour demain ?
Comment prévenir le mal-être agricole ?
Les politiques de prévention actuelles reposent sur plusieurs axes :
la sensibilisation et la formation des agriculteurs et des professionnels pour détecter la détresse ;
l’accès à l’aide psychologique, via des lignes d’écoute (Agri’écoute, numéro de téléphone unique à disposition es assurés MSA en grande détresse, joignable 24 heures sur 24, sept jours sur sept), des consultations et des accompagnements spécifiques ;
la prévention collective, avec réseaux d’entraide, groupes de parole et soutien local pour réduire l’isolement.
Le programme de Prévention du mal-être agricole (PMEA) de la MSA vise à structurer et coordonner ces actions. Il intervient dès les premiers signes de difficulté et mobilise acteurs agricoles, partenaires institutionnels et professionnels de santé.
Les « sentinelles », bénévoles ou professionnels de proximité issus du monde rural, jouent un rôle crucial dans le dispositif. Ce sont eux qui repèrent les signes de détresse, écoutent et orientent les agriculteurs vers les bonnes structures. Leur proximité avec le terrain permet d’intervenir avant la rupture. Cette approche humaine, fondée sur la solidarité et ancrée dans le territoire, constitue un pilier de la santé mentale en milieu agricole.
Mais pour que ces actions soient pleinement efficaces, il est essentiel de prendre en compte les expériences (dont les difficultés) vécues par ces sentinelles, qui ne doivent pas nécessairement être des actifs du secteur agricole. Il peut également s’agir de retraités agricoles ou d’autres acteurs ruraux non agricoles, par exemple maires et secrétaires de commune, ambulanciers, vétérinaires, etc. Il faut ainsi répondre à leur besoin de formation et de soutien. Entre 2023 et 2024, le nombre de sentinelles a augmenté de 29 %.
Une telle approche systémique, organisée autour d’un véritable écosystème de prévention du mal-être agricole (réunissant un réseau d’acteurs de proximité, de professionnels de santé, d’institutions et politiques publiques), constitue une piste majeure pour construire une stratégie de santé mentale en milieu agricole, capable de répondre aux vulnérabilités individuelles tout en agissant sur les facteurs sociaux et collectifs.
À lire aussi : Comprendre le malaise des agriculteurs
Virginie Le Bris Fontier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.12.2025 à 15:58
La transition agroécologique peut-elle vraiment justifier le soutien politique à la méthanisation ?
Texte intégral (2464 mots)

La méthanisation agricole se développe en France portée par deux promesses politiques : celle de contribuer à la transition énergétique en produisant du biométhane, d’une part, et celle de participer à la transition agroécologique en faisant évoluer les systèmes agricoles, d’autre part. Mais cette seconde promesse peut-elle vraiment être tenue ?
Le projet en date de programmation pluriannuelle de l’énergie (PPE 3) formule, comme les précédentes, pour la méthanisation un double objectif : promouvoir de concert la transition énergétique et la transition agroécologique.
Pour l’heure, ces promesses servent à justifier une dépense publique d’un milliard d’euros par an pour le rachat du biométhane produit. Sans elle, la filière ne se développerait pas de la même manière, ni quantitativement, ni qualitativement. Les objectifs de production énergétique du projet de PPE sont à la fois très ambitieux (multipliés par quatre entre 2023 et 2030, jusqu’à sept d’ici 2035, selon les scénarios), et annoncés compatibles avec l’agroécologie – voire comme un levier en faveur de son développement.
L’argument d’une convergence entre méthanisation et agroécologie est notamment fondé sur la réduction attendue des pertes d’azote permise par sa meilleure maîtrise et le développement de cultures intermédiaires à vocation énergétique (Cive) s’intercalant entre deux cultures d’hiver (on parle de « Cive d’été », typiquement du maïs) ou juste avant une culture d’été (Cive couvrant le sol en hiver, typiquement un seigle récolté en vert).
Cette allégation agroécologique d’ensemble a pourtant de quoi surprendre, car le développement de la biométahisation a tous les attributs d’une agriculture industrielle.
Face à ces visions contradictoires, nous nous proposons d’évaluer la manière dont cette promesse est remplie. Nous continuons une discussion déjà engagée ici, en adoptant une perspective agroécologique plus large.
À lire aussi : La méthanisation est-elle vraiment un levier pour l’agroécologie ?
L’agroécologie, un changement systémique
Revenons d’abord sur le terme « agroécologie », largement repris et transformé dans différents espaces politiques.
Face aux multiples réappropriations, rappelons qu’elle désigne à la fois :
un ensemble de pratiques productives liées entre elles et non un catalogue de pratiques dans lequel on pourrait piocher isolément ;
un mouvement social à l’avant-garde de la transformation socioécologique des systèmes agroalimentaires ;
et une science transdisciplinaire.
Cette notion a donc une histoire fondée sur des développements scientifiques. Depuis les années 1980, ces derniers insistent sur son caractère systémique. Il ne s’agit pas seulement de promouvoir une agriculture plus vertueuse selon un critère donné, par exemple la seule réalisation d’économies en énergie ou fertilisants.
L’enjeu est de penser l’agroécosystème comme un ensemble intégré, en s’appuyant sur l’analyse et la compréhension de ses propriétés et de ses fonctionnalités pour concevoir des systèmes productifs réellement soutenables des points de vue écologique et social.
Dans les discours qui promeuvent la méthanisation, trois grands éléments sont présentés comme des leviers de transition agroécologique :
les économies en fertilisants azotés achetés qui sont permises par l’usage de digestats, coproduits du processus de méthanisation riches en azote ;
la diversification des cultures via l’introduction de Cive ;
et l’autonomie renforcée des agriculteur pratiquant la méthanisation, sans que cette autonomie soit précisée, nous y reviendrons.
Ces trois points relèvent en effet d’une démarche agroécologique dans leur acception générique. Ils font toutefois ici l’objet d’une requalification qui en altère fondamentalement la signification.
Des économies d’azote en trompe-l’œil
Commençons par les économies d’engrais azotés souvent mises en avant, procédant de l’épandage des digestats. Il faut d’abord considérer que la méthanisation agricole ne crée pas d’azote ex nihilo. Dans les digestats, celui-ci provient très majoritairement en amont des engrais de synthèse, des déjections animales et, marginalement, des légumineuses.
Ces « économies » d’engrais azotés pour fertiliser les cultures en aval du processus de méthanisation relèvent donc d’un transfert d’azote entre une exploitation tierce et l’unité de méthanisation, via la biomasse contenant de l’azote « incorporé ».
À lire aussi : Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre
Lorsque la source d’azote du digestat est d’origine végétale, cela veut dire qu’on a introduit sur le territoire des cultures spécifiques (les Cive), ce qui signifie une intensification de la production de biomasse puisqu’on produit deux fois plus sur la même surface. Dans ce cas, ce qui est économisé en aval sur le plan économique provient en fait d’une intensification de la production agricole en amont.
Enfin, lorsque la méthanisation est fondée sur la valorisation des déjections animales, la logique est en principe plus propice à une circularité des flux. Pour autant, les contraintes de collecte et de stockage à une échelle suffisante pour alimenter une unité de méthanisation ne sont majoritairement pas compatibles avec des modalités d’élevage agroécologique.
Une diversification sans intérêt écologique
Par ailleurs, la diversification promise via l’introduction des Cive concerne des cultures à rotation courte (seigle, avoine, méteil, maïs).
Pour autant, ces cultures – souvent du maïs – n’ont pas nécessairement d’intérêt écologique fort en elles-mêmes. C’est d’autant moins si elles sont irriguées et fertilisées, comme c’est souvent le cas.
Le risque est que les objectifs de production énergétique affichés ne conduisent à la multiplication et à l’agrandissement des unités de méthanisation, qui vont en retour augmenter la demande de Cive.
Sur ce point, la requalification consiste à passer d’un principe agroécologique de maximisation de la biodiversité et de préservation des services rendus par les écosystèmes, à une simple diversification des cultures intensives.
Une autonomie illusoire
Quant à l’autonomie telle qu’elle est entendue ici, elle découle du complément de revenu par l’agrométhaniseur (voire d’un glissement vers un revenu principal tiré pour les « énergiculteurs ») permis par des tarifs de rachat globalement avantageux. Le raisonnement étant qu’un agrométhaniseur doté d’un revenu plus élevé peut plus facilement mettre en œuvre des pratiques agroécologiques que s’il a le couteau sous la gorge.
Mais le revenu issu de la méthanisation n’induit pas en lui-même l’adoption de systèmes agroécologiques et cet objectif pourrait être mieux atteint par un meilleur ciblage des aides. Le milliard d’euros par an pour le tarif de rachat est à comparer à environ 170 millions d’euros annuels pour l’ensemble des mesures agri-environnementales de la PAC, notoirement sous-dotées.
« L’autonomie » financière tirée de la méthanisation a tout autant de chances de pousser à une maximisation de la production énergétique sous forte contrainte technico-économique pour rembourser les investissements : davantage de maïs irrigué, de déjections concentrées dans des bâtiments. Au risque de renforcer la pression sur les agroécosystèmes et produire des effets opposés à l’autonomie technique et décisionnelle qui est celle de l’agroécologie.
Finalement, l’agrométhaniseur se retrouve dépendant, tout comme l’agriculteur conventionnel, de prestataires techniques et financiers. Son approvisionnement en biomasse devient crucial et induit une pression sur l’ensemble des filières territoriales, qui deviendra critique en cas de rareté les mauvaises années
De nombreux angles morts
La promesse agroécologique de la méthanisation reste toutefois muette sur des points pourtant cruciaux : les paysages, la biodiversité, la sobriété absolue en intrants ; c’est-à-dire, le fait de ne plus dépendre d’intrants azotés de synthèse, à ne pas confondre avec une optimisation de leur usage.
Sur un registre plus sociopolitique, l’autonomie paysanne et décisionnelle des agriculteurs et plus largement, la transformation industrielle des modes de développement auxquels la méthanisation participe, ne sont pas pris en compte.
Pourtant : pas d’agroécologie sans écologie du paysage, sans substitution des intrants de synthèse par des solutions fondées sur la nature, sans végétation semi-naturelle et des animaux extensifs jouant un rôle écologique, sans autonomie financière et technologique des paysans, sans remise en cause des rapports socioécologiques de production.
À lire aussi : Au nom du paysage ? Éoliennes, méthaniseurs… pourquoi les projets renouvelables divisent
Ce qui est absent de la politique actuelle de développement de la méthanisation est fondamentalement l’approche holistique qui caractérise pleinement l’agroécologie. Cette dernière ne peut se résumer à un catalogue de pratiques mises en avant, mais à une démarche globale articulant l’autonomie décisionnelle à une autonomie technique fondée sur une sobriété matérielle d’ensemble et un respect des cycles biologiques et biogéochimiques à l’échelle territoriale.
À lire aussi : Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre
Une nécessaire réorientation politique
Est-ce à dire que la méthanisation est incompatible avec l’agroécologie ? En principe, non, et des exemples dans des pays en développement montrent qu’à petite échelle, elle peut pleinement contribuer à un projet agroécologique, lorsqu’elle valorise une fraction réduite de déchets au service d’une véritable autonomie paysanne low-tech.
Mais le passage à l’échelle, tel qu’envisagé en France et porté par le cadre politique d’ensemble, contredit les fondamentaux de l’agroécologie. Ce n’est pas une question de bonnes ou mauvaises pratiques, c’est une question politique de développement d’une filière à grande échelle, qui induit des rapports de production auxquels l’agroécologie, telle qu’elle se déploie historiquement dans les mouvements paysans à travers le monde, veut précisément proposer des alternatives.
S’il doit y avoir une rencontre entre la méthanisation et l’agroécologie, c’est via des projets opportunistes, économes, à petite échelle, qui prennent en compte le fonctionnement de l’ensemble des agroécosystèmes, n’induisant aucune production supplémentaire dédiée et au service d’usages locaux. Faire l’impasse sur la biodiversité, les paysages et la sobriété, c’est hypothéquer l’avenir. Viser beaucoup trop grand, c’est risquer la faillite d’ensemble de l’ensemble de l’agriculture. Continuer la politique du chiffre agrégeant les TWh, c’est sélectionner davantage des exploitations déterritorialisées, qui ne répondent pas aux enjeux socioécologiques auxquels nous devons faire face.
Et à ceux qui considèrent qu’il faudrait alors peut-être sacrifier l’agroécologie à la souveraineté énergétique, nous répondrons qu’il faut commencer par le commencement : la sobriété énergétique, trop souvent marginalisée par les discours de politique de l’offre. La biomasse industrielle est sans doute une chimère à laquelle il est dangereux de s’accrocher, fût-elle autoproclamée « durable ».
Xavier Poux, agronome et consultant pour le cabinet d'études, de conseils et de recherche dans le domaine des politiques environnementales AScA, expert pour l'IDDRI, a co-écrit cet article
Renaud Metereau a reçu des financements de IdEx Université Paris Cité, ANR-18-IDEX- 0001 (Centre des Politiques de la Terre - projet MethaTransferts)
30.11.2025 à 20:34
Les forêts du Grand-Est au cinéma : un territoire qui s’enracine à l’écran
Texte intégral (2068 mots)
Le Grand-Est est l’une des régions les plus boisées de France, avec plus de 30 % de sa surface couverte par des forêts. Au cinéma, il offre une forêt multiple : espace de travail, de mémoire, d’émotions et d’imaginaire.
Peu filmées mais profondément singulières, les forêts du Grand-Est deviennent à l’écran des lieux où se croisent réalités industrielles, ancrages identitaires et puissances narratives. À travers elles, les films révèlent autant un territoire qu’une manière sensible de le regarder.
Dans cette étude (issue des résultats du projet Matercine), nous analysons la manière dont les longs métrages tournés dans cette région investissent les forêts, qu’il s’agisse de témoigner des usages liés au travail du bois, de mobiliser des paysages rares et méconnus pour leur force esthétique, ou encore d’exprimer le lien intime qu’entretiennent certains réalisateurs avec ces lieux. L’ensemble de ces approches permet de comprendre comment la forêt du Grand-Est, bien au-delà du simple décor, devient au cinéma un espace identitaire et narratif essentiel.
La dualité des représentations des forêts du Grand-Est au cinéma
Comme dans d’autres régions françaises, les réalisateurs montrent souvent la forêt comme un espace de travail, lié à l’exploitation du bois. Mais ces usages productifs n’épuisent pas les façons de la représenter : nombre de réalisateurs choisissent ces forêts pour leur valeur esthétique, leur caractère méconnu ou pour l’attachement personnel qu’ils entretiennent à ces territoires.
La forêt du Grand-Est est en effet un espace multifonctionnel où s’entremêlent nature, industrie et culture. Elle structure les activités humaines (coupe du bois, schlittage – la schlitte est un traîneau qui servait, dans les Vosges et en Forêt-Noire, à descendre le bois des montagnes, conduit par un homme sur une voie faite de rondins – transport des grumes, sciage, construction et papeterie) qui façonnent l’économie régionale comme l’imaginaire collectif. Le cinéma reprend cette diversité et l’inscrit au cœur de ses récits. Les Grandes Gueules (Enrico, 1965) en offre un exemple emblématique : tourné dans une véritable scierie vosgienne, le film témoigne des pratiques forestières d’une époque – travail du bois, énergie hydraulique, transport traditionnel. Nos patriotes (Le Bomin, 2017) valorise quant à lui un schlittage filmé avec réalisme, rendu possible grâce à l’implication de spécialistes locaux.
Dans le Mangeur d’âmes (Bustillo, Maury, 2024), scierie et grumes deviennent des éléments dramatiques : décor authentique, matière visuelle dense et espace de tension pour les scènes d’action. L’usage industriel du bois apparaît aussi dans le Torrent (Le Ny, 2022), tourné au sein d’une entreprise vosgienne réelle, ou dans le Couperet (Costa-Gavras, 2005), où une papeterie vosgienne accueille l’intrigue, articulant territoire local et discours social universel.
Plus-value culturelle
Au-delà de ces dimensions productives, les forêts du Grand-Est possèdent une singularité paysagère qui attire des réalisateurs en quête de décors rares. Elles offrent des espaces peu filmés, marqués par des reliefs, des lacs glaciaires, des espaces boisés denses, qui constituent des territoires non substituables. Filmer ces forêts revient alors à révéler un paysage méconnu, à donner à voir un territoire encore invisibilisé. Cette démarche confère une valeur ajoutée au film, mais aussi au lieu : comme l’énonce la géographe Maria Gravari-Barbas, le regard cinématographique peut créer une plus-value culturelle pour des sites auparavant invisibles.
Certains cinéastes revendiquent cette volonté de découverte. Anne Le Ny, réalisatrice du film le Torrent (2022), souligne ainsi l’atmosphère unique des Vosges, qui lui a donné le sentiment d’être « pionnière ». Dans Perdrix (2019), Erwan Le Duc filme longuement les forêts et le lac des Corbeaux, affirmant un territoire « de cinéma » encore peu exploré.
« J’ai trouvé qu’il y avait une atmosphère très particulière dans les Vosges. D’abord, je suis tombée sur des décors magnifiques qui collaient très bien au scénario avec un mystère particulier et puis le plaisir aussi de tourner dans une région qui n’a pas tellement été filmée. On se sent un petit peu pionnière et c’est très excitant. » (Anne Le Ny, interviewée par Sarah Coton, Fun Radio, novembre 2022)
Cette proximité peut être encore plus intime. De nombreux réalisateurs tournent dans des lieux qu’ils connaissent, où ils ont grandi ou qu’ils associent à leur histoire personnelle. Leur rapport au territoire relève ainsi d’un territoire vécu, chargé de mémoire, d’expériences et de relations sociales. La forêt devient alors le support d’une identité, un espace où se superposent réalité et fiction. C’est le cas d’Erwan Le Duc dans Perdrix (2019) ou de Valérie Donzelli pour Main dans la main (2011), qui revendiquent leur attachement aux paysages lorrains de leur enfance.
La forêt, un territoire d’ombres…
Entre clair-obscur, sous-bois inquiétants et clairières lumineuses, les forêts du Grand-Est permettent aux réalisateurs de traduire aussi bien la peur, le mystère ou la clandestinité que la sérénité, l’éveil ou l’accomplissement. Par leur capacité à refléter les états intérieurs des personnages, ces forêts deviennent de véritables outils esthétiques et narratifs, révélant la singularité du territoire.
Une première tonalité, sombre et dramatique, irrigue le cinéma fantastique, policier, de guerre ou d’horreur. La forêt y apparaît comme un espace d’isolement et de menace, qui mêle naturalisme et surnaturel : silhouettes mouvantes, bruits étouffés, climat hostile, jeux d’ombres. Cette atmosphère immersive renforce la tension psychologique, les peurs profondes et le sentiment d’incertitude. La Région accompagne cette dimension à travers le label « Frissons en Grand-Est », premier fonds consacré aux films de genre, soutenu par le Centre national du cinéma et de l'image animée (CNC) et structuré autour de festivals phares, tels que ceux de Gérardmer, de Strasbourg, ou encore Reims Polar et War on Screen. Cette dynamique contribue à positionner le Grand-Est comme terre de frissons, où les paysages forestiers deviennent les complices naturels d’une esthétique noire.
La forêt s’expose dans les récits de guerre, en particulier autour de la thématique de la clandestinité. Lieu de refuge pour les maquisards, elle abrite déplacements secrets, identités dissimulées et tensions de la survie. Dans Nos patriotes (Le Bomin, 2017), la Place d’une autre (Georges, 2021) ou encore Nos résistances (Cogitore, 2011), les réalisateurs choisissent les Vosges ou l’Alsace afin d’ancrer leurs récits dans un territoire historique réel, renforçant le réalisme des actions clandestines. Ces forêts incarnent alors autant une protection qu’une transformation intime, où les personnages quittent leur vie civile pour entrer dans une existence parallèle faite de solidarité et de résistance.
La criminalité trouve aussi dans ces espaces naturels un terrain narratif fertile. Qu’il s’agisse d’un crime intime, comme dans le Torrent (Le Ny, 2022), d’une tension familiale violente, comme dans la Fin du silence (Erzard, 2011), ou d’une atmosphère de légende sombre et de disparitions inexpliquées, comme dans le Mangeur d’âmes (Bustillo, Maury, 2024), la forêt agit comme un personnage à part entière : elle dissimule, révèle, dérègle, structure. Ses reliefs, son climat, son obscurité ou son immensité renforcent la dramaturgie et nourrissent une topographie émotionnelle du secret, du mensonge ou de la menace.
Enfin, la forêt du Grand-Est au cinéma apparaît comme un refuge temporaire et fragile, offrant aux personnages un espace isolé pour se protéger et se reposer. Dans Survivre avec les loups (Belmont, 2007), elle joue ce rôle de protection, tandis que dans Baise-moi (Despentes, 2000), la forêt finale symbolise un havre éphémère pour les deux protagonistes, un moment de calme et de sérénité avant la tragédie, où même la mort semble suspendue par la nature.
… et de lumières
Ces forêts se déploient également comme des espaces lumineux, poétiques et pacifiés. Dans la Dormeuse Duval (Sanchez, 2017), Main dans la main (Donzelli, 2012) ou la Bonne Épouse (Provost, 2020), elles deviennent des territoires d’apaisement, des lieux de beauté et de contemplation qui contrastent avec l’agitation urbaine. Elles éveillent les sens – comme dans les Parfums (Magne, 2019), où la forêt alsacienne est appréhendée par l’olfaction – et accompagnent des récits d’apprentissage, d’amitié ou d’amour. La forêt y assume alors des fonctions symboliques complémentaires : le départ (fuite du quotidien), le passage (transformation, éveil du désir, émancipation) et l’arrivée (réconciliation, apaisement, accomplissement).
Le départ se manifeste comme un besoin de fuir le quotidien ou la contrainte sociale : dans Leurs enfants après eux (signé des frères Boukherma, 2024), les adolescents quittent la grisaille ouvrière pour s’échapper dans les bois, tandis que dans Tous les soleils (Claudel, 2011), le héros rejoint un refuge forestier pour se libérer des pressions familiales et retrouver un peu de silence.
Le passage correspond à l’expérience de transformation et d’émancipation : dans Petite Nature (Theis, 2021), Johnny traverse la forêt pour se rapprocher du monde adulte et s’affirmer, et dans Mon chat et moi… (Maidatchevsky, 2023), Rroû retrouve son instinct et sa liberté en explorant les sous-bois.
Enfin, l’arrivée symbolise l’accomplissement et l’apaisement : dans Perdrix (Le Duc, 2019), Pierre et Juliette atteignent la rive du lac après leurs aventures forestières, exprimant leur amour en toute liberté, et dans Jules et Jim (Truffaut, 1962), les balades en forêt incarnent des instants de joie et de plénitude avant la tragédie. À travers ces récits, la forêt se révèle un espace initiatique, miroir des émotions et catalyseur de la transformation intérieure.
Ainsi les forêts du Grand-Est se révèlent-t-elles un espace filmique pluriel. Elles traversent les récits en incarnant une territorialité cinématographique, où les liens entre les personnages et leur environnement façonnent la narration. À travers elles, le territoire se donne à voir et à ressentir, agissant comme un lieu d’émotions et de symboles, capable d’exprimer les ombres comme les lumières. Cette polysémie participe à la force cinématographique du Grand-Est, dont la richesse narrative repose précisément sur cette capacité à conjuguer frisson, mémoire, liberté et poésie, révélant un territoire à la fois concret et sensible.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.11.2025 à 09:38
Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt
Texte intégral (2272 mots)
Issu des régions tropicales, le jardin-forêt est un modèle d’agroforesterie qui séduit de plus en plus en Europe pour prendre le contrepied d’un modèle agricole à bout de souffle. Il semble peu envisageable qu’il se substitue à l’agriculture productiviste dominante, mais il ouvre des pistes inspirantes pour promouvoir des pratiques plus respectueuses du vivant.
Les analyses se multiplient aujourd'hui pour dénoncer les externalités négatives (pollution, changement climatique, crise de la biodiversité…) induites par le paradigme économique actuel. Le modèle agricole dominant, en particulier, est pointé du doigt.
En effet, les systèmes agroalimentaires dominants s'avèrent coûteux à bien des égards. Ils substituent à des processus naturels répondant à des fonctions écologiques précieuses des intrants à fort impact environnemental (engrais par exemple), ils uniformisent les modes de culture, ils mettent à disposition du consommateur une alimentation d'une qualité nutritive questionnable, et enfin ils dévitalisent les tissus sociaux ruraux.
À rebours de cette logique productiviste, d'autres formes d'agriculture, parfois très anciennes, suscitent dès lors un regain d'intérêt. C'est le cas du modèle jardin-forêt, qui se développe peu à peu en Europe. Il est une transposition géographique en milieux tempérés de l'agroforesterie des tropiques humides, notamment indonésiennes.
Là-bas, l'agriculture vivrière et une partie de l'agriculture commerciale des petits planteurs sont conduites en pérennisant le modèle forestier traditionnel – fruits, légumes, noix, tubercules, plantes médicinales, matériaux, bois de feu ou de construction y sont produits au sein d'écosystèmes arborés multi-étagés, diversifiés et denses.
Structurés autour des arbres et de leur diversité, les jardins-forêts partagent avec les forêts naturelles des caractéristiques de robustesse, de résilience et de productivité. Multipliant les externalités positives (c'est-à-dire, des effets positifs tant d'ordre écologiques qu'économiques), ce modèle millénaire nourricier représente une voie inspirante qui vaudrait d'être davantage connue et considérée sous nos latitudes.
Il est fondé sur la polyvalence des forêts. Les jardins-forêts montrent que les arbres et les systèmes forestiers, dont les capacités de production, de régulation, de facilitation et de symbiose sont mésestimées, peuvent être bien plus productifs que nous le croyons.
À lire aussi : Pour des forêts à croissance rapide, favorisez les arbres à croissance lente
Des « forêts comestibles » aux antipodes des monocultures
Aussi surnommés « forêts comestibles », les jardins-forêts se caractérisent par une forte densité d'arbres, d'arbustes, mais aussi de lianes et d'herbacées, tous de lumière et d'ombre, et tous d'intérêt alimentaire.
Ils sont donc multifonctionnels. En témoignent par exemple :
leur productivité à l'hectare,
l'agencement spatial de leurs éléments constitutifs,
leur composition très diversifiée en termes d'espèces,
la richesse des mutualismes entre espèces,
Leur performance leur dynamisme et leur robustesse en tant que système de production alimentaire.
Ils sont à l'opposé des monocultures, qui sont spatialement et génétiquement homogènes. Celles-ci sont fondées sur la culture d'une seule variété, et souffrent dès lors une vulnérabilité maximale aux aléas. En jardin-forêt, les invasions d'insectes ravageurs ou les dégâts d'intempéries, pour ne citer que ces exemples, sont réduits en raison d'une importante hétérogénéité structurale et d'une faible exposition aux aléas. Des caractéristiques précieuses dans le contexte de dérèglement climatique.
Ces systèmes nourriciers sont aujourd'hui une réalité éprouvée, y compris en Europe. Aux Pays-Bas par exemple, des jardins-forêts à vocation agricole affirmée existent depuis quinze ans, financés par la politique agricole commune.
À lire aussi : Incendies, sécheresses, ravageurs : les forêts victimes de la monoculture
Une production agricole à hauteur d'humain
Un autre point fort de cette alternative agricole est son échelle à hauteur humaine. En effet, le jardin-forêt envisage le parcellaire cultivé, dans ses dimensions spatiales comme dans les pratiques dont il fait l'objet, autour de la mesure étalon de la personne qui en prend soin.
Les recours à l'observation et au soin, de même que l'accumulation patiente de connaissances pratiques, y sont largement promus. Ils permettent une réactivité accrue et plus adaptée aux aléas, environnementaux mais aussi économiques.
Le « jardinier-forestier » est dès lors convié à se pencher sur son terrain à différentes échelles : du contrôle de la qualité des tissus mycorhiziens (c'est-à-dire, les champignons agissant en symbiose avec les racines) du sol jusqu'à la surveillance de la complémentarité permanente des strates de végétation.
La diversité ne se joue pas qu'à l'échelle d'une forêt comestible, mais aussi à l'échelle d'un territoire. A l'image du bocage, un réseau de jardins-forêts divers est pourvoyeur de services écosystémiques complets. Ils peuvent également s'insérer dans le tissu agricole et compenser une partie des impacts environnementaux néfastes induits par le modèle agricole dominant.
Un seul espace, des productions multiples
Par essence, le jardin-forêt offre une large diversité alimentaire. Pour rappel, seules 30 à 60 espèces végétales tout au plus assurent la base de notre alimentation occidentale, dont quelques espèces seulement de céréales. Une partie de cette alimentation est importée (avocats, ananas ou bananes), alors que 7 000 espèces alimentaires sont cultivables en climat tempéré, sans renfort technique particulier. Le modèle du jardin-forêt s'avère apte à les valoriser.
Les « forêts comestibles » sont en effet des espaces de multiproduction où sur une même parcelle peuvent se déployer quatre types de produits différents :
Les aliments « forestibles » dans lesquels ont peut inclure fruits, noix et graines, ressources tuberculeuses amidonnées ou riches en inuline, légumes, feuilles, feuillages, fleurs, champignons, épices, sirop de sève, viande sauvage ou domestique en cas de petit élevage, ou encore produits de la ruche (miel, pollen, propolis) ;
les biomatériaux (bois de construction, bambou, osier, gommes, cires, résines, liants, latex, papier, tinctoriales) ;
les ressources médicinales provenant de tous les étages végétaux de la forêt comestible ;
et enfin les combustibles (bois énergie, copeaux, fagots).
À lire aussi : Pharma, cosmétique… et si les déchets végétaux aidaient à développer l’économie circulaire ?
Une porte vers d'autres imaginaires
Les jardins-forêts ne se limitent pas à la seule production de biens alimentaires et de services environnementaux. Ils offrent également des ressources immatérielles dont nous avions fini par croire qu'elles ne pouvaient être compatibles avec une agriculture performante.
En effet, ces espaces créent aussi les conditions pour d'autres imaginaires. Ils sont le support d'activités diverses (artisanales, éducatives, thérapeutiques, culturelles) favorables au mieux-être. Ces services immatériels peuvent concourir à transformer les zones rurales en espaces plus désirables et plus habitables, voire à les reterritorialiser. La psychologie atteste en outre des bienfaits des arbres sur le bien-être humain.
En France, les jardins-forêts recouvrent environ 2 000 hectares. Peu connus du grand public, des institutions et des pouvoirs publics, ils se heurtent à une vision encore archaïque de la forêt, vue comme aux antipodes de la civilisation, et à une réticence à valoriser des ressources alimentaires parfois rattachées dans les imaginaires aux périodes de famine.
Il leur est également reproché d'inviter à un relâchement des pratiques conventionnelles de contrôle du vivant habituellement exercées en agriculture (taille, fertilisation, contrôle direct des ravageurs…), auxquelles est ici préférée, pour des raisons de durabilité et d'efficience économique, une philosophie de l'accompagnement et de l'amplification des processus écologiques naturels.
S'ils n'ont pas vocation à supplanter les autres systèmes agricoles en place, ils ont toutefois le potentiel de redynamiser et resocialiser les campagnes. De quoi développer de nouvelles activités rurales exigeantes mais porteuses de sens et pourvoyeuses de bien-être. C'est précisément là une demande sociale et une exigence environnementale de plus en plus pressantes.
Fondateur de l’association Forêt gourmande, Fabrice Desjours a contribué à la rédaction de cet article.
Michon Geneviève a reçu des financements de ANR, UE.
Jacques Tassin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.11.2025 à 17:07
« Dévendeurs » contre commerçants : comment sortir du dilemme des politiques de soutien à l’économie circulaire ?
Texte intégral (2057 mots)
Malgré le succès grandissant du Black Friday, qui se tient ce vendredi 28 novembre et qui vient renforcer la surconsommation à travers des promotions généralisées, les modes de consommation changent peu à peu à l’aune des enjeux écologiques. Mais les politiques publiques peinent souvent à trouver l’équilibre entre soutien à l’économie circulaire et protection des intérêts commerciaux traditionnels. Comment sortir de ce dilemme ?
En novembre 2023, à la veille du Black Friday, l’Agence de la transition écologique (Ademe) lançait une campagne de communication introduisant le concept de « dévendeur ». Concrètement, plusieurs vidéos mettaient en scène un vendeur qui encourageaient un client en quête de conseils sur le modèle à acquérir, à plutôt réparer son bien au lieu d’acheter un nouveau produit neuf.
Sur les réseaux sociaux, l’initiative a déclenché une vive polémique et a divisé autant les professionnels que le gouvernement. Au-delà de la controverse, cette situation illustre un défi majeur de notre époque : comment concilier la transition vers l’économie circulaire avec les intérêts économiques traditionnels ?
Pour trouver des réponses, l’Observatoire des futurs de l’EM Strasboug (Université de Strasbourg) a réalisé une étude sur la thématique industrie et économie circulaire à l’horizon 2035. Cette étude s’appuie sur des ateliers participatifs réunissant chercheurs, praticiens et acteurs institutionnels tels qu’Eurométropole, l’Ademe, Initiatives durables, et Grand Est Développement). Nous en livrons quelques résultats.
À lire aussi : Sobriété versus surconsommation : pourquoi les « dévendeurs » de l’Ademe sont polémiques
Un dilemme au cœur des politiques publiques
À l’échelle européenne, l’engagement pour l’économie circulaire s’est considérablement renforcé depuis le lancement du Pacte vert en 2019. Cette volonté s’est traduite par des plans d’action successifs, notamment en mars 2020, ciblant des secteurs spécifiques comme le textile, les plastiques et la construction. La Commission européenne a également proposé en 2022 des mesures pour accélérer cette transition, avec un accent particulier mis sur la durabilité des produits et la responsabilisation des consommateurs.
En France, cette dynamique européenne s’est accompagnée d’initiatives nationales ambitieuses. La loi anti-gaspillage pour une économie circulaire (dite loi Agec) adoptée en 2020 promeut en particulier l’économie de la fonctionnalité et du service via le réemploi et la réparation. Selon une étude de l’Institut national de l’économie circulaire (Inec) et d’Opeo publiée en 2021, 81 % des industriels français interrogés perçoivent l’économie circulaire comme une opportunité.
Pour plus de 85 % d’entre eux, elle permettrait non seulement de développer de nouveaux marchés et de réaliser des économies, mais aussi de relever les défis environnementaux actuels. Cependant, ces orientations se heurtent à un modèle économique encore largement basé sur la vente en volume.
À lire aussi : Consommation sobre : un défi culturel autant qu'économique
Des consommateurs de plus en plus conscients
L’évolution des comportements d’achat témoigne d’ailleurs d’une prise de conscience croissante chez les consommateurs. Les convictions personnelles liées à l’éthique et l’environnement pèsent de plus en plus sur les choix individuels et les consommateurs privilégient désormais le « Made in France » et les produits issus de l’économie circulaire.
Une enquête menée en France par OpinionWay en 2024 montrait ainsi que 42 % des personnes interrogées se disaient prêtes à dépenser plus d’argent pour avoir des produits vestimentaires plus respectueux de l’environnement et socialement responsables.
D’après une étude d’Ipsos, deux vacanciers européens sur trois se déclaraient prêts à modifier leur mode de transport durant l’été 2023 pour réduire leur impact carbone.
À lire aussi : Surconsommation de vêtements : pourquoi la garde-robe des Français déborde
Un soutien public en quête d’équilibre
Face à ces évolutions, les politiques publiques tentent de trouver un équilibre délicat. L’Union européenne (UE) déploie des financements importants pour soutenir cette transition. Le programme Horizon Europe (2021-2027) offre ainsi un budget de 95,5 milliards d’euros, dont une partie significative est destinée à la recherche et l’innovation en économie circulaire.
Toutefois, ces mécanismes de financement européens souffrent de plusieurs lacunes que nous avons identifiées à partir des entretiens d’experts réalisés dans le cadre de l’étude :
- une communication limitée autour des programmes,
- un soutien insuffisant aux entreprises déjà engagées dans la circularité,
- et des budgets parfois davantage orientés vers les études que vers l’accompagnement concret des transformations.
Au niveau national, de nombreuses mesures ont été mises en place, parmi lesquelles :
- le fonds d’économie circulaire de l’Ademe, renouvelé annuellement,
- les programmes d’investissement d’avenir successifs, dont le dernier (PIA 5) dispose d’un budget de 54 milliards d’euros,
- ou le plan France 2030, qui a déjà engagé 21 milliards d’euros avec plus de 1 000 projets répondant à l’objectif « mieux produire ».
Ces dispositifs ne parviennent toutefois pas toujours à répondre aux besoins de l’ensemble des acteurs. Les petites entreprises, en particulier, peinent souvent à accéder aux informations et aux financements, alors même qu’elles sont en général plus avancées dans leurs pratiques circulaires.
C’est plutôt au niveau local qu’émergent les solutions innovantes les plus prometteuses : l’Eurométropole de Strasbourg, par exemple, déploie des actions concrètes : création de réseaux d’acteurs autour de l’économie circulaire, soutien aux structures d’insertion dans le domaine du recyclage, développement de l’écologie industrielle territoriale et promotion du réemploi dans le secteur du bâtiment et travaux publics (BTP).
Ces initiatives montrent qu’il est possible de créer des synergies entre différents acteurs économiques autour de l’économie circulaire.
À lire aussi : Économie circulaire : les consommateurs, acteurs oubliés de la réglementation européenne
Quatre futurs possibles pour réinventer le commerce
Mais la controverse des « dévendeurs » a révélé un besoin plus profond de repenser nos modèles économiques. Comment les politiques de soutien pourraient-elles évoluer face à ce dilemme entre promotion de la sobriété et maintien de l’activité commerciale ? Quatre scénarios se dessinent à l’horizon 2035, chacun proposant une approche différente de création de valeur.
Dans un premier scénario, les politiques de soutien resteraient ambivalentes, tentant de satisfaire à la fois les commerçants traditionnels et les acteurs de l’économie circulaire. Cette approche conduirait à des mesures parfois contradictoires : d’un côté, des subventions pour la modernisation des commerces, de l’autre, des campagnes promouvant la sobriété. Les grandes enseignes s’adapteraient en créant des « coins réparation », mais sans remise en cause fondamentale de leur modèle. Les petits commerces, pris entre deux logiques, peineraient à trouver leur place. Le risque est d’aboutir à un soutien fragmenté et inefficace.
Le deuxième scénario miserait sur l’innovation pour réconcilier vente et durabilité. Les commerces deviendraient des « hubs circulaires » où la technologie (IA, blockchain) optimiserait la réparation et la revente. Le métier de vendeur évoluerait vers un rôle de « conseiller en usage durable », proposant la solution la plus pertinente : réparation, achat neuf ou reconditionné. Un modèle prometteur, mais qui risque d’exclure les petits commerces faute de moyens d’investissement.
Dans une troisième configuration, les politiques se territorialiseraient fortement, avec des aides adaptées aux besoins locaux. Les commerces deviendraient des lieux hybrides de vente, réparation et échange. L’économie de la fonctionnalité s’y développerait naturellement, privilégiant l’usage plutôt que la propriété. Les « dévendeurs » s’intégreraient dans ce maillage territorial, même si cette approche pourrait créer des disparités entre régions.
Face à l’urgence climatique, le dernier scénario verrait l’État imposer une transformation radicale et un tantinet autoritaire. Des quotas de réparation et de réemploi seraient imposés aux commerces. La fonction de « dévendeur » deviendrait obligatoire dans les grandes surfaces. Parmi les mesures concrètes, l’Institut national de l’économie circulaire propose déjà une TVA à 5,5 % sur les opérations de réparation et des taux réduits pour les produits reconditionnés et écoconçus.
Dépasser l’opposition entre vendeurs et « dévendeurs »
La résolution du dilemme entre « dévendeurs » et commerçants passera sans doute par une combinaison de ces approches. Les politiques de soutien devront préserver la viabilité économique du commerce tout en accélérant la transition vers la sobriété. Ce qui implique la création de nouveaux métiers autour de la réparation et du réemploi, l’innovation dans les services plutôt que dans la production de biens, un accompagnement fort des pouvoirs publics et une transformation de notre rapport à la consommation.
En définitive, l’enjeu n’est plus tant d’opposer commerce traditionnel et économie circulaire que de réinventer nos modes de production et de consommation. Le concept de « dévendeur » n’est peut-être qu’une première étape vers cette nécessaire mutation de notre économie, qui requiert des politiques de soutien plus inclusives, capables d’accompagner tous les acteurs dans cette transition.
L’article s’appuie sur des entretiens réalisés avec Christophe Barel (chef de projet senior à l’Ademe, le 30 janvier 2024) ; Carmen Colle (entrepreneuse dans le secteur du textile et militante pour un entrepreneuriat responsable, social et solidaire, 14 décembre 2024) ; Pia Imbs (présidente de l’Eurométropole de Strasbourg, 19 décembre 2024) ; Anne Sander (députée européenne, questeur du Parlement européen, 9 février 2024) et Maryline Wilhelm (conseillère déléguée à l’économie circulaire, sociale et solidaire, Ville de Schiltigheim, 19 janvier 2024).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.11.2025 à 17:06
La dinde, histoire d’une domestication
Texte intégral (2583 mots)
La dinde constitue un mets de choix sur les tables des fêtes d’Europe et d’Amérique du Nord, que ce soit pour Thanksgiving ou Noël. Son origine et les péripéties qui l’ont menée jusque dans nos cuisines sont toutefois peu connues du grand public.
La période des festivités de fin d’année semble tout indiquée pour revenir sur l’histoire naturelle et culturelle de cet oiseau de basse-cour, qui a fait l’objet d’un ouvrage collectif sorti en juin 2025 aux éditions scientifiques du Muséum national d’histoire naturelle.
La dinde ou le dindon commun, selon que l’on parle de la femelle ou du mâle, appartiennent à l’espèce Meleagris gallopavo que l’on retrouve encore à l’état sauvage sur l’essentiel du territoire des États-Unis, dans le sud du Canada et le nord du Mexique. Les sociétés américaines ont longtemps interagi avec ces oiseaux, essentiellement à travers la chasse. Le plus ancien kit de tatouage retrouvé en contexte archéologique, au Tennessee (États-Unis), daté d’entre 3500 et 1500 ans avant notre ère, était constitué d’os de dindon appointés. Mais ce n’est ni dans cette région ni à cette époque que la domestication du dindon a commencé, c’est-à-dire que le dindon et les humains sont entrés dans une relation de proximité mutualiste conduisant aux oiseaux de basse-cour que l’on connaît aujourd’hui [figure 1].
Une première domestication en Amérique centrale
Jusqu’au début de notre ère, les indices archéologiques d’un rapprochement entre dindons et humains sont, de fait, ténus. C’est en Amérique centrale, au Guatemala, que l’on retrouve la plus ancienne preuve de la gestion et de la manipulation des dindons. Dans cette région tropicale, on ne trouve pas de dindon commun sauvage mais son proche cousin, le dindon ocellé [figure 2]. Or sur le site d’El Mirador, quelques os de dindon commun ont été retrouvés, datés entre 300 avant notre ère et le tout début de notre ère – une identification confirmée par la génétique.
L’analyse des isotopes du strontium contenus dans ces os, spécifiques de l’environnement dans lequel un animal a vécu, ont quant à eux montré que les oiseaux avaient été élevés dans l’environnement local. Il s’agit de la trace la plus ancienne de translocation de l’espèce, son déplacement dans une région dans laquelle elle ne vivrait pas naturellement. Or un tel déplacement, sur des milliers de kilomètres et vers un environnement très différent, nécessite une connaissance fine du dindon et de ses besoins ainsi que des compétences zootechniques certaines. C’est donc l’aboutissement de plusieurs générations d’interactions et de rapprochement dans la région où le dindon commun se trouve naturellement, probablement sur la côte du golfe du Mexique ou dans le centre du Mexique, près de l’actuelle ville de Mexico. Au fil du temps, le nombre de restes de dindon augmente dans les sites archéologiques jusqu’à l’arrivée des Européens au XVIe siècle.
Dans le sud-ouest des États-Unis, à la convergence de l’Utah, du Colorado, du Nouveau-Mexique et de l’Arizona, on sait que les dindons étaient déjà présents il y a environ 10 000 ans, au début de la période holocène mais ils sont particulièrement rares dans les sites archéologiques.
Ce n’est qu’entre le début et 200 de notre ère qu’on voit leurs ossements apparaître régulièrement dans les sites archéologiques, bien qu’en faible proportion. Les traces les plus abondantes de leur présence sont leurs crottes (que l’on appelle coprolithes une fois fossilisées, dans le registre archéologique) retrouvées en particulier dans des structures en briques de terre crue complétées de branches qui servaient probablement à maintenir les dindons en captivité.
Des oiseaux convoités pour leurs plumes
Ces oiseaux appartiennent à une lignée génétique différente de celle des dindons sauvages locaux et l’analyse des isotopes du carbone contenu dans leurs os indique qu’ils ont consommé de grandes quantités de maïs. Ce sont donc des oiseaux captifs, certainement domestiques, mais on retrouve rarement leurs os dans ce que les archéologues étudient le plus, les poubelles des maisons. Ils n’auraient donc pas été mangés, ou assez rarement par rapport aux efforts mis en place pour les garder sur les sites. Les plumes d’oiseaux étaient néanmoins importantes pour ces populations et on retrouve notamment des fragments de plumes de dindon incluses dans le tissage d’une couverture en fibre en yucca. Une seule couverture aurait nécessité plus de 11 000 plumes, soit cinq à dix oiseaux selon la taille des plumes sélectionnées. Les oiseaux maintenus en captivité auraient ainsi pu être plumés régulièrement pour fournir cette matière première.
Au fil du temps, l’usage de dindons domestiques s’étend entre cette région du sud-ouest des États-Unis, le Mexique et l’Amérique centrale, mais les dindons sauvages restent bien présents dans l’environnement. Dans l’est des États-Unis, en revanche, si les restes osseux de dindons peuvent être abondants sur les sites archéologiques, il s’agit d’oiseaux sauvages chassés. C’est une mosaïque d’usage du dindon que les Européens ont ainsi rencontré à leur arrivée sur le continent américain [figure 3].
Poules d’Inde
C’est lors du quatrième voyage de Christophe Colomb en Amérique, alors qu’il explore les côtes de l’actuel Honduras, que l’on trouve ce qui peut être la première rencontre entre des Européens et des dindons, en 1502. On ne sait pas exactement comment leur réputation atteint l’Europe, probablement à travers les premières villes européennes construites dans les Antilles, mais en 1511 une lettre est envoyée par la couronne d’Espagne au trésorier en chef des Indes (les Antilles) demandant à ce que chaque bateau revenant vers la péninsule rapporte des « poules d’Inde » (d’où la contraction « dinde » apparue au XVIIe siècle en français), mâle et femelle, en vue de leur élevage.
En 1520, l’évêque d’Hispaniola (île englobant aujourd’hui Haïti et la République dominicaine) offre à Lorenzo Pucci, cardinal à Rome, un couple de dindons.
L’ouvrage publié au Muséum national d’histoire naturelle montre la multiplication des témoignages de la présence du dindon dans l’entourage de l’aristocratie européenne au cours du XVIe siècle. En France, en 1534, on trouve des dindons à Alençon, en Normandie, dans le château de Marguerite d’Angoulême, sœur de François Ier et reine de Navarre.
C’est aussi en 1534 qu’une amusante histoire se déroule en Estonie, où l’évêque de Tartu envoie un dindon en présent au duc Glinski – dindon qu’il avait précédemment reçu d’Allemagne. Mais l’oiseau exotique se répand aussi progressivement dans les basses-cours et sa consommation se généralise.
Entre le XVIe et le XVIIe siècle, il accompagne de nombreuses missions maritimes commerciales, atteignant même le Japon et revenant en Amérique – depuis l’Europe – dans les établissements coloniaux. Il semble toutefois être longtemps resté réservé aux repas de fêtes, et ce n’est qu’au cours du XXe siècle, avec l’essor de l’industrie agroalimentaire et la sélection de races de plus en plus lourdes, que sa viande entre dans la production de nombreux produits transformés. Finalement, l’animal complet, rôti et dressé sur une table à l’occasion de Thanksgiving ou de Noël, conserve la trace de cette longue histoire.
Aurélie Manin a reçu des financements des Actions Marie Sklodowska-Curie pour réaliser ce travail.
27.11.2025 à 11:51
Le climat est-il vraiment seul responsable de l’augmentation du degré d’alcool des vins ?
Texte intégral (3410 mots)
La précocité des vendanges que l’on observe depuis quelques années a été favorisée par le changement climatique. Mais la hausse du degré d’alcool dans les vins est aussi le fruit d’une longue tradition qui emprunte à l’histoire, au contexte social et aux progrès techniques, et qui a façonné la définition moderne des appellations d’origine protégée. Autrement dit, le réchauffement du climat et celui des vins, entraîné par lui, ne font qu’exacerber un phénomène ancien. C’est l’occasion d’interroger tout un modèle vitivinicole.
Dans l’actualité du changement climatique, la vitiviniculture a beaucoup occupé les médias à l’été 2025. En Alsace, les vendanges ont débuté un 19 août. Ce record local traduit une tendance de fond : avec le réchauffement des températures, la maturité des raisins est plus précoce et leur sucrosité plus importante. Cela a pour effet de bouleverser les calendriers et d’augmenter le taux d’alcool des vins.
La précocité n’est pas un mal en soi. Le millésime 2025 a pu être ainsi qualifié de « très joli » et de « vraiment apte à la garde » par le président d’une association de viticulteurs alsaciens. Ce qui est problématique en revanche, c’est l’augmentation du degré d’alcool : elle est néfaste pour la santé et contredit l’orientation actuelle du marché, plutôt demandeur de vins légers et fruités. Autrement dit, le public réclame des vins « à boire » et non « à garder », alors que la hausse des températures favorise plutôt les seconds.
Il faudrait préciser pourtant que l’augmentation des niveaux d’alcool dans les vins n’est pas nouvelle. Elle est même décorrélée du changement climatique :
« Les vins se sont réchauffés bien avant le climat »,
me souffle un jour un ami vigneron. Autrement dit, l’augmentation du degré d’alcool dans les vins a suivi un mouvement tendanciel plus profond au cours de l’histoire, dont on va voir qu’il traduit une certaine façon de définir la « qualité du vin ».
Se pose donc la question de savoir qui a « réchauffé » qui le premier ? Le climat en portant à maturité des grappes de raisins plus sucrées ? ou le savoir-faire des viticulteurs, qui a favorisé des vins plus propices à la conservation – et donc plus alcoolisés ? Postulons que le climat ne fait aujourd’hui qu’exacerber un problème qu’il n’a pas créé le premier. En lui faisant porter seul la responsabilité de la hausse de l’alcool dans les vins, on s’empêche de bien définir ce problème.
De plus, on inverse alors le sens des responsabilités : la vitiviniculture, en tant qu’activité agricole émettrice de gaz à effet de serre, participe à l’augmentation des températures – et cela bien avant que le changement climatique ne l’affecte en retour.
À lire aussi : Vin et changement climatique, 8 000 ans d’adaptation
Quand la définition des AOP fait grimper les degrés
Disons-le sans détour, l’instauration des appellations d’origine protégée AOP constitue un moment objectif de la hausse des taux d’alcool dans les vins. Dans certaines appellations du sud-est de la France, où j’ai enquêté, elle est parfois associée à des écarts vertigineux de deux degrés en trois à dix ans.
Il faut dire que les cahiers des charges des AOP comportent un « titre alcoométrique volumique naturel minimum » plus élevé que celui des autres vins : l’alcool est perçu comme un témoin de qualité.
Mais il n’est que le résultat visible d’une organisation beaucoup plus générale : si les AOP « réchauffent » les vins, souvent d’ailleurs bien au-delà des minima imposés par les AOP, c’est parce qu’elles promeuvent un ensemble de pratiques agronomiques et techniques qui font augmenter mécaniquement les niveaux d’alcool.
C’est ce paradigme, qui est associé à l’idée de « vin de garde », dont nous allons expliciter l’origine.
Les « vins de garde » se généralisent sous l’influence de l’État, de la bourgeoisie et de l’industrie
Contrairement à une idée répandue, le modèle incarné par les AOP n’est pas représentatif de l’histoire vitivinicole française en général.
Les « vins de garde » n’ont rien d’un canon immuable. Longtemps, la conservation des vins n’a intéressé que certaines élites. C’est l’alignement progressif, en France, des intérêts de l’une d’elles en particulier, la bourgeoisie bordelaise du XIXe siècle, de ceux de l’État et de ceux de l’industrie chimique et pharmaceutique, qui est à l’origine de la vitiviniculture dont nous héritons aujourd’hui.
L’histoire se précipite au milieu du XIXe siècle : Napoléon III signe alors un traité de libre-échange avec l’Angleterre, grande consommatrice de vins, et veut en rationaliser la production. Dans la foulée, son gouvernement sollicite deux scientifiques.
Au premier, Jules Guyot, il commande une enquête sur l’état de la viticulture dans le pays. Au second, Louis Pasteur, il confie un objectif œnologique, car l’exportation intensive de vins ne demande pas seulement que l’on gère plus efficacement la production. Elle exige aussi une plus grande maîtrise de la conservation, qui offre encore trop peu de garanties à l’époque. Pasteur répondra en inventant la pasteurisation, une méthode qui n’a jamais convaincu en œnologie.
À lire aussi : Louis Pasteur : l’empreinte toujours d’actualité d’un révolutionnaire en blouse
Sur le principe, la pasteurisation anticipe toutefois les grandes évolutions techniques du domaine, en particulier le développement du dioxyde de soufre liquide par l’industrie chimique et pharmaceutique de la fin du XIXe siècle. Le dioxyde de soufre (SO2) est un puissant conservateur, un antiseptique et un stabilisant.
Il va permettre un bond en avant dans la rationalisation de l’industrie et de l’économie du vin au XXe siècle (les fameux sulfites ajoutés pour faciliter la conservation), au côté d’autres innovations techniques, comme le développement des levures chimiques. En cela, il va être aidé par la bourgeoisie française, notamment bordelaise, qui investit alors dans la vigne pour asseoir sa légitimité. C’est ce groupe social qui va le plus bénéficier de la situation, tout en contribuant à la définir. Désormais, le vin peut être stocké.
Cela facilite le développement d’une économie capitaliste rationnelle, incarnée par le modèle des « vins de garde » et des AOP ainsi que par celui des AOC et des « crus ».
Ce qu’il faut pour faire un vin de garde
Bien sûr ce n’est pas, en soi, le fait de pouvoir garder les vins plus longtemps qui a fait augmenter les taux d’alcool. Mais l’horizon esthétique que cette capacité a dessiné.
Un vin qui se garde, c’est en effet un vin qui contient plus de tanins, car ceux-ci facilitent l’épreuve du temps. Or pour obtenir plus de tanins, il faut reculer les vendanges et donc augmenter les niveaux d’alcool, qui participent d’ailleurs aussi à une meilleure conservation.
Ensuite, la garde d’un vin dépend du contenant dans lequel il est élevé. En l’espèce, c’est le chêne, un bois tanique qui a été généralisé (déterminant jusqu’à la plantation des forêts françaises). Il donne aujourd’hui les arômes de vanille aux vins de consommation courante et le « toasté » plus raffiné de leurs cousins haut de gamme.
La garde d’un vin dépend également des choix d’encépagement. En l’espèce, les considérations relatives à la qualité des tanins et/ou à la couleur des jus de raisin ont souvent prévalu sur la prise en compte de la phénologie des cépages (c’est-à-dire, les dates clés où surviennent les événements périodiques du cycle de vie de la vigne).
Ceci a pu favoriser des techniques de sélection mal adaptées aux conditions climatiques et des variétés qui produisent trop d’alcool lorsqu’elles sont plantées hors de leur région d’origine, par exemple la syrah dans les Côtes du Rhône septentrionales.
En effet, la vigne de syrah résiste très bien à la chaleur et les raisins produisent une très belle couleur, raison pour laquelle ils ont été plantés dans le sud. Mais le résultat est de plus en plus sucré, tanique et coloré : la syrah peut alors écraser les autres cépages dans l’assemblage des côtes-du-rhône.
On pourrait évoquer enfin, et parmi beaucoup d’autres pratiques techniques, les vendanges « en vert », qui consiste à éclaircir la vigne pour éviter une maturation partielle du raisin et s’assurer que la vigne ait davantage d’énergie pour achever celle des grappes restant sur pied. Ceci permet d’augmenter la concentration en arômes (et la finesse des vins de garde), mais aussi celle du sucre dans les raisins (et donc d’alcool dans le produit final).
C’est tout un monde qui s’est donc organisé pour produire des vins de garde, des vins charpentés et taillés pour durer qui ne peuvent donc pas être légers et fruités, comme semblent pourtant le demander les consommateurs contemporains.
« Sans sulfites », un nouveau modèle de vins « à boire »
Ce monde, qui tend à réchauffer les vins et le climat en même temps, n’est pas représentatif de l’histoire vitivinicole française dans son ensemble. Il résulte de la généralisation d’un certain type de rapport économique et esthétique aux vins et à l’environnement.
C’est ce monde dans son entier que le réchauffement climatique devrait donc questionner lorsqu’il oblige, comme aujourd’hui, à ramasser les raisins de plus en plus tôt… Plutôt que l’un ou l’autre de ces aspects seulement.
Comme pistes de réflexion en ce sens, je propose de puiser l’inspiration dans l’univers émergent des vins « sans soufre » (ou sans sulfites) : des vins qui, n’étant plus faits pour être conservés, contiennent moins d’alcool. Ces vins sont de surcroît associés à beaucoup d’inventivité technique tout en étant écologiquement moins délétères, notamment parce qu’ils mobilisent une infrastructure technique bien plus modeste et qu’ils insufflent un esprit d’adaptation plus que de surenchère.
Leur autre atout majeur est de reprendre le fil d’une vitiviniculture populaire que l’histoire moderne a invisibilisée. Ils ne constitueront toutefois pas une nouvelle panacée, mais au moins une piste pour reconnaître et valoriser les vitivinicultures passées et présentes, dans toute leur diversité.
Ce texte a fait l’objet d’une première présentation lors d’un colloque organisé en novembre 2025 par l’Initiative alimentation de Sorbonne Université.
Léo Mariani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.11.2025 à 16:30
Réduire l’usage des pesticides : quand les agriculteurs s’inspirent de leurs pairs
Texte intégral (1773 mots)
S’inspirer de ses semblables et changer ainsi ses habitudes, c’est quelque chose qui s’observe souvent pour tout type de comportement. C’est aussi un levier d’action non négligeable pour réduire les pesticides, quand les injonctions perçues comme « venant d’en haut » font parfois freiner des quatre fers les premiers concernés.
Qu’il s’agisse de se mettre au vélo pour aller travailler, d’arrêter de fumer ou bien de découvrir un nouveau genre musical, nos vies sont ponctuées de changements inspirés par ceux qui nous entourent. Nos habitudes se transforment rarement seules : elles se propagent, s’imitent, s’apprennent. C’est aussi le cas pour les agriculteurs, qui s’inspirent des expériences de leurs proches pour faire évoluer leurs propres pratiques. Ce processus de diffusion des connaissances et d’influence au sein de réseaux de pairs est désigné par le concept d’apprentissage social.
Prendre en compte ces effets de pairs dans la conception de politiques publiques agricoles offre une piste prometteuse pour la promotion de pratiques économes en pesticides, dont les effets néfastes sur la santé et l’environnement ont été largement documentés par la communauté scientifique.
Plusieurs études se sont déjà penchées sur l’importance de l’apprentissage social dans l’évolution des comportements, et notamment des changements de pratiques des agriculteurs. Les économistes Benyishay et Mobarak montrent ainsi que les agriculteurs sont plus susceptibles d’adopter une nouvelle technologie agricole si celle-ci leur est présentée et expliquée par d’autres agriculteurs qui leur ressemblent.
Cette transmission entre pairs est prometteuse au vu de la difficulté à faire changer les pratiques des agriculteurs. Les programmes agro-environnementaux fondés sur des subventions individuelles censées rémunérer l’effort environnemental des exploitants sont souvent perçus comme des normes arbitraires imposées d’en haut par des acteurs déconnectés des enjeux agricoles réels, et se soldent en effet régulièrement par des échecs.
C’est particulièrement vrai pour les pratiques économes en pesticides, qui cristallisent les tensions entre modèle productiviste et modèle durable, rendant leur adoption complexe à généraliser.
Dans ce contexte, notre travail s’est donc interrogé sur la capacité de l’apprentissage social à générer un bénéfice environnemental. Et s’il était un levier efficace pour diminuer l’usage des pesticides ? C’est ce que nous avons pu démontrer, sur la base d’une étude de cas d’un programme agro-environnemental d’un genre nouveau, fondé sur un réseau d’agriculteurs volontaires : le programme DEPHY.
DEPHY, laboratoire d’un changement de modèle
Cette initiative a été lancée en 2010 au sein du plan Écophyto, un dispositif affichant l’objectif ambitieux d’une réduction de 50 % de l’usage des pesticides avant 2018. Le programme Démonstration, Expérimentation et Production de références sur les systèmes économes en PHYtosanitaires (DEPHY) est un réseau de 3 000 exploitations agricoles engagées dans une démarche volontaire de réduction des pesticides. Celles-ci ont pu bénéficier d’une assistance technique gratuite et de conseillers spécialisés pour repenser leurs utilisations de pesticides. Le but ? Proposer des trajectoires concrètes de changements de pratiques, issues de l’expérience des agriculteurs.
DEPHY permet ainsi d’expérimenter, sur plusieurs années, une combinaison de pratiques alternatives, telles qu’une amélioration des rotations des cultures afin de perturber le cycle des ravageurs, l’optimisation de la densité des semis et l’espacement des rangs pour favoriser la bonne santé des plantes, la production de différentes variétés de cultures pour réduire la pression des maladies, mais aussi la sélection de variétés à maturité précoce.
D’autres techniques sont explorées, comme le remplacement des pesticides par des outils mécaniques ou encore l’usage des méthodes de biocontrôle qui placent les mécanismes naturels et les interactions entre espèces comme instruments phares de la protection des cultures.
Le programme repose également sur le partage de connaissances produites par les expérimentations des fermes DEPHY. Lors d’une journée de démonstration, la ferme engagée dans le programme DEPHY accueille d’autres agriculteurs qui peuvent ensuite tester chez eux les méthodes qu’ils ont découvertes lors de leur visite. Au fil du temps, la pratique peut ainsi se répandre dans tout le secteur : c’est l’effet domino du bouche-à-oreille agricole.
Impacts du programme
Si les actions mises en place n’ont pas permis, pour l’instant, la diminution de moitié qui était visée, les résultats de ce programme démontrent néanmoins une certaine efficacité, avec une baisse de 18 % à 38 % de l’usage des pesticides dans les exploitations participantes entre la période précédant l’implantation de DEPHY et la moyenne 2018-2020.
En France, dix cultures concentrent 90 % des usages de pesticides. Notre étude a choisi de se focaliser sur la filière « grandes cultures, polyculture, élevage », qui a vu l’usage de pesticides baisser de 26 % en moyenne au sein des agriculteurs DEPHY. Cette filière représente approximativement 67 % de l’usage des pesticides en France, elle est donc particulièrement stratégique pour examiner la réduction des pesticides au niveau français.
Dans ce contexte, nous avons ainsi tâché d’évaluer les retombées de ce programme en distinguant ses effets chez les agriculteurs directement impliqués et ceux constatés chez les observateurs actifs. Nous avons ainsi voulu répondre à une question cruciale : comment généraliser les pratiques économes en pesticides au-delà du cercle restreint d’agriculteurs DEPHY ?
Les « agriculteurs observateurs » qui ont pu se rendre à des journées de démonstration étaient environ trois fois plus nombreux que les participants.
Résultat du programme DEPHY ou motivation initiale ?
On pourrait cependant rétorquer que les agriculteurs qui ont participé à DEPHY, ou bien qui sont allés observer ce programme étaient tous volontaires : ils étaient donc sans doute déjà intéressés par l’agroécologie et auraient peut-être modifié leurs pratiques de toute manière. Dans ce cas, les performances observées au sein du réseau refléteraient moins l’efficacité du dispositif lui-même que le profil particulier de ses participants.
Afin d’éviter ce biais, nous avons construit des groupes d’exploitations comparables en tous points – taille, type de production, contexte géographique et économique – ne différant que par la proportion de fermes engagées, directement ou indirectement, dans le programme.
L’analyse statistique de ces groupes, fondée sur les enquêtes du Ministère en charge de l’agriculture et de l’alimentation conduites entre 2006 et 2021, montre que les baisses observées dans l’usage des pesticides ne peuvent être attribuées aux seules caractéristiques initiales des agriculteurs, mais traduisent un effet réel de diffusion des pratiques agroécologiques.
Changer les pratiques, une visite à la fois
Au final, les résultats de notre étude mettent en avant l’impact de l’apprentissage social. Ce dernier, qui se manifeste ici par une baisse de l’usage des pesticides chez les agriculteurs observateurs après leur visite dans des exploitations DEPHY, est quantifiable : une augmentation de 1 % de la proportion d’observateurs dans un groupe d’exploitations agricoles réduit ainsi l’usage moyen de pesticides de ce groupe de 0,05 % à 0,07 % entre la période pré-programme (2006-2011) et la période post-programme (2017-2021). En extrapolant, cela signifierait que doubler la proportion d’observateurs (une augmentation de 100 %) dans un groupe reviendrait à réduire de 5 % à 7 % l’usage moyen de pesticides dans ce groupe, simplement en organisant plus de visites.
Avec de tels résultats, le programme DEPHY présente un rapport coûts-bénéfices particulièrement intéressant pour réduire l’usage des pesticides. Augmenter les visites des exploitations participantes au programme DEPHY semble prometteur au vu de la force des résultats obtenus : un coût supplémentaire minime pour une réduction conséquente de l’usage des pesticides. L’apprentissage social apparaît ainsi comme un levier efficace, que les pouvoirs publics gagneraient certainement à déployer plus largement afin d’accompagner un changement plus global de notre modèle agricole.
Solal Courtois-Thobois et Laurent Garnier ont participé à la rédaction de cet article.
_Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Rose Deperrois a reçu un financement de thèse de l'Office Français de la Biodiversité (OFB).
Adélaïde Fadhuile a reçu un financement de l'ANR pour le projet FAST - Faciliter l'Action publique pour Sortir des pesTicides (référence 20-PCPA-0005) et IDEX UGA (référence 15-IDEX-0002).
Julie Subervie a reçu un financement de l'Agence Nationale de la Recherche pour le projet FAST - Faciliter l'Action publique pour Sortir des pesTicides (référence 20-PCPA-0005).
26.11.2025 à 11:26
Les champignons d’Ötzi, l’homme des glaces du Néolithique
Texte intégral (1976 mots)

On l’oublie trop souvent mais les champignons ont accompagné l’histoire de l’humanité : médecine, géopolitique, psychologie, architecture, gastronomie, ils s’invitent dans de nombreux champs de nos vie depuis le Néolithique.
Dans cet extrait de son ouvrage Dix champignons qui ont changé la vie des hommes (éditions Actes Sud, 2025), le mycologue Hubert Voiry nous parle des deux champignons retrouvés par les archéologues dans la besace d’Ötzi, l’homme préhistorique découvert fortuitement en 1991 à 3 200 mètres d’altitude, dans les Alpes italiennes. Il tâche de comprendre pourquoi cet homme avait, avec lui des amadous et des polypores du bouleau.
Ötzi portait un petit sac en cuir rempli de matière noire. Dans ce sac, il y avait aussi trois outils en silex et un os en forme de poinçon. Au début, on a pensé que la matière noire était de la résine et que ce sac était une sorte de « kit » de réparation d’outils. Or, la substance, une fois séchée, a montré une teinte virant au brun. L’examen microscopique de cet objet a révélé qu’il s’agissait de la chair d’un champignon, l’amadouvier (Fomes fomentarius). Cette chair brune que l’on trouve sous la croûte (la face supérieure) du champignon avait été travaillée manuellement pour obtenir un produit de consistance fibreuse que l’on appelle l’amadou. Mélangées à cette matière, on a détecté aussi des traces de pyrite. Silex, pyrite et amadou ainsi réunis permettent d’allumer le feu et de le conserver.
Ce n’est pas le témoignage le plus ancien de l’usage de l’amadou pour le feu. Celui-ci a en effet été retrouvé en grande quantité associé à des nodules de pyrite sur le site archéologique de Star Carr en Angleterre qui date de près de 10 000 ans. On a fait les mêmes observations dans les fouilles archéologiques de Maglemose au Danemark, site qui remonte à 8 000 ans. Il existe aussi des témoignages plus récents datant de l’âge du bronze en Suisse, dans les sites préhistoriques d’anciens villages lacustres. L’amadou a donc la propriété de produire et de transporter le feu. Contrairement à une idée reçue, les humains de cette époque ne frappaient pas deux silex l’un contre l’autre pour allumer un feu, car les étincelles résultant de leur percussion sont trop éphémères pour enflammer un combustible. Ils avaient recours essentiellement à deux techniques : celle de la friction avec du bois et celle de la percussion, vraisemblablement utilisée par Ötzi. Dans la première, on dispose un morceau de bois à la verticale d’un autre placé au sol. On frotte le morceau de bois sur l’autre en lui donnant un mouvement de rotation avec les mains. Cela produit de la sciure échauffée qui va donner quelques braises. Ensuite, il faudra les mettre en contact avec des brindilles sèches. Ce procédé n’a pas laissé de traces archéologiques. L’autre méthode consiste à utiliser, comme Ötzi, pyrite, silex et amadou. La percussion d’un morceau de disulfure de fer (pyrite ou marcassite) contre une roche dure comme le silex produit des étincelles. L’amadou au contact de l’étincelle est capable de s’embraser facilement du fait de sa structure fibreuse, et le feu peut couver longtemps, ce qui facilite son transport. Il reste à produire des flammes en mettant par exemple en contact l’amadou incandescent avec des herbes très sèches ou des fibres d’écorce.
Pour faciliter l’embrasement, on a perfectionné la technique. L’amadou est débité en tranches fines qui sont amollies à coups de maillet puis qui sont mises à sécher. Au cours des siècles, des traitements au salpêtre ou aux cendres ont été mis au point pour qu’il s’enflamme plus facilement. Le célèbre mycologue Christiaan Hendrik Persoon en donne la description dans son ouvrage Traité sur les champignons comestibles, contenant l’indication des espèces nuisibles paru en 1818. Il précise que les bûcherons des Vosges avaient une technique moins recommandable pour traiter l’amadou : ils enterraient les tranches du “bolet” et les arrosaient pendant un certain temps avec de l’urine.
À partir de l’âge du fer, les morceaux de disulfure sont remplacés par des briquets, petits objets en acier qui au Moyen Âge avaient une forme de crochet aplati. Actuellement, on peut se procurer, dans le commerce, ce type de briquet appelé aussi briquet à silex et ainsi reproduire les gestes de nos ancêtres en frappant l’acier sur un silex aiguisé. On recueille les étincelles avec un morceau d’amadou ou à défaut avec un morceau de coton carbonisé. Les briquets “à amadou” qui apparaissent vers 1840 ne contiennent curieusement pas d’amadou. Le nom a été repris, mais c’est une mèche de coton trempée dans une solution chimique qui joue le rôle de l’amadou.
De nos jours, l’amadou est encore utilisé de façon traditionnelle pour le transport du feu, comme en Autriche lors du Weihfeuertragen, littéralement “le transport de feu consacré”. Le samedi de Pâques, le prêtre catholique réunit les familles de paroissiens autour d’un feu qu’il bénit au cours d’une cérémonie. Ensuite, les enfants récupèrent les braises à l’aide de bidons métalliques et passent dans les maisons du village apporter le feu béni. Pour faciliter le transport, ils ajoutent aux braises des morceaux d’amadou. En plus d’être le polypore le plus efficace pour la fabrication et le transport du feu, grâce à sa chair, l’amadouvier a aussi des vertus médicinales et artisanales, voire spirituelles. Un peuple de l’île d’Hokkaidō au Japon, les Aïnous, procédait, en cas de maladie ou d’épidémie, à un rituel de fumée autour des habitations. Ils faisaient brûler toute la nuit des fructifications de F. fomentarius pour éloigner les démons. Un rite analogue était pratiqué en Sibérie chez les Khantys et en Amérique du Nord dans des tribus amérindiennes.[…]
Le deuxième champignon retrouvé dans les affaires d’Ötzi est le polypore du bouleau, en latin : Fomitopsis betulina. Il se présentait sous forme de deux fragments enfilés sur une lanière de cuir. L’un de forme sphérique et l’autre de forme conique. Le polypore du bouleau, une fois séché, s’enflamme rapidement mais le feu ne couve pas. Ötzi ne l’a pas probablement pas utilisé pour le transport du feu, d’autant qu’il possédait déjà de l’amadou. Quel usage faisait-il donc des morceaux de ce polypore ?
Cette question a naturellement suscité des débats, dont sont ressorties deux grandes hypothèses. La première a été avancée par l’anthropologue italien Luigi Capasso : il suggère que l’Homme des Glaces était conscient de la présence de ses parasites intestinaux et les combattait avec des doses adaptées de Fomitopsis betulina. Ce champignon, qui est comestible – nous en reparlerons plus loin –, était probablement le seul vermifuge disponible à l’époque. L’autre hypothèse est défendue par la biologiste autrichienne Ursula Peintner : elle a fait le rapprochement avec certaines coutumes d’Amérindiens, rapportées par le biologiste américain Robert Blanchette. Ils possédaient des objets décorés avec des morceaux de forme ronde ou ovale d’Haploporus odorus, polypore à l’odeur très suave. Ces fragments étaient enfilés sur des lacets en cuir puis attachés aux tuniques sacrées ou aux colliers des guérisseurs. Ce polypore était aussi considéré comme ayant des vertus médicinales : on le faisait brûler pour produire une fumée agréable pour les personnes malades. Comme souvent dans les traditions, les aspects spirituel et médical sont mêlés. Concernant l’Homme des Glaces, nous avons bien noté que les bouts de F. betulina étaient enfilés sur une lanière de cuir de façon élaborée. S’il s’était agi d’un simple transport, ils auraient été placés sans perforation dans un récipient. On peut donc penser que les morceaux de F. betulina jouaient un rôle spirituel et médicinal. Robert Blanchette évoque aussi l’importance d’un autre champignon, Fomitopsis officinalis, aux propriétés médicinales pour les Amérindiens et leurs chamanes qui l’appellent “le pain des fantômes”. Les chamanes utilisaient des masques sculptés dans ces polypores pour effectuer des rites destinés à guérir certaines maladies. À leur mort, les masques étaient placés à la tête de la tombe et protégeaient l’esprit des chamanes. En Autriche, des fructifications de polypore du bouleau étaient sculptées pour protéger les animaux de ferme de la malchance. Le fragment conique du polypore d’Ötzi pourrait évoquer une sculpture qui n’aurait pas été très bien conservée. On pourrait donc considérer qu’Ötzi était un chamane qui portait sur lui, comme un talisman, ces deux fragments d’un champignon aux vertus médicinales et spirituelles. Rappelons que les affaires d’Ötzi n’ont pas été pillées, ce qui laisse supposer qu’on ne voulait pas s’approprier ses objets : c’était peut-être un personnage important.
Hubert Voiry est l'auteur de l'ouvrage « 10 champignons qui ont changé la vie des hommes », publié aux éditions Actes Sud dont ce texte est tiré.
25.11.2025 à 15:46
Combien de CO₂ votre voyage en avion a-t-il vraiment émis ? Comment vérifier les calculs d’empreinte carbone de l’aérien
Texte intégral (2362 mots)

D’un outil à l’autre, l’empreinte carbone évaluée pour un vol en avion peut varier considérablement. Cela tient aux hypothèses de calcul, au périmètre exact de celui-ci et à la source des données, qui peuvent être à l’origine de nombreuses incertitudes. Pour un usage éclairé de ces calculateurs, utiles mais approximatifs, par les voyageurs aériens, il est indispensable de mieux en cerner les limites.
Lorsque deux personnes réservent le même vol, elles peuvent penser avoir une empreinte carbone très différente, si elles sont passées par deux calculateurs en ligne différents. En effet, de nombreux calculateurs d’empreinte carbone passent sous silence une large partie de l’impact climatique du transport aérien – ou encore, s’appuient sur des hypothèses trop simplifiées.
Le point sur leurs limites et pourquoi elles sont importantes. Malgré tout, quelques précautions de bon sens peuvent vous aider à évaluer les estimations fournies.
Le CO₂ ne suffit pas
Si un outil en ligne ne rend compte d’un résultat qu’en kilogramme de dioxyde de carbone (CO2), il omet deux autres groupes d’émissions importants.
En effet, l’équivalent CO2 est une unité de mesure qui convertit l’impact des autres gaz à effet de serre, tels que le méthane, en équivalent dioxyde de carbone à l’aide de données scientifiques qui montrent leur potentiel de réchauffement climatique. Si un calculateur n’affiche que le CO2, il sous-estime donc l’empreinte carbone.
Un calculateur qui fait référence à des émissions équivalent CO2 inclut ainsi le CO2 ainsi que les autres émissions de gaz à effet de serre, ce qui le rend plus complet. Les bonnes pratiques citent le chiffre utilisé et renvoient au tableau des métriques utilisées pour le calcul. (par exemple, la valeur retenue pour le potentiel de réchauffement global du gaz considéré, ou PRG, ndlr).
Les impacts non liés au CO2 doivent également être pris en compte. Concrètement, il s’agit de l’effet sur le climat des oxydes d’azote, de la vapeur d’eau et des traînées de condensation émis par les avions. Ceux-ci emprisonnent la chaleur et agissent comme une couverture qui réfléchit la chaleur de la Terre vers le sol. Des recherches montrent que ces effets non liés au CO2 peuvent être comparables, voire supérieurs à ceux du CO2 seul, sur des horizons temporels moyens.
Cela signifie qu’un calcul basé uniquement sur les émissions de CO2 sous-estime l’impact climatique total du transport aérien, car il ne tient pas compte de l’effet des oxydes d’azote, de la vapeur d’eau et des traînées de condensation. L’ampleur des impacts non liés au CO2 varie en fonction de l’altitude, de la latitude, des conditions météorologiques et de l’heure de la journée, mais elle est trop importante pour être ignorée.
Les calculateurs devraient les quantifier de manière plus transparente, quitte à fournir un résultat avec un niveau d’incertitude chiffré. Les meilleurs calculateurs réalisent à la fois un calcul en équivalent CO2, puis prennent en compte les effets non liés au CO2.
À lire aussi : Impact du transport aérien sur le climat : pourquoi il faut refaire les calculs
Les avions ne volent pas vraiment en ligne droite
Une autre source de sous-estimation de l’empreinte carbone de l’aérien est le calcul des distances. De nombreux outils supposent un trajet dit « orthodromique » (c’est-à-dire, la distance la plus courte entre les aéroports de départ et d’arrivée compte tenu de la courbure de la Terre), auquel s’ajoute une petite distance fixe. Or, les vols réels sont influencés par les vents, les tempêtes, la congestion aérienne, les zones militaires à éviter et les fermetures d’espace aérien qui obligent à faire de longs détours. Même les itinéraires réguliers entre une ville A et une ville B peuvent changer quotidiennement en raison de ces variables.
Des études montrent que ces détours peuvent, en moyenne, atteindre un allongement de plus de 7,5 % de la distance totale, même en temps « normal » et sans parler de la situation géopolitique actuelle dans le monde. Or, une distance plus longue implique une consommation de carburant et des émissions plus importantes. Ainsi, si une calculatrice ne tient pas compte des déviations d’itinéraire, elle sous-estimera la consommation de carburant.
En utilisant les données historiques récentes observées sur un itinéraire donné, on peut ajuster ces estimations. De quoi mieux refléter la façon dont cet itinéraire est vraiment parcouru dans la pratique, et non pas dans des conditions idéales.
Quel périmètre les compagnies aériennes doivent-elles prendre en compte ?
Même lorsque la distance et les émissions de gaz à effet de serre sont correctement prises en compte, de nombreux outils éludent d’indiquer clairement le périmètre du calcul et ses limites, sans préciser ce qui est inclus ou exclus. Ainsi, de nombreux outils ne tiennent pas compte des émissions liées à l’extraction des matériaux pour construire les avions et aux activités pétrolières permettant de produire du carburant.
Une empreinte carbone complète et conforme aux normes en vigueur comprendrait les émissions « du puits au réservoir » (well-to-tank, ce qui intègre les étapes d’extraction, de raffinage et de transport du carburant), les services en vol et le cycle de vie des avions et même des aéroports.
La norme internationale ISO 14083 de 2023, qui porte sur la quantification et la déclaration des émissions de gaz à effet de serre provenant des chaînes de transport, établit pourtant des règles communes. Les bons calculateurs s’alignent sur cette norme afin de rendre leur champ d’application explicite et comparable.
Mais les meilleurs calculateurs vont au-delà de ces exigences et couvrent l’ensemble des émissions liées au vol. Si un calcul d’empreinte carbone exclut les émissions en amont ou celles liées aux infrastructures aériennes, on peut s’attendre à ce que le résultat soit inférieur à celui qu’une analyse complète du cycle de vie livrerait.
L’allocation des émissions de l’appareil au passager
Le calcul des émissions par passager consiste à répartir l’impact climatique de l’avion entre les sièges occupés par les passagers et le fret (transport en soute). Or, la classe de cabine et la densité des sièges modifient l’espace disponible par passager. Les sièges en classe affaires ou en première classe peuvent donc avoir un impact par passager plusieurs fois supérieur à celui de la classe économique dans le même avion.
Les coefficients de remplissage (c’est-à-dire, le taux d’occupation d’un avion) modifient également ce calcul. Les passagers d’un avion à moitié plein devraient se voir attribuer deux fois plus d’émissions.
Les bonnes méthodes de calcul devraient utiliser des coefficients de remplissage et les plans de sièges spécifiques à chaque trajet, en fonction de la compagnie aérienne et de la saison, plutôt que des hypothèses globales généralisées.
Bagages en soute et transport de fret
Du point de vue du voyageur, il semble injuste qu’un passager voyageant uniquement avec un bagage à main bénéficie se voit allouer la même empreinte carbone qu’une personne ayant enregistré 30 kg de bagages. De fait, la plupart des calculateurs se basent sur un poids moyen unique pour les bagages. Le calcul est donc surestimé pour les voyageurs légers et sous-estimé pour les voyageurs lourds.
De meilleures approches permettraient aux utilisateurs de déclarer leurs bagages lors du calcul, ou d’appliquer des facteurs spécifiques à leur itinéraire.
De plus, la plupart des vols passagers transportent également du fret en soute. Si un calculateur attribue toutes les émissions de l’avion aux passagers, il surestime les chiffres par passager. Une pratique plus équitable consisterait à répartir les émissions entre les passagers et le fret aérien.
Comment faire mieux ?
Sur la base de récents travaux de recherche évalués par les pairs, voici une liste de contrôle que vous pouvez appliquer à tout calculateur de vol.
La prochaine fois que vous lirez une estimation de l’empreinte carbone de votre vol, demandez-vous si elle est :
complète : inclut-elle uniquement le CO2, un équivalent CO2 et les émissions hors CO2 ? Est-elle conforme à la norme ISO 14083 ou supérieure et couvre-t-elle l’ensemble des émissions générées par un passager aérien ?
précise : utilise-t-elle des méthodes modernes basées sur des données réelles régulièrement actualisées pour prédire la trajectoire de vol et la consommation de carburant ? Prend-elle en compte toutes les variables, y compris les facteurs de charge de l’appareil et les configurations des sièges à bord ?
transparente : les méthodes et les sources de données utilisées sont-elles indiquées avec leurs limites ? Ont-elles fait l’objet d’une évaluation par des pairs ?
communiquée efficacement : fournit-elle une ventilation claire des sources d’émissions de votre vol ? Est-elle facile à comprendre et à utiliser pour prendre des décisions ciblées en matière de climat ?
Lorsque les calculateurs cochent toutes ces cases, on peut faire passer le débat de l’examen d’un seul chiffre à l’action sur les principales causes. C’est à cette condition que le calcul de l’empreinte carbone, plutôt que de simples chiffres sur un écran, peut devenir un outil de changement.
À lire aussi : L’insolent succès des jets privés, entre empreinte carbone et controverses
Finn McFall travaille sur un partenariat de transfert de connaissances entre Therme Group et l'université du Surrey, cofinancé par UKRI via Innovate UK.
Xavier Font travaille pour l'université du Surrey. Il fait partie de l'équipe universitaire qui travaille sur un partenariat de transfert de connaissances entre Therme Group et l'université du Surrey, cofinancé par UKRI via Innovate UK.
25.11.2025 à 15:46
Comment lutter contre le changement climatique sans creuser les inégalités entre Nords et Suds ?
Texte intégral (3832 mots)
Alors qu’à Belém, la COP30 a échoué à accélérer la lutte contre le changement climatique, une question demeure, abyssale : peut-on lutter contre le changement climatique sans accroître les inégalités entre populations ? En d’autres termes, peut-on œuvrer à une transition juste ? Pour répondre à cette question, il faut tout à la fois revenir en arrière et ausculter les différentes dimensions de la justice climatique.
Peut-on légitimement demander au Mozambique ou au Sénégal de renoncer à leurs ressources fossiles alors qu’ils remboursent chaque année davantage en dette extérieure qu’ils ne reçoivent d’aide climatique ? Comment construire une transition mondiale juste tandis qu’une partie des pays les plus vulnérables doivent s’endetter pour financer leur propre adaptation ? Et comment imaginer une trajectoire commune alors que les responsabilités historiques liées à l’exploitation des ressources des Suds continuent d’être ignorées ?
Voici quelques-unes des interrogations qui émergent lorsqu’on pense à une réponse globale au changement climatique dans un monde profondément inégal. Elles ont pour toile de fond une tension de plus en plus visible au cœur des politiques climatiques : la transition vers des économies décarbonées peine encore à se déployer sans reproduire les déséquilibres historiques, tant à l’intérieur des pays qu’à l’échelle internationale.
Dans ce contexte, l’idée de « transitions justes » prend de l’ampleur. Elle propose d’articuler l’action climatique autour de principes de justice, d’équité et de responsabilité historique. Pour de nombreux pays, notamment dans les Suds, les récits qui s’y rattachent deviennent un horizon éthique et politique essentiel pour penser les transformations écologiques à partir des réalités locales, des vulnérabilités propres et des capacités d’action inégales.
Des luttes ouvrières à l’agenda climatique mondial
Cette idée d’une transition juste n’est pourtant pas nouvelle. Elle puise ses origines dans les mouvements syndicaux états-uniens des années 1970, au moment où l’écologie politique émerge. À cette époque, Tony Mazzocchi, alors vice-président du syndicat des travailleurs du pétrole, de la chimie et de l’atome (Oil, Chemical and Atomic Workers Union, OCAW) défend un principe simple : les protections environnementales sont nécessaires, certes, mais leurs coûts ne doivent pas être supportés exclusivement par les travailleurs dans les secteurs les plus exposés.
Il propose donc la création du Superfund for Workers, destiné à indemniser les travailleurs affectés par les nouvelles régulations environnementales. Le fonds voit le jour en 1993, puis est rebaptisé Just Transition Fund en 1995, faisant entrer l’expression dans le vocabulaire politique.
Par la suite, dans les années 1990, la Confédération syndicale internationale (CSI) internationalise le concept. En amont de la COP15 de Copenhague (2009), elle mobilise syndicats et ONG pour rappeler que la transition écologique ne peut se faire au détriment des plus vulnérables. La transition juste s’inscrit dès lors au croisement du développement durable et de la lutte contre le changement climatique. Elle vise une reconnaissance claire de la nécessité de garantir la justice sociale dans les processus de transition et les stratégies de résilience climatique.
Mais à mesure qu’il circule entre institutions, gouvernements et organisations internationales, le concept se transforme. Avec son inscription subséquente dans le préambule de l’accord de Paris (2015), il glisse vers des cadres plus technocratiques, au risque de s’éloigner de sa dimension contestataire initiale.
Une même transition pour tous ?
Dans les Nords, les transitions justes sont généralement envisagées comme des mécanismes d’accompagnement social : reconversion professionnelle, soutien aux territoires dépendants des énergies fossiles, garanties sociales. L’enjeu est essentiellement domestique, le concept servant à limiter les effets sociaux de la décarbonation, sans remettre en question les fondements extractivistes et énergivores du modèle économique actuel.
Dans les Suds, la signification tend à être radicalement différente. En Amérique latine, en Afrique ou en Asie du Sud-Est, universitaires, mouvements sociaux et représentants gouvernementaux s’en saississent comme d’un objet de discours critique, parfois explicitement décolonial, pour questionner les règles du jeu global. Ici, les transitions justes incluent les dimensions internationales : les injonctions extérieures, la cohérence des politiques climatiques globales, les impacts socio-économiques transnationaux, les conditionnalités financières et la répartition mondiale des coûts et des opportunités.
Selon cette dynamique, les transitions justes apparaissent alors comme une rupture possible avec le paradigme dominant actuel. Là où depuis les années 1990 le développement durable s’est construit dans des cadres descendants, les propositions issues des Suds s’appuient plutôt sur des démarches ascendantes, portées par des syndicats, des mouvements sociaux ou des collectifs comme la Pan African Climate Justice Alliance ou Climate Strategies. Certaines coalitions comme Just Transition Africa, revendiquent, à titre d’exemple, une réappropriation souveraine des trajectoires de développement, fondée sur les besoins locaux et affranchie des conditionnalités financières internationales.
Ces voix posent, en creux, une interrogation essentielle : à qui profite réellement la transition, et qui en définit les règles ?
Les pays des Suds doivent-ils choisir entre développement et climat ?
Ce débat met également au jour un dilemme d’éthique climatique majeur : comment concilier le droit au développement des pays des Suds avec les contraintes globales de la décarbonation ? Les pays industrialisés ont bâti leur croissance sur l’exploitation massive des ressources naturelles, notamment dans les Suds, au prix d’une importante dette carbone. Les Suds, eux, sont aujourd’hui invités à limiter leur industrialisation, alors même que beaucoup n’ont pas encore atteint des niveaux de développement humain fondamentaux. Une situation inégale qui, encore aujourd’hui, demeure un facteur majeur de sous-développement et d’accroissement des inégalités à l’échelle mondiale.
Cela nous renvoie d’ailleurs au principe des « responsabilités communes mais différenciées », inscrit dans la déclaration de Rio (1992). Mais aussi, plus clairement, au bagage normatif de la notion même de développement. Réduire celui-ci à la seule croissance économique revient en effet à occulter sa dimension sociale, politique et environnementale, et crée des tensions avec d’autres droits essentiels.
Comme le rappelle le philosophe camerounais Thierry Ngosso, un « droit au développement » compris dans une perspective strictement productiviste peut devenir paradoxal dans la mesure où il risque de nuire précisément aux populations qu’il prétend protéger, en sacrifiant leurs conditions de vie ou leur environnement au nom de la croissance.
Or ce sont les groupes les plus pauvres, aux Suds comme aux Nords, qui subissent déjà le plus fortement les impacts du dérèglement climatique. L’enjeu consiste donc à articuler justice sociale et soutenabilité écologique en concevant des trajectoires de développement adaptées à la pluralité de société des Suds, plutôt que de reproduire des modèles hérités et inadaptés.
À lire aussi : Mesurer le bonheur pour mieux penser l’avenir : l’initiative du Bonheur Réunionnais Brut
La finance climatique perpétue-t-elle l’injustice ?
Penser des transitions justes, c’est aussi se pencher sur le financement climatique, qui cristallise une grande partie des tensions internationales. À la COP29, les négociations ont abouti, dans le cadre du New Collective Quantified Goal on Climate Finance à un compromis non contraignant prévoyant de tripler les financements climatiques publics destinés aux pays en développement, pour atteindre 300 milliards de dollars (un peu moins de 260 milliards d’euros) d’ici 2035, par rapport à ceux fixés en 2009.
L’accord prévoit également de mobiliser jusqu’à 1 300 milliards de dollars (soit plus de 1 125 milliards d’euros) par an à la même échéance, en combinant ressources publiques et privées. En outre, l’absence d’engagements fermes, ainsi que l’élusion de la question des modalités d’application et de fonctionnement du Fonds de réponse aux pertes et préjudices (Fund for responding to Loss and Damage), élément pourtant central de la justice climatique, ont suscité de vives critiques, notamment de la part de négociateurs africains et d’organisations de la société civile.
Mais au-delà des montants, c’est la nature même du financement qui pose problème. La majorité des fonds destinés aux pays en développement prennent la forme de prêts, souvent conditionnés à des projets d'atténuation jugés sur des critères de rentabilité. À l’inverse, l’adaptation, la résilience ou les réparations reçoivent des financements limités.
Cette logique entretient un cercle vicieux : en 2023, les pays en développement ont consacré plus de 1 400 milliards de dollars (soit plus de 1 210 milliards d’euros) au service de leur dette, bien davantage que les fonds reçus pour faire face à la crise climatique. Ainsi, loin de réduire les vulnérabilités, la finance climatique contribue souvent à les renforcer, limitant au passage leur marge de manœuvre pour investir dans des politiques écologiques transformatrices.
Dans la continuité, le Fund for responding to Loss and Damage créé à l’issue de la COP27, et temporairement géré par la Banque mondiale depuis 2024, est lui aussi illustratif de certaines tensions. Peut-on parler de justice climatique lorsque les créanciers, pour la plupart rattachés aux Nords, déterminent les modalités de financement des victimes du changement climatique ? Pour de nombreux acteurs des Suds, ces mécanismes perpétuent ainsi les logiques de dépendance et de domination, donnant lieu à des inégalités reproductives, tout en éludant les questions fondamentales d’équité et de responsabilité.
Penser les transitions à la lumière de quelques principes de justice
Au fil des dernières années, l’idée de transitions justes s’est progressivement élargie. Désormais pensée au pluriel, elle désigne moins un modèle clé en main qu’un ensemble de principes visant à garantir que les politiques climatiques engagent et protègent les personnes et les communautés les plus vulnérables.
Ainsi, mobiliser la notion de justice ne consiste pas à établir une norme singulière de ce que devrait être une « bonne » transition, mais plutôt à ouvrir une grille de lecture critique pour interroger les modalités concrètes du changement : les effets sociaux, économiques, territoriaux et politiques de la transition.
À ce titre, quatre dimensions de la justice permettent d’éclairer la profondeur, ou les limites, des transformations en cours :
La justice distributive : elle interroge la répartition équitable des coûts, opportunités et risques liés aux politiques climatiques et à leurs effets. Qui paie, qui bénéfice ? Dans de nombreux cas, les mesures climatiques produisent des impacts très inégaux, renforçant les déséquilibres existants.
La justice procédurale : elle concerne la capacité réelle des personnes affectées à participer aux décisions qui les touchent. Qui a voix au chapitre ? Qui décide, et selon quelles règles ? Dans la pratique, les politiques climatiques sont souvent élaborées par des experts ou des institutions éloignées du terrain, laissant de côté les communautés les plus concernées.
La justice corrective, restaurative ou réparatrice : elle met l’accent sur la reconnaissance et la réparation des dommages historiques liés au changement climatique et aux modèles de développement à l’origine de la crise écologique. Comment reconnaître et réparer les inégalités issues de l’exploitation, de la pollution, de la dette écologique ou de la dépossession foncière ?
La justice de reconnaissance : elle porte sur les formes de domination symbolique et sur la manière dont elles influencent les trajectoires de transition. Quels savoirs, quelles visions du monde sont prises en compte ? Lesquelles sont ignorées, minorées ou rendues invisibles ? Elle vise ainsi à ouvrir la voie à des transformations sociétales réellement inclusives.
Ces dimensions invitent à se pencher sur les conflits de valeurs, les asymétries de pouvoir, et les rapports de domination enracinés dans l’histoire coloniale et postcoloniale du capitalisme. Comme le montre une partie croissante de la recherche issue des Suds, ignorer ces registres de justice revient à passer sous silence les rapports de force qui structurent les transitions, au risque, parfois même, de reproduire des dynamiques extractivistes sous couvert d’écologie.
Plus clairement, appréhender les transitions à l’aune de ces quatre modalités relève moins d’une prescription normative que d’une invitation à questionner les conditions mêmes du changement.
Une transition est-elle possible sans justice ?
Dans les pays des Suds, les transitions justes demeurent largement expérimentales. Si le concept s’est installé dans les discours, il peine encore à se traduire en politiques publiques du fait de certaines réalités structurelles, comme l’informalité des marchés du travail, l’insécurité foncière, la précarité énergétique ou la dépendance aux financements extérieurs.
Des initiatives existent, mais elles rappellent surtout combien la justice reste une condition centrale de toute transformation durable dans l’espace et le temps. Qu’il s’agisse de partenariats Nords-Suds ou de coopérations Sud-Sud, leur réussite dépend moins des montants mobilisés que de leur capacité à renforcer la souveraineté des pays concernés et à inscrire les décisions dans les besoins sociaux et écologiques réels.
En définitive, les transitions justes ouvrent un espace où se confrontent tensions, contradictions et aspiration autour de la justice climatique. D’un côté, elles ont le mérite de mettre au jour les conflits entre impératifs climatiques, justice sociale et rapports de pouvoir internationaux. De l’autre, elles interrogent en profondeur notre conception même du développement, des responsabilités et des éthiques censées orienter les transformations à venir.
Reste alors une question ouverte, celle de savoir si la transition sera un projet réellement collectif, pensé aussi depuis les Suds, ou bien une nouvelle déclinaison des logiques qui ont façonné les inégalités passées ?
Rihi Yanis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2025 à 16:30
Peut-on réparer ailleurs la nature détruite ici ? Comment libérer la compensation écologique des influences politiques
Texte intégral (2057 mots)
La compensation écologique, qui consiste à restaurer des écosystèmes ailleurs pour compenser une perte de biodiversité ici, a le vent en poupe auprès des décideurs. Elle n’a pourtant rien d’une solution miracle : son efficacité réelle reste très débattue dans la communauté scientifique. Surtout, elle dépend de rapport de force où s’opèrent des arbitrages entre développement économique et protection de la nature. Une plus grande prise en compte des sciences sociales permettrait une meilleure appropriation de ces influences qui pèsent sur les politiques environnementales.
Depuis les années 1990, la compensation de la biodiversité s’est imposée à travers le monde comme un outil de politique environnementale. Son principe est de contrebalancer les pertes écologiques causées par les projets d’aménagement. L’idée est simple : lorsqu’un projet de construction ou d’aménagement affecte un écosystème, des mesures de compensation doivent être mises en place pour restaurer ou protéger une zone équivalente ailleurs.
Adoptée dans de nombreux pays, l’efficacité de ce mécanisme est toutefois insuffisante. Derrière cette idée comptable d’un équilibre que l’on pourrait restaurer se cache un processus complexe, soumis à de multiples arbitrages, contraintes techniques et enjeux temporels, comme le révèle une étude que nous avons publiée dans Nature Sustainability.
Dans celle-ci, nous avons mené une revue de publications scientifiques et institutionnelles internationales pour répondre à une question : comment les politiques de compensation de la biodiversité sont-elles conçues et influencées ?
Multiples acteurs, multiples influences
Les études en écologie scientifique postulent généralement que de meilleures connaissances scientifiques conduisent à de meilleures politiques environnementales, mais nous montrons la nécessité de prendre en compte les rapports de force structurels qui les affaiblissent.
En effet, la gouvernance de la compensation de la biodiversité, loin de reposer uniquement sur des données scientifiques et des métriques écologiques, est aussi marquée par les interactions entre différents acteurs – États, entreprises, ONG environnementales, institutions scientifiques et citoyens – qui cherchent à façonner les règles du jeu selon leurs intérêts. Parfois au risque de saper les fondements de ces programmes.
La compensation est souvent présentée comme une solution pragmatique conciliant développement économique et conservation de la nature, mais elle suscite en réalité de nombreux débats.
D’un côté, les gouvernements, les institutions internationales et les grandes ONG environnementales (comme l’Union internationale pour la conservation de la nature, UICN) la défendent comme un outil pragmatique permettant de concilier conservation et développement économique.
De l’autre, les lobbies industriels et les entreprises cherchent à encadrer ce dispositif de manière à maximiser leur flexibilité et à minimiser leurs coûts.
Les débats ne sont pas seulement techniques, ils touchent à des questions politiques sensibles. Par exemple, la compensation doit-elle être une obligation réglementaire ou un engagement volontaire ? Qui doit en assurer le contrôle ? Peut-elle être confiée à des acteurs privés à travers des marchés de crédits environnementaux ?
À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?
Mise à l’agenda, élaboration et mise en œuvre
Les auteurs identifient trois grandes étapes à travers lesquelles tous ces acteurs tentent d’orienter les politiques de compensation écologique.
D’abord la mise à l’agenda, qui est le moment où la compensation devient un enjeu de politique publique. Cette phase est marquée par des discussions sur la nécessité de compenser les dommages causés à la biodiversité et sur les méthodes à adopter.
Différents acteurs y participent, notamment les gouvernements, les institutions internationales, les scientifiques et les ONG qui militent pour des mesures de conservation plus strictes. L’implication croissante d’acteurs privés à cette étape s’accompagne, depuis quelques décennies, d’un recours plus affirmé aux mécanismes de marché plutôt que réglementaires.
La deuxième étape est l’élaboration des politiques en elles-mêmes, lorsque la compensation est traduite en lois et en règlements. Des questions cruciales sont débattues, comme le type d’impacts environnementaux à compenser, les obligations imposées aux entreprises ou encore le mode de financement de ces mesures.
C’est aussi un moment où les lobbyistes interviennent pour orienter la réglementation dans un sens plus ou moins contraignant. Aux États-Unis, par exemple, la National Environmental Banking Association a plaidé pour des règles plus cohérentes afin de réduire l’incertitude pour les entreprises. En France, des représentants d’intérêts comme ceux des carrières participent activement aux discussions sous l’égide du ministère de l’écologie.
Les décisions et orientations des politiques de compensation reposent donc à la fois sur des considérations scientifiques (quels sont les écosystèmes à protéger, quels sont les impacts les plus importants, quels sont les meilleurs indicateurs pour piloter les politiques) et la participation de représentants sectoriels. Cela peut conduire à une politisation de l’écologie scientifique au profit d’intérêts particuliers.
Enfin, cette influence intervient aussi au moment de la mise en œuvre sur le terrain. En effet, l’application des politiques de compensation implique une multitude d’interactions entre les acteurs locaux, les entreprises et les agences environnementales. L’interprétation des règles, la définition des critères écologiques et la surveillance des compensations sont autant de points négociés qui influencent les résultats concrets des programmes.
En Australie, une étude montre que la compensation est appliquée différemment selon les États, certains adoptant une approche plus flexible, ce qui peut limiter les résultats écologiques.
À lire aussi : Objectif ZAN : comment tenir les comptes ?
Les limites à une compensation efficace
Malgré son potentiel, la compensation de la biodiversité suscite donc des interrogations sur son efficacité réelle. Nous avons relevé plusieurs points critiques :
Le manque de transparence Les négociations sur la mise à l’agenda et sur la mise en œuvre des compensations se déroulent souvent dans des espaces peu accessibles au public, limitant la possibilité de vérifier leur pertinence et leur inscription dans un débat ouvert.
Le déséquilibre des pouvoirs Les entreprises et coalitions d’acteurs économiques privés disposent de ressources importantes pour influencer la conception des politiques, ce qui peut entraîner des compromis moins favorables à la biodiversité.
La science peut être un objet d’influence Des connaissances écologiques sont mobilisées dans la décision lors de toutes les étapes de la politique publique, y compris dans les contentieux administratifs. Les études peuvent être produites par des acteurs publics, privés ou encore associatifs, et la multiplicité des critères facilite l’instrumentalisation des connaissances au service d’intérêts particuliers.
La fragilité des résultats au plan écologique Certaines études montrent que les compensations ne parviennent pas toujours à restaurer les écosystèmes de manière équivalente, ce qui pose la question de leur efficacité à long terme. En France par exemple, une étude sur des sites restaurés a révélé que leur biodiversité restait inférieure à celle des sites naturels d’origine, malgré les efforts de compensation.
La définition du périmètre de la compensation C’est un enjeu majeur mais pourtant peu appréhendé dans les études scientifiques. Quels types d’écosystèmes et d’espèces doivent être protégés ? Certains pays, comme les États-Unis, se concentrent sur les espèces menacées, tandis que d’autres, comme la France, intègrent des approches basées sur les habitats. Ces choix ne sont jamais neutres : ils reflètent des arbitrages entre des exigences écologiques et des impératifs économiques qui ne sont pas uniquement guidés par la science et résultent généralement de négociations entre parties prenantes.
Une gouvernance à améliorer
Pour améliorer la gouvernance de la compensation de la biodiversité, nous suggérons plusieurs pistes et plaidons pour une meilleure intégration des sciences sociales dans l’action publique environnementale.
Il convient d’abord de mener davantage d’études comparatives pour évaluer comment les politiques sont mises en place dans différents pays. Cela permettrait de mieux comprendre les stratégies de contournement et d’obstruction dont elles font l’objet.
Pour renforcer l’indépendance des instances de régulation et assurer une plus grande transparence sur les relations entre entreprises, décideurs publics et experts scientifiques, nous appelons également à mieux encadrer l’influence du secteur privé afin de limiter les conflits d’intérêts.
Enfin, nous estimons qu’il est nécessaire de capitaliser sur les savoirs des sciences sociales. Une meilleure circulation de ces derniers renforcerait l’évaluation des politiques environnementales.
En définitive, la compensation de la biodiversité ne peut pas être considérée comme une solution miracle. Elle repose sur des compromis entre développement économique et préservation de la nature, ce qui en fait un domaine où les enjeux politiques et financiers sont omniprésents. Jusqu’à présent, elle n’a pas témoigné de sa capacité à enrayer l’érosion de la biodiversité et les études en écologie attestant ses limites s’accumulent.
Face à cela, les sciences sociales peuvent apporter une meilleure compréhension des stratégies d’influence d’acteurs engagés dans la protection de leurs intérêts particuliers. Elles ne se substitueront pas à un portage politique ambitieux, mais pourront certainement l’accompagner.
Stéphanie Barral a reçu des financements de l'Agence Nationale de la Recherche et de la Fondation Jefferson pour enquêter sur les politiques de compensation écologique.
Christine Jez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.11.2025 à 14:01
COP30 : cinq raisons pour lesquelles la conférence sur le climat a manqué à sa promesse d’être un « sommet des peuples »
Texte intégral (2555 mots)
À Belém, au Brésil, la COP30 devait réconcilier ambitions climatiques et justice sociale. Elle a finalement exposé la fragilité du processus onusien, pris en étau entre le poids des industries fossiles et les frustrations croissantes des pays les plus vulnérables, sur fond d’urgence climatique. Voici cinq raisons qui illustrent en quoi ce grand sommet tient du rendez-vous manqué.
La promesse d’un « sommet des peuples » s’est éteinte avec les feux de la COP30, samedi 22 novembre 2025. Le dernier sommet des Nations unies sur le climat, organisé dans la ville brésilienne de Belém, s’est déroulé dans le contexte géopolitique habituel, avec en prime le chaos suscité par une inondation et un incendie.
Le sommet a été marqué par des manifestations de communautés de peuples autochtones d’une ampleur sans précédent, mais les négociations finales ont, une fois de plus, été dominées par les intérêts des énergies fossiles et les tactiques pour jouer la montre. Après dix ans d’(in)action climatique depuis l’accord de Paris, le Brésil avait promis que la COP30 serait une « COP de mise en œuvre ». Mais le sommet n’a pas tenu ses promesses, alors même que le monde a enregistré un réchauffement climatique de 1,6 °C l’année dernière.
Voici nos cinq observations principales à porter au bilan de la COP30.
À lire aussi : 1,5 °C en plus au thermomètre en 2024 : quelles leçons en tirer ?
Des peuples autochtones présents mais pas assez impliqués
Le sommet se déroulait en Amazonie, ce qui a permis de présenter cette COP climat comme celle vouée aux populations en première ligne face au changement climatique. De fait, plus de 5 000 autochtones y ont participé et ont fait entendre leur voix.
Cependant, seuls 360 d’entre eux ont obtenu un laissez-passer pour la « zone bleue » ; principale zone consacrée aux négociations. Un chiffre à comparer aux 1 600 délégués de l’industrie des combustibles fossiles qui y ont été admis. À l’intérieur des salles de négociation régnait l’approche traditionnelle visant à privilégie la bonne marche des affaires (« business as usual »).
Les groupes autochtones n’avaient que le statut d’observateurs, privés du droit de voter ou d’assister aux réunions à huis clos.
Le choix du lieu, en Amazonie, était un symbole fort, mais qui s’est révélé délicat au plan logistique. Il a coûté des centaines de millions de dollars dans une région où une large partie de la population n’a toujours pas accès aux infrastructures de base.
Une image frappante de ces inégalités pourrait être la suivante : les chambres d’hôtel étant toutes occupées, le gouvernement brésilien a immobilisé deux bateaux de croisière pour les participants aux négociations. Or, ces derniers peuvent générer huit fois plus d’émissions de gaz à effet de serre qu’une nuitée en hôtel cinq étoiles par personne.
À lire aussi : COP après COP, les peuples autochtones sont de plus en plus visibles mais toujours inaudibles
Des manifestations qui ont permis des avancées locales
Mais il s’agissait du deuxième plus grand sommet des Nations unies sur le climat jamais organisé et le premier depuis la COP26 de Glasgow en 2021 à se dérouler dans un pays autorisant de véritables manifestations publiques.
Cela avait son importance. Des manifestations de toutes dimensions ont eu lieu tous les jours pendant les deux semaines de la conférence, notamment une « grande marche populaire » menée par les peuples autochtones le samedi 15 novembre au milieu de la conférence.
Cette pression, bien visible, a permis d’obtenir la reconnaissance de quatre nouveaux territoires autochtones au Brésil. Cela a montré que lorsque la société civile a voix au chapitre, elle peut remporter des victoires, même en dehors des négociations principales.
À lire aussi : Climat : les jeunes manifestants peuvent-ils encore peser sur les négociations pendant les COP ?
L’absence des États-Unis, à la fois un vide et une opportunité
Lors du premier mandat de Donald Trump, après son retrait de l’accord de Paris, en 2016, les États-Unis avaient malgré tout envoyé une équipe réduite de négociateurs. Cette fois-ci, pour la première fois dans l’histoire, les États-Unis n’ont envoyé aucune délégation officielle.
Donald Trump a récemment qualifié le changement climatique de « plus grande escroquerie jamais perpétrée dans le monde ». Depuis son retour au pouvoir, les États-Unis ont ralenti le développement des énergies renouvelables et relancé celui du pétrole et du gaz. Ils ont même contribué à faire échouer, en octobre 2025, les plans visant à mettre en place un cadre de neutralité carbone pour le transport maritime mondial.
À lire aussi : Les États-Unis torpillent la stratégie de décarbonation du transport maritime
Alors que les États-Unis reviennent sur leurs ambitions passées, ils permettent à d’autres pays producteurs de pétrole, comme l’Arabie saoudite, d’ignorer leurs propres engagements climatiques et de tenter de saper ceux des autres.
La Chine a comblé ce vide et est devenue l’une des voix les plus influentes dans la salle. En tant que premier fournisseur mondial de technologies vertes, Pékin a profité de la COP30 pour promouvoir ses industries solaire, éolienne et électrique et courtiser les pays désireux d’investir.
Mais pour de nombreux délégués, l’absence des États-Unis a été un soulagement. Sans la distraction causée par les États-Unis qui tentaient de « mettre le feu aux poudres » comme ils l’avaient fait lors des négociations sur le transport maritime, la conférence a pu se concentrer sur l’essentiel : négocier des textes et des accords pour limiter l’ampleur du réchauffement climatique.
À lire aussi : Empreinte carbone : les trois thermomètres de l’action climatique
Une mise en œuvre non plus sur la scène principale, mais grâce à des accords parallèles
Qu’est-ce qui a été réellement mis en œuvre lors de la COP30 ? Cette année encore, l’action principale s’est traduite par des engagements volontaires de certains États plutôt que par un accord mondial contraignant.
Le pacte de Belém, soutenu par des pays tels que le Japon, l’Inde et le Brésil, engage ses signataires à quadrupler la production et l’utilisation de carburants durables d’ici 2035.
Le Brésil a également lancé un important fonds mondial pour les forêts, avec environ 6 milliards de dollars (environ 5,2 milliards d’euros) déjà promis aux communautés qui œuvrent pour la protection des forêts tropicales. L’Union européenne (UE) a emboîté le pas en s’engageant à verser de nouveaux fonds pour le bassin du Congo, la deuxième plus grande forêt tropicale du monde.
Il s’agit d’étapes utiles, mais elles montrent que les avancées les plus importantes lors des sommets climatiques de l’ONU se produisent désormais souvent en marge plutôt que dans le cadre des négociations principales.
Le résultat des discussions principales de la COP30 – le « paquet politique de Belém » – est faible et ne nous permettra pas d’atteindre l’objectif de l’accord de Paris visant à limiter le réchauffement climatique à 1,5 °C.
Le plus frappant est l’absence des mots « combustibles fossiles » dans le texte final, alors qu’ils occupaient une place centrale dans l’accord de Glasgow sur le climat (en 2021, à la suite de la COP26, ndlr) et dans le consensus des Émirats arabes unis (en 2023, après la COP28, ndlr)… et qu’ils représentent bien sûr la principale cause du changement climatique.
À lire aussi : Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique
Le texte du « mutirão » mondial, une occasion manquée
Une avancée potentielle avait toutefois vu le jour dans les salles de négociation : le texte du « mutirão (effort collectif, en tupi-guarani, ndlr) mondial », une feuille de route proposée pour sortir des énergies fossiles. Plus de 80 pays l’ont signé, des membres de l’UE aux États insulaires du Pacifique vulnérables au changement climatique.
Tina Stege, envoyée spéciale pour le climat de l’un de ces États vulnérables, les îles Marshall, a pressé les délégués :
« Soutenons l’idée d’une feuille de route pour les combustibles fossiles, travaillons ensemble et transformons-la en un plan d’action. »
Mais l’opposition de l’Arabie saoudite, de l’Inde et d’autres grands producteurs d’énergies fossiles l’a édulcoré. Les négociations se sont prolongées, aggravées par un incendie qui a reporté les discussions d’une journée.
Lorsque l’accord final a été conclu, les références clés à l’élimination progressive des combustibles fossiles avaient disparu. La Colombie, par exemple, a réagi vivement à l’absence de mention de la transition vers l’abandon des combustibles fossiles dans le texte final. Cela a contraint la présidence de la COP à proposer un réexamen dans six mois en guise de geste d’apaisement.
Ce fut une énorme déception car, au début du sommet, l’élan semblait très fort.
À lire aussi : Comment échapper à la malédiction de la rente fossile ?
Un fossé qui se creuse
Ce sommet sur le climat a donc été une nouvelle fois source de divisions. Le fossé entre les pays producteurs de pétrole (en particulier au Moyen-Orient) et le reste du monde n’a jamais été aussi large.
Le sommet a toutefois eu un aspect positif : il a montré la force des mouvements organisés. Les groupes autochtones et la société civile ont pu faire entendre leur voix, même si leurs revendications n’ont pas été reprises dans le texte final.
Le sommet de l’année prochaine se tiendra en Turquie. Ces sommets annuels sur le climat se déplacent de plus en plus vers des pays autoritaires où les manifestations ne sont pas les bienvenues, voire totalement interdites. Nos dirigeants ne cessent de répéter que le temps presse, mais les négociations elles-mêmes restent enlisées dans un cycle sans fin de reports.
Mark Maslin est vice-recteur adjoint du programme « UCL Climate Crisis Grand Challenge » et directeur fondateur de l'Institut pour l'aviation et l'aéronautique durables de l'UCL. Il a été codirecteur du partenariat de formation doctorale NERC de Londres et est membre du groupe consultatif sur la crise climatique. Il est conseiller auprès de Sheep Included Ltd, Lansons, NetZeroNow et a conseillé le Parlement britannique. Il a reçu des subventions du NERC, de l'EPSRC, de l'ESRC, de la DFG, de la Royal Society, du DIFD, du BEIS, du DECC, du FCO, d'Innovate UK, du Carbon Trust, de l'Agence spatiale britannique, de l'Agence spatiale européenne, de Research England, du Wellcome Trust, du Leverhulme Trust, du CIFF, de Sprint2020 et du British Council. Il a reçu des financements de la BBC, du Lancet, de Laithwaites, de Seventh Generation, de Channel 4, de JLT Re, du WWF, d'Hermes, de CAFOD, de HP, du Royal Institute of Chartered Surveyors, de la John Templeton Foundation, de la Nand & Jeet Khemka Foundation et de la Quadrature Climate Foundation.
La professeur Priti Parikh est directrice de la Bartlett School of Sustainable Construction de l'UCL et vice-doyenne internationale de la Bartlett Faculty of Built Environment. Elle est membre et administratrice de l'Institution of Civil Engineers. Ses recherches sont financées par l'UKRI, la Royal Academy of Engineering, Water Aid, la British Academy, Bboxx Ltd, l'UCL, la Royal Society et le British Council. Son cabinet de conseil a reçu des financements de l'AECOM, du Cambridge Institute for Sustainable Leadership, de Water and Sanitation for the Urban Poor, de l'UNHABITAT, d'Arup, de l'ITAD et de la GTZ.
Simon Chin-Yee ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.