12.04.2026 à 17:07
Comment éduquer à la transition écologique en dépassant la culpabilisation ?
Texte intégral (1617 mots)
Nos difficultés à passer à l’action en matière de transition écologique ne seraient pas tant liées à des biais cognitifs qu’à des freins émotionnels. Des émotions, telles que la peur ou la culpabilité, sont stériles, mais elles peuvent laisser la place à l’espoir de faire changer les choses. Tout du moins, à certaines conditions.
Nous n’avons jamais autant parlé de climat, de biodiversité et de transition écologique. Dans les universités, les écoles et les formations professionnelles, les contenus se multiplient. Les chiffres sont là, les diagnostics sont connus, l’urgence est largement documentée. Et pourtant, une question persiste : pourquoi savons-nous autant sans agir davantage ?
Ce décalage entre connaissances et action est aujourd’hui bien identifié. Il est souvent présenté comme un problème d’information, de volonté individuelle ou de contraintes matérielles. Mais les résultats récents de notre recherche suggèrent une autre lecture : le principal frein à l’action écologique ne serait pas cognitif mais émotionnel.
À lire aussi : La faute de nos biais cognitifs, vraiment ? Comment cette notion fabrique l’inaction écologique
Quand l’éducation à l’écologie fatigue
Dans de nombreux dispositifs éducatifs actuels, la transition écologique est abordée à travers des messages alarmants : effondrement des écosystèmes, extinction des espèces, urgence climatique. Ces discours sont scientifiquement fondés, mais leurs effets psychologiques sont rarement interrogés.
Chez les étudiants comme chez les apprenants adultes, ces messages suscitent fréquemment de la culpabilité, de la peur, voire un sentiment d’impuissance. L’individu se sent responsable d’un problème qui le dépasse. Ces émotions traduisent moins un manque de sensibilité qu’une forte conscience morale des enjeux environnementaux.
Mais lorsqu’elles s’accumulent sans accompagnement, elles peuvent devenir paralysantes. À terme, cette surcharge émotionnelle peut conduire non pas à l’engagement, mais au retrait :
« À quoi bon agir, si tout est déjà perdu ? »
Ce phénomène est aujourd’hui largement discuté sous le terme d’écoanxiété. Pourtant, il reste peu intégré dans la conception des programmes éducatifs. L’éducation à la durabilité continue souvent de miser sur l’accumulation de connaissances, en supposant que la prise de conscience suffira à déclencher le changement.
À lire aussi : L’éco-anxiété : une réponse saine face à la crise climatique
L’émotion comme point de bascule
Notre recherche menée auprès d’étudiants ayant participé à un programme intensif de formation à la durabilité met en lumière un mécanisme clé : ce ne sont pas les connaissances en elles-mêmes qui déclenchent l’action, mais la manière dont les émotions associées à ces connaissances évoluent dans le temps.
Au début du programme, la majorité des participants exprimaient une forme de lassitude ou de résistance. Les enjeux environnementaux leur semblaient omniprésents, mais abstraits, culpabilisants, voire décourageants. Certains parlaient de « bruit de fond », d’autres d’un sentiment de fatalité.
Puis, progressivement, quelque chose a changé. Non pas parce que les messages étaient devenus moins sérieux, mais parce qu’ils étaient plus incarnés, misant davantage sur les volets relationnel et participatif. Les émotions négatives ne s’effacent pas, elles évoluent. La peur et la culpabilité peuvent progressivement céder la place à la curiosité, puis à une forme d’espoir, avant de se traduire par un sentiment d’utilité personnelle.
Des travaux récents en psychologie montrent que cet espoir, lorsqu’il est étroitement associé à des actions concrètes et collectives, favorise un engagement plus soutenu face au changement climatique. Cette perspective invite ainsi à dépasser une conception réductrice des émotions, souvent envisagées uniquement comme des freins à l’action.
À lire aussi : Comment mobiliser les émotions pour inciter à agir en faveur du climat ?
Les limites de la pédagogie du choc
Ce basculement émotionnel constitue un tournant décisif. Lorsque les apprenants cessent de se percevoir uniquement comme des responsables coupables et commencent à se voir comme des acteurs capables d’agir, même à leur échelle, le passage à l’action devient possible. Ce sentiment de capacité d’agir – largement étudié sous le concept d’auto-efficacité – joue un rôle central dans la mise en mouvement et la persistance de l’engagement.
Nos résultats invitent à interroger en profondeur la manière dont nous enseignons la transition écologique. Pendant longtemps, la pédagogie environnementale a reposé sur une logique de choc : montrer l’ampleur des dégâts pour provoquer une prise de conscience. Or, cette stratégie atteint aujourd’hui ses limites.
La répétition de messages anxiogènes peut engendrer de la saturation informationnelle, une forme de déni défensif ou encore un désengagement émotionnel.
À l’inverse, les dispositifs éducatifs qui favorisent l’expérimentation, la coopération et la co-construction produisent des effets très différents. Dans l’étude, les moments les plus transformateurs ne sont pas les conférences magistrales, mais les ateliers collaboratifs, les projets concrets et les échanges avec des acteurs engagés.
Ces formats permettent aux apprenants de vivre la transition écologique non plus comme une menace abstraite, mais un espace d’action collective, où l’engagement est partagé et socialement reconnu.
Un sentiment d’utilité sociale
Un résultat particulièrement marquant de notre recherche concerne le rôle des émotions dites « positives », comme l’espoir, la fierté ou le sentiment de contribution. Contrairement à une idée répandue, ces émotions ne minimisent pas la gravité des enjeux. Elles permettent au contraire de rendre l’action psychologiquement soutenable dans la durée.
L’engagement devient plus stable et plus durable quand :
les apprenants constatent que leurs actions, même modestes, ont du sens ;
ils se sentent reconnus dans leur capacité à agir ;
ils participent à la conception de solutions concrètes.
Cet engagement s’inscrit alors dans des dynamiques collectives qui renforcent le sentiment d’utilité sociale.
Dans ces conditions, les comportements écologiques cessent d’être perçus comme des contraintes imposées de l’extérieur. Ils s’intègrent progressivement aux routines quotidiennes et peuvent même être transmis à l’entourage.
Une transition écologiquement et psychologiquement soutenable
Ces constats ont des implications majeures pour l’éducation, la formation et les politiques publiques.
Informer ne suffit pas. Les dispositifs éducatifs doivent être conçus comme de véritables parcours émotionnels, et non comme de simples transferts de connaissances.
Il est essentiel de diversifier les formats pédagogiques : hackathons, living labs, projets collectifs, simulations, mises en situation réelle. Ces formats favorisent l’appropriation et renforcent le sentiment de capacité d’agir.
Enfin, la transition écologique ne peut être enseignée uniquement par des discours institutionnels. Les apprenants accordent une grande importance à la crédibilité et à la sincérité des intervenants : entrepreneurs engagés, enseignants impliqués, pairs mobilisés. La confiance joue ici un rôle central.
Face à l’urgence environnementale, la tentation est forte d’intensifier les messages alarmants. Mais si l’objectif est une mutation durable des comportements, il est temps de changer de paradigme.
La transition écologique ne se gagnera pas par la culpabilité seule. Elle nécessite une éducation capable de transformer l’angoisse en engagement et la peur en capacité d’agir, et ne se résume pas à transmettre des savoirs. Elle implique d’accompagner une trajectoire émotionnelle, de l’inquiétude à l’appropriation, sans laquelle aucune transition ne peut réellement s’ancrer dans les pratiques.
Rien à déclarer
Catherine Lejealle, Insaf Khelladi, Rémi Beulque et Saeedeh Rezaee Vessal ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
11.04.2026 à 07:41
Moyen-Orient : au-delà du choc énergétique, une crise mondiale pour les ressources minérales
Texte intégral (2724 mots)
La crise économique née dans le sillage de la guerre en Iran n’est pas seulement un choc pétrolier et gazier. Elle fragilise l’ensemble des chaînes d’approvisionnement de ressources minérales cruciales, tant pour l’agriculture mondiale que pour la transition énergétique.
Le conflit qui secoue le Moyen-Orient depuis le 28 février 2026 provoque une onde de choc sur l’ensemble des marchés mondiaux des ressources minérales, au-delà des impacts sur les marchés du pétrole et du gaz. La région, point de passage stratégique pour le transport maritime de par son positionnement géographique, joue en effet un rôle clé dans l’approvisionnement en aluminium, en soufre et en hélium. En effet, leur production nécessite du gaz naturel. Cela affecte aussi, plus indirectement, d’autres métaux dont l’industrie dépend soit du pétrole, soit du soufre, comme le nickel, le titane ou le cuivre.
Les restrictions du transport dans le détroit d’Ormuz, par lequel ont transité près de 34 % du pétrole brut mondial en 2025 ainsi que 19 % du gaz naturel liquéfié, agissent comme un verrou géopolitique dont les effets se répercutent sur toutes les chaînes de valeur industrielles, bien au-delà des hydrocarbures et des produits pétrochimiques.
Nous travaillons pour l’Observatoire français des ressources minérales pour les filières industrielles (Ofremi), coordonné par le BRGM, impliquant également le CEA, l’IFPEN, l’Ifri et l’Ademe. Cet observatoire peut apporter un éclairage stratégique sur cette crise en offrant une lecture globale des chaînes d’approvisionnement en ressources minérales, au-delà des seules dynamiques énergétiques.
Par son expertise sur les métaux et minéraux critiques au travers de l’ensemble de leurs chaînes de valeur, l’Ofremi met en évidence les effets systémiques et souvent sous‑estimés de ce type de conflit sur l’ensemble des secteurs stratégiques pour notre économie. Nous vous proposons dans cet article un tour d’horizon des effets de la crise sur plusieurs matières critiques : l’hélium, l’aluminium, le soufre, le nickel, le cuivre et le titane
Hélium : une pénurie mondiale inédite
L’hélium est un sous-produit du traitement du gaz naturel lors de sa liquéfaction. Environ un tiers de la production mondiale d’hélium provient du site de Ras Laffan, au Qatar.
La rupture d’approvisionnement risque d’être fortement impactante à terme pour l’industrie, car cet élément est indispensable à la fabrication de semi-conducteurs, ainsi qu’à une partie des équipements médicaux.
Ainsi, Taïwan, la Corée du Sud et la Chine sont particulièrement exposés, tout comme les équipements de santé européens (aimants supraconducteurs présents dans les appareils IRM notamment), si des circuits d’approvisionnement alternatifs ne sont pas identifiés à moyen terme.
Aluminium : une industrie régionale paralysée et des tensions sur les prix à prévoir
La production d’aluminium métal à partir d’alumine, elle-même issue de la bauxite, requiert beaucoup d’énergie. On la produit généralement là où elle est disponible à bas coût, dans des fonderies fonctionnant au gaz naturel. C’est pourquoi environ 10 % des capacités mondiales de production d’aluminium se situent dans le Golfe persique. Le manque de gaz et l’impossibilité d’importer l’alumine d’Australie entraînent donc des arrêts de production, comme chez les Qataris Qatalum (joint-venture entre le norvégien Hydro), Qamco (qui maintiendra sa production à 60 % de sa capacité) et Alba (Aluminium Barhain BSC), dont l’arrêt contrôlé de trois lignes de procédés réduira de 19 % sa production annuelle.
Cette situation risque d’accroître la hausse des prix de l’aluminium, déjà sous tension depuis un an. Au 1er avril 2026, le prix de l’aluminium coté à la bourse de Londres avait augmenté de près de 45 % sur un an. Le phénomène devrait encore être amplifié par la hausse des prix de l’énergie, la baisse de l’offre en provenance du Moyen-Orient et de potentielles spéculations.
L’Europe et les États-Unis dépendent des importations en aluminium provenant du golfe Persique, et sont donc particulièrement vulnérables aux changements du marché.
Soufre : un maillon critique qui menace l’agriculture mondiale, mais pas seulement
Dans le golfe Persique, le soufre n’est quasiment pas extrait de mines : il est coproduit à partir des hydrocarbures, en particulier du gaz naturel et du pétrole, riches en soufre. Les pays du Golfe fournissent un quart du soufre mondial. Or, le soufre est essentiel à la fabrication des engrais phosphatés, mais aussi d’acide sulfurique, indispensable à la métallurgie du cuivre et du nickel et à de nombreux procédés industriels.
Des ruptures d’approvisionnement pourraient provoquer une flambée des prix des engrais et, à plus long terme, des tensions sur le secteur agricole ainsi que des réactions protectionnistes, notamment de la Chine, qui est aujourd’hui le principal producteur mondial de soufre.
Nickel : l’Indonésie en difficulté
Les usines indonésiennes utilisant la lixiviation haute pression (procédé appelé High-Pressure Acid Leaching, ou HPAL) produisent 70 % des produits intermédiaires à base de nickel utilisés pour les batteries. Or, cette industrie utilise de l’acide sulfurique produit à partir du soufre importé du Moyen-Orient.
Avec des stocks couvrant à peine un mois, certaines installations ont déjà suspendu leur production. Cette situation tendue pourrait perturber la chaîne mondiale des batteries haute performance pour les véhicules électriques.
À lire aussi : Quelle technologie de batterie pour les voitures électriques ? Un dilemme de souveraineté industrielle pour l’Europe
Cuivre et titane : des impacts pour l’instant indirects
Le cuivre n’est pas directement menacé, mais sa production dépend elle aussi de l’acide sulfurique, utilisé par les procédés métallurgiques. Comme le prix du cuivre dépend fortement de l’état de l’économie mondiale, il pourrait reculer si celle-ci est freinée par la hausse des prix du pétrole.
Pour ce qui est du titane, L’Arabie saoudite possède une usine d’éponges de titane (forme poreuse et irrégulière de titane ure, obtenu par réduction du tétrachlorure de titane, qui est une des formes de titane faisant l’objet de commerce mondial), située au bord de la mer Rouge. Il s’agit d’un matériau critique pour l’industrie aéronautique.
Si ce site industriel est peu exposé actuellement, il pourrait le devenir dans le cas d’une extension du conflit du côté de la mer Rouge.
Un choc global aux répercussions durables
La crise au Moyen-Orient ne saurait pas être réduite à un simple épisode géopolitique : elle révèle la sensibilité structurelle des chaînes d’approvisionnement mondiales, en déclenchant une cascade de vulnérabilités. Pétrole, gaz, hélium, soufre, aluminium, nickel… autant de ressources essentielles dont la disponibilité conditionne les secteurs industriels, notamment ceux porteurs de la transition énergétique.
Si le conflit s’inscrit dans la durée, les tensions pourraient s’amplifier, entraînant une hausse généralisée des coûts de production pour les entreprises, une augmentation durable des prix et des risques d’approvisionnement dans certains secteurs. La sécurisation des approvisionnements en ressources minérales, par la diversification des lieux de production, est plus que jamais d’actualité.
Antoine Lebrault, chargé de communication au BRGM, a participé à l’écriture de cet article.
Cet article a été réécrit sur la base d’une note de l’Ofremi à diffusion restreinte, avec les contributions de Marc-Antoine Eyl-Mazzega et Thibault Michel (Ifri), Emmanuel Hache (IFPEN) et Stéphane Bourg, Claire André-Luquet, Gaétan Lefebvre, Katherine Leroy, Paul Notom, Éric Pujol, Aurélien Reys (BRGM).
Bialkowski Anne a reçu des financements de l'ANR dans le cadre du projet OFREMI
Mathieu Leguerinel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 16:49
Les paysages sonores : un patrimoine naturel méconnu
Texte intégral (4050 mots)
Les paysages sonores font partie de la richesse de notre patrimoine naturel, ils restent cependant méconnus et peu considérés dans les politiques de conservation de la biodiversité.
Nos journées commencent très souvent par un son, celui d’un réveil qui tressaille, d’une radio qui s’allume, d’un téléphone qui vibre, ou d’une voix qui nous dit « Debout, c’est l’heure ! » Les yeux encore fermés, arrivent déjà d’autres manifestations acoustiques : une porte qui claque, une voiture qui passe, un oiseau qui chante, des voisins qui discutent dans la rue ou sur le chemin.
Même si nous sommes des organismes dont la modalité d’exploration du monde est essentiellement visuelle, nous sommes en constante alerte auditive : nous écoutons, parfois sans nous en rendre compte, pour esquiver, trouver, avancer, communiquer ou, plus simplement, profiter d’une musique.
Nous évoluons en continu dans des environnements sonores composés de vibrations de machines pour nous déplacer ou construire (on parle de « technophonie »), de voix humaines (« anthropophonie »), de vocalisations animales non humaines (« biophonie »), de tapotements de pluie, de bruissements de vent ou de grondements océaniques (« géophonie »).
Chaque mélange acoustique, plus ou moins structuré, plus ou moins agréable, qui peut être terrestre, aquatique ou souterrain, constitue un paysage sonore. Le concept scientifique de paysage sonore est apparu au cours des années 1970, notamment dans le livre le Paysage sonore : le monde comme musique, écrit par le musicien et universitaire canadien Murray Schafer. Le paysage sonore peut être défini comme un ensemble de sons issus de sources vibrantes actives en un lieu donné et à un instant donné.
Il existe une infinité de paysages sonores puisque chaque lieu sur Terre est unique et parcouru à un instant T par un ensemble singulier de vibrations sonores. Ces paysages sonores sont perçus, analysés et interprétés par tous les organismes vivants dotés de récepteurs de pression ou de mouvements de particules, qu’ils soient relativement simples, comme les tympans de certains papillons nocturnes qui détectent les cris des chauves-souris qui les chassent, ou très sophistiqués, comme les oreilles asymétriques de certaines chouettes qui savent localiser très précisément les petits rongeurs dont elles se nourrissent.
Plus généralement, les mammifères, les oiseaux, les amphibiens, les reptiles, les poissons, les insectes, les araignées, les crustacés et même certains mollusques et cnidaires, comme les moules et les méduses, écoutent et analysent les paysages sonores qu’ils traversent et qui les traversent. Chaque interprétation des paysages sonores est également unique puisqu’elle dépend des capacités physiologiques et cognitives de chaque individu.
À lire aussi : Perte d’audition : quand les sons de la nature disparaissent
A l’écoute des forêts protégées de France : le projet Sonosylva
En France, les paysages sonores sont le reflet de la grande diversité des territoires hexagonaux, corses et ultramarins, depuis de simples zones vertes périurbaines, occupées par quelques chants d’oiseaux, jusqu’aux immenses forêts tropicales d’Amazonie truffées de coassements de grenouilles et stridulations d’insectes, en passant par les récifs coralliens des îles du Pacifique crépitants de crevettes pistolets dont la fermeture soudaine de leur pince hypertrophiée produisent des claquements en faisant imploser des bulles d’air.
Un tiers de la surface de ces socio-écosystèmes français est protégé par des structures de conservation de la nature, qu’elles soient locales (arrêtés préfectoraux de protection de biotope, réserves de biodiversité intégrales, réserves nationales naturelles), nationales (parcs nationaux) ou européennes (zones Ramsar, zones Natura 2000).
Ces aires protégées ont été, dans la plupart des cas, construites et délimitées à partir des critères d’inventaire faunistique et/ou floristique, ou d’habitats particuliers, en référence notamment aux directives européennes Habitats-Faune-Flore et Oiseaux. Cependant, de ces espaces émanent des paysages sonores qui forment un patrimoine naturel national méconnu dont les valeurs doivent être définies pour être mieux considérées et protégées.
Afin de répondre aux besoins d’information des politiques publiques et des citoyens sur l’état de la biodiversité, un schéma directeur de la surveillance de la biodiversité terrestre a été publié par le gouvernement français en 2024. Dans ce cadre national, une expérimentation de trois ans menée par l’Office français de la biodiversité (OFB) et le Muséum national d’histoire naturelle (MNHN) a pour ambition de documenter et analyser les paysages sonores des forêts protégées de France hexagonale et de Corse.
Ce projet, Sonosylva, repose sur la collaboration de plus de 200 agents employés dans 80 structures couvrant un ensemble de 110 forêts. Ces acteurs de la préservation de la biodiversité ont installé des magnétophones autonomes au cœur de leur territoire forestier afin d’enregistrer les paysages sonores, une minute tous les quarts d’heure, un jour sur deux, du printemps à l’automne, en 2024, en 2025 et, encore cette année, en 2026. Cet observatoire scientifique participatif recueille chaque saison plus d’un million de fichiers audio, soit plus de 16 000 heures de paysages sonores forestiers.
Si l’analyse de cette immense base de données ne fait que commencer, une enquête a déjà été conduite auprès de 162 participants afin de cerner leur intérêt pour ce patrimoine. Comment les paysages sonores naturels sont-ils perçus ? Peuvent-ils faire partie des politiques de conservation, de préservation et de sensibilisation des aires protégées ?
Une perception des paysages sonores conditionnée par les territoires
La majorité des gestionnaires considère que leurs aires protégées se caractérisent par un paysage sonore unique participant à l’identité et au patrimoine de leurs territoires. Ainsi, l’un des répondants remarque que le site dont il a charge « possède des marqueurs sonores emblématiques et riches (faune, bétail domestique, océan). L’éloignement des zones urbaines et la superficie restreinte de la zone publique nous permet de garder un environnement sonore propice à la quiétude sur site ».
Cette empreinte acoustique résulte de l’association de sons naturels et anthropiques, leurs variations spatiales et temporelles étant liées à des facteurs météorologiques, écologiques et sociétaux. Les gestionnaires considèrent par ailleurs les sons dérangeants différemment selon leur ancrage local. Les bruits constants, hors de portée, comme ceux d’une route, d’un couloir aérien ou d’une activité industrielle, sont relativement bien acceptés, pouvant être même considérés comme un simple « bruit de fond ».
Les bruits ponctuels, attribués à un dérangement de voisinage, comme ceux d’une circulation locale, de groupes de visiteurs aux discussions un peu intenses ou d’une activité de récréation telle que la musique, sont, eux, appréciés négativement. Il existe donc un traitement bien distinct entre les bruits distants incontrôlables et les bruits de proximité évitables.
Un manque d’actions de sensibilisation et de formation
L’enquête révèle également un décalage important entre l’intérêt croissant des gestionnaires pour les paysages sonores et un sentiment d’impuissance lié au manque de formation et d’applications concrètes ayant un impact sur les politiques publiques nationales ou locales des territoires, comme le note un participant :
« Démarche pertinente, le paysage sonore et la pollution sonore ne sont que peu parcourues dans nos métiers, alors que ce devrait être pris davantage en compte. Me concernant, je ne m’y penche pas faute de compétences. Des initiations ou formations sur ces sujets pourraient être une bonne base. »
La mise en valeur et la protection des paysages sonores semblent de fait difficiles par l’absence de sensibilisation à l’échelle du pays et par un manque de ressources d’aide à la gestion et à la communication sur la valeur sonore des sites protégés. La thématique du paysage sonore est notamment absente des documents les plus essentiels, comme les guides d’élaboration des plans de gestion des espaces naturels (document CT88). Les structures administratives chargées de protéger les espaces naturels souffrent également de ressources humaines et financières limitées, ne permettant pas aujourd’hui de considérer les paysages sonores, leurs richesses et les pollutions qui les menacent, comme des priorités de gestion.
Les nuisances sonores génèrent des conflits
Les bruits liés aux activités humaines dans les aires protégées, notamment les forêts du projet Sonosylva, génèrent des conflits principalement liés à une propriété essentielle du son : il est non exclusif. Il est, en effet, presque impossible d’empêcher un individu, qu’il soit humain ou non humain, d’émettre un son, et il est également très difficile de contrôler la propagation du son dans l’environnement. Le son, quel qu’il soit, n’a pas de frontières : il traverse les paysages de manière incontrôlable. Un paysage sonore n’a pas de cadre comme un paysage visuel, il est fluide plus que solide, il s’écoule plus qu’il ne stagne.
Les gestionnaires font aussi face à une problématique d’échelle dans la gestion des conflits liés aux sons. Certaines décisions d’aménagement national, comme les tracés des nouvelles lignes ferroviaires ou autoroutes, ne prennent pas en compte les conséquences sur le paysage sonore à l’échelle locale.
À l’inverse, les problématiques locales peuvent conduire à des changements nationaux positifs : le récent « exode urbain » a occasionné des conflits de voisinage avec certains néoruraux dérangés par les grenouilles, les coqs ou les cigales ce qui a conduit, en janvier 2021, à l’inscription des sons et des odeurs des milieux naturels et ruraux dans le premier article du Code de l’environnement, en tant que partie du « patrimoine commun de la nation ».
De nouveaux conflits sonores peuvent apparaître dans les aires protégées, mais alors ce sont les visiteurs humains qui sont susceptibles de déranger : bruits de moteurs (voitures, motos, quads), bruits de fêtes (repas, rave parties) ou de voix peuvent à la fois affecter les espèces non humaines et les autres humains venus chercher un espace de quiétude. :
Ainsi, l’un des participants observe :
« Ces dernières années (en lien avec l’augmentation de la fréquentation), de nombreuses perturbations sonores (visiteurs avec des instruments de musique, des enceintes portatives, des chiens très bruyants). Les groupes de visiteurs sont eux-mêmes très bruyants et ne se rendent souvent pas compte de la portée de leur cri et de leur dérangement. »
Et un autre remarque que « des sons de véhicules motorisés sont audibles depuis le site d’installation de l’enregistreur, notamment ceux de motos, qui sont particulièrement perceptibles. On note également plusieurs passages d’avions de chasse par jour au-dessus du site ».
Agir pour les paysages sonores
Il semblerait que nous assistions à une progressive montée de la conscience collective sur l’impact cumulatif des bruits dans la vie quotidienne comme l’illustrent les rapports de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), de l’Agence européenne pour l’environnement, et de l’Organisation mondiale de la santé (OMS).
Les gestionnaires témoignent d’une volonté de changement qui se manifeste par la création de conférences ou de colloques sur l’aménagement du territoire de manière à intégrer les paysages sonores dans les politiques publiques de préservation de la biodiversité, dans une perspective « Une seule santé » (« One Health », en anglais). Des réflexions sont aussi en cours, notamment dans l’agglomération de Lille (Nord), afin d’intégrer la trame blanche qui cherche à assurer la continuité sonore au même titre que les trames verte et bleue, brune et noire qui préservent les continuités des habitats, des sols et des ciels nocturnes.
En France, des zones de sensibilisation sont mises en place dans différentes réserves nationales naturelles ou parcs nationaux (démarche Quiet-Attitude dans le parc national du Mercantour), des interdictions d'enceintes connectées, (réglementation du parc national des Calanques), ou encore des actions pédagogiques pour sensibiliser au patrimoine sonore (projet Biodiversité sonore de l’Ana–Conservatoire d’espaces naturels en Ariège).
Cependant, ces actions restent relativement marginales. Afin de mieux intégrer les paysages sonores dans les politiques publiques, nous suggérons une réflexion sur les réglementations afin qu’elles limitent au mieux la présence de bruit. Au-delà de ces règles d’usage, nous proposons la création de zones d’écoute du vivant motivées par l’émerveillement plus que par la proscription.
Dans ces zones d’écoute, il s’agirait de favoriser des solutions de réduction des bruits à la source, en limitant par exemple l’usage des machines (transports) et en suggérant un comportement discret (petits groupes). Déjà expérimentés il y a quelques années par le parc naturel régional du Haut-Jura, ces lieux mettraient en valeur l’existence de paysages sonores remarquables permettant de passer d’un comportement dominant dérangeant à une attitude attentive aux autres et respectueuse des sites et de leurs paysages sonores.
Les paysages sonores constituent aujourd’hui une facette méconnue de notre patrimoine naturel pour laquelle il reste presque tout à faire : intégration dans les politiques publiques d’aménagement du territoire, intégration dans les plans de conservation de la biodiversité à petites et à grandes échelles, et, bien sûr, pédagogie pour tous les publics afin d’améliorer notre écoute du monde vivant.
Julie Trottier est membre de du groupe d'experts sur la tenure de l'eau de la FAO (Nations Unies). Elle a reçu des financements de l'Agence Nationale de la Recherche et de l'Agence Française de Développement.
Cyprian Czaban, Jérôme Sueur, Ludovic Crochard, Nicolas Hette-Tronquart et Sylvain Haupert ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
09.04.2026 à 16:47
La crise écologique est-elle vraiment le produit d’un excès d’humains sur Terre ? Relire « The Population Bomb »
Texte intégral (2184 mots)

La mort du biologiste Paul Ralph Ehrlich le 13 mars 2026, a remis en lumière The Population Bomb, un classique de la littérature écologique publié en 1968. Les auteurs rappellent ici que la « surpopulation » n’est pas un simple fait naturel, mais un objet profondément politique. Depuis Thomas Robert Malthus, la restriction démographique reste un sujet d’actualité brûlant.
Pour la première fois en France depuis 1945, le nombre de naissances est devenu inférieur aux décès en 2025 ; l’indicateur de fécondité atteint 1,56 enfant par femme, son plus faible niveau depuis la Première Guerre mondiale.
Dès 2024, le président Emmanuel Macron appelait à un « réarmement démographique » pour répondre au vieillissement de la population. Dans le même temps, à propos de Mayotte, était soulevée la question de la « surpopulation » ou de la « pression démographique » sur l’île française.
Bien que ces diagnostics portent sur des échelles territoriales différentes, selon les contextes, la population peut être présentée comme une ressource à développer ou un problème à contenir. Le débat n’est pas nouveau. Coécrit par les biologistes américains Paul R. Ehrlich (1932-2026) et Anne H. Ehrlich, The Population Bomb reprend les principaux postulats malthusiens, en les replaçant dans le contexte de la crise écologique.
Alors que le malthusianisme classique fonde l’idée de surpopulation sur la rareté des ressources agricoles, le néo-malthusianisme du XXe siècle l’inscrit dans le cadre plus large des limites environnementales.
Trop d’humains
Anne et Paul Ehrlich coécrivent cet ouvrage dans un contexte marqué par le renouveau du néo-malthusianisme d’après-guerre et par l’affirmation d’une écologie attentive aux limites de la planète, dont témoignera notamment le rapport Meadows de 1972.
Très influent et polémique, l’ouvrage installe une idée devenue familière : les crises alimentaires et écologiques seraient d’abord le produit d’un excès d’humains sur Terre. Si le livre est connu pour ses prédictions catastrophistes, l’essentiel est ailleurs. The Population Bomb a transformé la manière de poser le problème, en présentant la surpopulation comme un fait scientifique, une réalité objective dictée par des contraintes naturelles, et appelant dès lors des réponses politiques fortes.
Leur point de départ est celui de la biologie des populations. Dès le premier chapitre de The Population Bomb – structuré autour « Trop d’humains », « Trop peu de nourriture » et « Une planète mourante » –, ils s’intéressent aux dynamiques de croissance, aux interactions entre population et environnement, ainsi qu’aux contraintes écologiques. L’ouvrage en donne d’emblée la clé de lecture :
« Les Américains commencent à prendre conscience que les pays en développement sont confrontés à une crise démographique et alimentaire inévitable. »
Parmi ces sections, « Trop d’humains » joue un rôle central. La population humaine y est d’abord traitée comme une variable naturelle à l’échelle mondiale, avant d’être envisagée dans ses dimensions sociales, économiques et politiques.
La bataille pour nourrir l’humanité est perdue
Dans The Population Bomb, le constat est sans appel : « la bataille pour nourrir toute l’humanité est perdue ».
Les crises alimentaires ne sont pas d’abord pensées comme des défaillances économiques, mais comme le rapport de l’homme à la nature ; la croissance démographique conduit à une pénurie de ressources. La hausse du prix de la nourriture résulterait de la mise en culture de terres moins fertiles, elles-mêmes conséquence de la croissance démographique :
« Nous savons déjà qu’il est impossible d’augmenter suffisamment la production alimentaire pour faire face à la croissance démographique continue. »
Anne et Paul Ehrlich déploient un registre catastrophiste, fait d’échéances rapprochées, de famines et d’effondrements sociaux. L’argument ne se limite pas aux pays en développement. Les sociétés riches sont aussi concernées, sous d’autres formes :
« Plutôt que de souffrir de pénuries alimentaires, ces pays en subissent les conséquences sous la forme d’une dégradation de l’environnement et d’une difficulté croissante à se procurer les ressources nécessaires pour maintenir leur niveau de vie. »
Cette approche ne signifie pas une absence du politique. La surpopulation est posée comme un fait objectif, quasi indiscutable, issu de lois naturelles, appelant ensuite des réponses politiques fortes. Le débat ne porte pas tant sur la définition du problème que sur les moyens d’y répondre.
Contrôle des naissances
Dans les derniers chapitres de l’ouvrage, Anne et Paul Ehrlich appellent explicitement à l’action coercitive de l’administration des États-Unis plutôt qu’à des mesures incitatives : contrôle des naissances grâce à la contraception, y compris la stérilisation forcée, droit à l’avortement ou réorientation de l’aide internationale.
Dans son discours de 1965, le président états-unien Lyndon Johnson appelait à traiter le problème de l’explosion démographique et de la rareté des ressources avec un contrôle des naissances. La réalité démographique contemporaine est loin d’être homogène. De nombreux pays développés font aujourd’hui face au vieillissement de leur population – Japon, France ou États-Unis –, tandis que d’autres régions concentrent l’essentiel de la croissance démographique mondiale et de la jeunesse. Le nombre d’habitants de l’Afrique subsaharienne pourrait dépasser les deux milliards en 2050.
Surtout, les pressions écologiques ne dépendent pas uniquement du nombre d’habitants, mais aussi des modes de production, de consommation, ainsi que de la concentration spatiale des activités économiques. Deux populations de taille comparable peuvent avoir des impacts très différents.
Effet Malthus
Parler de « surpopulation » ne renvoie jamais à une humanité indifférenciée. Cette catégorie suppose, implicitement, des écarts entre populations selon les territoires et les conditions sociales. Dès l’Essai sur le principe de population de Thomas Robert Malthus, la croissance démographique est pensée comme une loi naturelle. Elle s’accompagne d’une prise de position politique explicite : la critique des politiques d’assistance, notamment les « Poor Laws » accusées d’encourager la reproduction des plus pauvres.
Cette manière de poser le problème ne disparaît pas complètement avec le néo-malthusianisme. Dans The Population Bomb, Thomas Robert Malthus n’est pas mobilisé de manière explicite. Le problème est posé à l’échelle globale, sans désignation de groupes sociaux, tout en orientant implicitement le diagnostic vers certains territoires en développement. Aujourd’hui encore, cette logique se prolonge sous des formes plus diffuses, que certains travaux désignent comme un « effet Malthus ». Concrètement, les inégalités sociales et territoriales sont reformulées en termes apparemment naturalisés, à travers des diagnostics globaux qui évitent de nommer les populations concernées.
Parler d’un monde où il y aurait « trop d’humains » suppose donc, même tacitement, que certaines dynamiques démographiques sont plus problématiques que d’autres.
I = P × A × T
En 1971, Paul Ehrlich proposait avec le professeur de sciences de l’environnement John Holdren une formulation plus large de l’impact environnemental, souvent résumée par l’équation I = P × A × T. Impact environnemental (I) = taille de la population (P), richesse de la population (A) et technologie (T).
Cette équation fait dépendre l’impact environnemental du produit de la population, l’abondance – mesurée par la consommation par tête –, et de la technologie. Cette approche, reprise notamment dans The Population Explosion, reconnaît le rôle des choix économiques et techniques, que l’ouvrage de 1968 tendait à subordonner à la seule dynamique démographique.
Les débats se sont ensuite recentrés sur la mesure des contributions de ces facteurs au réchauffement climatique. Dans les années 1990, l’identité de Kaya permet de mesurer empiriquement les émissions de gaz à effet de serre en les reliant à la population, au produit intérieur brut par habitant, à l’intensité énergétique de la production et au contenu carbone de l’énergie. Plutôt que de se limiter au facteur démographique, elle met en évidence la nécessité de découpler la croissance de la consommation des émissions de gaz à effet de serre, notamment par la décarbonation.
La crise écologique impose des limites à l’exploitation des ressources, mais celles-ci tiennent moins à une supposée « surpopulation » qu’aux impacts environnementaux des modes de production et de consommation sur le climat. Autrement dit, l’enjeu n’est pas tant le nombre d’humains que la manière dont les sociétés organisent production, décarbonation, répartition et sobriété de la consommation des ressources.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.04.2026 à 11:29
Le greenwashing dans la loi : comment repérer les promesses environnementales douteuses ?
Texte intégral (2131 mots)
Faire le tri parmi les promesses environnementales dont les entreprises nous inondent est devenu quasiment impossible. Pourtant, le greenwashing est une pratique interdite, dont les contours sont de plus en plus strictement définis par la loi. L’Agence de la transition écologique, l’Ademe, propose quelques repères pour le détecter et le combattre.
En octobre 2025, le tribunal judiciaire de Paris condamnait TotalEnergies à « cesser la diffusion de communication trompeuse », ciblant ses allégations d’« ambition de neutralité carbone d’ici 2050 », la société affirmant être une « actrice majeure de la transition ».
Face au flot d’allégations environnementales qui inondent notre quotidien dans la publicité, dans la communication des entreprises en général, sur les réseaux sociaux ou sur les emballages des produits que nous achetons, nous sommes souvent démunis. Comment faire le tri entre les affirmations légitimes et fiables et celles, trompeuses ou mensongères, qui relèvent du « greenwashing » (ou écoblanchiment) ?
Le Larousse définit ce terme, depuis 2023, comme :
« [L’]utilisation fallacieuse d’arguments faisant état de bonnes pratiques écologiques dans des opérations de marketing ou de communication. »
Cette confusion a des effets délétères sur la mise en œuvre de la transition écologique. En effet, le greenwashing dégrade considérablement la confiance des citoyens envers les marques et les pouvoirs publics et décrédibilise, dans le même temps, les efforts réels que certaines structures mettent en place, ce qui pourrait freiner leur engagement.
Heureusement, comme le montre la condamnation de TotalEnergies, le problème ne se résume pas à un enjeu moral : le greenwashing est interdit par la loi. Connaître ses contours juridiques peut nous aider à mieux le repérer et à mieux le combattre. Afin d’encourager davantage les entreprises qui font réellement des efforts en faveur de l’environnement, l’Agence de la transition écologique (Ademe) a élaboré un guide anti-greenwashing, qui doit aider les entreprises à respecter la loi et adopter des pratiques vertueuses.
Un arsenal juridique robuste
Le greenwashing couvre toutes les formes de décalage entre le discours et la réalité des actes, relativement à l’empreinte environnementale de ses produits ou à ses engagements environnementaux dans le cadre de sa démarche de responsabilité sociétale des entreprises (RSE).
À ce titre, il relève légalement de la lutte contre les pratiques commerciales trompeuses. Ces dernières sont interdites par une directive européenne de 2005 et transposées en droit français dans le Code de la consommation.
Depuis, d’autres règles plus strictes ont été adoptées. La France, précurseuse en la matière, a adopté des dispositions contre le greenwashing dans la loi Anti-gaspillage pour une économie circulaire (Agec) en 2020 et la loi Climat et résilience de 2021.
Au niveau européen, la directive de 2024 qui vise à « donner aux consommateurs les moyens d’agir en faveur de la transition verte grâce à une meilleure protection contre les pratiques déloyales et grâce à une meilleure information » doit être transposée en droit français, les nouvelles dispositions devant entrer en application le 27 septembre 2026. Cette directive définit notamment de façon très précise l’allégation environnementale.
Ces textes définissent et encadrent la notion d’allégation environnementale, qui s’étend ainsi à toutes formes de mentions (texte, image, représentation graphique, symbole, label, dénomination sociale ou dénomination de produit…), de communication et toute organisation (y compris des professionnels).
Elles interdisent l’usage de certaines mentions génériques ne pouvant pas être démontrées, comme « biodégradable », « respectueux de l’environnement », « non toxique », « non nocif », « non polluant », « écologique » ou autres allégations similaires. Elles encadrent également strictement certaines affirmations comme « neutre en carbone » ou « recyclable ».
Au-delà de ces lois contraignantes, des textes de « droit souple » (c’est-à-dire, n’ayant pas d’effets contraignants par eux-mêmes) peuvent être pris en compte par les juridictions pour interpréter les textes de loi. Dans cet esprit, l’Ademe a, par exemple, publié un avis d’experts en 2022 sur la communication relative à la neutralité carbone. Cet avis formule un certain nombre de recommandations à l’intention de tous les acteurs du secteur privé et du secteur public.
Enfin, des normes internationales ISO ainsi que des règles déontologiques aiguillent les pratiques de communication autour de l’environnement. C’est par exemple le cas de la recommandation relative au développement durable de l’Autorité de régulation professionnelle de la publicité (ARPP).
Un phénomène d’ampleur encore sous-estimé
En France, c’est la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) qui se charge de détecter et sanctionner les cas de greenwashing. Or, le bilan des enquêtes qu’elle a menées en 2023 et 2024 a mis en évidence l’ampleur du phénomène.
Sur plus de 3 200 entreprises, 15 % des professionnels contrôlés présentaient des manquements graves à la réglementation. Plus de 430 entreprises ont ainsi été gratifiées d’une injonction de mise en conformité et 74 se sont vu infliger des sanctions (amendes administratives ou procès-verbaux). Plus de 500 avertissements ont également été adressés pour des informations manquantes ou imprécises.
Sur le périmètre de la publicité, l’Ademe et l’ARPP réalisent par ailleurs une étude qui porte sur plusieurs centaines de publicités environnementales pendant 4 mois depuis 2007. Selon les années, le taux de visuels non conformes à la recommandation développement durable de l’ARPP varie entre 6 et 12 % – ce qui est beaucoup plus important que dans d’autres bilans thématiques menés par cette instance.
En outre, ces chiffres sont sans doute sous-estimés, car certains supports promouvant ces allégations environnementales demeurent à ce stade mal étudiés. C’est notamment le cas sur les réseaux sociaux (influenceurs), lors des prises de paroles de dirigeants, dans les rapports d’impact ou RSE, sur les sites Web et sur les offres d’emploi.
Les signes d’alerte pour détecter le greenwashing
Preuve que ces pratiques affectent la crédibilité des organisations et en particulier des entreprises, seuls 40 % des consommateurs français déclaraient en 2025 « faire globalement confiance aux marques », contre 58 % en 2004.
Dans ce contexte, il apparaît urgent que les citoyens soient mieux armés pour trier le bon grain de l’ivraie, dans le flot de communications qui les inondent. Face à une allégation environnementale, plusieurs signes peuvent alerter.
De façon générale, il s’agit de se méfier face aux communications qui véhiculent des promesses inappropriées, déloyales et excessives, d’être vigilants vis-à-vis des allégations ambiguës ou mal justifiées, qui n’apportent aucune preuve de ce qu’elles avancent, ou aux messages qui incitent à des comportements ou des modes de vie contraires à la transition écologique, tout en se parant de vertu environnementale.
De même, les éléments sonores ou visuels trompeurs, notamment les belles images et la représentation d’éléments naturels comme l’eau, la forêt, le ciel, le soleil, la banquise, que ce soit en vidéo, en photo, sous forme de pictogramme ou d’émoticônes, sont souvent utilisés pour « verdir » l’image d’un produit, sans que ces vertus ne soient étayées.
Ce qui permet d’identifier les produits plus vertueux
À l’inverse, des signes distinctifs positifs peuvent nous aider à repérer les performances environnementales des produits.
Différents textes législatifs ou réglementaires imposent aux fabricants ou aux importateurs d’indiquer certaines informations de nature environnementale sur les produits qu’ils mettent sur le marché. Ces informations obligatoires, comme l'indice de réparabilité, l'indice de durabilité ou l'étiquette énergie, donnent aux consommateurs les moyens de comparer les produits d’une même catégorie sur la base d’informations comparables relatives à leurs niveaux d'impacts, lors de l'achat des produits concernés (TV, smartphones, lave-linge, ordinateur…).
L’affichage environnemental, prévu par la loi Climat et résilience de 2021, doit permettre d’informer les citoyens sur les impacts environnementaux des produits qu’ils achètent de façon claire et transparente. D'application volontaire et encadrée, ce coût environnemental traduit, sous forme d’une valeur chiffrée, l’impact sur l’environnement tout au long du cycle de vie du produit. Il est, à ce stade, en cours de déploiement sur certaines catégories de produits, mais il est appelé à se généraliser à terme aux principaux produits de consommation et services.
Les labels sont un autre outil qui peuvent nous aider à faire un choix éclairé – autant qu’il peut nous perdre. Pour pouvoir s’y fier, il faut savoir se repérer dans la jungle des labels existants – plus de 350 ont été recensés par l’Ademe. Pour nous guider, l’agence recommande de privilégier en priorité ceux qui sont conformes à la norme ISO 14024 et a dressé 7 critères pour reconnaître un label de confiance. Elle a par ailleurs publié un outil en ligne qui rassemble de façon non exhaustive des labels garantissant vraiment un impact limité du point de vue environnemental, classés par catégories de produits. Il est à noter également que la directive européenne citée plus haut renforce également les règles applicables aux labels en imposant une vérification par un tiers.
Une communication juste et transparente
Certaines entreprises sont tentées, face à ces réglementations, de tomber dans le « greenhushing », c’est-à-dire de réduire fortement toute communication sur les innovations leur permettant de réduire leur impact environnemental pour éviter le problème. Une telle attitude contribuera aussi à freiner la transition écologique : communiquer sur ces avancées est essentiel. Simplement faut-il le faire en ayant conscience que les mots et les images ont un sens et une influence sur les imaginaires, et que cette responsabilité doit être prise en compte.
Pour les aiguiller, des outils comme le guide anti-greenwashing et les tests en ligne existent pour se poser les bonnes questions en amont, renforcer les procédures de relecture et de validation, et renforcer une communication plus responsable. Les entreprises ont tout intérêt à éviter le piège du greenwashing au profit d’une communication juste, responsable et honnête sur les efforts qu’elles font et ceux qu’il leur reste à faire. Il ne s’agit pas de se montrer parfaites, mais d’être transparentes sur les atouts de leurs produits, leurs engagements en matière de RSE et leur marge de progression. C’est le seul moyen de regagner la confiance des consommateurs, mais aussi, en interne, des salariés.
Valérie Martin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:41
La contamination chimique des cires d’abeille, un problème sanitaire qui passe sous les radars
Texte intégral (3232 mots)

Substance clé de la ruche, la cire agit aussi comme piège à polluants, ce qui pourrait menacer la santé des abeilles. Une expertise de l’Agence nationale de sécurité sanitaire, ou Anses, montre que la quasi-totalité des cires présente des contaminations chimiques, avec des niveaux plus élevés dans les circuits commerciaux que chez les apiculteurs qui recyclent leur propre cire d’une année à l’autre.
On le sait : la pérennité des écosystèmes dépend de la santé des pollinisateurs. Les abeilles en sont les représentantes emblématiques, leur déclin suscite l’inquiétude de la société et de la communauté scientifique. En cause, l’évolution des paysages, l’usage de produits chimiques en agriculture et en apiculture, notamment antiparasitaires pour lutter contre l’acarien Varroa destructor.
Or, la cire produite par les abeilles, substance de nature lipophile (c’est-à-dire présentant une affinité chimique pour les graisses), fixe et diffuse les substances chimiques contaminantes. En ce sens, elle peut constituer un biomarqueur de la contamination environnementale de la colonie d’abeilles.
Les jeunes abeilles produisent naturellement de la cire, mais le coût énergétique de sa fabrication peut diminuer la quantité de miel produit. L’ajout de cire dans la ruche leur donne un coup de pouce précieux pour édifier les alvéoles. Pour cela, les apiculteurs disposent chaque année sur les cadres de la ruche des feuilles de cire gaufrée, qui servent alors de base aux abeilles ouvrières.
Pour des raisons économiques, ces feuilles sont généralement produites à partir de cire recyclée : les cires sont collectées en même temps que la récolte de miel, fondues puis réutilisées. Ce recyclage peut entraîner l’accumulation progressive de contaminants chimiques susceptibles d’être nocifs pour les abeilles.
Les bonnes pratiques apicoles de l’Institut de l’abeille et de la pollinisation (Itsap) préconisent que seuls les opercules de cire (les pellicules de cire utilisées pour fermer les alvéoles) produits dans l’année par les abeilles soient recyclés, mais la cire étant un produit rare, certains apiculteurs s’approvisionnent auprès de fournisseurs tiers.
Pour mieux comprendre l’ampleur du problème, l’Agence nationale de sécurité sanitaire (Anses) a récemment mené une expertise pour dresser l’état des lieux des contaminants chimiques présents dans les cires utilisées en apiculture, en France hexagonale.
Pas de contrôle des cires importées, faute de définition réglementaire
La France importe ainsi environ 1 000 tonnes de cire par an, essentiellement de Chine. Or, en raison de l’absence de définition réglementaire de la cire d’abeille à usage apicole, il n’existe pas de contrôle spécifique pour ce produit, en dehors des contrôles documentaires classiques (portant sur l’exactitude, l’exhaustivité et la validité des déclarations en douane) effectués en postes frontières.
L’exposition chronique, par la cire, du couvain et des abeilles aux contaminants qu’elle contient, est susceptible d’avoir un impact sur leur développement, leur santé et leur survie. Et cela, à tous les stades de développement (larves, nymphes et adultes), ce qui peut menacer la santé de la colonie entière.
Il n’existait, jusqu’alors, aucun état des lieux de la contamination des cires en France ni d’évaluation chiffrée du risque posé pour la santé des abeilles.
À lire aussi : Pourquoi l’abeille est-elle devenue le symbole de la lutte contre les pesticides ?
Les contaminations chimiques découvertes
Dans le but de mieux connaître l’état des contaminations des différents types de cires en France, deux études de terrain successives ont été conduites, en plus d’une revue de la bibliographie.
La première a été menée auprès des apiculteurs professionnels (étude CIMEQA) et la seconde (une convention de recherche-développement, ou CRD, cosignée par l’Itsap et l’Anses), auprès des apiculteurs de loisir.
En effet, ces deux groupes n’ont pas les mêmes pratiques :
Les apiculteurs professionnels (possédant plus de 150 ruches) sont majoritairement autosuffisants en cire : leur rucher leur en procure suffisamment pour qu’ils puissent la recycler et fournir la quantité nécessaire au renouvellement des cadres de leurs ruches. En apportant leur production annuelle au cirier (industriel ou artisan préparant la cire ou des produits en cire), ils peuvent récupérer les feuilles de cire gaufrée issues du recyclage de leur propre cire.
Les apiculteurs de loisir (possédant moins de 150 ruches) ne sont généralement pas autosuffisants. Différents circuits de recyclage et d’achats de cire s’offrent à eux : les ciriers, les collectifs d’apiculteurs, les enseignes spécialisées en apiculture et, enfin, les enseignes non spécialisées (type magasin de jardinage-bricolage).
Il en ressort que la quasi-totalité des échantillons analysés est contaminée, quelle que soit la population d’apiculteurs étudiée.
En comparaison des cires qu’emploient les apiculteurs professionnels, les cires distribuées dans le commerce présentent des niveaux de contamination supérieurs. Il apparaît toutefois que les contaminants les plus fréquemment retrouvés dans ces deux catégories de cires sont globalement les mêmes : le tau-fluvalinate, le coumaphos, le propargite et le piperonyl butoxide (PBO).
Il s’agit de résidus de produits phytopharmaceutiques, de médicaments vétérinaires, de biocides et d’éléments traces métalliques, qui sont d’origine environnementale ou apicole. Dans le second cas, ils sont souvent liés à la lutte contre l’acarien Varroa destructor.
Ces analyses confirment des fréquences d’occurrence importantes des médicaments vétérinaires, actuellement ou auparavant autorisés (tau-fluvalinate, coumaphos, thymol pour la seule étude l’ayant recherché, métabolites de l’amitraze, fluméthrine).
D’autres résultats étaient moins prévisibles, comme la présence de pyréthrinoïdes (utilisés comme insecticides, notamment en agriculture), des composés organophosphorés ou organochlorés, qui sont des polluants organiques persistants. Parmi les substances les plus préoccupantes, des pyréthrinoïdes ont été retrouvés dans plus de 40 % des échantillons des cires gaufrées commercialisées.
Les cires vendues par les enseignes généralistes sont davantage à risque
L’Anses a ensuite calculé le risque pour les abeilles à partir des DL50 (c’est-à-dire une dose provoquant 50 % de mortalité pour les populations d’abeilles) de chacune des substances chimiques identifiées dans les échantillons et dans les concentrations où elles y ont été retrouvées. Plus la DL50 est faible, plus la substance est toxique.
L’outil en ligne BeeToxWax, développé par l’Université de Liège, a été utilisé. Il permet de calculer instantanément un quotient de risque (QR) qualifiant la toxicité de la cire et sa possible réutilisation en apiculture en fonction de seuils définis dans la littérature scientifique.
Les seuils étaient les suivants :
QR < 250 : risque chimique jugé acceptable, cire considérée comme étant de bonne qualité pour l’apiculture ;
250 < QR < 5 000 : toxicité significative, la cire est classée comme étant de qualité intermédiaire pour l’apiculture ;
QR > 5 000 : toxicité élevée, la cire est considérée comme étant de mauvaise qualité pour l’apiculture.
Verdict ? Les résultats obtenus sont plus favorables pour les cires issues de l’autorenouvellement des apiculteurs professionnels. Seuls 4,5 % des échantillons issus de cet autorenouvellement présentaient un score de QR supérieur à 5 000.En revanche, les cires du commerce dépassent ce seuil pour 38,8 % des échantillons étudiés.
Au final, les cires les moins contaminées sont retrouvées essentiellement parmi les cires des apiculteurs professionnels : dans ce groupe, 81 % des cires ont un score de QR inférieur à 250, contre 30 % des cires provenant de l’étude CRD (apiculeurs de loisir).
Pour les différentes voies d’approvisionnement, enfin, les meilleurs résultats ont été obtenus pour les cires provenant des groupements d’apiculteurs, puis des ciriers. Les cires issues des enseignes spécialisées et surtout celles des généralistes obtiennent le moins bon score.
À lire aussi : Abeilles à miel : comment les humains ont bouleversé leur histoire et leur diversité
De l’importance des bonnes pratiques apicoles
Ainsi, la qualité toxicologique d’une cire est en partie liée à son circuit d’approvisionnement et à son origine géographique.
La cire utilisée par les apiculteurs autosuffisants est de bien meilleure qualité que celle du commerce. De même, les cires labellisées AB présentent une meilleure qualité que les cires conventionnelles. Enfin, les feuilles de cire gaufrées confectionnées exclusivement à partir d’opercules sont de meilleure qualité que les feuilles confectionnées à partir de mélanges contenant toutes les cires de cadres et/ou d’origines diverses.
La part de risque attribuable aux médicaments apicoles rappelle l’importance du respect des bonnes pratiques en termes d’application et de posologie. La fluméthrine (pyréthrinoïde), acaricide autorisé pour lutter contre le varroa qui parasite les abeilles, doit faire l’objet d’une attention particulière quant aux doses d’application. En cas de dépassement, une dégradation exponentielle de la qualité de la cire s’ensuit, et cela d’autant plus en association avec le PBO, qui augmente l’activité insecticide de cette molécule, que l’on retrouve dans 77,6 % des échantillons analysés chez les apiculteurs de loisir.
Même en retirant la part de risque liée aux médicaments vétérinaires, la qualité toxicologique des cires reste dégradée. Les substances présentant les parts de risque le plus élevé sont, pour les deux études, des pyréthrinoïdes. Là aussi, la présence du PBO augmente leur activité insecticide et augmente le risque chimique. Or, les connaissances et les outils disponibles aujourd’hui ne permettent pas d’évaluer de telles synergies.
De nombreux contaminants sont présents dans les cires alors qu’ils ne sont plus – ou n’ont jamais été autorisés – en Europe. Le maintien de leurs usages dans certains pays tiers, voire leurs usages détournés et mésusages en France ou ailleurs dans le monde, rappelle la nécessité de contrôler efficacement la provenance et la qualité des cires disponibles sur le marché français. Les enquêtes conduites ont démontré la meilleure qualité des cires d’origine française contre celles d’origine UE ou hors UE.
La conservation des molécules dans la cire recyclée nécessite de remettre dans le circuit des cires de la meilleure qualité possible. Pour cela, l’apiculteur est le premier intervenant à agir par l’application des bonnes pratiques apicoles et la surveillance régulière et attentive de ses colonies. Le rapport d’expertise de l’Anses compte de nombreuses recommandations à destination de tous les acteurs de la filière apicole, et en premier lieu des apiculteurs.
L’autrice de ce texte adresse ses remerciements au groupe de travail Cires de l’Anses : Carole Peroz (présidente du groupe de travail), Lionel Grisot (vice-président), Frédéric Delbac, Yves Le Conte, Monique L’Hostis, Anne-Claire Martel, Freddie-Jeanne Richard, Christophe Roy, Claude Saegerman et Cyril Vidau ainsi qu’à Caroline Boudergue (adjointe à la cheffe d’unité Anses).
Julie Chiron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.04.2026 à 17:37
Guerre en Iran : une « tempête parfaite » pour les prix du pétrole et du gaz ?
Texte intégral (3247 mots)
Alors que la guerre et les tensions géopolitiques s’intensifient au Moyen-Orient et que les cargos pétroliers ne circulent désormais qu’au compte goutte dans le détroit d’Ormuz, le spectre d’un choc énergétique global ressurgit, dans le sillage d’une histoire déjà longue de crises pétrolières successives. Dans un monde où les marchés des hydrocarbures sont plus que jamais interconnectés, la crise actuelle met à l’épreuve l’économie mondiale et, en particulier, celle des pays importateurs. Des risques qui renforcent l’impératif d’une accélération de la transition énergétique.
Après la période de la « mondialisation heureuse », la crise du Covid-19, l’invasion de l’Ukraine, l’attaque d’Israël puis sa réplique sur le territoire de Gaza et, aujourd’hui, la guerre contre l’Iran, une suite de crises marque le retour du monde dans une zone de hautes turbulences.
Ce dernier événement est particulièrement déstabilisant car il touche le golfe Arabo-Persique. Si la transition énergétique a commencé dans cette région, elle demeure une zone hypersensible pour l’approvisionnement d’un monde encore largement dépendant des hydrocarbures. Pour Fatih Birol, directeur exécutif de l’Agence internationale de l’énergie, il s’agit déjà du plus important choc d’approvisionnement en énergies fossiles – pétrole et gaz – de ces dernières décennies.
Au-delà de la menace pour nos économies, ce choc permettra-t-il d’accélérer leur décarbonation ? Afin d’apprécier son importance et son pouvoir transformateur, il faut le resituer dans l’histoire longue des marchés internationaux de l’énergie, une histoire déjà riche en accidents.
À lire aussi : Comment la révolution iranienne engendra le second choc pétrolier de 1979
Soixante ans de crises pétrolières
La survenue d’une nouvelle crise internationale majeure au Moyen-Orient et les menaces qu’elle fait peser sur l’approvisionnement énergétique et l’économie mondiale conduisent à s’interroger sur les conditions de déclenchement des chocs pétroliers. On peut définir un choc pétrolier comme une hausse forte (un doublement, voire un triplement) et durable des prix du pétrole. Inversement, un contre-choc correspond à une baisse forte et durable.
L’histoire des prix du pétrole sur les soixante dernières années peut être analysée comme la succession de quatre grandes périodes, comme le montre la figure ci-dessous.
1965-1973, la montée des tensions : dans les années soixante, on assiste à une augmentation très rapide de la production du Moyen-Orient (une multiplication par trois entre 1965 et 1973), avec des prix très bas, de l’ordre de 20 dollars le baril, en dollars d’aujourd’hui (soit 17,30 euros). Cela a fait exploser la demande, à laquelle les producteurs ont eu du mal à répondre.
1973-1998, le temps des chocs et du contre-choc : la guerre du Kippour entre Israël et les pays arabes a permis à ceux-ci de prendre la main et d’augmenter unilatéralement les prix, ce qui donnera lieu au choc pétrolier de 1973-1974. Quelques années après, la révolution islamique en Iran entraîne une nouvelle flambée des cours sur des marchés spot naissants : c’est le deuxième choc de 1979-1980. S’annonce ensuite une décrue de la production du Moyen-Orient (principalement de l’Arabie saoudite), avant le contre-choc de 1985-1986 et le retour à un niveau de prix modéré, malgré l’invasion du Koweït par l’Irak en 1990.
1998-2015, un retour progressif des tensions qui se solde par un troisième choc, cette fois de demande : dans les premières années du XXIᵉ siècle, les tensions se reconstituent, alimentées par la forte croissance mondiale et la flambée des matières premières avant les Jeux olympiques d’été de Pékin (2008). La crise des subprimes en 2008 marque un coup d’arrêt. Le prix plonge, mais se rétablit rapidement à des niveaux élevés, comparables à ceux d’après le deuxième choc (de l’ordre de 150 dollars, un peu moins de 130 euros, le baril).
2015-2025, un nouvel équilibre : dans la dernière période s’instaure un nouvel équilibre. Malgré un niveau de production élevé, notamment au Moyen-Orient (une fois et demie celui du début des années 2000), et en raison notamment de l’arrivée des pétroles et gaz de schistes aux États-Unis, le prix reste dans une fourchette de 60 à 100 dollars (de plus de 51 euros à 86,50 euros) le baril.
Les événements géopolitiques et les chocs énergétiques se sont donc enchaînés au Moyen-Orient dans les dernières décennies. Ils ne sont pas toujours synchrones, mais en 2026 les conditions semblent bien réunies pour une « tempête parfaite » sur les marchés énergétiques : un événement géopolitique majeur est survenu dans un contexte de niveau de production de pétrole élevé. Et cela d’autant plus qu’il affecte un autre marché devenu stratégique : celui du gaz naturel liquéfié (GNL).
À lire aussi : Pourquoi les frappes sur l’Iran nous rappellent qu’il est urgent d’abandonner le pétrole
Le gaz naturel : des marchés régionaux cloisonnés à un risque désormais global
L’histoire du gaz naturel, moins spectaculaire que celle du pétrole, révèle pourtant une transformation profonde du système énergétique mondial. En cinquante ans, le gaz est passé d’un système de marchés régionaux (Amérique du Nord, Europe, Asie), régis essentiellement par des contrats de long terme, à un marché largement mondialisé, lieu d’arbitrages permanents et aujourd’hui exposé à des risques systémiques majeurs.
Son évolution peut se lire en trois grandes séquences, chacune marquée par une géographie d’approvisionnement, une logique de prix et un degré de vulnérabilité spécifiques.
1970–1986, l’ère des marchés cloisonnés : jusqu’au milieu des années 1980, il n’existe pas encore de marché mondial du gaz. Le gaz naturel est un produit régional, contraint par des infrastructures rigides et des contrats de long terme. Aux États-Unis, les prix sont bas car c’est un marché continental, approvisionné par gazoducs et encadré par des régulations fédérales. En Europe, les prix sont plus élevés car les approvisionnements reposent sur un mix de gazoducs venant d’URSS/de Russie, de Norvège et d’Algérie, auxquels s’ajoute une part limitée de GNL importé. Au Japon, le GNL est coûteux et les prix asiatiques sont les plus élevés du monde. Ces trois marchés communiquent peu entre eux : pas de flux transcontinental, pas de connexion entre marchés, pas de transmission internationale des tensions locales. S’il peut y avoir un choc pétrolier mondial, il n’existe pas encore de choc gazier mondial.
1986–2008, une convergence relative : à partir de 1986, la structure des marchés évolue. Le contre-choc pétrolier entraîne une révision des modes de contractualisation, la montée progressive du commerce de GNL, l’ouverture des premières places de marché spot (c’est-à-dire, des marchés sur lesquels les prix sont fixés au jour le jour) et l’assouplissement des conditions d’échange dans certaines régions. Les prix américains, européens et asiatiques demeurent différents, mais leurs évolutions convergent. Cela découle du développement du commerce international de GNL, de la standardisation progressive des infrastructures et des effets d’entraînement d’un marché pétrolier devenu plus volatil. La période n’est toutefois pas homogène. Aux États-Unis, les marchés spot connaissent des pics très prononcés, dus aux contraintes de transport et aux limites régionales des capacités de stockage ou de production. En dépit de ces épisodes régionaux, les prix du gaz reflètent une plus grande cohérence à l’international.
2008-2025, malgré l’essor du GNL, un retour des divergences : La troisième période débute avec un choc structurel, celui de la révolution du gaz de schiste aux États-Unis. En quelques années, l’abondance de gaz non conventionnel fait s’effondrer les prix américains. Et les États-Unis deviennent, à partir de 2016, un exportateur majeur de GNL. Dans le même temps, l’Asie connaît un moment de tension après la catastrophe de Fukushima en 2011 : le Japon ferme ses réacteurs nucléaires et déclenche une demande massive de GNL, les prix s’envolent et restent durablement élevés. L’Europe, quant à elle, reste dépendante des gazoducs russes jusqu’en 2021. La situation bascule brutalement avec l’invasion de l’Ukraine en 2022, qui entraîne un pic historique des prix européens. Le continent se tourne alors vers le marché mondial du GNL, se plaçant directement en concurrence avec les acheteurs asiatiques auprès des fournisseurs états-unien ou qatari.
Paradoxalement, la situation actuelle consacre la naissance d’un véritable marché mondial du GNL. Non parce que les prix se rapprochent, mais parce que les cargaisons se déplacent vers la région la mieux-disante. Cette transférabilité, d’une région à l’autre, des cargaisons de GNL crée de fait un marché mondial, mais dont les prix restent pour l’instant divergents.
C’est précisément ce mécanisme qui explique pourquoi, dans la crise actuelle, le blocage du détroit d’Ormuz pourrait déclencher une nouvelle envolée mondiale des prix du gaz. Près de 20 % du GNL mondial, en particulier qatari, transite par cette zone. La fermeture d’Ormuz n’est donc pas un risque local : c’est un choc global en puissance.
À lire aussi : Du détroit d’Ormuz à l’Europe : comprendre la rapidité de la propagation de l’insécurité énergétique
Le gaz, un amplificateur des crises pétrolières
La crise actuelle se distingue des précédentes par sa double nature : elle touche simultanément le pétrole et le gaz. Dans un système énergétique où les deux marchés sont interdépendants, cette simultanéité agit comme un multiplicateur de risques.
À court terme, une hausse des prix du gaz déclenche immédiatement des arbitrages dans les systèmes électriques : en Europe comme en Asie, certaines centrales reviennent vers le charbon.
Ce phénomène, déjà observé en 2022 lors de l’invasion de l’Ukraine, rappelle une réalité essentielle : en période de crise, la sécurité d’approvisionnement prime sur les objectifs climatiques. Cependant, en Europe comme en Asie, les pays les moins affectés sont ceux qui sont moins dépendants du gaz naturel pour leur production d’électricité parce qu’ils disposent de sources décarbonées renouvelables ou nucléaires. C’est notamment le cas de la Chine.
Mais la spécificité de la crise de 2026 tient à l’addition des vulnérabilités. Le pétrole reste exposé à la géopolitique du Moyen-Orient tandis que le gaz, lui, dépend désormais des routes maritimes mondiales, des équilibres asiatiques, des politiques américaines d’exportation, et des capacités de l’Europe à enchérir face à l’Asie.
Autrement dit, un choc local dans le Golfe devient aujourd’hui un « stress test » (test de résilience) global, révélateur de la fragilité d’un marché désormais unifié, mais difficilement sécurisable.
La réaction initiale des marchés illustre cette nouvelle donne : la fermeture du détroit d’Ormuz n’a pas (encore) provoqué une flambée massive des prix, mais une prime de risque en Europe, un rapprochement des prix asiatiques et une hausse marquée de la volatilité spot. Les traders parient sur un blocage court : c’est cette anticipation, davantage que la réalité des flux, qui stabilise encore les prix.
L’avenir dépendra de la durée du blocage
Et donc, l’ampleur des impacts dépendra de la durée du blocage. Au-delà des ajustements immédiats, l’enjeu devient rapidement macroéconomique : si les perturbations se prolongent, les marchés ne s’équilibrent plus seulement par l’offre, mais aussi par la demande, via des prix durablement élevés qui agissent comme un véritable impôt énergétique mondial, pesant sur la croissance, le pouvoir d’achat et la compétitivité industrielle. Mais aussi, et c’est le côté positif, cela pourrait encourager les efforts de décarbonation.
Pour un blocage de moins de trois mois, l’impact sur les prix resterait limité, les flux mondiaux seraient être réalloués et la plupart des importateurs asiatiques absorberaient le choc en recourant à leurs stocks saisonniers.
Avec un blocage de six mois, la tension deviendrait structurelle, avec des hausses de prix plus durables en Europe et en Asie, et des marchés spot sous forte pression.
Dans le cas d’un blocage d’environ une année, les effets se rapprocheraient de la crise de 2022–2023 : l’Asie entrerait en concurrence frontale avec l’Europe, les prix pourraient atteindre des niveaux extrêmes et certains pays émergents pourraient connaître des rationnements ou des coupures massives d’électricité.
Dans un système énergétique désormais interconnecté, le facteur déterminant n’est plus seulement l’ampleur du choc, mais sa durée. Plus la crise se prolonge, plus elle s’apparente à un choc pétrolier et gazier global.
C’est cette combinaison – pétrole, gaz, routes maritimes, arbitrages asiatiques – qui crée la possibilité d’une véritable « tempête parfaite ». Et c’est aussi une raison supplémentaire pour accélérer la sortie des hydrocarbures, dont la vulnérabilité géopolitique apparaît plus clairement que jamais.
À lire aussi : Des États-Unis ébranlés par leur offensive de « domination énergétique » ?
Manfred Hafner est président de la société de conseil en stratégie énergeéique HEAS SA
Carine Sebi et Patrick Criqui ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
06.04.2026 à 09:29
Politiques climatiques : comment convaincre les électeurs centristes et obtenir des majorités ?
Texte intégral (2345 mots)

En Europe, les débats sur le climat opposent souvent deux camps. Pourtant, une vaste enquête menée dans 13 pays européens raconte une autre histoire. Entre soutien et rejet existe un groupe décisif : un tiers des électeurs, dont l’adhésion dépend surtout de la manière dont les politiques sont conçues.
Nous avons interrogé près de 19 000 adultes dans 13 pays de l’Union européenne (UE) sur 15 propositions de politiques climatiques. Nos résultats montrent que l’opinion publique n’est pas divisée en deux blocs figés « pour » et « contre ». Une part significative de la population se situe au centre, dans ce que nous appelons le « milieu conditionnel ». Ces électeurs ne sont ni apathiques ni désengagés. Leurs opinions évoluent en fonction de la conception des politiques, de leur équité perçue, de leurs coûts réels, et de leur degré d’intrusion dans leur quotidien. Comme ce groupe du « milieu conditionnel » représente 33 % des électeurs, et son soutien peut faire basculer une politique vers (ou hors de) l’obtention d’une majorité.
Trois leçons pour convaincre les électeurs pivots
Si l’objectif est de construire des majorités durables pour l’action climatique, la solution n’est pas d’éviter les politiques difficiles. C’est de bien les concevoir. Trois leçons pratiques se dégagent :
Mettre en avant les bénéfices individuels. Les électeurs réagissent fortement à la façon dont les politiques climatiques sont conçues et à la question de savoir qui paie et qui bénéficie (et si le soutien aux groupes vulnérables est crédible). Une mesure sera plébiscitée si elle est perçue comme avantageuse pour eux, et rejetée si elle menace leur pouvoir d’achat ou semble compliquer leur quotidien.
Concevoir les instruments politiques comme des leviers d’acceptabilité. Les taxes, interdictions, subventions ou exemptions ne sont pas de simples outils techniques : leur conception détermine si une politique sera perçue comme juste, flexible ou contraignante, et si elle obtiendra un soutien.
Ne pas confondre opposition bruyante et opinion publique. Une large part des Européens ne sont pas des opposants endurcis. Si les électeurs pivots sont souvent silencieux, ils peuvent faire basculer une majorité.
Ce qui influence le milieu conditionnel : les coûts, les contraintes, et l’instrument politique lui-même
Ce groupe agit avant tout selon une logique individuelle de coût-bénéfice. Nos résultats) le confirment : la conception des politiques et leurs impacts perçus (sur le pouvoir d’achat, le bien-être ou l’économie nationale) sont les principaux déterminants de leurs préférences, bien plus que leur pays d’origine, leurs attitudes ou leur profil sociodémographique. En d’autres termes : ils ne suivent pas une idéologie, mais leur portefeuille. Pour les rallier, il faut donc privilégier des mécanismes concrets perçus comme équitables, plutôt que des arguments moraux ou collectifs.
Prenons l’exemple des politiques automobiles : une interdiction pure et simple des nouvelles voitures à moteur thermique après 2035 rencontre une forte résistance parmi les électeurs pivots, avec seulement 15 % de soutien. Mais l’ajout d’une exemption pour les carburants synthétiques, une alternative perçue comme moins contraignante, fait bondir ce soutien à 42 %. Cet exemple révèle une logique clé : ce groupe réagit moins à l’objectif final d’une politique qu’à la manière dont elle s’applique concrètement à leur situation.
Certaines politiques sont systématiquement plus faisables que d’autres
Parmi les 15 propositions que nous avons étudiées), les niveaux de soutien varient considérablement. Les mesures imposant des coûts visibles et directs aux consommateurs (taxes ou interdictions de consommation) ont tendance à rencontrer des difficultés.
À l’inverse, les politiques présentées comme des investissements partagés, des subventions, ou des règles accompagnées de protections pour les ménages vulnérables obtiennent de meilleurs résultats.
Par exemple, la création d’un fonds ferroviaire européen, destiné à étendre le réseau ferroviaire et à réduire le coût des billets de train, recueille un large assentiment avec 77 % de soutien, perçue comme un investissement collectif porteur de bénéfices partagés. À l’inverse, l’idée d’une taxe sur la viande bovine, bien que visant à encourager des modes de consommation plus durables, ne convainc que 11 % des répondants, jugée trop onéreuse sur le plan individuel et difficilement acceptable dans le contexte économique actuel.
Comment ce groupe peut faire basculer les majorités
Les personnes appartenant au groupe du « milieu conditionnel » représentent un poids électoral décisif : 71 % d’entre elles ont participé aux élections européennes de 2024, ce qui souligne leur engagement dans le processus démocratique. Leur influence s’étend particulièrement au sein des partis centristes, qui jouent un rôle clé dans la constitution des majorités politiques.
Si ces électeurs pivots, actuellement neutres, basculaient en faveur des politiques climatiques, le nombre de mesures soutenues par une majorité augmenterait substantiellement, passant de 4 à 10 sur 15. Ainsi, à la situation actuelle où une majorité de répondants soutient le fonds ferroviaire européen, l’interdiction des avions privés, les normes d’isolation obligatoire et la taxe sur les profits des entreprises de carburants fossiles, s’ajouterait un soutien à :
un mécanisme d’ajustement carbone aux frontières (CBAM),
l’interdiction des publicités pour les produits très polluants dans l’UE,
l’extension du système d’échange de quotas d’émission (EU ETS) aux transports, à l’agriculture et au chauffage,
l’interdiction des ventes de véhicules à moteur thermique avec exemptions pour les carburants synthétiques.
En Europe, cinq pays supplémentaires verraient alors une majorité de leurs citoyens soutenir au moins 7 des 15 politiques climatiques étudiées.
Où doit aller l’argent du climat ?
Les électeurs pivots affichent des préférences nettes quant à l’utilisation des revenus climatiques (ceux issus du système d’échange de quotas d’émission de l’UE, par exemple). Ils privilégient avant tout les projets d’adaptation comme les investissements dans les technologies vertes ou les transports bas carbone, perçus comme des bénéfices concrets et collectifs. Le soutien aux ménages les plus vulnérables, sous forme de mesures de compensation, arrive en seconde position, car il atténue les inégalités et renforce la légitimité sociale de ces financements. En revanche, les aides aux travailleurs des secteurs fossiles menacés par la transition sont jugées bien moins prioritaires.
Pour maximiser l’adhésion du groupe du « milieu conditionnel », il est crucial que ces revenus soient affectés à des usages perçus comme légitimes et utiles à tous. La communication joue ici un rôle clé : elle sera plus efficace si elle est transparente, concrète et centrée sur les bénéfices individuels ou locaux (services publics, infrastructures). Par exemple, un message comme « votre contribution finance des digues pour protéger votre région des inondations » aura un impact bien supérieur à une formule générique telle que « votre taxe soutient la transition écologique ». Il s’agit de montrer comment la mesure améliore directement le quotidien, et non simplement d’en décrire la finalité environnementale ou sociale.
Alors que l’UE finalise de nouvelles mesures climatiques pour 2040, notre étude montre que la transition écologique n’est pas une question de conviction idéologique, mais de conception. En Europe, une majorité silencieuse est prête à agir, à condition qu’on lui propose les arguments auxquels elle sera sensible.
Loïc Berger a reçu des financements de l'Union Européenne sous le programme Horzon (projet CAPABLE, n° 101056891)
Thomas Epper a reçu des financements de l'Union Européenne sous le programme Horizon (projet CAPABLE, n° 101056891) et l'Agence nationale de la recherche (projet WIASSS, ANR-25-CE26-4698).
Uyanga Turmunkh a reçu des financements de de l'Union Européenne sous le programme Horizon (projet CAPABLE, n° 101056891) et l'Agence nationale de la recherche (projet ENDURA, ANR- 21-CE03-0018).
05.04.2026 à 10:10
En Espagne, des milliers de tonnes de fruits et légumes ne sont jamais récoltées et pourrissent dans les champs
Texte intégral (2643 mots)

Alors que l’Espagne figure parmi les pays les plus touchés par le stress hydrique, une partie de l’eau mobilisée pour l’agriculture finit indirectement gaspillée avec des récoltes abandonnées faute de débouchés. Une étude met en lumière l’ampleur de ce phénomène largement sous-estimé.
L'Espagne est un pays éminemment aride, c'est-à-dire que ses conditions climatiques se caractérisent par un fort manque d'humidité des sols. Plus précisément, 67 % du territoire présente un indice d'aridité – le rapport entre les précipitations et l'évapotranspiration des plantes – inférieur à 0,65, ce qui correspond à des terres sèches ou à des zones arides. Dans ce contexte, la demande en ressources hydriques n'a cessé de croître au cours des cinquante dernières années.
Il s'agit de la principale cause de la pénurie d'eau, qui se trouve à l'origine de nombreux conflits liés à l'eau, et qui place l'Espagne parmi les pays les plus touchés par le stress hydrique (29e place sur 164). Mais cette pénurie n'est plus de caractère naturel : elle tient à l'écart entre l'offre disponible et la demande en eau douce. Le cadre institutionnel en vigueur (y compris les mécanismes de fixation des prix et les tarifs de distribution), les infrastructures et le facteur humain sont en cause.
Les nombreuses infrastructures destinées à capter, stocker et distribuer l'eau, ainsi que la modernisation des systèmes d'irrigation, s'inscrivent dans la logique selon laquelle, en Espagne, on ne gaspille pas une seule goutte d'eau. La part d'eau qui finit par rejoindre la mer est parfois perçue comme un gaspillage. Lors de chaque épisode de pluie intense, on regrette de ne pas disposer de davantage de réservoirs pour stocker toute cette eau.
Des milliers de tonnes de fruits et légumes sans débouchés commerciaux
Cette image d'une eau précieuse et soigneusement économisée contraste avec les images incroyables de champs couverts de fruits et de légumes qui pourrissent au soleil. Les faibles prix de vente des producteurs, pratiqués à certaines périodes de l'année, font que les agriculteurs n'ont pas toujours intérêt à investir davantage de ressources dans la récolte. Ainsi, chaque année, après les efforts considérables que représentent l'irrigation, la fertilisation et l'entretien de milliers d'hectares de cultures, certains produits finaux n'entrent même pas dans les circuits commerciaux.
Nous avons estimé ce gaspillage pour la période 2018-2024, par type de culture et par communauté autonome, à partir des données recueillies tous les quinze jours par le Fonds espagnol de garantie agricole (FEGA) et des coefficients d'utilisation de l'eau et d'émission de CO2.
Au cours de cette période, 483 624 tonnes de surplus ont été écartées, ce qui équivaut à une empreinte hydrique de près de 36 hm3 (soit 36 millions de mètres cubes, ndlt) par an et à une empreinte carbone de 36 694 tonnes équivalent CO2 (t CO2-eq) par an. Ces rebuts ne sont pas tous directement envoyés à la décharge. Une partie des aliments jetés (32,9 %) est utilisée pour l'alimentation animale, une autre est donnée à des banques alimentaires (55,4 %) et, enfin, 11,7 % est détruite.
La tomate est la culture qui génère le plus grand volume de rebuts, suivie par l’orange et le kaki. En termes d’empreinte hydrique, la culture ayant le plus fort impact est la prune, avec 3 759 milliers de m³ par an. Viennent ensuite les kakis et les oranges. En ce qui concerne l’empreinte carbone annuelle, la tomate se distingue à nouveau nettement, atteignant 3 100 tonnes équivalent CO₂ par an. Le melon arrive deuxième (2 356 tonnes équivalent CO₂ par an), suivi de la nectarine (2 209 tonnes équivalent CO₂ par an).
À l’échelle régionale, le plus grand volume de rebuts est enregistré dans la région de Murcie, avec 20,2 kt par an, soit un total de 141,4 kt sur la période 2018-2024. Viennent ensuite l’Andalousie (17,9 kt par an et 125,9 kt cumulées) et la Communauté valencienne (16,7 kt par an et 119,6 kt).
En termes d’empreinte hydrique, le gaspillage le plus important est observé dans la Communauté valencienne, avec 8,78 hm³ par an et une empreinte hydrique totale de 61,5 hm³ sur l’ensemble de la période étudiée.
Produire à grande échelle pour réduire les coûts
Les prix très bas expliquent que des récoltes parfaitement consommables soient parfois abandonnées dans les champs. Mais d’où viennent ces prix si faibles ? En grande partie de la logique d’efficacité économique. Pour rester compétitifs, les producteurs cherchent à réduire leurs coûts de production, ce qui les pousse à adopter des modèles de production à grande échelle, avec des conséquences sociales et environnementales importantes.
L’objectif est de produire de très grands volumes afin de faire baisser le prix à l'unité. Pour y parvenir, les coûts sont réduits partout où c’est possible – en particulier les dépenses de main-d’œuvre ou en contournant certaines obligations environnementales – afin de compenser les investissements nécessaires en technologies, infrastructures et intrants agricoles, qui permettent d’augmenter les rendements par exploitation.
Cette dynamique génère une spirale d’investissements, d’endettement, de surproduction et de baisse des prix qui finit par piéger les agriculteurs dans un système pervers, où seuls ceux disposant de la plus grande capacité financière parviennent à se maintenir.
Le rejet de récoltes parfaitement consommables n’est que le symptôme de ce modèle agricole qui favorise la concentration de la production entre un nombre toujours plus restreint d’acteurs et génère de nombreuses externalités négatives. Celles-ci sont finalement assumées par l’ensemble de la société — et non par ceux qui profitent de la production à grande échelle — comme on le voit, par exemple, avec la nécessité de construire des usines de dessalement après la surexploitation des eaux souterraines.
La partie émergée de l’iceberg
Les chiffres du Fonds espagnol agricole de garantie (FEGA) correspondent aux volumes ouvrant droit à une subvention (jusqu’à 5 % de la récolte) destinée à compenser ces prix trop bas. Au-delà de ce seuil, les volumes ne sont plus comptabilisés, même si les abandons de récoltes peuvent se poursuivre.
Une simple vérification permet de mesurer l’ampleur réelle du gaspillage. En mars 2024, la presse a ainsi rapporté l’abandon de 300 000 tonnes de citrons, soit 30 % de la récolte, dans la province d’Alicante. Or les données du FEGA indiquent que, pour toute l’année 2024 et pour l’ensemble de la Communauté valencienne, seules 132 tonnes auraient été comptabilisées comme rebuts.
Au vu de cet écart, du nombre d’articles de presse relatant des abandons et des images de champs où les fruits pourrissent, il apparaît clairement que ce type de gaspillage n’a rien d’exceptionnel. Il traduit au contraire un immense gâchis, difficilement acceptable dans un contexte de pénurie d’eau croissante. Alors même que se produisait le gaspillage massif de citrons évoqué plus haut, l’idée d’acheminer de l’eau par bateau jusqu’à Barcelone était mise sur la table face à la sécheresse persistante. La sécurité hydrique du pays est en jeu. Pourtant les règles du marché et l’« efficacité » économique invoquée en permanence continuent de conduire à un gaspillage considérable d’eau.
Jaime Martínez Valderrama a reçu des financements du projet ATLAS, financé par la Fondation Biodiversité du ministère de la Transition écologique et du Défi démographique (MITECO), dans le cadre du Plan de relance, de transformation et de résilience (PRTR).
Emilio Guirado a reçu des financements du projet ATLAS, financé par la Fondation Biodiversité du ministère de la Transition écologique et du Défi démographique (MITECO), dans le cadre du Plan de relance, de transformation et de résilience (PRTR).
Fernando Tomás Maestre Gil reçoit des financements de la King Abdullah University of Science and Technology.
Javier Martí Talavera a reçu des financements du projet ATLAS, financé par la Fondation Biodiversité du ministère de la Transition écologique et du Défi démographique (MITECO), dans le cadre du Plan de relance, de transformation et de résilience (PRTR).
Jorge Olcina Cantos a reçu des financements de la Fondation Biodiversité du ministère de la Transition écologique et du Défi démographique pour la réalisation du projet Atlas de la désertification en Espagne, dans le cadre du programme européen pour la reprise et la résilience.
Juanma Cintas reçoit des financements du « Plan complémentaire de R+D+i dans le domaine de la biodiversité (PCBIO) », financé par l’Union européenne dans le cadre du Plan de relance, de transformation et de résilience (NextGenerationEU) et par le gouvernement d’Andalousie.
04.04.2026 à 17:38
Grippe aviaire et autres zoonoses : une prévention plus durable grâce à l’agroécologie ?
Texte intégral (2390 mots)
La majorité des maladies infectieuses retrouvées chez l’humain vient des animaux ; on parle de zoonoses. C’est par exemple le cas de l’influenza aviaire, ou grippe aviaire, responsable de nombreuses infections chez les oiseaux et de rares cas chez l’humain. Pour la filière avicole comme pour d’autres, repenser les modes de production grâce à l’agroécologie pourrait aider à prévenir les risques sanitaires. Une réflexion qui résonne avec l’approche « Une seule santé » (One health, en anglais) qui lie santé animale, humaine et environnementale.
D’après l’Organisation mondiale de la santé (OMS), 60 % des maladies infectieuses humaines ont une origine animale. Ce pourcentage monte à 75 % si on se focalise sur les trente dernières années. Ces maladies, causées par des pathogènes capables d’infecter les animaux et les êtres humains, sont qualifiées de zoonotiques ou de zoonoses.
À lire aussi : Qu’est-ce qu’une zoonose ?
On peut alors supposer qu’une gestion durable des maladies infectieuses animales contribuerait à réduire le risque de nouvelles maladies chez l’humain.
Les virus de l’influenza aviaire, enjeu majeur de santé animale
Entre 2000 et 2016, plus d’un quart des foyers majeurs de maladies infectieuses animales a été causé par des virus de l’influenza aviaire, plus communément appelée grippe aviaire. Ces virus représentent donc un enjeu majeur en santé animale ainsi qu’en santé publique, puisque 2723 infections humaines ont été recensées depuis 1997.
En Europe, on rapporte des infections chez les volailles et les oiseaux sauvages, tous les ans depuis 2016. En France, pays européen le plus touché, l’année 2021-2022 a été la plus meurtrière avec 19 millions de volailles abattues. Les mesures de gestion mises en place n’ont pas suffi à juguler ces crises et ont été particulièrement coûteuses (près d’un milliard d’euros en 2021-2022). De plus, certaines mesures ont soulevé des débats éthiques et ont été mal acceptées par la population.
Il est aujourd’hui nécessaire de rendre notre gestion des maladies infectieuses animales plus efficace et plus acceptable, d’un point de vue économique et social. En outre, notre gestion doit être plus durable. Nous allons dans cet article détailler comment mener une gestion durable en prenant l’exemple de la grippe aviaire.
La manière la plus durable de gérer une maladie infectieuse est la prévention, qui consiste à éviter l’infection des animaux. Elle s’opère à différents niveaux : à l’échelle de l’élevage, avec la biosécurité et la vaccination, et à l’échelle d’un territoire.
Prévenir la grippe aviaire grâce à la biosécurité
La biosécurité correspond aux mesures que l’on met en place pour limiter l’entrée et la sortie du virus d’un élevage, ainsi que sa circulation au sein de l’élevage. Par exemple, claustrer les volailles dans un bâtiment vise à réduire le risque qu’elles soient infectées par des oiseaux sauvages.
Cependant, les mesures de biosécurité ne sont pas toujours correctement appliquées, bien qu’elles soient obligatoires en France depuis 2016. Ce défaut d’observance peut s’expliquer par un manque de connaissances, qui peut être résolu par la mise en place de formations, ou par la difficulté logistique et/ou économique de mise en application des mesures de biosécurité. Par exemple, la claustration de volailles normalement élevées en plein air est difficile à mettre en place et se solde par une hausse de la mortalité. Cet exemple montre que la réglementation autour de la biosécurité doit le plus possible prendre en compte la diversité des élevages pour permettre une meilleure observance.
Avantages et limites de la vaccination préventive contre la grippe aviaire
Depuis 2023, une nouvelle stratégie de prévention a été autorisée en Europe : la vaccination. La France est aujourd’hui le seul pays européen à vacciner des volailles de manière préventive. L’objectif de la vaccination est de réduire le nombre de volailles infectées et de réduire leur contagiosité. Ainsi, elle limite la propagation du virus. On estime que la vaccination a permis de réduire de plus de 90 % le nombre d’élevages infectés sur l’année 2023-2024.
En revanche, cette stratégie présente aussi des limites. Tout d’abord, elle est associée à un risque de circulation silencieuse du virus. Étant donné que la vaccination diminue la mortalité et les signes cliniques, il est plus difficile de détecter l’infection sur des volailles vaccinées. Ce risque mène certains partenaires commerciaux à interdire l’achat de volailles françaises. Pour limiter la diffusion silencieuse du virus, des protocoles de surveillance ont été rendus obligatoires en France, mais ils restent néanmoins coûteux et chronophages.
Les campagnes de vaccination sont également très coûteuses, autour de 100 millions d’euros pour l’année 2023-2024. De plus, la part des frais à la charge des éleveuses et éleveurs a augmenté depuis 2023.
Autrement dit, bien que la vaccination soit une stratégie très efficace et prometteuse sur le plan épidémiologique, sa durabilité est questionnée. Il est donc nécessaire de compléter les mesures de biosécurité et de vaccination par une prévention au niveau du territoire.
Prévention de la grippe aviaire à l’échelle d’un territoire
Les élevages de canards sont réputés pour jouer un rôle clé dans la diffusion du virus à l’échelle d’un territoire. Réduire la densité des élevages de canards dans certaines zones clés serait donc un moyen de limiter la propagation du virus. L’objectif n’étant pas de supprimer des élevages de canards, il serait plus intéressant de travailler à la réduction de la densité d’élevages actifs, sachant qu’un élevage est défini comme actif lorsqu’il a des volailles vivantes à un temps donné.
Pour réduire la densité d’élevages actifs, on pourrait envisager de synchroniser les périodes de vide sanitaire de chaque élevage (période d’environ deux semaines destinée à nettoyer et désinfecter avant l’arrivée des prochaines volailles). Cette stratégie pourrait être appliquée en priorité au cours des périodes les plus à risque et dans les zones les plus denses.
Il serait également intéressant de faire des recommandations sur l’installation des nouveaux élevages, en favorisant des zones qui ne font pas partie de celles jugées à risque pour la grippe aviaire. Une distance minimale entre élevages pourrait également être établie, comme c’est le cas en Italie.
L’agroécologie, une solution durable aux défis sanitaires ?
Après avoir mené une thèse universitaire en épidémiologie animale, je suis arrivée au constat que la gestion durable des maladies infectieuses ne peut se faire sans une remise en question profonde de nos modes d’élevages.
L’augmentation des maladies zoonotiques s’explique en partie par la mutation de nos pratiques d’élevage. Les animaux sont de plus en plus élevés en bâtiment, ce qui favorise l’émergence et la diffusion d’agents pathogènes. Si cette intensification était adaptée après la seconde guerre mondiale, pour répondre à un besoin alimentaire de taille, elle n’est aujourd’hui plus justifiée : nous produisons plus que nous ne consommons. Par ailleurs, cette surproduction a aussi un coût environnemental et sanitaire. Par exemple, l’utilisation de pesticides est responsable d’une perte de biodiversité et est soupçonnée d’augmenter le risque de cancers.
Pour trouver une solution face aux limites de notre modèle actuel, deux visions s’affrontent : la vision techniciste et la vision agroécologique. La première défend que les progrès technologiques nous permettront de faire face aux défis tout en restant compétitifs, la seconde invite quant à elle à une remise en question profonde de notre façon de produire.
L’agroécologie a pour objectif de réduire l’utilisation d’intrants, comme les pesticides, tout en augmentant les externalités positives (maintien de la biodiversité, entretien des prairies, tourisme…). En pratique, l’agroécologie ne se traduit pas par un cahier des charges, mais par un ensemble de principes vers lesquels il faudrait tendre. Elle ne bannit en aucun cas l’usage d’outils technologiques, mais elle les considère comme des aides et non des solutions.
Elle répond aussi à un enjeu de justice sociale en cherchant à redonner de la place et de la reconnaissance à nos agricultrices et agriculteurs, qui sont aujourd’hui victimes d’une rémunération de moins en moins juste.
Des pistes pour convertir les élevages de volailles à l’agroécologie
L’agroécologie recommande une gestion intégrée de la santé, qui s’appuie sur trois piliers :
(1) mettre en place des mesures de prévention dans le milieu de vie et dans la conduite d’élevage,
(2) élever des animaux davantage résistants aux agents pathogènes et
(3) traiter les animaux malades avec une molécule adaptée et ciblée, là où certaines pratiques encouragent l’utilisation de molécules à large spectre sur l’intégralité des animaux.
En reprenant l’exemple de l’influenza aviaire, nous avons déjà montré comment développer une conduite d’élevage qui préviendrait les infections et la diffusion du virus (biosécurité, vaccination préventive et diminution de la densité régionale des élevages actifs), soit le premier pilier de la gestion intégrée. Concernant le troisième pilier, il n’existe actuellement aucun traitement pour les volailles infectées. Nous avons donc une marge de manœuvre sur le second pilier.
Il est important d’élever des volailles davantage résistantes, qui auront moins de risque d’être infectées et chez qui le virus de la grippe aviaire se multipliera moins. Depuis les années 1960, les volailles sont principalement sélectionnées pour leur capacité de production (augmentation de la ponte ou de la croissance). Cependant, la sélection de ces capacités de performance se fait souvent au détriment de celles de résistance aux agents pathogènes. Nous pourrions donc repenser la sélection génétique des volailles que nous élevons. Une autre façon de renforcer le système immunitaire de ces volailles serait de favoriser l’accès au plein air, à condition que le risque d’introduction du virus par les oiseaux sauvages ne soit pas trop élevé (éviter les périodes et zones à risque).
Bien que l’agroécologie soit un défi de taille, les crises peuvent être des opportunités de remise en question et d’éclairage sur les changements qui doivent être opérés. Fournir des efforts aujourd’hui sera un gain considérable pour demain.
Cet article est le fruit d'une réflexion menée par Sophie Planchand suite à son travail de thèse.
04.04.2026 à 10:02
Avec « Jumpers », Pixar mise sur la complexité de la nature – et sur la diversité des voix
Texte intégral (1673 mots)

Animaux qui se mangent entre eux, humains ni totalement bons ni totalement mauvais : avec Jumpers, Pixar s’éloigne du manichéisme habituel de l’animation occidentale. Le film propose une vision plus réaliste – et plus complexe – de notre relation à la nature.
Le nouveau film de Pixar, Jumpers (Hoppers en VO), suit Mabel Tanaka, une jeune écologiste qui a grandi en explorant une clairière forestière avec sa grand-mère. Lorsque le maire de la ville de Beaverton annonce un projet de destruction de la clairière pour construire une nouvelle autoroute, les tentatives de Mabel pour l’en empêcher restent sans effet. Jusqu’au jour où elle découvre un laboratoire universitaire secret.
Dans ce laboratoire, des scientifiques ont mis au point une technologie capable de transférer la conscience humaine dans des animaux robotisés très réalistes, permettant aux humains de faire l’expérience du monde du point de vue d’un animal. Mabel (Piper Curda en VO, Mallory Wanecque en VF) s’incarne alors dans un castor robotique afin de mobiliser les animaux de la clairière. Mais ce qu’elle y découvre — un monde régi par ses propres règles complexes de coexistence — s’avère bien plus compliqué qu’elle ne l’avait imaginé.
Dix-sept ans après « Wall-E »
La phrase centrale du film est prononcée par grand-mère Tanaka (Karen Huie en VO, Françoise Vallon en VF) alors qu’elle est assise tranquillement dans la nature avec Mabel : « « Il est difficile d’être en colère quand on a le sentiment de faire partie de quelque chose de plus grand. » (« It’s hard to be mad when you feel like you’re part of something big »). Une réplique simple qui ancre l’ensemble des valeurs morales du film.
Jumpers arrive dix-sept ans après Wall-E, le dernier film de Pixar à thématique environnementale explicite. Traditionnellement, l’animation grand public occidentale a plutôt privilégié une sentimentalité anthropomorphique au détriment d’un véritable réalisme écologique. Jumpers marque toutefois un tournant vers davantage de complexité : les animaux s’y mangent entre eux et les humains n’y sont pas présentés comme de simples méchants. En montrant les réalités parfois peu « mignonnes » de la nature, Pixar adopte une narration environnementale plus nuancée.
Le film est peuplé de personnages en colère : Mabel face à la destruction de la nature ; le maire Jerry (Jon Hamm en VO, Eilias Changuel en VF) face aux tentatives de Mabel d’entraver son projet d’autoroute ; la reine des papillons monarques (Meryl Streep en VO, Frédérique Tirmont en VF), indignée par le manque de respect des humains envers la faune ; et son héritier Titus (une chenille doublée par Dave Franco en VO et Jean-Christophe Dollé en VF), irrité à la fois par les humains et par les animaux qui méprisent les insectes.
Leur colère sera familière à quiconque travaille dans la protection de l’environnement. Le sentiment que la nature recule sans cesse face aux intérêts économiques engendre une frustration intense – une expérience que j’ai moi-même faite à de nombreuses reprises au cours de ma carrière.
Face à tout cela, le chef des castors de l’étang, le roi George (Bobby Moynihan en VO, Artus en VF), propose cependant une alternative discrètement radicale à travers ses « règles de l’étang ». Il connaît chaque créature de l’étang par son nom, jusqu’aux vers de terre. Il estime que la faim doit être satisfaite, même si un animal doit en manger un autre. Et surtout, il affirme que « nous sommes tous dans le même bateau » – un principe qu’il étend même aux humains qui détruisent son habitat.
George incarne ce que les chercheurs en environnement appellent des valeurs relationnelles : les liens qui relient les humains à la nature et aux autres humains, et qui façonnent ce que nous sommes en tant que personnes.
Sa vision du monde donne toute sa portée à la phrase de grand-mère Tanaka. Le film résiste à la tentation de faire de son antagoniste humain un simple méchant. Le maire Jerry n’est pas seulement un promoteur malveillant. C’est, à bien des égards, un maire apprécié et compétent. Il échoue simplement à se soucier de la faune sauvage.
Cela reflète la véritable complexité des systèmes socio-écologiques, où les arbitrages entre développement humain et protection de l’environnement relèvent rarement d’une opposition entre le bien et le mal. Cette complexité morale rappelle davantage les films du studio d’animation japonais Studio Ghibli que les productions Pixar traditionnelles. Des films de Ghibli comme Princesse Mononoké (1997) refusent les résolutions simplistes, montrant des humains qui ne sont pas purement destructeurs et une nature qui n’est pas simplement passive.
Comme je l’ai soutenu ailleurs, il s’agit d’une approche nettement non occidentale de la narration environnementale. Le fait que Pixar semble s’inspirer de cette tradition est significatif. Cela suggère que les récits environnementaux les plus efficaces ne reposent pas sur le cadre moral habituel de l’animation occidentale.
Le message de Jumpers est que la rhétorique du « nous contre eux » n’a jamais permis de résoudre une crise environnementale – ni aucune crise globale. La colère et la peur divisent les individus. Le sentiment d’appartenir à un même ensemble, lui, crée du lien.
Représentation dans les récits environnementaux
Jumpers fait aussi quelque chose d’important : le film place une femme d’origine est-asiatique au centre d’un récit écologique. Ce n’est pas seulement une question de représentation. C’est aussi une question de savoir qui a sa place dans les espaces environnementaux.
En tant que chercheuse en environnement britannique d’origine chinoise, je suis particulièrement sensible à ces questions. Au Royaume-Uni, 95 % du secteur de l’environnement s’identifie comme blanc. Ce manque de diversité ne se résume pas à une question de chiffres. Le terme « environnementaliste » est depuis longtemps associé à la blancheur et à la richesse, et ces associations influencent qui entre dans la profession, qui y reste et quelles approches sont jugées légitimes.
Ayant grandi sous la pression de choisir une profession stable et prestigieuse, beaucoup de personnes issues de minorités ne considèrent jamais la protection de l’environnement comme une voie qui leur serait accessible. J’ai moi-même ressenti cette tension, et elle touche de manière disproportionnée les personnes issues de minorités. Lorsque les récits médiatiques excluent les voix minoritaires des histoires environnementales, ils renforcent l’homogénéité qui fragilise le champ de la conservation environnementale.
Dans Jumpers, le rôle de Mabel, qui fait le lien entre le monde naturel du roi George et le monde humain, reflète une position que de nombreux universitaires issus de milieux sous-représentés connaissent bien. Ils deviennent traducteurs, intermédiaires, ceux qui circulent entre plusieurs mondes. D’un point de vue personnel, voir ce rôle incarné par une femme est-asiatique dans un grand film d’animation ne me semble pas anodin. Cela envoie un signal à de jeunes publics issus de la diversité : la défense de l’environnement est aussi un espace qui leur appartient. J’espère que ce film inspirera une nouvelle génération de défenseurs de l’environnement issus d’horizons variés.
L’animation peut toucher les publics par des voies émotionnelles différentes de celles de la recherche académique. Le film utilise cette capacité avec intelligence, en évitant de simplifier à l’excès la crise environnementale. La phrase de grand-mère Tanaka est le type de message environnemental qui reste en mémoire. Non pas un avertissement, mais une invitation à renouer le lien entre les humains et la nature.
Yuan Pan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2026 à 16:05
Consommation énergétique des data centers : la France à la croisée des chemins
Texte intégral (1641 mots)
La France a la volonté d’être une terre d’accueil pour les data centers dans les prochaines décennies. L’Agence de la transition écologique, l’Ademe, a réalisé un travail de prospective à l’horizon 2060 pour évaluer plusieurs scénarios de montée en puissance sur le territoire national de ces infrastructures très gourmandes en énergie et les choix de société qu’ils impliquent. Entretien avec Bruno Lafitte, expert data centers à l’Ademe, qui a coordonné cette étude.
The Conversation : Commençons par l’état des lieux : que sait-on aujourd’hui de la présence des data centers en France, des usages qui en sont faits et de leur consommation électrique totale ?
Bruno Lafitte : Aujourd’hui, l’Ademe recense 352 data centers en activité sur le territoire national. Leur consommation électrique totale représente 10 térawattheurs (TWh) par an, ce qui correspond à l’électricité consommée par environ 10 agglomérations de plus de 100 000 habitants pendant un an.
Cela équivaut à 2,2 % de la consommation annuelle électrique totale du pays. En effet, l’usage du numérique a une matérialité que l’on ne soupçonne pas toujours : des infrastructures énergivores en électricité, en eau pour le refroidissement, sans compter la chaîne de production des serveurs en amont qui charrie également son lot d’impacts environnementaux.
À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique
Pourquoi la France souhaite-t-elle être une terre d’accueil pour ces infrastructures ?
B. L. : Il y a aujourd’hui une vraie volonté politique de la France de se placer en leader européen en matière d’accueil de data centers. Cela se traduit déjà par des investissements massifs dans le pays, qui sont facilités par une souplesse administrative. Ce choix repose sur deux grands constats.
L’un tient à l’enjeu crucial de souveraineté numérique : la moitié des usages numériques des Français est actuellement traitée par des data centers situés à l’étranger, et tous les scénarios montrent que cette dépendance augmentera à mesure que les usages s’intensifieront. Au regard des enjeux géopolitiques actuels, relocaliser nos données apparaît crucial.
L’autre est lié à l’avantage majeur dont dispose la France en la matière. Du fait de son mix électrique décarboné et de son électricité largement disponible, mais également de ses normes environnementales, les data centers seront en France mieux encadrés. De ce fait, ils auront des impacts climatiques moindres qu’ailleurs, et en particulier qu’aux États-Unis, où se concentrent aujourd’hui la majorité des data centers dont nous dépendons. (À titre d’exemple, l’intensité carbone de l’électricité française s’élevait, en 2024, à environ 30 gCO₂/kWh, tandis qu’aux États-Unis, celle-ci était en moyenne de 391 gCO₂/kWh en 2019, ndlr.)
Car, en 2050, près de 80 % des usages numériques français feront appel à des data centers basés à l’étranger. Ces usages délocalisés totaliseront 97 % des émissions de gaz à effet de serre liées à l'ensemble des usages français des data centers.
Que sait-on des perspectives de développement des data centers à horizon 2050 et de leur consommation énergétique ?
B. L. : Avec l’accélération de l’intelligence artificielle générative et, à moyen terme, de la blockchain, les besoins en data centers sont appelés à exploser. Leur typologie va évoluer vers de très grands centres dits « hyperscale », abritant des supercalculateurs très énergivores.
Pour donner un ordre d’idée, les très gros data centers aujourd’hui présents en France représentent 10 mégawatts (MW) de puissance électrique installée. Demain, ils avoisineront plutôt le gigawatt (GW) pour les plus importants – soit 100 fois plus.
Pour évaluer les perspectives en France, nous avons conçu un modèle prospectif, fondé sur le modèle international le plus fiable à ce jour, que nous avons actualisé, le modèle Masanet, qui tient compte du volume des serveurs et de l’évolution à venir de leur efficacité énergétique selon leur modèle type. Ce modèle ouvert sera mis à disposition du grand public.
Dans le scénario tendanciel, qui poursuivrait la trajectoire actuelle, la consommation d’électricité induite par les usages numériques français pourrait progresser d’un facteur de 3,7 d’ici à 2035 pour les data centers installés en France – et même de 4,4, en tenant compte de la consommation des data centers situés à l’étranger.
Dans cette configuration, les usages numériques français entraîneront, à l’horizon 2050, une consommation de 55 TWh par les data centers français – soit l’émission de 1,8 million de tonnes équivalent CO₂ –, et presque 200 TWh par des data centers situés à l’étranger – ce qui correspond à l’émission de plus de 48 millions de tonnes équivalent CO₂. (À titre de comparaison, la consommation d’électricité totale en France atteignait près de 450 TWh en 2024, ndlr.)
À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?
Quels défis et risques cela représente-t-il pour nos infrastructures électriques ?
B. L. : Cette évolution pose de nombreux défis territoriaux, environnementaux et socioéconomiques. Aujourd’hui, la France a accès à de l’électricité décarbonée en grande quantité (94 % de sa production, en 2024, ndlr). De ce fait, elle est relativement épargnée par les tensions engendrées par l’implantation de data centers au regard de certains de ses voisins européens.
Toutefois, elle s’est fixée, dans tous les domaines, des ambitions d’électrification (notamment pour la décarbonation de l’économie, ndlr) qui feront augmenter significativement les besoins et la pression sur le réseau électrique. S’y ajoute désormais le développement de data centers, pour répondre à la fois à l’explosion des usages et à la volonté de relocalisation exprimée par la France.
Nous avons pris en compte, dans notre étude, les progrès à venir en matière d’efficacité énergétique, mais ils ne suffiront pas à compenser l’augmentation du volume de données hébergées.
L’éventualité d’une révolution technologique, par exemple liée à l’informatique quantique, n’est certes pas à exclure, mais elle ne garantit pas des économies d’énergie. On sait, par ailleurs, que les innovations technologiques ont toujours amené l’éclosion de nouveaux services conduisant à l’augmentation des usages plutôt qu’à une baisse des consommations.
À lire aussi : Ordinateur quantique : comment progresse ce chantier titanesque en pratique
Quelles options s’offrent à la France pour répondre à sa volonté de souveraineté numérique en accueillant des data centers, tout en se tenant à son objectif de neutralité carbone à l’horizon 2050 ?
B. L. : Dans ce contexte, il s’agit pour la France de faire des choix de société. L’une des options est celle de la sobriété, avec une priorisation des usages numériques et une prise de distance, plus ou moins forte, avec le tout-numérique. Dans le scénario le plus frugal que nous avons envisagé, la puissance installée pour les data centers sur le territoire peut être limitée à seulement 5,7 TWh en 2050, soit 190 000 tonnes équivalent CO₂.
L’autre chemin consiste à miser sur l’innovation pour réduire les émissions de gaz à effet de serre des autres secteurs d’activité et à optimiser la consommation d’énergie du numérique. Notre modèle estime que la puissance installée pour les data centers en France avoisinerait alors les 64 TWh, soit 11 fois plus qu’en optant pour la sobriété. Cela correspondrait à l’émission de 2,15 millions de tonnes équivalent CO₂, soit 11 fois plus qu'en optant pour des choix de sobriété.
La question centrale ici, qui relève d’un choix citoyen, est celle du rôle que l’on souhaite donner demain au numérique dans notre société sans renoncer à notre objectif de neutralité carbone.
Propos recueillis par Nolwenn Jaumouillé.
Bruno Lafitte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.04.2026 à 10:05
L’eau claire du lac Léman, bonne nouvelle ou symptôme d’invasion ? Le cas de la moule quagga
Texte intégral (3593 mots)

L’eau du Léman, lac franco-suisse, n’a jamais été aussi limpide, mais ce n’est pas forcément une bonne nouvelle pour le plus grand lac d’Europe occidentale. Derrière cette apparence de carte postale se cache en réalité une invasion silencieuse : celle de la moule quagga, qui filtre massivement l’eau, au risque de bouleverser en profondeur l’équilibre du lac. Des espèces de poissons pourraient être menacées, mais aussi les activités humaines : cette espèce colonise aussi, en effet, les conduites permettant l’approvisionnement en eau.
Depuis 2015, l’eau du Léman, lac frontière entre la France et la Suisse, devient progressivement cristalline. Une aubaine pour les baigneurs : visibilité parfaite, reflets couleur turquoise… un léger air des Maldives en plein cœur de l’Europe !
Mais derrière cette carte postale séduisante se cache une question dérangeante : une eau trop claire est-elle forcément synonyme de bonne santé écologique ? Car ce changement spectaculaire n’est ici pas dû à un miracle naturel, mais en bonne partie à l’action silencieuse d’une minuscule bivalve d’à peine deux centimètres : la moule quagga.
Et si cette transparence nouvelle semble anodine, voire réjouissante, elle est en réalité le symptôme visible d’un bouleversement profond. Car sous la surface du Léman, l’équilibre du lac est en train de se redéfinir autour d’un envahisseur durablement installé. Cela pourrait à terme entraîner le déclin du phytoplancton et des poissons qui en dépendent, ainsi que des proliférations d’algues.
Jusqu’à deux litres d’eau filtrée par jour… et par moule !
Discrète, cette moule filtre l’eau avec une redoutable efficacité : jusqu’à deux litres d’eau filtrés par jour et par moule. À première vue, cela paraît insignifiant, presque anodin. Mais multipliez ce chiffre par le nombre d’invidivus, en moyenne, 4 000 individus par mètre carré, et vous obtenez une machine biologique de filtration d’une puissance vertigineuse.
Aujourd’hui, c’est une armée silencieuse qui tapisse le fond du Léman et d’autres lacs en Europe et dans le monde, transformant en profondeur son fonctionnement. Car dans un écosystème, aucun changement d’une telle ampleur ne saurait être neutre. Cette filtration massive bouleverse les équilibres biologiques et complique sérieusement la gestion du lac.
De nom scientifique Dreissena rostriformis bugensis, la moule quagga est une espèce exotique envahissante. Elle n’est pas née dans le Léman.
Originaire d’estuaires du bassin pontocaspien et plus précisément du delta du Dniepr, en Ukraine, elle a voyagé malgré elle – ou plutôt grâce et à cause de nous. Transportée dans les eaux de ballast des navires ou accrochée aux coques des bateaux, elle a traversé continents et océans, colonisant les Grands Lacs d’Amérique du Nord dès 1988, bien avant d’atteindre les lacs européens. Elle est morphologiquement et écologiquement proche de la moule zébrée (Dreissena polymorpha), autre espèce invasive bien connue, mais la quagga semble présenter une capacité d’adaptation encore supérieure.
On estime que le Léman a été touché en 2015, le lac voisin du Bourget en 2017. Depuis 2022, l’espèce est aussi signalée dans le lac de Garde, première occurrence au sud des Alpes. Sa présence dans le lac Majeur est désormais fortement suspectée à la suite de la détection de son ADN.
Capable de s’installer durablement, de se reproduire rapidement et de se disperser à grande échelle, la moule quagga ne se contente pas de s’ajouter à l’écosystème : elle le redessine. Elle menace les espèces locales, modifie les équilibres biologiques et impacte directement certaines activités humaines.
À lire aussi : Derrière les invasions biologiques, un remodelage silencieux des écosystèmes
Une niche écologique idéale pour l’envahisseur
Cette invasion a pourtant commencé à bas bruit. En 2015, un premier individu était observé à la station de Riva-Gare, dans le canton de Vaud en Suisse. Dix ans plus tard, le constat est saisissant : le fond du Léman est recouvert d’un véritable tapis de moules (jusqu’à 18 000 individus par mètre carré), avec une présence observée à des profondeurs supérieures à 150 mètres, bien au-delà de ce que l’humain peut explorer facilement.
Cette expansion fulgurante de la moule quagga dans le Léman s’explique par une nourriture abondante, des courants favorables, l’absence de prédateurs naturels. Toutes les conditions sont réunies pour une colonisation éclair.
D’autant plus que l’espèce ne se laisse pas freiner par les contraintes extrêmes du milieu. Pression élevée, obscurité totale, températures basses ? Cela ne semble pas lui poser problème. Des individus ont été observés à 250 mètres de profondeur, certains atteignant des âges surprenants : plus de dix ans, là où sa longévité moyenne est plutôt de deux ou trois ans à proximité du littoral.
Comment parviennent-elles à survivre dans de telles conditions ? Peuvent-elles s’y reproduire ? À quel rythme ? Autant de questions auxquelles plusieurs équipes de recherche tentent aujourd’hui de répondre.
Une menace pour la production d’eau potable
La moule quagga n’est pas difficile : elle s’installe sur tous les types de fonds. Sédiments divers, cailloux, roches… Même les fonds meubles de vase, limon et sable semblent lui convenir. Elle ne s’arrête toutefois pas aux milieux naturels.
Elle se fixe sur tous les supports disponibles sous l’eau, y compris les structures artificielles. Crépines, conduites et tuyaux de captage d’eau, notamment ceux destinés à la production d’eau potable, deviennent des supports de choix. À terme, ces infrastructures peuvent être partiellement ou totalement obstruées, compromettant l’approvisionnement en eau.
Les acteurs concernés n’ont alors d’autres choix que d’intervenir : nettoyages répétés, désencrassement des installations, ajout de filtres pour empêcher l’aspiration des moules… Autant de mesures indispensables, mais coûteuses. La présence de la moule quagga se traduit ainsi par un surcoût économique non négligeable, payé directement par les gestionnaires et indirectement par la collectivité.
Une bombe à retardement ?
Mais les dégâts causés par la moule quagga ne se limitent pas à une simple invasion de l’espace. Son mode de vie, discret en apparence, agit comme une bombe écologique à retardement pour le lac.
Car la moule quagga est un organisme filtreur redoutablement efficace. En permanence, été comme hiver, elle aspire l’eau du lac et en extrait le plancton grâce à ses branchies. Cela n’a rien d’un détail.
Le phytoplancton, composante végétale du plancton, constitue le socle même de la vie lacustre : sans lui, c’est toute la chaîne alimentaire classique qui vacille. En effet, le phytoplancton nourrit le zooplancton (composante animale du plancton, dont les plus petits représentants peuvent aussi être ingérés par la moule). Or les alevins, ces poissons à peine éclos, dépendent directement de l’abondance du zooplancton pour survivre.
L’exemple des Grands Lacs nord-américains est sans appel. Là-bas, l’arrivée massive de la moule quagga a provoqué l’effondrement des populations de whitefish (ou corégone), un poisson emblématique qui est le pilier économique des pêcheries, tant au niveau local que dans les grands lacs profonds tempérés et froids en général : une catastrophe sociale et écologique.
Pour l’instant, le Léman n’a pas encore connu un tel scénario. Mais l’histoire nous a déjà montré comment cela peut finir.
Quand une eau « trop propre » devient un problème
En filtrant le phytoplancton à très grande échelle, les moules quagga rendent l’eau plus claire et donc plus transparente. À première vue, cela peut sembler positif, presque un argument touristique. Pourtant, cette clarté inhabituelle bouleverse, elle aussi, profondément l’écosystème.
Une eau plus limpide laisse en effet pénétrer la lumière plus profondément, stimulant la croissance des macrophytes, ces plantes aquatiques enracinées. Ces plantes, productrices d’oxygène, zones de nourricerie et de nurserie des poissons, constituent une composante importante du fonctionnement lacustre.
Mais les plantes et le phytoplancton sont en compétition et se disputent les mêmes nutriments. Résultat : plus les macrophytes prolifèrent, plus elles privent le phytoplancton de ressources, accentuant encore son déclin.
Ce cercle vicieux, connu sous le nom de boucle de rétroaction négative, s’autoentretient et verrouille le système dans un nouvel équilibre bien moins favorable à la biodiversité originelle du lac et à son fonctionnement pélagique, c’est-à-dire, dans la colonne d’eau. On parle alors de benthification des lacs (voir encadré ci-dessous).
Qu’est-ce que la benthification ?
- La benthification est le processus par lequel l’énergie et la biomasse d’un écosystème aquatique sont déplacées de la colonne d’eau vers le fond (zone benthique).
- Dans les lacs envahis par la moule quagga, ce phénomène est amplifié par sa forte capacité de filtration. En pompant le phytoplancton et les particules en suspension, la moule clarifie l’eau et transfère la matière organique vers les sédiments sous forme de fèces et de pseudofèces. Cette accumulation enrichit le fond, modifie les cycles des nutriments (notamment le phosphore) et peut favoriser le développement d’algues et de bactéries benthiques.
- Les enjeux sont écologiques et socio-économiques : transformation des réseaux trophiques, déclin d’espèces planctoniques et de poissons dépendants du zooplancton, proliférations d’algues filamenteuses ou toxiques, et altération des habitats littoraux. La benthification liée à la moule quagga illustre ainsi une réorganisation profonde et durable du fonctionnement des lacs.
À lire aussi : Dans l’océan, comment le plancton s’est adapté à son environnement turbulent
Alors, pourquoi ne pas simplement éliminer la moule quagga ?
La réponse est simple et brutale : parce qu’il est déjà trop tard et la colonisation du mollusque quasi totale. Imaginer son éradication complète du Léman relève aujourd’hui de la fiction, et tenter de le faire risquerait de provoquer un désastre écologique encore plus grave.
La seule option réaliste consiste désormais à apprendre à vivre avec cette espèce, comme c’est souvent le cas avec les espèces exotiques, à mieux comprendre son écophysiologie, à observer l’adaptation des écosystèmes, et surtout, à éviter que l’histoire ne se répète ailleurs. Cela passe par des gestes simples mais cruciaux : rincer soigneusement les coques de bateaux, le matériel de plongée et les équipements de loisirs avant de passer d’un lac ou d’un cours d’eau à un autre.
Car si la moule quagga a déjà gagné la bataille du Léman, la guerre contre sa propagation n’est pas encore perdue pour d’autres lacs. Et il reste à étudier et tester l’ensemble des pistes disponibles pour aider à la conservation des espèces natives du Léman, notamment en travaillant sur la restauration des habitats.
Jean-Nicolas Beisel a reçu des financements de l'ANR (projet QUALAG pour la période 2025-2029).
Stéphan Jacquet a reçu des financements de l'ANR (projet QUALAG pour la période 2025-2029)
Elora Chatain et Théo Gonin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
01.04.2026 à 17:21
Peut-on développer le photovoltaïque au sol sans nuire à la biodiversité ?
Texte intégral (2383 mots)
Alors que dans de nombreuses régions françaises l’énergie solaire est en plein développement, son impact sur la biodiversité est l’objet d’études inédites. Il varie selon les sites d’installation, mais aussi la hauteur et l’espacement des panneaux, par exemple.
Entre 75 000 et 124 000 hectares. Telle est, dans les scénarios prospectifs de l’Ademe, la surface mobilisée par le photovoltaïque au sol pour atteindre entre 92 et 144 gigawatts d’ici 2050. Si le gouvernement français lui, vise désormais 48 gigawatts en 2030 et jusqu’à 80 gigawatts en 2035, et s’il a récemment freiné le déploiement du solaire en faveur du nucléaire, le développement de cette énergie renouvelable reste malgré tout une priorité stratégique déjà en œuvre, notamment depuis la loi Aper de 2023.
Mais alors que, dans de nombreuses régions de France, l’énergie solaire est en pleine expansion, de nombreuses questions méritent notre attention :
Quelles plantes poussent encore, à l’ombre des panneaux ? Est-ce que les insectes se maintiennent sur les terrains où sont installés des panneaux solaires ? Comment un champ de panneaux solaires peut limiter la faune sauvage ?
Sur le terrain, développeurs de parcs solaires, bureaux d’étude en environnement, collectivités, associations, scientifiques, services instructeurs de l’État et gestionnaires d’espaces naturels se retrouvent eux confrontés à un enjeu de taille : comment produire une énergie renouvelable tout en préservant le vivant ?
Quelles biodiversités sont concernées ?
De fait, l’installation de parcs photovoltaïques, en exploitation sur trente à quarante ans, ne se résume pas à une simple occupation d’espace par une infrastructure hors sol. Ces infrastructures et notamment les panneaux solaires, par leurs incidences sur les sols et le climat, peuvent constituer dans certains cas un véritable bouleversement pour le vivant.
Des effets positifs, neutres ou négatifs, sont susceptibles de se répercuter à toutes les échelles d’organisation biologique de la biomolécule au paysage, en passant par les espèces et les communautés et donc le fonctionnement des écosystèmes.
Aujourd’hui, la conception de ces parcs est régie par la séquence Éviter-Réduire-Compenser (ERC) prévue au Code de l’environnement. Celle-ci vise une absence de perte nette de biodiversité, en s’appliquant aux espèces, habitats naturels, et fonctions écologiques.
Les leviers de réduction des impacts atteignent toutefois rapidement des limites si l’application de la séquence ERC se concentre sur la liste des espèces protégées sans intégrer les différentes dimensions de la biodiversité et en particulier les fonctions écologiques (cycles des nutriments, pollinisation, corridors migratoires entre autres) affectées par les changements d’usage des sols. Il est également nécessaire de prendre en compte les changements de biodiversité à différentes échelles spatiales – du site au paysage – et temporelles, des conséquences immédiates aux trajectoires à long terme.
Des impacts écologiques de mieux en mieux documentés mais contrastés
La phase de construction est généralement associée aux perturbations les plus marquées. Nous avons par exemple observé des sols de moindre qualité très rapidement après la construction d’une centrale photovoltaïque dans le sud de la France, se traduisant par une réduction de ses propriétés physiques et biologiques. Cependant, d’autres scientifiques ont observé une augmentation des teneurs en phosphore, potassium et nitrates, 6 ans après l’installation des panneaux solaires dans des écosystèmes arides.
En phase d’exploitation, la nature, l’ampleur, l’intensité et la durée des impacts (Figure 1) sont différentes d’une région à l’autre et dépendent des choix techniques de dimensionnement (hauteur des panneaux, largeur des inter-rangs, présence de pistes construites avec des matériaux exogènes tassés), des modalités de gestion de la végétation.
Par exemple, sous les panneaux, les changements de microclimat sont peu propices aux arthropodes, en particulier aux pollinisateurs, à des communautés végétales diversifiées et aux activités des organismes du sol. Dans les régions plus arides, cependant, les panneaux photovoltaïques peuvent au contraire atténuer les stress hydriques et thermiques, augmentant ainsi la survie et la productivité des plantes sensibles aux fortes chaleurs et lumière intense.
Enfin, les impacts de la phase de démantèlement de la centrale ou du remplacement des panneaux solaires restent à documenter. Cette phase pourrait constituer une perturbation ponctuelle supplémentaire mais potentiellement réversible, dont les effets peuvent dépendre des caractéristiques techniques de ces travaux et de la capacité des milieux à se régénérer après la remise en état du site.
Un enjeu majeur : l’occupation avant-projet et la destination des terres
Les impacts des centrales photovoltaïques sur la biodiversité dépendent également de l’usage historique des sites sur lesquels les installations sont implantées et de la valeur écologique des milieux environnants. Certaines centrales construites en milieux dégradés peuvent créer des habitats favorables à certaines espèces comme les bourdons et les oiseaux inféodés aux prairies, tandis que l’implantation de parcs solaires dans des forêts et des milieux semi-naturels (landes, prairies permanentes, pelouses, garrigues, marais…) peut entraîner une fragmentation des habitats et des pertes conséquentes de biodiversité.
Par exemple, les constructions dans les Landes de Gasconne induisent, en comparaison de milieux prairies comparables, une forte perte des abeilles sauvages et d’autres pollinisateurs, et favorisent le développement d’espèces rudérales (c’est-à-dire qui poussent spontanément dans des milieux fortement dégradés par l’humain) ou exotiques envahissantes si ces pratiques impliquent des travaux du sol.
Il est donc crucial de privilégier la conversion de friches industrielles, de sites dégradés ou pollués, des décharges et aussi des parcelles agricoles afin de limiter les impacts sur les espèces sauvages, voire offrir des opportunités de restauration de certains habitats et de corridors écologiques (passages qui assurent des connections entre des réservoirs de biodiversité) sous réserve d’une gestion environnementale et des clôtures adaptées.
Les terres agricoles occupent une position particulière dans le développement des parcs solaires. Certaines d’entre elles, notamment celles soumises à des pratiques intensives, présentent un état de biodiversité et de fonctionnement écologique souvent dégradé, ce qui pourrait en faire des espaces prioritaires pour l’implantation de centrales photovoltaïques dans une logique de moindre impact écologique. Toutefois, en France, des contraintes socio-économiques et réglementaires limitent encore largement leur mobilisation pour la production d’énergie solaire, contrairement à des pays, comme l’Allemagne, les Pays-Bas ou le Royaume-Uni, où la majorité des centrales photovoltaïques est implantée sur des terres agricoles.
Peut-on concilier photovoltaïque au sol et conservation de la biodiversité ?
La capacité des projets à préserver la biodiversité dépendra donc étroitement d’une planification territorialisée, fondée sur des connaissances scientifiques robustes, une séquence ERC complète et écologiquement efficace ainsi que sur une volonté locale partagée.
Le premier levier de réduction des impacts est une planification évitant les milieux à forte valeur écologique et idéalement avec une concertation des acteurs locaux. Les collectivités territoriales en charge de la planification devraient être sensibilisées à cette problématique. L’obligation de compatibilité des choix de sites d’implantation des projets par les développeurs avec les documents de planification territoriaux (PLU, PLUi, SCoT, PCAET…) et chartes ou documents cadres associés aux aires protégées doit être respectée.
La construction des centrales photovoltaïques sur des terrains déjà dégradés (sans oublier les toitures et les parkings) peut, lorsqu’elle est associée à la restauration écologique, et à condition que ces objectifs soient intégrés dès la conception et évalués sur le long terme, constituer une stratégie doublement gagnante pour les enjeux énergétiques et écologiques. La construction de petites centrales et la réduction de leur densité au sein d’un même territoire préserveraient les connectivités écologiques.
Le second levier vise le développement des installations à faibles impacts écologiques. Ainsi un espacement des rangées de panneaux au moins équivalent à la largeur des panneaux et un rehaussement de la hauteur minimale au-delà des 1,10 mètre préconisés dans l’arrêté du 29 décembre 2023 sur l’artificialisation des sols favoriseraient la diversification des habitats et les conditions microclimatiques les plus favorables avec moins d’ombre, moins d’exclusion de pluies et moins de modifications des températures.
Un fauchage ou un pâturage extensif, et hors période de floraison, seraient plus favorables pour la conservation de la diversité végétale et des pollinisateurs qu’une gestion intensive de la végétation.
Un effort de collaboration entre chercheurs et aménageurs est attendu sur la quantification des pertes de fonctions écologiques et sur l’élaboration de techniques de réduction et de compensation.
Seulement dans ces conditions, le photovoltaïque au sol pourra contribuer aux transitions énergétique et climatique en s’inscrivant dans une trajectoire écologique positive et intégrée aux territoires. Il semble aussi essentiel d’appeler à ne pas opposer la quête d’une sobriété énergétique et la protection du vivant.
Véronique de Billy (Office français de la biodiversité) et Thomas Eglin (Agence de la transition écologique) ont été relecteurs de cet article.
Gros Raphael a reçu des financements de l'ADEME (projet REMEDE) et de l'OFB.
Armin Bischoff a reçu des financements du consortium Engie Green-ANRT-Université de Tours-Avignon Université (bourse Cifre de Louison BIENVENU), de l'ADEME (projet REMEDE, bourse Quentin LAMBERT), du CESAB (projet ESEB, bourse postdoc de Lucas ETIENNE).
Bertrand Schatz a reçu des financements de l'ANR pour des thèmes différents et de l'Ademe et de l'OFB (projet Remede) pour le sujet des ENR, mais sans conflits ou liens d'intérêts.
Quentin Lambert a reçu des financements de l'ADEME
Alexandra Bideau et Arnaud Lec'hvien ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
31.03.2026 à 17:10
Déchets ou ressources ? Une autre histoire des excréments
Texte intégral (3785 mots)
Il y a encore quelques décennies, les excréments – urines et matières fécales – étaient considérés comme des sources d’engrais vitales. Ils ont été évincés par les engrais d’origine fossile au prix d’importants dommages environnementaux et sanitaires. Aujourd’hui, relégués au rang d’encombrants déchets, les excréments humains voient leurs précieux nutriments majoritairement détruits ou rejetés en rivière.
Dans le livre, qui paraît ce jour aux éditions Actes Sud, le chercheur Fabien Esculier, de l’École nationale des ponts et chaussées (ENPC), plaide pour la réhabilitation de ces matières et leur réintégration dans une forme d’économie circulaire. Nous reproduisons ci-dessous un extrait de son introduction.
Les excrétions humaines ont progressivement été reléguées au rang d’impensé collectif. La principale interaction que nous avons avec elles est d’espérer les voir disparaître le plus vite possible, les éloigner le plus possible de tous nos sens.
Presque personne n’en parle ni ne se soucie de savoir ce qu’elles deviennent… sauf les jeunes enfants, naturellement très intéressés par ces matières fascinantes ! Or il y a là deux paradoxes majeurs.
Premièrement, nous produisons quotidiennement deux ressources précieuses, les urines et les matières fécales, qui sont fondamentalement de la nourriture pour les sols et pour les plantes. Du point de vue du fonctionnement des écosystèmes, et donc du soutien de la vie humaine sur Terre, comme du point de vue de la prévention pour la santé humaine, mettre nos excrétions dans l’eau fait probablement partie des pires options envisageables, déployées à grande échelle seulement depuis quelques décennies.
Jadis exploitées pour leur pouvoir fertilisant, aujourd’hui traitées comme des déchets
Les humains doivent manger des plantes pour vivre – ou manger des animaux qui ont eux-mêmes mangé des plantes. Une fois qu’elle a été ingérée, la quasi-intégralité de la matière de notre alimentation se retrouve dans nos excrétions (sauf principalement le carbone qui est expiré sous forme de gaz carbonique et que les plantes captent ensuite dans l’atmosphère).
Or, les sols et les plantes se nourrissent justement de ces excrétions qui, utilisées précautionneusement, peuvent permettre une réelle économie circulaire entre la gestion des excrétions humaines et la culture des plantes alimentaires.
Dans l’histoire récente de l’humanité, il semble plutôt difficile de trouver une société qui n’ait pas mis à profit le pouvoir fertilisant de nos excrétions. Ce faisant, les risques sanitaires liés aux excrétions sont d’ailleurs susceptibles d’être mieux gérés que s’il s’agit principalement de s’en débarrasser.
C’est là qu’apparaît le deuxième paradoxe majeur. Bien que nous cessions d’y penser une fois la chasse d’eau tirée, nos excrétions ne disparaissent pas pour autant.
En fait, notre société en prend très grand soin. Depuis les personnes qui changent les couches, nettoient les toilettes ou débouchent les tuyaux, en passant par les égoutiers, les constructeurs et les exploitants de stations d’épuration, jusqu’aux agriculteurs qui épandent les boues dans leurs champs, le secteur de la gestion des excrétions humaines est un pan très important de notre économie. Et très dévalorisé pourtant.
À lire aussi : Derrière la contamination des eaux de la Seine, un problème global de gestion des matières fécales
Recréer une économie circulaire des excrétions
Il ne s’agit pas seulement de mieux s’occuper de nos excrétions mais aussi d’opérer un basculement de valeur dans la manière de les considérer.
En effet, depuis quelques décennies, avec le développement des engrais de synthèse issus de ressources fossiles et l’abandon progressif des pratiques millénaires de valorisation agricole de nos excrétions, la résultante principale de cette économie des excrétions humaines mélangées à l’eau est une perte de résilience alimentaire.
Elle induit également une pollution des milieux aquatiques et une destruction coûteuse de l’engrais naturel que sont nos excrétions. Ainsi, dans les boues d’épuration qui sont épandues sur les champs en France, il n’y a même pas 10 % de la principale matière fertilisante de nos excrétions, à savoir l’azote.
Pourtant la France, en tant que nation agricole, est presque championne du monde occidental dans ce domaine : les autres pays tournent plutôt autour de 5 %, 2 %, voire souvent 0 % de valorisation de l’engrais naturel azoté de nos excrétions.
À lire aussi : Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre
La plus grande « usine de destruction d’engrais naturel » de France
C’est en m’intéressant à ce deuxième paradoxe que je me suis progressivement passionné pour nos excrétions. Après une formation généraliste d’ingénieur à l’École polytechnique, je me suis spécialisé dans l’ingénierie de l’environnement à l’École nationale des ponts et chaussées.
En 2007, mon premier stage d’ingénieur a consisté à étudier une phase de travaux de ce que je renomme désormais la plus grande « usine de destruction d’engrais naturel » de France, à savoir la station d’épuration des eaux usées d’Achères (dite Seine aval), qui reçoit les excrétions d’environ 5 millions d’habitants de l’agglomération parisienne.
Avant cette phase de travaux, l’azote des eaux usées arrivant à cette station était principalement rejeté en Seine, ce qui induisait une pollution dramatique du fleuve. Il était alors vu comme un très grand progrès environnemental d’envoyer dans l’atmosphère l’azote des eaux usées pour protéger le fleuve.
Pour moi, ce fut une entrée en dissonance majeure. Le plus grand chantier de génie civil d’Europe de l’époque, auquel je contribuais, était dédié à construire une usine qui allait utiliser des ressources fossiles pour détruire de l’engrais azoté naturel.
Le taux de dilution de nos excrétions empêche en effet de mettre en œuvre des procédés de récupération : 1,2 litre (l) d’urine et 120 grammes de matières fécales sont mélangées chaque jour à environ 25 l de chasses d’eau et 125 l d’autres eaux usées domestiques collectées dans les égouts.
À lire aussi : De l’urine recyclée pour les futurs engrais
Détruire l’azote des eaux usées d’un côté, importer des engrais de synthèse de l’autre
À l’échelle de toute la France, la solution qui a été mise en œuvre ces dernières décennies est donc de détruire la moitié de l’engrais azoté de nos eaux usées, tout en continuant d’en rejeter environ 40 % dans les milieux aquatiques.
Dans le même temps, la France est depuis longtemps devenue totalement tributaire des importations de ressources fossiles pour faire la réaction exactement inverse dans les usines de synthèse d’engrais azotés. Ces réflexions autour de mon travail de stage m’amenèrent à étudier comment circulent les matières, molécules et atomes, pour subvenir à nos besoins fondamentaux d’alimentation et d’excrétion. En voici le parcours.
Nous dépendons en amont d’une usine pétrochimique de synthèse d’engrais azotés. Dans cette usine, moyennant une grande quantité d’énergie et de ressources fossiles, l’azote atmosphérique est converti en engrais azoté disponible pour les plantes.
Ces atomes d’azote voyagent alors de l’usine au champ, du champ à la plante, de la plante à notre bouche, de notre bouche à nos cellules, enfin de nos cellules à notre urine, qui est la voie par laquelle le corps humain excrète majoritairement l’azote. À ce stade, l’azote est exactement sous la même forme chimique qu’à la sortie de l’usine de synthèse d’engrais azotés, à savoir l’urée.
Et son voyage continue : de notre urine à la toilette, de la toilette à l’égout, de l’égout à la station d’épuration. Et là, avec à peu près la même quantité d’énergie consommée et la même quantité de gaz à effet de serre émis par unité d’azote, l’engrais azoté de nos excrétions subit la réaction exactement inverse de celle de l’usine pétrochimique d’engrais : sa dissipation dans l’atmosphère.
En 2007, alors que j’étais choqué par ce fonctionnement linéaire, intensif et polluant, pour la plupart des personnes avec qui j’avais pu en parler, il n’y avait pas de problème. Les ressources fossiles étaient illimitées, le changement climatique n’était pas très important, les pandémies étaient de mauvais souvenirs, la paix en Europe était éternelle, la croissance économique allait reprendre et l’eau coulerait toujours au robinet.
À lire aussi : Le monde est désormais en « faillite hydrique », selon un rapport de l’ONU
Le projet du Grand Paris incompatible avec le paradigme d’assainissement actuel
Depuis bientôt vingt ans, je constate que ces mirages se sont évanouis les uns après les autres dans la conscience collective et dans la réalité de nos vies. Tragiquement bien sûr, puisqu’il s’agit d’un bouleversement majeur de nos sociétés qui est en cours. Mais il y a tout de même un (maigre) lot de consolation : de plus en plus de personnes s’attachent à nouveau aux conditions matérielles de leur existence. L’air que nous respirons, l’eau que nous buvons, les insectes qui pollinisent nos plantes alimentaires… et nos excrétions qui pourraient fertiliser nos champs !
À la fin de mes études, j’ai eu la chance de pouvoir intégrer la haute administration du ministère en charge du développement durable, en devenant ingénieur du corps des Ponts et chaussées. Le rêve : le Grenelle de l’environnement battait son plein et j’allais pouvoir rejoindre la fonction publique pour mettre en œuvre cette fameuse transition écologique si nécessaire. Le rêve fut de courte durée : quelques mois après ma prise de poste, notre président de la République expliqua que l’environnement, « ça commençait à bien faire ».
Après plusieurs expériences professionnelles dans des administrations en charge de politiques de l’eau et de l’assainissement, l’année 2013 marqua une bifurcation dans ma trajectoire. La direction régionale Île-de-France du ministère en charge du Développement durable venait de rendre un rapport expliquant en substance qu’il n’était pas possible de faire le projet du Grand Paris, tout en respectant les objectifs de qualité de l’eau de la Seine à l’aval de l’agglomération.
Le changement climatique induisait une baisse progressive du débit des rivières, le projet du Grand Paris une hausse progressive de la population. Le faible débit de la Seine ne pouvait déjà pas suffire à diluer les eaux usées traitées de l’agglomération tout en garantissant un bon état des eaux. La situation n’allait qu’empirer à l’avenir.
Un programme de recherche-action sur la gestion des urines et matières fécales humaines
Après que j’eus contacté de très nombreuses organisations pour savoir comment on pouvait répondre sérieusement à cette impasse, ce sont finalement des chercheurs qui m’ont indiqué que, face à un défi d’une telle complexité, la meilleure méthode pour aborder le problème était de faire de la recherche. Après un an et demi d’efforts de montage, j’ai finalement réussi, à la fin de l’année 2014, à lancer le programme de recherche-action OCAPI, hébergé au laboratoire Eau, environnement et systèmes urbains à l’École nationale des ponts et chaussées (ENPC).
Je suis ainsi devenu chercheur, avec également une posture d’« intrapreneur » d’action publique, tentant comme je le peux depuis cette position de donner du pouvoir d’agir aux nombreux collectifs qui s’intéressent à ce sujet, en premier lieu en partageant les connaissances, et en essayant de susciter une transformation de l’action publique et privée en la matière.
Premier programme de recherche-action académique français qui se soit intéressé à questionner les modes de gestion des urines et matières fécales humaines dans une vision systémique, OCAPI a connu depuis dix ans un développement aussi important que la prise de conscience grandissante des impasses de ce mode de gestion qui consiste à prélever une eau précieuse pour la souiller de nos excrétions, l’exporter loin des habitations et tenter de détruire ces matières fertilisantes devenues pollutions des milieux aquatiques et disséminatrices de risques sanitaires. Le programme OCAPI s’intéresse en particulier aux techniques dites de séparation à la source, où les urines et/ou les matières fécales humaines sont collectées séparément pour être valorisées en agriculture, et qui se déploient actuellement en France. Un appel à l’action et des propositions pour changer d’échelle ont récemment été rédigés.
Cet ouvrage a pour objectif de partager le récit, souvent très peu connu, des principales étapes qui nous ont fait arriver à cette situation et d’ouvrir les possibles et les imaginaires vers des futurs soutenables.
Le programme OCAPI (www.leesu.fr/ocapi), coordonné par Fabien Esculier, reçoit des financements publics (Agence de l'Eau Seine Normandie, ADEME, ANR, FranceAgriMer, Union Européenne, collectivités locales).
30.03.2026 à 16:38
Forêts et plantations de palmiers à huile peuvent-elles vraiment coexister ? Des résultats prometteurs en provenance de Bornéo
Texte intégral (3384 mots)

On estime qu’un produit de supermarché sur deux contient aujourd’hui de l’huile de palme. À l’heure où il semble difficile de se passer de cette ressource, une chose reste néanmoins possible et même prometteuse : pratiquer l’agroforesterie pour que les plantations de palmiers à huile ne soient plus une menace pour la biodiversité.
La culture du palmier à huile est fréquemment associée à la déforestation tropicale et à l’érosion de la biodiversité. De fait, en Asie du Sud-Est, l’expansion rapide des plantations industrielles au cours des dernières décennies a profondément transformé les paysages, fragmentant les forêts et réduisant l’habitat d’espèces emblématiques, comme les orangs-outans ou les éléphants de Bornéo. Cette trajectoire a durablement ancré l’idée selon laquelle la production d’huile de palme serait fondamentalement incompatible avec la conservation de la nature.
Cette opposition entre production agricole et biodiversité repose toutefois en grande partie sur un modèle agricole spécifique, celui de la monoculture intensive. Elle tend à masquer l’existence d’alternatives pionnières, capables de concilier production et fonctions écologiques dans les paysages tropicaux.
Ces autres façons de produire de l’huile de palme sont pourtant cruciales à développer à l’heure où le palmier à huile reste la culture oléagineuse la plus productive au monde. À surface égale, il produit en moyenne 4 à 10 fois plus d’huile que le soja, le colza ou le tournesol. Remplacer l’huile de palme par ces alternatives nécessiterait donc beaucoup plus de terres agricoles, avec un risque de déplacer la déforestation plutôt que de la réduire.
Par ailleurs, la demande mondiale en huiles végétales reste très élevée et continue de croître, portée par des usages alimentaires, cosmétiques et industriels en pleine expansion. Dans ce contexte, une sortie totale de l’huile de palme apparaît difficile à court terme.
L’enjeu principal n’est donc pas seulement de substituer une huile à une autre, mais de transformer les modes de production du palmier à huile qui ont peu changé depuis le début du XXᵉ siècle.
Les fragilités du modèle dominant
Introduite en Asie du Sud-Est à l’époque coloniale par les puissances européennes, la culture du palmier à huile – originaire d’Afrique de l’Ouest – a ensuite été largement développée en Indonésie et en Malaisie selon des modèles agricoles intensifs hérités de cette période. Les plantations conventionnelles sont ainsi conçues pour maximiser les rendements à court terme, en reposant sur des peuplements très homogènes et une forte intensification des pratiques. Cette simplification des écosystèmes s’accompagne toutefois d’effets négatifs bien documentés : appauvrissement des sols, pollution des eaux, dépendance accrue aux engrais et aux pesticides chimiques, perte d’habitats pour la faune et la flore ainsi qu’une plus grande vulnérabilité aux parasites et ravageurs. Ces derniers peuvent entraîner des pertes de rendement importantes, de l’ordre de 30 % en moyenne lorsque les populations ne sont pas maîtrisées.
Avec le changement climatique, ces fragilités deviennent plus visibles. L’augmentation des températures, la multiplication des vagues de chaleur et la variabilité accrue des précipitations exposent les plantations à des stress thermiques et hydriques croissants. Dans ce contexte, la question n’est plus seulement de freiner l’expansion agricole, mais aussi de transformer, afin de les rendre plus robustes face au changement climatique, les plantations existantes, qui occupent déjà des millions d’hectares en zone tropicale.
L’agroforesterie comme voie alternative
L’agroforesterie, qui associe arbres et cultures agricoles sur une même parcelle, est reconnue pour sa capacité à concilier production agricole et maintien des fonctions écologiques vitales. De nombreux travaux montrent que les systèmes agroforestiers tropicaux peuvent héberger une biodiversité relativement élevée, notamment pour les oiseaux et les insectes, tout en assurant des niveaux de production significatifs, par exemple dans les plantations indonésiennes de cacao.
Contrairement à l’idée selon laquelle biodiversité et productivité seraient nécessairement antagonistes, certaines agroforêts tropicales atteignent des niveaux de rendement élevés tout en conservant une diversité biologique conséquente – parfois même supérieure à celle de forêts dégradées environnantes pour certains groupes, comme les chauves-souris ou les plantes non vascularisées (fougères, mousses). Ces résultats ont contribué à renouveler le regard porté sur les plantations tropicales, longtemps considérées comme incompatibles avec les objectifs de conservation.
Tester l’agroforesterie dans les plantations de palmiers à huile
Appliquée au palmier à huile, l’agroforesterie reste encore peu développée à grande échelle. Les craintes d’une baisse de rendement, la complexité technique des systèmes à mettre en place, et les contraintes de gestion expliquent en partie cette situation. C’est précisément pour tester ces hypothèses à l’échelle réelle qu’a été lancé le projet Transitionning to Agroecological Innovative Landscapes in Sabah, East Malaysia (TRAILS), d’agroforesterie à taille réelle.
Le projet couvre 38 hectares (ha) d’essais installés dans une plantation commerciale de 8 000 ha, dans le bassin de la rivière Kinabatangan, dans l’État de Sabah, dans la partie malaisienne de l’île de Bornéo. Il s’appuie sur des dispositifs de plantation spécifiquement conçus pour le palmier à huile, combinant différentes densités et différents types d’associations d’arbres forestiers natifs afin d’optimiser à la fois les performances agronomiques et les fonctions écologiques des plantations.
Contrairement à l’image classique de cultures poussant à l’ombre de grands arbres, les palmiers à huile forment déjà une canopée relativement basse et régulière. L’agroforesterie consiste ici à introduire d’autres espèces d’arbres au sein des parcelles, soit entre les rangées, soit en petits groupes, afin de créer une végétation plus diversifiée et structurée en plusieurs étages. On obtient ainsi un paysage où les palmiers coexistent avec des arbres de tailles et de formes variées, rompant avec l’uniformité des plantations conventionnelles. La question de la compétition pour la lumière est centrale, elle va conduire à des choix d’espèces aux architectures complémentaires : certaines laissent filtrer la lumière, d’autres occupent des strates différentes de la canopée.
Des schémas de plantation innovants
Les systèmes agroforestiers testés dans le cadre du projet TRAILS reposent de fait sur des schémas de plantation innovants. Les espèces forestières sont sélectionnées pour leur compatibilité écologique avec le palmier à huile, leur architecture et leur capacité à structurer l’espace sans entrer en compétition excessive pour la lumière, l’eau ou les nutriments. Les espèces introduites sont choisies pour leur complémentarité avec le palmier à huile.
Dans la vallée de la Kinabatangan, des projets de restauration menés notamment par différents intervenants locaux, comme la coopérative villageoise Kopel ou l’ONG Hutan, utilisent des espèces locales, comme Octomeles sumatrana (binuang), Nauclea sp. ou des figuiers (Ficus). Certaines ont une croissance rapide et améliorent le microclimat, d’autres tolèrent les sols inondés ou développent des racines profondes, limitant la compétition pour l’eau et les nutriments.
Ces arbres permettent de moduler l’ombrage, d’améliorer les microclimats et de diversifier la structure verticale des plantations. Les figuiers fournissent des ressources alimentaires clés pour la faune tout au long de l’année. Ces choix de conception jouent un rôle déterminant dans les performances attendues du système : elles font l’objet d’analyses détaillées dans les travaux récents menés au Sabah.
Productivité et biodiversité : un compromis moins difficile qu’attendu
L’une des principales interrogations concernant l’intégration de l’agroforesterie dans les plantations de palmiers à huile porte sur son impact potentiel sur la productivité. Les premiers résultats obtenus au Sabah montrent que les palmiers cultivés en association avec des arbres forestiers peuvent maintenir, dans les stades précoces étudiés jusqu’à présent, des niveaux de production comparables à ceux des monocultures conventionnelles.
L’intégration d’arbres dans les plantations, qu’il s’agisse de palmiers à huile ou d’autres cultures, modifie sensiblement le microclimat des parcelles. La présence d’une végétation plus diversifiée et stratifiée permet de réduire les températures au sol de 2 à 5 °C, grâce à l’ombrage et à l’évapotranspiration des arbres, tout en maintenant une humidité plus élevée et en limitant l’évaporation de l’eau dans les sols. Les arbres jouent également un rôle de brise-vent, réduisant la vitesse du vent et l’érosion. L’ensemble de ces effets atténue les stress hydriques et thermiques et renforce la résilience des cultures face aux aléas climatiques.
En parallèle, les bénéfices pour la biodiversité sont significatifs. Plus de 60 espèces d’oiseaux ont été recensées dans les parcelles agroforestières, contre généralement moins de 20 à 30 espèces dans les plantations de palmiers à huile conventionnelles, souvent dominées par quelques espèces généralistes. L’augmentation de la diversité végétale au sein des plantations favorise, pour sa part, la présence d’oiseaux et d’autres groupes faunistiques qui contribue à restaurer certaines fonctions écologiques, comme la régulation des insectes ravageurs ou la dispersion des graines, dans des paysages fortement fragmentés. Dans des régions comme la Kinabatangan, ces systèmes plus complexes peuvent également améliorer la qualité de l’habitat et la connectivité écologique pour certaines espèces, en complément des forêts restantes.
Comme l’a souligné un article récent, les dispositifs agroforestiers pourraient rendre les paysages dominés par le palmier à huile plus favorables aux déplacements de la faune sauvage. Ces espaces peuvent notamment bénéficier à des espèces en danger d’extinction, telles que les orangs-outans, les éléphants ou les macaques, capables de traverser des plantations, mais aussi à des animaux moins emblématiques, tels que les civettes, ou encore à de nombreux oiseaux forestiers et chauves-souris, qui utilisent ces zones comme habitats intermédiaires ou corridors entre fragments de forêt.
Un levier face au changement climatique
Au-delà de ses effets positifs sur la biodiversité, l’agroforesterie constitue également un levier important d’adaptation au changement climatique dans les plantations tropicales. L’intégration d’arbres au sein des parcelles permet de réduire les températures au sol, d’améliorer la rétention d’eau dans les sols et de limiter l’érosion, contribuant ainsi à renforcer la résilience des systèmes agricoles face aux perturbations climatiques.
Ces aménagements peuvent aussi améliorer les conditions de travail dans les plantations, notamment en apportant de l’ombre et en atténuant l’exposition des travailleurs à des chaleurs extrêmes, un enjeu sanitaire de plus en plus important dans les régions tropicales. En effet, les travailleurs agricoles sont directement confrontés aux effets du changement climatique : températures plus élevées, pluies plus irrégulières ou périodes de sécheresse plus fréquentes rendent le travail en plein air encore plus pénible. Ces conditions peuvent également affecter la productivité des cultures, ce qui accentue la précarité économique des travailleurs et la vulnérabilité des filières agricoles.
Des dimensions sociales indissociables
D’autres changements sont également possibles. À l’heure où les plantations peinent à trouver des travailleurs, mais où l’huile de palme reste une matière première cruciale au niveau mondial, le projet TRAILS accorde une attention particulière aux dimensions sociales. Des pépinières communautaires, souvent portées par des groupes de femmes, assurent ainsi la collecte, la sélection et la production des plants forestiers.
Ces activités sont accompagnées de formations techniques en agroforesterie et en gestion durable des terres, contribuant au renforcement des compétences locales et à la diversification des moyens de subsistance dans une zone rurale assez isolée. Cette implication continue des communautés locales est essentielle pour garantir l’appropriation des systèmes agroforestiers et leur pérennité à long terme.
Vers des paysages multifonctionnels
La reconnaissance de la plaine de la Kinabatangan comme réserve de biosphère de l’Unesco souligne l’importance de modèles agricoles capables de s’articuler avec des objectifs de conservation à l’échelle du paysage (Unesco, 2023).
Les approches agroforestières expérimentées au Sabah s’inscrivent pleinement dans cette logique intégrée. Sans remplacer les forêts tropicales intactes, les systèmes agroforestiers à base de palmiers à huile peuvent contribuer à transformer les paysages agricoles en leviers complémentaires de conservation et de résilience écologique.
Cet article a été réalisé avec Isabelle Lackman, de l’ONG Hutan, et Sempe Burhan, de la Melangking Oil Palm Plantations.
Alain Rival a reçu des financements Le Fonds de solidarité pour les projets innovants (FSPI), un dispositif de financement ministère de l’Europe et des Affaires étrangères. Le projets TRAILS recoit le soutien financier de l'APF (Alliance pour la Protection des Forets), ainsi que des sociétés Ferrero et Saint Hubert.
Denis Fabre, Marc Ancrenaz et Philippe Guizol ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
29.03.2026 à 09:02
Ces PFAS qui échappent à la surveillance environnementale
Texte intégral (2229 mots)
Comme bon nombre de polluants, les composés per- et polyfluoroalkylés, ou PFAS, atteignent souvent les mers et les océans. Si la présence de certains d’entre eux est surveillée, beaucoup d’autres ne font pas l’objet de réglementations. Ils sont pourtant observés à des taux élevés dans les écosystèmes marins, sans pour autant que leurs effets soient connus, révèlent des travaux inédits.
Vous avez sans doute déjà entendu parler des « polluants éternels », ou composés per- et polyfluoroalkylés (PFAS), mais saviez-vous qu’il en existe des milliers ? Et que les plus abondants ne sont pas tous surveillés dans l’environnement, alors même que leur dangerosité reste inconnue ?
Cette réalité apparaît pourtant lorsque l’on étudie des organismes marins, comme les moules, les crevettes et les poissons, des côtes françaises. Ces analyses délicates et très spécifiques sont cruciales pour comprendre la très longue vie de ces molécules appelées « polluants éternels ».
De fait, si on les sait aujourd’hui présents un peu partout, des poêles et casseroles antiadhésives à vos vêtements imperméables, en passant par votre maquillage, vos produits d’entretien, dans l’eau du robinet et jusque dans votre sang, nous savons également, que, comme bon nombre de polluants, la destination finale des PFAS reste souvent les océans.
Certains PFAS étant très mobiles dans les milieux aquatiques, la contamination est continuellement transportée depuis les milieux continentaux jusqu’aux océans, qui agissent comme des réservoirs finaux pour les composés les plus persistants. Les environnements côtiers constituent ainsi des écosystèmes clés pour l’étude du devenir des PFAS dans l’environnement.
Plusieurs PFAS utilisés dans de nombreuses applications pendant un demi siècle, principalement l’acide perfluorooctanesulfonique (PFOS) et l’acide perfluorooctanoïque (PFOA), sont également reconnus pour leur omniprésence, leur toxicité et leur capacité à s’accumuler dans les organismes vivants, à tous les niveaux de la chaîne alimentaire. C’est ce qu’on appelle la bioaccumulation.
Ainsi, certains PFAS qui atteignent les mers et les océans peuvent revenir dans notre assiette via la pêche et la consommation de certains crustacés ou poissons. Ces propriétés ont suscité des inquiétudes quant à leurs effets potentiels sur la santé humaine et sur les écosystèmes. Depuis les années 2000, certains PFAS ont donc progressivement été intégrés aux programmes de surveillance environnementale et sanitaire et font désormais l’objet de réglementations internationales. Mais est-ce vraiment suffisant ?
Pourquoi les industries utilisent-elles des PFAS ?
- Les composés per- ou polyfluoroalkylés sont utilisés depuis les années 1950 pour une multitude d’applications industrielles, domestiques et agricoles, notamment du fait de leur grande stabilité thermique et chimique. Cette remarquable stabilité rend certains PFAS très persistants dans l’environnement, ce qui leur vaut justement le surnom de « polluants éternels ».
La face cachée de l’iceberg
Aujourd’hui, les mesures mises en place ne concernent que quelques dizaines de composés, notamment le PFOS et le PFOA. Pourtant, les PFAS ne se limitent pas à une poignée de molécules bien connues, mais correspondent bien à des milliers de composés de structures variées.
Ainsi, de nombreux PFAS échappent aux analyses ciblées communément réalisées, qui risquent donc de sous-estimer la contamination réelle.
Pourquoi s’intéresser aux organismes marins ?
Au-delà des exigences réglementaires, l’analyse des organismes marins permet d’identifier et de caractériser l’ensemble des composés capables de s’accumuler dans les organismes au fil du temps (bioaccumulables) ou de se concentrer le long de la chaîne alimentaire (bioamplifiables).
Le PFOS, notamment, est généralement présent à des concentrations plus élevées dans les espèces en haut de la chaîne alimentaire, telles que les mammifères marins, que dans les espèces en bas de la chaîne alimentaire, telles que les moules. Il est donc considéré bioamplifiable.
Des analyses qui permettent de voir plus large
Nos travaux menés à l’Ifremer ont permis de rechercher simultanément des centaines de PFAS dans les moules et dans les huîtres de côtes françaises, en mettant en œuvre une méthode analytique de pointe, la spectrométrie de masse à haute résolution. Au total, près de 80 PFAS différents ont été détectés dans ces organismes, incluant des composés connus et réglementés, comme le PFOS et le PFOA, mais également de nombreux autres échappant aux programmes de suivi et à la réglementation.
Ces travaux ont également permis d’identifier des zones fortement contaminées, présentant une grande diversité de PFAS à des concentrations plus élevées : les estuaires de grands fleuves (Seine, Loire et Rhône) et les zones fortement industrialisées, telles que l’étang de Berre (Bouches-du-Rhône) sur la côte méditerranéenne.
Quelle part représente la face cachée de l’iceberg ?
Les analyses menées ont également révélé que des PFAS non suivis et non réglementés sont parfois présents à des concentrations élevées dans les organismes marins. Parmi eux se trouve le 6:2 fluorotélomère sulfonamide bétaïne (6:2 FTAB), un composé abondamment utilisé dans les émulseurs anti-incendie et largement ignoré dans les programmes de surveillance. Ce composé a été détecté à des niveaux souvent supérieurs à ceux des PFAS connus et réglementés, comme le PFOS.
Les quatre PFAS soumis à la réglementation UE 2023/915 de la Commission européenne (PFOS, PFOA, PFNA et PFHxS), présentaient des concentrations globalement inférieures aux seuils fixés pour la consommation humaine. Par exemple, dans les moules bleues analysées, ces quatre composés réglementés étaient détectés à des niveaux près de vingt fois inférieurs à la valeur seuil définie par la Commission européenne.
En revanche, lorsque l’ensemble des PFAS détectés était pris en compte, les concentrations totales atteignaient des valeurs plus de 70 fois supérieures à celles du seuil des quatre composés réglementés. Ces résultats révèlent une contamination bien plus importante et complexe que celle des composés sujets à une réglementation et mesurés par les suivis traditionnels.
Est-ce que la face cachée de l’iceberg présente un risque pour l’environnement et l’humain ?
La toxicité de la majorité des composés détectés reste à ce jour inconnue, et il est donc impossible d’évaluer précisément le risque qu’ils représentent pour l’environnement et pour la santé humaine.
En revanche, nous savons que plusieurs des PFAS détectés sont des précurseurs, c’est-à-dire qu’une fois dans l’environnement, ils peuvent se dégrader en d’autres PFAS plus persistants appelés « produits terminaux ». Les composés les plus connus et réglementés sont justement des produits terminaux, tels que le PFOS et le PFOA.
Dans le cadre de nos travaux menés à l’Ifremer, des espèces situées à différents niveaux des chaînes alimentaires du bar européen et de la sole commune provenant de l’estuaire de la Seine ont également été étudiées. Ces espèces comprenaient des coquillages, des crustacés et des poissons.
Les résultats obtenus montrent que les concentrations de ces composés précurseurs ont tendance à diminuer du bas vers le haut de la chaîne alimentaire, tandis que celles des produits terminaux augmentent. Les espèces en haut de la chaîne alimentaire, notamment celles possédant un foie, semblent donc pouvoir dégrader certains précurseurs.
Ces observations mettent en évidence les limites des suivis et des réglementations actuels, qui ne concernent qu’un nombre restreint de PFAS et ne tiennent pas compte des transformations chimiques qui peuvent se produire dans l’environnement et au sein des organismes.
Ces résultats posent également question sur l’exposition de l’humain à travers la consommation de produits de la mer, notamment d’espèces basses dans la chaîne alimentaire, telles que les coquillages qui contiennent des proportions élevées de précurseurs, dont la toxicité est encore peu connue.
Une fois consommés, ces précurseurs non suivis et non réglementés pourraient être dégradés en produits terminaux et donc participer à l’exposition humaine à des PFAS dont la toxicité est avérée, tels que le PFOS. Ainsi, la vision actuelle de la contamination de l’humain et l’environnement par les PFAS, ainsi que les risques associés, reste partielle et bénéficierait de la prise en compte d’un plus grand nombre de substances.
Vers une meilleure gestion des PFAS
Pour permettre une évaluation complète des risques associés aux PFAS dans leur ensemble, il sera donc essentiel à l’avenir de conduire des études écotoxicologiques spécifiques sur ces précurseurs et sur leurs produits de transformation.
En ce qui concerne la réglementation, des évolutions sont en cours. En 2023, le Danemark, la Suède, la Norvège, la Finlande et l’Allemagne ont soumis à l’Agence européenne des produits chimiques (ECHA) une proposition visant à réglementer à l’échelle européenne la fabrication, l’utilisation et la vente d’environ 10 000 PFAS. Cette initiative qui a été soutenue par la France illustre un nouveau tournant dans la prise de conscience et la gestion de la contamination par les PFAS dans sa globalité.
Ninon Serre a reçu des financements de l'Ifremer et de la région Pays de la Loire.
Yann Aminot a reçu des financements de l'Office Français de la Biodiversité (OFB) et de la région Pays de la Loire.
26.03.2026 à 15:42
Réemploi des matériaux : Pourquoi est-ce si compliqué dans le bâtiment ?
Texte intégral (3234 mots)

Dans le bâtiment, donner une seconde vie aux matériaux relève encore du parcours du combattant, et ce, malgré des bénéfices environnementaux avérés.
Premier producteur de déchets en France, loin devant les ménages, le secteur du bâtiment génère chaque année près de 42 millions de tonnes de déchets, soit environ 15 % des déchets nationaux. Béton, briques, tuiles, plâtre, menuiseries : ces matériaux issus des chantiers de construction et de démolition constituent pourtant un gisement colossal de matériaux de seconde vie encore largement sous-valorisé.
Face à cet enjeu, les pouvoirs publics ont choisi de s’appuyer sur un instrument bien connu des politiques environnementales : le principe du pollueur-payeur, décliné depuis mai 2023 sous la forme d’une responsabilité élargie du producteur (REP) pour les produits et matériaux de construction du bâtiment (PMCB), aujourd’hui largement critiquée.
Mais derrière ce dispositif réglementaire se joue un choix politique majeur : continuer à privilégier le recyclage des déchets du bâtiment ou encourager le réemploi des matériaux de seconde vie. Dans un cas, on concasse, on transforme. Dans l’autre, on dépose et on réintègre. Deux approches de l’économie circulaire avec des impacts environnementaux bien différents.
Qu’est-ce que la REP ?
Le principe de la REP est simple : les entreprises qui mettent sur le marché des matériaux de construction doivent financer leur fin de vie au moyen d’une éco-contribution intégrée au prix de vente. Ces fonds sont ensuite collectés auprès de ceux qui mettent les matériaux sur le marché et gérés par des éco-organismes agréés par l’État, chargés d’organiser et de financer leur collecte, leur tri et leur valorisation.
Avant la REP, la gestion des déchets du bâtiment reposait largement sur les entreprises de travaux qui intervenaient sur les chantiers : elles devaient contractualiser directement avec des opérateurs, assumer les coûts de collecte, de transport et de traitement, et organiser elles-mêmes le tri sur les chantiers, dans un cadre souvent hétérogène selon les territoires, ce qui favorisait parfois les dépôts sauvages.
Sur le papier, la REP devait donc apporter une contrepartie claire : une reprise facilitée, voire gratuite, des déchets de chantier en échange d’une contribution intégrée au prix des matériaux neufs. Dans la pratique, toutefois, la mise en œuvre de ce principe s’est révélée plus complexe.
REP Bâtiment : qui fait quoi ?
- Quatre éco-organismes, agréés par l’État, se partagent aujourd’hui la mise en œuvre de la REP Bâtiment en France.
- Valobat traite l’ensemble des catégories de produits et matériaux ;
- Ecominéro intervient essentiellement sur les produits minéraux (béton, gravats, tuiles, briques…) ;
- Ecomaison et Valdelia couvrent les autres produits et matériaux non minéraux (bois, plastiques, menuiseries, isolants…).
- Leurs actions sont coordonnées par l’OCAB (Organisme coordonnateur agréé pour la filière bâtiment), qui harmonise les règles entre filières, répartit les obligations de collecte sur le territoire et propose un guichet unique aux acteurs concernés.
Un dispositif encore difficilement opérationnel sur le terrain
Premier écueil : le nombre de points de reprise des déchets. Alors que l’objectif était de proposer un maillage dense et accessible, la réalité demeure contrastée. En mars 2025, sur environ 6 385 points recensés, à peine 1 000 acceptaient effectivement l’ensemble des sept flux de déchets définis par la loi.
Deuxième source de friction : le montant des écocontributions. La REP devait, en principe, compenser les coûts d’évacuation des déchets par la gratuité de la reprise, sous réserve du tri et du dépôt dans des points agréés. Or, le déploiement du réseau des points de reprise s’est accompagné d’une montée en charge rapide des budgets des éco-organismes : 121 millions d’euros en 2023, 170 millions en 2024, avec une projection à 610 millions d’euros en 2027 selon un rapport du Sénat.
Ces budgets étant alimentés par les écocontributions versées par les metteurs sur le marché, leur montée en charge s’est mécaniquement traduite par une hausse des écocontributions intégrées au prix de vente des matériaux neufs.
À titre d’illustration, selon le barème Valobat de 2025, l’écocontribution applicable aux briques en terre cuite s’établissait à 1,88 euro par tonne commercialisée, contre 14,48 euros par tonne pour certains panneaux en bois biosourcé. Si cette augmentation peut s’expliquer par les coûts de structuration d’une filière encore récente, elle a pour effet immédiat d’alourdir le coût des matériaux, sans que l’amélioration du service de reprise soit uniformément perceptible sur le terrain. Pour beaucoup d’entreprises, la REP apparaît ainsi comme une charge supplémentaire dans un secteur déjà sous tension.
« La REP PMCB est un échec. Nos entreprises payent 3 % de plus sur leurs matériaux pour un service proche de zéro. Et doivent finalement repayer derrière pour la récupération des déchets. Le moratoire ne donne rien. C’est même pire qu’avant. Cessons l’acharnement thérapeutique, il faut tout reprendre à zéro ! », déclarait Olivier Salleron, le président de la Fédération française du bâtiment.
Troisième fragilité : l’opacité du dispositif. Les fédérations professionnelles pointent l’absence de données lisibles sur l’utilisation des fonds, les coûts réels de collecte des déchets et les performances environnementales obtenues. Cette opacité nourrit une défiance croissante envers les éco-organismes. Elle affaiblit aussi l’acceptabilité économique du dispositif et la propension des acteurs à s’y conformer. D’autant que certaines collectivités continuent d’assurer la collecte et le tri sans compensation, tandis que d’autres voient leurs demandes de contractualisation refusées, laissant s’accumuler les flux en déchetterie.
Ces dysfonctionnements ont fini par rattraper le dispositif. « Il y a trop de prélèvements au regard du financement assuré par la REP, pas de visibilité sur leur devenir et une performance environnementale défaillante. Une grande partie des déchets est incinérée ou exportée, et non recyclée », constatait en décembre dernier le ministre délégué Mathieu Lefèvre. Un constat qui fait suite à la décision, quelques mois plus tôt, de l’État de mettre la filière sous moratoire jusqu’à mi-2026, avec l’ambition affichée de « refonder » le dispositif pour en garantir la soutenabilité économique.
L’annonce des premières orientations, le 19 février dernier, des premières orientations marque ainsi une tentative de traduction opérationnelle de cette refonte.
Parmi les mesures avancées figure le renforcement du maillage territorial des points de reprise, en s’appuyant prioritairement sur les déchetteries professionnelles, afin de mieux couvrir les besoins et de soulager les collectivités d’une charge jugée excessive. Le pilotage serait régionalisé, avec des dispositifs spécifiques prévus pour les « zones blanches ». Autre axe majeur : la baisse des coûts, via une réorientation des flux financiers (et des écocontributions) vers les matériaux dits « non matures » – plastiques, laines minérales, membranes – afin de structurer leurs filières de recyclage.
Ces annonces répondent principalement aux difficultés de financement et d’organisation du recyclage. Mais on peut encore s’interroger sur la place accordée au réemploi dans le dispositif.
Le réemploi, parent pauvre de la REP
Si le recyclage – qui consiste à transformer le déchet en matière première secondaire – est aujourd’hui industriellement structuré et largement pratiqué, le réemploi – l’utilisation d’un matériau de seconde vie tel quel ou après remise en état – demeure marginal.
Les gains environnementaux associés au réemploi sont pourtant solidement documentés. Une étude scientifique de 2024 comparant des produits de construction réemployés à leurs équivalents neufs montre que le réemploi réduit significativement les impacts environnementaux, principalement en évitant l’étape de production des matériaux neufs, généralement la plus émettrice. L’exemple des briques est particulièrement éclairant : une analyse du cycle de vie menée dans le cadre d’un projet européen montre qu’un mur en briques réemployées présente une empreinte environnementale nettement inférieure à celle d’un mur en briques neuves, y compris lorsque ces dernières sont recyclées en fin de vie. L’écart tient principalement à l’évitement de la phase de cuisson, procédé particulièrement énergivore et fortement émetteur de CO2.
Or, dans les faits, le recyclage capte l’essentiel des gisements et des financements. Plus simple à organiser, plus compatible avec les logiques industrielles existantes et mieux soutenu par les dispositifs actuels, il tend à reléguer le réemploi au second plan. Le cadre réglementaire demeure historiquement structuré autour du traitement des déchets plutôt que de leur évitement.
L’arrêté du 10 juin 2022, qui fait office de cahier des charges pour la REP, fixait pourtant un objectif de 5 % de réemploi à l’horizon 2028, sur un gisement estimé à 21 millions de tonnes par an – un objectif qui paraît aujourd’hui difficilement atteignable au regard des résultats observés.
Les données de l’Ademe, portant sur environ 11 000 producteurs adhérents, illustrent ce déséquilibre :
182 millions de tonnes de matériaux ont été mises sur le marché en 2024 ;
10,7 millions de tonnes de déchets ont été collectées ;
Le réemploi plafonne à 29,3 kilotonnes, soit moins de 0,3 % des tonnages collectés.
Les raisons du non-réemploi
Pourquoi, dès lors, le réemploi demeure-t-il marginal malgré les objectifs affichés ? Notre étude de terrain, publiée dans Business Strategy & the Environment, menée en 2025 auprès de 69 professionnels du bâtiment (maîtres d’ouvrage, architectes, constructeurs, bureaux de contrôle, laboratoires…) montre que le réemploi des matériaux inertes – briques, dalles béton, pavés, tuiles –, qui représente 80 % des déchets du bâtiment, ne bute pas sur un seul problème technique, mais sur une accumulation de contraintes qui se déploient tout au long de la chaîne de valeur, depuis la programmation jusqu’à la mise en œuvre sur le chantier.
Prenons l’exemple d’un promoteur immobilier qui souhaite intégrer, dans une nouvelle opération, des briques issues d’un ancien immeuble qu’il n’a pas construit et dont il connaît mal l’histoire. Dès la phase de cadrage, les premières difficultés apparaissent. Les diagnostics déchets – désormais obligatoires – suffisent à dire que ces briques peuvent être recyclées, mais ne permettent pas de documenter leur réemploi : on ne connaît ni leur état réel, ni leur mode de fixation, ni leur résistance résiduelle, ni leur exposition passée à l’humidité ou au gel.
Résultat : l’architecte ne sait pas si ces briques pourront être utilisées en façade porteuse ou seulement en parement décoratif. Le doute porte sur des risques très concrets : fissures, perte de résistance mécanique, non-conformité aux exigences actuelles.
Vient ensuite le verrou de la conformité des matériaux. Qui supporte le risque si un matériau se révèle non conforme ? Le maître d’ouvrage ? L’entreprise chargée de la dépose ? Le revendeur ? Faute de règles et de recommandations professionnelles, la responsabilité reste un élément bloquant. Chacun se protège.
Dans le doute, les briques sont très souvent écartées – non parce qu’elles seraient inutilisables, mais parce qu’aucun cadre clair ne permet d’en sécuriser l’usage. Le risque n’est pas seulement juridique : c’est aussi celui d’un refus en contrôle, d’un retard de chantier, ou de surcoûts liés à des essais supplémentaires en laboratoire, qui finissent par désavantager économiquement les matériaux réemployés face aux produits neufs certifiés.
Enfin, la réalité du chantier rattrape les intentions. Déposer des briques sans les casser prend du temps. Il faut ensuite repérer les gisements disponibles, les trier, reconditionner les lots sélectionnés, les stocker. Or, les calendriers des opérations de déconstruction et de construction coïncident rarement : des briques peuvent être disponibles aujourd’hui, alors que le chantier susceptible de les réemployer ne démarrera que dans six mois. Sans solution de stockage tampon ni logistique organisée, le gisement repéré se perd.
Sous la pression des délais, les entreprises se replient sur des matériaux neufs, jugés plus simples à intégrer, tandis que les reconditionneurs – qui travaillent sur des flux diffus, hétérogènes, à faible tonnage mais à forte intensité de main-d’œuvre – jugent les soutiens des éco-organismes insuffisants.
Ce décalage crée un effet d’éviction : même lorsque le réemploi est plus vertueux sur le plan environnemental, il devient économiquement moins attractif que l’orientation rapide des matériaux vers les filières de recyclage, dont le modèle économique repose sur des soutiens financiers de la REP calculés à la tonne, ce qui favorise les volumes élevés.
Le paradoxe est là : la REP est avant tout conçue pour collecter et trier des déchets. Tout est organisé pour alimenter des filières de recyclage déjà en place. À l’inverse, le réemploi suppose d’agir plus tôt : identifier les matériaux en amont des opérations de déconstruction (ou de réhabilitation), organiser leur dépose sans casse, leur stockage temporaire et leur remise sur le marché. Or ces étapes amont sont encore peu financées et peu outillées par la REP. Résultat : le système favorise mécaniquement le recyclage de masse et laisse le réemploi en marge.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.03.2026 à 11:52
Pourquoi existe-t-il autant de cactus ? La clé de ce mystère ancien serait dans leurs fleurs
Texte intégral (1957 mots)
« Dans la vie, il y a des cactus », chantait Jacques Dutronc. Il y en a même beaucoup d’espèces différentes : les cactus, champions de la lenteur de croissance, comptent parmi les groupes de plantes se diversifiant le plus vite au monde. Pourquoi certaines familles de plantes évoluent-elles rapidement quand d’autres, au contraire, stagnent ? Même Darwin s’est, en son temps, cassé les dents sur ce mystère. Une étude s’est intéressée aux fleurs de cactus, qui pourraient détenir la clé de l’explication.
La question de savoir pourquoi certaines branches du vivant se diversifient en milliers d’espèces, tandis que d’autres restent peu ramifiées, a façonné la biologie évolutive depuis Charles Darwin.
Mon collègue et moi avons publié une nouvelle étude sur les fleurs de cactus qui pourrait aider à élucider ce mystère ancien.
Depuis plus d’un siècle, les scientifiques considèrent que les fleurs adaptées à un pollinisateur ou à un environnement donné sont les moteurs de l’évolution et créent alors une nouvelle diversité. Nos recherches remettent en question cette idée, ce qui pourrait changer la façon dont les scientifiques appréhendent les forces à l’origine de la biodiversité dans le monde végétal.
La famille des cactus, exceptionnellement diversifiée mais comptant parmi les groupes végétaux les plus menacés au monde, offre un exemple frappant de la manière dont certaines lignées évolutives prospèrent, tandis que d’autres peinent à survivre.
Les cactus sont l’incarnation même de la croissance lente. Un saguaro imposant peut mettre une décennie à grandir d’un centimètre, et le peyotl psychédélique met des décennies à atteindre sa maturité. Pourtant, la famille des cactus est l’un des groupes végétaux qui évolue le plus rapidement sur Terre. Au cours des 20 à 35 derniers millions d’années, environ 1 850 espèces de cactus ont vu le jour.
Bien que cela puisse sembler lent, à l’échelle géologique, c’est un clin d’œil. À titre de comparaison, environ un quart des 415 autres familles de plantes à fleurs comptent cinq espèces ou moins. Ces familles de plantes ne se sont jamais diversifiées aussi rapidement que les cactus.
On imagine souvent les déserts comme des paysages immuables et impitoyables, mais ils peuvent être le théâtre d’une innovation évolutive rapide.
Les scientifiques ont établi un lien entre la grande diversité des espèces de cactus et la spécialisation des pollinisateurs, selon laquelle les fleurs de cactus s’adaptent à des pollinisateurs particuliers, tels que les abeilles, les papillons de nuit ou les colibris. Une autre théorie attribue le succès évolutif des cactus à l’expansion des déserts au cours des 30 derniers millions d’années, alors qu’une grande partie des Amériques est devenue plus sèche et plus dégagée.
Les cactus semblaient correspondre parfaitement à cette idée. Leurs fleurs vont de petites fleurs discrètes à de grandes fleurs qui s’épanouissent la nuit. Certaines sont pollinisées par les abeilles, d’autres par les colibris, les papillons de nuit ou les chauves-souris.
Les fleurs de cactus sont éphémères et magnifiques. Elles ne durent souvent que quelques jours et sont attendues avec impatience par les passionnés de cactus. Les fleurs courtes sont généralement associées à la pollinisation par les abeilles, tandis que les formes tubulaires plus longues ont évolué à plusieurs reprises pour s’adapter aux chauves-souris, aux colibris et aux papillons de nuit.
Cependant, mon étude de 2024, qui a porté sur un échantillon d’espèces bien plus large que les études précédentes, a révélé que ni l’aridité ni la pollinisation – les deux principales hypothèses avancées pour expliquer la diversité des cactus – ne constituaient une explication convaincante de la biodiversité des cactus. Cela a remis en cause une idée établie de longue date, remontant à Darwin, qui suggérait que des fleurs spécialisées, c’est-à-dire parfaitement adaptées à leur environnement, pouvaient favoriser la formation de nouvelles espèces végétales.
Mes collègues et moi-même avons récemment publié une base de données écologique sur les cactus (CactEcoDB), qui fournit des données sur les caractéristiques et les arbres phylogénétiques des cactus afin d’aider les chercheurs à comprendre leurs origines et leur futur. Lorsque nous avons analysé ces données dans un article récent publié dans la revue Biology Letters, nous avons découvert une tendance inattendue. Nous avons compilé des données sur la longueur des fleurs de plus de 750 espèces de cactus, révélant une gamme extraordinaire, allant de fleurs de deux millimètres à des fleurs de la taille d’une grande assiette. Cette variation reflète une adaptation à des pollinisateurs très différents.
En analysant l’arbre phylogénétique des cactus, nous avons observé que la vitesse à laquelle la taille des fleurs évolue est le moteur de la formation de nouvelles espèces, tant à l’échelle des temps récents qu’à celle des temps évolutifs lointains. La sélection naturelle ne semble privilégier aucune taille de fleur en particulier. Elle a néanmoins provoqué, tout au long de l’arbre évolutif des cactus, des vagues répétées de changements rapides vers des tailles différentes.
La conclusion est simple mais puissante : ce n’est pas la présence d’un type de fleur ou d’un pollinisateur en particulier qui détermine l’évolution des cactus. C’est la vitesse à laquelle l’évolution des types de fleurs se produit, quel qu’en soit le résultat, petites ou grandes fleurs. Les espèces aux fleurs plus petites ou plus grandes peuvent rapidement donner naissance à de nouvelles espèces de cactus, à condition qu’elles aient évolué rapidement au cours de leur histoire évolutive.
Pourquoi c’est important
Ceci a des conséquences pour la conservation des espèces. Notre étude suggère que la capacité d’une plante à évoluer, essentielle pour survivre à des périodes de changements environnementaux et d’extinctions – comme celle que connaît actuellement la Terre –, est plus importante que n’importe quelle adaptation spécifique.
La protection de la biodiversité ne consiste pas seulement à sauver les espèces que nous observons aujourd’hui, mais aussi à préserver le potentiel évolutif qui permet l’apparition de nouvelles espèces. Certaines espèces peuvent sembler stables ou banales aujourd’hui, mais recèlent ainsi un immense potentiel d’évolution à l’avenir.
Près d’un tiers des espèces de cactus sont aujourd’hui menacées d’extinction. C’est l’un des taux les plus élevés parmi tous les groupes végétaux, et nous risquons de perdre des lignées évolutives entières de cactus, pas seulement des espèces.
Protéger les cactus, et la nature en général, consiste ainsi à protéger le processus évolutif continu qui permet à la vie de s’épanouir dans certains des environnements les plus hostiles de la Terre.
Jamie Thompson a reçu des financements de The Leverhulme Trust.
26.03.2026 à 11:51
1,3 milliard de photos : les dessous de PlantNet, l’application qui séduit les curieux et aide les scientifiques
Texte intégral (3468 mots)

On l’appelle souvent le « Shazam des plantes ». Avec une simple photo, elle permet à qui le veut d’identifier une plante. L’application mobile PlantNet est aujourd’hui bien connue des randonneurs ou des curieux du monde entier qui veulent identifier une plante. Mais peu savent que cet outil est également précieux pour les scientifiques, pour lesquels elle a été initialement conçue.
Détection des espèces de plantes invasives, carte des allergies au pollen, découverte potentielle de nouvelles espèces, les possibilités des données collectées par ses utilisateurs sont aussi nombreuses que prometteuses. Retour, avec le botaniste Pierre Bonnet (Cirad) et le chercheur en informatique Alexis Joly (Inria), deux des concepteurs de l’application, sur cet outil qui a permis à certains de jouer à Pokémon Go avec les plantes et à d’autres de faire avancer les connaissances.
The Conversation : Que sait-on des utilisateurs actuels de PlantNet ?
Pierre Bonnet et Alexis Joly : Une étude d’impact réalisée il y a quelques années identifiait 12 % d’utilisation professionnelle, que ce soit pour la recherche, la gestion du territoire, pour l’agriculture ou bien l’enseignement. L’immense majorité des utilisateurs de PlantNet l’utilise donc par curiosité ou par intérêt personnel.
Si, on regarde maintenant qui utilise PlantNet et où dans le monde, on voit que cela reflète les usages des technologies dans le monde. En Asie, on a pas mal d’usagers jeunes, car ce sont eux qui sont les plus connectés. On peut aussi constater que la flore chinoise, qui est pourtant très riche, est très peu représentée à travers les usagers de l’application, et cela s’explique notamment par le fait que les plateformes non étatiques ou non chinoises, qui ne sont pas portées par des entreprises ou partenaires chinois, pénètrent beaucoup moins ce marché-là.
Les zones tropicales sont les plus riches en biodiversité, est-ce que PlantNet est particulièrement présent dans ces pays ?
P. B. et A. J. : Le Brésil est en huitième position avec un peu plus de 600 000 utilisateurs annuels. L’Indonésie et l’Inde sont, elles, dans le top 20. Actuellement, le gros de l’activité de PlantNet est encore en Europe et en Amérique du Nord. Plusieurs choses expliquent cela. Déjà, PlantNet a été amorcé en France et en Europe, et a donc été davantage promu et médiatisé dans cette région du monde. En suivant les demandes de ses usagers, l’application a aussi été, dans un premier temps, adaptée à la flore française et méditerranéenne avant d’être, petit à petit, étendue à d’autres flores européennes, puis nord-américaines, puis tropicales.
Il faut aussi avoir en tête qu’en zone tropicale, la richesse en espèces est, certes, beaucoup plus élevée, mais les capacités d’accès sont souvent plus limitées. Le réseau routier est moins développé, la connectivité 3G peut être mauvaise, notamment en zones montagneuses forestières.
Sur le terrain, la biodiversité végétale peut aussi être plus complexe à photographier, si l’on pense, par exemple, aux nombreuses plantes tropicales qui sont épiphytes, c’est-à-dire qui poussent sur une autre plante, notamment au niveau de la canopée. Quand on parle d’arbres qui font plusieurs dizaines de mètres de haut, cela devient tout de suite plus complexe à photographier.
Tout cela fait que la flore tropicale reste considérablement moins connue. La flore européenne est couverte presque à 100 % par PlantNet. Pour celle des pays tropicaux, on se situe à quelques dizaines de pour cent. Cette réalité n’est cependant pas propre à PlantNet, on la retrouve également dans l’ensemble des bases de données institutionnelles, notamment car cela coûte plus cher de couvrir les zones tropicales.
Mais l’on travaille malgré tout avec des partenaires, au Costa Rica, en Guyane, au Brésil, au Cameroun, à Madagascar, en Malaisie, notamment pour étendre la couverture du nombre d’espèces.
Sous les tropiques ou ailleurs, que peut-on noter sur les plantes que les utilisateurs cherchent à identifier ? Les plantes les plus courantes sont-elles les plus demandées ou pas forcément ?
P. B. et A. J. : Il y a forcément une corrélation, car les plantes très rares sont forcément peu observées. Mais on constate également que certaines plantes sont très communes, mais intéressent peu, car elles sont « discrètes ». Cela peut être les adventices (mauvaises herbes, ndlr) des cultures, les plantes qu’on trouve en bord de route mais qui n’ont pas de fleurs remarquables, qui sont pollinisées par le vent avec des fleurs grêles verdâtres, telles que les espèces de fétuques (Festuca spp.), ou de bromes (Bromus spp.). Elles sont moins observées parce qu’elles sont moins attractives en fait. On peut aussi noter qu’on a une bonne représentation des arbres là où certaines herbacées ou plantes épiphytes vont être extrêmement peu observées.
Les gens observent en fait souvent les plantes qui leur plaisent, ou les plantes qui leur semblent utiles. On a comme ça beaucoup de requêtes sur les fruits, les baies, les prunes, sans doute parce que les gens veulent savoir si elles sont consommables ou pas.
Mais cet enjeu des plantes utiles pour l’humain n’était, au départ, pas du tout l’objectif principal du projet PlantNet. On a cependant dû se l’approprier pour répondre à un usage attendu de ce côté-là, mais on reste modéré dans le volume d’informations que l’on donne.
En parallèle, on travaille de plus en plus avec des personnes qui étudient la santé animale, soit en santé humaine et qui utilisent le service ou les données de PlantNet pour leurs propres travaux. On a comme cela des personnes qui ont travaillé sur ToxiPlant qui identifie les plantes toxiques pour les chevaux. On échange aussi avec des médecins sur les cas d’usage de PlantNet pour identifier les plantes allergisantes, notamment celles générant des allergies cutanées. On a également des échanges avec l’agence régionale de suivi de la qualité de l’air, ATMO Occitanie, qui utilise les données qu’on partage avec elle sur les plantes en fleurs recensées à travers PlantNet et qui les intègre dans ses modèles d’estimation de la qualité de l’air liés à la charge pollinique.
Y a-t-il certaines plantes qui gagneraient à être davantage prises en photo ?
P. B. et A. J. : Oui. Il y a des plantes qui nous intéressent, ou qui intéressent nos partenaires, mais pour lesquelles on a très peu de données. Ce sont, par exemple, des plantes allergisantes pour les allergies respiratoires, comme les genévriers mâles, qui, lorsque leurs cônes sont ouverts, libèrent le pollen.
Ces cônes sont très discrets. Les genévriers sont donc photographiés, mais rarement avec des illustrations permettant de connaître le stade de développement des cônes. Ils suscitent pourtant des allergies, donc certains de nos partenaires voudraient collecter des données à ce sujet. On espère y remédier à travers des mécanismes d’animations soit directement à travers la plateforme, soit à travers les réseaux sociaux pour susciter de l’intérêt pour la collecte de données sur ce type de plantes ou bien sur des plantes rares qui sont menacées et pour lesquelles il y a des enjeux de conservation, telles que Marsilea strigosa Willd. et Arenaria provincialis Chater & P. Halliday.
On a aussi le cas de certaines plantes qui nous intéressent pour l’agriculture, des adventices, par exemple, qu’on a peu identifiées au stade de jeunes pousses, telles qu’Imperata cylindrica (L.) Raeusch. ou que Galium aparine L.
Pour identifier une plante, votre application propose de prendre plusieurs types de photos : des photos de fleurs, de feuille, de fruit, d’écorce, de la plante entière. Quels sont les types de données que vous avez le plus ?
P. B. et A. J. : Ce sont les fleurs, notamment parce que les périodes où PlantNet est le plus utilisé sont les saisons de nombreuses floraisons, le printemps, le début de l’été. Les fleurs sont alors des motifs attractifs qui déclenchent l’observation. Ce sont aussi les clés visuelles les plus performantes, celles qu’ont beaucoup utilisées les botanistes dans le passé.
Sur PlantNet, après les fleurs, on constate un degré de performance décroissant avec les fruits, les feuilles et ensuite les rameaux et écorces, qui sont plus difficiles parfois aussi à prendre en photo, même si l’on encourage toujours les utilisateurs à utiliser plusieurs critères (fleur et fruit, fleur et feuille…) à chaque fois pour maximiser leur chance d’identification correcte.
Que se passe-t-il si PlantNet ne trouve pas de correspondance entre la photo prise et une espèce connue ?
P. B. et A. J. : La gestion de l’ignorance reste un problème très difficile pour toutes les IA, celle de PlantNet ne fait pas exception. Certaines espèces sont très peu représentées, et il est très dur d’apprendre au modèle à faire la différence entre quelque chose qui est très rare dans la base de données d’apprentissage et quelque chose qu’on n’a pas du tout. On cherche du coup plutôt à quantifier l’incertitude, décider quand le modèle est incertain ou pas. On travaille avec notre équipe sur la création d’intervalles de confiance. C’est pour cela que, dans ces cas-là, l’application proposera plusieurs espèces.
Mais une réalité rend ce travail difficile : les nouvelles espèces ressemblent souvent à des espèces déjà connues. On pense qu’une nouvelle espèce va être très folklorique visuellement, mais ce n’est pas nécessairement le cas.
Il y a aussi la problématique des plantes ornementales, hybrides. Il y a toujours des créations de plantes. On les couvre, mais moins bien que le reste actuellement, même si on essaie de pallier cette difficulté.
On tâche aussi tout simplement de recenser de plus en plus de plantes. PlantNet couvre aujourd’hui 85 000 espèces sur les 400 000 estimées, sachant qu’on en découvre 2 000 nouvelles par an. Ces découvertes sont faites par des taxonomistes du monde entier, notamment via le réseau World Flora Online, qui regroupe plusieurs dizaines d’universités, d’herbiers, de jardins botaniques, et que PlantNet a rejoint en 2025.
En se rapprochant de ces réseaux-là, on va pouvoir améliorer les cas où PlantNet a de faibles performances, notamment lorsque des espèces nouvelles émergent grâce au travail de ce réseau de taxonomistes qui fait progresser la connaissance en divisant, par exemple, ce qu’on pensait jusque-là être une seule espèce, mais qui en représente, en fait, plusieurs ou, à l’inverse, en regroupant ce qu’on pensait être différentes espèces mais qui se révèle en réalité n’être qu’une seule plante.
Si l’on revient maintenant aux plus de 10 % d’usagers qui utilisent PlantNet dans le cadre de leur travail, qui sont-ils ? Quels sont ces travaux ?
P. B. et A. J. : Les données de PlantNet sont très utiles pour les modèles de distribution d’espèces qui cherchent à prédire quelles espèces se trouvent où. Il y a certes des biais dans nos données, en fonction de là où les gens vont, là où les gens ne vont pas, mais elles peuvent aider à mieux comprendre les facteurs qui influencent ces distributions, notamment le changement climatique. Cela permet de répondre à des questions comme « Est-ce que les espèces vont se déplacer ou pas » ou « Quel est l’impact humain sur ces distributions ? » Beaucoup d’écologues vont pour cela télécharger les données PlantNet et les coupler à d’autres données pour faire ces modèles de distribution.
Les données de PlantNet peuvent aussi aider aussi pour la détection des espèces envahissantes qui sont souvent notables par leur dimension, leur densité, leur aspect visuel, leur nouveauté, comme Carpobrotus edulis (L.) N.E.Br ou Mirabilis jalapa L. On échange à ce sujet avec l’Office français de la biodiversité, qui s’intéresse à l’usage de caméras embarquées pour détecter la présence de plantes envahissantes, afin de contenir leur expansion dans les zones où elles seraient détectées.
On a aussi des travaux en cours pour mieux caractériser les espèces présentes dans les milieux agricoles et reconnaître les pathogènes végétaux qu’il s’agisse de virus, de bactéries, de champignons…
Y a-t-il eu aussi des usages qui vous ont surpris ?
P. B. et A. J. : La chose la plus surprenante était peut-être de découvrir ce musée hollandais où PlantNet était utilisé pour reconnaître les plantes présentes sur les tableaux.
On a aussi parfois des surprises en voyant des personnes utiliser PlantNet pour identifier un tatouage de plante, le motif végétal d’une toile cirée… Il y a aussi les usages ludiques (par exemple, l’application Explorama ou l’application Geo-Quest qui utilise notre service d’identification automatisé). PlantNet soutient la diversité des usages possibles, non pas en cherchant à les intégrer, mais plutôt en diffusant le service de reconnaissance. On a comme ça plus de 20 000 comptes qui utilisent le service de reconnaissance PlantNet pour intégrer ce service soit dans leur propre application mobile, application web, soit dans leur workflow de traitement de données.
Et quels sont, sinon, les usages qui pourraient être développés de PlantNet à votre avis ?
P. B. et A. J. : On a traité un peu plus de 1,3 milliard de requêtes d’identification. Il y a dans ces données énormément de matières pour caractériser des milieux, des espèces… Cependant, ces données sont encore difficilement exploitables de par leur volumétrie. Il y a probablement à l’intérieur de toutes ces photographies des espèces nouvelles, des données sur des espèces qui n’existent pas ailleurs. Il y a aussi, dans les clichés postés, dans les arrière-plans des plantes photographiées, des informations potentiellement intéressantes sur les communautés associées, sur les milieux dans lesquels ces plantes sont. Ce n’est pas l’objet premier de la photographie, mais ce sont des données potentiellement très intéressantes sur les associations végétales, pour l’instant inexploitées.
On a peu exploité nos données pour étudier l’impact des changements climatiques très rapides actuels. PlantNet a, à cet égard, des données nombreuses sur les cinq à dix dernières années qui pourraient permettre de mieux comprendre comment les plantes réagissent à ces changements rapides. D’une année sur l’autre, on peut noter beaucoup de variabilité, mais, pour l’instant, on a du mal à mesurer cet impact.
Comment un utilisateur de PlantNet peut-il faire pour aider à toutes ces recherches possibles ?
P. B. et A. J. : Ce qui nous aide le plus, c’est d’utiliser la plateforme en s’identifiant, ça augmente nettement les bénéfices pour la recherche. En créant un compte, les gens acceptent des conditions d’usage et facilitent la réexploitation pour la recherche. De plus, plus les données sont de qualités, plus elles sont pertinentes pour les activités de recherches. La géolocalisation est, par exemple, très précieuse. Elle est aussi bénéfique pour l’utilisateur avec une qualité de détermination potentiellement plus élevée.
Pour les chercheurs à travers le monde qui peuvent nous lire, n’hésitez pas à explorer tout le potentiel de PlantNet, que ce soit à travers les données ou services partagés.
Il faut aussi avoir en tête que PlantNet est un consortium ouvert. C’est encore trop peu connu, même si on a eu récemment eu l’adhésion du CNRS, et reçu des demandes d’adhésion d’universités étrangères. Cette adhésion permet à nos adhérents de plus largement bénéficier de la plateforme, et d’y contribuer pour en permettre l’évolution dans leurs domaines d’expertises.
Propos recueillis par Gabrielle Maréchaux.
Pierre Bonnet a reçu des financements de la commission européenne (projets HORIZON GUARDEN - 101060693 et MAMBO - 101060639) ainsi que de l'agence nationale de la recherche (PEPR AgroEcoNum - 22-PEAE-0009).
Alexis Joly a reçu des financements de la commission européenne (projets HORIZON GUARDEN et MAMBO) ainsi que de l'agence nationale de la recherche (PEPR AgroEcoNum).
25.03.2026 à 15:28
Encourager la marche, un gain qui se compte en milliards pour la société française
Texte intégral (1938 mots)
Santé, espace gagné sur les infrastructures routières, autonomie des enfants, économies de voirie… les territoires qui mettent en place des politiques publiques en faveur de la marche en perçoivent des bénéfices socio-économiques plus larges que ceux pensés à première vue. Dans une étude, l’Agence de la transition écologique, Ademe, les a évaluées : les résultats sont édifiants.
Il n’y a pas beaucoup de risque à avancer que la marche est vertueuse. En matière de santé physique et psychologique notamment, toutes les personnes en mesure de marcher en ont fait l’expérience. D’innombrables études étayent ces bienfaits.
Mais sommes-nous conscients, au-delà de cette échelle individuelle, des retentissements bien plus larges que les trajets à pied ont sur la société ? C’est pour répondre à cette question et tenter de quantifier ces bénéfices que l’Agence de la transition écologique (Ademe) a mené une vaste étude. Celle-ci est appuyée sur un important corpus de 130 sources bibliographiques et un comité scientifique constitué de chercheurs, d’associations et de membres de l’administration.
Ce travail avait deux grands objectifs :
d’une part, réévaluer l’ampleur de nos trajets à pied, qui sont en réalité minorés dans les statistiques de par la façon dont ils sont comptabilisés. Les Français marchent en moyenne 1,2 heure (ou soixante-douze minutes) et 3,5 kilomètres par jour.
de l’autre, et c’est tout l’enjeu de cet article, comparer et estimer les bénéfices observés entre des territoires de même type (villes, zones rurales, et périphéries urbaines) selon qu’ils mettent en œuvre ou non des politiques publiques en faveur de la marche.
Ne sont considérés ici que les trajets en extérieur, c’est-à-dire ceux que les politiques publiques sont en mesure d’influencer. Cela peut, par exemple, passer par l’aménagement d’espaces publics plus agréables et plus praticables pour les piétons, y compris les plus vulnérables (enfants, personnes âges ou à mobilité réduite) ou encore par le développement d’activités et de commerces de proximité.
À lire aussi : La marche, premier mode de déplacement en France : ce que disent vraiment les statistiques de mobilité
La démarche, toute scientifique qu’elle soit, ne prétend pas être exempte d’incertitudes ; toutes les dimensions abordées ne sont pas toutes aussi bien documentées. Mais sa conclusion donne un ordre de grandeur impressionnant : les politiques en faveur de la marche font gagner 57 milliards d’euros par an à la société.
Des gains en santé et en productivité
Débutons par le plus intuitif. La marche, c’est avant tout des gains pour la santé. L’étude de l’Ademe valorise à 16,7 milliards d’euros par an de bénéfices pour la société les années de vie gagnées grâce aux politiques favorisant la marche. Elles permettent d’éviter 10 500 décès par an. La marche prévient, en effet, le développement de nombreuses pathologies (maladies cardiovasculaires, diabète, obésité…).
Ces bénéfices sanitaires se traduisent aussi dans les performances au travail. Ainsi, un salarié physiquement actif se montrerait plus concentré (hausse moyenne de sa productivité de 6 à 9 %), plus satisfait au travail (les activités physiques au travail réduiraient le turnover de 25 %) et moins souvent malade (une baisse des absences de 1,5 jour par an en moyenne).
La marche n’est évidemment qu’une partie de l’activité physique réalisée par les salariés et l’étude a estimé que l’effet des politiques en faveur de la marche représentait environ 19,6 milliards d’euros par an gagnés par les employeurs et l’Assurance maladie.
S’ils ne sont pas quantifiés ici, des gains similaires sont observés dans la littérature scientifique sur la meilleure concentration des élèves qui se rendent vers leur établissement scolaire à pied ou à vélo.
À lire aussi : Le vélo, un potentiel inexploité pour améliorer la santé (et le climat)
La marche, moins coûteuse pour la collectivité
Pour une collectivité, d’autres gains tangibles sont observés : l’étude met en évidence le fait que les villes ayant favorisé la marche ont progressivement réduit la place de la voiture. Les trottoirs et les espaces pour les piétons étant moins coûteux au mètre carré que les chaussées, à la fois à construire et à entretenir. Ces villes minimisent alors leurs dépenses de voirie. L’étude chiffre ces économies à 7,5 milliards d’euros par an.
Une meilleure « marchabilité » a des effets également sur l’attractivité de la ville, de ses commerces de proximité, ses marchés et ses cafés de quartier. Ce levier représenterait autour de 870 millions d’euros de retombées économiques par an.
Cela se répercute notamment sur le taux de vacance commerciale, qui s’approche des 5 % dans les villes où plus de 40 % des trajets sont réalisés à pied, alors qu’il dépasse fréquemment les 15 % dans les villes dominées par la voiture.
Or, un euro dépensé dans les commerces de proximité d’un centre-ville génère en moyenne davantage d’emplois et d’activités que s’il l’est dans une zone commerciale périphérique.
À lire aussi : « No parking, no business » en centre-ville : un mythe à déconstruire
Des économies pour les ménages, davantage d’autonomie pour les enfants
À l’échelle des foyers aussi, les retombées sont notables : l’étude estime à 1,9 milliard d’euros par an les économies réalisées par les ménages qui habitent dans une ville où la marche est facilitée. Ce gain tient majoritairement aux économies de carburant des ménages pour leurs propres déplacements.
À cela s’ajoute un deuxième gain, estimé à 2,1 milliards d’euros par an, permis par l’autonomisation des enfants et des personnes qui ne conduisent pas, qui peuvent alors plus aisément se déplacer seuls.
Ceci libère leurs proches de contraintes liées à l’accompagnement et génère un gain de temps et de moindres dépenses de carburant.
À lire aussi : Du car scolaire aux rues piétonnes, repenser le chemin de l’école
Pollution, bruit… le coût des nuisances évitées
Enfin, c’est toute une série d’externalités négatives causées par la place prépondérante de la voiture dans nos villes qui est évitée grâce à la marche.
Les quatre externalités qui ont été monétarisées dans cette étude (diminution des émissions de gaz à effet de serre, de la pollution de l’air, du bruit routier et de la congestion routière) conduisent à une économie nette de 4,8 milliards d’euros par an grâce aux déplacements à pied.
Notons par ailleurs que d’autres externalités négatives liées à l’automobile et donc réduites par la pratique de la marche n’ont pas été incluses ici, comme les économies d’énergie et de matières premières.
À lire aussi : Réduire la vitesse, changer de revêtement… Quelles solutions contre la pollution sonore routière ?
Une marge de progression encore possible
Les bénéfices perçus lorsque l’on encourage la marche sont donc majeurs. Et surtout, ils ont encore une belle marge de progression. Aujourd’hui, les trajets à pied représentent 24 % de nos déplacements et ils sont en augmentation. S’ils atteignent à nouveau 30 % – comme c’était le cas à la fin des années 1980 –, un gain supplémentaire de 35 milliards d’euros par an est possible, estime l’étude.
Pour cela, de nombreux leviers existent :
rendre la marche plus sûre et agréable à l’aide d’aménagements (trottoirs continus et accessibles, zones piétonnes étendues, traversées sécurisées, protection des abords des écoles, végétalisation…),
rapprocher les lieux de vie et d’activité (commerces, écoles, services publics, transports) pour créer ce que les urbanistes appellent « une mixité fonctionnelle ».
Une proximité qui bénéficiera à la fois à la santé des habitants, à la vitalité économique des territoires et à la réduction des émissions de CO₂ et de polluants. Sur tous ces plans, encourager la marche est donc gagnant-gagnant.
Mathieu Chassignet est membre de Lille Demain et Axe Culture.
21.03.2026 à 08:56
Les ZFE sont-elles injustes ? Ce que montrent les simulations de trafic en Île-de-France
Texte intégral (2477 mots)
Parce qu’elles pénaliseraient injustement les ménages les plus modestes, les zones à faibles émissions, ou ZFE, sont aujourd’hui au cœur du débat politique en France, et pourraient être supprimées. Des travaux de simulation du comportement de millions d’usagers et du trafic en Île-de-France livrent un éclairage sur les effets réels de la mesure, tant en matière de pollution de l’air que de répartition des coûts entre les territoires.
Alors que la pollution atmosphérique continue de s’affirmer comme l’un des défis sanitaires majeurs des métropoles européennes, les zones à faibles émissions (ZFE) s’imposent comme un sujet de discorde politique et sociale.
En Île-de-France, où une ZFE couvre Paris et 76 communes voisines, l’interdiction progressive des véhicules les plus polluants (classés selon le système Crit’Air) vise à réduire les émissions de dioxyde d’azote (NO2) et de particules fines de dimensions inférieurs à 2,5 micromètres (PM2,5). Ces deux polluants sont en effet responsables d’une large part des maladies respiratoires et cardiovasculaires.
Pourtant, ce dispositif, présenté comme une solution indispensable à la qualité de l’air, se trouve aujourd’hui au centre d’un débat parlementaire houleux. Sa suppression est ainsi envisagée, au nom d’un caractère présenté comme « injuste » et « inefficace ».
À lire aussi : Les zones à faibles émissions sont-elles inéquitables ?
Un contexte parlementaire explosif
Un projet de loi visant à supprimer les ZFE en France a relancé les tensions.
Les opposants aux ZFE dénoncent une mesure pénalisante pour les ménages modestes, souvent dépendants de véhicules anciens et confrontés à un manque d’alternatives de transport en commun accessibles. À l’opposé, les défenseurs des ZFE rappellent leur rôle crucial dans la lutte contre la pollution : les particules fines sont responsables de 40 000 décès prématurés par an en France, selon Santé publique France.
Face à cette polarisation, nous proposons une approche fondée sur la modélisation pour dépasser les postures idéologiques. Elle permet de s’intéresser conjointement aux comportements de mobilité, à la dynamique du trafic et aux impacts environnementaux de cette mesure. Il s’agit d’évaluer finement l’efficacité réelle des ZFE et les inégalités sociospatiales qu’elles engendrent potentiellement.
Un simulateur de trafic pour modéliser les effets des politiques de transport
Nous avons eu recours à l’outil METROPOLIS, un simulateur de trafic multi-agents à grande échelle que nous avons développé.
Il permet de modéliser le comportement de millions de voyageurs, chacun prenant des décisions quant à l’opportunité de se déplacer, au mode de transport à utiliser (voiture, transports en commun, marche, etc.), à l’itinéraire à emprunter et enfin à l’heure de départ. Chaque voyageur va alors minimiser un coût de déplacement généralisé incluant les coûts monétaires, les coûts de « deshorage » (c’est-à-dire l’ajustement de l’heure de départ pour limiter l’inconfort) et les temps de trajets dépendant de la congestion routière. Cette dernière est endogène : elle est le fruit des décisions individuelles prises par l’ensemble des usagers.
METROPOLIS est régulièrement utilisé dans le cadre académique pour évaluer diverses politiques urbaines. Il est également utilisé pour des applications plus opérationnelles. La Société des grands projets l’emploie ainsi pour anticiper les flux de trafic sur les futures lignes du Grand Paris Express ainsi que sur les services express régionaux métropolitains en développement. Des applications ont également été mises en œuvre à Québec (Canada) par l’Université Laval.
Les résultats que nous présentons ici s’appuient sur des simulations réalisées avec METROPOLIS pour évaluer la ZFE en Île-de-France, dans le cadre d’un scénario d’interdiction des véhicules classés Crit’Air 3 ou pire, théoriquement en vigueur depuis janvier 2025. Il est à noter que le scénario de référence que nous avons adopté s’entend en l’absence totale de ZFE.
Des effets positifs sur la congestion routière et la pollution de l’air
De fait, la mise en place d’une zone à faibles émissions modifie à la fois le volume du trafic et les comportements de déplacement. Certains conducteurs optent alors pour les transports en commun ou des mobilités douces, tandis que d’autres modifient leurs itinéraires.
Simuler ces ajustements comportementaux est indispensable, car ils forment le mécanisme central par lequel une zone à faibles émissions agit sur la qualité de l’air. En effet, moins de trajets en voiture (en particulier polluantes) impliquent moins d’émissions et donc une exposition réduite à la pollution.
Les modélisations prévoient que l’utilisation de la voiture diminue, tandis que les transports en commun gagnent des usagers. Le volume total du trafic et la congestion diminuent. À noter que le terme véhicule-kilomètre, dans le tableau ci-dessus, désigne le déplacement d’un véhicule routier sur une distance d’un kilomètre.
L’objectif principal de la ZFE reste de réduire la pollution atmosphérique. Les simulations de trafic montrent, à ce titre, des réductions substantielles des émissions de CO₂, NO₂ et PM2,5, ce qui se traduit par des avantages significatifs pour la santé publique.
Au-delà de leurs effets moyens sur la pollution et la congestion, les zones à faibles émissions ont également des conséquences spatiales spécifiques. La plupart des réductions d’émissions ont lieu dans la zone elle-même, mais des diminutions significatives sont également observées le long des principales voies d’accès à la zone.
Identifier les gagnants et les perdants de la ZFE
Les simulations de trafic à grande échelle permettent aussi d’identifier les ménages qui sont pénalisés et de quantifier ce qu’ils y perdent. Cet outil est donc décisif pour le débat public, car l’acceptabilité dépend non seulement des gains nets totaux, mais également de la répartition des bénéfices et des coûts.
Entre municipalités, les ZFE ne créent pas de gagnants ni de perdants clairement définis en fonction des revenus, tant les municipalités à faibles revenus que celles à revenus élevés comptent de ménages qui tirent profit de cette politique et d’autres qui sont pénalisés.
Si les municipalités plus riches ont tendance, en moyenne, à compter un peu plus de gagnants et moins de perdants, cette corrélation est très faible. L’analyse statistique montre que le revenu n’explique qu’une infime partie de la variation des résultats entre les municipalités. Ces résultats suggèrent que cette politique n’accroît pas de manière significative les inégalités économiques entre les municipalités.
Les citadins sont ceux qui bénéficient le plus d’une exposition réduite à la pollution de l’air. En revanche, les ménages qui dépendent de véhicules plus anciens, souvent situés en zone périurbaine, supportent des coûts plus élevés.
Dans l’ensemble, nos résultats plaident en faveur des zones à faibles émissions comme instrument central de la politique de qualité de l’air, à condition que leurs effets distributifs (c’est-à-dire leurs effets positifs ou négatifs sur les revenus des différents groupes sociaux) soient correctement pris en compte et corrigés.
À lire aussi : Les zones à faibles émissions sont-elles inéquitables ?
Comment corriger les effets distributifs ?
Les avantages agrégés de la ZFE étant importants, des politiques de compensation pourraient être envisagées. Par exemple, un soutien ciblé en faveur de véhicules plus propres – notamment les voitures électriques – ou l’amélioration des services de transport en commun peuvent compenser les pertes de répartition sans compromettre les gains environnementaux.
Inspirés par le « leasing social » proposé par le gouvernement français, nous avons simulé un programme permettant aux ménages de louer un véhicule électrique (VE) pour environ 200 euros par mois. Cette location offrirait une solution de mobilité abordable et écologique aux ménages isolés qui dépendent de leur vieille voiture.
Associer la ZFE à un tel programme de location longue durée permettrait de réduire considérablement le nombre de ménages pénalisés. Le programme de location contribue à décarboner le parc automobile, avec un triplement du nombre de kilomètres parcourus en véhicule électrique. Nos résultats montent que les décès prématurés dus à la pollution atmosphérique diminueraient davantage, par rapport à la seule mise en place de la zone à faibles émissions.
À lire aussi : Zones à faibles émissions : au-delà de verdir l’automobile, un levier vers les mobilités durables
Lucas Javaudin a reçu des financements du centre interdisciplinaire Energy4Climate de l'Institut Polytechnique de Paris.
de Palma Andre a reçu des financements de France 2030 (décarbonation) projet Harmonic sur la compatibilité des politiques publiques
19.03.2026 à 09:43
Dans le Var, la progression de la cochenille-tortue du pin menace les paysages méditerranéens
Texte intégral (2772 mots)

Le département du Var, en France, est touché par l’arrivée de cet insecte venu d’Amérique du Nord qui s’attaque au pin maritime et au pin parasol. Si la cochenille-tortue du pin se propage, elle pourrait transformer durablement les paysages et l’écologie du pourtour méditerranéen.
Des terrasses qui collent, des voitures poisseuses… On croirait d’abord à une histoire de pollution, puis on lève la tête vers les pins parasols caractéristiques du littoral méditerranéen. On voit alors leurs aiguilles noircir, leurs silhouettes familières se dégarnir, leurs grosses branches dépérir puis se rompre.
Derrière ces symptômes constatés dans le Var se cache un minuscule insecte, qui prend une place gigantesque dans les préoccupations locales : la cochenille-tortue du pin (Toumeyella parvicornis). Venue d’Amérique du Nord, on l’a détectée pour la première fois en France en 2021 dans le golfe de Saint-Tropez, dans le Var – un département en première ligne pour les espèces exotiques.
Discrètes, célèbres ou redoutées
Mais qu’est-ce donc qu’une cochenille ? Insectes de l’ordre des hémiptères, apparentés aux pucerons, aux cigales ou encore aux punaises, elles se caractérisent par une biologie souvent discrète. Les femelles adultes sont peu mobiles et restent fixées sur la plante hôte pour se nourrir de sève, tandis que les rares mâles sont souvent de petite taille, ailés, et d’une courte durée de vie.
Beaucoup d’espèces portent une cuticule épaissie ou cireuse, parfois en forme de petit bouclier – d’où l’impression de petite écaille collée au rameau. Certaines cochenilles sont célèbres pour un usage ancien comme colorant – la cochenille du carmin, par exemple. D’autres sont redoutées en agriculture, en horticulture et en foresterie, car elles peuvent pulluler, affaiblir les plantes et favoriser des champignons par l’intermédiaire du miellat qu’elles produisent.
Il y a plus de soixante ans, le massif des Maures dans le Var avait déjà vu arriver une cochenille, Matsucoccus feytaudi. Alors qu’on ne lui connaît pas de dégâts notoires en région atlantique dont elle est endémique (Landes en France, Espagne, Portugal, etc.), elle a détruit dans ce massif 120 000 hectares de pins maritimes en vingt ans de présence.
Biologie et mécanismes de dégâts de la cochenille-tortue du pin
Mais venons-en à celle qui nous intéresse, la cochenille-tortue du pin. Originaire d’Amérique du Nord, Toumeyella parvicornis appartient à la famille des Coccidae.
Elle se fixe volontiers sur les jeunes rameaux de pins, perce les tissus végétaux et se nourrit directement de la sève. Ce vol de ressources affaiblit l’arbre, mais le mécanisme le plus visible est ailleurs : l’insecte rejette en quantité un miellat sucré qui rend tout collant, attire souvent les fourmis… et, surtout, nourrit la fumagine, un champignon noirâtre qui recouvre aiguilles et rameaux, y compris les strates inférieures.
Résultat : la photosynthèse est freinée et empêchée, l’arbre s’épuise, il perd des aiguilles et voit sa croissance stoppée. Des infestations fortes et répétées peuvent mener jusqu’au dépérissement et à la mort de l’arbre, souvent précédés de chutes de branches qui rendent les abords dangereux.
La France prudente après l’expérience italienne
Comme beaucoup d’espèces exotiques, les raisons de la diffusion de la cochenille tient à un « alignement des planètes » défavorable : augmentation des échanges commerciaux de végétaux et de matériels, densité d’hôtes (plantations notamment) et hivers plus doux.
En France, les foyers actuellement identifiés se concentrent encore dans le Var, mais un premier cas a été relevé à Martigues, dans les Bouches-du-Rhône. Les impacts visibles ont été identifiés sur le pin parasol (Pinus pinea) et le pin maritime (Pinus pinaster).
Face à ce constat, les autorités sanitaires ont mis en place une surveillance et des recommandations de gestion : un repérage précoce, des précautions lors des travaux d’élagage, une limitation des déplacements de végétaux potentiellement infestés, et le signalement des symptômes.
Les dégâts restent encore relativement localisés à l’échelle nationale, mais l’expérience antérieure de l’Italie nous invite à la prudence. La cochenille-tortue du pin a été signalée dès 2014 en Campanie, dans la région de Naples, avant de gagner d’autres régions jusqu’à atteindre Rome, où le pin parasol constitue une icône paysagère et culturelle.
Les infestations ont entraîné des dépérissements massifs, et les gestionnaires ont dû intervenir sur des arbres adultes, parfois patrimoniaux. Plusieurs études récentes utilisant des indicateurs de croissance, des mesures physiologiques et de la télédétection ont pu mettre en évidence les liens entre l’intensité de l’attaque à la baisse de vitalité des pins et au risque de mortalité en Italie.
Après l’Italie et la France, l’espèce a aussi été signalée dans d’autres pays du bassin (par exemple, dans les Balkans), ce qui alimente la crainte d’une diffusion à l’échelle méditerranéenne, d’autant que le pin parasol est présent sur une large partie du pourtour méditerranéen.
Une menace écologique majeure
Le point crucial, souvent sous-estimé dans le débat public, tient au rôle du pin parasol et du pin maritime. Loin d’être de simples arbres d’ornement urbain, ils structurent les milieux naturels, parfois au cœur d’aires protégées.
Dans la réserve naturelle nationale de la plaine des Maures (Var), les pins parasols participent à des paysages uniques et à la structuration écologique locale. Ils façonnent une ambiance de plaine ouverte arborée très caractéristique.
La disparition ou le dépérissement de ces arbres n’aurait pas seulement un effet esthétique : elle affecterait la structure du milieu, les microclimats locaux et toute une biodiversité associée aux pins – faune, champignons, cortèges d’invertébrés, etc. Une grande partie du littoral du Var fait partie de l’aire du parc national de Port-Cros, directement menacée par cet insecte.
À lire aussi : Derrière les invasions biologiques, un remodelage silencieux des écosystèmes
Le pin maritime, comme le pin parasol, dépasse en outre largement le cadre méditerranéen. Il est présent également sur la façade atlantique, où il constitue l’essence dominante du massif landais et l’un des plus vastes ensembles forestiers d’Europe occidentale. Une extension de la cochenille-tortue vers ces régions – si elle s’y acclimatait et y trouvait les conditions propices – poserait donc des questions écologiques, paysagères et économiques à une tout autre échelle : santé des forêts, gestion sylvicole, risque d’affaiblissement face aux sécheresses et coûts de surveillance.
Plus largement, ce cas illustre comment un insecte de quelques millimètres peut, en interaction avec la mondialisation des échanges et le changement climatique, devenir un facteur de transformation durable des paysages et des écosystèmes, en s’associant aux modifications en cours, en modifiant l’identité visuelle et écologique de régions entières. L’enjeu dépasse donc la seule nuisance : il interroge notre capacité à anticiper et gérer les invasions biologiques avant qu’elles ne redessinent, silencieusement, nos horizons.
Des pistes de solutions au cas par cas
Face à cette invasion, les solutions restent jusqu’ici limitées, surtout sur de grands arbres. Il n’existe pas de « recette miracle » universelle. La gestion implique une approche intégrée, qui combine détection précoce, réduction des sources de dispersion, tailles ciblées quand c’est possible et maintien de la vitalité des arbres : arrosage raisonné en période sèche, protection des racines en contexte urbain, limitation des blessures.
Des pistes existent aussi du côté des ennemis naturels de ces insectes. Comme pour d’autres cochenilles, certains prédateurs, notamment des coccinelles, peuvent consommer des cochenilles jeunes, et des communes testent parfois des lâchers d’auxiliaires. Mais l’efficacité à grande échelle dépend du bon choix d’espèces, du calendrier d’intervention et de la capacité des auxiliaires à suivre le rythme des pullulations.
Collectivités et particuliers, les bons réflexes à adopter
En tant que collectivités et en qualité de citoyens, comment contribuer à cette lutte ? Il s’agit d’abord d’apprendre à reconnaître les symptômes : miellat collant, fumagine noire, rameaux couverts de « petites carapaces » brunâtres, puis jaunissement.
Il faut ensuite éviter de déplacer des branches, rameaux ou végétaux de pins depuis une zone infestée vers une zone saine, et signaler les cas aux services compétents lorsqu’un nouveau foyer est suspecté.
Enfin, dans les espaces gérés, il s’agit de prioriser les arbres les plus sensibles (pins parasols, sujets en bord de route ou en ville) et intervenir le plus tôt possible : une fois l’arbre très affaibli, les chances d’inverser la trajectoire sont minces.
Une autre difficulté tient au manque de connaissances scientifiques produites en France sur Toumeyella parvicornis. Les données sur sa dynamique locale (nombre de générations par an selon les microclimats et les espèces d’arbres), ses ennemis naturels réellement efficaces, ses voies de dissémination et ses interactions avec le stress hydrique et les effets post-incendies restent encore à établir. Cette lacune contraste avec la situation italienne, où plusieurs travaux récents décrivent déjà la progression, les impacts sur la croissance des pins et des outils de suivi (dont la télédétection) qui peuvent aider les gestionnaires.
L’urgence en France, pour la recherche, est donc de cartographier finement l’extension du phénomène, en utilisant la télédétection et des drones par exemple, de mesurer l’impact sur la croissance des pins et, surtout, d’identifier les régulations naturelles efficaces, qui passent par l’identification génétique des arbres.
Par exemple, quelles coccinelles et autres prédateurs ou parasitoïdes attaquent réellement la cochenille dans le Var ? À quelle période de l’année ? Avec quel niveau de contrôle ? Sans ces données, il est difficile d’évaluer ce qui marche, ce qui coûte cher pour peu d’effets, et ce qui pourrait être déployé à grande échelle sans risques écologiques secondaires.
Romain Garrouste a reçu des financements de MNHN, CNRS, Sorbonne Université, Labex BCDIV (ANR), MRAE, MTE, National Geographic,
19.03.2026 à 09:42
Le scarabée japonais à la conquête de l’Europe : un insecte sous haute surveillance
Texte intégral (2673 mots)

Sans une surveillance efficace et des mesures de lutte appropriées, le scarabée japonais (Popillia japonica), détecté en France pour la première fois dans la région Grand-Est en juillet 2025, pourrait coloniser une grande partie de l’Europe continentale dans les prochaines années.
C’est un coléoptère au régime varié. Le scarabée japonais peut s’alimenter sur plus de 400 espèces de plantes hôtes. Ses larves se nourrissent principalement des racines de graminées, en particulier celles des gazons, des prairies et surfaces enherbées, tandis que les adultes attaquent de nombreuses cultures agricoles (vignes, fruits à noyau, etc.), mais également des espèces ornementales telles que les rosiers.
Les dégâts potentiels sont considérables : aux États-Unis, les dégâts sont estimés à plusieurs centaines de millions de dollars par an, en incluant à la fois les pertes de production et les coûts de lutte.
Le scarabée japonais est de ce fait sous haute surveillance en France, où il a été détecté pour la première fois dans le Grand-Est en juillet 2025. Cette détection a de quoi inquiéter, mais elle était hélas prévisible : dès mai 2022, un rapport d’expertise collective de l’Agence nationale de sécurité sanitaire (Anses) anticipait son introduction comme inéluctable en France hexagonale.
Une espèce exotique envahissante bien documentée
Originaire du Japon, le scarabée japonais est une espèce exotique envahissante dont les routes d’invasion sont bien connues (Figure 1). Accidentellement introduit aux États-Unis en 1916, il s’y est progressivement installé et s’est disséminé jusqu’au Canada.
À partir des années 1970, il a colonisé l’archipel des Açores, puis fut signalé pour la première fois en Europe continentale près de Milan (Italie) en 2014. Il s’est propagé en Suisse, dès 2017, et a été intercepté dans d’autres pays européens : Pays-Bas (2019), Allemagne (2022), Slovénie (2024) et, en 2025, en France, en Espagne, en Belgique et en Autriche.
Cette invasion a suivi trois étapes classiques : l’entrée, l’établissement et la dissémination de l’espèce. Dans le cadre du projet européen IPM-Popillia, nous avons développé des cartes de risque pour chacune de ces étapes à l’échelle de l’Europe, afin d’aider les services phytosanitaires et les décideurs à mettre en place des stratégies de surveillance efficaces. Voici ce que nous avons appris.
Le scarabée japonais : une invasion à nos portes
Le scarabée japonais se déplace principalement grâce aux activités humaines : il s’introduit dans de nouvelles régions par le transport de personnes et de marchandises, ce qui est caractéristique d’un insecte « auto-stoppeur ».
Nous avons évalué le risque d’introduction dans chaque région européenne (Figure 2) en analysant les flux de voyageurs et de marchandises par avion, par train et en camion, à partir du foyer principal d’invasion (localisé en Italie du Nord et au sud de la Suisse). Les zones étudiées correspondent aux unités NUTS3, définies par l’Union européenne, qui correspondent à des zones de la taille d’un département ou d’une petite province.
Où le scarabée japonais pourrait-il s’établir ?
Une fois introduite, une population de scarabées peut-elle survivre et se reproduire ? C’est ce que l’on appelle l’étape d’établissement. Les conditions climatiques, l’usage des sols et l’environnement local déterminent si ces populations peuvent se maintenir durablement.
Grâce à des modèles de distribution d’espèces, nous avons relié les données de présence du scarabée dans les zones colonisées, issues notamment des plateformes de sciences citoyennes, avec des informations environnementales géoréférencées.
La carte de risque d’établissement (Figure 3) montre que les contreforts des Alpes, le nord des Balkans et les rives orientales de la mer Noire sont très favorables à l’insecte. Le sud-ouest de la France, la Bretagne, l’Allemagne, l’Autriche, la Belgique et les Pays-Bas présentent un risque plus modéré.
Comment l’espèce continue-t-elle de se propager ?
Les scarabées japonais émergent une fois par an sous les latitudes tempérées et sont responsables de la progression du front d’invasion en été via leur vol actif. Ils se déplacent pour se nourrir, s’accoupler et pondre leurs œufs, qui poursuivent ensuite leur développement dans le sol tout l’hiver.
L’interaction entre le cycle de vie de l’insecte et les conditions locales gouverne la vitesse à laquelle il se propage dans différentes régions d’Europe (Figure 4).
Des cartes de risque pour mieux prévenir
Nos cartes de risque permettent de visualiser trois aspects essentiels :
Risque d’introduction : où l’espèce peut arriver via les transports humains.
Risque d’établissement : où les conditions environnementales sont favorables à sa survie et sa reproduction.
Risque de dispersion active : où l’insecte peut se déplacer naturellement grâce à son vol.
Considérées séparément, mais plus encore combinées, ces cartes constituent un outil précieux pour anticiper et limiter la progression du scarabée japonais. Elles aident à définir des zones prioritaires pour la surveillance, à coordonner les actions transfrontalières et à adapter les mesures de confinement selon la vitesse de propagation locale.
La surveillance des espèces exotiques envahissantes : un enjeu crucial
Les invasions biologiques sont en forte croissance depuis deux siècles, et la tendance devrait se poursuivre avec l’intensification du commerce, des transports et du changement climatique. Entre 1980 et 2019, les dommages liés aux invasions se sont élevés à 1 208 milliards de dollars (plus de 1 049 milliards d’euros) à l’échelle mondiale, avec une augmentation de 702 % des pertes déclarées entre 1980-1999 et 2000-2019.
Dans ce contexte, il est donc crucial d’améliorer la prévention, la surveillance et la réponse rapide afin de stabiliser, voire de réduire à terme, le nombre de nouvelles invasions. Nos cartes de risque viennent compléter les outils existants pour optimiser les stratégies de surveillance permettant d’activer les mesures appropriées pour lutter contre les espèces exotiques envahissantes.
En pratique, toute observation d’un scarabée japonais doit être signalée à votre Direction régionale de l’alimentation, de l’agriculture et de la forêt (Draaf), en précisant le lieu de l’observation.
Sylvain Poggi a reçu des financements de I'Union Européenne dans le cadre du projet IPM-Popillia (European Union Horizon 2020 Research and Innovation Programme, Grant No. 861852).
Davide Martinetti a reçu des financements de IPM-Popillia project, (European Union Horizon 2020 Research and Innovation Programme, Grant No. 861852).
Leyli Borner a reçu des financements de l'Union Européenne dans le cadre du projet IPM-Popillia (European Union Horizon 2020 Research and Innovation Programme, Grant No. 861852).
19.03.2026 à 09:42
Le nématode du pin, un redoutable globe-trotteur
Texte intégral (2618 mots)

Partout où il s’est installé, le nématode du pin Bursaphelenchus xylophilus a tué des millions d’arbres. Son arrivée dans les Landes françaises ne présage donc rien de bon. Pour lutter contre cette espèce invasive, il faut bien sûr connaître son cycle de vie et la façon dont la maladie qu’il véhicule se transmet d’arbre en arbre. C’est ce que nous explique le spécialiste d’entomologie forestière Hervé Jactel.
Le nématode du pin Bursaphelenchus xylophilus, responsable de la maladie du flétrissement, est sans conteste le pire agent pathogène pour les forêts de pin du continent eurasiatique. Il s’agit d’un ver microscopique qui, une fois dans l’arbre, se nourrit des vaisseaux du bois, et bloque la circulation de la sève. Les symptômes sont, dans un premier temps, le rougissement des aiguilles puis leur chute, ensuite la courbure des pousses (d’où le nom de flétrissement), puis enfin la mort de l’arbre en quelques semaines seulement.
Partout où il a été introduit, il a provoqué la mort de millions d’arbres. Cette espèce exotique envahissante (classée organisme de quarantaine en Europe) est originaire d’Amérique du Nord où elle ne cause pas de dégâts, car les pins nord-américains sont résistants. En revanche, elle s’avère très agressive envers les espèces de conifères avec lesquelles elle n’a pas longtemps cohabité.
Une série d’invasions en Asie
Comme pour toutes les espèces invasives, le nématode du pin se joue des frontières terrestres ou maritimes. Il est arrivé en 1905 au Japon sans doute par l’intermédiaire d’une cargaison de bois venue des États-Unis. Il a, depuis, causé la perte de 95 % de la ressource en pins du pays. Il a ensuite été détecté en Chine en 1982, à Nankin (Nanjing en chinois), possiblement à cause de l’importation depuis les États-Unis de matériaux de construction d’un grand télescope. Il est désormais présent dans 18 provinces et a tué plus de 50 millions d’arbres.
Des travaux de modélisation ont montré que cette rapide expansion est surtout due à une propagation assistée par l’humain, avec des déplacements de plusieurs centaines de kilomètres par an sans doute liés au transport de matériaux en bois contaminés. Les dégâts sont tout aussi considérables en Corée (10 millions d’arbres morts en dix ans) malgré toutes les mesures d’éradication et de contrôle mises en place.
Détecté en Europe depuis 1999
Au Portugal, où il a été détecté en 1999, il occupe désormais plus de la moitié de la surface des forêts de pin maritime et a réduit de 30 % leur production. Des analyses génétiques ont montré que les populations de nématode du pin arrivées au Portugal étaient d’origine asiatique et non américaine. L’hypothèse est que du bois contaminé aurait été utilisé pour la construction de l’un des pavillons asiatiques de l’Exposition universelle de Lisbonne en 1998.
Des foyers sont également présents en Espagne depuis 2008, non loin de la frontière portugaise. Alors que certains semblent éradiqués, le foyer en Galice connu depuis une dizaine d’années est officiellement hors de contrôle et progresse de manière inquiétante.
Dans tous ces pays, le rythme de mortalité est d’environ un million d’arbres par an.
Autant dire que la menace est grave pour la forêt des Landes en France, où le pin maritime est omniprésent et où un premier foyer vient d’être découvert fin 2025 à Seignosse. Les 500 kilomètres qui séparent les foyers du nord du Portugal et de Galice du sud des Landes indiquent que, là encore, c’est le transport par l’être humain qui est à l’origine de cette invasion.
Un coléoptère qui transmet la maladie d’arbre en arbre
La maladie du flétrissement du pin est une maladie à transmission vectorielle. Le nématode du pin ne peut pas passer d’un arbre à l’autre sans l’aide de son insecte vecteur, capable de voler, qui est dans tous les pays infectés un coléoptère longicorne xylophage du genre Monochamus.
En Europe du Sud, il s’agit de l’espèce méditerranéenne Monochamus galloprovincialis. L’insecte vecteur transporte les nématodes dans ses trachées (tubes conduisant l’air aux différents organes) et les dissémine d’un arbre à l’autre à deux étapes de son cycle de développement.
Deux modes de transmission
À leur émergence de l’arbre où ils se sont développés, les jeunes adultes doivent se nourrir sur de jeunes pousses de pin en bonne santé pour acquérir l’énergie nécessaire pour faire fonctionner leurs muscles moteurs du vol et produire des ovocytes (les œufs avant leur fécondation).
C’est pendant cette phase de maturation sexuelle que l’essentiel de la charge en nématode est transmise à l’arbre. Cette transmission est passive, car les nématodes ne sont pas injectés mais sortent d’eux-mêmes des trachées, attirés par l’odeur de la résine qui s’écoule des morsures de l’insecte sur l’écorce des pousses de pin.
Les nématodes gagnent alors le réseau de canaux de résine où ils peuvent se multiplier si l’arbre n’est pas résistant et si les températures sont suffisamment élevées. Le nématode du pin produit une nouvelle génération tous les quatre et cinq jours à 25 °C. En quelques semaines, la population de nématodes peut donc augmenter de façon exponentielle, conduisant à une obstruction des canaux de sève et à la mort de l’arbre par embolie.
Le deuxième mode de transmission des nématodes par les insectes vecteurs intervient, mais dans une moindre mesure, lorsque la femelle fécondée cherche un arbre hôte dépérissant pour effectuer sa ponte, car c’est l’habitat le plus favorable au développement de sa descendance.
Cet arbre peut être dépérissant parce qu’affaibli par une grave sécheresse, le passage d’un feu (les Monochamus sont attirés par l’odeur de la fumée), une attaque de scolytes (des coléoptères xylophages), une infection par un champignon ou par le nématode lui-même (si un Monochamus l’avait auparavant contaminé lors de son repas de maturation). La femelle pond ses œufs un par un dans des encoches creusées dans l’écorce des arbres. Les nématodes qui restaient dans ses trachées peuvent alors pénétrer dans l’arbre par ces blessures de l’écorce. Les jeunes larves de l’insecte creusent ensuite une galerie sous l’écorce pour se nourrir aux dépens des tissus où circule la sève de l’arbre chargée de sucres. C’est pourquoi les arbres supports de ponte ne doivent pas être morts (pas complètement secs) mais seulement moribonds.
Ensuite, les autres stades larvaires se développent lentement dans les tissus du bois alors que les nématodes survivent en se nourrissant de champignons à l’intérieur de ces mêmes tissus. Attirés par l’odeur des insectes, les nématodes présents dans le bois se regroupent dans la loge où la larve s’est transformée en nymphe et s’insèrent dans les trachées du jeune adulte avant que celui-ci n’émerge de l’arbre, emportant avec lui quelques centaines à quelques milliers de nématodes. Au total, le cycle de reproduction de l’insecte vecteur Monochamus dure un an, avec une période d’arrêt du développement pendant l’hiver.
Des coléoptères qui peuvent voler sur plusieurs dizaines de kilomètres dans leur vie
Pour boucler le cycle de la maladie, un arbre hôte doit donc être visité deux fois par des Monochamus, une fois par un Monochamus jeune adulte (mâle ou femelle) qui transmet les nématodes lors de son repas et induit donc le dépérissement de l’arbre, et une deuxième fois par un Monochamus femelle fécondée, attirée par l’arbre dépérissant, et dont les insectes de la génération fille assurent la récupération puis le transport des nématodes hors de l’arbre infecté.
Les insectes vecteurs de l’espèce M. galloprovincialis sont doués d’une grande capacité de vol, capables de se déplacer sur plusieurs dizaines de kilomètres durant toute leur vie d’adulte.
Contrairement aux incendies de forêt qui ravagent en quelques jours des grandes surfaces de plantations de pin, si elle n’est pas éradiquée, la maladie du flétrissement provoquée par le nématode progresse inéluctablement mais lentement, de quelques kilomètres par an, avec une petite proportion d’arbres morts par parcelle chaque année (5 à 10 %). Il conviendrait donc d’envisager d’ores et déjà des mesures pour ralentir le front de progression de la maladie, en cas d’échec de l’éradication, et pour reconstituer les forêts impactées.
Le temps long du dépérissement des forêts infectées par le nématode du pin devrait donc permettre d’évaluer différentes options de renouvellement forestier.
Hervé Jactel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.