21.04.2025 à 19:33
Olivier Coulembier, Chercheur, Université de Mons
Un projet de recherche ambitionne de transformer les déchets plastiques en nouveaux matériaux innovants à l’aide de réactions chimiques permettant de retirer du CO2 de l’atmosphère. État des lieux d’une piste encore jeune, mais déjà prometteuse.
Le plastique suscite de fréquents débats : pollution marine, recyclage… Omniprésents dans l’économie mondiale, leur production, leur utilisation et leur élimination représentent environ 4,5 % des émissions mondiales de gaz à effet de serre (GES), sans parler de leurs impacts sur la biodiversité marine.
Les appels à réduire leur usage se multiplient, mais une question persiste : les alternatives aux plastiques permettent-elles de réduire les émissions de GES au niveau global ? Un sac en papier, par exemple, bien qu’il semble plus écologique qu’un sac en plastique, peut engendrer jusqu’à trois fois plus d’émissions de GES sur l’ensemble de son cycle de vie. En parallèle du problème de plastique, les émissions de CO₂ continuent de croître au niveau mondial.
Et s’il était possible de faire d’une pierre deux coups, en valorisant à la fois les déchets plastiques et le CO2 pour les transformer en produits utiles, par exemple des matériaux de construction ? C’est l’objectif du programme de recherche Pluco (pour Plastic Waste Upcycling by CO₂ Valorization).
L’enjeu : concevoir de nouveaux matériaux piégeant du CO2 à partir de déchets plastiques, tout en s’assurant que ce CO2 soit très peu relâché à l’échelle humaine. On estime à 100 000 ans le temps pour que le CO2 incorporé à des matériaux de construction soit réémis dans l’atmosphère. Lorsqu’il est réutilisé pour l’industrie chimie ou pharmaceutique, ce délai est d’environ 10 ans, et même de seulement un an pour la production de carburant à partir de CO2, selon les estimations de l’Agence internationale de l’énergie.
Le recyclage des plastiques repose aujourd’hui majoritairement sur des procédés mécaniques (tri, broyage, lavage). Ces derniers présentent plusieurs limites majeures :
Qualité dégradée : les plastiques recyclés perdent souvent jusqu’à 50 % de leurs propriétés mécaniques (souplesse, rigidité, propriétés barrières notamment au gaz…), ce qui limite leur réutilisation. Une bouteille d’eau gazeuse recyclée ne permettant pas de retenir le gaz carbonique ne présenterait que peu d’intérêt.
Coûts élevés : ces procédés sont énergivores, avec un coût moyen de recyclage avoisinant 400 à 500 euros par tonne.
Émissions de CO2 : environ deux kilogrammes de CO2 sont émis pour chaque kilogramme de plastique recyclé mécaniquement, du fait de l’énergie utilisée pour le tri mécanique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Bien que ces techniques permettent une réduction partielle des émissions, elles restent loin d’être idéales. À l’inverse, le recyclage chimique, notamment par solvolyse – c’est-à-dire, par dissolution à l’aide d’un solvant –, ouvre la voie à des économies substantielles pouvant atteindre 65 à 75 % de réduction des émissions de CO₂.
La solvolyse est une technique de traitement qui permet de décomposer les plastiques inertes comme les polyoléfines (un des types de polymères plastiques les plus courants) pour les transformer en matériaux fonctionnels. Par exemple, le PET, utilisé dans des produits courants comme les bouteilles plastiques et les fibres textiles, peut être recyclé par solvolyse pour produire de l’éthylène glycol. Bien connu pour son rôle d’antigel dans les radiateurs de voiture, il peut également être réutilisé dans la production de nouveaux produits en PET, contribuant ainsi à la réduction des déchets plastiques et à la réutilisation de matériaux.
Selon ce procédé, une tonne de plastique traité peut produire jusqu’à 800 kg de matières premières réutilisables, tout en économisant trois à six tonnes de CO₂ par rapport aux procédés traditionnels.
Autre axe d’amélioration en dehors des procédés eux-mêmes : le remplacement des catalyseurs métalliques par des catalyseurs organiques afin de les rendre plus respectueux de l’environnement sans recourir aux métaux lourds utilisés dans les catalyseurs traditionnels.
La toxicité potentielle des catalyseurs métalliques pose en effet problème, notamment en ce qui concerne l’utilisation de métaux lourds comme le palladium, le platine ou le nickel. Ces métaux peuvent entraîner des risques pour la santé et l’environnement, notamment en cas de contamination des sols ou des eaux. Des études montrent que leur accumulation dans les écosystèmes peut avoir des effets délétères sur la biodiversité et les chaînes alimentaires.
C’est justement cette voie que nous explorons dans nos recherches, en valorisant le CO2 comme une véritable brique de construction chimique.
L’une des voies que nous explorons est la transformation du CO2 en produits carbonatés. Ces derniers trouvent des applications industrielles variées comme les batteries, les plastiques biodégradables ou encore les revêtements. Cette approche représente une alternative durable aux produits dérivés du pétrole, et permet de convertir pas moins de 500 kg de CO2 par tonne de dérivés carbonatés produits.
Notre approche consiste à tirer parti des catalyseurs organiques pour permettre à ces réactions de survenir dans des conditions plus simples et à des températures plus modérées. Nous travaillons également sur l’ajout de CO2 dans des plastiques recyclés pour produire de nouveaux matériaux utiles, par exemple dans le domaine de la construction.
Ces deux approches combinées – revalorisation du CO2 et des plastiques – ouvrent ainsi la voie à des applications industrielles variées dans les secteurs de l’emballage, de la construction et même de la santé. L’objectif de Pluco est de démontrer la faisabilité de ces procédés à l’échelle industrielle et leur intérêt tant économique qu’en matière de durabilité.
Aujourd’hui, le recyclage des plastiques repose sur un nombre limité d’usines centralisées, comme en Belgique où seules quelques infrastructures traitent l’ensemble des déchets plastiques du pays. Pourtant, les déchets plastiques et les émissions de CO2 sont un problème global, présent dans toutes les régions du globe.
Grâce à sa flexibilité et à son efficacité, la technologie que nous développons avec Pluco pourrait favoriser un recyclage plus décentralisé. Plutôt que de concentrer le traitement des déchets sur quelques sites industriels, il deviendrait envisageable de mettre en place des unités de transformation locales, installées directement là où les déchets sont produits.
Par exemple, des lignes d’extrusion réactive – système qui permet de transformer des plastiques à des températures plus basses que celles utilisées dans les procédés de recyclage classique – pourraient être déployées dans divers contextes industriels et géographiques, réduisant ainsi le besoin de transport des déchets et maximisant l’impact environnemental positif du procédé.
Ce procédé est une technologie bien connue, facile à mettre en œuvre et localisable partout dans le monde. En travaillant à des températures où les plastiques deviennent suffisamment souples pour être transformés sans fondre complètement, il permet de modifier les propriétés du plastique tout en préservant sa structure. Cela permet notamment d’intégrer dans leur structure des molécules ayant été préparées par catalyse organique directement à partir de CO2. De quoi créer de nouveaux matériaux tout en facilitant le recyclage de manière plus économe en énergie.
Au-delà de l’aspect écologique, cette approche pourrait aussi générer de nouvelles opportunités économiques en termes d’économie circulaire, en permettant à des acteurs locaux d’exploiter ces technologies et de créer de la valeur à partir de ressources considérées jusqu’ici comme des polluants.
Le programme Pluco ouvre donc la voie vers un recyclage à empreinte carbone nulle, voire négative. Cette approche unique, qui transforme deux menaces environnementales en ressources précieuses, démontre que la chimie verte peut jouer un rôle central dans la transition écologique. Il ne s’agit pas seulement de recycler mieux, mais de redéfinir les bases mêmes du recyclage pour un impact positif et durable sur la planète.
Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.
Olivier Coulembier a reçu des financements du Fonds National de la Recherche Scientifique (F.R.S.-FNRS), notamment à travers des projets PDR, MIS et EOS. Il a également bénéficié de financements européens via H2020 et M-ERA.NET, ainsi que du soutien de la Chaire de Recherche AXA.
19.04.2025 à 15:56
Narcisa Pricope, Professor of Geography and Land Systems Science and Associate Vice President for Research, Mississippi State University
Pâques s’accompagne de chocolat (que l’on soit croyant ou non). Une tradition qui pourrait vite devenir un luxe. Avec le réchauffement climatique, son prix ne cesse d’augmenter. En cause : l’aridité qui se propage silencieusement dans de nombreuses régions productrices de cacao. Heureusement, des solutions existent.
Le nord-est du Brésil, l’une des principales régions productrices de cacao au monde, est aux prises avec une aridité croissante –, un assèchement lent mais implacable des terres. Le cacao est fabriqué à partir des fèves du cacaoyer, petit arbre à feuille prospérant dans les climats humides. La culture est en difficulté dans ces régions desséchées, tout comme les agriculteurs qui la cultivent.
Ce n’est pas seulement l’histoire du Brésil. En Afrique de l’Ouest, où 70 % du cacao mondial est cultivé, ainsi qu’en Amérique et en Asie du Sud-Est, les variations des niveaux d’humidité menacent l’équilibre délicat nécessaire à la production. Ces régions, abritant écosystèmes dynamiques et greniers à blé mondiaux, sont en première ligne de la progression lente mais implacable de l’aridité.
Au cours des trente dernières années, plus des trois quarts des surfaces la Terre est devenue plus sèche. Un rapport récent que j’ai aidé à coordonner pour la Convention des Nations unies sur la lutte contre la désertification a révélé que les terres arides couvrent maintenant 41 % des terres mondiales. Cette superficie s’est étendue de près de 4,3 millions de kilomètres carrés au cours de ces trois décennies – plus de huit fois la taille de la France.
Cette sécheresse rampante n’est pas seulement un phénomène climatique. Il s’agit d’une transformation à long terme qui peut être irréversible… avec des conséquences dévastatrices pour les écosystèmes, l’agriculture et les moyens de subsistance dans le monde entier.
L’aridité, bien que souvent considérée comme un phénomène purement climatique, est le résultat d’une interaction complexe entre des facteurs anthropiques – dus à l’existence et à la présence d’humains. Il s’agit notamment des émissions de gaz à effet de serre, des pratiques d’utilisation des terres et de la dégradation des ressources naturelles critiques, telles que les sols et la biodiversité.
Ces forces interconnectées ont accéléré la transformation de paysages autrefois productifs en régions de plus en plus arides.
Le changement climatique d’origine humaine est le principal moteur de l’aridité croissante.
Les émissions de gaz à effet de serre augmentent les températures mondiales, notamment en raison de la combustion de combustibles fossiles et de la déforestation. La hausse des températures, à son tour, provoque l’évaporation de l’humidité à un rythme plus rapide. Cette évaporation accrue réduit l’humidité du sol et des plantes, ce qui exacerbe la pénurie d’eau, même dans les régions où les précipitations sont modérées.
L’aridité a commencé à s’accélérer à l’échelle mondiale dans les années 1950, et le monde a connu un changement prononcé au cours des trois dernières décennies.
Ce processus est particulièrement marqué dans les régions déjà sujettes à la sécheresse, telles que la région du Sahel en Afrique et la Méditerranée. Dans ces régions, la réduction des précipitations – combinée à l’augmentation de l’évaporation – crée une boucle de rétroaction : les sols plus secs absorbent moins de chaleur, laissant l’atmosphère plus chaude et intensifiant les conditions arides.
L’aridité est également influencée par la façon dont les gens utilisent et gèrent les terres.
Les pratiques agricoles non durables, le surpâturage et la déforestation dépouillent les sols de leur couverture végétale protectrice, les rendant vulnérables à l’érosion. Les techniques d’agriculture industrielle privilégient souvent les rendements à court terme, plutôt que la durabilité à long terme, en appauvrissant les nutriments et la matière organique essentiels pour des sols sains.
Au nord-est du Brésil, la déforestation perturbe les cycles locaux de l’eau et expose les sols à la dégradation. Sans végétation pour l’ancrer, la couche arable – essentielle à la croissance des plantes – est emportée par les pluies ou est emportée par les vents, emportant avec elle des nutriments vitaux.
Ces changements créent un cercle vicieux : les sols dégradés retiennent également moins d’eau et entraînent plus de ruissellement, ce qui réduit la capacité de récupération des terres.
Le sol, souvent négligé dans les discussions sur la résilience climatique, joue un rôle essentiel dans l’atténuation de l’aridité.
Les sols sains agissent comme des réservoirs, stockant l’eau et les nutriments dont les plantes dépendent. Ils soutiennent également la biodiversité souterraine et aérienne. Une seule cuillère à café de sol contient des milliards de micro-organismes qui aident à recycler les nutriments et à maintenir l’équilibre écologique.
À mesure que les sols se dégradent sous l’effet de l’aridité et de la mauvaise gestion, cette biodiversité diminue. Les communautés microbiennes, essentielles au cycle des nutriments et à la santé des plantes, déclinent. Lorsque les sols se compactent et perdent de la matière organique, la capacité de la terre à retenir l’eau diminue, ce qui la rend encore plus susceptible de se dessécher.
La perte de santé des sols crée des effets en cascade qui sapent les écosystèmes, la productivité agricole et la sécurité alimentaire.
Le cacao n’est qu’une des cultures touchées par l’empiètement de l’aridité croissante.
D’autres zones agricoles clés, y compris les greniers à blé du monde, sont également à risque. En Méditerranée, au Sahel africain et dans certaines parties de l’Ouest américain, l’aridité mine déjà l’agriculture et la biodiversité.
D’ici 2100, jusqu’à 5 milliards de personnes pourraient vivre dans les zones arides, soit près du double de la population actuelle de ces zones. Les raisons : la croissance démographique et l’expansion des zones arides à mesure que la planète se réchauffe. Cela exerce une pression immense sur les systèmes alimentaires. Elle peut également accélérer les migrations, car la baisse de la productivité agricole, la pénurie d’eau et l’aggravation des conditions de vie obligent les populations rurales à se déplacer à la recherche d’opportunités.
Les écosystèmes sont mis à rude épreuve par la diminution des ressources en eau. La faune migre ou meurt, et les espèces végétales adaptées à des conditions plus humides ne peuvent pas survivre. Les prairies délicates du Sahel, par exemple, cèdent rapidement la place aux arbustes du désert.
À l’échelle mondiale, les pertes économiques liées à l’aridification sont vertigineuses. En Afrique, l’aridité croissante a contribué à une baisse de 12 % du produit intérieur brut de 1990 à 2015. Les tempêtes de sable et de poussière, les incendies de forêt et la pénurie d’eau pèsent davantage sur les gouvernements, exacerbant la pauvreté et les crises sanitaires dans les régions les plus touchées.
L’aridité n’est pas une fatalité et ses effets ne sont totalement irréversibles. Mais des efforts mondiaux coordonnés sont essentiels pour freiner sa progression.
Les pays peuvent travailler ensemble à la restauration des terres dégradées en protégeant et en restaurant les écosystèmes, en améliorant la santé des sols et en encourageant les méthodes agricoles durables.
Les communautés peuvent gérer l’eau plus efficacement grâce à la collecte des eaux de pluie et à des systèmes d’irrigation avancés qui optimisent l’utilisation de l’eau. Les gouvernements peuvent réduire les facteurs du changement climatique en investissant dans les énergies renouvelables.
La poursuite de la collaboration internationale, y compris avec les entreprises, peut aider à partager les technologies pour rendre ces actions plus efficaces et disponibles dans le monde entier.
Pendant que vous savourez du chocolat en cette fête de Pâques, souvenez-vous des écosystèmes fragiles qui se cachent derrière. Au début de l’année 2025, le prix du cacao était proche de son plus haut niveau historique, en partie à cause des conditions sèches en Afrique.
En l’absence d’une action urgente pour lutter contre l’aridité, ce scénario pourrait devenir plus courant, et le cacao – et les concoctions sucrées qui en découlent – pourrait bien devenir un luxe rare.
Narcisa Pricope est membre de l'interface science-politique de la Convention des Nations unies sur la lutte contre la désertification (UNCCD), qui s'efforce de traduire les résultats et les évaluations scientifiques en recommandations pertinentes pour les politiques, notamment en collaborant avec différents groupes et organismes scientifiques.
17.04.2025 à 16:29
Guinaldo Thibault, Research scientist, Météo France
Aurélien Liné, Climatologue, Toulouse INP
Christophe Cassou, Climatologue, chargé de recherche CNRS au laboratoire « sciences de l’univers », Cerfacs
Jean-Baptiste Sallée, Océanographe, Sorbonne Université
Les températures records observées à la surface de l’Atlantique Nord en 2023 ont fait couler beaucoup d’encre. Témoignent-elles réellement, comme on a alors pu le lire, d’un emballement du changement climatique ? Dans une récente étude, quatre chercheurs français répondent à cette question.
L’océan Atlantique Nord est bien plus qu’une vaste étendue d’eau entre l’Europe et l’Amérique. Cet océan est composé d’une région tropicale propice au développement des cyclones tropicaux et d’une région de moyennes latitudes, jouant un rôle crucial dans la régulation du climat européen et mondial.
En hiver, il conditionne la trajectoire des tempêtes qui traversent l’Europe et influence la douceur ou la rigueur des saisons froides.
En été, il module la fréquence des vagues de chaleur et influence l’humidité disponible dans l’atmosphère, jouant sur les épisodes de sécheresse ou les précipitations extrêmes.
Il est également un acteur central du système climatique global via la circulation méridienne de retournement de l’Atlantique (AMOC), un gigantesque tapis roulant océanique qui régule la répartition de chaleur sur la planète en transportant l’excédent de chaleur des tropiques vers les hautes latitudes.
Cette zone océanique fait partie des régions connaissant les tendances de réchauffement les plus marquées depuis 1991, avec un maximum observé entre les latitudes de 10°N et de 40°N.
Depuis mai 2023, cette région océanique a connu des températures de surface jamais enregistrées auparavant. Ce phénomène a suscité de nombreuses interrogations : s’agissait-il d’un simple accident climatique ? D’un signal inquiétant d’une accélération du réchauffement global ? Les modèles climatiques nous permettent-ils de comprendre un tel événement ou sommes-nous entrés dans un nouveau régime climatique qui nous demanderait de reconsidérer la fiabilité de nos projections climatiques ?
Dans une étude récemment publiée, nous avons voulu apporter une réponse de fond à ces interrogations. À partir d’une analyse détaillée d’observations et de modèles climatiques, nous montrons que l’année 2023 a été une année exceptionnelle, mais malgré tout plausible dans le cadre du changement climatique actuel.
Autrement dit, cet extrême de température de surface de l’Atlantique Nord s’inscrit dans un cadre physique bien compris, qui aurait été impossible sans changement climatique.
À lire aussi : Les océans surchauffent, voici ce que cela signifie pour l’humain et les écosystèmes du monde entier
Au cours des dernières années, l’Atlantique Nord a régulièrement établi de nouveaux records de température de surface. Les précédents records datant de 2022 ont surpassé ceux de 2021 et 2020. Cette tendance récurrente témoigne de la manifestation évidente du réchauffement de l’océan, une conséquence directe du réchauffement global causé par les activités humaines.
L’Atlantique Nord a battu plusieurs records de température en 2023. Dès le mois de mars 2023, la température de surface de la mer (TSM) de l’Atlantique Nord a commencé à dépasser les moyennes historiques, atteignant +0,74 °C d’anomalie par rapport à la période de référence 1991-2020. En juillet 2023, celle-ci atteignait +1,23 °C.
C’est surtout la brutalité de ce réchauffement qui a intrigué, avec une hausse record entre les mois de mai 2023 et de juin 2023 qui a conduit à des événements extrêmes. Notamment des vagues de chaleur marines particulièrement intenses dans le golfe de Gascogne, la mer Celtique et la mer du Nord, où les températures ont été jusqu’à 5 °C supérieures à la normale.
Nous avons analysé les conditions atmosphériques de la période mai-juin 2023. Celles-ci représentent une phase extrême de variabilité naturelle atmosphérique, avec une configuration propice à une réduction record des alizés sur la bande tropicale et un blocage anticyclonique persistant sur les îles Britanniques.
Ces événements combinés ont abouti à un excédent de chaleur à la surface de l’océan sur une région en forme de fer à cheval à l’échelle du bassin.
Concrètement, la situation à grande échelle a d’abord été marquée par un affaiblissement des vents d’ouest aux moyennes latitudes. En 2023, la circulation atmosphérique a été marquée par une phase négative de l’oscillation Nord-Atlantique (NAO), une situation où les vents d’ouest aux moyennes latitudes sont plus faibles que d’habitude.
Cet affaiblissement a eu plusieurs effets sur l’océan Atlantique Nord :
Moins de mélange vertical : sans les vents habituels, la surface de l’océan est moins brassée avec les eaux plus froides en profondeur.
Moins d’évaporation : un vent plus faible limite la perte de chaleur par évaporation, ce qui accentue le réchauffement.
Une autre conséquence de la réduction des alizés a été la réduction de la couverture nuageuse sur l’Atlantique Nord. Moins de nuages signifie plus de rayonnement solaire atteignant directement la surface de l’océan, renforçant encore le réchauffement.
En juin 2023, la configuration météorologique aux latitudes moyennes a basculé vers un régime de blocage atlantique, c’est-à-dire un mode de variabilité atmosphérique où un anticyclone se retrouve bloqué et devient persistant sur les îles Britanniques.
Cela génère un dôme de chaleur dans la partie nord-est du bassin atlantique.
Ce phénomène a empêché les échanges atmosphériques qui permettent habituellement de réguler les températures, le brassage océanique vertical, et a contribué à maintenir des températures de surface élevées sur une longue période.
Pour comprendre cet épisode extrême, un élément essentiel est la stratification océanique. En effet, l’océan est composé de plusieurs couches, la surface étant chauffée par le soleil tandis que les couches profondes restent plus froides et se réchauffent à un rythme plus lent. Normalement, des échanges verticaux permettent à la chaleur de se dissiper vers le fond, évitant ainsi une surchauffe trop rapide de la surface.
Or, avec le réchauffement climatique, les couches supérieures de l’Atlantique Nord accumulent de plus en plus de chaleur. Cette accumulation rend l’océan plus stratifié, c’est-à-dire que le mélange des eaux chaudes de surface avec les couches plus profondes est plus difficile.
En 2023, en réponse au changement climatique d’origine humaine, la stratification était à un niveau record en Atlantique Nord, rendant la surface océanique particulièrement sensible aux conditions atmosphériques. Plus de stratification signifie que la chaleur piégée en surface y reste plus longtemps, amplifiant l’impact des forçages atmosphériques.
Une analogie, pour comprendre, serait de songer à un couvercle placé sur une casserole afin que l’eau chauffe plus vite. Ici, les échanges avec les couches plus profondes et froides sont bloqués, et comme on observe un apport d’énergie important depuis l’atmosphère, cette énergie reste en surface. Son impact est amplifié, car elle se concentre dans les couches de surface.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Concrètement, l’Atlantique Nord s’est donc retrouvé préconditionné par le changement climatique dans une situation où la configuration atmosphérique particulière décrite plus haut – une période de vents plus faibles et d’augmentation du rayonnement solaire – s’est traduite par un réchauffement rapide et intense de la surface océanique.
Devant l’ampleur de l’événement, plusieurs questions se sont posées : les modèles climatiques sont-ils capables de simuler de tels extrêmes ? Sommes-nous limités dans notre capacité à modéliser et prévoir ces événements pour définir au mieux nos stratégies d’adaptation ?
Les simulations issues des modèles climatiques internationaux (qui participant aux exercices de projection climatiques utilisés notamment par le Giec) montrent que oui, cet événement était bien possible et même attendu, mais seulement dans un contexte de réchauffement climatique d’origine anthropique.
Selon ces modèles, un réchauffement de cette ampleur a une période de retour d’environ 10 ans sur l’ensemble de l’Atlantique Nord, ce qui signifie que dans le climat actuel, un tel événement a environ 10 % de chances de se produire chaque année.
La configuration régionale particulière de 2023 (le fameux « fer à cheval ») est en revanche plus rare, avec une période de retour de l’ordre de 100 ans.
Autrement dit, 2023 est un événement rare, mais pas impossible. Cette conclusion est essentielle : il n’y a pas eu d’emballement climatique ou d’accélération inattendue. Nous restons dans le cadre d’une variabilité climatique amplifiée par le réchauffement global, conforme aux projections des modèles climatiques.
D’autres hypothèses avaient été formulées en 2023. En 2020, une importante régulation internationale a permis de drastiquement réduire la pollution des navires, assurant ainsi une nette amélioration de la qualité de l’air. Une telle réduction de la pollution a toutefois eu un effet réchauffant à court terme sur le climat, car cette pollution est constituée d’aérosols ayant un « effet parasol » limitant la quantité de chaleur atteignant la surface des océans.
De nombreuses questions ont été posées sur la possible contribution de cette régulation internationale sur le développement de l’événement extrême de chaleur de 2023. Dans cette étude, nous n’avons pas directement analysé l’effet de cette mesure et de la forte réduction en aérosols soufrés, mais nous avons toutefois montré que les modèles climatiques sont capables de reproduire l’événement extrême de 2023 sans devoir prendre en compte cette réduction drastique de l’émission d’aérosols.
Si cet effet a pu contribuer légèrement au réchauffement en réduisant la quantité de particules réfléchissant le rayonnement solaire, il ne semble pas en être la cause principale.
L’année 2023 restera une année record pour l’Atlantique Nord, mais elle ne marque pas un changement de paradigme. Cet événement s’inscrit dans un cadre physique compris et anticipé par les modèles climatiques. L’événement de 2023 s’explique avant tout par la variabilité naturelle des conditions atmosphériques qui a joué le rôle d’étincelle, et qui a mis le feu aux poudres. En l’occurrence, à un océan très stratifié par le changement climatique d’origine humaine.
Ce cas illustre aussi l’importance d’une communication scientifique rigoureuse :
il faut éviter les effets d’annonces catastrophistes qui pourraient laisser croire à une rupture soudaine du climat ou un emballement,
il faut toutefois reconnaître l’ampleur du changement en cours et l’impact grandissant du réchauffement climatique sur les événements extrêmes,
enfin, il est nécessaire de construire des scénarios d’adaptation et d’atténuation cohérents dans leur prise en compte des événements extrêmes, seuls ou combinés les uns aux autres.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.04.2025 à 12:53
Kat Bolstad, Associate Professor of Environmental Science, Auckland University of Technology
Les premières images attestées d’un calamar colossal juvénile dans son habitat naturel montrent un animal délicat et gracieux, aux antipodes du cliché de « monstre », trop répandu.
Le calamar colossal (Mesonychoteuthis hamiltoni) est une espèce qui a été décrite pour la première fois en 1925 à partir de restes de spécimens trouvés dans l’estomac d’un cachalot pêché à des fins commerciales. Un siècle plus tard, une expédition a permis de capturer les premières images attestées de cette espèce dans son habitat naturel. Elle nous montre un spécimen juvénile de 30 centimètres, à une profondeur de 600 mètres, près des îles Sandwich du Sud, à mi-chemin entre l’Argentine et l’Antarctique.
Une fois adultes, les calamars colossaux peuvent cependant atteindre jusqu’à sept mètres et peser jusqu’à 500 kilogrammes, ce qui en fait les invertébrés les plus lourds de la planète. Mais l’on sait encore très peu de choses sur leur cycle de vie.
Ces images inédites d’un jeune calamar colossal dans une colonne d’eau sont le fruit d’un heureux hasard, comme c’est souvent le cas dans l’étude de ces calamars d’eau profonde.
Elles sont apparues lors de la diffusion en direct d’un véhicule télécommandé dans le cadre de l’expédition de la Schmidt Ocean Institute et d’Ocean Census, partie à la recherche de nouvelles espèces et de nouveaux habitats en eaux profondes dans l’Atlantique sud, principalement sur les fonds marins.
Ceux qui étaient derrière l’écran ont alors eu la chance de voir un calamar colossal vivant dans son habitat en eaux profondes, bien que son identité n’ait été confirmée qu’ultérieurement, lorsque des images en haute définition ont pu être visionnées.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Jusque-là, notre meilleure source d’information sur les calamars colossaux était les baleines et les oiseaux marins car ils sont bien plus doués que nous pour les trouver.
De fait, il faut avoir en tête que les calamars colossaux, qui vivent dans un immense environnement sombre et tridimensionnel, nous évitent sans doute activement, ce qui explique en partie pourquoi nous venons seulement de filmer cette espèce dans son habitat naturel.
Car la plupart de nos équipements d’exploration des grands fonds sont volumineux, bruyants et utilisent des lumières vives lorsque nous essayons de filmer ces animaux. Or, le calamar colossal peut, lui, détecter et éviter jusqu’aux cachalots en plongée, qui produisent probablement un signal lumineux puissant lorsqu’ils descendent dans les eaux profondes et dérangent les animaux bioluminescents, comme notre colosse des abysses.
Les calamars les plus habiles à esquiver ces prédateurs ont pu se reproduire et transmettre leurs gènes depuis des millions d’années. Leur population actuelle est donc constituée d’animaux dotés d’une grande acuité visuelle, qui évitent probablement la lumière et sont capables de détecter un signal lumineux à plusieurs mètres de distance.
Le calamar colossal fait partie de la famille des calamars de verre (Cranchiidae), un nom qui fait référence à la transparence de la plupart des espèces. L’océan Antarctique compte trois espèces connues de calamars de verre, mais il peut être difficile de les distinguer sur des images vidéos.
Des chercheurs de l’organisation Kolossal, dont l’objectif était de filmer le calamar colossal, ont ainsi pu observer en 2023 un calamar de verre de taille similaire lors de leur quatrième mission en Antarctique. Mais comme les éléments caractéristiques permettant d’identifier un calamar colossal – des crochets à l’extrémité des deux longs tentacules et au milieu de chacun des huit bras plus courts – n’étaient pas clairement visibles, son identité exacte n’a donc pas été confirmée.
Cependant, sur les dernières images produites par l’Institut Schmidt de l’océan, les crochets du milieu du bras sont visibles sur le jeune spécimen immortalisé par les images. Celui-ci ressemble malgré tout beaucoup aux autres calamars de verre. En grandissant cependant, on suppose que les calamars colossaux perdent probablement leur apparence transparente et deviennent une anomalie au sein de la famille.
Si l’idée paradoxale d’un « petit calamar colossal » en amusera plus d’un, ces images mettent également en évidence la grâce méconnue de nombreux animaux des grands fonds, aux antipodes des préjugés que l’on peut avoir trop souvent sur les supposés monstres des profondeurs et les contenus en ligne racoleurs sur ces derniers qui seraient une simple « matière à cauchemars ».
Ce calamar colossal ressemble plutôt à une délicate sculpture de verre, avec des nageoires d’une musculature si fine qu’elles sont à peine visibles. Ses yeux iridescents brillent et ses bras gracieux s’étendent en éventail à partir de la tête.
À l’âge adulte, le calamar colossal peut certes être un prédateur redoutable, avec ses bras robustes et sa panoplie de crochets acérés, capable de s’attaquer à des poissons de deux mètres de long. Mais la première observation attestée que nous avons de ce calamar dans les profondeurs de la mer nous donne surtout matière à s’émerveiller en voyant cet animal élégant, qui prospère dans un environnement où l’homme a besoin de tant de technologie, ne serait-ce que pour le voir à distance.
Jusqu’à récemment, peu de gens pouvaient participer à l’exploration des grands fonds marins. Aujourd’hui, toute personne disposant d’une connexion Internet peut être derrière l’écran pendant que nous explorons ces habitats et observons ces animaux pour la première fois.
On ne saurait trop insister sur l’importance des grands fonds marins. Ils abritent des centaines de milliers d’espèces non découvertes, c’est probablement là que la vie sur Terre est apparue et ils représentent 95 % de l’espace vital disponible sur notre planète.
On y trouve des animaux plus splendides et plus étranges que nos imaginations les plus créatives en matière de science-fiction. Des calamars qui, au début de leur vie, ressemblent à de petites ampoules électriques avant de devenir de véritables géants ; des colonies d’individus où chacun contribue au succès du groupe ; des animaux dont les mâles (souvent parasites) sont exceptionnellement plus petits que les femelles.
Cette première observation attestée d’un calamar colossal peut en cela nous inspirer en nous rappelant tout ce qu’il nous reste à apprendre.
L’expédition qui a filmé le calamar colossal est le fruit d’une collaboration entre l’Institut Schmidt de l’océan, la Nippon Foundation-NEKTON Ocean Census et GoSouth (un projet commun entre l’université de Plymouth, le GEOMAR Helmholtz Centre for Ocean Research et le British Antarctic Survey).
Kat Bolstad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.04.2025 à 11:52
Alice Peycheraud, Doctorante en géographie, Université Lumière Lyon 2
Jadis omniprésent dans la ruralité, le vélo hors la ville a du mal à s’implanter dans nos imaginaires. Qui sont donc les cyclistes des routes de campagne ? Pas seulement des sportifs ou des néo-ruraux montre une nouvelle recherche, qui pointe également le fort potentiel cyclable de nos campagnes.
Mais qui sont donc les cyclistes s’aventurant sur les routes de campagne ? Les forçats du Tour de France, évidemment ! Et les touristes, de plus en plus nombreux à sillonner les véloroutes. Ces images s’imposent instantanément. Mais lorsque l’on pense aux déplacements du quotidien, l’imaginaire se grippe.
Y a-t-il seulement des cyclistes « de tous les jours » dans le rural, en dehors de stakhanovistes de la petite reine ou de militants convaincus ?
Pédaler dans les territoires ruraux n’est certes pas une évidence. Le vélo était pourtant omniprésent dans les villages jusque dans les années 1970. Depuis, sa présence n’a fait que s’étioler. S’il est difficile d’obtenir des données aussi précises que pour les métropoles, les chiffres généraux sur la fréquentation vélo tendent à montrer que la dynamique peine à s’inverser.
Alors qu’en ville, le vélo, pratique et rapide, représente un avantage comparatif vis-à-vis de la voiture, les contraintes rencontrées dans les territoires ruraux semblent barrer la voie à la bicyclette.
Le territoire y est en effet organisé par et pour la voiture : non seulement les ruraux parcourent au quotidien des distances deux fois plus importantes qu’en ville, mais les routes comme l’urbanisme des bourgs sont pensés pour l’automobile. De fait, 80 % des déplacements s’y effectuent en voiture.
Les ruraux sont ainsi pris en étau par un modèle fondé sur l’automobile, à la fois préjudiciable écologiquement et excluant socialement, mais nécessaire pour pouvoir habiter ces territoires.
Pourtant, il existe un potentiel cyclable dans le rural, où près de la moitié des trajets concernent des distances de moins de 5 km. De fait, les observations et la soixantaine d’entretiens menés dans trois territoires ruraux, le Puy-de-Dôme, la Saône-et-Loire et l’Ardèche, dans le cadre de ma thèse de géographie, montrent qu’il y a bel et bien des cyclistes dans le rural, utilisant leur vélo pour aller au travail, faire les courses ou tout autre activité du quotidien.
Croisés sur les marchés, dans les cafés ou dans des associations pro-vélo, les profils rencontrés sont variés : autant d’hommes que de femmes, des retraités, des cadres comme des employés. Se pencher sur leurs pratiques et sur leurs engagements, c’est aussi s’intéresser à la complexité des territoires ruraux qu’ils parcourent et aux nouvelles façons d’habiter ces espaces, au-delà des images d’Épinal.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
L’émergence du vélo électrique (dont le nom complet demeure « vélo à assistance électrique », dit VAE) a grandement contribué à rendre les déplacements cyclistes envisageables par le plus grand nombre, tempérant les distances et les reliefs parfois prononcés. Dans des espaces ruraux souvent concernés par le vieillissement de la population, le déploiement de cette technologie n’a rien d’anodin. Le vélo électrique est d’ailleurs particulièrement valorisé par les retraités actifs.
Fabrice (65 ans, retraité, Saône-et-Loire) a ainsi fait coïncider son passage à la retraite avec l’achat d’un vélo électrique et repris une pratique cycliste abandonnée depuis l’adolescence. Le vélo électrique, en modulant les efforts, permet aussi à un public plus jeune d’effectuer plus régulièrement des trajets jugés exigeants. Cet outil ne peut toutefois pas porter à lui seul l’espoir d’un développement du vélo dans le rural. D’abord, parce qu’il reste coûteux ; ensuite, parce qu’il faut le penser en regard du contexte de pratique.
La sécurité et le manque d’aménagement sont souvent les premiers arguments opposés à la pratique du vélo à la campagne.
De fait, certaines routes départementales s’avèrent inhospitalières pour la plupart des cyclistes. Pourtant limiter le rural à ce réseau de « grandes routes » serait oblitérer sa richesse en routes secondaires et en chemins agricoles. Ceux-ci représentent un vivier d’alternatives, ne nécessitant pas toujours d’aménagement supplémentaire, si ce n’est un effort de jalonnement et d’information de la part des collectivités.
Cela peut passer par l’indication d’un itinéraire conseillé par un panneau, ou par une carte des itinéraires, parfois assortie des temps estimés pour les trajets, comme cela a été fait dans le Clunisois. La connaissance des itinéraires alternatifs permet d’envisager le rural au-delà du seul prisme automobile.
Les cyclistes valorisent d’ailleurs le sentiment de découverte lié à cette façon différente de s’approprier leur territoire.
Au gré des stratégies mises en place par chaque cycliste, différentes stratégies se dessinent. Une part des cyclistes, souvent des hommes jeunes ayant une pratique sportive par ailleurs, affrontent de longues distances et les routes passantes sans trop d’appréhension. Mais la majorité des cyclistes rencontrés, dont les profils sont variés, roule en utilisant le réseau secondaire, évitant les situations anxiogènes, sur des distances plus courtes. Ce sont ces pratiques qui gagnent le plus à être accompagnées par des politiques publiques.
Enfin, une dernière partie des enquêtés cantonne sa pratique du vélo aux centres-bourgs, n’investissant quasiment jamais l’espace interurbain. Les petites centralités constituent un maillage essentiel de l’espace rural, polarisant les services de proximité. Se déploient en leur sein de nombreux déplacements, facilement effectués à vélo. Or, ces mobilités cyclistes, loin d’être rares, sont parfois banalisées par les cyclistes eux-mêmes.
Pourtant, elles participent à nourrir les sociabilités locales particulièrement valorisées par les habitants de ces territoires. Jeanne, septuagénaire et secrétaire de mairie à la retraite, rencontrée dans un petit bourg auvergnat, expliquait ainsi qu’elle habitait là « depuis toujours », se déplaçant invariablement à vélo, et que tout le monde la connaissait ainsi. Si le fait de pouvoir s’arrêter et discuter est le propre des déplacements cyclistes en général, dans les espaces ruraux, cela nourrit également un idéal de « vie villageoise ».
Pédaler dans le rural, c’est donc aussi investir la proximité, tant spatiale que sociale.
La mobilité ne se définit pas seulement par ses dimensions matérielles et fonctionnelles : elle est toujours porteuse de sens et de valeurs. Dans les discours, trois justifications reviennent très régulièrement pour expliquer le choix du vélo : il est économique, écologique et bon pour la santé. Pour Madeleine (60 ans, fonctionnaire territoriale, Puy-de-Dôme),
« C’est le côté économique, et aussi écologique. Je regarde les deux. Je n’ai pas plus de priorités sur l’un ou sur l’autre. »
Nathanaël (42 ans, ouvrier intérimaire, Puy-de-Dôme) explique que « vendredi, je suis venu avec le vélo. C’est qu’en faire, me permet de ne plus avoir mal au genou ». Certes ces raisons se retrouvent aussi chez les cyclistes urbains. Toutefois, dans le rural, elles s’expriment tout particulièrement en référence à l’omniprésence de la voiture et à son poids dans les modes de vie.
Prendre le vélo, c’est aussi faire le choix d’échapper à la norme automobile, chère et polluante, dominante dans ces territoires. Néanmoins, rares sont les cyclistes ruraux à ne pas avoir de voiture, souvent perçue comme une nécessité. Le vélo doit ainsi trouver sa place dans des organisations quotidiennes plus ou moins remaniées. Pour certains, le vélo n’est qu’une mobilité adjuvante, seulement utilisé lorsque les conditions sont jugées favorables : une météo clémente, un temps disponible suffisant… D’autres engagent une réflexion plus radicale sur leur mode de vie, choisissant de « ralentir » et de réduire le nombre de leurs déplacements pour les effectuer essentiellement en vélo.
Limiter les raisons de faire du vélo à ces justifications rationalisées serait toutefois oublier que le plaisir constitue une motivation centrale.
On roule aussi et surtout pour soi. Bien sûr, cette dimension affective du vélo n’est pas l’apanage des ruraux. Néanmoins, l’environnement rural colore tout particulièrement la pratique : la relation à la nature et aux paysages est largement plébiscitée par les cyclistes rencontrés. L’une évoquera les biches croisées de bon matin, l’autre le plaisir de passer par des chemins habituellement réservés aux vététistes. Le vélo du quotidien dans le rural incarne parfaitement la porosité grandissante entre les loisirs et les activités « utilitaires » qui caractérise la société contemporaine.
Si certains territoires continuent de perdre des habitants, le rural a globalement renoué avec l’attractivité résidentielle. Il serait tentant de voir dans cette dynamique démographique le vecteur de développement du vélo du quotidien dans le rural. Des néo-ruraux fraîchement arrivés importeraient ainsi leurs habitudes acquises en ville, où l’on assiste à un retour des déplacements cyclistes. Ce type de profil existe, mais n’épuise pas la diversité des trajectoires des cyclistes rencontrés. Quelques nuances méritent ainsi d’être évoquées.
D’une part, jusque dans les années 1990, on pratiquait davantage le vélo dans les territoires ruraux qu’en ville. Certains cyclistes, la cinquantaine passée et ayant toujours habité le rural, ont ainsi connu une pratique ininterrompue tout au long de leur vie et roulent parfois encore avec des vélos dotés eux-mêmes d’une certaine longévité (photo 2).
D’autre part, les parcours des cyclistes croisés amènent à considérer la complexité des liens qui s’établissent entre pratiques urbaines et rurales du vélo. Les trajectoires résidentielles ne sont pas linéaires et se composent souvent d’allers-retours entre ville et campagne, ce qui colore la pratique.
Mariette, retraitée de 65 ans, a par exemple grandi et appris à pédaler dans un village de Saône-et-Loire. L’acquisition d’une voiture lui fait arrêter le vélo. Elle ne le reprendra que vingt ans plus tard, arrivée à Grenoble, motivée par la dynamique cyclable de la ville. À la retraite, elle retourne dans son village d’enfance mais continue le vélo, électrique cette fois, poussée par la rencontre avec d’autres cyclistes locaux.
Souvent le passage en ville, les socialisations qui s’y jouent, marquent un jalon pour la pratique du quotidien. Mais il s’inscrit dans un ensemble d’autres temps d’apprentissage et de rencontres. Le prisme du vélo permet donc d’insister sur les circulations qui s’établissent entre urbain et rural, plutôt que sur leur opposition tranchée.
Il existe de multiples façons de se déplacer à vélo dans le rural, des plus banalisées aux plus engagées, en fonction des stratégies et des motivations de chacun. Elles s’inscrivent toutefois dans une organisation globale de la ruralité et des mobilités qui la constituent. L’accompagnement de ces pratiques repose donc sur la prise en compte de leur diversité, ainsi que sur une réflexion collective des transitions possibles et souhaitables dans ces territoires.
Alice Peycheraud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.04.2025 à 17:13
Agnès Lelièvre, Maître de conférences en agronomie, AgroParisTech – Université Paris-Saclay
Christine Aubry, Fondatrice de l’équipe de recherche INRAE « Agricultures urbaines », UMR Sadapt, AgroParisTech – Université Paris-Saclay
Clotilde Saurine, Animatrice de réseau sur le sujet de l'alimentation, AgroParisTech – Université Paris-Saclay
Doudja Saïdi-Kabeche, Enseignante-Chercheuse en siences de Gestion, AgroParisTech – Université Paris-Saclay
Fanny Provent, Ingénieure agronome
Seulement 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte par exemple ses céréales. Pourrait-on dès lors remédier à cette situation ?
L’Île-de-France, région la plus riche du pays, concentre 30 % du PIB et une forte proportion de diplômés, tout en jouissant d’une réputation internationale. Cependant, elle est presque totalement dépendante de l’extérieur pour son alimentation, avec seulement 2 % des produits alimentaires provenant de la région selon une étude de 2017 et 5 à 7 jours d’autonomie en cas de crise.
Ces chiffres posent à la fois des questions de sécurité, de souveraineté et d’autosuffisance, et interrogent l’ensemble du système alimentaire, de la production à la consommation.
Du champ jusqu’à l’assiette, comment peut-on l’expliquer et comment, surtout, pourrait-on rendre l’Île-de-France plus autonome sur le plan alimentaire ?
Commençons par un paradoxe : en Île-de-France, la production de céréales est très excédentaire par rapport aux besoins régionaux (3,2 millions de tonnes de blé en 2019, selon FranceAgriMer, qui, transformées en farine, représentent plus du double de la consommation de farine des 12 millions de Franciliens. Pourtant, le bassin de consommation importe de la farine, car une forte proportion de ce blé est exportée (70-80 %). Une étude précise le détail des 1,6 million de tonnes de nourriture venant de province qui entrent en Île-de-France chaque année : principalement des fruits et légumes, de l’épicerie, des boissons sans alcool et des produits laitiers. Elle nous permet également d’apprendre que les produits animaux, eux, ne satisfont qu’à peine 2 % de la consommation et que la production de fruits et légumes, correspond à moins de 10 % de la consommation régionale.
Pourtant, la région était maraîchère au moins jusqu’au début du XXe siècle. En 1895, l’Île-de-France était autonome, à près de 95 %, en fruits et légumes et, en 1960, on comptait encore plus de 20 000 ha de légumes diversifiés dans la région (environ 2 000 ha aujourd’hui).
Sur la partie la plus urbanisée, seuls 0,6 % des aliments consommés sont produits aujourd’hui dans la Métropole du Grand Paris (MGP), qui inclut Paris et 130 communes environnantes, et au moins 30 % des aliments consommés à Paris proviennent de l’international. Ce constat une fois posé, est-il envisageable aujourd’hui d’améliorer l’autonomie alimentaire de la Région ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’agriculture urbaine est parfois présentée comme un moyen de conquérir de nouveaux terrains productifs en ville pour produire localement, en particulier des fruits et légumes. Cependant, les travaux de l’agroécologue Baptiste Grard montrent qu’en mettant en production la totalité des 80 hectares de toits cultivables à Paris, on fournirait au maximum 10 % des fruits et légumes consommés par les Parisiens.
De plus, la portance de ces toits et d’autres contraintes peuvent limiter la surface réellement cultivable. Malgré un soutien fort de la Mairie, la surface en production intramuros n’est passée que de 11 ha en 2014 à 31 ha en 2020.
Pour rendre l’Île-de-France plus autonome sur le plan alimentaire, il faudrait donc encourager les collectivités à utiliser davantage d’aliments issus de l’agriculture périurbaine.
Celle-ci paraît particulièrement bien indiquée pour alimenter la restauration collective, notamment publique (écoles, crèches, collèges, lycées, hôpitaux publics, Ehpad publics, prisons), qui représente en Île-de-France près de 650 millions de repas annuels servis, dont plus de 50 % en secteur scolaire. Elle constitue donc une source majeure d’influence sur l’alimentation des habitants et peut devenir un levier pour l’évolution de l’agriculture de proximité vers des formes plus durables, encouragées en cela par la loi Égalim.
Le périurbain francilien, en Seine-et-Marne, Yvelines, Val-d’Oise et Essonne, participe de plus en plus à cette dynamique. On voit en effet croître le nombre d’exploitations diversifiant leurs productions vers des légumineuses et légumes de plein champ à destination de la restauration collective, notamment en production biologique, avec l’influence notable de la Coop bio d’Île-de-France,créée en 2014.
Il s’agit pour l’essentiel de céréaliers diversifiés ou de maraîchers d’assez grande taille (au moins une dizaine d’hectares) sur des espèces spécifiques (salades, carottes, pommes de terre…). Les plus petites exploitations maraîchères (moins de 5 ha), très diversifiées en légumes, dont beaucoup se sont installées ces dix dernières années avec un fort soutien des collectivités locales, sont moins orientées vers ce débouché, qui exige d’importants volumes à un prix relativement bas et induit beaucoup de contraintes de référencement pour les producteurs, d’où l’intérêt de formes mutualisées de commercialisation.
C’est ainsi que certaines collectivités préfèrent passer directement en régie agricole pour leur restauration collective à l’image de Mouans-Sartoux (Alpes-Maritimes) dans la Région Paca, ou de Moissy-Cramayel (Seine-et-Marne) ou Villejuif (Val-de-Marne) en Île-de-France. La régie agricole est une ferme municipale dont le foncier appartient à la Ville et dont le personnel est salarié municipal.
Ce rôle structurant de la restauration collective a permis, en 2023, de lancer l’association AgriParis Seine, élargissant la notion de « local » à 250 km autour de Paris et visant à structurer des filières d’agriculture durable par l’achat public, en parcourant la Seine, du Havre jusqu’au nord de l’Yonne, le fleuve servant de voie majeure d’approvisionnement à terme. Dans le même temps, le schéma directeur de la Région Île-de-France envisage d’autres logiques, avec un projet de ceinture maraîchère autour de Paris.
Soutenant, à travers la restauration collective, l’agriculture francilienne, les collectivités espèrent aussi lutter avec elle contre le fléau de la précarité alimentaire, qui s’est accrue ces dernières années : l’Agence nouvelle des solidarités actives la chiffre aujourd’hui dans une fourchette de 12 à 20 % de la population, avec de fortes disparités intrarégionales sur le nombre d’habitants touchés et l’intensité de cette précarité, qui va de pair avec une forte prévalence des maladies de la nutrition (diabète, obésité). L’agriculture urbaine (intra et périurbaine) peut-elle jouer des rôles intéressants pour mieux alimenter des personnes en précarité ?
Les jardins collectifs (familiaux, partagés, au bas d’immeuble), plus de 1 300 en Île-de-France en 2019, y contribuent directement par une autoproduction alimentaire, variable mais qui peut être non négligeable selon la taille des jardins et l’implication des jardiniers : elle pouvait représenter, en 2019, en jardins familiaux, plus de 1 500 € d’économie par an sur les achats de fruits et légumes d’une famille, et probablement plus aujourd’hui étant donné l’inflation. Avec l’augmentation de la pauvreté et la demande accrue de jardins collectifs depuis la crise Covid, il serait nécessaire de mener une étude sur les rôles quantitatifs et économiques, dans les territoires franciliens, des diverses formes de jardinage collectif.
En périurbain, les jardins d’insertion, dont ceux du réseau Cocagne, revendiquent plus de 140 000 paniers solidaires par an au niveau national. En Essonne, les jardins du Limon fournissent, eux, 550 paniers solidaires par semaine.
Le réseau des Amap d’Île-de-France (elles sont 290 en 2023) propose aussi, depuis 2021, des paniers solidaires ou des livraisons de surplus à des épiceries ou restaurants solidaires. Forme de solidarité éthique de base, cette fourniture reste cependant très confidentielle en termes quantitatifs.
De plus, la production d’aliments n’est pas tout, il faut pouvoir et savoir cuisiner les produits, ce qui n’est pas toujours possible (par absence d’équipements) lorsqu’on vit en hôtel social, en hébergement d’urgence ou dans d’autres logements précaires. C’est pour faciliter l’intégration de ces produits frais dans l’alimentation de publics en difficulté que des structures associatives combinent jardinage et transformation alimentaire.
À l’instar de la dynamique observée partout en France, se mettent en place en Île-de-France, des initiatives pour favoriser l’accessibilité à des produits de qualité pour toutes, s’appuyant sur des principes de « démocratie alimentaire » : expérimentations de caisse alimentaire locale, transferts monétaires « fléchés » vers des produits durables (Vit’Alim par Action contre la faim et le Conseil départemental de Seine-Saint-Denis), comités locaux pour l’alimentation et la santé (PTCE Pays de France)…
C’est un enjeu sérieux que de structurer l’analyse des retours d’expériences à en tirer, car de cela dépend la capacité de diffuser des modèles alternatifs proposés pour transformer le système alimentaire de façon pérenne. Le projet Territoire zéro précarité alimentaire (TZPA) (terme proposé par le Labo de l’ESS), mené par le réseau Agricultures urbaines et précarité alimentaire de la chaire Agricultures urbaines (Aupa), vise précisément à évaluer les impacts de plusieurs de ces initiatives sur la « sécurité alimentaire durable » dans les territoires concernés.
Il reste capital de pouvoir mieux évaluer scientifiquement, du point de vue de la lutte contre la précarité alimentaire, ces diverses initiatives, des Amapm aux régies agricoles, ce à quoi travaille la chaire Agricultures urbaines (AgroParis Tech).
En Île-de-France, l’autonomie alimentaire reste faible en raison des orientations actuelles des systèmes de production et des marchés. Devenir plus autonome implique non seulement une production locale accrue, mais aussi la transformation et la distribution régionales des produits. La restauration collective et la lutte contre la précarité alimentaire sont deux leviers essentiels, souvent imbriqués ensemble : les collectivités signalent souvent que la restauration collective scolaire représente déjà une forme de lutte contre la précarité alimentaire des enfants, si toutefois les cantines scolaires sont bien accessibles à tous.
Ces deux sujets sont impactés par les politiques publiques et souvent limités par un manque de coordination et de moyens. Un meilleur soutien financier et une évaluation rigoureuse des initiatives locales pourraient inspirer des politiques publiques plus efficaces et durables. Là, la recherche en lien étroit avec les acteurs politiques et de terrain est fortement convoquée. Il va sans dire qu’elle aussi manque aujourd’hui de moyens pour cela.
Agnès Lelièvre a reçu des financements de l'Union Européenne à travers sa participation à des projets JPI Urban Europe, Horizon 2020 et Horizon Europe
Christine Aubry, Clotilde Saurine, Doudja Saïdi-Kabeche et Fanny Provent ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
15.04.2025 à 17:34
Thomas Reverdy, Professeur des Universités en sociologie, Université Grenoble Alpes (UGA)
L’Accès régulé à l’électricité nucléaire historique (ARENH), particularité du marché français de l’électricité introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025. Retour sur l’histoire d’un dispositif controversé, mais trop souvent mal compris.
Le 31 décembre 2025, prendra fin une disposition spécifique au marché français de l’électricité, l’Accès régulé au nucléaire historique (ARENH). Cette disposition, mise en place en 2011, permettait aux fournisseurs concurrents de EDF d’accéder à un volume total d’électricité nucléaire de 100 TWh à un prix fixe de 42 euros par mégawatt-heure (MWh).
Régulièrement présentée par ses détracteurs soit comme une injonction autoritaire des autorités européennes, soit comme une spoliation d’EDF, les objectifs et les modalités de cette disposition sont souvent mal connus et incompris. Revenons sur l’histoire de ce dispositif.
L’intégration de la France aux marchés de l’énergie européens après leur libéralisation a entraîné une hausse des prix à partir de 2004. Les clients industriels français se sont fortement mobilisés pour être protégés de cette hausse, suite à quoi l’État a mis en place un nouveau tarif réglementé pour les entreprises en 2006. La même logique a prévalu lors de l’ouverture des marchés pour les particuliers en 2007, l’État a décidé de maintenir un tarif réglementé calculé sur la base des coûts de production.
Or, la hausse des prix sur les marchés de gros a produit un effet de « ciseau tarifaire ». Il empêchait les fournisseurs alternatifs, qui achetaient l’électricité sur le marché de gros, de se développer. En effet, ces derniers n’avaient pas la capacité de rivaliser avec le tarif réglementé et les offres de EDF, fondés sur les coûts plus compétitifs du nucléaire historique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ainsi, la volonté politique de protéger les entreprises et les consommateurs par le tarif a alors entraîné un blocage de l’ouverture à la concurrence. L’ARENH a été créé dans ce contexte : il permettait de respecter l’engagement européen de développer la concurrence, tout en permettant de restituer aux consommateurs français l’avantage économique du nucléaire historique.
Le choix du mécanisme a été motivé par un souci de continuité avec les équilibres économiques qui existaient avant la libéralisation. Il a effectivement permis aux consommateurs français de bénéficier de l’avantage économique du nucléaire existant, tout en leur évitant d’être exposés aux variations du prix de marché de gros européen, quels que soient l’offre tarifaire et le fournisseur. La distribution du volume ARENH aux fournisseurs alternatifs est très encadrée en amont et en aval, pour éviter qu’ils tirent un bénéfice immédiat en revendant l’électricité sur le marché de gros. Elle ouvre à des règlements financiers en cas d’écart avec les besoins du portefeuille de clients.
Néanmoins, le mécanisme a rencontré plusieurs configurations inattendues qui l’ont fragilisé. En 2015, le prix du marché de gros européen, en baisse, est passé en dessous du prix fixé pour l’ARENH. Dans cette situation, l’ARENH a perdu de son intérêt pour les fournisseurs alternatifs.
Cette alternative a révélé le caractère asymétrique du dispositif : il ne garantit pas la couverture des coûts d’EDF en cas de baisse des prix de marché en dessous du tarif de l’ARENH. En novembre 2016, des fluctuations des prix des contrats à terme, ont permis aux fournisseurs alternatifs de réaliser des arbitrages financiers impliquant l’ARENH.
Cette période de prix bas sur les marchés de gros a aussi permis aux fournisseurs alternatifs de développer leurs parts de marché, qu’ils ont conservées quand les prix ont remonté à partir de 2018.
En 2019, le volume de 100 TWh prévu par la loi ne permettait pas de couvrir tous les besoins en nucléaire des fournisseurs alternatifs (130 TWh). Un écrêtement de l’ARENH a alors été mis en place. Ce rationnement a eu pour effet de renchérir les coûts d’approvisionnement des fournisseurs alternatifs, dans la mesure où une partie de l’électricité d’origine nucléaire de EDF devait être achetée au prix du marché de gros pour compléter le volume d’ARENH manquant.
Ces derniers ont dû ajuster leurs contrats de fourniture en conséquence. La Commission de régulation de l’énergie (CRE) a augmenté en 2019 les tarifs réglementés de l’électricité pour refléter ces nouveaux coûts d’approvisionnement, pour que le tarif réglementé reste « contestable » (qu’il puisse être concurrencé) par les fournisseurs alternatifs. Un des effets de l’écrêtement est de revaloriser l’énergie nucléaire, dont une partie est désormais vendue par EDF au niveau du prix de marché, supérieur au tarif de l’ARENH.
La loi énergie-climat de 2019 prévoyait une augmentation du volume d’ARENH à 150 MWh de façon à mettre fin à l’écrêtement. En parallèle, il était envisagé d’augmenter son prix de façon à suivre la hausse des coûts du parc nucléaire. Le projet HERCULE de restructuration de l’entreprise, initié pour améliorer la valorisation financière de l’entreprise, était aussi une opportunité pour repenser le mécanisme ARENH et le rendre symétrique, garantissant à EDF un niveau de revenu minimal en cas de baisse des prix.
Or le projet HERCULE a été abandonné face à la mobilisation syndicale car il portait atteinte à la cohérence de l’entreprise. Les modifications de l’ARENH ont été aussi abandonnées à cette occasion. Constatant que le prix de marché de gros suivait une tendance à la hausse, EDF avait plus à gagner à ce que l’ARENH ne soit pas modifié : elle pouvait gagner davantage grâce à l’écrêtement qu’avec une hypothétique réévaluation du prix de l’ARENH.
C’est donc avec un dispositif déséquilibré et asymétrique que le secteur électrique français a abordé la crise européenne de l’énergie en 2022. Du fait de la hausse des prix du gaz, une hausse des prix des contrats d’électricité à terme pour l’année 2022 a été observée dès le début de l’automne 2021.
Le gouvernement a alors décidé de mettre en place un bouclier tarifaire pour éviter que cette hausse n’affecte trop les consommateurs finaux – et éviter une crise politique dans un contexte préélectoral.
Pour réduire les surcoûts pour l’État et pour protéger les entreprises, il a aussi envisagé d’augmenter le volume d’ARENH pour répondre à une demande de 160 TWh. Réduire l’écrêtement de l’ARENH, permet de réduire l’achat d’électricité sur le marché de gros, ce qui réduit d’autant les factures de tous les clients, et donc le coût du bouclier tarifaire. Les négociations avec EDF ont retardé la décision.
Un « ARENH+ » a finalement été acté par le gouvernement en janvier 2022 pour la période de mars à décembre 2022. Au final, cette réduction d’écrêtement de l’ARENH a bien eu l’effet recherché par l’État, qui était de réduire le niveau des factures pour l’ensemble des consommateurs.
Néanmoins, compte tenu de son déploiement tardif, cette extension de l’ARENH à hauteur de 20 TWh supplémentaires a obligé EDF à racheter l’électricité nécessaire au prix de marché pour la revendre à un prix de 46 euros par MWh. Pour EDF, le coût direct était d’environ 4 milliards d’euros.
Cette extension de l’ARENH est intervenue dans un contexte critique pour EDF. De nombreuses centrales nucléaires étaient indisponibles. La maintenance des centrales nucléaires a été retardée par la crise du Covid-19, la détection de problèmes inédits de corrosion sous contrainte ayant entraîné l’arrêt de nombreux réacteurs.
S’ajoute à cela la sécheresse des étés 2021 et 2022, qui a réduit les réserves d’eau dans les barrages et la production d’électricité d’origine hydroélectrique et nucléaire. Au cours de l’année 2022, EDF a dû importer de l’électricité aux pays européens voisins à des prix extrêmement élevés.
A l’automne 2022, le mécanisme de formation des prix sur le marché de gros européen s’est trouvé au cœur des débats en Europe et en France : il était question de limiter son influence sur la facture du consommateur. Paradoxalement, en France, le débat s’est alors focalisé sur l’ARENH. La commission d’enquête parlementaire « visant à établir les raisons de la perte de souveraineté et d’indépendance énergétique de la France » a alors été l’occasion, pour les anciens dirigeants d’EDF, de condamner l’ARENH, accusé d’avoir appauvri EDF et d’être responsable de la dépendance énergétique de la France.
L’extension de l’ARENH n’a pas été renouvelée pour 2023 et 2024, même si la demande d’ARENH est restée élevée, s’élevant alors à 148 TWh. De ce fait, les clients français ont acheté, directement ou indirectement, une large partie de l’électricité nucléaire de EDF au prix de marché de gros européen, exceptionnellement élevé. Ces deux années se sont donc avérées très profitables pour EDF, dont la disponibilité des centrales nucléaires s’est améliorée.
Dans l’intervalle, le ministère de la transition a travaillé au remplacement de l’ARENH par un autre mécanisme symétrique. L’idée était de transposer au nucléaire historique les « contrats pour différence (CFD) symétriques », utilisés en Europe pour les énergies renouvelables.
Ce mécanisme devait permettre de garantir un complément de prix par rapport au marché de l’électricité, sécurisant ainsi la rémunération du producteur. Inversement, si le prix du marché augmente, l’État récupère l’écart, qu’il peut redistribuer aux consommateurs.
En parallèle, EDF a défendu un autre mécanisme, qui consistait à supprimer l’ARENH et à taxer les profits d’EDF quand ils dépassent un certain niveau. Bruno Le Maire a officialisé, en novembre 2023, l’arbitrage en faveur de ce second mécanisme, désormais validé dans le cadre de la Loi de Finance 2025.
L’électricité nucléaire sera donc vendue sur le marché et l’État pourra taxer EDF à hauteur de 50 % si les prix de marché dépassent un premier seuil calculé à partir des coûts complets de EDF – avec une marge non encore fixée – puis d’écrêter ses revenus en cas dépassement d’un second seuil. Les revenus issus de ce prélèvement devraient alors être redistribués de façon équitable entre les consommateurs.
Au-delà des incertitudes liées à la définition des seuils et des modalités de redistribution, le nouveau mécanisme valorise l’énergie nucléaire au prix de marché. EDF reste exposée au marché, mais conserve la possibilité de bénéficier des rentes générées par le nucléaire historique, pour financer ses investissements, en particulier dans le nucléaire futur. La préférence d’EDF pour ce second mécanisme tient aussi au fait qu’il permet d’accroître l’autonomie stratégique de l’entreprise tout en préservant sa cohésion organisationnelle.
Les clients industriels, les associations de consommateurs soulignent à l’inverse qu’il conforte l’entreprise dans sa position dominante et les prive d’une sécurité économique. Le mécanisme redistributif proposé risque d’introduire d’importantes inégalités dues à la diversité des formes d’approvisionnement. Ces consommateurs anticipent aussi des hausses des prix en janvier 2026, qui pourraient mettre en danger la dynamique d’électrification, clef de voûte de la décarbonation.
Ainsi, l’ARENH a joué un rôle essentiel dans la stabilité des prix de l’électricité pendant 15 ans, y compris pendant la crise énergétique, même si l’écrêtement en a limité les effets protecteurs. Sa complexité, ses fragilités techniques, et son statut ambivalent ont été autant de faiblesses mises en valeur dans le débat public pour affaiblir sa légitimité. L’abandon de l’ARENH a pour effet d’accroître la place du marché dans la formation du prix, et donc d’accroître les incertitudes économiques pour l’ensemble des acteurs.
L’auteur remercie Ilyas Hanine pour sa relecture.
Thomas Reverdy n’a pas reçu de financement de recherche en relation avec le thème de cet article. Par ailleurs, il a reçu des financements de l’État, de l’Ademe et de producteurs d’énergie pour diverses recherches sur les politiques énergétiques et le pilotage de projet.
14.04.2025 à 12:27
Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes
Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université
Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL
De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.
Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?
Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.
Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.
Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?
L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :
Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.
Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.
Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.
Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.
Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :
par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;
ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.
Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.
L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.
Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !
Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.
La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.
Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.
Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.
Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.
Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.
Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.
Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche
Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.04.2025 à 13:05
Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)
La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.
Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.
Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.
D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.
Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.
De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.
La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.
Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.
Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.
D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.
Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.
En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.
Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.
Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.
D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.
La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.
Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.
Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 12:25
Christian Simon, Maitre de conférence, HDR, Sorbonne Université
Jean-Marc Bertho, Expert en radioprotection, ASNR
Après Tchernobyl et Fukushima, les mesures citoyennes de la radioactivité ont pris leur essor, pour permettre aux populations d’évaluer leurs propres risques, et pour éventuellement fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique. En France, le projet de sciences participatives OpenRadiation a, lui, permis quelque 850 000 mesures citoyennes en huit ans d’existence, et se développe essentiellement à des fins pédagogiques.
Voilà maintenant huit ans que des personnes de tous âges et de toute profession ont commencé à mesurer eux-mêmes la radioactivité dans leur environnement. Ils utilisent pour cela un outil de sciences participatives, nommé OpenRadiation, utilisable par tout un chacun, sans compétences particulières. Mais pourquoi avoir lancé un tel projet ? Comment est construit le système OpenRadiation ? Quels sont les buts de ces mesures de radioactivité ? Retour sur un projet qui mêle transparence, pédagogie et éducation.
La radioactivité est présente partout dans notre environnement, qu’elle soit naturelle ou d’origine humaine. En France, la radioactivité dans l’environnement est très surveillée avec plus de 300 000 mesures par an dans tous les compartiments de l’environnement : eau air, sols, végétaux et animaux, réalisées par les exploitants d’installation nucléaires, par l’autorité de sûreté nucléaire et de radioprotection et par des associations. Cette surveillance est réalisée à l’aide de différents appareils, généralement complexes et coûteux, et donc peu accessibles aux citoyens. Bien que tous les résultats soient rendus accessibles à tout le monde, en particulier au travers du site du réseau national de mesures de la radioactivité), certaines personnes peuvent souhaiter réaliser des mesures par eux-mêmes.
Les premières actions de mesure citoyenne de la radioactivité ont été réalisées au milieu des années 90 dans le cadre des programmes de recherche européens développés en Biélorussie, à la suite de l’accident de Tchernobyl. L’objectif était alors de permettre aux habitants de s'approprier les enjeux de radioprotection, c’est-à-dire la compréhension et le choix des actions qui permettent à chacun de se protéger des effets de la radioactivité dans une situation post-accidentelle où la radioactivité est présente partout dans l’environnement.
La perte de confiance de la population japonaise dans le discours des autorités à la suite de l’accident de Fukushima en 2011 a également accéléré le développement de la mesure citoyenne de la radioactivité. De nombreuses associations locales ont développé, avec l’aide d’universitaires, des détecteurs de radioactivité permettant de réaliser des mesures et le partage des résultats via des sites Internet de cartographie, par exemple le projet Safecast.
Ces mesures de radioactivité dans l’environnement par les citoyens présentent deux avantages. D’une part, elles permettent à chacun d’évaluer ses propres risques et de ce fait retrouver une certaine confiance dans les conditions de vie quotidienne. D’autre part, elles peuvent fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’idée du projet OpenRadiation a vu le jour en France en 2013, soit deux ans après l’accident de Fukushima, en tenant compte du retour d’expérience de cet accident qui a démontré l’importance de la mesure citoyenne pour l’accompagnement de la population. Ce projet permet également d’accompagner la demande de personnes souhaitant s’investir dans la mesure de radioactivité ambiante, en particulier les habitants des environs des installations nucléaires.
Un consortium a été créé, afin de réunir les compétences nécessaires en mesure des rayonnements ionisants (l’institut de radioprotection et de sûreté nucléaire (IRSN)), en design et création d’objets connectés (Le Fablab de Sorbonne Universités), en éducation aux sciences (Planète Sciences) et aux risques (L’Institut de formation aux risques majeurs (l’IFFORME)). L’Association nationale des comités et commissions locales d’information (l’ANCCLI), qui regroupe les commissions locales d’information existant autour de toutes les installations nucléaires françaises, a ensuite rejoint le consortium en 2019.
Ce consortium a développé les trois composants du système OpenRadiation
Un détecteur de radioactivité. Il doit être compact, facilement utilisable, et donner des résultats de mesure fiables. La technologie retenue est celle d’un tube à gaz (un tube Geiger-Müller dont le principe a été inventé en 1913 et mis au point en 1928), robuste et fiable. Cependant, la technologie développée ne permet de mesurer que les rayonnements gamma et X. Le détecteur ne permet donc pas de mesurer directement des éléments radioactifs comme le radon ou l’uranium. Ces détecteurs sont disponibles à l’achat ou au prêt en nous contactant par mail à l’adresse openradiation@gmail.com.
Une application pour smartphone, qui va permettre de piloter le détecteur par liaison Bluetooth et de publier les résultats de mesure sur un site Internet. Cette application permet d’utiliser certaines fonctionnalités du téléphone, comme la localisation GPS, la date et l’heure, afin de compléter les métadonnées associées à chaque mesure sans pour autant complexifier le détecteur.
Un site Internet (openradiation.org) avec une carte interactive, qui va permettre la publication des résultats de mesure et les métadonnées associées. Le site Internet permet également les échanges entre contributeurs, le dépôt de commentaires sur les mesures, la publication d’informations (liste des détecteurs compatibles, mode d’emploi, méthodes de réalisation des mesures de radioactivité, mais aussi ce que les détecteurs ne peuvent pas mesurer) et le suivi de projets spécifiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Après une période de réflexion et de tests, le projet OpenRadiation a vu officiellement le jour en 2017. L’ensemble du système OpenRadiation est volontairement en open source (sous licence CC By 4.0) ce qui signifie que toute personne peut obtenir les codes sources des applications, du site et de la carte interactive et les utiliser pour ses propres besoins. Ainsi, certains contributeurs ont pu modifier l’application sur smartphone pour créer des balises fixes de mesure de la radioactivité avec un envoi automatique des résultats de mesure sur la carte OpenRadiation.
De même, l’ensemble des résultats de mesure est en open data, ce qui signifie que tout ou partie de la base de données peut être téléchargée et analysée par toute personne qui le souhaite. Ainsi, une étude a été menée en Biélorussie, dans un village à proximité de la zone interdite en utilisant OpenRadiation. Des détecteurs ont été confiés à un groupe de 17 lycéens afin qu’ils puissent mesurer la radioactivité dans leur environnement, avec une grande liberté d’action.
Ils ont ainsi réalisé plus de 650 mesures en un mois, essentiellement dans leur village de Komaryn et aux environs. Les résultats ont permis de montrer que les niveaux d’exposition aux rayonnements ionisants sont en moyenne comparables à ceux observés dans d’autres parties du monde, mais qu’il existe des « points chauds », c’est-à-dire des lieux où la radioactivité a tendance à se concentrer. Il s’agit en particulier des lieux où du bois a été brûlé, la cendre ayant la propriété de concentrer la radioactivité contenue dans le bois.
La question de la fiabilité des résultats de mesure publiés est souvent posée. La réponse à cette interrogation couvre deux aspects différents, la fiabilité technique du résultat de mesure d’une part et la publication de résultats plus élevés qu’attendus d’autre part.
La fiabilité technique des détecteurs a été testée en laboratoire en utilisant des sources radioactives de calibration. Des tests sur le terrain ont également permis de comparer les résultats du détecteur OpenRadiation avec ceux de détecteurs professionnels. Ce type de comparaison a été réalisée à plusieurs occasions et a montré que les résultats obtenus avec les détecteurs OpenRadiation sont satisfaisants, dans des conditions de mesure variées.
Ensuite, la publication sur le site OpenRadiation de résultats montrant une radioactivité élevée peut avoir différentes origines. Les cas les plus courants sont liés à un niveau de charge insuffisant de la batterie (ce qui peut produire des résultats incohérents), à la présence de radioactivité naturelle plus importante qu’attendue ou à des mesures au contact d’objets ou de matériaux radioactifs.
Ainsi, des personnes ont mesuré des objets radioactifs tels que des vieux réveils Bayer avec une peinture fluorescente au radium, des objets en verre contenant de l’ouraline, ou des minéraux naturellement fortement radioactifs. Il peut également s’agir de mesures à proximité d’un transport de matière radioactive ou encore de patients traités en médecine nucléaire.
Il est également possible de découvrir un véritable « point chaud », comme une résurgence de roche radioactive, la présence de sables radioactifs naturels ou encore l’utilisation de certains matériaux de construction contenant certaines roches particulièrement radioactives.
Dans l’environnement, les débits de dose mesurés sont connus pour varier de façon importante en fonction de la localisation et peuvent atteindre des valeurs très élevées. Sur la carte OpenRadiation, on peut observer ces différences. Ainsi, quelques mesures faites en Iran au bord de la mer Caspienne, dans le Kerala en Inde, ou encore en Bretagne sur la côte de granit rose sont significativement plus élevées que celles faites en région parisienne.
En altitude, l’exposition est plus importante car la diminution de l’épaisseur d’atmosphère réduit la protection contre le rayonnement cosmique.
La publication des résultats de mesure sur le site OpenRadiation nécessite donc d’être explicité. Le principe retenu tient en deux points :
Toute mesure envoyée sur le site est publiée en totale transparence sans étape de validation ou censure et sans possibilité de la retirer. Ce point est essentiel pour conserver la confiance des contributeurs, mais aussi pour détecter d’éventuelles situations où la radioactivité est particulièrement élevée, quelle qu’en soit la raison et permettre une éventuelle intervention pour sécuriser un site.
Par conséquent, toute mesure dépassant un seuil d’alerte (correspondant à environ 4 fois la valeur du « bruit de fond radiologique » en France) fait l’objet d’une étude. À chaque fois qu’un résultat publié dépasse ce seuil, un contact est pris avec le contributeur, afin d’échanger avec lui sur les conditions de la mesure et trouver d’un commun accord une explication plausible. Un commentaire est alors déposé sur le site pour expliquer le résultat de la mesure. Environ 1,25 % des mesures publiées sur le site dépassent le seuil d’alerte. Dans la très grande majorité des cas, une explication est trouvée, moins de 0.02 % des mesures publiées sur le site OpenRadiation ne trouvent pas d’explication immédiate.
À l’exception de quelques sites, et en moyenne, les niveaux de radioactivité en France sont considérés comme bas, même et y compris à proximité des installations nucléaires. C’est la raison pour laquelle OpenRadiation reste avant tout un outil pédagogique pour comprendre ce qu’est la radioactivité. Il est actuellement utilisé dans une vingtaine de lycées et collèges, en lien avec les programmes scolaires. OpenRadiation est également adopté pour faire de la médiation scientifique et de l’éducation au risque nucléaire, par exemple à l’occasion de la fête de la science ou de la journée nationale de la résilience.
Au 1er janvier 2025, OpenRadiation réunissait 327 contributeurs actifs et plus de 800 personnes qui nous suivent. La majorité des contributeurs se trouvent en France et en Europe, mais on en voit aussi dans de nombreux pays autour du monde (Japon, États-Unis, Afrique du sud). La carte et la base de données comportent, à la date de la publication de cet article, plus de 850 000 résultats de mesure sur les cinq continents, y compris en Antarctique, même si la majorité des mesures ont été réalisées en Europe. Les quelques études réalisées avec OpenRadiation ont montré la puissance de cet outil, tant pour la réassurance des personnes vivant dans des environnements contaminés que pour réaliser des études en surveillance de l’environnement, ou encore des recherches dans le domaine des sciences humaines et sociales, pour étudier leurs motivations ou la façon dont les contributeurs s’organisent pour réaliser leurs mesures.
OpenRadiation pourrait aussi trouver à l’avenir des applications nouvelles dans différentes situations. Par exemple, il est possible d’impliquer les citoyens dans la réalisation d’un « point zéro » de la qualité radiologique de l’environnement avant la construction d’une nouvelle installation nucléaire. De même, il peut être intéressant d’impliquer des citoyens pour l’étude des environs d’un site contaminé par d’anciennes activités nucléaires (ancien site minier par exemple), pour susciter un dialogue. Au-delà de la mise à disposition des détecteurs à des citoyens et des utilisations pédagogiques, l’objectif actuel d’OpenRadiation est de développer l’utilisation de cet outil au service des études et recherches de toute nature, dans une démarche de sciences participatives impliquant autant que possible les citoyens intéressés par la notion de radioactivité.
Evelyne Allain (Institut français des formateurs risques majeurs et protection de l’environnement), Ghislain Darley (Autorité de sûreté nucléaire et de radioprotection), Christine Lajouanine (Planète Sciences), Véronique Lejeune (Autorité de sûreté nucléaire et de radioprotection), Yves Lheureux (Association nationale des comités et commissions locales d’information), Renaud Martin (Autorité de sûreté nucléaire et de radioprotection), Marjolaine Mansion (Institut français des formateurs risques majeurs et protection de l’environnement), Alexia Maximin (Planète Sciences), François Trompier (Autorité de sûreté nucléaire et de radioprotection) ont participé à la rédaction de cet article.
Jean-Marc Bertho est membre de la commission internationale de protection radiologique (CIPR) et membre de la société française de Radioprotection (SFRP)
Christian Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 11:58
Frédéric Lassalle, Maître de Conférences en Sciences de gestion, IAE Dijon - Université de Bourgogne
Les compétitions internationales de football polluent, mais surtout du fait du transport des équipes et des supporters. La Fifa, qui a affirmé faire du développement durable une de ses priorités, a pourtant annoncé une démultiplication inédite du nombre d’équipes en compétition et de pays hôtes pour la Coupe du monde de 2026 puis celle de 2030. Au risque d’accroître encore l’empreinte carbone des transports liés au football.
Le 13 février 2025, le Shift Project présentait un rapport de 180 pages consacré à l’impact climatique du football, et en particulier de l’Union des associations européennes de football (UEFA) et de la Fédération internationale de football association (Fifa).
Parmi les nombreux chiffres avancés dans cette étude, on retrouve deux chiffres marquants : 6 % – soit la part des matchs internationaux sous la responsabilité de ces deux organisations, et 61 % – soit la part que ces matchs représentent en termes d’émissions carbone dans le football mondial.
En cause, le déplacement des équipes et surtout des spectateurs. Le rapport explique que, pour la France uniquement, la compétition de football émet 275 000 tonnes de CO2 par an, ce qui correspond à un an de chauffage au gaz pour 41 000 familles.
Pourtant, la Fifa a fait du développement durable l’une de ses priorités pour les prochaines années. On pourrait ainsi s’attendre à ce que celle-ci cherche à limiter le nombre de matchs pour limiter les déplacements provoqués par ces manifestations. Mais il n’en est rien.
Le nombre d’équipes en compétition pour la Coupe du monde de football n’a cessé de croître : 16 de 1934 à 1978, 24 de 1982 à 1994, 32 de 1998 à 2022.
Pour la Coupe du monde 2026, la Fifa a acté un passage à 48 équipes. Il est désormais possible d’organiser le tournoi tous les deux ans au lieu de quatre, et d’y impliquer plusieurs pays organisateurs – par exemple, le Canada, les États-Unis et les Mexique, pour 2026.
Pour la Coupe du monde 2030, la Fifa envisage ainsi une compétition à 64 équipes, ceci avec pas moins de six pays hôtes différents : l’Argentine, l’Espagne, le Paraguay, le Portugal, le Maroc et l’Uruguay.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
À noter également, l’arrivée de la nouvelle Coupe du monde des clubs à 32 équipes (en remplacement de l’ancienne formule qui comportait seulement sept équipes) aux États-Unis, en juin et juillet 2025. Les équipes qualifiées cette année ne sont pas forcément les championnes des grandes compétitions continentales.
En effet, le Real Madrid, vainqueur de la Ligue des champions – trophée le plus prestigieux d’Europe – sera accompagné de 11 autres équipes européennes, ainsi que de six équipes d’Amérique du Sud, quatre équipes africaines, quatre équipes asiatiques, quatre équipes nord-américaines et une équipe d’Océanie.
Pour aller encore plus loin dans la démesure de ses évènements, le président de la Fifa Gianni Infantino déclarait en mars 2025 vouloir animer la mi-temps de la finale du Mondial 2026 avec un show inspiré par le Super Bowl.
L’organisation d’événements sportifs de cette échelle contredit l’enjeu à réduire nos émissions de gaz à effet de serre pour limiter le changement climatique. Le choix d’augmenter le nombre de participants – et ainsi le nombre de matchs à vendre aux partenaires commerciaux – semble être une vision uniquement financière. Une coupe du monde classique à 32 équipes et dans un seul pays émet déjà, selon les estimations de la Fifa elle-même, 3,6 millions de tonnes de CO2.
Mais ce choix est également critiquable d’un point de vue économique. Il est important de rappeler à la Fifa qu’en matière de stratégie des organisations, il existe généralement deux grandes stratégies possibles.
La première est la stratégie générique de domination globale par les coûts, où l’avantage concurrentiel obtenu passera par la recherche d’augmentation des volumes de production et, traditionnellement, par la mise en place d’économie d’échelles.
La seconde est celle de différenciation, où l’assemblage de facteurs clés de succès va permettre de se démarquer de ses concurrents.
Dans un monde où les ressources sont limitées et vont être de plus en plus difficiles d’accès, la logique d’augmentation des volumes semble être la moins intéressante à long terme. Au contraire, on peut rappeler à la Fifa l’intérêt des modèles de stratégie permettant d’évaluer les avantages concurrentiels d’une entreprise.
L’un de ces modèles, le VRIST, développé par Laurence Lehman-Ortega et ses collègues, se base sur les ressources et compétences de l’organisation qui permettent d’obtenir de la valeur.
Selon ce modèle, les organisations doivent évaluer leurs ressources et compétences au regard de cinq critères clés : la création de valeur : pour une organisation, organiser un événement sportif n’est intéressant que si cet événement intéresse suffisamment de personnes pour en tirer un revenu ; la rareté ; la protection contre l’imitation ; la protection contre la substitution et enfin la protection contre le transfert de la ressource ou de la compétence.
Pour faciliter cette protection, l’organisation peut jouer sur trois leviers :
La spécificité : il s’agit de développer pour un client un produit ou service spécifique ;
L’opacité des ressources, ou la non-transparence : cette technique permet de garder la recette, si l’on peut dire, secrète ;
La complémentarité des ressources : elle permet d’avoir la présence de liens informels entre les aptitudes et ressources qui les protègent. Par exemple, avoir deux wagons dans un train n’est intéressant que si nous n’avons un engin de traction capable de les déplacer. La complémentarité s’évaluera au regard non seulement du nombre de locomotives, mais également en fonction de leurs puissances et du nombre de wagons qu’elles peuvent tracter.
La Fifa aurait ainsi tout intérêt à appliquer cette logique issue de la théorie des ressources en cherchant à rendre ses événements plus rares. Selon cette logique, se diriger vers une coupe du monde tous les deux ans, plutôt que tous les quatre ans, est un non sens.
Elle devrait plutôt chercher à rendre ses ressources et compétences inimitables, non substituables et non transférables, en s’appuyant sur la maîtrise historique, la spécificité de ses compétitions qui se voulaient exclusives en autorisant uniquement les meilleurs équipes du monde à y participer et la complémentarité d’une Coupe du monde des équipes nationales tous les quatre ans avec une Coupe du monde des clubs limitée aux sept champions continentaux tous les ans.
En augmentant le nombre de matchs et de compétitions, l’organisation internationale en charge du football ne protège pas ses ressources et compétences et ne tient pas compte du changement climatique. En fin de compte, le football semble s’exonérer de ses responsabilités environnementales au motif qu’il divertit.
Pour réduire l’impact environnemental des compétitions internationales de football, les auteurs du rapport du Shift Project suggèrent quelques pistes. Les deux principales sont la proximité – limiter les déplacements trop nombreux et trop fréquents en favorisant les spectateurs locaux – et la modération – limiter le nombre de matchs.
Pour le moment, la Fifa semble prendre le chemin opposé, alors que la voie à suivre serait un retour à une Coupe du monde avec moins d’équipes, où des qualifications régionales regagneraient en intérêt, notamment avec la disparition de compétitions comme la Ligue des nations en Europe, qui diluent l’intérêt pour l’épreuve reine.
La proximité des matchs permettrait de jouer sur les rivalités régionales et renforcer l’intérêt des spectateurs, comme lors des matchs Brésil-Argentine ou France-Allemagne.
En définitive, la Fifa devrait chercher à proposer des sommets mondiaux rares, générant une forte attente, plutôt que de proposer des matchs nombreux, mais ennuyeux. C’est un point sur lequel convergent à la fois le rapport du Shift Project et la théorie des ressources.
Frédéric Lassalle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.04.2025 à 11:58
Madeline Laire-Levrier, Doctorante Circularité des Plastiques des équipements sportifs, Arts et Métiers ParisTech
Carola Guyot Phung, Ingénieur recherche I2M - Université de Bordeaux et Bordeaux Sciences Agro, École polytechnique
Carole Charbuillet, Enseignante Chercheure- Circularité des matériaux dans les produits complexes, Arts et Métiers ParisTech
Nicolas Perry, Professeur des Universités, enseignant chercher dans le domaine de l'écoconception, l'évaluation environnementale et l'économie circulaire ; impliqué dans des sujets en liens avec les activités industrielles, les produits complexes manufacturés., Arts et Métiers ParisTech
Skis, raquettes, ballons, planches de surf… Tous nos équipements sportifs sont de vrais casse-tête à recycler. Pour minimiser leur impact et faciliter leur fin de vie, il devient donc nécessaire de repenser leur conception.
C’est un constat qui s’impose dès qu’on met un pied dans un magasin d’équipements sportifs. Le plastique y est devenu omniprésent et a fini par remplacer les matériaux comme le bois dans presque tous les sports : skis et vélos en fibres de carbone, kayaks en polyéthylène pour les loisirs et en fibres de verre pour les compétitions… Malgré leurs qualités indéniables en termes de performance, ces matériaux deviennent problématiques, en fin de vie de ces produits, pour la gestion des déchets et la pollution qu’ils génèrent.
Cette réalité interpelle alors même que, dans la foulée des Jeux olympiques Paris de 2024, les JO d’hiver de 2030 se dérouleront dans les Alpes françaises. Leur organisation est déjà lancée avec l’objectif de jeux responsables et soutenables pour nos montagnes. En parallèle, le comité d’organisation des Jeux de Paris 2024 a, lui, publié en décembre dernier son rapport de soutenabilité présentant les initiatives engagées pendant ces jeux (emballages, installations, logements, transports…). Il montre qu’il est possible de prendre en compte la question environnementale lors d’un grand événement.
Mais qu’en est-il exactement pour les équipements sportifs utilisés au quotidien ?
Si vous avez chez vous un ballon, une raquette de ping-pong ou bien un tapis de yoga, sachez que cette question vous concerne désormais directement depuis l’instauration d’un principe de responsabilité élargie du producteur (REP) pour les articles de sport et de loisirs (ASL), entré en vigueur en 2022.
Une REP est un dispositif qui rend responsable les entreprises du cycle de vie de leurs produits, de la conception jusqu’à la fin de vie. La première REP a été instaurée en 1993 pour les emballages ménagers. La REP ASL est, quant à elle, le premier dispositif à l’échelle mondiale qui se penche sur les équipements sportifs.
Elle concerne tous les équipements utilisés dans le cadre d’une pratique sportive ou d’un loisir de plein air ; incluant les accessoires et les consommables (chambre à air, leurre de pêche, cordage de raquette de tennis…). Globalement, tout produit qui ne peut être utilisé que pour la pratique d’un sport entre dans le périmètre de cette REP. Ainsi, des baskets qui peuvent être portées quotidiennement entrent dans le périmètre de la REP textiles chaussures et linges de maison (REP TLC), instaurée en 2007, tandis que des chaussons d’escalade entrent dans la REP ASL.
Cette réglementation est du ressort des fabricants et distributeurs, mais elle vous concerne également, car les vendeurs et producteurs doivent désormais payer une écocontribution qui se répercute sur le prix final (de quelques centimes à quelques euros) que le consommateur paye.
Cette écocontribution permet de financer la collecte, le tri et les opérations de broyage et de nettoyage de la matière, en vue du recyclage et de l’élimination, ainsi que la réutilisation en seconde main des produits en fin de vie. Mais dans la réalité, il ne suffit pas de payer ce traitement de fin de vie pour qu’il soit réalisé. Car la tâche est complexe et qu’elle implique de nombreux acteurs.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
D’ici à 2027, la moitié (en masse) des articles de sport et de loisirs devront être recyclés. Pour les vélos, cet objectif est encore plus grand puisqu’il est de 62 %. Les plastiques sont à traiter en priorité, car ils représentent un tiers des matériaux constituant les ASL. En effet, la recherche de performance dans le milieu du sport et des loisirs implique une grande diversité et complexité de matières pour ce gisement. Les produits eux-mêmes sont composés de différents plastiques :
mélangés (dans les formulations), comme pour les kayaks ;
multicouches (superposés et/ou collés), comme pour les skis ;
assemblés (clipsés, vissés, etc.), comme pour les casques de vélo ;
composites (fibre de verre ou de carbone), comme pour les planches de surf ;
mousses, comme le rembourrage des crash pads d’escalade ;
élastomères, comme les balles de tennis ;
plastiques souples, comme les ballons de foot…
Cette diversité de matériaux au sein même de la fraction plastique engendre des difficultés pour le tri et, donc, pour le recyclage. Les technologies et les circuits logistiques diffèrent selon les produits, les matériaux et les composants.
La mise en circularité du plastique depuis la fin d’utilisation jusqu’à sa réutilisation dans un nouveau produit est singulière et propre à chaque matière. La complexité des produits a aussi des conséquences sur la rentabilité du recyclage, ce qui peut freiner les investissements.
Mettre en place une nouvelle filière dédiée à ce type de produits implique également de connaître le flux de déchets, sa disponibilité pour le recyclage, la caractérisation des matières au sein des produits et nécessite une demande suffisante pour justifier des investissements.
Pour être le plus efficace possible, il faudra donc que ces investissements s’appuient sur d’autres éléments en amont. Tout d’abord, l’écoconception pour prolonger la durée de vie des produits et pour faciliter le désassemblage. Ce dernier point constitue un axe clé de la circularité des équipements sportifs. En effet, la majeure partie des équipements sportifs sont complexes à désassembler manuellement, et cela peut même être dangereux pour les agents qui en sont chargés et qui peuvent se blesser ou se couper.
Plus le produit est performant, plus il est complexe à démonter. Les rollers sont, par exemple, composés de plastiques durs et d’inserts métalliques qui n’ont pas été conçus pour être démonter. Pour résoudre cela, le désassemblage robotisé peut être une voie à expérimenter.
L’écoconception facilite également le tri et les opérations de recyclage, par exemple en réduisant le nombre de matières utilisées (casques de ski uniquement en polypropylène), en privilégiant des matières pour lesquelles les technologies de recyclage sont matures (kayaks en polyéthylène). Les matières biosourcées constituent une voie alternative, mais leur recyclage reste limité ou en phase de développement. Ces matières peuvent donc être un frein au traitement de fin de vie actuelles et ont parfois des impacts plus élevés sur l’environnement au moment de leur production.
Chacun peut enfin contribuer à l’efficacité de la nouvelle filière en déposant ses articles en fin de vie dans les lieux réservés à la collecte : déchetteries, clubs sportifs, distributeurs, recycleries (certaines sont spécialisées dans la récupération d’équipements sportifs) et lieux de l’économie sociale et solidaire. Déposer son article usagé est la première étape pour réussir la mise en circularité des ASL.
Les clubs sportifs, par le biais des fédérations nationales, peuvent également organiser des collectes permanentes ou ponctuelles d’équipements usagés sur les lieux de pratique et faciliter à plus grande échelle la récupération des matériaux, nécessaire à la performance de la filière. Les distributeurs spécialisés peuvent eux aussi développer l’offre des bacs de collecte.
C’est par ces gestes que commence la mise en circularité des ASL. Enfin, les sportifs et les utilisateurs (clubs, kinésithérapeutes…) d’équipements peuvent privilégier le réemploi et la réparation.
Les producteurs doivent, quant à eux, travailler sur l’écoconception, en discussion avec les acteurs de gestion des déchets ainsi qu’avec les recycleurs pour que le recyclage soit le plus efficace possible. Les équipementiers de sports d’hiver ont déjà fait des efforts dans ce sens pour certains modèles de skis et de casques de ski, mais cela reste encore insuffisant.
Madeline Laire-Levrier a reçu des financements de l'ADEME et ECOLOGIC France.
Carola Guyot Phung a bénéficié de financements d'entreprises privées de la filière forêt-bois et d'ECOLOGIC France
Carole Charbuillet a bénéficié de financements publics de l'ADEME et l'ANR dans le cadre de ses travaux de recherche mais également d'Ecologic et ecosystem (chaire Mines Urbaines).
Nicolas Perry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2025 à 15:04
Maxence Mautray, Doctorant en sociologie de l’environnement, Université de Bordeaux
Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines qui peuvent intervenir à différents stades de la gestion du tri, une activité qui rassemble de nombreux acteurs, ayant des objectifs parfois contradictoires.
Lundi 7 avril au soir, le centre de tri des déchets du XVIIe arrondissement de Paris s’est embrasé, provoquant la stupeur des riverains. Le feu, maîtrisé durant la nuit grâce à l’intervention de 180 pompiers, n’a fait aucun blessé parmi les 31 salariés présents, l’alarme incendie s’étant déclenchée immédiatement.
Si aucune toxicité n’a pour l’heure été détectée dans le panache de fumée émanant du site, l’incident a eu des conséquences pour les habitants : une portion du périphérique a dû être fermée à la circulation et un confinement a été décrété pour les zones à proximité. Le bâtiment, géré par le Syctom (le syndicat des déchets d’Île-de-France), s’est finalement effondré dans la matinée du mardi 8 avril.
Mais comment un feu aussi impressionnant a-t-il pu se déclarer et durer toute une nuit en plein Paris ? Si les autorités n’ont pas encore explicité toute la chaîne causale entraînant l’incendie, elles ont cependant mentionné, lors notamment de la prise de parole du préfet de police de Paris Laurent Nuñez, la présence de bouteilles de gaz dans le centre de tri et l’explosion de certaines, ce qui a pu complexifier la gestion du feu par les pompiers, tout comme la présence de nombreuses matières combustibles tel que du papier et du carton dans ce centre de gestion de tri.
Une chose demeure elle certaine, un départ de feu dans un centre de tri n’est malheureusement pas une anomalie. De fait, si cet incendie, de par son ampleur et peut-être aussi les images virales des panaches de fumées devant la tour Eiffel, a rapidement suscité beaucoup d’émois et d’attention, à l’échelle de la France, ce genre d’événement est bien plus fréquent qu’on ne le pense.
La base de données Analyse, recherche et information sur les accidents (Aria), produite par le Bureau d’analyse des risques et pollutions industriels (Barpi) nous éclaire à ce sujet.
Depuis 2010, 444 incendies ont été recensés en France sur des installations de traitement et d’élimination des déchets non dangereux (centres de tri, plateformes de compostage, centres d’enfouissement…).
À ces incendies s’ajoutent parfois des explosions, des rejets de matières dangereuses et des pollutions des espaces environnants et de l’air. L’origine humaine est souvent retenue comme la cause de ces catastrophes. Même si elles n’entraînent pas toujours des blessés, elles soulignent la fragilité structurelle de nombreuses infrastructures du secteur des déchets ménagers.
Au-delà de cet événement ponctuel, l’incendie de Paris soulève donc peut-être un problème plus profond. En effet, notre système de gestion des déchets implique une multiplicité d’acteurs (ménages, industriels, services publics…) et repose sur une organisation complexe où chaque maillon peut devenir une source d’erreur, conduisant potentiellement à la catastrophe.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
De fait, pénétrer dans un centre de gestion de tri, comme il m’a été donné de le faire dans le cadre de mes recherches doctorales, c’est se confronter immédiatement aux risques quotidiens associés aux métiers de tri des déchets dans les centres.
Si l’on trouve dans ces centres des outils toujours plus perfectionnés, notamment pour réaliser le premier tri entrant, l’œil et la main humaine restent malgré tout toujours indispensables pour corriger les erreurs de la machine.
Ces métiers, bien qu’essentiels au fonctionnement des services publics des déchets, sont pourtant peu connus, malgré leur pénibilité et leurs risques associés. Les ouvriers, dont le métier consiste à retirer les déchets non admis des flux défilant sur des tapis roulants, sont exposés à des cadences élevées, des heures de travail étendues et des niveaux de bruits importants.
Ils sont aussi confrontés à de nombreux risques : des blessures dues à la répétition et la rapidité des gestes, mais aussi des coupures à cause d’objets parfois tranchants, voire des piqûres, car des seringues sont régulièrement présentes dans les intrants.
La majorité du travail des ouvriers de ces centres consiste ainsi à compenser les erreurs de tri réalisées par les ménages. Ce sont souvent des éléments qui relèvent d’autres filières de recyclage que celle des emballages ménagers et sont normalement collectés différemment : de la matière organique comme des branchages ou des restes alimentaires, des piles, des ampoules ou des objets électriques et électroniques, ou encore des déchets d’hygiène comme des mouchoirs et des lingettes.
Ces erreurs, qui devraient théoriquement entraîner des refus de collecte, ne sont pas toujours identifiées par les éboueurs lors de leurs tournées.
Derrière cette réalité, on trouve également les erreurs de citoyens, qui, dans leur majorité, font pourtant part de leur volonté de bien faire lorsqu’ils trient leurs déchets.
Mais cette intention de bien faire est mise à l’épreuve par plusieurs obstacles : le manque de clarté des pictogrammes sur les emballages, une connaissance nécessaire des matières à recycler, des règles mouvantes et une complexité technique croissante.
Ainsi, l’extension récente des consignes de tri, depuis le 1er janvier 2023, visant à simplifier le geste en permettant de jeter tous les types de plastiques dans la poubelle jaune, a paradoxalement alimenté la confusion. Certains usagers expliquent qu’ils hésitent désormais à recycler certains déchets, comme les emballages en plastique fin, par crainte de « contaminer » leur bac de recyclage, compromettant ainsi l’ensemble de la chaîne du recyclage.
Malgré ces précautions, les erreurs de tri persistent. À titre d’exemple, le Syndicat mixte intercommunal de collecte et de traitement des ordures ménagères (Smictom) des Pays de Vilaine comptait 32 % de déchets non recyclables dans les poubelles jaunes collectées sur son territoire en 2023. Après 20 000 vérifications de bacs jaunes effectuées en une année afin de mettre en place une communication adaptée à destination de la population, ce taux n’a chuté que de cinq points en 2024, signe que la sensibilisation seule ne suffit pas à réorienter durablement les pratiques des usagers.
Notre système de gestion des déchets comporte donc un paradoxe. D’un côté, les ménages ont depuis longtemps adopté le geste de tri au quotidien et s’efforcent de le réaliser de manière optimale, malgré des informations parfois peu claires et un besoin constant d’expertise sur les matières concernées. De l’autre, il n’est pas possible d’attendre un tri parfait et les centres de tri se retrouvent dans l’obligation de compenser les erreurs.
À cela s’ajoute une complexité supplémentaire qui réside dans les intérêts divergents des acteurs de la gestion des déchets en France.
Les producteurs et les grandes surfaces cherchent à mettre des quantités toujours plus importantes de produits sur le marché, afin de maximiser leurs profits, ce qui génère toujours plus de déchets à trier pour les consommateurs.
Les services publics chargés de la gestion des déchets sont aussi confrontés à une hausse constante des ordures à traiter, ce qui entre en tension avec la protection de l’environnement et de la santé des travailleurs. Enfin, les filières industrielles du recyclage, communément nommées REP, souhaitent pour leur part accueillir toujours plus de flux et de matières, dans une logique de rentabilité et de réponse à des objectifs croissants et des tensions logistiques complexes.
Dans un tel contexte, attendre une organisation fluide et parfaitement maîtrisée de la gestion des déchets relève de l’utopie. Chacun des maillons de la chaîne poursuit des objectifs parfois contradictoires, entre recherche de la rentabilité, contraintes opérationnelles, protection des humains et de l’environnement et attentes des citoyens. Si des initiatives émergent (simplification du tri, contrôle des infrastructures, sensibilisation des citoyens, innovations technologiques, etc.), elles peinent à harmoniser l’ensemble du système.
Dès lors, le risque d’incidents ne peut être totalement éliminé. L’incendie du centre parisien n’est donc pas une exception, mais bien le témoin d’un système qui, malgré les efforts, reste structurellement vulnérable. Loin de pouvoir atteindre le risque zéro, la gestion des déchets oscille en permanence entre prévention, adaptation et situation de crise.
Maxence Mautray a reçu, de 2020 à 2024, des financements de la part du ministère de l'Enseignement supérieur et de la Recherche et du SMICVAL Libournais Haute Gironde dans le cadre d'une recherche doctorale.
08.04.2025 à 16:33
Jérémy Lavarenne, Research scientist, Cirad
Cheikh Modou Noreyni Fall, Chercheur au Laboratoire Physique de l'Atmosphère et de l'Océan de l'UCAD, Université Cheikh Anta Diop de Dakar
Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments. Car ces derniers peuvent fournir également de nombreuses données météo.
Un drone fend le ciel au-dessus des plaines ensoleillées d’Afrique de l’Ouest. Ses hélices vrombissent doucement dans l’air chaud de l’après-midi. Au sol, un agriculteur suit du regard l’appareil qui survole son champ, où ses cultures peinent à se développer, à cause d’un épisode de sécheresse. Comme la plupart des paysans de cette région, il ne peut compter que sur les précipitations, de plus en plus irrégulières et imprévisibles. Ce drone qui passe pourrait-il changer la donne ? Peut-être.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Nés dans divers contextes civils et militaires (photographie, surveillance, cartographie…), les drones connaissent aujourd’hui une expansion fulgurante en Afrique, surtout pour la livraison de produits de première nécessité dans des zones difficiles d’accès. Parmi eux, la société états-unienne Zipline et les Allemands de Wingcopter sont particulièrement actifs au Rwanda, au Ghana, au Nigeria, au Kenya, en Côte d’Ivoire et au Malawi, où ils transportent du sang, des vaccins, des médicaments ou encore du matériel médical.
Mais ce que l’on sait moins, c’est que ces drones portent aussi en eux un potentiel météorologique : au fil de leurs livraisons, et afin de sécuriser les vols et planifier efficacement leur route, ils enregistrent des données sur la vitesse du vent, la température de l’air ou la pression atmosphérique.
Pourquoi ces informations sont-elles si précieuses ? Parce qu’en matière de prévision météo, l’Afrique souffre d’un déficit majeur. Par exemple, alors que les États-Unis et l’Union européenne réunis (1,1 milliard d’habitants à eux deux) disposent de 636 radars météorologiques, l’Afrique – qui compte pourtant une population quasi équivalente de 1,2 milliard d’habitants – n’en possède que 37.
Les raisons derrière cela sont multiples : budgets publics en berne, manque de moyens techniques, mais aussi monétisation progressive des données, rendant l’accès à l’information plus difficile. La question du financement et du partage de ces données demeure pourtant cruciale et devient un enjeu majeur pour la sécurité alimentaire et la gestion des risques climatiques.
À lire aussi : Le paradoxe des données climatiques en Afrique de l’Ouest : plus que jamais urgentes mais de moins en moins accessibles
Dans ce contexte, chaque nouveau moyen de récupérer des informations est un atout. Or, si les drones de livraison africains ont d’abord été pensés pour desservir des lieux isolés, ils permettent aussi des relevés météo dits « opportunistes » effectués en marge de leurs missions, dans une logique comparable aux relevés « Mode-S EHS » transmis par les avions de ligne depuis des altitudes beaucoup plus importantes. Zipline affirme ainsi avoir déjà compilé plus d’un milliard de points de données météorologiques depuis 2017. Si ces relevés venaient à être librement partagés avec les agences de météo ou de climat, ils pourraient ainsi, grâce à leurs vols à basse altitude, combler les lacunes persistantes dans les réseaux d’observation au sol.
La question du partage reste toutefois ouverte. Les opérateurs de drones accepteront-ils de diffuser leurs données ? Seront-elles accessibles à tous, ou soumises à des accords commerciaux ? Selon la réponse, le potentiel bénéfice pour la communauté scientifique et pour les prévisions météorologiques locales pourrait varier considérablement.
L’idée d’utiliser des drones destinés aux observations météo n’est pas neuve et rassemble déjà une communauté très active composée de chercheurs et d’entreprises. Des aéronefs sans équipage spécifiquement conçus pour la météorologie (appelés WxUAS pour Weather Uncrewed Aircraft Systems) existent déjà, avec des constructeurs comme le Suisse Meteomatics ou l’états-unien Windborne qui proposent drones et ballons capables de fournir des relevés sur toute la hauteur de la troposphère. Leurs capteurs de pointe transmettent en temps réel des données qui nourrissent directement les systèmes de prévision.
Selon les conclusions d’un atelier organisé par Météo France, ces observations contribuent déjà à améliorer la qualité des prévisions, notamment en réduisant les biais de prévision sur l’humidité ou le vent, facteurs clés pour détecter orages et phénomènes connexes. Pourtant, les coûts élevés, l’autonomie limitée et les contraintes réglementaires freinent encore une utilisation large de ces drones spécialisés.
Or, les appareils de livraison déployés en Afrique ont déjà surmonté une partie de ces défis grâce à leur modèle économique en plein essor, à un espace aérien moins saturé et à une large acceptation sociale – car ils sauvent des vies.
Reste la question de la fiabilité. Même si les drones de livraison captent des variables essentielles (vent, température, pression…), on ne peut les intégrer aux systèmes de prévision qu’à condition de valider et d’étalonner correctement les capteurs. Mais avec des protocoles rigoureux de comparaison et de calibration, ces « données opportunistes » pourraient répondre aux exigences de la météo opérationnelle et devenir un pilier inédit de la surveillance atmosphérique.
Leur utilisation serait d’autant plus précieuse dans les zones rurales, en première ligne face au changement climatique. Là où les stations au sol manquent ou vieillissent, les survols réguliers des drones pourraient fournir des relevés indispensables pour anticiper épisodes secs, orages violents ou autres phénomènes météo extrêmes.
À lire aussi : VIH : et si les drones servaient aussi à sauver des vies ?
Parallèlement, des initiatives émergent pour démocratiser l’accès à la technologie drone. Au Malawi, par exemple, des projets universitaires (dont EcoSoar et African Drone and Data Academy) montrent que l’on peut construire à bas coût des drones de livraison efficaces à partir de matériaux simples (mousse, pièces imprimées en 3D). Cette démarche ouvre la voie à une potentielle collecte de données météo supplémentaires, accessible à des communautés qui souhaitent mieux comprendre et anticiper les aléas climatiques.
À une échelle plus large, l’Organisation météorologique mondiale (OMM) mène la campagne Uncrewed Aircraft Systems Demonstration Campaign (UAS-DC), réunissant des opérateurs publics et privés autour d’un même objectif : intégrer les drones dans le réseau mondial d’observation météorologique et hydrologique. Les discussions portent sur la définition des mesures fondamentales (température, pression, vitesse du vent, etc.), et l’harmonisation des formats de données et sur leur diffusion pour que ces mesures soient immédiatement utiles aux systèmes de prévision.
Cependant, ces perspectives ne deviendront réalité qu’au prix d’une coopération poussée. Entre acteurs publics, opérateurs de drones et gouvernements, il faudra coordonner la gestion, la standardisation et, surtout, le partage des informations. Assurer un libre accès – au moins pour des organismes à but non lucratif et des communautés rurales – pourrait transformer ces données en un levier majeur pour la prévision et la résilience climatiques.
Qu’ils soient opérés par de grandes sociétés ou construits localement à moindre coût et s’ils continuent d’essaimer leurs services et de collecter des relevés, les drones de livraison africains pourraient bien inaugurer une nouvelle ère de la météorologie sur le continent : plus riche, plus précise et, espérons-le, plus solidaire – grâce à des modèles économiques soutenables, à l’utilisation déjà effective de données météo embarquées et à la créativité citoyenne qui émerge un peu partout.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.