LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

28.04.2025 à 17:27

La décroissance impliquerait-elle le retour à l’âge de la bougie ?

Marc Germain, Maître de conférences émérite d'économie, Université de Lille

Le « jour du dépassement » a été atteint le 19 avril dernier. Une étude réfute les liens entre décroissance et retour à l’âge de la bougie. Au pire ? Un retour au PIB par habitant de 1964…
Texte intégral (2270 mots)
Le 19 avril, la France atteint son « jour de dépassement » écologique. À cette date, notre pays a consommé l’ensemble des ressources naturelles produites pour satisfaire la consommation de sa population et absorber ses déchets pour toute l’année. JHDTProductions/Shutterstock

Le « jour du dépassement » a été atteint le 19 avril dernier. Diminuer le produit intérieur brut (PIB) pour faire disparaître ce dépassement écologique n’impliquerait pas de retourner à l’âge de la bougie. C’est ce que conclut une étude appliquée à la France et à l’Allemagne. Le PIB par habitant soutenable d’aujourd’hui correspondrait à un niveau observé dans les années 1960. Tout en gardant les technologies actuelles.


En 2020, le président Macron balayait la demande de moratoire de la gauche et des écologistes sur le déploiement de la 5G en renvoyant ses opposants au « modèle amish et au retour à la lampe à huile ». En 2024, le premier ministre Attal estimait que « la décroissance, c’est la fin de notre modèle social, c’est la pauvreté de masse ». Au vu de ces citations, tout refus du progrès ou toute baisse volontaire de l’activité économique est assimilé à un retour en arrière, voire à un monde archaïque.

Pourtant, le 1er août 2024, l’humanité atteignait son « jour de dépassement » écologique. À cette date, celle-ci avait consommé l’ensemble des ressources naturelles que la planète avait produites pour satisfaire sa consommation et absorber ses déchets pour toute l’année.

Dans le cas de la France, le jour du dépassement était déjà atteint le 19 avril. Malgré ses limites, le jour du dépassement est un indicateur pédagogique très utilisé pour mesurer le degré de non-soutenabilité du « train de vie » moyen d’une population sur le plan environnemental. Plus ce jour intervient tôt dans l’année, moins ce train de vie est durable.

Afin de reculer le jour du dépassement (et idéalement de le ramener au 31 décembre), on peut schématiquement opposer deux grandes stratégies.

  • La première vise à découpler les activités humaines de leur empreinte environnementale, principalement par le progrès technique. C’est la posture « techno-solutionniste ».

  • La deuxième, promue notamment par les partisans de la décroissance, ne croit pas en la faisabilité de ce découplage. Elle prône une réduction volontaire et ciblée des activités humaines elles-mêmes.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une étude récente, appliquée en particulier à la France, réfute les citations du premier paragraphe. Elle montre que la baisse du PIB permettant de faire disparaître le dépassement écologique en France n’impliquerait nullement un retour à l’âge de la bougie (ou de la lampe à huile), mais à un PIB par habitant observé dans les années 1960.

Définition de l’empreinte écologique

Le point de départ de l’étude consiste à faire le lien entre empreinte écologique, PIB et population d’un pays, à travers l’identité suivante :

E = eyP

où :

  • E désigne l’empreinte écologique. Selon le Global Footprint Network (GFN), l’organisme qui produit les statistiques relatives à l’empreinte écologique, celle-ci mesure la surface de terre et d’eau biologiquement productive dont un individu, un pays ou une activité a besoin pour produire toutes les ressources qu’il consomme et pour absorber les déchets qu’il génère.

  • y = Y/P est le PIB par habitant, où Y et P désignent respectivement le PIB et la population du pays.

  • e = E/Y est définie comme l’intensité écologique du PIB. À titre d’illustration, considérons une économie qui ne produit que des denrées agricoles. L’intensité écologique est alors l’empreinte écologique liée à la production d’un euro de ces denrées. L’intensité est (entre autres) déterminée par la technologie, dans la mesure où elle est d’autant plus faible que les ressources sont utilisées efficacement par l’économie.

En résumé, l'empreinte écologique est le produit de la population, de sa consommation de richesses et de l'efficacité des moyens utilisés pour produire ces richesses.

Empreinte écologique en France et en Allemagne

Les graphiques ci-dessous illustrent les évolutions contrastées des différentes variables présentes dans la formule précédente pour la France et pour l’Allemagne.

On observe que, depuis 1970, l’empreinte écologique globale E est restée plus ou moins stable en France, avant de décroître, depuis 2010. En revanche, l’empreinte écologique est tendanciellement décroissante en Allemagne, depuis 1990. Cette évolution plus favorable s’explique notamment par la croissance sensiblement plus faible de la population de ce pays.

Les évolutions des composantes e, y, P de l’empreinte écologique sont similaires dans les deux pays. L’empreinte écologique est tirée vers le haut par la croissance du PIB/hab y et, dans une bien moindre mesure, par la hausse de la population P.

En revanche, l’empreinte écologique est tirée vers le bas par la baisse continue de l’intensité écologique e. Cette baisse de e est due à différents facteurs, notamment le progrès technique et la tertiarisation de l’économie – les services ayant une empreinte moindre que l’industrie par unité de richesses produites.

Dépassement écologique

La deuxième étape de l’étude consiste à définir le dépassement écologique d’un pays. Celui-ci est défini comme le rapport entre l’empreinte par habitant du pays et la biocapacité par habitant au niveau mondial. La biocapacité est la capacité des écosystèmes à produire les matières biologiques utilisées par les humains et à absorber les déchets de ces derniers, dans le cadre de la gestion et des technologies d’extraction en cours.

Si d désigne le dépassement d’un pays, alors celui-ci est en dépassement si d > 1. Le jour du dépassement de ce pays survient alors avant le 31 décembre, et ce, d’autant plus tôt que d est élevé. Le Global Footprint Network (GFN) interprète le rapport d comme le nombre de planètes Terre nécessaire pour soutenir la consommation moyenne des habitants du pays.

Évolution du dépassement en France et en Allemagne. Fourni par l'auteur

L’évolution au cours du temps du dépassement en France et en Allemagne est décrite par le graphique ci-dessus. Il montre que, si tous les habitants du monde avaient la même empreinte écologique moyenne que celle des Français ou des Allemands à l’époque actuelle, il faudrait à peu près les ressources de trois planètes pour la soutenir.

PIB soutenable

La dernière étape de l’étude concerne la notion de PIB/hab soutenable d’un pays, défini comme le rapport entre le PIB/hab observé et le dépassement écologique.

Le PIB/hab soutenable correspond au niveau de vie maximal moyen compatible avec l’absence de dépassement écologique. Le tableau suivant décrit le calcul du PIB/hab soutenable pour la France et l’Allemagne en 2022 – la dernière année disponible au moment de l’étude.

Pour expliquer ce tableau, considérons les chiffres pour la France. Les deuxième et troisième lignes renseignent respectivement le PIB/hab observé y et le dépassement d de ce pays en 2022. La quatrième ligne calcule le PIB/hab soutenable s, en divisant le PIB/hab observé y par le dépassement d (autrement dit s=y/d). Ce chiffre correspond au niveau maximal du PIB/hab compatible avec l’absence de dépassement.

En d’autres termes, si au lieu d’avoir été égal à 38 816 $, le PIB/hab avait été égal à 13 591 $, la France n’aurait pas été en dépassement en 2022.

Le PIB/hab soutenable étant approximativement égal au tiers du PIB/hab observé, ramener celui-ci à un niveau soutenable supposerait une décroissance de l’ordre des deux tiers. L’ampleur de cette décroissance fait écho à d’autres travaux visant à quantifier les impacts de politiques de décroissance.

La dernière ligne du tableau indique que le PIB/hab qui aurait été soutenable en 2022 en France (13 591 $) correspond à peu près au PIB/hab effectivement observé en 1964. En écho avec les citations évoquées au début de cet article, ce résultat suggère que la décroissance du PIB nécessaire pour faire disparaître le dépassement écologique en France n’impliquerait aucunement un retour à l’âge de la bougie.

Pas un retour aux années 1960

Les résultats de l’étude ne suggèrent pas pour autant un retour pur et simple aux années 1960. En effet, ils sont obtenus en neutralisant le dépassement au moyen de la seule réduction du PIB/hab, alors que l’intensité écologique (déterminée, en particulier, par la technologie) et la population sont fixées à leurs niveaux actuels. Si les résultats supposent une baisse sensible de la production globale de l’économie, ils n’impliquent pas de renoncer à la technologie actuelle.

Il importe de souligner que notre étude s’est limitée à des pays industrialisés, et ne concerne donc pas les pays émergents ou en voie de développement. Nombre de questions n’ont pas été abordées, à l’exemple de celle de la répartition de l’effort de décroissance entre habitants aux revenus très différents ou entre activités économiques.

Notre étude résumée ici doit donc être prise pour ce qu’elle est : un exercice simple visant à remettre en question certains discours dénigrant la décroissance en tant que stratégie de neutralisation du dépassement écologique, dans le cadre du débat autour de la nécessaire réduction des impacts des activités humaines.

The Conversation

Marc Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.04.2025 à 17:27

Livraison du dernier kilomètre : quelles solutions demain pour décarboner la logistique ?

Tristan Bourvon, Coordinateur Logistique & Transport de marchandises, Ademe (Agence de la transition écologique)

Focus sur trois solutions de décarbonation de la logistique : les centres de distribution urbains, les microhubs et la mutualisation des circuits courts alimentaires de proximité.
Texte intégral (2575 mots)
Les microhubs en ville peuvent faciliter le relais entre poids lourds et vélos-cargos pour la livraison du dernier kilomètre. Shutterstock

Comment réduire l’impact climatique des premier et dernier kilomètres des livraisons ? Pour le secteur de la logistique, le défi est de taille. Outre les leviers technologiques, comme le recours à des énergies renouvelables pour les véhicules, des solutions organisationnelles existent. La question du soutien des pouvoirs publics se pose, si l’on souhaite que ces solutions soient déployées à grande échelle en France.


La logistique représente au moins 16 % des émissions de gaz à effet de serre en France, soit 63 millions de tonnes équivalent CO2. Elle est également une source significative d’artificialisation des sols : elle représente environ 4 % de l’artificialisation totale en France entre 2010 et 2019.

La logistique urbaine pèse quant à elle pour 25 % des émissions de gaz à effet de serre des transports en ville, pour 33 % des émissions de polluants atmosphériques et 30 % de l’occupation de la voirie, sans oublier les nuisances sonores qu’elle génère.

Pour que l’objectif de la stratégie nationale bas carbone (SNBC) de baisser de 50 % des émissions de gaz à effet de serre à horizon 2030 soit tenu, les évolutions technologiques telles que l’électrification des flottes ne suffiront pas, quand bien même elles sont indispensables. Il faut donc transformer ce secteur qui représente aujourd’hui 1,8 million d’emplois en France. L’optimisation des flux logistiques et la réduction de leur impact doit aussi passer par des innovations organisationnelles.

Au cours des dernières décennies, plusieurs types de solutions ont déjà été expérimentées en France. L’Agence de la transition écologique (Ademe) a lancé, en 2024, l’eXtrême Défi Logistique, un programme d’innovation visant à imaginer puis à déployer des démarches d’optimisation de la logistique du premier et dernier kilomètre. Dans le cadre de ce programme, elle a identifié trois solutions existantes particulièrement intéressantes sur lesquelles elle a mené une analyse rétrospective :

  • les centres mutualisés de distribution urbaine,

  • les microhubs (microplateformes logistiques, en général optimisées pour une livraison finale par des modes de transport doux),

  • et la mutualisation des circuits courts alimentaires de proximité.

L’enjeu était de mettre en évidence les forces et les faiblesses de chacune d’entre elles afin d’identifier les conditions auxquelles elles pourraient être mises en œuvre à grande échelle en France. Un appel à projets « Ideation », a également été lancé, dans le cadre de l’eXtrême Défi Logistique, pour imaginer et concevoir ce type de solutions sur des territoires partout en France. Quatorze lauréats sont soutenus par l’Ademe. Dès début 2026, une phase d’expérimentation sera lancée pour tester concrètement ces solutions.

En quoi consistent ces différentes solutions et à quelles conditions peuvent-elles fonctionner ? Quel rôle peuvent jouer les collectivités pour assurer leur succès, la coordination entre seuls acteurs privés paraissant compliquée à impulser ?

Des centres de distribution urbaine

La première solution, dont l’Ademe a recensé dans son étude 33 expérimentations, bénéficie déjà d’un certain recul. Les « centres de distribution urbaine » (CDU) sont de petits entrepôts installés en périphérie des centres-villes qui agrègent les flux de différents transporteurs et grossistes pour ensuite organiser des tournées de distribution optimisées vers les centres-villes.

Le but est de réduire le nombre de kilomètres parcourus, le nombre d’arrêts des véhicules, mais aussi les coûts de la livraison du dernier kilomètre. La mutualisation des flux, dont ces CDU sont une forme, participerait dans les villes denses à une diminution de 10 % à 13 % des émissions de gaz à effet de serre.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les premiers projets de CDU, issus du principe des gares routières nées dans les années 1960, émergent dans les années 1990. Parmi les cas étudiés, une partie est privée ou semi-privée, prise en charge par des opérateurs eux-mêmes et d’autres mixtes ou publics. Ces derniers sont portés par les pouvoirs publics et s’apparentent à un « service public » de livraison de marchandises. Certains CDU sont dits « spécifiques » et associés à une activité particulière (chantier de BTP, livraison de marchandises dans un lieu contraint comme un aéroport…). Enfin, les CDU peuvent être mutualisés, c’est-à-dire partagés entre plusieurs plusieurs opérateurs de transport.

L’étude a montré que les difficultés étaient essentiellement liées au modèle économique, du fait notamment d’un manque de flux. Les projets qui ont réussi à se pérenniser ont trouvé un équilibre entre coûts d’exploitation et revenus, en diversifiant leurs sources de financement et en intégrant des services à valeur ajoutée comme le stockage déporté ou la préparation de commande.

Des entrepôts agrégeant les colis en périphérie urbaine permettent d’optimiser la livraison en centre-ville. Shutterstock

Le milieu étant concurrentiel, l’idéal est que la démarche soit portée par une collectivité, qui initie par exemple une structure juridique (coopérative, groupement d’intérêt économique, délégation à une société locale) et met en place une réglementation incitative. Comme des restrictions de circulation ou la mise à disposition de véhicules électriques uniquement qui attireront certains acteurs.

À Lille, un centre qui avait fermé va ainsi être relancé pour réaliser des tournées de livraison mutualisées entre les transporteurs du dernier kilomètre.

Des microhubs au cœur des villes

Autre option, plus récente et encore balbutiante : les microhubs, qui ne bénéficient pas du même recul que les centres de distribution urbains. Ces mini-entrepôts prennent souvent la forme d’une structure légère implantée en cœur de ville, par exemple sur une place de parking. Ces petites installations visent à stocker temporairement de la marchandise afin de réduire les distances parcourues pour la distribution et/ou le ramassage des biens.

Ils facilitent également la rupture de charge entre un poids lourd et des vélos-cargos. La possibilité d’entreposer pour une durée limitée les marchandises permet d’éviter tout temps d’attente entre l’arrivée d’un poids lourd pour décharger et le relais par des vélos cargo. Ces derniers peuvent ainsi rayonner autour du microhub pour réaliser les approvisionnements des établissements économiques locaux.

Autrement dit, les microhubs pallient un déficit en espaces fonciers pour la logistique urbaine dans des zones urbaines denses ou permettent de répondre à un besoin exceptionnel, par exemple pour un événement de grande ampleur qui porte atteinte à la performance logistique, comme l’organisation d’un grand événement sportif type Jeux olympiques. Ces expérimentations présentent aussi l’intérêt de tester la pertinence d’une implantation temporaire pour la logistique urbaine avant d’envisager d’éventuels aménagements plus pérennes. Ils peuvent être fixes ou mobiles, temporaires (de quelques mois à quelques années) ou durables.

D’après l’étude, le modèle souffre de moins de verrous économiques que les centres de distribution urbains, mais il requiert une volonté politique en faveur de la cyclologistique : ce sont souvent les enjeux fonciers et une absence de cadre réglementaire structurant qui limitent leur succès. À Nantes, un projet porté par Sofub (filiale de la Fédération des usagers de bicyclettes), vise ainsi à évaluer le potentiel de déploiement de microhubs sur plusieurs territoires afin de tester leur pertinence.

Mutualiser les circuits courts alimentaires de proximité

La mutualisation des circuits courts alimentaires de proximité (CCAP), enfin, entend répondre aux problématiques que pose la vente d’aliments secs ou frais en filière courte en envisageant la mise en commun des ressources et des moyens mobilisés pour faire circuler ces produits entre producteurs et consommateurs. Dans le cadre de notre étude, le rayon est fixé à 160 km. Les producteurs étant en général contraints d’utiliser leur propre camionnette pour venir en ville commercialiser leurs produits, la démarche est coûteuse, les véhicules souvent vieillissants ne sont en outre pas forcément bien remplis. Ainsi, les circuits courts alimentaires ne sont ainsi pas toujours aussi vertueux qu’espéré.

L’idée de la mutualisation des CCAP est de mettre en place des organisations mutualisées pour acheminer les récoltes vers les villes de façon professionnalisée. Plus matures que les microhubs, les structures porteuses de ce schéma, nées il y a une vingtaine d’années, connaissent déjà de nombreux succès. Elles impliquent toutefois de prendre en compte beaucoup de critères : le type de consommateurs (entreprises ou particuliers), la complexité du circuit court, l’internalisation ou non des opérations logistiques, le support de mutualisation (matériel ou plate-forme virtuelle)…

La principale difficulté relevée par l’étude est de convaincre les producteurs de changer leurs habitudes et d’identifier la structure qui va se charger de cette organisation. Une association de producteurs ? La collectivité ? La Chambre d’agriculture ?

À cet égard, un projet prometteur mené par le Département de l’Aveyron a été retenu comme lauréat de l’appel à projets de l’Ademe : il associe la Chambre d’agriculture, les collectivités partenaires et les programmes alimentaires territoriaux (PAT) pour créer une société coopérative d’intérêt collectif (Scic) qui aura pour objet d’optimiser la logistique des circuits courts à l’échelle du département, au travers du ramassage mutualisé et de la distribution optimisée.

L’approche, à l’échelle d’un département entier, permet d’envisager des gains d’efficacité et d’échelle assez importants, tout en facilitant le recours à ces offres par les acteurs locaux.

Quel rôle pour les collectivités ?

L’analyse rétrospective de ces trois options de décarbonation de la livraison a mis en évidence la nécessité, pour que ces solutions fonctionnent :

  • d’un modèle économique robuste,

  • d’une localisation stratégique,

  • d’une bonne coordination entre parties prenantes,

  • d’un soutien réglementaire et financier,

  • et d’un bon usage des outils numériques et des plates-formes collaboratives.

Elle souligne aussi que ces solutions ont toutes besoin, pour fonctionner, d’être encouragées par une volonté politique plus forte des collectivités. Laisser s’organiser des acteurs privés entre eux ne suffira pas, la coopération entre collectivités, transporteurs, commerçants et citoyens est déterminante pour l’adhésion et l’acceptabilité de ces projets.

Ce rôle des collectivités peut prendre différentes formes. Elles peuvent accompagner des projets en facilitant l’accès au foncier, en incitant à la mutualisation des flux, en mettant en place des leviers réglementaires et en intégrant ces infrastructures dans la planification urbaine.

Les collectivités peuvent également développer des incitations économiques et fiscales, pour soutenir les initiatives locales et encourager les transporteurs à utiliser ces infrastructures.

Elles peuvent enfin améliorer la collecte et le partage des données sur les flux logistiques, afin d’optimiser la planification et le suivi des performances environnementales et économiques.

À Padoue, en Italie, un péage urbain a par exemple été mis en place pour les véhicules de marchandises. Livrer dans la ville exige une licence et, en parallèle, un opérateur municipal, exonéré du péage urbain, a été mis en place. Les acteurs économiques ont ainsi le choix entre payer le péage ou passer par cet acteur municipal. En France, la ville de Chartres a elle aussi limité l’accès au centre-ville pour les véhicules de livraison et a créé une solution locale.

The Conversation

Tristan Bourvon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.04.2025 à 17:00

Protéger l’agriculture française face aux risques climatiques

Philippe Delacote, Directeur de recherche en économie à l'INRAE et Chaire Economie du Climat, Inrae

Seuls 30 % des surfaces agricoles sont couvertes par les assurances en cas de crise climatique. Pour répondre au défi de la vulnérabilité, il faut se concentrer sur la recherche de résilience.
Texte intégral (1555 mots)

Seuls 30 % des surfaces agricoles sont couvertes par les assurances en cas de crise climatique. Pour répondre au défi de la vulnérabilité, les stratégies individuelles comme les politiques publiques doivent se concentrer sur la recherche de résilience.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 6 a pour objet, « Le système alimentaire à l’heure des choix ».


Le changement climatique a des impacts multiples sur de nombreux secteurs d’activité, tant dans les pays industrialisés que dans les pays du Sud. Ces impacts résultent non seulement de l’augmentation des températures moyennes, mais aussi de la fréquence et de l’intensité accrues des événements météorologiques extrêmes, tels que les sécheresses et les tempêtes. L’agriculture, en particulier, est fortement concernée.

Ainsi, en 2024, le ministère de l’agriculture indique que la production des céréales à paille en France a subi une baisse de 22 % par rapport aux cinq années précédentes, en raison de conditions climatiques extrêmes. Des études menées par Maxime Ollier et ses coauteurs ont démontré que les risques climatiques affectent de manière hétérogène les secteurs agricoles, en fonction des systèmes de production et de la localisation des exploitations.

Un taux de couverture de l’assurance récolte limité

Le réflexe naturel qui vient à l’esprit quand on parle de risque est d’envisager la couverture assurantielle. Ainsi il existe une offre d’assurance « multirisque récolte », qui, en théorie, devrait couvrir les acteurs contre les chocs liés au climat. Or, plusieurs facteurs limitent la portée de cette solution. En effet, le taux de couverture de l’assurance récolte est aujourd’hui limité en France : seuls 30 % des surfaces agricoles sont couvertes.


À lire aussi : Et si l’assurance verte pouvait aider à réduire les produits phytosanitaires dans les vignobles...


Les travaux de thèse de Richard Koenig ont montré que, malgré un taux de subvention important, le montant des franchises est un frein important à la souscription, ainsi que les délais de versement de la subvention. Or, la branche assurance récolte présente un déficit important, avec un rapport sinistre sur prime structurellement supérieur à 100 %. On peut donc en déduire que le rôle joué par les assurances récolte dans la protection des agriculteurs français sera certes utile, mais limité.

Face à ces multiples chocs et à l’impossibilité de l’assurance de couvrir l’ensemble de ces risques, la vulnérabilité des exploitants agricoles est une question centrale. Cette vulnérabilité peut être définie selon trois critères : l’exposition, la résistance et le rétablissement. L’exposition fait référence au fait que certains secteurs ou zones géographiques sont particulièrement concernés par les chocs liés au changement climatique. La résistance correspond à la capacité des agriculteurs à absorber ces chocs. Enfin, le rétablissement évoque leur aptitude à se relever après ces perturbations. Il est donc essentiel de comprendre dans quelle mesure ces impacts dépendent du contexte socio-économique local et des caractéristiques des acteurs concernés.

Sobriété, agilité et protection

Dans ce contexte, où l’agriculture est l’un des secteurs les plus affectés par le changement climatique, il est crucial que les stratégies individuelles et les politiques publiques se concentrent sur la recherche de résilience. Cet objectif peut être décliné selon trois grands principes : sobriété, agilité et protection. Premièrement, l’agriculture doit évoluer vers une utilisation plus sobre des ressources, notamment en réduisant la dépendance aux énergies fossiles et aux intrants chimiques. En effet, le secteur agricole contribue fortement aux émissions de gaz à effet de serre – 18,7 % des émissions françaises, selon le Citepa – et joue un rôle dans la dégradation des écosystèmes et de la qualité de l’eau. Or, le climat et les écosystèmes sont les socles sur lesquels repose l’activité agricole ; il n’y aura donc pas d’adaptation possible sans un effort d’atténuation sans précédent. Cela implique le développement de pratiques agroécologiques, telles que l’agroforesterie, et l’optimisation de l’usage de l’eau, comme le choix de cultures moins dépendantes des apports en eau.

Deuxièmement, l’agilité se manifeste au niveau des systèmes de production, en favorisant la diversification des cultures et des pratiques, mais aussi au niveau des chaînes de valeur, par la diversification des sources d’approvisionnement et des débouchés. Il est important que l’ancrage local soit renforcé, tout en maintenant des liens de partenariats plus éloignés, afin de diversifier les risques non seulement climatiques, mais aussi géopolitiques ou épidémiologiques. La recherche de partenariats de long terme, qui permettent de construire la confiance, est également préférable à une recherche court-termiste du mieux-disant.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Enfin, la protection des plus vulnérables nécessite d’abord leur identification, puis la priorisation de certaines politiques publiques en leur faveur. On peut penser ici à un ciblage plus important des politiques d’aides à la transition écologique ou à l’accès aux assurances récolte.

Un coût de 4 milliards d’euros par an pour l’inaction

Plusieurs enseignements peuvent être tirés de ces réflexions sur la résilience des acteurs et des systèmes agricoles. Tout d’abord, la priorité doit être donnée à la lutte contre le changement climatique et la dégradation des écosystèmes. Bien que l’action en faveur de la protection de l’environnement puisse engendrer des coûts, l’inaction entraînera des coûts nettement supérieurs, en particulier pour les secteurs agricoles. Le coût du changement climatique se fait déjà durement ressentir dans certains secteurs ou régions. L’impact global du changement climatique sur le secteur agricole et de l’agroalimentaire français a été estimé par le Conseil général de l’alimentation, de l’agriculture et des espaces ruraux à plus de 4 milliards d’euros par an d’ici à 2050, soit un peu plus de 4 % du PIB agricole. Or, chaque tonne de gaz à effet de serre supplémentaire ne fera qu’accroître ces coûts et les défis associés. Enfin, il est indispensable que les stratégies d’adaptation et d’atténuation soient complémentaires : des stratégies d’adaptation qui auraient comme conséquence la hausse des émissions de gaz à effet de serre et des pressions supplémentaires sur des écosystèmes ne peuvent qu’être néfastes à long terme.

France 24 – 2024.

Un but contre leur camp

L’agroécologie, dont le fondement est d’utiliser les solutions fondées sur le fonctionnement des écosystèmes pour répondre aux problèmes posés aux agriculteurs, va dans ce sens d’une recherche de synergie entre adaptation et atténuation.

Au total, il apparaît que les actions de certains acteurs contre les politiques environnementales agissent comme un but contre leur camp. En faisant mine de défendre les intérêts des secteurs agricoles, ces actions amplifient au contraire les problèmes auxquels sont confrontés de nombreux acteurs du monde agricole.

Les politiques de protection de l’environnement ne sont pas parfaites, et les exploitants agricoles doivent être consultés pour améliorer leur mise en œuvre. Il est cependant indispensable de les accentuer, et d’affirmer qu’il n’existera pas de protection durable de l’agriculture sans la protection et la restauration des écosystèmes sur lesquels ces activités reposent.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 6 a pour objet « Le système alimentaire à l’heure des choix ». Vous pourrez y lire d’autres contributions. Le titre et les intertitres ont été produits par la rédaction de The Conversation France.

The Conversation

Philippe Delacote a reçu des financements de Chaire Economie du Climat.

24.04.2025 à 17:49

Vaches à lait, vaches à viande : ce qu’il faudrait changer pour notre santé et notre environnement

Michel Duru, Directeur de recherche, UMR AGIR (Agroécologie, innovations et territoires), Inrae

Changer l’alimentation des vaches, privilégier certaines races plus que d’autres, consommer moins de bœuf mais manger des viandes plus diverses… Les marges de progression sont nombreuses.
Texte intégral (2297 mots)

Changer l’alimentation des vaches, privilégier certaines races plus que d’autres, revaloriser le pâturage, consommer moins de bœuf, mais manger des viandes plus diverses… Les marges de progression sont nombreuses.


Depuis quelques années, les excès de consommation de viande sont montrés du doigt du fait de leurs impacts sur la santé et l’environnement. Dans une moindre mesure, c’est aussi le cas des produits laitiers comme les fromages. Pour faire face à ces enjeux environnementaux et sanitaires, mais aussi pour accroître notre souveraineté alimentaire, que nous disent les études scientifiques ? Comment peuvent-elles nous aider à réorganiser l’élevage pour le rendre plus durable, du champ jusqu’à l’assiette ?

Réduire notre consommation pour la planète et notre santé

Commençons par un état des lieux, en France, notre apport en protéines provient pour deux tiers des produits animaux et pour un tiers des produits végétaux. Il est en moyenne excédentaire d’au moins 20 % par rapport aux recommandations. Les bovins fournissent enfin la moitié de notre consommation de protéines animales sous forme de viandes et de laitages, le reste provenant surtout des porcs et volailles et très secondairement des brebis et chèvres.

Les recherches convergent vers une réduction nécessaire de moitié en moyenne de la consommation de viande, principalement du fait de l’augmentation de risques de cancers. Nous devrions également, d’après l’état des connaissances scientifiques, réduire notre consommation de produits laitiers mais dans une moindre mesure.

Ces réductions sont aussi encouragées par l’actuel plan national nutrition santé. Il est maintenant montré par des études épidémiologiques et des modélisations que de tels changements dans la composition de notre assiette auraient des effets bénéfiques sur notre santé (réduction du risque de maladies chroniques). Cela permettrait aussi de réduire l’impact environnemental de notre alimentation avec moins d’émissions de gaz à effet de serre, de méthane notamment qui constitue 40 % des émissions de l’agriculture, mais aussi moins de nitrates dans l’eau et d’ammoniac dans l’air.

Remplacer une partie des protéines animales par des protéines végétales, des légumineuses (lentilles, pois chiche…), rendrait aussi notre alimentation plus riche en fibres dont nous manquons cruellement. En outre, consommer plus de légumineuses permettrait de diversifier les productions végétales, un levier clef pour l’agroécologie.

Réduire notre consommation de viande ne semble de plus pas aberrant d’un point de vue historique, car celle-ci a été multipliée par deux en un siècle (passant de 42 kg par an et par habitant en 1920 à 85 kg en 2020), et elle a augmenté de plus de 50 % depuis les années 1950.

Diversifier notre consommation

Par ailleurs, notre façon de manger de la viande a changé : aujourd’hui, plus de la moitié de la viande de bovin consommée est sous forme de burger ou de viande hachée, souvent dans des plats préparés, qui sont considérés comme des « bas morceaux ». Or ces produits sont majoritairement issus de races de vaches laitières (Holstein) en fin de carrière dont le prix est attractif. Ce mode de consommation est donc défavorable aux filières de races de vaches à viandes (Blonde d’Aquitaine, Charolaise, Limousine).

Le succès des steaks hachés et des burgers à bas prix est même tel que l’on se retrouve à importer l’équivalent 30 % de notre consommation de viande de bovin. Il en résulte d’une part une baisse de souveraineté alimentaire et d’autre part un déclassement des pièces nobles des races à viande, fragilisant ainsi les élevages de race à viande. Pour faire face à ces dérives, il serait plus judicieux de consommer moins de viande, mais tous les types de viande à l’échelle d’une année.

Modifier les pratiques d’élevage pour la santé et l’environnement

Si l’on regarde maintenant du côté des protéines contenues dans la viande bovine et les produits laitiers, une autre marge de progression est aussi possible. Elle concerne l’alimentation des animaux et son impact sur la composition des produits que nous consommons.

Les produits animaux fournissent des protéines de qualité car ils sont équilibrés en acides aminés. Ils contiennent aussi des acides gras poly-insaturés, indispensables à notre santé dont notre alimentation est très déficitaire. C’est le cas des oméga-3 dont le rôle anti-inflammatoire réduit le risque des maladies chroniques : diabète, cancers, maladies cardio-vasculaires…

Cependant, la composition du lait et de la viande en oméga-3 sont très dépendantes du mode d’alimentation des animaux. Une alimentation à l’herbe (pâturage, ensilage, foin) permet d’environ doubler la teneur du lait en oméga-3, en comparaison d’une alimentation de type maïs-soja, et permet ainsi de réduire significativement notre déficit en ce nutriment.

Le lait et la viande issus d’animaux nourris à l’herbe contribuent donc à une alimentation anti-inflammatoire. Cependant en France, seulement 1/3 du lait est issu d’une alimentation à l’herbe, qu’il s’agisse de pâturage, de foin ou d’ensilage d’herbe. L’élevage bio se distingue sur ce point car l’alimentation à l’herbe est privilégiée pour des raisons économiques. Mais cette différence de composition des produits reste encore mal connue du consommateur, qui pourra également privilégier le lait le moins cher, issu d’un élevage où les vaches ne pâturent pas ou peu.

Les prairies présentent en outre l’atout d’avoir des stocks de carbone importants dans les sols, si bien que les retourner pour les transformer en terres agricoles comme cela a été souvent fait correspond à une déforestation. Faire paître des vaches est donc un moyen de conserver les prairies. D’autre part, lorsqu’elles sont bien réparties dans les paysages, les prairies jouent un rôle d’infrastructure écologique permettant de réduire les pesticides. Lorsqu’elles sont en rotation avec les cultures (prairies temporaires avec légumineuses), elles permettent également de réduire le recours aux engrais azotés de synthèse.

Bien que les prairies constituent à l'origine la base de l’alimentation des vaches, en particulier pour les races à viande, leur contribution n’a cessé de baisser au cours des cinquante dernières années ; car l’apport de céréales (maïs ensilage, blé), et d’oléoprotéagineux (soja) dans leur alimentation était le moyen le plus facile d’augmenter la production par animal et par hectare. Cependant, les vaches et leurs descendances utilisent 3,7 millions d’hectares de terres arables dédiés à la production de ces céréales et de ce soja qu’il conviendrait d’utiliser à d’autres fins.

Des vaches qui pâturent plus permettraient également d’agir sur une des principales pollutions de l’élevage : les pertes importantes d’azote et de phosphore dans l’environnement du fait d’importations massives de protéines (soja) et d’une trop forte concentration géographique des élevages (par exemple en Bretagne).

Si, à l’échelle locale, on imagine que des éleveurs échangent le fumier riche en azote et en phosphore avec des agriculteurs qui pourraient eux, leur donner en retour les ratés de cultures pour nourrir les animaux, tout le monde pourrait être gagnant. Les agriculteurs auraient ainsi accès à des apports en azote et phosphore nécessaires à la croissance des cultures et pourraient ainsi réduire l’utilisation d’engrais, les agriculteurs eux, bénéficieraient d’une source d’alimentation à faible coût et locale pour leur bête.

Réorganiser les filières, du champ à l’assiette

Une autre évolution qui permettrait à l’élevage d’être plus durable concerne le changement de type de races bovines que l’on trouve en France. Il y a aujourd’hui 3,5 millions de vaches à viande contre 3,3 millions de vaches laitières. Or les recommandations pour la santé portent bien plus sur la réduction de la consommation de viande que de produits laitiers.

De même, on sait que la viande issue des troupeaux laitiers (vaches laitières de réformes) est bien moins impactante que celle issue de troupeaux à viande puisqu’à l’échelle de la carrière de la vache, les émissions de gaz à effet de serre sont réparties entre le lait et la viande.

Cela montre l’intérêt de favoriser des races mixtes produisant du lait et de la viande (comme la race normande) ou de croiser une race à viande (Angus) avec une race laitière. La viande devient alors un co-produit du lait permettant de satisfaire nos besoins.

Mais une telle orientation est bloquée par le choix fait en France où, lors de l’abandon des quotas laitiers, de nombreux troupeaux laitiers ont été convertis en troupeaux à viande (dit allaitants) avec des races spécialisées. Il en résulte un élevage spécialisé uniquement pour la viande, devenu très vulnérable : des races lourdes, coûteuses à entretenir et à nourrir et dont une partie de veaux mâles est engraissée en taurillons, une viande jeune, peu prisée par le consommateur français. La plupart de nos voisins de l’UE ont eux bien moins de vaches allaitantes et font de la viande à partir du troupeau laitier (veaux, génisses, vaches de réforme), donc à moindre coût en gaz à effet de serre et en euros.

Construire un nouveau pacte sociétal

Toutes ces données montrent la nécessité de fortes évolutions dans notre système alimentaire. En agriculture, il s’agit d’aller vers des races mixtes produisant du lait et de la viande, et de plus laisser pâturer les vaches pour valoriser les atouts des prairies qui représentent 40 % de la surface agricole. De manière concomitante, il faudrait aussi réduire significativement notre consommation de viande en privilégiant la diversité des pièces de viande, et un peu aussi celle de produits laitiers.

Ces orientations sont nécessaires pour relever trois grands défis : celui de notre santé, de notre environnement, mais aussi de notre souveraineté alimentaire. Elles permettraient en effet d’une part de réduire les importations de soja, mais aussi de viande qui résultent entre autres d’une faible baisse de consommation en comparaison d’une forte diminution de la production, et d’autre part d’allouer les terres arables libérées à des cultures stratégiques comme les légumes et légumineuses que nous ne consommons pas suffisamment et que nous importons massivement.

Pour construire ce pacte sociétal, il importe :

  • de sensibiliser tous les acteurs aux coûts cachés de l’alimentation : excès de la consommation de viande, présence de trop d’élevages sans lien au sol du fait d’une faible autonomie protéique.

  • de s’appuyer sur des évaluations multi-critères à même de prendre en compte les impacts négatifs de l’élevage tout autant que les services environnementaux fournis principalement par les prairies. Ceci nécessite aussi une meilleure rémunération des éleveurs par le citoyen et le consommateur pour la valeur santé des produits et les services environnementaux fournis. Mais pour cela, il faudrait s’assurer de la traçabilité des produits issus de ces élevages vertueux.

The Conversation

Michel Duru est membre des conseils scientifiques de Bleu Blanc Coeur et de Pour une Agriculture Du Vivant.

24.04.2025 à 12:34

Près d’un tiers des champignons recensés sont menacés d’extinction

Coline Deveautour, Enseignante-Chercheuse en Ecologie microbienne des sols, UniLaSalle

Les champignons ne sont ni des plantes ni des animaux, mais ils sont aussi menacés. Cette réalité reste difficile à évaluer avec précision, car les champignons demeurent, à bien des égards, très énigmatiques.
Texte intégral (2822 mots)
Quelques-uns des champignons présents en France, considérés comme en danger par la liste rouge des espèces menacées. De gauche à droite : bolet rubis (_Chalciporus rubinus_), lactaire des saules réticulés (_Lactarius salicis-reticulatae_), bolet des sables (_Gyroporus ammophilus_), bolet de plomb (_Imperator torosus_), tricholome brûlant (_Tricholoma aestuans_), bolet rose pastel (_Rubroboletus pulchrotinctus_). Wikicommons, CC BY

Combien de champignons sont menacés d’extinction ? Pour répondre à cette question il faut vite en poser plusieurs autres : combien y a-t-il d’espèces de champignons en tout ? Qu’est-ce qu’un champignon, au juste ?

Et de découvrir, au passage, le monde aussi mystérieux que fascinant de ce règne ni végétal ni animal.


Les champignons sont partout et pourtant si mal connus. Ce ne sont ni des plantes ni des animaux. Ainsi, à côté du règne végétal et du règne animal, ils forment leur propre règne qui abrite une grande richesse d’espèces et de formes de vie. Ils jouent un rôle fondamental dans le fonctionnement des écosystèmes et pour l’être humain. Beaucoup de champignons participent par exemple à la décomposition de la matière organique, qui permet le recyclage de la matière en rendant les nutriments à nouveau accessibles aux plantes.

Un grand nombre d’entre eux s’associent également à des plantes en échangeant directement des nutriments pour un bénéfice mutuel. D’autres sont comestibles ou sont utilisés pour la production de boissons et d’aliments grâce à la fermentation. Certains ont même la capacité d’extraire des polluants du sol par un processus que l’on nomme bioremédiation ou mycoremédiation.

La diversité est reine dans le règne des champignons. Wikimedia, CC BY

Dire combien d’espèces de champignons existent est une tâche difficile, car une grande partie n’est pas visible à l’œil nue. Beaucoup ne sont pas cultivables en laboratoire, ce qui rend encore plus complexe leur identification et description. Aujourd’hui, on connaît 155 000 espèces, mais certaines études estiment cependant qu’entre 2 millions et 4 millions d’espèces de champignons restent encore à découvrir et à identifier.

Un champignon, c’est quoi ?

Mais un champignon, qu’est-ce que c’est au juste ? Vaste question ! Le mot « champignon » est en fait souvent associé à l’image de la structure sortant du sol, avec son pied et son chapeau, ou accolée à un arbre, en forme d’oreille. Cependant, la majorité des espèces fongiques ne produisent pas ce type de structures. Chez les espèces qui en sont dotées, cette partie du champignon contient les spores sexuées. Son nom savant est le « sporophore ». En anglais, cette distinction apparaît, puisqu’il existe deux mots distincts : « mushroom », qui décrit les sporophores, soit donc cette partie présente sur certains champignons, et « fungus » qui décrit toutes les espèces appartenant à la classe Fungi.

Le reste du corps du champignon est rarement visible et il est bien particulier. C’est un réseau microscopique formé d’hyphes. Ces hyphes sont des cellules très allongées qui forment des sortes de tunnels de quelques microns de diamètre. Leur ensemble ramifié, nommé « mycélium », se développe dans le substrat sur lequel il pousse (dans le sol, sur le bois, sur les feuilles mortes…) pour y chercher et en extraire des nutriments.

Un champignon est donc un organisme unicellulaire (comme les levures) ou pluricellulaire qui se caractérise par une paroi cellulaire contenant de la chitine et des cellules reproductives (qu’on appelle spores) non mobiles.

Ce n’est pas une plante pour de nombreuses raisons : les champignons ne font pas de photosynthèse et n’ont pas de sève. La paroi cellulaire des plantes est composée de cellulose, et non de chitine.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


S’intéresser aux champignons, c’est entrer dans l’infiniment petit mais aussi l’infiniment grand. Ainsi, à la fin des années 1980, des scientifiques découvraient en Oregon (nord-ouest des États-Unis) un spécimen d’Armillaria gallica vieux de près de 2 500 ans dont le mycélium s’étend sur plus de 37 hectares.

Diversité morphologique de plusieurs champignons marins. Wikimedia, CC BY

Une liste rouge qui s’allonge

Pour savoir maintenant combien de champignons sont menacés, il faut regarder du côté de la liste rouge de l’UICN (Union internationale pour la conservation de la nature). C’est l’inventaire le plus complet, répertoriant les espèces et leur état de conservation. Sa première édition est publiée en 1964. Elle ne comporte alors que des mammifères et des oiseaux rares.

Concernant les champignons en France, il faudra attendre 2024 pour que le premier inventaire des champignons menacés soit publié par le comité français de l’UICN.

Le 27 mars dernier, la liste rouge mondiale a, elle, été actualisée pour inclure le statut de 1 300 espèces de champignons. Nous sommes loin des 155 000 espèces connues, mais les premières évaluations restent préoccupantes avec 411 espèces de champignons menacées d’extinction, soit près d’un tiers des espèces recensées.

Bien que ce nombre soit important, il est primordial de rappeler que, dû au manque d’informations, les espèces qu’on a estimées les plus vulnérables ont été répertoriées en premier afin de faciliter le développement de projets de conservation.

Certaines de ces espèces sont rares, et n’ont été détectées que dans des zones géographiques très restreintes. En France hexagonale et en Corse, la liste rouge s’étend à 79 espèces qui sont menacées et 39 espèces sous le statut de « quasi menacées ». Cette liste inclut des lichens, dont Buellia asterella, classée en danger critique, qui n’a pas été repérée sur le territoire depuis 1960. On retrouve aussi des champignons décomposeurs, comme c’est le cas de Laccariopsis mediterranea qui pousse dans les dunes côtières de la Méditerranée et dont les populations sont en fort déclin (d’approximativement 30 %, ces trente dernières années).

Des espèces forment des relations symbiotiques avec les plantes : les plantes fournissent des sucres issus de la photosynthèse, tandis que les champignons apportent des nutriments provenant du sol. Ces espèces sont aussi menacées ; par exemple, Cortinarius prasinocyaneus, champignon associé au chêne et au charme. En France, il est uniquement répertorié sur cinq sites.

Des menaces bien identifiées, les répercussions beaucoup moins

Si le monde des champignons reste à beaucoup d’égards mal connu, tout comme le nombre exact d’espèces vulnérables, une chose reste quant à elle certaine : les menaces qui pèsent sur ces espèces sont bien identifiées. On trouve le changement dans l’utilisation des terres, notamment avec la destruction d’habitats et la déforestation, les pollutions liées à l’urbanisation et à l’agriculture (fertilisation déraisonnée et pesticides). Le changement climatique s’additionne maintenant aux autres menaces qui pèsent sur les champignons.

Leur perte pourrait entraîner des modifications dans le fonctionnement des écosystèmes. De nombreux champignons participent à la décomposition, un processus important dans le cycle des nutriments. Dans le cas des espèces qui forment des relations symbiotiques avec les plantes, ces associations peuvent être très spécifiques avec des champignons ne pouvant s’associer qu’avec une ou deux espèces d’arbres. C’est le cas de Geomorium gamundiae, en Argentine et de Destuntzia rubra, en Chine et au Japon, des espèces en danger critique d’extinction à cause de la déforestation menaçant leur plante hôte.

Mais l’inverse pourrait également se produire : si le champignon était menacé, cela entraînerait des conséquences néfastes pour leur hôte.

La conservation des champignons : encore du chemin à faire

Contrairement à la faune et à la flore, il n’existe pas de plan de conservation pour les espèces fongiques.

Les connaissances sur ces organismes étant trop limitées pour qu’ils fassent partis des lois environnementales quand celles-ci ont émergé, ils ont été les grands oubliés des projets de conservation. Actuellement, le seul rempart de protection pour ces espèces est la protection et la conservation des habitats, par des directives tel que le réseau Natura 2000 dans l’Union européenne.

Des initiatives existent cependant pour promouvoir la recherche, la connaissance et l’inclusion des champignons dans la législation. De par leur ubiquité et leurs rôles dans l’écosystème, les champignons forment un règne tout aussi important que les plantes ou les animaux.

Il est donc primordial de les prendre en compte pour protéger les écosystèmes en intégrant la faune, la flore… et la fonge.

The Conversation

Coline Deveautour ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.04.2025 à 16:23

Stocker les grains en consommant moins d’énergie : et si le passé éclairait le futur ?

Anna Valduriez, Cheffe de projet de recherche participative: stockage de denrées alimentaires (pour le futur, à partir de méthodes ancestrales), Inrae

Dominique Desclaux, Chercheure en Agronomie et Génétique, Inrae

Jean-Michel Savoie, chercheur, Inrae

Marie-Françoise Samson, Chercheuse en biochimie alimentaire, Inrae

Maxime Guillaume, chercheur, Institut national de recherches archéologiques préventives (INRAP)

Tanguy Wibaut, chercheur, Institut national de recherches archéologiques préventives (INRAP)

Les menaces climatiques et géopolitiques invitent à repenser le stockage des grains et denrées de demain, en réexaminant notamment les techniques du passé.
Texte intégral (2438 mots)
Dès le Néolithique, l’humanité a pratiqué le stockage souterrain et en grenier, et ce, de manière individuelle ou collective. Marc Wieland/Unsplash, CC BY-SA

Les menaces climatiques et géopolitiques invitent à repenser le stockage des grains et autres denrées de demain, en réexaminant notamment les techniques du passé. Du stockage souterrain au silo en passant par le grenier, les pratiques qui ont existé en région méditerranéenne, du Néolithique à nos jours, peuvent nous éclairer sur la façon d’envisager le stockage des aliments à l’avenir.


Pourquoi stocker ? Qu’il s’agisse de denrées alimentaires, de données, ou d’énergie, la réponse est la même, « pour conserver de manière organisée, sécurisée, accessible ». Pour certains, stockage rime avec sécurisation, pour d’autres, avec spéculation. Dans tous les cas, lorsqu’il requiert des conditions particulières de température et d’hygrométrie, le stockage est énergivore.

Dans le cas des aliments, il est recommandé de les stocker à faible température pour limiter la prolifération de bactéries et autres microorganismes. Ainsi, la consommation électrique moyenne d’un réfrigérateur domestique (300 à 500 kWh/an) représente le quart des dépenses en énergie des ménages. Et si c’est le cas pour les ingrédients que nous conservons à la maison, les besoins à grande échelle du côté des producteurs sont d’autant plus importants.

Ici, c’est du stockage des grains (céréales et oléoprotéagineux), qui constituent la base de notre alimentation, dont il est question. Le stockage en région méditerranéenne, du Néolithique à nos jours, peut-il nous éclairer sur la façon d’envisager le stockage du futur ?

Le stockage, une pratique issue du Néolithique

Dès le Néolithique, l’humanité a pratiqué le stockage souterrain et en grenier, et ce, de manière individuelle ou collective. Cette méthode reste active ponctuellement dans certaines régions du monde, comme au Soudan, ou encore au Maroc et en Tunisie.

Schéma en coupe d’un silo souterrain expérimental en cours d’utilisation sur le site de l’Inrae à Alenya (Pyrénées-Orientales). Projet SilArchaeoBio, ANR-21-CE27-0013. DAO C. Dominguez, Fourni par l'auteur

En France, malgré quelques variations liées aux périodes et zones géographiques, ces silos enterrés ont généralement été creusés sous forme d’ampoule à la taille variable, que les archéologues de l’Inrap retrouvent régulièrement, notamment sur les sites médiévaux de Thuir (Pyrénées-Orientales), de Pennautier et de Montréal (Aude).

Silo souterrain expérimental, vu du dessus, en cours de fermeture. Trois capteurs sont immergés dans le grain pour contrôler à terme l’évolution de la température et de l’hygrométrie. Tanguy Wibaut, Fourni par l'auteur

C’est vers la fin du Moyen Âge que le stockage souterrain est délaissé en France au profit du grenier à grains. Les explications à cette évolution restent de l’ordre de l’hypothèse : l’une d’elles tient à une centralisation du pouvoir nécessitant un contrôle des quantités de blé et autres céréales que ne permet pas le silo enterré.

C’est seulement au XIXe siècle que la curiosité pour la méthode du stockage souterrain réapparaît et fait l’objet de nouvelles études par les agronomes.

Cet élan a toutefois été freiné par le contexte de la Première Guerre mondiale. Au début des années 1930, la crise de surproduction du blé donne naissance aux coopératives et au système de marché de négoce pour réguler la production.

Une partie des récoltes de blé est ainsi livrée aux centres de stockage coopératifs par les producteurs afin d’assurer l’échelonnage des ventes et la stabilisation du marché. Ce sont les premiers grands silos industriels, qui se développent surtout dans les années 1950.

Des silos de plus en plus sophistiqués

Désormais, les grains sont majoritairement apportés après récolte à des organismes stockeurs, mais on estime en France que 53 % des agriculteurs stockent également à la ferme.

Le stockage devant garantir une bonne conservation du grain, température et humidité sont contrôlées dans les silos : ce contrôle passe le plus souvent par la ventilation, mais aussi par refroidissement forcé afin d’éviter la prolifération d’insectes et de moisissures. Des insecticides autorisés sont souvent appliqués dès la réception des récoltes et un gazage des grains à la phosphine (PH3) est parfois pratiqué, sous conditions très sécurisées, pour prévenir les invasions d’insectes.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


En béton ou en métal, cylindriques ou rectangulaires, les silos visibles dans le Midi de la France varient en taille et en capacité : d’une hauteur de 25 à 30 mètres, ils peuvent accueillir de 200 à 12 000 tonnes par cellule.

Le plus haut silo du monde, Swissmill, est situé à Zurich : de 118 mètres de haut, il peut abriter 40 000 tonnes de blé. Plus les silos sont massifs, plus les besoins énergétiques pour assurer leur remplissage et leur ventilation sont conséquents… Ce que la hausse des températures n’arrange pas, engendrant un besoin en ventilation quasi continu. Une consommation d’énergie qui vient se surajouter aux impacts environnementaux liés au transport des céréales au long de la chaîne de production.

Certains agriculteurs s’équipent de silos à la ferme, mais nombreux sont ceux qui stockent dans des « big bag », sacs souples de grande contenance (de 500 kg à 2 tonnes) généralement en polypropylène. Sont également développés des « big bag Nox », hermétiques à double couche, qui créent une barrière physique empêchant l’entrée de ravageurs : en parallèle, l’injection de CO2 tue ceux déjà présents en les privant d’oxygène. Dans la même idée, on retrouve les silos hermétiques, qui n’ont connu qu’un faible développement en France en raison de leur coût.

Ces techniques utilisent les mêmes principes de stockage en atmosphère modifiée que ceux qui prévalaient pour les silos souterrains médiévaux.

Le stockage au défi des crises à venir

Changements climatiques, conflits politiques, crises de l’énergie et pandémies menacent la sécurité alimentaire, non seulement en matière de production, mais également de stockage. Ce dernier, s’il est défaillant, est en outre une source importante de gaspillage et de perte de denrées.

C’est de ce constat que découlent les recherches menées par le collectif LocaStock. Différents acteurs y expérimentent ensemble et développent une réflexion prospective autour de la question du stockage des grains et autres aliments.

Ainsi des archéologues tentent de retrouver les techniques de conservation au sein de silos rendus hermétiques. Des producteurs de céréales biologiques testent la pratique du stockage souterrain. En parallèle, des généticiens et agronomes fournissent la diversité génétique, et des pathologistes et biochimistes analysent la qualité sanitaire, nutritionnelle et organoleptique des grains stockés une fois qu’ils sont récupérés après plusieurs mois passés sous terre. Enfin, une régie de quartier défavorisé intéressée par le stockage de denrées alimentaires ainsi qu’un chef de projet facilitant les liens sciences-société sont également associés pour que les enjeux ne soient pas abordés que d’un point de vue uniquement technique.

Ce travail du projet LocaStock vise à imaginer et à expérimenter un stockage résilient des productions agricoles et alimentaires dans des conditions propres, saines, loyales, économes, sans impact sur l’environnement et adaptées au contexte actuel, ainsi qu’à définir dans quelle mesure les techniques ancestrales peuvent contribuer à apporter des réponses aux enjeux du présent et du futur.


Johan Friry de la régie de quartier Garros Services et Axel Wurtz du Biocivam de l’Aude ont contribué à la rédaction de cet article.

Pour participer à cette recherche de solutions résilientes de stockage et de préservation des produits agricoles et des aliments, de la ferme à la table, vous pouvez partager vos expériences et idées utopiques ou dystopiques à l’adresse locastock@mailo.com.

The Conversation

Anna Valduriez a reçu des financements de ANR pour ses recherches dans le projet LocaStock (ANR-2023-SSAI-0018).

Dominique Desclaux a reçu des financements de l'ANR SAPS pour ses recherches dans le projet Locastock .

Jean-Michel Savoie a reçu des financements de l'ANR pour un projet de recherches multidisciplinaire sur la conservation des grains de céréales dans des silos souterrains (SilArchaeoBio, ANR-21-CE27-0013) et pour le projet de Sciences Avec et Pour la Société LocaStock (ANR-2023-SSAI-0018)..

Marie-Françoise Samson a reçu des financements de l'ANR SAPS pour ses recherches dans le projet LocaStock.

Maxime Guillaume a reçu des financements de l'ANR pour un projet de recherches multidisciplinaire sur la conservation des grains de céréales dans des silos souterrains (SilArchaeoBio, ANR-21-CE27-0013) et pour le projet de Sciences Avec et Pour la Société LocaStock (ANR-2023-SSAI-0018).

Tanguy Wibaut a reçu des financements de l'ANR pour un projet de recherches multidisciplinaire sur la conservation des grains de céréales dans des silos souterrains (SilArchaeoBio, ANR-21-CE27-0013) et pour le projet de Sciences Avec et Pour la Société LocaStock (ANR-2023-SSAI-0018)..

22.04.2025 à 17:25

La technique de l’insecte stérile, alternative aux pesticides pour l’agriculture française ?

Simon Fellous, Directeur de recherche en écologie et agriculture, Inrae

Tasnime Adamjy, Doctorante en sociologie, Inrae

La technique de l’insecte stérile, qui permet de limiter la reproduction des insectes ravageurs, est envisagée en France. Peut-elle se substituer aux pesticides ?
Texte intégral (2679 mots)
Une mouche _Drosophila suzukii_ en train de pondre sur une cerise. Fourni par l'auteur

Par quoi remplacer les pesticides sans bouleverser la production agricole conventionnelle ? La technique de l’insecte stérile, qui permet de limiter la reproduction des insectes ravageurs, est envisagée en France. Mais elle ne saurait se substituer aux insecticides, dans la mesure où elle implique de revoir en profondeur le système de production et d’impliquer tous les acteurs de la filière.


« Pas d’interdiction de pesticide sans solution » : ce principe, mis en avant par certains syndicats agricoles, demande qu’aucun pesticide ne soit interdit en l’absence « d’une solution » alternative « économiquement viable ». L’objectif est de réduire le recours aux pesticides sans bouleverser la production agricole conventionnelle.

Toutefois, cet élément de langage, qui a l’apparence du bon sens, masque l’impossibilité de déployer les solutions alternatives sans reconception des systèmes agricoles.

La technique de l’insecte stérile (TIS), une des « solutions » aujourd’hui à l’étude, en est un cas d’école. Elle figure justement dans une proposition de loi visant à lever les contraintes environnementales pour les agriculteurs qui doit être examinée prochainement à l’Assemblée nationale.


À lire aussi : L’agriculture française à la croisée des chemins


Une méthode de contraception pour insectes

Cette technique repose sur la libération en grand nombre d’insectes mâles, élevés en captivité puis stérilisés par rayons ionisants (par exemple rayons X). Ces mâles s’accouplent avec les femelles sauvages de l’espèce ciblée, qui produisent ainsi des œufs non viables.

Lucilie bouchère (Cochliomyia hominivorax).

Depuis ses premiers pas en Amérique du Nord pour contrôler la Lucilie bouchère (Cochliomyia_hominivorax) dans les années 1950, cette technique été utilisée en agriculture dans de nombreux pays et sur diverses mouches, papillons ou coléoptères.

La TIS fait l’objet de recherche et développement en France métropolitaine, mais également à La Réunion et à l’étranger pour contrôler les moustiques, notamment les Aedes, vecteurs de maladies telles la dengue ou du chikungunya.

Les usages agricoles, en France hexagonale, concerneraient en premier lieu la mouche Drosophila suzukii, responsables de dégâts sur la cerise et les fruits rouges, la mouche méditerranéenne Ceratitis capitata et le carpocapse, à l’origine du proverbial « ver dans la pomme ».

Bien plus qu’une affaire de producteurs et de parcelles agricoles

Une des caractéristiques de la TIS est qu’elle est souvent déployée à large échelle. En Espagne, c’est toute la région de Valence qui reçoit chaque semaine plusieurs millions de mouches méditerranéennes stériles lâchées par avion.

Le programme, financé par le gouvernement régional, coûte huit millions d’euros par an et protège une industrie fruitière dont le chiffre d’affaires se situe aux alentours de 10 milliards d’euros annuels. Un tel programme, déployé à large échelle, implique de nombreux acteurs. La protection des cultures ne concerne plus seulement les agriculteurs mais également les habitants des territoires.

En France, le développement de la TIS s’est nourri de la collaboration entre les milieux scientifiques et les parties prenantes (organisations agricoles, ONG environnementales, industriels et représentants de l’État).


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


La question des effets non intentionnels de la TIS a très vite été posée au cours de ces discussions et a permis de lancer des programmes de recherche, toujours en cours aujourd’hui. Ces travaux sont d’autant plus importants que les risques environnementaux de la TIS sont encore mal documentés.

Les risques de la TIS pour l’environnement

La France est, peu ou prou, le premier pays à interroger formellement les possibles effets néfastes de la TIS sur l’environnement. L’absence actuelle de données, malgré l’ancienneté de la technique, peut s’expliquer par des a priori positifs sur son innocuité en raison de sa grande spécificité. Comme les mâles stériles ne s’accouplent généralement qu’avec les femelles de leur espèce, on attend peu d’effets sur les écosystèmes, contrairement aux insecticides qui sont toxiques pour de nombreuses espèces différentes.

Des moustiques prêts à être relâchés au Brésil pour lutter contre la dengue. Dean Calma/IAEA, CC BY-SA

Reste un paradoxe : les insectes relâchés ne sont jamais tous stériles à 100 %. Il arrive qu’une reproduction résiduelle soit possible avec des insectes sauvages. Il est donc préférable d’élever, de stériliser et de relâcher une population locale d’insectes, afin d’éviter d’introduire dans la population d’insectes à contrôler des gènes provenant d’une autre localité.

Enfin, les insectes stériles, relâchés en masse, peuvent transmettre leur microbiote aux insectes sauvages, notamment lors des accouplements. Cette possibilité est peu inquiétante, car les microbiotes des insectes d’élevage n’ont pas de raison d’être dangereux pour les humains ou pour l’environnement. Aucun effet néfaste notable sur l’environnement n’a été rapporté parmi les dizaines de programmes de TIS déployés dans monde.

Toutefois, le suivi postintroduction est important. Cela permet d’assurer la transparence vis-à-vis des différents acteurs et de pouvoir interrompre les lâchers en cas de doute.

Une alternative aux pesticides, mais pas dans les mêmes conditions

Comme pour l’immense majorité des leviers agroécologiques de gestion des insectes et maladies des plantes, la TIS seule ne pourra pas remplacer les pesticides chimiques. En effet, si les insecticides sont si simples à utiliser, c’est bien parce qu’ils tuent les insectes sans discrimination.

De ce fait, les enjeux sociaux et organisationnels autour de la TIS appliquée à la protection des cultures méritent toute notre attention. En effet, les leviers agroécologiques de biocontrôle, comme la TIS ou les insectes auxiliaires, n’ont d’effets que sur une partie du cycle de vie des insectes visés. Leur efficacité dépend donc aussi des conditions locales et des autres leviers éventuels mobilisés par les agriculteurs.

Une attention particulière aux organismes à contrôler (par exemple, au travers de suivis par piégeage dans et autour des parcelles agricoles) et une adaptation des pratiques mobilisées en fonction de ce suivi sont quelques-unes des clés du succès d’une production agricole sans insecticides.

Pour être opérationnelles, ces « solutions » doivent donc être combinées entre elles. Il s’agit d’une réalité assez éloignée du concept de substitution implicite dans la phrase « pas d’interdiction sans solution ». Définir ces combinaisons de leviers amène, dans la pratique, à reconcevoir les stratégies de production et de protection des cultures dans leur totalité.

Cette reconception ne peut se faire sans l’implication active des professionnels. Agriculteurs, paysans et autres professionnels du monde agricole sont les seuls à connaître les réalités et contraintes pratiques du terrain. Les acteurs de la R&D, de leur côté, peuvent accompagner et soutenir ces travaux de reconception, par exemple au travers d’apports méthodologiques.

D’autant plus que les insectes sont mobiles et n’ont que faire des limites cadastrales. De ce fait, la TIS est souvent déployée à des échelles très supérieures à celles des parcelles agricoles. La participation des riverains et d’autres utilisateurs des territoires est alors essentielle.

La collaboration avec les producteurs s’avère souvent bénéfique pour tous. L’exemple du programme de biocontrôle du carpocapse de la pomme mené au Canada en fournit un exemple éloquent.

Dans ce cadre, les riverains qui ont participé au suivi des populations d’insectes responsables des pertes agricoles ont co-financé le programme de TIS. Ils en ont retiré le bénéfice d’une exposition réduite aux pesticides, argument mis en avant dans leur offre touristique. Cet exemple montre que les alternatives aux pesticides ne sont pas seulement une affaire de scientifiques et/ou d’agriculteurs : de nombreux autres acteurs sont concernés et peuvent contribuer à leur élaboration.


À lire aussi : Le biocontrôle pour remplacer les pesticides : de la difficulté de changer les usages


Vers une TIS « à la française » ?

Comme l’ont montré les travaux de la chercheuse Aura Parmentier-Cajaiba, la question des formes organisationnelles est incontournable lorsqu’il s’agit de concevoir des alternatives aux pesticides. C’est en particulier vrai pour la TIS, qui est avant tout une méthode développée par des scientifiques.

Or, la façon dont sont conçus et financés les programmes menés par les organismes de R&D reste encore limitée par une conception linéaire de l’innovation. Ainsi, les connaissances sont transférées à des entreprises ou start-ups sans que des formes organisationnelles alternatives ne soient envisagées – et, encore moins, construites en collaboration avec les parties prenantes.

Ceci constitue une limite directe à l’adaptation des « solutions » aux réalités des territoires et filières concernés. Un modèle français pourrait s’inspirer de l’exemple du programme canadien exposé précédemment. La collaboration avec les riverains et les producteurs de pommes s’y joue sur le terrain et avec des incitations économiques. Une gouvernance partagée, entre agriculteurs et acteurs des territoires, avec l’appui d’industriels de la production d’insectes et de leur diffusion serait ainsi une piste prometteuse.

Cela montre aussi l’importance d’intégrer la concertation à l’approche « pas d’interdiction de pesticide sans solution ». En effet, il est impossible de substituer un seul levier agroécologique à une molécule chimique, car cela impose de revoir les systèmes agricoles et d’impliquer tous leurs acteurs.

Parallèlement, il apparaît irresponsable de développer des « solutions » sans réfléchir à leurs effets non intentionnels. Les risques que comportent les différentes méthodes doivent être étudiés et explicités par les scientifiques. À cet égard, une mise en débat citoyenne pour définir les modalités de déploiement des alternatives aux pesticides et orienter les transformations de l’agriculture semble incontournable.

The Conversation

Simon Fellous a reçu des financements de ANR, OFB, Région Occitane, Europe. Simon Fellous travaille avec les acteurs agricoles dans les territoires ou la TIS pourrait etre déployée. Il a travaillé avec Clelia Oliva, aujourd'hui à la tête de l'entreprise Terratis.

Tasnime Adamjy a reçu des financements de l'INRAE et de la Région Occitanie.

21.04.2025 à 19:33

Recycler les déchets plastiques et le CO₂ en nouveaux matériaux : une piste sérieuse pour le climat ?

Olivier Coulembier, Chercheur, Université de Mons

Un projet de recherche ambitionne de transformer les déchets plastiques en nouveaux matériaux pour la construction, tout en retirant du CO₂ de l’atmosphère.
Texte intégral (1887 mots)

Un projet de recherche ambitionne de transformer les déchets plastiques en nouveaux matériaux innovants à l’aide de réactions chimiques permettant de retirer du CO2 de l’atmosphère. État des lieux d’une piste encore jeune, mais déjà prometteuse.


Le plastique suscite de fréquents débats : pollution marine, recyclage… Omniprésents dans l’économie mondiale, leur production, leur utilisation et leur élimination représentent environ 4,5 % des émissions mondiales de gaz à effet de serre (GES), sans parler de leurs impacts sur la biodiversité marine.

Les appels à réduire leur usage se multiplient, mais une question persiste : les alternatives aux plastiques permettent-elles de réduire les émissions de GES au niveau global ? Un sac en papier, par exemple, bien qu’il semble plus écologique qu’un sac en plastique, peut engendrer jusqu’à trois fois plus d’émissions de GES sur l’ensemble de son cycle de vie. En parallèle du problème de plastique, les émissions de CO₂ continuent de croître au niveau mondial.

Et s’il était possible de faire d’une pierre deux coups, en valorisant à la fois les déchets plastiques et le CO2 pour les transformer en produits utiles, par exemple des matériaux de construction ? C’est l’objectif du programme de recherche Pluco (pour Plastic Waste Upcycling by CO₂ Valorization).

L’enjeu : concevoir de nouveaux matériaux piégeant du CO2 à partir de déchets plastiques, tout en s’assurant que ce CO2 soit très peu relâché à l’échelle humaine. On estime à 100 000 ans le temps pour que le CO2 incorporé à des matériaux de construction soit réémis dans l’atmosphère. Lorsqu’il est réutilisé pour l’industrie chimie ou pharmaceutique, ce délai est d’environ 10 ans, et même de seulement un an pour la production de carburant à partir de CO2, selon les estimations de l’Agence internationale de l’énergie.

Le recyclage des plastiques reste insuffisant

Le recyclage des plastiques repose aujourd’hui majoritairement sur des procédés mécaniques (tri, broyage, lavage). Ces derniers présentent plusieurs limites majeures :

  • Qualité dégradée : les plastiques recyclés perdent souvent jusqu’à 50 % de leurs propriétés mécaniques (souplesse, rigidité, propriétés barrières notamment au gaz…), ce qui limite leur réutilisation. Une bouteille d’eau gazeuse recyclée ne permettant pas de retenir le gaz carbonique ne présenterait que peu d’intérêt.

  • Coûts élevés : ces procédés sont énergivores, avec un coût moyen de recyclage avoisinant 400 à 500 euros par tonne.

  • Émissions de CO2 : environ deux kilogrammes de CO2 sont émis pour chaque kilogramme de plastique recyclé mécaniquement, du fait de l’énergie utilisée pour le tri mécanique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Bien que ces techniques permettent une réduction partielle des émissions, elles restent loin d’être idéales. À l’inverse, le recyclage chimique, notamment par solvolyse – c’est-à-dire, par dissolution à l’aide d’un solvant –, ouvre la voie à des économies substantielles pouvant atteindre 65 à 75 % de réduction des émissions de CO₂.

Des solvants verts pour transformer les plastiques ?

La solvolyse est une technique de traitement qui permet de décomposer les plastiques inertes comme les polyoléfines (un des types de polymères plastiques les plus courants) pour les transformer en matériaux fonctionnels. Par exemple, le PET, utilisé dans des produits courants comme les bouteilles plastiques et les fibres textiles, peut être recyclé par solvolyse pour produire de l’éthylène glycol. Bien connu pour son rôle d’antigel dans les radiateurs de voiture, il peut également être réutilisé dans la production de nouveaux produits en PET, contribuant ainsi à la réduction des déchets plastiques et à la réutilisation de matériaux.

Selon ce procédé, une tonne de plastique traité peut produire jusqu’à 800 kg de matières premières réutilisables, tout en économisant trois à six tonnes de CO₂ par rapport aux procédés traditionnels.

Autre axe d’amélioration en dehors des procédés eux-mêmes : le remplacement des catalyseurs métalliques par des catalyseurs organiques afin de les rendre plus respectueux de l’environnement sans recourir aux métaux lourds utilisés dans les catalyseurs traditionnels.

La toxicité potentielle des catalyseurs métalliques pose en effet problème, notamment en ce qui concerne l’utilisation de métaux lourds comme le palladium, le platine ou le nickel. Ces métaux peuvent entraîner des risques pour la santé et l’environnement, notamment en cas de contamination des sols ou des eaux. Des études montrent que leur accumulation dans les écosystèmes peut avoir des effets délétères sur la biodiversité et les chaînes alimentaires.

C’est justement cette voie que nous explorons dans nos recherches, en valorisant le CO2 comme une véritable brique de construction chimique.

Le CO₂, une ressource chimique sous-exploitée

L’une des voies que nous explorons est la transformation du CO2 en produits carbonatés. Ces derniers trouvent des applications industrielles variées comme les batteries, les plastiques biodégradables ou encore les revêtements. Cette approche représente une alternative durable aux produits dérivés du pétrole, et permet de convertir pas moins de 500 kg de CO2 par tonne de dérivés carbonatés produits.

Notre approche consiste à tirer parti des catalyseurs organiques pour permettre à ces réactions de survenir dans des conditions plus simples et à des températures plus modérées. Nous travaillons également sur l’ajout de CO2 dans des plastiques recyclés pour produire de nouveaux matériaux utiles, par exemple dans le domaine de la construction.

Ces deux approches combinées – revalorisation du CO2 et des plastiques – ouvrent ainsi la voie à des applications industrielles variées dans les secteurs de l’emballage, de la construction et même de la santé. L’objectif de Pluco est de démontrer la faisabilité de ces procédés à l’échelle industrielle et leur intérêt tant économique qu’en matière de durabilité.

Vers un recyclage plus décentralisé

Aujourd’hui, le recyclage des plastiques repose sur un nombre limité d’usines centralisées, comme en Belgique où seules quelques infrastructures traitent l’ensemble des déchets plastiques du pays. Pourtant, les déchets plastiques et les émissions de CO2 sont un problème global, présent dans toutes les régions du globe.

Grâce à sa flexibilité et à son efficacité, la technologie que nous développons avec Pluco pourrait favoriser un recyclage plus décentralisé. Plutôt que de concentrer le traitement des déchets sur quelques sites industriels, il deviendrait envisageable de mettre en place des unités de transformation locales, installées directement là où les déchets sont produits.

Par exemple, des lignes d’extrusion réactive – système qui permet de transformer des plastiques à des températures plus basses que celles utilisées dans les procédés de recyclage classique – pourraient être déployées dans divers contextes industriels et géographiques, réduisant ainsi le besoin de transport des déchets et maximisant l’impact environnemental positif du procédé.

Ce procédé est une technologie bien connue, facile à mettre en œuvre et localisable partout dans le monde. En travaillant à des températures où les plastiques deviennent suffisamment souples pour être transformés sans fondre complètement, il permet de modifier les propriétés du plastique tout en préservant sa structure. Cela permet notamment d’intégrer dans leur structure des molécules ayant été préparées par catalyse organique directement à partir de CO2. De quoi créer de nouveaux matériaux tout en facilitant le recyclage de manière plus économe en énergie.

Au-delà de l’aspect écologique, cette approche pourrait aussi générer de nouvelles opportunités économiques en termes d’économie circulaire, en permettant à des acteurs locaux d’exploiter ces technologies et de créer de la valeur à partir de ressources considérées jusqu’ici comme des polluants.

Le programme Pluco ouvre donc la voie vers un recyclage à empreinte carbone nulle, voire négative. Cette approche unique, qui transforme deux menaces environnementales en ressources précieuses, démontre que la chimie verte peut jouer un rôle central dans la transition écologique. Il ne s’agit pas seulement de recycler mieux, mais de redéfinir les bases mêmes du recyclage pour un impact positif et durable sur la planète.


Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.

The Conversation

Olivier Coulembier a reçu des financements du Fonds National de la Recherche Scientifique (F.R.S.-FNRS), notamment à travers des projets PDR, MIS et EOS. Il a également bénéficié de financements européens via H2020 et M-ERA.NET, ainsi que du soutien de la Chaire de Recherche AXA.

19.04.2025 à 15:56

Pourquoi le prix de votre chocolat préféré va continuer d’augmenter

Narcisa Pricope, Professor of Geography and Land Systems Science and Associate Vice President for Research, Mississippi State University

L’aridité se propage silencieusement dans de nombreuses régions productrices de cacao. Comment éviter que le chocolat ne devienne un produit de luxe ?
Texte intégral (3231 mots)
Les prix du chocolat ont grimpé en flèche dans un contexte de sécheresse intense en Afrique. Rimma Bondarenko/Shutterstock

Pâques s’accompagne de chocolat (que l’on soit croyant ou non). Une tradition qui pourrait vite devenir un luxe. Avec le réchauffement climatique, son prix ne cesse d’augmenter. En cause : l’aridité qui se propage silencieusement dans de nombreuses régions productrices de cacao. Heureusement, des solutions existent.


Le nord-est du Brésil, l’une des principales régions productrices de cacao au monde, est aux prises avec une aridité croissante –, un assèchement lent mais implacable des terres. Le cacao est fabriqué à partir des fèves du cacaoyer, petit arbre à feuille prospérant dans les climats humides. La culture est en difficulté dans ces régions desséchées, tout comme les agriculteurs qui la cultivent.

Ce n’est pas seulement l’histoire du Brésil. En Afrique de l’Ouest, où 70 % du cacao mondial est cultivé, ainsi qu’en Amérique et en Asie du Sud-Est, les variations des niveaux d’humidité menacent l’équilibre délicat nécessaire à la production. Ces régions, abritant écosystèmes dynamiques et greniers à blé mondiaux, sont en première ligne de la progression lente mais implacable de l’aridité.

Causes de l’aridité

Au cours des trente dernières années, plus des trois quarts des surfaces la Terre est devenue plus sèche. Un rapport récent que j’ai aidé à coordonner pour la Convention des Nations unies sur la lutte contre la désertification a révélé que les terres arides couvrent maintenant 41 % des terres mondiales. Cette superficie s’est étendue de près de 4,3 millions de kilomètres carrés au cours de ces trois décennies – plus de huit fois la taille de la France.

Cette sécheresse rampante n’est pas seulement un phénomène climatique. Il s’agit d’une transformation à long terme qui peut être irréversible… avec des conséquences dévastatrices pour les écosystèmes, l’agriculture et les moyens de subsistance dans le monde entier.

Un agriculteur colombien tient une cabosse de cacao qui contient les ingrédients clés du chocolat
Un agriculteur colombien tient une cabosse de cacao, qui contient les ingrédients clés du chocolat. 2017CIAT/NeilPalmer, CC BY-NC-SA

L’aridité, bien que souvent considérée comme un phénomène purement climatique, est le résultat d’une interaction complexe entre des facteurs anthropiques – dus à l’existence et à la présence d’humains. Il s’agit notamment des émissions de gaz à effet de serre, des pratiques d’utilisation des terres et de la dégradation des ressources naturelles critiques, telles que les sols et la biodiversité.

Ces forces interconnectées ont accéléré la transformation de paysages autrefois productifs en régions de plus en plus arides.

Changement climatique

Le changement climatique d’origine humaine est le principal moteur de l’aridité croissante.

Les émissions de gaz à effet de serre augmentent les températures mondiales, notamment en raison de la combustion de combustibles fossiles et de la déforestation. La hausse des températures, à son tour, provoque l’évaporation de l’humidité à un rythme plus rapide. Cette évaporation accrue réduit l’humidité du sol et des plantes, ce qui exacerbe la pénurie d’eau, même dans les régions où les précipitations sont modérées.

Les graphiques montrent la sécheresse de ces dernières années et l’augmentation des populations dans les zones arides
Le nombre de personnes vivant dans les régions arides a augmenté sur chaque continent au cours des dernières années – 1971-2020. UNCCD

L’aridité a commencé à s’accélérer à l’échelle mondiale dans les années 1950, et le monde a connu un changement prononcé au cours des trois dernières décennies.

Ce processus est particulièrement marqué dans les régions déjà sujettes à la sécheresse, telles que la région du Sahel en Afrique et la Méditerranée. Dans ces régions, la réduction des précipitations – combinée à l’augmentation de l’évaporation – crée une boucle de rétroaction : les sols plus secs absorbent moins de chaleur, laissant l’atmosphère plus chaude et intensifiant les conditions arides.

Utilisation non durable des terres

L’aridité est également influencée par la façon dont les gens utilisent et gèrent les terres.

Les pratiques agricoles non durables, le surpâturage et la déforestation dépouillent les sols de leur couverture végétale protectrice, les rendant vulnérables à l’érosion. Les techniques d’agriculture industrielle privilégient souvent les rendements à court terme, plutôt que la durabilité à long terme, en appauvrissant les nutriments et la matière organique essentiels pour des sols sains.

Une femme tient des légumes dans ses mains, dans un champ sec et peu peuplé
L’aridité peut affecter la production de nombreuses cultures. De grandes parties du Tchad, que l’on voit ici, ont des terres en voie d’assèchement. United Nations Chad, CC BY-NC-SA

Au nord-est du Brésil, la déforestation perturbe les cycles locaux de l’eau et expose les sols à la dégradation. Sans végétation pour l’ancrer, la couche arable – essentielle à la croissance des plantes – est emportée par les pluies ou est emportée par les vents, emportant avec elle des nutriments vitaux.

Ces changements créent un cercle vicieux : les sols dégradés retiennent également moins d’eau et entraînent plus de ruissellement, ce qui réduit la capacité de récupération des terres.

Lien entre le sol et la biodiversité

Le sol, souvent négligé dans les discussions sur la résilience climatique, joue un rôle essentiel dans l’atténuation de l’aridité.

Les sols sains agissent comme des réservoirs, stockant l’eau et les nutriments dont les plantes dépendent. Ils soutiennent également la biodiversité souterraine et aérienne. Une seule cuillère à café de sol contient des milliards de micro-organismes qui aident à recycler les nutriments et à maintenir l’équilibre écologique.

À mesure que les sols se dégradent sous l’effet de l’aridité et de la mauvaise gestion, cette biodiversité diminue. Les communautés microbiennes, essentielles au cycle des nutriments et à la santé des plantes, déclinent. Lorsque les sols se compactent et perdent de la matière organique, la capacité de la terre à retenir l’eau diminue, ce qui la rend encore plus susceptible de se dessécher.

La perte de santé des sols crée des effets en cascade qui sapent les écosystèmes, la productivité agricole et la sécurité alimentaire.

Crises de sécurité alimentaire imminentes

Le cacao n’est qu’une des cultures touchées par l’empiètement de l’aridité croissante.

D’autres zones agricoles clés, y compris les greniers à blé du monde, sont également à risque. En Méditerranée, au Sahel africain et dans certaines parties de l’Ouest américain, l’aridité mine déjà l’agriculture et la biodiversité.

D’ici 2100, jusqu’à 5 milliards de personnes pourraient vivre dans les zones arides, soit près du double de la population actuelle de ces zones. Les raisons : la croissance démographique et l’expansion des zones arides à mesure que la planète se réchauffe. Cela exerce une pression immense sur les systèmes alimentaires. Elle peut également accélérer les migrations, car la baisse de la productivité agricole, la pénurie d’eau et l’aggravation des conditions de vie obligent les populations rurales à se déplacer à la recherche d’opportunités.

Une carte montre de vastes zones sèches dans l’ouest des États-Unis, en Afrique, en Australie, en Asie et dans certaines parties de l’Amérique du Sud
Une carte montre l’aridité moyenne de 1981 à 2010. UNCCD

Les écosystèmes sont mis à rude épreuve par la diminution des ressources en eau. La faune migre ou meurt, et les espèces végétales adaptées à des conditions plus humides ne peuvent pas survivre. Les prairies délicates du Sahel, par exemple, cèdent rapidement la place aux arbustes du désert.

À l’échelle mondiale, les pertes économiques liées à l’aridification sont vertigineuses. En Afrique, l’aridité croissante a contribué à une baisse de 12 % du produit intérieur brut de 1990 à 2015. Les tempêtes de sable et de poussière, les incendies de forêt et la pénurie d’eau pèsent davantage sur les gouvernements, exacerbant la pauvreté et les crises sanitaires dans les régions les plus touchées.

La voie à suivre

L’aridité n’est pas une fatalité et ses effets ne sont totalement irréversibles. Mais des efforts mondiaux coordonnés sont essentiels pour freiner sa progression.

Les pays peuvent travailler ensemble à la restauration des terres dégradées en protégeant et en restaurant les écosystèmes, en améliorant la santé des sols et en encourageant les méthodes agricoles durables.

Les communautés peuvent gérer l’eau plus efficacement grâce à la collecte des eaux de pluie et à des systèmes d’irrigation avancés qui optimisent l’utilisation de l’eau. Les gouvernements peuvent réduire les facteurs du changement climatique en investissant dans les énergies renouvelables.

La poursuite de la collaboration internationale, y compris avec les entreprises, peut aider à partager les technologies pour rendre ces actions plus efficaces et disponibles dans le monde entier.

Pendant que vous savourez du chocolat en cette fête de Pâques, souvenez-vous des écosystèmes fragiles qui se cachent derrière. Au début de l’année 2025, le prix du cacao était proche de son plus haut niveau historique, en partie à cause des conditions sèches en Afrique.

En l’absence d’une action urgente pour lutter contre l’aridité, ce scénario pourrait devenir plus courant, et le cacao – et les concoctions sucrées qui en découlent – pourrait bien devenir un luxe rare.

The Conversation

Narcisa Pricope est membre de l'interface science-politique de la Convention des Nations unies sur la lutte contre la désertification (UNCCD), qui s'efforce de traduire les résultats et les évaluations scientifiques en recommandations pertinentes pour les politiques, notamment en collaborant avec différents groupes et organismes scientifiques.

17.04.2025 à 16:29

Le changement climatique suffit-il à expliquer la surchauffe de l’océan Atlantique Nord en 2023 ?

Guinaldo Thibault, Research scientist, Météo France

Aurélien Liné, Climatologue, Toulouse INP

Christophe Cassou, Climatologue, chargé de recherche CNRS au laboratoire « sciences de l’univers », Cerfacs

Jean-Baptiste Sallée, Océanographe, Sorbonne Université

Les températures records observées à la surface de l’Atlantique Nord en 2023 témoignaient-elles d’un emballement du changement climatique ? Une étude a répondu à cette question.
Texte intégral (2571 mots)

Les températures records observées à la surface de l’Atlantique Nord en 2023 ont fait couler beaucoup d’encre. Témoignent-elles réellement, comme on a alors pu le lire, d’un emballement du changement climatique ? Dans une récente étude, quatre chercheurs français répondent à cette question.


L’océan Atlantique Nord est bien plus qu’une vaste étendue d’eau entre l’Europe et l’Amérique. Cet océan est composé d’une région tropicale propice au développement des cyclones tropicaux et d’une région de moyennes latitudes, jouant un rôle crucial dans la régulation du climat européen et mondial.

  • En hiver, il conditionne la trajectoire des tempêtes qui traversent l’Europe et influence la douceur ou la rigueur des saisons froides.

  • En été, il module la fréquence des vagues de chaleur et influence l’humidité disponible dans l’atmosphère, jouant sur les épisodes de sécheresse ou les précipitations extrêmes.

La circulation méridienne de retournement de l’Atlantique (AMOC) se comporte comme un gigantesque tapis roulant océanique qui distribue la chaleur à travers les océans de planète. © Jonathan Baker (Met Office) and co-authors, CC BY 4.0; Continued Atlantic overturning circulation even under climate extremes

Il est également un acteur central du système climatique global via la circulation méridienne de retournement de l’Atlantique (AMOC), un gigantesque tapis roulant océanique qui régule la répartition de chaleur sur la planète en transportant l’excédent de chaleur des tropiques vers les hautes latitudes.

Cette zone océanique fait partie des régions connaissant les tendances de réchauffement les plus marquées depuis 1991, avec un maximum observé entre les latitudes de 10°N et de 40°N.

Depuis mai 2023, cette région océanique a connu des températures de surface jamais enregistrées auparavant. Ce phénomène a suscité de nombreuses interrogations : s’agissait-il d’un simple accident climatique ? D’un signal inquiétant d’une accélération du réchauffement global ? Les modèles climatiques nous permettent-ils de comprendre un tel événement ou sommes-nous entrés dans un nouveau régime climatique qui nous demanderait de reconsidérer la fiabilité de nos projections climatiques ?

Dans une étude récemment publiée, nous avons voulu apporter une réponse de fond à ces interrogations. À partir d’une analyse détaillée d’observations et de modèles climatiques, nous montrons que l’année 2023 a été une année exceptionnelle, mais malgré tout plausible dans le cadre du changement climatique actuel.

Autrement dit, cet extrême de température de surface de l’Atlantique Nord s’inscrit dans un cadre physique bien compris, qui aurait été impossible sans changement climatique.


À lire aussi : Les océans surchauffent, voici ce que cela signifie pour l’humain et les écosystèmes du monde entier


2023 : une année record, mais pas un mystère

Au cours des dernières années, l’Atlantique Nord a régulièrement établi de nouveaux records de température de surface. Les précédents records datant de 2022 ont surpassé ceux de 2021 et 2020. Cette tendance récurrente témoigne de la manifestation évidente du réchauffement de l’océan, une conséquence directe du réchauffement global causé par les activités humaines.

L’Atlantique Nord a battu plusieurs records de température en 2023. Dès le mois de mars 2023, la température de surface de la mer (TSM) de l’Atlantique Nord a commencé à dépasser les moyennes historiques, atteignant +0,74 °C d’anomalie par rapport à la période de référence 1991-2020. En juillet 2023, celle-ci atteignait +1,23 °C.

C’est surtout la brutalité de ce réchauffement qui a intrigué, avec une hausse record entre les mois de mai 2023 et de juin 2023 qui a conduit à des événements extrêmes. Notamment des vagues de chaleur marines particulièrement intenses dans le golfe de Gascogne, la mer Celtique et la mer du Nord, où les températures ont été jusqu’à 5 °C supérieures à la normale.

Des interactions cruciales entre l’océan et l’atmosphère

Nous avons analysé les conditions atmosphériques de la période mai-juin 2023. Celles-ci représentent une phase extrême de variabilité naturelle atmosphérique, avec une configuration propice à une réduction record des alizés sur la bande tropicale et un blocage anticyclonique persistant sur les îles Britanniques.

Ces événements combinés ont abouti à un excédent de chaleur à la surface de l’océan sur une région en forme de fer à cheval à l’échelle du bassin.

Concrètement, la situation à grande échelle a d’abord été marquée par un affaiblissement des vents d’ouest aux moyennes latitudes. En 2023, la circulation atmosphérique a été marquée par une phase négative de l’oscillation Nord-Atlantique (NAO), une situation où les vents d’ouest aux moyennes latitudes sont plus faibles que d’habitude.

Cet affaiblissement a eu plusieurs effets sur l’océan Atlantique Nord :

  • Moins de mélange vertical : sans les vents habituels, la surface de l’océan est moins brassée avec les eaux plus froides en profondeur.

  • Moins d’évaporation : un vent plus faible limite la perte de chaleur par évaporation, ce qui accentue le réchauffement.

Une autre conséquence de la réduction des alizés a été la réduction de la couverture nuageuse sur l’Atlantique Nord. Moins de nuages signifie plus de rayonnement solaire atteignant directement la surface de l’océan, renforçant encore le réchauffement.

En juin 2023, la configuration météorologique aux latitudes moyennes a basculé vers un régime de blocage atlantique, c’est-à-dire un mode de variabilité atmosphérique où un anticyclone se retrouve bloqué et devient persistant sur les îles Britanniques.

Cela génère un dôme de chaleur dans la partie nord-est du bassin atlantique.

Ce phénomène a empêché les échanges atmosphériques qui permettent habituellement de réguler les températures, le brassage océanique vertical, et a contribué à maintenir des températures de surface élevées sur une longue période.

La stratification océanique, un amplificateur clé

Pour comprendre cet épisode extrême, un élément essentiel est la stratification océanique. En effet, l’océan est composé de plusieurs couches, la surface étant chauffée par le soleil tandis que les couches profondes restent plus froides et se réchauffent à un rythme plus lent. Normalement, des échanges verticaux permettent à la chaleur de se dissiper vers le fond, évitant ainsi une surchauffe trop rapide de la surface.

Or, avec le réchauffement climatique, les couches supérieures de l’Atlantique Nord accumulent de plus en plus de chaleur. Cette accumulation rend l’océan plus stratifié, c’est-à-dire que le mélange des eaux chaudes de surface avec les couches plus profondes est plus difficile.

En 2023, en réponse au changement climatique d’origine humaine, la stratification était à un niveau record en Atlantique Nord, rendant la surface océanique particulièrement sensible aux conditions atmosphériques. Plus de stratification signifie que la chaleur piégée en surface y reste plus longtemps, amplifiant l’impact des forçages atmosphériques.

Une analogie, pour comprendre, serait de songer à un couvercle placé sur une casserole afin que l’eau chauffe plus vite. Ici, les échanges avec les couches plus profondes et froides sont bloqués, et comme on observe un apport d’énergie important depuis l’atmosphère, cette énergie reste en surface. Son impact est amplifié, car elle se concentre dans les couches de surface.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Concrètement, l’Atlantique Nord s’est donc retrouvé préconditionné par le changement climatique dans une situation où la configuration atmosphérique particulière décrite plus haut – une période de vents plus faibles et d’augmentation du rayonnement solaire – s’est traduite par un réchauffement rapide et intense de la surface océanique.

Un événement imprévisible pour les modèles ?

Devant l’ampleur de l’événement, plusieurs questions se sont posées : les modèles climatiques sont-ils capables de simuler de tels extrêmes ? Sommes-nous limités dans notre capacité à modéliser et prévoir ces événements pour définir au mieux nos stratégies d’adaptation ?

Les simulations issues des modèles climatiques internationaux (qui participant aux exercices de projection climatiques utilisés notamment par le Giec) montrent que oui, cet événement était bien possible et même attendu, mais seulement dans un contexte de réchauffement climatique d’origine anthropique.

Selon ces modèles, un réchauffement de cette ampleur a une période de retour d’environ 10 ans sur l’ensemble de l’Atlantique Nord, ce qui signifie que dans le climat actuel, un tel événement a environ 10 % de chances de se produire chaque année.

La configuration régionale particulière de 2023 (le fameux « fer à cheval ») est en revanche plus rare, avec une période de retour de l’ordre de 100 ans.

Autrement dit, 2023 est un événement rare, mais pas impossible. Cette conclusion est essentielle : il n’y a pas eu d’emballement climatique ou d’accélération inattendue. Nous restons dans le cadre d’une variabilité climatique amplifiée par le réchauffement global, conforme aux projections des modèles climatiques.

D’autres hypothèses avaient été formulées en 2023. En 2020, une importante régulation internationale a permis de drastiquement réduire la pollution des navires, assurant ainsi une nette amélioration de la qualité de l’air. Une telle réduction de la pollution a toutefois eu un effet réchauffant à court terme sur le climat, car cette pollution est constituée d’aérosols ayant un « effet parasol » limitant la quantité de chaleur atteignant la surface des océans.

De nombreuses questions ont été posées sur la possible contribution de cette régulation internationale sur le développement de l’événement extrême de chaleur de 2023. Dans cette étude, nous n’avons pas directement analysé l’effet de cette mesure et de la forte réduction en aérosols soufrés, mais nous avons toutefois montré que les modèles climatiques sont capables de reproduire l’événement extrême de 2023 sans devoir prendre en compte cette réduction drastique de l’émission d’aérosols.

Si cet effet a pu contribuer légèrement au réchauffement en réduisant la quantité de particules réfléchissant le rayonnement solaire, il ne semble pas en être la cause principale.

Un extrême prévisible dans un monde plus chaud

L’année 2023 restera une année record pour l’Atlantique Nord, mais elle ne marque pas un changement de paradigme. Cet événement s’inscrit dans un cadre physique compris et anticipé par les modèles climatiques. L’événement de 2023 s’explique avant tout par la variabilité naturelle des conditions atmosphériques qui a joué le rôle d’étincelle, et qui a mis le feu aux poudres. En l’occurrence, à un océan très stratifié par le changement climatique d’origine humaine.

Ce cas illustre aussi l’importance d’une communication scientifique rigoureuse :

  • il faut éviter les effets d’annonces catastrophistes qui pourraient laisser croire à une rupture soudaine du climat ou un emballement,

  • il faut toutefois reconnaître l’ampleur du changement en cours et l’impact grandissant du réchauffement climatique sur les événements extrêmes,

  • enfin, il est nécessaire de construire des scénarios d’adaptation et d’atténuation cohérents dans leur prise en compte des événements extrêmes, seuls ou combinés les uns aux autres.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

17.04.2025 à 12:53

Les premières images d’un calamar colossal dans les fonds marins prises par des scientifiques

Kat Bolstad, Associate Professor of Environmental Science, Auckland University of Technology

Les premières images attestées d’un calamar colossal juvénile dans son habitat naturel montrent un animal délicat et gracieux, aux antipodes du cliché de « monstre », trop répandu.
Texte intégral (1383 mots)

Les premières images attestées d’un calamar colossal juvénile dans son habitat naturel montrent un animal délicat et gracieux, aux antipodes du cliché de « monstre », trop répandu.


Le calamar colossal (Mesonychoteuthis hamiltoni) est une espèce qui a été décrite pour la première fois en 1925 à partir de restes de spécimens trouvés dans l’estomac d’un cachalot pêché à des fins commerciales. Un siècle plus tard, une expédition a permis de capturer les premières images attestées de cette espèce dans son habitat naturel. Elle nous montre un spécimen juvénile de 30 centimètres, à une profondeur de 600 mètres, près des îles Sandwich du Sud, à mi-chemin entre l’Argentine et l’Antarctique.

Une fois adultes, les calamars colossaux peuvent cependant atteindre jusqu’à sept mètres et peser jusqu’à 500 kilogrammes, ce qui en fait les invertébrés les plus lourds de la planète. Mais l’on sait encore très peu de choses sur leur cycle de vie.

Première observation d’un calamar colossal juvénile dans son environnement naturel. Crédit : Schmidt Ocean Institute.

Ces images inédites d’un jeune calamar colossal dans une colonne d’eau sont le fruit d’un heureux hasard, comme c’est souvent le cas dans l’étude de ces calamars d’eau profonde.

Elles sont apparues lors de la diffusion en direct d’un véhicule télécommandé dans le cadre de l’expédition de la Schmidt Ocean Institute et d’Ocean Census, partie à la recherche de nouvelles espèces et de nouveaux habitats en eaux profondes dans l’Atlantique sud, principalement sur les fonds marins.

Ceux qui étaient derrière l’écran ont alors eu la chance de voir un calamar colossal vivant dans son habitat en eaux profondes, bien que son identité n’ait été confirmée qu’ultérieurement, lorsque des images en haute définition ont pu être visionnées.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Jusque-là, notre meilleure source d’information sur les calamars colossaux était les baleines et les oiseaux marins car ils sont bien plus doués que nous pour les trouver.

De fait, il faut avoir en tête que les calamars colossaux, qui vivent dans un immense environnement sombre et tridimensionnel, nous évitent sans doute activement, ce qui explique en partie pourquoi nous venons seulement de filmer cette espèce dans son habitat naturel.

Car la plupart de nos équipements d’exploration des grands fonds sont volumineux, bruyants et utilisent des lumières vives lorsque nous essayons de filmer ces animaux. Or, le calamar colossal peut, lui, détecter et éviter jusqu’aux cachalots en plongée, qui produisent probablement un signal lumineux puissant lorsqu’ils descendent dans les eaux profondes et dérangent les animaux bioluminescents, comme notre colosse des abysses.

Les calamars les plus habiles à esquiver ces prédateurs ont pu se reproduire et transmettre leurs gènes depuis des millions d’années. Leur population actuelle est donc constituée d’animaux dotés d’une grande acuité visuelle, qui évitent probablement la lumière et sont capables de détecter un signal lumineux à plusieurs mètres de distance.

La beauté délicate de ces animaux des grands fonds

Le calamar colossal fait partie de la famille des calamars de verre (Cranchiidae), un nom qui fait référence à la transparence de la plupart des espèces. L’océan Antarctique compte trois espèces connues de calamars de verre, mais il peut être difficile de les distinguer sur des images vidéos.

Des chercheurs de l’organisation Kolossal, dont l’objectif était de filmer le calamar colossal, ont ainsi pu observer en 2023 un calamar de verre de taille similaire lors de leur quatrième mission en Antarctique. Mais comme les éléments caractéristiques permettant d’identifier un calamar colossal – des crochets à l’extrémité des deux longs tentacules et au milieu de chacun des huit bras plus courts – n’étaient pas clairement visibles, son identité exacte n’a donc pas été confirmée.

Cependant, sur les dernières images produites par l’Institut Schmidt de l’océan, les crochets du milieu du bras sont visibles sur le jeune spécimen immortalisé par les images. Celui-ci ressemble malgré tout beaucoup aux autres calamars de verre. En grandissant cependant, on suppose que les calamars colossaux perdent probablement leur apparence transparente et deviennent une anomalie au sein de la famille.

Si l’idée paradoxale d’un « petit calamar colossal » en amusera plus d’un, ces images mettent également en évidence la grâce méconnue de nombreux animaux des grands fonds, aux antipodes des préjugés que l’on peut avoir trop souvent sur les supposés monstres des profondeurs et les contenus en ligne racoleurs sur ces derniers qui seraient une simple « matière à cauchemars ».

Ce calamar colossal ressemble plutôt à une délicate sculpture de verre, avec des nageoires d’une musculature si fine qu’elles sont à peine visibles. Ses yeux iridescents brillent et ses bras gracieux s’étendent en éventail à partir de la tête.

À l’âge adulte, le calamar colossal peut certes être un prédateur redoutable, avec ses bras robustes et sa panoplie de crochets acérés, capable de s’attaquer à des poissons de deux mètres de long. Mais la première observation attestée que nous avons de ce calamar dans les profondeurs de la mer nous donne surtout matière à s’émerveiller en voyant cet animal élégant, qui prospère dans un environnement où l’homme a besoin de tant de technologie, ne serait-ce que pour le voir à distance.

Plus étrange que la science-fiction

Jusqu’à récemment, peu de gens pouvaient participer à l’exploration des grands fonds marins. Aujourd’hui, toute personne disposant d’une connexion Internet peut être derrière l’écran pendant que nous explorons ces habitats et observons ces animaux pour la première fois.

On ne saurait trop insister sur l’importance des grands fonds marins. Ils abritent des centaines de milliers d’espèces non découvertes, c’est probablement là que la vie sur Terre est apparue et ils représentent 95 % de l’espace vital disponible sur notre planète.

On y trouve des animaux plus splendides et plus étranges que nos imaginations les plus créatives en matière de science-fiction. Des calamars qui, au début de leur vie, ressemblent à de petites ampoules électriques avant de devenir de véritables géants ; des colonies d’individus où chacun contribue au succès du groupe ; des animaux dont les mâles (souvent parasites) sont exceptionnellement plus petits que les femelles.

Cette première observation attestée d’un calamar colossal peut en cela nous inspirer en nous rappelant tout ce qu’il nous reste à apprendre.


L’expédition qui a filmé le calamar colossal est le fruit d’une collaboration entre l’Institut Schmidt de l’océan, la Nippon Foundation-NEKTON Ocean Census et GoSouth (un projet commun entre l’université de Plymouth, le GEOMAR Helmholtz Centre for Ocean Research et le British Antarctic Survey).


The Conversation

Kat Bolstad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.04.2025 à 11:52

La réalité diverse du vélo à la campagne, derrière les clichés de grands sportifs ou de néo-ruraux militants

Alice Peycheraud, Doctorante en géographie, Université Lumière Lyon 2

Jadis omniprésent dans la ruralité, le vélo hors la ville a du mal à s'implanter dans nos imaginaires. Qui sont donc les cyclistes des routes de campagne ? Pas seulement des sportifs ou néo-ruraux.
Texte intégral (3151 mots)
Le vélo était omniprésent dans les villages jusque dans les années 1970. Pxhere, CC BY

Jadis omniprésent dans la ruralité, le vélo hors la ville a du mal à s’implanter dans nos imaginaires. Qui sont donc les cyclistes des routes de campagne ? Pas seulement des sportifs ou des néo-ruraux montre une nouvelle recherche, qui pointe également le fort potentiel cyclable de nos campagnes.


Mais qui sont donc les cyclistes s’aventurant sur les routes de campagne ? Les forçats du Tour de France, évidemment ! Et les touristes, de plus en plus nombreux à sillonner les véloroutes. Ces images s’imposent instantanément. Mais lorsque l’on pense aux déplacements du quotidien, l’imaginaire se grippe.

Y a-t-il seulement des cyclistes « de tous les jours » dans le rural, en dehors de stakhanovistes de la petite reine ou de militants convaincus ?

Une pratique rurale longtemps en perte de vitesse

Pédaler dans les territoires ruraux n’est certes pas une évidence. Le vélo était pourtant omniprésent dans les villages jusque dans les années 1970. Depuis, sa présence n’a fait que s’étioler. S’il est difficile d’obtenir des données aussi précises que pour les métropoles, les chiffres généraux sur la fréquentation vélo tendent à montrer que la dynamique peine à s’inverser.

Alors qu’en ville, le vélo, pratique et rapide, représente un avantage comparatif vis-à-vis de la voiture, les contraintes rencontrées dans les territoires ruraux semblent barrer la voie à la bicyclette.

Le territoire y est en effet organisé par et pour la voiture : non seulement les ruraux parcourent au quotidien des distances deux fois plus importantes qu’en ville, mais les routes comme l’urbanisme des bourgs sont pensés pour l’automobile. De fait, 80 % des déplacements s’y effectuent en voiture.

Les ruraux sont ainsi pris en étau par un modèle fondé sur l’automobile, à la fois préjudiciable écologiquement et excluant socialement, mais nécessaire pour pouvoir habiter ces territoires.

Près de la moitié des trajets font moins de 5 km

Pourtant, il existe un potentiel cyclable dans le rural, où près de la moitié des trajets concernent des distances de moins de 5 km. De fait, les observations et la soixantaine d’entretiens menés dans trois territoires ruraux, le Puy-de-Dôme, la Saône-et-Loire et l’Ardèche, dans le cadre de ma thèse de géographie, montrent qu’il y a bel et bien des cyclistes dans le rural, utilisant leur vélo pour aller au travail, faire les courses ou tout autre activité du quotidien.

Croisés sur les marchés, dans les cafés ou dans des associations pro-vélo, les profils rencontrés sont variés : autant d’hommes que de femmes, des retraités, des cadres comme des employés. Se pencher sur leurs pratiques et sur leurs engagements, c’est aussi s’intéresser à la complexité des territoires ruraux qu’ils parcourent et aux nouvelles façons d’habiter ces espaces, au-delà des images d’Épinal.


Visuel d'illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu.

Abonnez-vous dès aujourd'hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Au-delà des seuls sportifs, des manières de rendre le vélo envisageable pour le plus grand nombre

L’émergence du vélo électrique (dont le nom complet demeure « vélo à assistance électrique », dit VAE) a grandement contribué à rendre les déplacements cyclistes envisageables par le plus grand nombre, tempérant les distances et les reliefs parfois prononcés. Dans des espaces ruraux souvent concernés par le vieillissement de la population, le déploiement de cette technologie n’a rien d’anodin. Le vélo électrique est d’ailleurs particulièrement valorisé par les retraités actifs.

Fabrice (65 ans, retraité, Saône-et-Loire) a ainsi fait coïncider son passage à la retraite avec l’achat d’un vélo électrique et repris une pratique cycliste abandonnée depuis l’adolescence. Le vélo électrique, en modulant les efforts, permet aussi à un public plus jeune d’effectuer plus régulièrement des trajets jugés exigeants. Cet outil ne peut toutefois pas porter à lui seul l’espoir d’un développement du vélo dans le rural. D’abord, parce qu’il reste coûteux ; ensuite, parce qu’il faut le penser en regard du contexte de pratique.

La sécurité et le manque d’aménagement sont souvent les premiers arguments opposés à la pratique du vélo à la campagne.

De fait, certaines routes départementales s’avèrent inhospitalières pour la plupart des cyclistes. Pourtant limiter le rural à ce réseau de « grandes routes » serait oblitérer sa richesse en routes secondaires et en chemins agricoles. Ceux-ci représentent un vivier d’alternatives, ne nécessitant pas toujours d’aménagement supplémentaire, si ce n’est un effort de jalonnement et d’information de la part des collectivités.

Cela peut passer par l’indication d’un itinéraire conseillé par un panneau, ou par une carte des itinéraires, parfois assortie des temps estimés pour les trajets, comme cela a été fait dans le Clunisois. La connaissance des itinéraires alternatifs permet d’envisager le rural au-delà du seul prisme automobile.

Les cyclistes valorisent d’ailleurs le sentiment de découverte lié à cette façon différente de s’approprier leur territoire.

Se déplacer à vélo dans le rural, ce n’est pas que faire de longues distances

Au gré des stratégies mises en place par chaque cycliste, différentes stratégies se dessinent. Une part des cyclistes, souvent des hommes jeunes ayant une pratique sportive par ailleurs, affrontent de longues distances et les routes passantes sans trop d’appréhension. Mais la majorité des cyclistes rencontrés, dont les profils sont variés, roule en utilisant le réseau secondaire, évitant les situations anxiogènes, sur des distances plus courtes. Ce sont ces pratiques qui gagnent le plus à être accompagnées par des politiques publiques.

Le vélo de Jeanne, septuagénaire, attaché sans trop de précaution devant un café du bourg auvergnat où elle réside depuis toujours
Le vélo de Jeanne, septuagénaire, attaché sans trop de précaution devant un café du bourg auvergnat où elle réside depuis toujours. Peycheraud, 2022, Fourni par l'auteur

Enfin, une dernière partie des enquêtés cantonne sa pratique du vélo aux centres-bourgs, n’investissant quasiment jamais l’espace interurbain. Les petites centralités constituent un maillage essentiel de l’espace rural, polarisant les services de proximité. Se déploient en leur sein de nombreux déplacements, facilement effectués à vélo. Or, ces mobilités cyclistes, loin d’être rares, sont parfois banalisées par les cyclistes eux-mêmes.

Pourtant, elles participent à nourrir les sociabilités locales particulièrement valorisées par les habitants de ces territoires. Jeanne, septuagénaire et secrétaire de mairie à la retraite, rencontrée dans un petit bourg auvergnat, expliquait ainsi qu’elle habitait là « depuis toujours », se déplaçant invariablement à vélo, et que tout le monde la connaissait ainsi. Si le fait de pouvoir s’arrêter et discuter est le propre des déplacements cyclistes en général, dans les espaces ruraux, cela nourrit également un idéal de « vie villageoise ».

Pédaler dans le rural, c’est donc aussi investir la proximité, tant spatiale que sociale.

Choisir le vélo contre la voiture… mais aussi par plaisir

La mobilité ne se définit pas seulement par ses dimensions matérielles et fonctionnelles : elle est toujours porteuse de sens et de valeurs. Dans les discours, trois justifications reviennent très régulièrement pour expliquer le choix du vélo : il est économique, écologique et bon pour la santé. Pour Madeleine (60 ans, fonctionnaire territoriale, Puy-de-Dôme),

« C’est le côté économique, et aussi écologique. Je regarde les deux. Je n’ai pas plus de priorités sur l’un ou sur l’autre. »

Nathanaël (42 ans, ouvrier intérimaire, Puy-de-Dôme) explique que « vendredi, je suis venu avec le vélo. C’est qu’en faire, me permet de ne plus avoir mal au genou ». Certes ces raisons se retrouvent aussi chez les cyclistes urbains. Toutefois, dans le rural, elles s’expriment tout particulièrement en référence à l’omniprésence de la voiture et à son poids dans les modes de vie.

Prendre le vélo, c’est aussi faire le choix d’échapper à la norme automobile, chère et polluante, dominante dans ces territoires. Néanmoins, rares sont les cyclistes ruraux à ne pas avoir de voiture, souvent perçue comme une nécessité. Le vélo doit ainsi trouver sa place dans des organisations quotidiennes plus ou moins remaniées. Pour certains, le vélo n’est qu’une mobilité adjuvante, seulement utilisé lorsque les conditions sont jugées favorables : une météo clémente, un temps disponible suffisant… D’autres engagent une réflexion plus radicale sur leur mode de vie, choisissant de « ralentir » et de réduire le nombre de leurs déplacements pour les effectuer essentiellement en vélo.

Limiter les raisons de faire du vélo à ces justifications rationalisées serait toutefois oublier que le plaisir constitue une motivation centrale.

On roule aussi et surtout pour soi. Bien sûr, cette dimension affective du vélo n’est pas l’apanage des ruraux. Néanmoins, l’environnement rural colore tout particulièrement la pratique : la relation à la nature et aux paysages est largement plébiscitée par les cyclistes rencontrés. L’une évoquera les biches croisées de bon matin, l’autre le plaisir de passer par des chemins habituellement réservés aux vététistes. Le vélo du quotidien dans le rural incarne parfaitement la porosité grandissante entre les loisirs et les activités « utilitaires » qui caractérise la société contemporaine.

Le vélo à la campagne n’est pas qu’une pratique importée de la ville

Si certains territoires continuent de perdre des habitants, le rural a globalement renoué avec l’attractivité résidentielle. Il serait tentant de voir dans cette dynamique démographique le vecteur de développement du vélo du quotidien dans le rural. Des néo-ruraux fraîchement arrivés importeraient ainsi leurs habitudes acquises en ville, où l’on assiste à un retour des déplacements cyclistes. Ce type de profil existe, mais n’épuise pas la diversité des trajectoires des cyclistes rencontrés. Quelques nuances méritent ainsi d’être évoquées.

D’une part, jusque dans les années 1990, on pratiquait davantage le vélo dans les territoires ruraux qu’en ville. Certains cyclistes, la cinquantaine passée et ayant toujours habité le rural, ont ainsi connu une pratique ininterrompue tout au long de leur vie et roulent parfois encore avec des vélos dotés eux-mêmes d’une certaine longévité (photo 2).

Yann, 71 ans, vient faire réparer son vieux Peugeot, lors d’un atelier de réparation itinérant. Peycheraud, 2022, Fourni par l'auteur

D’autre part, les parcours des cyclistes croisés amènent à considérer la complexité des liens qui s’établissent entre pratiques urbaines et rurales du vélo. Les trajectoires résidentielles ne sont pas linéaires et se composent souvent d’allers-retours entre ville et campagne, ce qui colore la pratique.

Mariette, retraitée de 65 ans, a par exemple grandi et appris à pédaler dans un village de Saône-et-Loire. L’acquisition d’une voiture lui fait arrêter le vélo. Elle ne le reprendra que vingt ans plus tard, arrivée à Grenoble, motivée par la dynamique cyclable de la ville. À la retraite, elle retourne dans son village d’enfance mais continue le vélo, électrique cette fois, poussée par la rencontre avec d’autres cyclistes locaux.

Souvent le passage en ville, les socialisations qui s’y jouent, marquent un jalon pour la pratique du quotidien. Mais il s’inscrit dans un ensemble d’autres temps d’apprentissage et de rencontres. Le prisme du vélo permet donc d’insister sur les circulations qui s’établissent entre urbain et rural, plutôt que sur leur opposition tranchée.

Il existe de multiples façons de se déplacer à vélo dans le rural, des plus banalisées aux plus engagées, en fonction des stratégies et des motivations de chacun. Elles s’inscrivent toutefois dans une organisation globale de la ruralité et des mobilités qui la constituent. L’accompagnement de ces pratiques repose donc sur la prise en compte de leur diversité, ainsi que sur une réflexion collective des transitions possibles et souhaitables dans ces territoires.

The Conversation

Alice Peycheraud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16.04.2025 à 17:13

L’Île-de-France pourrait-elle être autonome sur le plan alimentaire ?

Agnès Lelièvre, Maître de conférences en agronomie, AgroParisTech – Université Paris-Saclay

Christine Aubry, Fondatrice de l’équipe de recherche INRAE « Agricultures urbaines », UMR Sadapt, AgroParisTech – Université Paris-Saclay

Clotilde Saurine, Animatrice de réseau sur le sujet de l'alimentation, AgroParisTech – Université Paris-Saclay

Doudja Saïdi-Kabeche, Enseignante-Chercheuse en siences de Gestion, AgroParisTech – Université Paris-Saclay

Fanny Provent, Ingénieure agronome

Seuls 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte, par exemple, ses céréales.
Texte intégral (3464 mots)
Culture maraîchère en Île-de-France. Fourni par l'auteur

Seulement 2 % des produits alimentaires consommés en Île-de-France sont locaux. Une réalité qui interpelle quand on sait que la région est par ailleurs une terre agricole qui exporte par exemple ses céréales. Pourrait-on dès lors remédier à cette situation ?


L’Île-de-France, région la plus riche du pays, concentre 30 % du PIB et une forte proportion de diplômés, tout en jouissant d’une réputation internationale. Cependant, elle est presque totalement dépendante de l’extérieur pour son alimentation, avec seulement 2 % des produits alimentaires provenant de la région selon une étude de 2017 et 5 à 7 jours d’autonomie en cas de crise.

Ces chiffres posent à la fois des questions de sécurité, de souveraineté et d’autosuffisance, et interrogent l’ensemble du système alimentaire, de la production à la consommation.

Du champ jusqu’à l’assiette, comment peut-on l’expliquer et comment, surtout, pourrait-on rendre l’Île-de-France plus autonome sur le plan alimentaire ?

Production francilienne.
Production francilienne. Fourni par l'auteur

Une autonomie alimentaire francilienne très faible

Commençons par un paradoxe : en Île-de-France, la production de céréales est très excédentaire par rapport aux besoins régionaux (3,2 millions de tonnes de blé en 2019, selon FranceAgriMer, qui, transformées en farine, représentent plus du double de la consommation de farine des 12 millions de Franciliens. Pourtant, le bassin de consommation importe de la farine, car une forte proportion de ce blé est exportée (70-80 %). Une étude précise le détail des 1,6 million de tonnes de nourriture venant de province qui entrent en Île-de-France chaque année : principalement des fruits et légumes, de l’épicerie, des boissons sans alcool et des produits laitiers. Elle nous permet également d’apprendre que les produits animaux, eux, ne satisfont qu’à peine 2 % de la consommation et que la production de fruits et légumes, correspond à moins de 10 % de la consommation régionale.

Pourtant, la région était maraîchère au moins jusqu’au début du XXe siècle. En 1895, l’Île-de-France était autonome, à près de 95 %, en fruits et légumes et, en 1960, on comptait encore plus de 20 000 ha de légumes diversifiés dans la région (environ 2 000 ha aujourd’hui).

Sur la partie la plus urbanisée, seuls 0,6 % des aliments consommés sont produits aujourd’hui dans la Métropole du Grand Paris (MGP), qui inclut Paris et 130 communes environnantes, et au moins 30 % des aliments consommés à Paris proviennent de l’international. Ce constat une fois posé, est-il envisageable aujourd’hui d’améliorer l’autonomie alimentaire de la Région ?

Production francilienne.
Production francilienne. Fourni par l'auteur

Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’agriculture urbaine, une voie d’autonomisation ?

L’agriculture urbaine est parfois présentée comme un moyen de conquérir de nouveaux terrains productifs en ville pour produire localement, en particulier des fruits et légumes. Cependant, les travaux de l’agroécologue Baptiste Grard montrent qu’en mettant en production la totalité des 80 hectares de toits cultivables à Paris, on fournirait au maximum 10 % des fruits et légumes consommés par les Parisiens.

De plus, la portance de ces toits et d’autres contraintes peuvent limiter la surface réellement cultivable. Malgré un soutien fort de la Mairie, la surface en production intramuros n’est passée que de 11 ha en 2014 à 31 ha en 2020.

Pour rendre l’Île-de-France plus autonome sur le plan alimentaire, il faudrait donc encourager les collectivités à utiliser davantage d’aliments issus de l’agriculture périurbaine.

Culture maraichère en Île-de-France. Fourni par l'auteur

La restauration collective : une voie d’autonomisation alimentaire et d’évolution de l’agriculture locale ?

Celle-ci paraît particulièrement bien indiquée pour alimenter la restauration collective, notamment publique (écoles, crèches, collèges, lycées, hôpitaux publics, Ehpad publics, prisons), qui représente en Île-de-France près de 650 millions de repas annuels servis, dont plus de 50 % en secteur scolaire. Elle constitue donc une source majeure d’influence sur l’alimentation des habitants et peut devenir un levier pour l’évolution de l’agriculture de proximité vers des formes plus durables, encouragées en cela par la loi Égalim.

Le périurbain francilien, en Seine-et-Marne, Yvelines, Val-d’Oise et Essonne, participe de plus en plus à cette dynamique. On voit en effet croître le nombre d’exploitations diversifiant leurs productions vers des légumineuses et légumes de plein champ à destination de la restauration collective, notamment en production biologique, avec l’influence notable de la Coop bio d’Île-de-France,créée en 2014.

Il s’agit pour l’essentiel de céréaliers diversifiés ou de maraîchers d’assez grande taille (au moins une dizaine d’hectares) sur des espèces spécifiques (salades, carottes, pommes de terre…). Les plus petites exploitations maraîchères (moins de 5 ha), très diversifiées en légumes, dont beaucoup se sont installées ces dix dernières années avec un fort soutien des collectivités locales, sont moins orientées vers ce débouché, qui exige d’importants volumes à un prix relativement bas et induit beaucoup de contraintes de référencement pour les producteurs, d’où l’intérêt de formes mutualisées de commercialisation.

C’est ainsi que certaines collectivités préfèrent passer directement en régie agricole pour leur restauration collective à l’image de Mouans-Sartoux (Alpes-Maritimes) dans la Région Paca, ou de Moissy-Cramayel (Seine-et-Marne) ou Villejuif (Val-de-Marne) en Île-de-France. La régie agricole est une ferme municipale dont le foncier appartient à la Ville et dont le personnel est salarié municipal.

Ce rôle structurant de la restauration collective a permis, en 2023, de lancer l’association AgriParis Seine, élargissant la notion de « local » à 250 km autour de Paris et visant à structurer des filières d’agriculture durable par l’achat public, en parcourant la Seine, du Havre jusqu’au nord de l’Yonne, le fleuve servant de voie majeure d’approvisionnement à terme. Dans le même temps, le schéma directeur de la Région Île-de-France envisage d’autres logiques, avec un projet de ceinture maraîchère autour de Paris.

Des formes d’agricultures urbaines inclusives et utiles pour des publics précaires

Soutenant, à travers la restauration collective, l’agriculture francilienne, les collectivités espèrent aussi lutter avec elle contre le fléau de la précarité alimentaire, qui s’est accrue ces dernières années : l’Agence nouvelle des solidarités actives la chiffre aujourd’hui dans une fourchette de 12 à 20 % de la population, avec de fortes disparités intrarégionales sur le nombre d’habitants touchés et l’intensité de cette précarité, qui va de pair avec une forte prévalence des maladies de la nutrition (diabète, obésité). L’agriculture urbaine (intra et périurbaine) peut-elle jouer des rôles intéressants pour mieux alimenter des personnes en précarité ?

Les jardins collectifs (familiaux, partagés, au bas d’immeuble), plus de 1 300 en Île-de-France en 2019, y contribuent directement par une autoproduction alimentaire, variable mais qui peut être non négligeable selon la taille des jardins et l’implication des jardiniers : elle pouvait représenter, en 2019, en jardins familiaux, plus de 1 500 € d’économie par an sur les achats de fruits et légumes d’une famille, et probablement plus aujourd’hui étant donné l’inflation. Avec l’augmentation de la pauvreté et la demande accrue de jardins collectifs depuis la crise Covid, il serait nécessaire de mener une étude sur les rôles quantitatifs et économiques, dans les territoires franciliens, des diverses formes de jardinage collectif.

En périurbain, les jardins d’insertion, dont ceux du réseau Cocagne, revendiquent plus de 140 000 paniers solidaires par an au niveau national. En Essonne, les jardins du Limon fournissent, eux, 550 paniers solidaires par semaine.

Le réseau des Amap d’Île-de-France (elles sont 290 en 2023) propose aussi, depuis 2021, des paniers solidaires ou des livraisons de surplus à des épiceries ou restaurants solidaires. Forme de solidarité éthique de base, cette fourniture reste cependant très confidentielle en termes quantitatifs.

De plus, la production d’aliments n’est pas tout, il faut pouvoir et savoir cuisiner les produits, ce qui n’est pas toujours possible (par absence d’équipements) lorsqu’on vit en hôtel social, en hébergement d’urgence ou dans d’autres logements précaires. C’est pour faciliter l’intégration de ces produits frais dans l’alimentation de publics en difficulté que des structures associatives combinent jardinage et transformation alimentaire.

L’importance de la démocratie alimentaire

À l’instar de la dynamique observée partout en France, se mettent en place en Île-de-France, des initiatives pour favoriser l’accessibilité à des produits de qualité pour toutes, s’appuyant sur des principes de « démocratie alimentaire » : expérimentations de caisse alimentaire locale, transferts monétaires « fléchés » vers des produits durables (Vit’Alim par Action contre la faim et le Conseil départemental de Seine-Saint-Denis), comités locaux pour l’alimentation et la santé (PTCE Pays de France)…

C’est un enjeu sérieux que de structurer l’analyse des retours d’expériences à en tirer, car de cela dépend la capacité de diffuser des modèles alternatifs proposés pour transformer le système alimentaire de façon pérenne. Le projet Territoire zéro précarité alimentaire (TZPA) (terme proposé par le Labo de l’ESS), mené par le réseau Agricultures urbaines et précarité alimentaire de la chaire Agricultures urbaines (Aupa), vise précisément à évaluer les impacts de plusieurs de ces initiatives sur la « sécurité alimentaire durable » dans les territoires concernés.

Il reste capital de pouvoir mieux évaluer scientifiquement, du point de vue de la lutte contre la précarité alimentaire, ces diverses initiatives, des Amapm aux régies agricoles, ce à quoi travaille la chaire Agricultures urbaines (AgroParis Tech).

En Île-de-France, l’autonomie alimentaire reste faible en raison des orientations actuelles des systèmes de production et des marchés. Devenir plus autonome implique non seulement une production locale accrue, mais aussi la transformation et la distribution régionales des produits. La restauration collective et la lutte contre la précarité alimentaire sont deux leviers essentiels, souvent imbriqués ensemble : les collectivités signalent souvent que la restauration collective scolaire représente déjà une forme de lutte contre la précarité alimentaire des enfants, si toutefois les cantines scolaires sont bien accessibles à tous.

Ces deux sujets sont impactés par les politiques publiques et souvent limités par un manque de coordination et de moyens. Un meilleur soutien financier et une évaluation rigoureuse des initiatives locales pourraient inspirer des politiques publiques plus efficaces et durables. Là, la recherche en lien étroit avec les acteurs politiques et de terrain est fortement convoquée. Il va sans dire qu’elle aussi manque aujourd’hui de moyens pour cela.

The Conversation

Agnès Lelièvre a reçu des financements de l'Union Européenne à travers sa participation à des projets JPI Urban Europe, Horizon 2020 et Horizon Europe

Christine Aubry, Clotilde Saurine, Doudja Saïdi-Kabeche et Fanny Provent ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

15.04.2025 à 17:34

Fin de l’ARENH : comment l’électricité nucléaire française a basculé dans le marché

Thomas Reverdy, Professeur des Universités en sociologie, Université Grenoble Alpes (UGA)

Cette particularité du marché français de l’électricité, introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025.
Texte intégral (2684 mots)

L’Accès régulé à l’électricité nucléaire historique (ARENH), particularité du marché français de l’électricité introduite en 2010 suite à l’intégration de la France aux marchés européens de l’énergie, doit prendre fin courant 2025. Retour sur l’histoire d’un dispositif controversé, mais trop souvent mal compris.


Le 31 décembre 2025, prendra fin une disposition spécifique au marché français de l’électricité, l’Accès régulé au nucléaire historique (ARENH). Cette disposition, mise en place en 2011, permettait aux fournisseurs concurrents de EDF d’accéder à un volume total d’électricité nucléaire de 100 TWh à un prix fixe de 42 euros par mégawatt-heure (MWh).

Régulièrement présentée par ses détracteurs soit comme une injonction autoritaire des autorités européennes, soit comme une spoliation d’EDF, les objectifs et les modalités de cette disposition sont souvent mal connus et incompris. Revenons sur l’histoire de ce dispositif.

Aux origines de l’ARENH

L’intégration de la France aux marchés de l’énergie européens après leur libéralisation a entraîné une hausse des prix à partir de 2004. Les clients industriels français se sont fortement mobilisés pour être protégés de cette hausse, suite à quoi l’État a mis en place un nouveau tarif réglementé pour les entreprises en 2006. La même logique a prévalu lors de l’ouverture des marchés pour les particuliers en 2007, l’État a décidé de maintenir un tarif réglementé calculé sur la base des coûts de production.

Or, la hausse des prix sur les marchés de gros a produit un effet de « ciseau tarifaire ». Il empêchait les fournisseurs alternatifs, qui achetaient l’électricité sur le marché de gros, de se développer. En effet, ces derniers n’avaient pas la capacité de rivaliser avec le tarif réglementé et les offres de EDF, fondés sur les coûts plus compétitifs du nucléaire historique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Ainsi, la volonté politique de protéger les entreprises et les consommateurs par le tarif a alors entraîné un blocage de l’ouverture à la concurrence. L’ARENH a été créé dans ce contexte : il permettait de respecter l’engagement européen de développer la concurrence, tout en permettant de restituer aux consommateurs français l’avantage économique du nucléaire historique.

Un mécanisme utile, mais progressivement fragilisé

Le choix du mécanisme a été motivé par un souci de continuité avec les équilibres économiques qui existaient avant la libéralisation. Il a effectivement permis aux consommateurs français de bénéficier de l’avantage économique du nucléaire existant, tout en leur évitant d’être exposés aux variations du prix de marché de gros européen, quels que soient l’offre tarifaire et le fournisseur. La distribution du volume ARENH aux fournisseurs alternatifs est très encadrée en amont et en aval, pour éviter qu’ils tirent un bénéfice immédiat en revendant l’électricité sur le marché de gros. Elle ouvre à des règlements financiers en cas d’écart avec les besoins du portefeuille de clients.

Néanmoins, le mécanisme a rencontré plusieurs configurations inattendues qui l’ont fragilisé. En 2015, le prix du marché de gros européen, en baisse, est passé en dessous du prix fixé pour l’ARENH. Dans cette situation, l’ARENH a perdu de son intérêt pour les fournisseurs alternatifs.

Cette alternative a révélé le caractère asymétrique du dispositif : il ne garantit pas la couverture des coûts d’EDF en cas de baisse des prix de marché en dessous du tarif de l’ARENH. En novembre 2016, des fluctuations des prix des contrats à terme, ont permis aux fournisseurs alternatifs de réaliser des arbitrages financiers impliquant l’ARENH.

Cette période de prix bas sur les marchés de gros a aussi permis aux fournisseurs alternatifs de développer leurs parts de marché, qu’ils ont conservées quand les prix ont remonté à partir de 2018.

En 2019, le volume de 100 TWh prévu par la loi ne permettait pas de couvrir tous les besoins en nucléaire des fournisseurs alternatifs (130 TWh). Un écrêtement de l’ARENH a alors été mis en place. Ce rationnement a eu pour effet de renchérir les coûts d’approvisionnement des fournisseurs alternatifs, dans la mesure où une partie de l’électricité d’origine nucléaire de EDF devait être achetée au prix du marché de gros pour compléter le volume d’ARENH manquant.

Ces derniers ont dû ajuster leurs contrats de fourniture en conséquence. La Commission de régulation de l’énergie (CRE) a augmenté en 2019 les tarifs réglementés de l’électricité pour refléter ces nouveaux coûts d’approvisionnement, pour que le tarif réglementé reste « contestable » (qu’il puisse être concurrencé) par les fournisseurs alternatifs. Un des effets de l’écrêtement est de revaloriser l’énergie nucléaire, dont une partie est désormais vendue par EDF au niveau du prix de marché, supérieur au tarif de l’ARENH.

Un avantage pour EDF face à la concurrence

La loi énergie-climat de 2019 prévoyait une augmentation du volume d’ARENH à 150 MWh de façon à mettre fin à l’écrêtement. En parallèle, il était envisagé d’augmenter son prix de façon à suivre la hausse des coûts du parc nucléaire. Le projet HERCULE de restructuration de l’entreprise, initié pour améliorer la valorisation financière de l’entreprise, était aussi une opportunité pour repenser le mécanisme ARENH et le rendre symétrique, garantissant à EDF un niveau de revenu minimal en cas de baisse des prix.

Or le projet HERCULE a été abandonné face à la mobilisation syndicale car il portait atteinte à la cohérence de l’entreprise. Les modifications de l’ARENH ont été aussi abandonnées à cette occasion. Constatant que le prix de marché de gros suivait une tendance à la hausse, EDF avait plus à gagner à ce que l’ARENH ne soit pas modifié : elle pouvait gagner davantage grâce à l’écrêtement qu’avec une hypothétique réévaluation du prix de l’ARENH.

C’est donc avec un dispositif déséquilibré et asymétrique que le secteur électrique français a abordé la crise européenne de l’énergie en 2022. Du fait de la hausse des prix du gaz, une hausse des prix des contrats d’électricité à terme pour l’année 2022 a été observée dès le début de l’automne 2021.

Le gouvernement a alors décidé de mettre en place un bouclier tarifaire pour éviter que cette hausse n’affecte trop les consommateurs finaux – et éviter une crise politique dans un contexte préélectoral.

De la crise énergétique à l’« ARENH+ »

Pour réduire les surcoûts pour l’État et pour protéger les entreprises, il a aussi envisagé d’augmenter le volume d’ARENH pour répondre à une demande de 160 TWh. Réduire l’écrêtement de l’ARENH, permet de réduire l’achat d’électricité sur le marché de gros, ce qui réduit d’autant les factures de tous les clients, et donc le coût du bouclier tarifaire. Les négociations avec EDF ont retardé la décision.

Un « ARENH+ » a finalement été acté par le gouvernement en janvier 2022 pour la période de mars à décembre 2022. Au final, cette réduction d’écrêtement de l’ARENH a bien eu l’effet recherché par l’État, qui était de réduire le niveau des factures pour l’ensemble des consommateurs.

Néanmoins, compte tenu de son déploiement tardif, cette extension de l’ARENH à hauteur de 20 TWh supplémentaires a obligé EDF à racheter l’électricité nécessaire au prix de marché pour la revendre à un prix de 46 euros par MWh. Pour EDF, le coût direct était d’environ 4 milliards d’euros.

Un contexte critique pour le nucléaire d’EDF

Cette extension de l’ARENH est intervenue dans un contexte critique pour EDF. De nombreuses centrales nucléaires étaient indisponibles. La maintenance des centrales nucléaires a été retardée par la crise du Covid-19, la détection de problèmes inédits de corrosion sous contrainte ayant entraîné l’arrêt de nombreux réacteurs.

S’ajoute à cela la sécheresse des étés 2021 et 2022, qui a réduit les réserves d’eau dans les barrages et la production d’électricité d’origine hydroélectrique et nucléaire. Au cours de l’année 2022, EDF a dû importer de l’électricité aux pays européens voisins à des prix extrêmement élevés.

A l’automne 2022, le mécanisme de formation des prix sur le marché de gros européen s’est trouvé au cœur des débats en Europe et en France : il était question de limiter son influence sur la facture du consommateur. Paradoxalement, en France, le débat s’est alors focalisé sur l’ARENH. La commission d’enquête parlementaire « visant à établir les raisons de la perte de souveraineté et d’indépendance énergétique de la France » a alors été l’occasion, pour les anciens dirigeants d’EDF, de condamner l’ARENH, accusé d’avoir appauvri EDF et d’être responsable de la dépendance énergétique de la France.

L’extension de l’ARENH n’a pas été renouvelée pour 2023 et 2024, même si la demande d’ARENH est restée élevée, s’élevant alors à 148 TWh. De ce fait, les clients français ont acheté, directement ou indirectement, une large partie de l’électricité nucléaire de EDF au prix de marché de gros européen, exceptionnellement élevé. Ces deux années se sont donc avérées très profitables pour EDF, dont la disponibilité des centrales nucléaires s’est améliorée.

Un nouveau mécanisme qui expose davantage les acteurs aux aléas du prix de marché

Dans l’intervalle, le ministère de la transition a travaillé au remplacement de l’ARENH par un autre mécanisme symétrique. L’idée était de transposer au nucléaire historique les « contrats pour différence (CFD) symétriques », utilisés en Europe pour les énergies renouvelables.

Ce mécanisme devait permettre de garantir un complément de prix par rapport au marché de l’électricité, sécurisant ainsi la rémunération du producteur. Inversement, si le prix du marché augmente, l’État récupère l’écart, qu’il peut redistribuer aux consommateurs.

En parallèle, EDF a défendu un autre mécanisme, qui consistait à supprimer l’ARENH et à taxer les profits d’EDF quand ils dépassent un certain niveau. Bruno Le Maire a officialisé, en novembre 2023, l’arbitrage en faveur de ce second mécanisme, désormais validé dans le cadre de la Loi de Finance 2025.

L’électricité nucléaire sera donc vendue sur le marché et l’État pourra taxer EDF à hauteur de 50 % si les prix de marché dépassent un premier seuil calculé à partir des coûts complets de EDF – avec une marge non encore fixée – puis d’écrêter ses revenus en cas dépassement d’un second seuil. Les revenus issus de ce prélèvement devraient alors être redistribués de façon équitable entre les consommateurs.

Au-delà des incertitudes liées à la définition des seuils et des modalités de redistribution, le nouveau mécanisme valorise l’énergie nucléaire au prix de marché. EDF reste exposée au marché, mais conserve la possibilité de bénéficier des rentes générées par le nucléaire historique, pour financer ses investissements, en particulier dans le nucléaire futur. La préférence d’EDF pour ce second mécanisme tient aussi au fait qu’il permet d’accroître l’autonomie stratégique de l’entreprise tout en préservant sa cohésion organisationnelle.

Les clients industriels, les associations de consommateurs soulignent à l’inverse qu’il conforte l’entreprise dans sa position dominante et les prive d’une sécurité économique. Le mécanisme redistributif proposé risque d’introduire d’importantes inégalités dues à la diversité des formes d’approvisionnement. Ces consommateurs anticipent aussi des hausses des prix en janvier 2026, qui pourraient mettre en danger la dynamique d’électrification, clef de voûte de la décarbonation.

Ainsi, l’ARENH a joué un rôle essentiel dans la stabilité des prix de l’électricité pendant 15 ans, y compris pendant la crise énergétique, même si l’écrêtement en a limité les effets protecteurs. Sa complexité, ses fragilités techniques, et son statut ambivalent ont été autant de faiblesses mises en valeur dans le débat public pour affaiblir sa légitimité. L’abandon de l’ARENH a pour effet d’accroître la place du marché dans la formation du prix, et donc d’accroître les incertitudes économiques pour l’ensemble des acteurs.


L’auteur remercie Ilyas Hanine pour sa relecture.

The Conversation

Thomas Reverdy n’a pas reçu de financement de recherche en relation avec le thème de cet article. Par ailleurs, il a reçu des financements de l’État, de l’Ademe et de producteurs d’énergie pour diverses recherches sur les politiques énergétiques et le pilotage de projet.

14.04.2025 à 12:27

La face cachée du vrac

Fanny Reniou, Maître de conférences HDR, Université de Rennes 1 - Université de Rennes

Elisa Robert-Monnot, Maître de conférences HDR, CY Cergy Paris Université

Sarah Lasri, Maître de Conférences, Responsable du Master 2 Distribution et Relation Client, Université Paris Dauphine – PSL

La vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits s’oublient sans compter que jamais autant de contenants n’ont été achetés.
Texte intégral (1987 mots)
Les consommateurs de vrac de plus de 50 ans et CSP+ constituent 70 % de la clientèle de ce mode d’achat. DCStudio/Shutterstock

De façon contre-intuitive, la vente de produits sans emballage peut devenir antiécologique et générer du gaspillage. Sans étiquette, les dates de péremption des produits prennent le risque d’être oubliées. Sans éducation culinaire, les consommateurs sont livrés à eux-mêmes pour cuisiner. Sans compter qu’avec la mode de l’emballage sur mesure, jamais autant de contenants n’ont été achetés. Une priorité : accompagner les consommateurs.


Le modèle de distribution en vrac fait parler de lui ces derniers temps avec l’entrée dans les supermarchés de marques très connues, comme la Vache qui rit. Cet exemple est l’illustration des multiples nouveautés que les acteurs du vrac cherchent à insérer dans cet univers pour lui donner de l’ampleur et le démocratiser. Le modèle du vrac, un moyen simple pour consommer durablement ?

Il est décrit comme une pratique de consommation avec un moindre impact sur l’environnement, car il s’agit d’une vente de produits sans emballage, sans plastique, sans déchets superflus, mais dans des contenants réutilisables. Dans ce mode de distribution, on assiste à la disparition de l’emballage prédéterminé par l’industriel.

Distributeurs et consommateurs doivent donc assumer eux-mêmes la tâche d’emballer le produit et assurer la continuité des multiples fonctions, logistiques et marketing, que l’emballage remplit habituellement. N’étant pas habitués à ce nouveau rôle, les acteurs du vrac peuvent faire des erreurs ou bien agir à l’opposé des bénéfices écologiques a priori attendus pour ce type de pratique.

Contrairement aux discours habituellement plutôt positifs sur le vrac, notre recherche met également en avant les effets pervers et néfastes du vrac. Quand les acteurs du vrac doivent se « débrouiller » pour assurer cette tâche nouvelle de l’emballage des produits, le vrac rime-t-il toujours avec l’écologie ?

Assurer l’emballage autrement

L’emballage joue un rôle clé. Il assure en effet de multiples fonctions, essentielles pour rendre possibles la distribution et la consommation des produits :

  • Des fonctions logistiques de préservation, de protection et de stockage du produit. L’emballage peut permettre de limiter les chocs et les pertes, notamment lors du transport.

  • Des fonctions marketing de reconnaissance de la catégorie de produit ou de la marque. Elles s’illustrent par un choix de couleur spécifique ou une forme particulière, pour créer de l’attractivité en rayon. L’emballage assure également, du point de vue marketing, une fonction de positionnement en véhiculant visuellement un niveau de gamme particulier, mais aussi d’information, l’emballage servant de support pour communiquer un certain nombre d’éléments : composition, date limite de consommation, etc.

  • Des fonctions environnementales, liées au fait de limiter la taille de l’emballage et privilégiant certains types de matériaux, en particulier, recyclés et recyclables.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Dans la vente en vrac, ce sont les consommateurs et les distributeurs qui doivent remplir, à leur manière, ces différentes fonctions. Ils peuvent donc y accorder plus ou moins d’importance, en en privilégiant certaines par rapport à d’autres. Dans la mesure où l’industriel ne propose plus d’emballage prédéterminé pour ses produits, consommateurs et distributeurs doivent s’approprier cette tâche de manière conjointe.

Assimilation ou accommodation

Pour étudier la manière dont les consommateurs et les distributeurs s’approprient les fonctions de l’emballage, alors même que celui-ci n’est plus fourni par les industriels, nous avons utilisé une diversité de données : 54 entretiens avec des responsables de magasin et de rayon vrac, et des consommateurs, 190 posts sur le réseau social Instagram et 428 photos prises au domicile des individus et en magasin.

Notre étude montre qu’il existe deux modes d’appropriation des fonctions de l’emballage :

  • par assimilation : quand les individus trouvent des moyens pour imiter les emballages typiques et leurs attributs ;

  • ou par accommodation : quand ils imaginent de nouveaux emballages et nouvelles manières de faire.

Femme remplissant son contenant de lessive
Le vrac peut conduire à des problèmes d’hygiène si les consommateurs réutilisent un emballage en en changeant l’usage. GaldricPS/Shutterstock

Certains consommateurs réutilisent les emballages industriels, tels que les boîtes d’œufs et les bidons de lessive, car ils ont fait leurs preuves en matière de praticité. D’un autre côté, les emballages deviennent le reflet de l’identité de leurs propriétaires. Certains sont bricolés, d’autres sont choisis avec soin, en privilégiant certains matériaux, comme le wax, par exemple, un tissu populaire en Afrique de l’Ouest, utilisé pour les sachets réutilisables.

Quand l’emballage disparaît, les informations utiles disparaissent

L’appropriation des fonctions de l’emballage n’est pas toujours chose facile. Il existe une « face cachée » du vrac, avec des effets néfastes sur la santé, l’environnement ou l’exclusion sociale. Le vrac peut conduire par exemple à des problèmes d’hygiène ou de mésinformation, si les consommateurs n’étiquettent pas correctement leurs bocaux ou réutilisent un emballage pour un autre usage. Par exemple, utiliser une bouteille de jus de fruits en verre pour stocker de la lessive liquide peut être dangereux si tous les membres du foyer ne sont pas au courant de ce qu’elle contient.

Le vrac peut également être excluant pour des personnes moins éduquées sur le plan culinaire (les consommateurs de vrac de plus de 50 ans et CSP + constituent 70 % de la clientèle de ce mode d’achat). Quand l’emballage disparaît, les informations utiles disparaissent. Certains consommateurs en ont réellement besoin pour reconnaître, stocker et savoir comment cuisiner le produit. Dans ce cas le produit peut finalement finir à la poubelle !

Nous montrons également toute l’ambivalence de la fonction environnementale du vrac – l’idée initiale de cette pratique étant de réduire la quantité de déchets d’emballage – puisqu’elle n’est pas toujours satisfaite. Les consommateurs sont nombreux à acheter beaucoup de contenants et tout ce qui va avec pour les customiser – étiquettes et stylos pour faire du lettering, etc.

La priorité de certains consommateurs n’est pas tant de réutiliser d’anciens emballages, mais plutôt d’en acheter de nouveaux… fabriqués à l’autre bout du monde ! Il en résulte donc un gaspillage massif, au total opposé des finalités initiales du vrac.

Des consommateurs pas suffisamment accompagnés

Après une période de forte croissance, le vrac a connu une période difficile lors de la pandémie de Covid-19, conduisant à la fermeture de nombreux magasins spécialisés, selon le premier baromètre du vrac et du réemploi. En grande distribution, certaines enseignes ont investi pour rendre le rayon vrac attractif. Mais faute d’accompagnement, les consommateurs ne sont pas parvenus à se l’approprier. Le rayon du vrac est devenu un rayon parmi d’autres.

Il semble que les choses s’améliorent et les innovations se multiplient. 58 % des adhérents du réseau Vrac et réemploi notent une hausse de la fréquentation journalière sur janvier-mai 2023 par rapport à 2022. Les distributeurs doivent s’adapter à l’évolution de la réglementation.

Cette dernière stipule qu’à l’horizon 2030, les magasins de plus de 400 m2 devront consacrer 20 % de leur surface de vente de produits de grande consommation à la vente en vrac. La vente en vrac a d’ailleurs fait son entrée officielle dans la réglementation française avec la Loi relative à la lutte contre le gaspillage et à l’économie circulaire, parue au JORF no 0035, le 11 février 2020.

Dans ce contexte, il est plus que nécessaire et urgent d’accompagner les acteurs du vrac pour qu’ils s’approprient correctement la pratique.

The Conversation

Fanny Reniou et Elisa Robert-Monnot ont reçu des financements de Biocoop, dans le cadre d'un partenariat recherche.

Elisa Robert-Monnot a reçu des financements de Biocoop dans le cadre d'une collaboration de recherche

Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.04.2025 à 13:05

La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau

Etienne Latimier, Ingénieur énergies renouvelables électriques et réseaux F/H, Ademe (Agence de la transition écologique)

La hausse à venir de notre consommation électrique ainsi que le développement des énergies renouvelables impliquent d’optimiser davantage l’équilibre entre offre et demande.
Texte intégral (1407 mots)

La « flexibilité électrique », c’est-à-dire la capacité à ajuster production, distribution et consommation sur le réseau électrique pour répondre aux fluctuations de la demande, n’est pas un enjeu nouveau. Ce concept revêt une importance nouvelle face à l’impératif de décarbonation de l’économie. Cela permet par exemple d’éviter que la charge de tous les véhicules électriques au même moment de la journée ne mette en péril la stabilité du réseau.


Les débats sur l’énergie en France voient monter en puissance, depuis quelques mois, la notion de flexibilité électrique. De plus en plus d’entreprises françaises développent des outils dédiés à mieux piloter la demande en électricité.

Comprendre pourquoi cette notion, pourtant ancienne, prend aujourd’hui une ampleur nouvelle, implique d’observer les deux grandes tendances qui dessinent l’avenir du système énergétique français : la décarbonation et le déploiement des énergies renouvelables.

D’un côté, la France poursuit son effort de décarbonation de l’économie dans le but d’atteindre au plus vite ses objectifs de réduction des émissions de gaz à effet de serre. La Stratégie nationale bas carbone (SNBC) vise la neutralité carbone à l’horizon 2050. Cet enjeu requiert d’électrifier un maximum d’usages qui utilisaient des énergies thermiques. En premier lieu la mobilité, en encourageant le passage des véhicules thermiques aux électriques, mais aussi l’industrie, qui s’appuie encore beaucoup sur les fossiles à des fins de production de chaleur, et enfin le chauffage, pour lequel le gaz concerne encore 15 millions de foyers en France.

Malgré des mesures d’efficacité énergétique permises par la rénovation et des gains de rendement menés en parallèle, les nouveaux usages liés à la décarbonation commencent à engendrer une progression globale de la consommation électrique du pays.

De l’autre côté, pour répondre à ces besoins, la France incite au développement rapide des énergies renouvelables, avantageuses sur les plans économique et environnemental.

La Programmation pluriannuelle de l’énergie (PPE), actuellement en consultation, table sur une évolution de la part des énergies renouvelables dans le mix de production électrique française qui passerait de 25 % en 2022 à 45 % environ en 2050.

Piloter l’offre et la demande

Ces énergies se caractérisent par une production plus variable. En ce qui concerne le photovoltaïque et l’éolien, ils ne produisent d’électricité que lorsqu’il y a du soleil ou du vent. L’électricité étant difficile à stocker, la marge de manœuvre pour répondre à cette variabilité temporelle consiste à agir sur l’offre et la demande.

Jusqu’ici, c’est surtout par l’offre que le pilotage s’opérait, en s’appuyant le volume de production nucléaire et en réalisant simplement un petit ajustement à l’aide des tarifs heures pleines/heures creuses. Désormais, l’enjeu est de piloter l’offre différemment et d’actionner davantage le levier de la demande.

D’où l’utilité de la flexibilité électrique, par lequel le consommateur jouera un rôle plus important par ses pratiques de consommation.

Décaler nos usages

Comme évoqué précédemment, la seule alternative à la flexibilité électrique est le stockage de l’électricité. Or cette méthode est moins vertueuse. Elle présente un coût économique élevé même si le prix des batteries a diminué. En effet leur production engendre, par la pollution qu’elle génère, un coût environnemental peu cohérent avec la démarche de décarbonation menée en parallèle. Sans parler des risques à venir en matière d’approvisionnement, certains des métaux intégrés aux batteries étant considérés comme critiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Privilégier la flexibilité la majorité du temps – et garder la possibilité du stockage pour pallier les variations de production intersaisonnières – apparaît donc comme l’option la plus pertinente. L’idée est d’adapter la consommation à l’offre, en évitant de faire transiter l’électricité par des intermédiaires de stockage. Concrètement, cela consiste à viser, lors du suivi, un équilibre constant entre l’offre et la demande, en incitant les usagers à consommer davantage lorsque la production est importante. En particulier, dans le cas du solaire, en pleine journée.

En effet, la production solaire atteint aujourd’hui en France un niveau significatif en journée, même en hiver. Celle-ci est même supérieure à nos besoins au milieu de certaines journées d’été. Le surplus est, dans la mesure du possible, envoyé à l’étranger, mais cela ne suffit pas toujours pour l’utiliser dans sa totalité. Pour résoudre ce problème, la flexibilité électrique consiste à développer la logique des heures pleines heures creuses, en créant d’autres périodes tarifaires qui intègrent de nouvelles heures creuses en cœur de journée. C’est ce que la Commission de régulation de l’énergie commence à mettre en place.

Il s’agit par exemple d’inciter les consommateurs à décaler la recharge du million de véhicules électriques déjà en circulation en France – 18 millions attendus en 2035 – pendant les périodes de production solaire. Dans l’édition 2023 de son bilan prévisionnel, RTE estime que la consommation annuelle des véhicules électriques s’élèvera en 2035 à 35 TWH, contre 1,3 TWh en 2023. Il faudra donc éviter que toutes les voitures se retrouvent à charger en même temps au retour de la journée de travail.

Inciter le consommateur à décaler ses consommations

Encourager de tels comportements implique une incitation économique qui peut passer par des offres de fourniture électrique. Tout comme le tarif heures pleines/heures creuses qui existe déjà, mais dont les horaires vont être petit à petit modifiés.

D’autres offres plus dynamiques, proposant des plages horaires plus précises encore, différenciées au sein de la semaine, de la journée et de l’année, commencent aussi à émerger. L’offre EDF Tempo, par exemple, permet de payer plus cher son électricité pendant une période qui concerne les heures pleines de 20 journées rouges dans l’année, tandis que le reste du temps est plus avantageux financièrement.

La flexibilité électrique existe depuis les années 1980 mais elle peine encore à se développer. En effet, les citoyens sont davantage sensibles à la maîtrise de leur consommation. Les deux sont pourtant complémentaires : il s’agit non seulement de consommer moins mais aussi mieux. Pour cela, il est crucial de rendre ce type d’offres disponibles et surtout le plus lisibles possible pour les consommateurs en montrant leur facilité d’utilisation, même si certaines resteront orientées vers un public plus averti que d’autres.

Pour le consommateur cela implique de prendre certaines habitudes, mais ce décalage partiel de nos usages – lorsque c’est possible – ne concerne pas l’année entière. Surtout, il permet de contribuer à éviter le gaspillage d’électricité tout en réalisant des économies.

The Conversation

Etienne Latimier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 12:25

Ces citoyens qui mesurent la radioactivité de leur environnement

Christian Simon, Maitre de conférence, HDR, Sorbonne Université

Jean-Marc Bertho, Expert en radioprotection, ASNR

Le projet de sciences participatives OpenRadiation a permis le partage de plus de 850 000 mesures citoyennes de la radioactivité et se développe surtout à des fins pédagogiques.
Texte intégral (3596 mots)
Le détecteur de radioactivité Openradiation J.F. Bottolier-Depois/ASNR, Fourni par l'auteur

Après Tchernobyl et Fukushima, les mesures citoyennes de la radioactivité ont pris leur essor, pour permettre aux populations d’évaluer leurs propres risques, et pour éventuellement fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique. En France, le projet de sciences participatives OpenRadiation a, lui, permis quelque 850 000 mesures citoyennes en huit ans d’existence, et se développe essentiellement à des fins pédagogiques.


Voilà maintenant huit ans que des personnes de tous âges et de toute profession ont commencé à mesurer eux-mêmes la radioactivité dans leur environnement. Ils utilisent pour cela un outil de sciences participatives, nommé OpenRadiation, utilisable par tout un chacun, sans compétences particulières. Mais pourquoi avoir lancé un tel projet ? Comment est construit le système OpenRadiation ? Quels sont les buts de ces mesures de radioactivité ? Retour sur un projet qui mêle transparence, pédagogie et éducation.

La radioactivité est présente partout dans notre environnement, qu’elle soit naturelle ou d’origine humaine. En France, la radioactivité dans l’environnement est très surveillée avec plus de 300 000 mesures par an dans tous les compartiments de l’environnement : eau air, sols, végétaux et animaux, réalisées par les exploitants d’installation nucléaires, par l’autorité de sûreté nucléaire et de radioprotection et par des associations. Cette surveillance est réalisée à l’aide de différents appareils, généralement complexes et coûteux, et donc peu accessibles aux citoyens. Bien que tous les résultats soient rendus accessibles à tout le monde, en particulier au travers du site du réseau national de mesures de la radioactivité), certaines personnes peuvent souhaiter réaliser des mesures par eux-mêmes.

Après Tchernobyl et Fukushima, l’essor des mesures citoyennes

Les premières actions de mesure citoyenne de la radioactivité ont été réalisées au milieu des années 90 dans le cadre des programmes de recherche européens développés en Biélorussie, à la suite de l’accident de Tchernobyl. L’objectif était alors de permettre aux habitants de s'approprier les enjeux de radioprotection, c’est-à-dire la compréhension et le choix des actions qui permettent à chacun de se protéger des effets de la radioactivité dans une situation post-accidentelle où la radioactivité est présente partout dans l’environnement.

La perte de confiance de la population japonaise dans le discours des autorités à la suite de l’accident de Fukushima en 2011 a également accéléré le développement de la mesure citoyenne de la radioactivité. De nombreuses associations locales ont développé, avec l’aide d’universitaires, des détecteurs de radioactivité permettant de réaliser des mesures et le partage des résultats via des sites Internet de cartographie, par exemple le projet Safecast.

Ces mesures de radioactivité dans l’environnement par les citoyens présentent deux avantages. D’une part, elles permettent à chacun d’évaluer ses propres risques et de ce fait retrouver une certaine confiance dans les conditions de vie quotidienne. D’autre part, elles peuvent fournir des données en temps réel dans les situations d’accident nucléaire ou radiologique.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le Projet OpenRadiation

L’idée du projet OpenRadiation a vu le jour en France en 2013, soit deux ans après l’accident de Fukushima, en tenant compte du retour d’expérience de cet accident qui a démontré l’importance de la mesure citoyenne pour l’accompagnement de la population. Ce projet permet également d’accompagner la demande de personnes souhaitant s’investir dans la mesure de radioactivité ambiante, en particulier les habitants des environs des installations nucléaires.

Un consortium a été créé, afin de réunir les compétences nécessaires en mesure des rayonnements ionisants (l’institut de radioprotection et de sûreté nucléaire (IRSN)), en design et création d’objets connectés (Le Fablab de Sorbonne Universités), en éducation aux sciences (Planète Sciences) et aux risques (L’Institut de formation aux risques majeurs (l’IFFORME)). L’Association nationale des comités et commissions locales d’information (l’ANCCLI), qui regroupe les commissions locales d’information existant autour de toutes les installations nucléaires françaises, a ensuite rejoint le consortium en 2019.

Ce consortium a développé les trois composants du système OpenRadiation

  • Un détecteur de radioactivité. Il doit être compact, facilement utilisable, et donner des résultats de mesure fiables. La technologie retenue est celle d’un tube à gaz (un tube Geiger-Müller dont le principe a été inventé en 1913 et mis au point en 1928), robuste et fiable. Cependant, la technologie développée ne permet de mesurer que les rayonnements gamma et X. Le détecteur ne permet donc pas de mesurer directement des éléments radioactifs comme le radon ou l’uranium. Ces détecteurs sont disponibles à l’achat ou au prêt en nous contactant par mail à l’adresse openradiation@gmail.com.

  • Une application pour smartphone, qui va permettre de piloter le détecteur par liaison Bluetooth et de publier les résultats de mesure sur un site Internet. Cette application permet d’utiliser certaines fonctionnalités du téléphone, comme la localisation GPS, la date et l’heure, afin de compléter les métadonnées associées à chaque mesure sans pour autant complexifier le détecteur.

  • Un site Internet (openradiation.org) avec une carte interactive, qui va permettre la publication des résultats de mesure et les métadonnées associées. Le site Internet permet également les échanges entre contributeurs, le dépôt de commentaires sur les mesures, la publication d’informations (liste des détecteurs compatibles, mode d’emploi, méthodes de réalisation des mesures de radioactivité, mais aussi ce que les détecteurs ne peuvent pas mesurer) et le suivi de projets spécifiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un projet en open source

Après une période de réflexion et de tests, le projet OpenRadiation a vu officiellement le jour en 2017. L’ensemble du système OpenRadiation est volontairement en open source (sous licence CC By 4.0) ce qui signifie que toute personne peut obtenir les codes sources des applications, du site et de la carte interactive et les utiliser pour ses propres besoins. Ainsi, certains contributeurs ont pu modifier l’application sur smartphone pour créer des balises fixes de mesure de la radioactivité avec un envoi automatique des résultats de mesure sur la carte OpenRadiation.

De même, l’ensemble des résultats de mesure est en open data, ce qui signifie que tout ou partie de la base de données peut être téléchargée et analysée par toute personne qui le souhaite. Ainsi, une étude a été menée en Biélorussie, dans un village à proximité de la zone interdite en utilisant OpenRadiation. Des détecteurs ont été confiés à un groupe de 17 lycéens afin qu’ils puissent mesurer la radioactivité dans leur environnement, avec une grande liberté d’action.

Ils ont ainsi réalisé plus de 650 mesures en un mois, essentiellement dans leur village de Komaryn et aux environs. Les résultats ont permis de montrer que les niveaux d’exposition aux rayonnements ionisants sont en moyenne comparables à ceux observés dans d’autres parties du monde, mais qu’il existe des « points chauds », c’est-à-dire des lieux où la radioactivité a tendance à se concentrer. Il s’agit en particulier des lieux où du bois a été brûlé, la cendre ayant la propriété de concentrer la radioactivité contenue dans le bois.

Des lycées biélorusses utilisant les outils développés par OpenRadiation
Des lycées biélorusses utilisant les outils développés par Openradiation. JM Bertho/ASNR, Fourni par l'auteur

Comment garantir la fiabilité des résultats ?

La question de la fiabilité des résultats de mesure publiés est souvent posée. La réponse à cette interrogation couvre deux aspects différents, la fiabilité technique du résultat de mesure d’une part et la publication de résultats plus élevés qu’attendus d’autre part.

La fiabilité technique des détecteurs a été testée en laboratoire en utilisant des sources radioactives de calibration. Des tests sur le terrain ont également permis de comparer les résultats du détecteur OpenRadiation avec ceux de détecteurs professionnels. Ce type de comparaison a été réalisée à plusieurs occasions et a montré que les résultats obtenus avec les détecteurs OpenRadiation sont satisfaisants, dans des conditions de mesure variées.

Ensuite, la publication sur le site OpenRadiation de résultats montrant une radioactivité élevée peut avoir différentes origines. Les cas les plus courants sont liés à un niveau de charge insuffisant de la batterie (ce qui peut produire des résultats incohérents), à la présence de radioactivité naturelle plus importante qu’attendue ou à des mesures au contact d’objets ou de matériaux radioactifs.

Ainsi, des personnes ont mesuré des objets radioactifs tels que des vieux réveils Bayer avec une peinture fluorescente au radium, des objets en verre contenant de l’ouraline, ou des minéraux naturellement fortement radioactifs. Il peut également s’agir de mesures à proximité d’un transport de matière radioactive ou encore de patients traités en médecine nucléaire.

Il est également possible de découvrir un véritable « point chaud », comme une résurgence de roche radioactive, la présence de sables radioactifs naturels ou encore l’utilisation de certains matériaux de construction contenant certaines roches particulièrement radioactives.

Dans l’environnement, les débits de dose mesurés sont connus pour varier de façon importante en fonction de la localisation et peuvent atteindre des valeurs très élevées. Sur la carte OpenRadiation, on peut observer ces différences. Ainsi, quelques mesures faites en Iran au bord de la mer Caspienne, dans le Kerala en Inde, ou encore en Bretagne sur la côte de granit rose sont significativement plus élevées que celles faites en région parisienne.

En altitude, l’exposition est plus importante car la diminution de l’épaisseur d’atmosphère réduit la protection contre le rayonnement cosmique.

La publication des résultats de mesure sur le site OpenRadiation nécessite donc d’être explicité. Le principe retenu tient en deux points :

Toute mesure envoyée sur le site est publiée en totale transparence sans étape de validation ou censure et sans possibilité de la retirer. Ce point est essentiel pour conserver la confiance des contributeurs, mais aussi pour détecter d’éventuelles situations où la radioactivité est particulièrement élevée, quelle qu’en soit la raison et permettre une éventuelle intervention pour sécuriser un site.

Exemple de mesure partagée sur le site openradiation.org. Capture d’écran du site www.openradiation.org en février 2025

Par conséquent, toute mesure dépassant un seuil d’alerte (correspondant à environ 4 fois la valeur du « bruit de fond radiologique » en France) fait l’objet d’une étude. À chaque fois qu’un résultat publié dépasse ce seuil, un contact est pris avec le contributeur, afin d’échanger avec lui sur les conditions de la mesure et trouver d’un commun accord une explication plausible. Un commentaire est alors déposé sur le site pour expliquer le résultat de la mesure. Environ 1,25 % des mesures publiées sur le site dépassent le seuil d’alerte. Dans la très grande majorité des cas, une explication est trouvée, moins de 0.02 % des mesures publiées sur le site OpenRadiation ne trouvent pas d’explication immédiate.

À l’exception de quelques sites, et en moyenne, les niveaux de radioactivité en France sont considérés comme bas, même et y compris à proximité des installations nucléaires. C’est la raison pour laquelle OpenRadiation reste avant tout un outil pédagogique pour comprendre ce qu’est la radioactivité. Il est actuellement utilisé dans une vingtaine de lycées et collèges, en lien avec les programmes scolaires. OpenRadiation est également adopté pour faire de la médiation scientifique et de l’éducation au risque nucléaire, par exemple à l’occasion de la fête de la science ou de la journée nationale de la résilience.

Démonstration de l’utilisation du kit Openradiation lors de la fête de la science à Gap en 2024
Démonstration de l’utilisation du kit Openradiation lors de la fête de la science à Gap en 2024. JM Bertho/ASNR, Fourni par l'auteur

Au 1er janvier 2025, OpenRadiation réunissait 327 contributeurs actifs et plus de 800 personnes qui nous suivent. La majorité des contributeurs se trouvent en France et en Europe, mais on en voit aussi dans de nombreux pays autour du monde (Japon, États-Unis, Afrique du sud). La carte et la base de données comportent, à la date de la publication de cet article, plus de 850 000 résultats de mesure sur les cinq continents, y compris en Antarctique, même si la majorité des mesures ont été réalisées en Europe. Les quelques études réalisées avec OpenRadiation ont montré la puissance de cet outil, tant pour la réassurance des personnes vivant dans des environnements contaminés que pour réaliser des études en surveillance de l’environnement, ou encore des recherches dans le domaine des sciences humaines et sociales, pour étudier leurs motivations ou la façon dont les contributeurs s’organisent pour réaliser leurs mesures.

OpenRadiation pourrait aussi trouver à l’avenir des applications nouvelles dans différentes situations. Par exemple, il est possible d’impliquer les citoyens dans la réalisation d’un « point zéro » de la qualité radiologique de l’environnement avant la construction d’une nouvelle installation nucléaire. De même, il peut être intéressant d’impliquer des citoyens pour l’étude des environs d’un site contaminé par d’anciennes activités nucléaires (ancien site minier par exemple), pour susciter un dialogue. Au-delà de la mise à disposition des détecteurs à des citoyens et des utilisations pédagogiques, l’objectif actuel d’OpenRadiation est de développer l’utilisation de cet outil au service des études et recherches de toute nature, dans une démarche de sciences participatives impliquant autant que possible les citoyens intéressés par la notion de radioactivité.


Evelyne Allain (Institut français des formateurs risques majeurs et protection de l’environnement), Ghislain Darley (Autorité de sûreté nucléaire et de radioprotection), Christine Lajouanine (Planète Sciences), Véronique Lejeune (Autorité de sûreté nucléaire et de radioprotection), Yves Lheureux (Association nationale des comités et commissions locales d’information), Renaud Martin (Autorité de sûreté nucléaire et de radioprotection), Marjolaine Mansion (Institut français des formateurs risques majeurs et protection de l’environnement), Alexia Maximin (Planète Sciences), François Trompier (Autorité de sûreté nucléaire et de radioprotection) ont participé à la rédaction de cet article.

The Conversation

Jean-Marc Bertho est membre de la commission internationale de protection radiologique (CIPR) et membre de la société française de Radioprotection (SFRP)

Christian Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 11:58

Comment limiter l’empreinte carbone des Coupes du monde de football ?

Frédéric Lassalle, Maître de Conférences en Sciences de gestion, IAE Dijon - Université de Bourgogne

Les compétitions internationales de football polluent surtout du fait du transport des équipes et des supporters. Les annonces de la Fifa pour 2026 et 2030 ne devraient pas arranger les choses.
Texte intégral (2283 mots)

Les compétitions internationales de football polluent, mais surtout du fait du transport des équipes et des supporters. La Fifa, qui a affirmé faire du développement durable une de ses priorités, a pourtant annoncé une démultiplication inédite du nombre d’équipes en compétition et de pays hôtes pour la Coupe du monde de 2026 puis celle de 2030. Au risque d’accroître encore l’empreinte carbone des transports liés au football.


Le 13 février 2025, le Shift Project présentait un rapport de 180 pages consacré à l’impact climatique du football, et en particulier de l’Union des associations européennes de football (UEFA) et de la Fédération internationale de football association (Fifa).

Parmi les nombreux chiffres avancés dans cette étude, on retrouve deux chiffres marquants : 6 % – soit la part des matchs internationaux sous la responsabilité de ces deux organisations, et 61 % – soit la part que ces matchs représentent en termes d’émissions carbone dans le football mondial.

En cause, le déplacement des équipes et surtout des spectateurs. Le rapport explique que, pour la France uniquement, la compétition de football émet 275 000 tonnes de CO2 par an, ce qui correspond à un an de chauffage au gaz pour 41 000 familles.

Comment se décompose l’empreinte carbone du football professionnel. The Shift Project, « Décarbonons le football »

Pourtant, la Fifa a fait du développement durable l’une de ses priorités pour les prochaines années. On pourrait ainsi s’attendre à ce que celle-ci cherche à limiter le nombre de matchs pour limiter les déplacements provoqués par ces manifestations. Mais il n’en est rien.

La Fifa continue de développer ses compétitions

Le nombre d’équipes en compétition pour la Coupe du monde de football n’a cessé de croître : 16 de 1934 à 1978, 24 de 1982 à 1994, 32 de 1998 à 2022.

Pour la Coupe du monde 2026, la Fifa a acté un passage à 48 équipes. Il est désormais possible d’organiser le tournoi tous les deux ans au lieu de quatre, et d’y impliquer plusieurs pays organisateurs – par exemple, le Canada, les États-Unis et les Mexique, pour 2026.

Pour la Coupe du monde 2030, la Fifa envisage ainsi une compétition à 64 équipes, ceci avec pas moins de six pays hôtes différents : l’Argentine, l’Espagne, le Paraguay, le Portugal, le Maroc et l’Uruguay.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


À noter également, l’arrivée de la nouvelle Coupe du monde des clubs à 32 équipes (en remplacement de l’ancienne formule qui comportait seulement sept équipes) aux États-Unis, en juin et juillet 2025. Les équipes qualifiées cette année ne sont pas forcément les championnes des grandes compétitions continentales.

En effet, le Real Madrid, vainqueur de la Ligue des champions – trophée le plus prestigieux d’Europe – sera accompagné de 11 autres équipes européennes, ainsi que de six équipes d’Amérique du Sud, quatre équipes africaines, quatre équipes asiatiques, quatre équipes nord-américaines et une équipe d’Océanie.

Pour aller encore plus loin dans la démesure de ses évènements, le président de la Fifa Gianni Infantino déclarait en mars 2025 vouloir animer la mi-temps de la finale du Mondial 2026 avec un show inspiré par le Super Bowl.

Une stratégie cohérente ?

L’organisation d’événements sportifs de cette échelle contredit l’enjeu à réduire nos émissions de gaz à effet de serre pour limiter le changement climatique. Le choix d’augmenter le nombre de participants – et ainsi le nombre de matchs à vendre aux partenaires commerciaux – semble être une vision uniquement financière. Une coupe du monde classique à 32 équipes et dans un seul pays émet déjà, selon les estimations de la Fifa elle-même, 3,6 millions de tonnes de CO2.

Mais ce choix est également critiquable d’un point de vue économique. Il est important de rappeler à la Fifa qu’en matière de stratégie des organisations, il existe généralement deux grandes stratégies possibles.

  • La première est la stratégie générique de domination globale par les coûts, où l’avantage concurrentiel obtenu passera par la recherche d’augmentation des volumes de production et, traditionnellement, par la mise en place d’économie d’échelles.

  • La seconde est celle de différenciation, où l’assemblage de facteurs clés de succès va permettre de se démarquer de ses concurrents.

Dans un monde où les ressources sont limitées et vont être de plus en plus difficiles d’accès, la logique d’augmentation des volumes semble être la moins intéressante à long terme. Au contraire, on peut rappeler à la Fifa l’intérêt des modèles de stratégie permettant d’évaluer les avantages concurrentiels d’une entreprise.

L’un de ces modèles, le VRIST, développé par Laurence Lehman-Ortega et ses collègues, se base sur les ressources et compétences de l’organisation qui permettent d’obtenir de la valeur.

Selon ce modèle, les organisations doivent évaluer leurs ressources et compétences au regard de cinq critères clés : la création de valeur : pour une organisation, organiser un événement sportif n’est intéressant que si cet événement intéresse suffisamment de personnes pour en tirer un revenu ; la rareté ; la protection contre l’imitation ; la protection contre la substitution et enfin la protection contre le transfert de la ressource ou de la compétence.

Pour faciliter cette protection, l’organisation peut jouer sur trois leviers :

  • La spécificité : il s’agit de développer pour un client un produit ou service spécifique ;

  • L’opacité des ressources, ou la non-transparence : cette technique permet de garder la recette, si l’on peut dire, secrète ;

  • La complémentarité des ressources : elle permet d’avoir la présence de liens informels entre les aptitudes et ressources qui les protègent. Par exemple, avoir deux wagons dans un train n’est intéressant que si nous n’avons un engin de traction capable de les déplacer. La complémentarité s’évaluera au regard non seulement du nombre de locomotives, mais également en fonction de leurs puissances et du nombre de wagons qu’elles peuvent tracter.

Ce que devrait faire la Fifa

La Fifa aurait ainsi tout intérêt à appliquer cette logique issue de la théorie des ressources en cherchant à rendre ses événements plus rares. Selon cette logique, se diriger vers une coupe du monde tous les deux ans, plutôt que tous les quatre ans, est un non sens.

Elle devrait plutôt chercher à rendre ses ressources et compétences inimitables, non substituables et non transférables, en s’appuyant sur la maîtrise historique, la spécificité de ses compétitions qui se voulaient exclusives en autorisant uniquement les meilleurs équipes du monde à y participer et la complémentarité d’une Coupe du monde des équipes nationales tous les quatre ans avec une Coupe du monde des clubs limitée aux sept champions continentaux tous les ans.

En augmentant le nombre de matchs et de compétitions, l’organisation internationale en charge du football ne protège pas ses ressources et compétences et ne tient pas compte du changement climatique. En fin de compte, le football semble s’exonérer de ses responsabilités environnementales au motif qu’il divertit.

Pour réduire l’impact environnemental des compétitions internationales de football, les auteurs du rapport du Shift Project suggèrent quelques pistes. Les deux principales sont la proximité – limiter les déplacements trop nombreux et trop fréquents en favorisant les spectateurs locaux – et la modération – limiter le nombre de matchs.

Pour le moment, la Fifa semble prendre le chemin opposé, alors que la voie à suivre serait un retour à une Coupe du monde avec moins d’équipes, où des qualifications régionales regagneraient en intérêt, notamment avec la disparition de compétitions comme la Ligue des nations en Europe, qui diluent l’intérêt pour l’épreuve reine.

La proximité des matchs permettrait de jouer sur les rivalités régionales et renforcer l’intérêt des spectateurs, comme lors des matchs Brésil-Argentine ou France-Allemagne.

En définitive, la Fifa devrait chercher à proposer des sommets mondiaux rares, générant une forte attente, plutôt que de proposer des matchs nombreux, mais ennuyeux. C’est un point sur lequel convergent à la fois le rapport du Shift Project et la théorie des ressources.

The Conversation

Frédéric Lassalle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.04.2025 à 11:58

Le défi du recyclage des plastiques des équipements sportifs

Madeline Laire-Levrier, Doctorante Circularité des Plastiques des équipements sportifs, Arts et Métiers ParisTech

Carola Guyot Phung, Ingénieur recherche I2M - Université de Bordeaux et Bordeaux Sciences Agro, École polytechnique

Carole Charbuillet, Enseignante Chercheure- Circularité des matériaux dans les produits complexes, Arts et Métiers ParisTech

Nicolas Perry, Professeur des Universités, enseignant chercher dans le domaine de l'écoconception, l'évaluation environnementale et l'économie circulaire ; impliqué dans des sujets en liens avec les activités industrielles, les produits complexes manufacturés., Arts et Métiers ParisTech

Skis, raquettes, ballons, planches de surf… Tous nos équipements sportifs sont des casse-têtes à recycler.
Texte intégral (2349 mots)
Le plastique est devenu omniprésent dans nos équipements sportifs. Freepik, CC BY

Skis, raquettes, ballons, planches de surf… Tous nos équipements sportifs sont de vrais casse-tête à recycler. Pour minimiser leur impact et faciliter leur fin de vie, il devient donc nécessaire de repenser leur conception.


C’est un constat qui s’impose dès qu’on met un pied dans un magasin d’équipements sportifs. Le plastique y est devenu omniprésent et a fini par remplacer les matériaux comme le bois dans presque tous les sports : skis et vélos en fibres de carbone, kayaks en polyéthylène pour les loisirs et en fibres de verre pour les compétitions… Malgré leurs qualités indéniables en termes de performance, ces matériaux deviennent problématiques, en fin de vie de ces produits, pour la gestion des déchets et la pollution qu’ils génèrent.

Cette réalité interpelle alors même que, dans la foulée des Jeux olympiques Paris de 2024, les JO d’hiver de 2030 se dérouleront dans les Alpes françaises. Leur organisation est déjà lancée avec l’objectif de jeux responsables et soutenables pour nos montagnes. En parallèle, le comité d’organisation des Jeux de Paris 2024 a, lui, publié en décembre dernier son rapport de soutenabilité présentant les initiatives engagées pendant ces jeux (emballages, installations, logements, transports…). Il montre qu’il est possible de prendre en compte la question environnementale lors d’un grand événement.

Mais qu’en est-il exactement pour les équipements sportifs utilisés au quotidien ?

Une nouvelle filière REP dédiée aux articles de sport et de loisirs

Si vous avez chez vous un ballon, une raquette de ping-pong ou bien un tapis de yoga, sachez que cette question vous concerne désormais directement depuis l’instauration d’un principe de responsabilité élargie du producteur (REP) pour les articles de sport et de loisirs (ASL), entré en vigueur en 2022.

Une REP est un dispositif qui rend responsable les entreprises du cycle de vie de leurs produits, de la conception jusqu’à la fin de vie. La première REP a été instaurée en 1993 pour les emballages ménagers. La REP ASL est, quant à elle, le premier dispositif à l’échelle mondiale qui se penche sur les équipements sportifs.

Elle concerne tous les équipements utilisés dans le cadre d’une pratique sportive ou d’un loisir de plein air ; incluant les accessoires et les consommables (chambre à air, leurre de pêche, cordage de raquette de tennis…). Globalement, tout produit qui ne peut être utilisé que pour la pratique d’un sport entre dans le périmètre de cette REP. Ainsi, des baskets qui peuvent être portées quotidiennement entrent dans le périmètre de la REP textiles chaussures et linges de maison (REP TLC), instaurée en 2007, tandis que des chaussons d’escalade entrent dans la REP ASL.

Cette réglementation est du ressort des fabricants et distributeurs, mais elle vous concerne également, car les vendeurs et producteurs doivent désormais payer une écocontribution qui se répercute sur le prix final (de quelques centimes à quelques euros) que le consommateur paye.

Cette écocontribution permet de financer la collecte, le tri et les opérations de broyage et de nettoyage de la matière, en vue du recyclage et de l’élimination, ainsi que la réutilisation en seconde main des produits en fin de vie. Mais dans la réalité, il ne suffit pas de payer ce traitement de fin de vie pour qu’il soit réalisé. Car la tâche est complexe et qu’elle implique de nombreux acteurs.


Visuel d’illustration de la newsletter Ici la Terre représentant la planète Terre sur un fond bleu

Abonnez-vous dès aujourd’hui.

Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».


Les spécificités du plastique dans les articles de sport et de loisirs

D’ici à 2027, la moitié (en masse) des articles de sport et de loisirs devront être recyclés. Pour les vélos, cet objectif est encore plus grand puisqu’il est de 62 %. Les plastiques sont à traiter en priorité, car ils représentent un tiers des matériaux constituant les ASL. En effet, la recherche de performance dans le milieu du sport et des loisirs implique une grande diversité et complexité de matières pour ce gisement. Les produits eux-mêmes sont composés de différents plastiques :

  • mélangés (dans les formulations), comme pour les kayaks ;

  • multicouches (superposés et/ou collés), comme pour les skis ;

  • assemblés (clipsés, vissés, etc.), comme pour les casques de vélo ;

  • composites (fibre de verre ou de carbone), comme pour les planches de surf ;

  • mousses, comme le rembourrage des crash pads d’escalade ;

  • élastomères, comme les balles de tennis ;

  • plastiques souples, comme les ballons de foot…

En quoi sont faits les articles de sport et de loisirs ? Fourni par l'auteur

Cette diversité de matériaux au sein même de la fraction plastique engendre des difficultés pour le tri et, donc, pour le recyclage. Les technologies et les circuits logistiques diffèrent selon les produits, les matériaux et les composants.

La mise en circularité du plastique depuis la fin d’utilisation jusqu’à sa réutilisation dans un nouveau produit est singulière et propre à chaque matière. La complexité des produits a aussi des conséquences sur la rentabilité du recyclage, ce qui peut freiner les investissements.

Les pistes et champs d’action en matière de recyclage

Mettre en place une nouvelle filière dédiée à ce type de produits implique également de connaître le flux de déchets, sa disponibilité pour le recyclage, la caractérisation des matières au sein des produits et nécessite une demande suffisante pour justifier des investissements.

Pour être le plus efficace possible, il faudra donc que ces investissements s’appuient sur d’autres éléments en amont. Tout d’abord, l’écoconception pour prolonger la durée de vie des produits et pour faciliter le désassemblage. Ce dernier point constitue un axe clé de la circularité des équipements sportifs. En effet, la majeure partie des équipements sportifs sont complexes à désassembler manuellement, et cela peut même être dangereux pour les agents qui en sont chargés et qui peuvent se blesser ou se couper.

Plus le produit est performant, plus il est complexe à démonter. Les rollers sont, par exemple, composés de plastiques durs et d’inserts métalliques qui n’ont pas été conçus pour être démonter. Pour résoudre cela, le désassemblage robotisé peut être une voie à expérimenter.

L’écoconception facilite également le tri et les opérations de recyclage, par exemple en réduisant le nombre de matières utilisées (casques de ski uniquement en polypropylène), en privilégiant des matières pour lesquelles les technologies de recyclage sont matures (kayaks en polyéthylène). Les matières biosourcées constituent une voie alternative, mais leur recyclage reste limité ou en phase de développement. Ces matières peuvent donc être un frein au traitement de fin de vie actuelles et ont parfois des impacts plus élevés sur l’environnement au moment de leur production.

Agir chacun à son échelle (utilisateur, club, fédération, producteur…)

Chacun peut enfin contribuer à l’efficacité de la nouvelle filière en déposant ses articles en fin de vie dans les lieux réservés à la collecte : déchetteries, clubs sportifs, distributeurs, recycleries (certaines sont spécialisées dans la récupération d’équipements sportifs) et lieux de l’économie sociale et solidaire. Déposer son article usagé est la première étape pour réussir la mise en circularité des ASL.

Les clubs sportifs, par le biais des fédérations nationales, peuvent également organiser des collectes permanentes ou ponctuelles d’équipements usagés sur les lieux de pratique et faciliter à plus grande échelle la récupération des matériaux, nécessaire à la performance de la filière. Les distributeurs spécialisés peuvent eux aussi développer l’offre des bacs de collecte.

C’est par ces gestes que commence la mise en circularité des ASL. Enfin, les sportifs et les utilisateurs (clubs, kinésithérapeutes…) d’équipements peuvent privilégier le réemploi et la réparation.

Les producteurs doivent, quant à eux, travailler sur l’écoconception, en discussion avec les acteurs de gestion des déchets ainsi qu’avec les recycleurs pour que le recyclage soit le plus efficace possible. Les équipementiers de sports d’hiver ont déjà fait des efforts dans ce sens pour certains modèles de skis et de casques de ski, mais cela reste encore insuffisant.

The Conversation

Madeline Laire-Levrier a reçu des financements de l'ADEME et ECOLOGIC France.

Carola Guyot Phung a bénéficié de financements d'entreprises privées de la filière forêt-bois et d'ECOLOGIC France

Carole Charbuillet a bénéficié de financements publics de l'ADEME et l'ANR dans le cadre de ses travaux de recherche mais également d'Ecologic et ecosystem (chaire Mines Urbaines).

Nicolas Perry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.04.2025 à 15:04

L’incendie du centre de tri à Paris, symbole de l’envers des déchets ?

Maxence Mautray, Doctorant en sociologie de l’environnement, Université de Bordeaux

Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines, possibles à divers stades du tri des déchets.
Texte intégral (1762 mots)

Les départs de feu dans les centres de tri sont malheureusement très fréquents et souvent causés par des erreurs humaines qui peuvent intervenir à différents stades de la gestion du tri, une activité qui rassemble de nombreux acteurs, ayant des objectifs parfois contradictoires.


Lundi 7 avril au soir, le centre de tri des déchets du XVIIe arrondissement de Paris s’est embrasé, provoquant la stupeur des riverains. Le feu, maîtrisé durant la nuit grâce à l’intervention de 180 pompiers, n’a fait aucun blessé parmi les 31 salariés présents, l’alarme incendie s’étant déclenchée immédiatement.

Si aucune toxicité n’a pour l’heure été détectée dans le panache de fumée émanant du site, l’incident a eu des conséquences pour les habitants : une portion du périphérique a dû être fermée à la circulation et un confinement a été décrété pour les zones à proximité. Le bâtiment, géré par le Syctom (le syndicat des déchets d’Île-de-France), s’est finalement effondré dans la matinée du mardi 8 avril.

Mais comment un feu aussi impressionnant a-t-il pu se déclarer et durer toute une nuit en plein Paris ? Si les autorités n’ont pas encore explicité toute la chaîne causale entraînant l’incendie, elles ont cependant mentionné, lors notamment de la prise de parole du préfet de police de Paris Laurent Nuñez, la présence de bouteilles de gaz dans le centre de tri et l’explosion de certaines, ce qui a pu complexifier la gestion du feu par les pompiers, tout comme la présence de nombreuses matières combustibles tel que du papier et du carton dans ce centre de gestion de tri.

Une chose demeure elle certaine, un départ de feu dans un centre de tri n’est malheureusement pas une anomalie. De fait, si cet incendie, de par son ampleur et peut-être aussi les images virales des panaches de fumées devant la tour Eiffel, a rapidement suscité beaucoup d’émois et d’attention, à l’échelle de la France, ce genre d’événement est bien plus fréquent qu’on ne le pense.

Depuis 2010, 444 incendies

La base de données Analyse, recherche et information sur les accidents (Aria), produite par le Bureau d’analyse des risques et pollutions industriels (Barpi) nous éclaire à ce sujet.

Depuis 2010, 444 incendies ont été recensés en France sur des installations de traitement et d’élimination des déchets non dangereux (centres de tri, plateformes de compostage, centres d’enfouissement…).

À ces incendies s’ajoutent parfois des explosions, des rejets de matières dangereuses et des pollutions des espaces environnants et de l’air. L’origine humaine est souvent retenue comme la cause de ces catastrophes. Même si elles n’entraînent pas toujours des blessés, elles soulignent la fragilité structurelle de nombreuses infrastructures du secteur des déchets ménagers.

Au-delà de cet événement ponctuel, l’incendie de Paris soulève donc peut-être un problème plus profond. En effet, notre système de gestion des déchets implique une multiplicité d’acteurs (ménages, industriels, services publics…) et repose sur une organisation complexe où chaque maillon peut devenir une source d’erreur, conduisant potentiellement à la catastrophe.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Un métier dangereux et méconnu

De fait, pénétrer dans un centre de gestion de tri, comme il m’a été donné de le faire dans le cadre de mes recherches doctorales, c’est se confronter immédiatement aux risques quotidiens associés aux métiers de tri des déchets dans les centres.

Si l’on trouve dans ces centres des outils toujours plus perfectionnés, notamment pour réaliser le premier tri entrant, l’œil et la main humaine restent malgré tout toujours indispensables pour corriger les erreurs de la machine.

Ces métiers, bien qu’essentiels au fonctionnement des services publics des déchets, sont pourtant peu connus, malgré leur pénibilité et leurs risques associés. Les ouvriers, dont le métier consiste à retirer les déchets non admis des flux défilant sur des tapis roulants, sont exposés à des cadences élevées, des heures de travail étendues et des niveaux de bruits importants.

Ils sont aussi confrontés à de nombreux risques : des blessures dues à la répétition et la rapidité des gestes, mais aussi des coupures à cause d’objets parfois tranchants, voire des piqûres, car des seringues sont régulièrement présentes dans les intrants.

Des erreurs de tri persistantes

La majorité du travail des ouvriers de ces centres consiste ainsi à compenser les erreurs de tri réalisées par les ménages. Ce sont souvent des éléments qui relèvent d’autres filières de recyclage que celle des emballages ménagers et sont normalement collectés différemment : de la matière organique comme des branchages ou des restes alimentaires, des piles, des ampoules ou des objets électriques et électroniques, ou encore des déchets d’hygiène comme des mouchoirs et des lingettes.

Ces erreurs, qui devraient théoriquement entraîner des refus de collecte, ne sont pas toujours identifiées par les éboueurs lors de leurs tournées.

Derrière cette réalité, on trouve également les erreurs de citoyens, qui, dans leur majorité, font pourtant part de leur volonté de bien faire lorsqu’ils trient leurs déchets.

Mais cette intention de bien faire est mise à l’épreuve par plusieurs obstacles : le manque de clarté des pictogrammes sur les emballages, une connaissance nécessaire des matières à recycler, des règles mouvantes et une complexité technique croissante.

Ainsi, l’extension récente des consignes de tri, depuis le 1er janvier 2023, visant à simplifier le geste en permettant de jeter tous les types de plastiques dans la poubelle jaune, a paradoxalement alimenté la confusion. Certains usagers expliquent qu’ils hésitent désormais à recycler certains déchets, comme les emballages en plastique fin, par crainte de « contaminer » leur bac de recyclage, compromettant ainsi l’ensemble de la chaîne du recyclage.

Malgré ces précautions, les erreurs de tri persistent. À titre d’exemple, le Syndicat mixte intercommunal de collecte et de traitement des ordures ménagères (Smictom) des Pays de Vilaine comptait 32 % de déchets non recyclables dans les poubelles jaunes collectées sur son territoire en 2023. Après 20 000 vérifications de bacs jaunes effectuées en une année afin de mettre en place une communication adaptée à destination de la population, ce taux n’a chuté que de cinq points en 2024, signe que la sensibilisation seule ne suffit pas à réorienter durablement les pratiques des usagers.

Les défis de notre système complexe de gestion des déchets

Notre système de gestion des déchets comporte donc un paradoxe. D’un côté, les ménages ont depuis longtemps adopté le geste de tri au quotidien et s’efforcent de le réaliser de manière optimale, malgré des informations parfois peu claires et un besoin constant d’expertise sur les matières concernées. De l’autre, il n’est pas possible d’attendre un tri parfait et les centres de tri se retrouvent dans l’obligation de compenser les erreurs.

À cela s’ajoute une complexité supplémentaire qui réside dans les intérêts divergents des acteurs de la gestion des déchets en France.

Les producteurs et les grandes surfaces cherchent à mettre des quantités toujours plus importantes de produits sur le marché, afin de maximiser leurs profits, ce qui génère toujours plus de déchets à trier pour les consommateurs.

Les services publics chargés de la gestion des déchets sont aussi confrontés à une hausse constante des ordures à traiter, ce qui entre en tension avec la protection de l’environnement et de la santé des travailleurs. Enfin, les filières industrielles du recyclage, communément nommées REP, souhaitent pour leur part accueillir toujours plus de flux et de matières, dans une logique de rentabilité et de réponse à des objectifs croissants et des tensions logistiques complexes.

Dans un tel contexte, attendre une organisation fluide et parfaitement maîtrisée de la gestion des déchets relève de l’utopie. Chacun des maillons de la chaîne poursuit des objectifs parfois contradictoires, entre recherche de la rentabilité, contraintes opérationnelles, protection des humains et de l’environnement et attentes des citoyens. Si des initiatives émergent (simplification du tri, contrôle des infrastructures, sensibilisation des citoyens, innovations technologiques, etc.), elles peinent à harmoniser l’ensemble du système.

Dès lors, le risque d’incidents ne peut être totalement éliminé. L’incendie du centre parisien n’est donc pas une exception, mais bien le témoin d’un système qui, malgré les efforts, reste structurellement vulnérable. Loin de pouvoir atteindre le risque zéro, la gestion des déchets oscille en permanence entre prévention, adaptation et situation de crise.

The Conversation

Maxence Mautray a reçu, de 2020 à 2024, des financements de la part du ministère de l'Enseignement supérieur et de la Recherche et du SMICVAL Libournais Haute Gironde dans le cadre d'une recherche doctorale.

08.04.2025 à 16:33

Afrique : comment les drones de livraison pourraient transformer les prévisions météo

Jérémy Lavarenne, Research scientist, Cirad

Cheikh Modou Noreyni Fall, Chercheur au Laboratoire Physique de l'Atmosphère et de l'Océan de l'UCAD, Université Cheikh Anta Diop de Dakar

Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments.
Texte intégral (2131 mots)
Deux drones dans une zone rurale du Malawi, utilisés, dans le cadre de la coopération financée par l’Union européenne, pour dresser des cartes localisant les infrastructures et ressources vitales les plus proches, destinées à la population locale. Anouk Delafortrie (UE)/Flickr, CC BY

Alors que les données météo manquent cruellement en Afrique, une idée fait son chemin. Celle d’utiliser les drones, de plus en plus nombreux dans les ciels du continent pour livrer par exemple des médicaments. Car ces derniers peuvent fournir également de nombreuses données météo.


Un drone fend le ciel au-dessus des plaines ensoleillées d’Afrique de l’Ouest. Ses hélices vrombissent doucement dans l’air chaud de l’après-midi. Au sol, un agriculteur suit du regard l’appareil qui survole son champ, où ses cultures peinent à se développer, à cause d’un épisode de sécheresse. Comme la plupart des paysans de cette région, il ne peut compter que sur les précipitations, de plus en plus irrégulières et imprévisibles. Ce drone qui passe pourrait-il changer la donne ? Peut-être.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une véritable explosion des drones de livraison en Afrique

Nés dans divers contextes civils et militaires (photographie, surveillance, cartographie…), les drones connaissent aujourd’hui une expansion fulgurante en Afrique, surtout pour la livraison de produits de première nécessité dans des zones difficiles d’accès. Parmi eux, la société états-unienne Zipline et les Allemands de Wingcopter sont particulièrement actifs au Rwanda, au Ghana, au Nigeria, au Kenya, en Côte d’Ivoire et au Malawi, où ils transportent du sang, des vaccins, des médicaments ou encore du matériel médical.

Mais ce que l’on sait moins, c’est que ces drones portent aussi en eux un potentiel météorologique : au fil de leurs livraisons, et afin de sécuriser les vols et planifier efficacement leur route, ils enregistrent des données sur la vitesse du vent, la température de l’air ou la pression atmosphérique.

Un manque criant de données météo

Pourquoi ces informations sont-elles si précieuses ? Parce qu’en matière de prévision météo, l’Afrique souffre d’un déficit majeur. Par exemple, alors que les États-Unis et l’Union européenne réunis (1,1 milliard d’habitants à eux deux) disposent de 636 radars météorologiques, l’Afrique – qui compte pourtant une population quasi équivalente de 1,2 milliard d’habitants – n’en possède que 37.

Les raisons derrière cela sont multiples : budgets publics en berne, manque de moyens techniques, mais aussi monétisation progressive des données, rendant l’accès à l’information plus difficile. La question du financement et du partage de ces données demeure pourtant cruciale et devient un enjeu majeur pour la sécurité alimentaire et la gestion des risques climatiques.


À lire aussi : Le paradoxe des données climatiques en Afrique de l’Ouest : plus que jamais urgentes mais de moins en moins accessibles


La « collecte opportuniste » de données météo

Dans ce contexte, chaque nouveau moyen de récupérer des informations est un atout. Or, si les drones de livraison africains ont d’abord été pensés pour desservir des lieux isolés, ils permettent aussi des relevés météo dits « opportunistes » effectués en marge de leurs missions, dans une logique comparable aux relevés « Mode-S EHS » transmis par les avions de ligne depuis des altitudes beaucoup plus importantes. Zipline affirme ainsi avoir déjà compilé plus d’un milliard de points de données météorologiques depuis 2017. Si ces relevés venaient à être librement partagés avec les agences de météo ou de climat, ils pourraient ainsi, grâce à leurs vols à basse altitude, combler les lacunes persistantes dans les réseaux d’observation au sol.

La question du partage reste toutefois ouverte. Les opérateurs de drones accepteront-ils de diffuser leurs données ? Seront-elles accessibles à tous, ou soumises à des accords commerciaux ? Selon la réponse, le potentiel bénéfice pour la communauté scientifique et pour les prévisions météorologiques locales pourrait varier considérablement.

Fourni par l'auteur

Les drones déjà destinés à la météo

L’idée d’utiliser des drones destinés aux observations météo n’est pas neuve et rassemble déjà une communauté très active composée de chercheurs et d’entreprises. Des aéronefs sans équipage spécifiquement conçus pour la météorologie (appelés WxUAS pour Weather Uncrewed Aircraft Systems) existent déjà, avec des constructeurs comme le Suisse Meteomatics ou l’états-unien Windborne qui proposent drones et ballons capables de fournir des relevés sur toute la hauteur de la troposphère. Leurs capteurs de pointe transmettent en temps réel des données qui nourrissent directement les systèmes de prévision.

Selon les conclusions d’un atelier organisé par Météo France, ces observations contribuent déjà à améliorer la qualité des prévisions, notamment en réduisant les biais de prévision sur l’humidité ou le vent, facteurs clés pour détecter orages et phénomènes connexes. Pourtant, les coûts élevés, l’autonomie limitée et les contraintes réglementaires freinent encore une utilisation large de ces drones spécialisés.

Or, les appareils de livraison déployés en Afrique ont déjà surmonté une partie de ces défis grâce à leur modèle économique en plein essor, à un espace aérien moins saturé et à une large acceptation sociale – car ils sauvent des vies.

Entretien avec Tony Segales, l’un des scientifiques chargés de la construction et de la conception de drones pour mesurer l’atmosphère et améliorer les prévisions au National Weather Center de Norman, Oklahoma.

Fiabilité des données : des défis mais un fort potentiel

Reste la question de la fiabilité. Même si les drones de livraison captent des variables essentielles (vent, température, pression…), on ne peut les intégrer aux systèmes de prévision qu’à condition de valider et d’étalonner correctement les capteurs. Mais avec des protocoles rigoureux de comparaison et de calibration, ces « données opportunistes » pourraient répondre aux exigences de la météo opérationnelle et devenir un pilier inédit de la surveillance atmosphérique.

Leur utilisation serait d’autant plus précieuse dans les zones rurales, en première ligne face au changement climatique. Là où les stations au sol manquent ou vieillissent, les survols réguliers des drones pourraient fournir des relevés indispensables pour anticiper épisodes secs, orages violents ou autres phénomènes météo extrêmes.


À lire aussi : VIH : et si les drones servaient aussi à sauver des vies ?


L’essor d’initiatives locales

Parallèlement, des initiatives émergent pour démocratiser l’accès à la technologie drone. Au Malawi, par exemple, des projets universitaires (dont EcoSoar et African Drone and Data Academy) montrent que l’on peut construire à bas coût des drones de livraison efficaces à partir de matériaux simples (mousse, pièces imprimées en 3D). Cette démarche ouvre la voie à une potentielle collecte de données météo supplémentaires, accessible à des communautés qui souhaitent mieux comprendre et anticiper les aléas climatiques.

Coopération internationale et perspectives

À une échelle plus large, l’Organisation météorologique mondiale (OMM) mène la campagne Uncrewed Aircraft Systems Demonstration Campaign (UAS-DC), réunissant des opérateurs publics et privés autour d’un même objectif : intégrer les drones dans le réseau mondial d’observation météorologique et hydrologique. Les discussions portent sur la définition des mesures fondamentales (température, pression, vitesse du vent, etc.), et l’harmonisation des formats de données et sur leur diffusion pour que ces mesures soient immédiatement utiles aux systèmes de prévision.

Cependant, ces perspectives ne deviendront réalité qu’au prix d’une coopération poussée. Entre acteurs publics, opérateurs de drones et gouvernements, il faudra coordonner la gestion, la standardisation et, surtout, le partage des informations. Assurer un libre accès – au moins pour des organismes à but non lucratif et des communautés rurales – pourrait transformer ces données en un levier majeur pour la prévision et la résilience climatiques.

Qu’ils soient opérés par de grandes sociétés ou construits localement à moindre coût et s’ils continuent d’essaimer leurs services et de collecter des relevés, les drones de livraison africains pourraient bien inaugurer une nouvelle ère de la météorologie sur le continent : plus riche, plus précise et, espérons-le, plus solidaire – grâce à des modèles économiques soutenables, à l’utilisation déjà effective de données météo embarquées et à la créativité citoyenne qui émerge un peu partout.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   Fiabilité faible
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓