LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

28.04.2025 à 17:27

La décroissance impliquerait-elle le retour à l’âge de la bougie ?

Marc Germain, Maître de conférences émérite d'économie, Université de Lille

Le « jour du dépassement » a été atteint le 19 avril dernier. Une étude réfute les liens entre décroissance et retour à l’âge de la bougie. Au pire ? Un retour au PIB par habitant de 1964…
Texte intégral (2270 mots)
Le 19 avril, la France atteint son « jour de dépassement » écologique. À cette date, notre pays a consommé l’ensemble des ressources naturelles produites pour satisfaire la consommation de sa population et absorber ses déchets pour toute l’année. JHDTProductions/Shutterstock

Le « jour du dépassement » a été atteint le 19 avril dernier. Diminuer le produit intérieur brut (PIB) pour faire disparaître ce dépassement écologique n’impliquerait pas de retourner à l’âge de la bougie. C’est ce que conclut une étude appliquée à la France et à l’Allemagne. Le PIB par habitant soutenable d’aujourd’hui correspondrait à un niveau observé dans les années 1960. Tout en gardant les technologies actuelles.


En 2020, le président Macron balayait la demande de moratoire de la gauche et des écologistes sur le déploiement de la 5G en renvoyant ses opposants au « modèle amish et au retour à la lampe à huile ». En 2024, le premier ministre Attal estimait que « la décroissance, c’est la fin de notre modèle social, c’est la pauvreté de masse ». Au vu de ces citations, tout refus du progrès ou toute baisse volontaire de l’activité économique est assimilé à un retour en arrière, voire à un monde archaïque.

Pourtant, le 1er août 2024, l’humanité atteignait son « jour de dépassement » écologique. À cette date, celle-ci avait consommé l’ensemble des ressources naturelles que la planète avait produites pour satisfaire sa consommation et absorber ses déchets pour toute l’année.

Dans le cas de la France, le jour du dépassement était déjà atteint le 19 avril. Malgré ses limites, le jour du dépassement est un indicateur pédagogique très utilisé pour mesurer le degré de non-soutenabilité du « train de vie » moyen d’une population sur le plan environnemental. Plus ce jour intervient tôt dans l’année, moins ce train de vie est durable.

Afin de reculer le jour du dépassement (et idéalement de le ramener au 31 décembre), on peut schématiquement opposer deux grandes stratégies.

  • La première vise à découpler les activités humaines de leur empreinte environnementale, principalement par le progrès technique. C’est la posture « techno-solutionniste ».

  • La deuxième, promue notamment par les partisans de la décroissance, ne croit pas en la faisabilité de ce découplage. Elle prône une réduction volontaire et ciblée des activités humaines elles-mêmes.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une étude récente, appliquée en particulier à la France, réfute les citations du premier paragraphe. Elle montre que la baisse du PIB permettant de faire disparaître le dépassement écologique en France n’impliquerait nullement un retour à l’âge de la bougie (ou de la lampe à huile), mais à un PIB par habitant observé dans les années 1960.

Définition de l’empreinte écologique

Le point de départ de l’étude consiste à faire le lien entre empreinte écologique, PIB et population d’un pays, à travers l’identité suivante :

E = eyP

où :

  • E désigne l’empreinte écologique. Selon le Global Footprint Network (GFN), l’organisme qui produit les statistiques relatives à l’empreinte écologique, celle-ci mesure la surface de terre et d’eau biologiquement productive dont un individu, un pays ou une activité a besoin pour produire toutes les ressources qu’il consomme et pour absorber les déchets qu’il génère.

  • y = Y/P est le PIB par habitant, où Y et P désignent respectivement le PIB et la population du pays.

  • e = E/Y est définie comme l’intensité écologique du PIB. À titre d’illustration, considérons une économie qui ne produit que des denrées agricoles. L’intensité écologique est alors l’empreinte écologique liée à la production d’un euro de ces denrées. L’intensité est (entre autres) déterminée par la technologie, dans la mesure où elle est d’autant plus faible que les ressources sont utilisées efficacement par l’économie.

En résumé, l'empreinte écologique est le produit de la population, de sa consommation de richesses et de l'efficacité des moyens utilisés pour produire ces richesses.

Empreinte écologique en France et en Allemagne

Les graphiques ci-dessous illustrent les évolutions contrastées des différentes variables présentes dans la formule précédente pour la France et pour l’Allemagne.

On observe que, depuis 1970, l’empreinte écologique globale E est restée plus ou moins stable en France, avant de décroître, depuis 2010. En revanche, l’empreinte écologique est tendanciellement décroissante en Allemagne, depuis 1990. Cette évolution plus favorable s’explique notamment par la croissance sensiblement plus faible de la population de ce pays.

Les évolutions des composantes e, y, P de l’empreinte écologique sont similaires dans les deux pays. L’empreinte écologique est tirée vers le haut par la croissance du PIB/hab y et, dans une bien moindre mesure, par la hausse de la population P.

En revanche, l’empreinte écologique est tirée vers le bas par la baisse continue de l’intensité écologique e. Cette baisse de e est due à différents facteurs, notamment le progrès technique et la tertiarisation de l’économie – les services ayant une empreinte moindre que l’industrie par unité de richesses produites.

Dépassement écologique

La deuxième étape de l’étude consiste à définir le dépassement écologique d’un pays. Celui-ci est défini comme le rapport entre l’empreinte par habitant du pays et la biocapacité par habitant au niveau mondial. La biocapacité est la capacité des écosystèmes à produire les matières biologiques utilisées par les humains et à absorber les déchets de ces derniers, dans le cadre de la gestion et des technologies d’extraction en cours.

Si d désigne le dépassement d’un pays, alors celui-ci est en dépassement si d > 1. Le jour du dépassement de ce pays survient alors avant le 31 décembre, et ce, d’autant plus tôt que d est élevé. Le Global Footprint Network (GFN) interprète le rapport d comme le nombre de planètes Terre nécessaire pour soutenir la consommation moyenne des habitants du pays.

Évolution du dépassement en France et en Allemagne. Fourni par l'auteur

L’évolution au cours du temps du dépassement en France et en Allemagne est décrite par le graphique ci-dessus. Il montre que, si tous les habitants du monde avaient la même empreinte écologique moyenne que celle des Français ou des Allemands à l’époque actuelle, il faudrait à peu près les ressources de trois planètes pour la soutenir.

PIB soutenable

La dernière étape de l’étude concerne la notion de PIB/hab soutenable d’un pays, défini comme le rapport entre le PIB/hab observé et le dépassement écologique.

Le PIB/hab soutenable correspond au niveau de vie maximal moyen compatible avec l’absence de dépassement écologique. Le tableau suivant décrit le calcul du PIB/hab soutenable pour la France et l’Allemagne en 2022 – la dernière année disponible au moment de l’étude.

Pour expliquer ce tableau, considérons les chiffres pour la France. Les deuxième et troisième lignes renseignent respectivement le PIB/hab observé y et le dépassement d de ce pays en 2022. La quatrième ligne calcule le PIB/hab soutenable s, en divisant le PIB/hab observé y par le dépassement d (autrement dit s=y/d). Ce chiffre correspond au niveau maximal du PIB/hab compatible avec l’absence de dépassement.

En d’autres termes, si au lieu d’avoir été égal à 38 816 $, le PIB/hab avait été égal à 13 591 $, la France n’aurait pas été en dépassement en 2022.

Le PIB/hab soutenable étant approximativement égal au tiers du PIB/hab observé, ramener celui-ci à un niveau soutenable supposerait une décroissance de l’ordre des deux tiers. L’ampleur de cette décroissance fait écho à d’autres travaux visant à quantifier les impacts de politiques de décroissance.

La dernière ligne du tableau indique que le PIB/hab qui aurait été soutenable en 2022 en France (13 591 $) correspond à peu près au PIB/hab effectivement observé en 1964. En écho avec les citations évoquées au début de cet article, ce résultat suggère que la décroissance du PIB nécessaire pour faire disparaître le dépassement écologique en France n’impliquerait aucunement un retour à l’âge de la bougie.

Pas un retour aux années 1960

Les résultats de l’étude ne suggèrent pas pour autant un retour pur et simple aux années 1960. En effet, ils sont obtenus en neutralisant le dépassement au moyen de la seule réduction du PIB/hab, alors que l’intensité écologique (déterminée, en particulier, par la technologie) et la population sont fixées à leurs niveaux actuels. Si les résultats supposent une baisse sensible de la production globale de l’économie, ils n’impliquent pas de renoncer à la technologie actuelle.

Il importe de souligner que notre étude s’est limitée à des pays industrialisés, et ne concerne donc pas les pays émergents ou en voie de développement. Nombre de questions n’ont pas été abordées, à l’exemple de celle de la répartition de l’effort de décroissance entre habitants aux revenus très différents ou entre activités économiques.

Notre étude résumée ici doit donc être prise pour ce qu’elle est : un exercice simple visant à remettre en question certains discours dénigrant la décroissance en tant que stratégie de neutralisation du dépassement écologique, dans le cadre du débat autour de la nécessaire réduction des impacts des activités humaines.

The Conversation

Marc Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.04.2025 à 17:27

Livraison du dernier kilomètre : quelles solutions demain pour décarboner la logistique ?

Tristan Bourvon, Coordinateur Logistique & Transport de marchandises, Ademe (Agence de la transition écologique)

Focus sur trois solutions de décarbonation de la logistique : les centres de distribution urbains, les microhubs et la mutualisation des circuits courts alimentaires de proximité.
Texte intégral (2575 mots)
Les microhubs en ville peuvent faciliter le relais entre poids lourds et vélos-cargos pour la livraison du dernier kilomètre. Shutterstock

Comment réduire l’impact climatique des premier et dernier kilomètres des livraisons ? Pour le secteur de la logistique, le défi est de taille. Outre les leviers technologiques, comme le recours à des énergies renouvelables pour les véhicules, des solutions organisationnelles existent. La question du soutien des pouvoirs publics se pose, si l’on souhaite que ces solutions soient déployées à grande échelle en France.


La logistique représente au moins 16 % des émissions de gaz à effet de serre en France, soit 63 millions de tonnes équivalent CO2. Elle est également une source significative d’artificialisation des sols : elle représente environ 4 % de l’artificialisation totale en France entre 2010 et 2019.

La logistique urbaine pèse quant à elle pour 25 % des émissions de gaz à effet de serre des transports en ville, pour 33 % des émissions de polluants atmosphériques et 30 % de l’occupation de la voirie, sans oublier les nuisances sonores qu’elle génère.

Pour que l’objectif de la stratégie nationale bas carbone (SNBC) de baisser de 50 % des émissions de gaz à effet de serre à horizon 2030 soit tenu, les évolutions technologiques telles que l’électrification des flottes ne suffiront pas, quand bien même elles sont indispensables. Il faut donc transformer ce secteur qui représente aujourd’hui 1,8 million d’emplois en France. L’optimisation des flux logistiques et la réduction de leur impact doit aussi passer par des innovations organisationnelles.

Au cours des dernières décennies, plusieurs types de solutions ont déjà été expérimentées en France. L’Agence de la transition écologique (Ademe) a lancé, en 2024, l’eXtrême Défi Logistique, un programme d’innovation visant à imaginer puis à déployer des démarches d’optimisation de la logistique du premier et dernier kilomètre. Dans le cadre de ce programme, elle a identifié trois solutions existantes particulièrement intéressantes sur lesquelles elle a mené une analyse rétrospective :

  • les centres mutualisés de distribution urbaine,

  • les microhubs (microplateformes logistiques, en général optimisées pour une livraison finale par des modes de transport doux),

  • et la mutualisation des circuits courts alimentaires de proximité.

L’enjeu était de mettre en évidence les forces et les faiblesses de chacune d’entre elles afin d’identifier les conditions auxquelles elles pourraient être mises en œuvre à grande échelle en France. Un appel à projets « Ideation », a également été lancé, dans le cadre de l’eXtrême Défi Logistique, pour imaginer et concevoir ce type de solutions sur des territoires partout en France. Quatorze lauréats sont soutenus par l’Ademe. Dès début 2026, une phase d’expérimentation sera lancée pour tester concrètement ces solutions.

En quoi consistent ces différentes solutions et à quelles conditions peuvent-elles fonctionner ? Quel rôle peuvent jouer les collectivités pour assurer leur succès, la coordination entre seuls acteurs privés paraissant compliquée à impulser ?

Des centres de distribution urbaine

La première solution, dont l’Ademe a recensé dans son étude 33 expérimentations, bénéficie déjà d’un certain recul. Les « centres de distribution urbaine » (CDU) sont de petits entrepôts installés en périphérie des centres-villes qui agrègent les flux de différents transporteurs et grossistes pour ensuite organiser des tournées de distribution optimisées vers les centres-villes.

Le but est de réduire le nombre de kilomètres parcourus, le nombre d’arrêts des véhicules, mais aussi les coûts de la livraison du dernier kilomètre. La mutualisation des flux, dont ces CDU sont une forme, participerait dans les villes denses à une diminution de 10 % à 13 % des émissions de gaz à effet de serre.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les premiers projets de CDU, issus du principe des gares routières nées dans les années 1960, émergent dans les années 1990. Parmi les cas étudiés, une partie est privée ou semi-privée, prise en charge par des opérateurs eux-mêmes et d’autres mixtes ou publics. Ces derniers sont portés par les pouvoirs publics et s’apparentent à un « service public » de livraison de marchandises. Certains CDU sont dits « spécifiques » et associés à une activité particulière (chantier de BTP, livraison de marchandises dans un lieu contraint comme un aéroport…). Enfin, les CDU peuvent être mutualisés, c’est-à-dire partagés entre plusieurs plusieurs opérateurs de transport.

L’étude a montré que les difficultés étaient essentiellement liées au modèle économique, du fait notamment d’un manque de flux. Les projets qui ont réussi à se pérenniser ont trouvé un équilibre entre coûts d’exploitation et revenus, en diversifiant leurs sources de financement et en intégrant des services à valeur ajoutée comme le stockage déporté ou la préparation de commande.

Des entrepôts agrégeant les colis en périphérie urbaine permettent d’optimiser la livraison en centre-ville. Shutterstock

Le milieu étant concurrentiel, l’idéal est que la démarche soit portée par une collectivité, qui initie par exemple une structure juridique (coopérative, groupement d’intérêt économique, délégation à une société locale) et met en place une réglementation incitative. Comme des restrictions de circulation ou la mise à disposition de véhicules électriques uniquement qui attireront certains acteurs.

À Lille, un centre qui avait fermé va ainsi être relancé pour réaliser des tournées de livraison mutualisées entre les transporteurs du dernier kilomètre.

Des microhubs au cœur des villes

Autre option, plus récente et encore balbutiante : les microhubs, qui ne bénéficient pas du même recul que les centres de distribution urbains. Ces mini-entrepôts prennent souvent la forme d’une structure légère implantée en cœur de ville, par exemple sur une place de parking. Ces petites installations visent à stocker temporairement de la marchandise afin de réduire les distances parcourues pour la distribution et/ou le ramassage des biens.

Ils facilitent également la rupture de charge entre un poids lourd et des vélos-cargos. La possibilité d’entreposer pour une durée limitée les marchandises permet d’éviter tout temps d’attente entre l’arrivée d’un poids lourd pour décharger et le relais par des vélos cargo. Ces derniers peuvent ainsi rayonner autour du microhub pour réaliser les approvisionnements des établissements économiques locaux.

Autrement dit, les microhubs pallient un déficit en espaces fonciers pour la logistique urbaine dans des zones urbaines denses ou permettent de répondre à un besoin exceptionnel, par exemple pour un événement de grande ampleur qui porte atteinte à la performance logistique, comme l’organisation d’un grand événement sportif type Jeux olympiques. Ces expérimentations présentent aussi l’intérêt de tester la pertinence d’une implantation temporaire pour la logistique urbaine avant d’envisager d’éventuels aménagements plus pérennes. Ils peuvent être fixes ou mobiles, temporaires (de quelques mois à quelques années) ou durables.

D’après l’étude, le modèle souffre de moins de verrous économiques que les centres de distribution urbains, mais il requiert une volonté politique en faveur de la cyclologistique : ce sont souvent les enjeux fonciers et une absence de cadre réglementaire structurant qui limitent leur succès. À Nantes, un projet porté par Sofub (filiale de la Fédération des usagers de bicyclettes), vise ainsi à évaluer le potentiel de déploiement de microhubs sur plusieurs territoires afin de tester leur pertinence.

Mutualiser les circuits courts alimentaires de proximité

La mutualisation des circuits courts alimentaires de proximité (CCAP), enfin, entend répondre aux problématiques que pose la vente d’aliments secs ou frais en filière courte en envisageant la mise en commun des ressources et des moyens mobilisés pour faire circuler ces produits entre producteurs et consommateurs. Dans le cadre de notre étude, le rayon est fixé à 160 km. Les producteurs étant en général contraints d’utiliser leur propre camionnette pour venir en ville commercialiser leurs produits, la démarche est coûteuse, les véhicules souvent vieillissants ne sont en outre pas forcément bien remplis. Ainsi, les circuits courts alimentaires ne sont ainsi pas toujours aussi vertueux qu’espéré.

L’idée de la mutualisation des CCAP est de mettre en place des organisations mutualisées pour acheminer les récoltes vers les villes de façon professionnalisée. Plus matures que les microhubs, les structures porteuses de ce schéma, nées il y a une vingtaine d’années, connaissent déjà de nombreux succès. Elles impliquent toutefois de prendre en compte beaucoup de critères : le type de consommateurs (entreprises ou particuliers), la complexité du circuit court, l’internalisation ou non des opérations logistiques, le support de mutualisation (matériel ou plate-forme virtuelle)…

La principale difficulté relevée par l’étude est de convaincre les producteurs de changer leurs habitudes et d’identifier la structure qui va se charger de cette organisation. Une association de producteurs ? La collectivité ? La Chambre d’agriculture ?

À cet égard, un projet prometteur mené par le Département de l’Aveyron a été retenu comme lauréat de l’appel à projets de l’Ademe : il associe la Chambre d’agriculture, les collectivités partenaires et les programmes alimentaires territoriaux (PAT) pour créer une société coopérative d’intérêt collectif (Scic) qui aura pour objet d’optimiser la logistique des circuits courts à l’échelle du département, au travers du ramassage mutualisé et de la distribution optimisée.

L’approche, à l’échelle d’un département entier, permet d’envisager des gains d’efficacité et d’échelle assez importants, tout en facilitant le recours à ces offres par les acteurs locaux.

Quel rôle pour les collectivités ?

L’analyse rétrospective de ces trois options de décarbonation de la livraison a mis en évidence la nécessité, pour que ces solutions fonctionnent :

  • d’un modèle économique robuste,

  • d’une localisation stratégique,

  • d’une bonne coordination entre parties prenantes,

  • d’un soutien réglementaire et financier,

  • et d’un bon usage des outils numériques et des plates-formes collaboratives.

Elle souligne aussi que ces solutions ont toutes besoin, pour fonctionner, d’être encouragées par une volonté politique plus forte des collectivités. Laisser s’organiser des acteurs privés entre eux ne suffira pas, la coopération entre collectivités, transporteurs, commerçants et citoyens est déterminante pour l’adhésion et l’acceptabilité de ces projets.

Ce rôle des collectivités peut prendre différentes formes. Elles peuvent accompagner des projets en facilitant l’accès au foncier, en incitant à la mutualisation des flux, en mettant en place des leviers réglementaires et en intégrant ces infrastructures dans la planification urbaine.

Les collectivités peuvent également développer des incitations économiques et fiscales, pour soutenir les initiatives locales et encourager les transporteurs à utiliser ces infrastructures.

Elles peuvent enfin améliorer la collecte et le partage des données sur les flux logistiques, afin d’optimiser la planification et le suivi des performances environnementales et économiques.

À Padoue, en Italie, un péage urbain a par exemple été mis en place pour les véhicules de marchandises. Livrer dans la ville exige une licence et, en parallèle, un opérateur municipal, exonéré du péage urbain, a été mis en place. Les acteurs économiques ont ainsi le choix entre payer le péage ou passer par cet acteur municipal. En France, la ville de Chartres a elle aussi limité l’accès au centre-ville pour les véhicules de livraison et a créé une solution locale.

The Conversation

Tristan Bourvon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.04.2025 à 17:26

Pourquoi une guerre nucléaire est (presque) impossible en Europe

Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)

L’utilisation de l’arme nucléaire aurait des conséquences si catastrophiques, non seulement pour les pays ciblés, mais aussi pour ceux qui l’emploieraient en premier, qu’elle semble hautement improbable.
Texte intégral (2835 mots)

L’arme nucléaire, du fait des conséquences désastreuses qu’entraînerait son emploi, est vouée à rester un élément de dissuasion. Si la menace du recours à cette arme ultime est fréquemment brandie côté russe, il n’en demeure pas moins que les responsables au Kremlin ont pleinement conscience des coûts pratiquement incalculables qu’une telle décision engendrerait. Pour autant, si le pire n’est jamais certain, il n’est jamais à exclure totalement.


La situation géopolitique extrêmement perturbée aux marches du continent européen remet sur le devant de la scène l’arme nucléaire. Les menaces explicites ou implicites de son utilisation contre un pays de l’Union européenne (UE) ou contre l’Ukraine, exprimées par Vladimir Poutine, la proposition d’extension de l’arsenal nucléaire français à d’autres États européens, avancée par Emmanuel Macron, et le questionnement sur la crédibilité des armes nucléaires américaines présentes en Europe : le contexte invite à s’interroger sur le risque qu’une arme nucléaire soit employée sur le continent, voire sur la possibilité qu’éclate une guerre nucléaire à grande échelle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’arme nucléaire, un moyen essentiellement politique

Depuis leur apparition en 1945, depuis Hiroshima et Nagasaki, les armes nucléaires occupent une place à part dans l’arsenal mondial. Si elles sont la quasi représentation du Mal absolu, de la destruction complète de pays, de continents voire de l’humanité entière, elles ne constituent pas des armes d’emploi. En effet, à partir de 1949, quand les Soviétiques ont à leur tour acquis l’arme atomique, cette dernière est devenue une arme dite de non-emploi, une arme politique, symbolique et stratégique. Une arme de dissuasion. Sa modernisation continue a pour fonction première d’augmenter son efficacité justement pour la rendre plus dissuasive, plus crédible face à un adversaire agressif. Elle est conçue pour ne pas être utilisée.

Le fondement de la dissuasion nucléaire est bien connu : un adversaire doté de l’arme nucléaire n’attaquera pas un pays nucléaire ou un pays sous protection nucléaire, car il aura la certitude d’être détruit en retour. Dit de manière plus cynique, l’attaque n’a aucun intérêt, car elle n’engendre aucun gain pour celui qui frappe en premier.

La « paix nucléaire », centrale au temps de la guerre froide, n’a jamais cessé d’être, mais devient un concept plus prégnant depuis l’invasion de l’Ukraine par la Russie. Si cette forme de paix armée a été efficace depuis 1949, elle constitue par construction un équilibre instable, fondé non pas sur l’amour de la paix mais sur la peur et le calcul. En Europe, continent où plusieurs puissances sont dotées (la Russie, la France, le Royaume-Uni et les armes américaines disposées dans plusieurs pays européens), cet équilibre est d’autant plus décisif.

L’Europe, un théâtre trop risqué pour un agresseur

Les caractéristiques de notre continent – sa densité, son urbanisation, ses pays membres stratégiquement et militairement connectés – sont telles qu’une attaque nucléaire de la Russie, même limitée, si tant est que ce mot ait un sens en matière nucléaire, entraînerait des conséquences incalculables au sens premier du terme en matière politique, humanitaire, économique et écologique.


À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs


Compte tenu de l’espace relativement restreint que constitue l’Europe, toute frappe sur le continent ne pourrait qu’être perçue comme menaçante de manière existentielle pour tous les autres pays. Une telle perspective est politiquement et stratégiquement insoutenable pour les pays européens.

Effet supposé d’un emploi de la Tsar-Bomba russe (57 mégatonnes) sur la région parisienne : le cercle rouge (rayon de 35 km) correspond à la zone de destruction complète. Nasa, CC BY-ND

Il est d’ailleurs remarquable de constater que les menaces plus ou moins explicites de Vladimir Poutine sur l’éventualité de l’usage nucléaire en réponse au soutien occidental de l’Ukraine sont restées lettre morte. Certes, l’Europe reste exposée aux surenchères stratégiques russes, mais la ligne rouge nucléaire n’a pas été franchie.

Le rôle dissuasif de l’Otan

Si l’arsenal français, strictement indépendant en termes d’emploi a joué un rôle dans ce constat, l’Organisation du traité de l’Atlantique Nord (Otan) joue un rôle décisif dans la décision du président russe de ne pas monter aux extrêmes. Si ce dernier a attaqué l’Ukraine dans le cadre de ce qui peut être appelé une « sanctuarisation agressive », il ne peut menacer un pays voisin membre de l’Otan, en vertu de l’article 5 de son traité qui stipule que toute attaque contre un pays membre constitue une attaque contre l’ensemble de l’Organisation.

Si l’article 5 n’engendre pas une réponse militaire automatique de la part de l’Otan, contrairement à ce qu’on peut entendre souvent, il est quasiment certain, et le plus important est que cela soit aussi quasiment certain dans l’esprit de la direction russe, qu’une attaque nucléaire entraînerait une riposte nucléaire. Nous sommes ici au cœur du phénomène dissuasif.

Néanmoins, le désengagement progressif des États-Unis sous l’administration Trump et ses déclarations anti-européennes voire anti-otaniennes affaiblissent par nature le caractère dissuasif de cette organisation, ce qui doit impérativement pousser les pays européens à renforcer leurs propres capacités de dissuasion, à la fois conventionnelles et nucléaires.

L’arme nucléaire tactique est en fait stratégique

Une éventualité parfois évoquée est que la Russie utilise des armes nucléaires dites « du champ de bataille », de faible puissance, calibrées pour détruire des concentrations de forces adverses, afin de pouvoir dégager un espace permettant de développer une offensive. Une telle utilisation « limitée » serait d’une nature telle qu’elle n’engendrerait pas une riposte des pays de l’Otan.

Nous ne croyons pas à un tel scénario. Même tactique, c’est-à-dire de faible puissance, une arme nucléaire provoque de tels effets de souffle, de chaleur, de radiation, d’impulsion électromagnétique, de panique sociale et d’insécurisation des pays voisins qu’une seule frappe de ce type ne pourrait pousser qu’à l’escalade dont le paroxysme serait une confrontation nucléaire.

Au demeurant, l’évocation répétée, et jamais suivie d’effets, par la direction russe d’un recours au nucléaire tactique est une démonstration claire du caractère escalatoire d’une arme nucléaire de faible puissance – même si la réticence de Moscou à employer de tels moyens peut aussi être partiellement attribuée au fait que les Chinois ont fait comprendre aux Russes qu’ils étaient absolument opposés à tout usage du nucléaire et au fait que l’administration Biden, il n’y a pas si longtemps, a clairement fait savoir au Kremlin qu’un tel développement entraînerait une riposte américaine massive sur les forces russes.

Le coût politique et diplomatique pour le pays agresseur

Indépendamment du champ militaire, l’usage par la Russie de l’arme nucléaire aurait un coût immense en matière politique et diplomatique.

Il est fort probable que compte tenu de l’énormité des conséquences d’une frappe nucléaire, un pays qui lancerait une telle initiative deviendrait indéfendable pour ses propres amis ou pour les pays neutres.

Un tel pays perdrait sa légitimité internationale. Il verrait fort probablement les sanctions économiques de toute part s’abattre sur son économie. Dans un monde où l’image et la réputation façonnent les alliances, aucun acteur réaliste ne prendrait le risque d’un tel isolement, a fortiori la Russie, à l’économie peu performante.

L’emploi de l’arme nucléaire ne dépend pas du seul Poutine

Malgré les menaces récurrentes de la direction russe, l’usage de son arsenal nucléaire, comme c’est d’ailleurs le cas de tous les pays dotés, à l’exception peut-être de la Corée du Nord, reste soumis à des procédures strictes. Le président, bien que central dans la chaîne de commandement, n’agit pas seul. Le contrôle des clés nucléaires implique plusieurs étapes.

Il n’est pas acquis que l’ensemble de la chaîne décisionnelle menant à une frappe nucléaire suive son président, a fortiori dans un système russe souvent décrit comme mafieux, où les hautes autorités ont, non seulement, à redouter les effets directs d’une escalade militaire, mais également les effets qu’aurait une escalade sur leurs biens, souvent colossaux.

Il n’est pas exclu également que certains membres de la chaîne décisionnelle puissent bloquer une décision de frappe pour des raisons politiques ou morales.

La question chinoise

Le déclenchement d’une escalade nucléaire par la Russie aurait des conséquences majeures sur la distribution du pouvoir sur la planète. Un conflit nucléaire en Europe pourrait être une opportunité majeure pour la Chine, même si son économie mondialisée en pâtirait. En effet, un effondrement de l’Europe couplé à un affaiblissement des États-Unis et de la Russie dans le pire des scénarios pourrait faire de la Chine la seule puissance intacte sans avoir eu à prendre part au conflit. Cette perspective, insoutenable pour les Européens, les Américains, mais également les Russes, est de nature à freiner toute tentation de dérapage nucléaire.

Nous venons de le constater, une guerre nucléaire en Europe demeure hautement improbable. Il ne s’agit pas ici de morale, bien qu’il ne soit pas illégitime de penser que les dirigeants mondiaux en possèdent une, mais plutôt de lucidité. La terreur mutuelle, le jeu des alliances, les conséquences de différentes natures, les risques d’escalades incontrôlées et la position d’attente de la Chine rendent l’usage de l’arme nucléaire peu opérant.

La capacité destructrice de l’arme, son caractère de menace existentielle pour un continent voire pour toute l’humanité ne peuvent servir des intérêts rationnels, ne peut valider des calculs avantageux pour l’une des parties.

Peut-on en conclure qu’une guerre nucléaire en Europe est absolument impossible ?

L’humain est un être à la fois rationnel et émotionnel. Certains scénarios d’usage de l’arme, certes improbables, peuvent être explorés. Ces scénarios constitueraient alors des situations de rupture radicale où le rationnel serait supplanté par l’émotionnel sous la forme de la panique, du désespoir, de la perte de contrôle.

Il est possible d’imaginer un effondrement du régime autoritaire du président Poutine, provoquant l’indépendance de régions non russes dotées nucléairement et qui pourraient faire usage de l’arme. Un tel effondrement de la technostructure russe pourrait engendrer une rupture de la chaîne décisionnelle, amenant un acteur secondaire ou un chef militaire isolé à envisager une frappe, par calcul voire par folie.

Un autre scénario serait celui engageant le désespoir : face à un prochain effondrement économique l’empêchant de financer son économie de guerre, face à une éventuelle défaite militaire russe en Ukraine pour des raisons que nous ne voyons pas encore, la Russie pourrait envisager la menace comme existentielle, ce qui la pousserait à tenter le tout pour le tout, malgré la perspective d’une riposte dévastatrice.

Autre scénario, et l’histoire de la guerre froide nous le prouve, une guerre nucléaire pourrait être la résultante d’un malentendu technique ou d’un accident (lancement d’un missile par erreur, mauvaise interprétation de données radar, dysfonctionnement des systèmes d’alerte précoces entraînant une riposte automatique). Les grandes puissances ont bien entendu multiplié les systèmes de sécurité, mais une telle hypothèse a une probabilité non nulle.

Enfin, un retrait complet des garanties de sécurité ou un retrait américain de l’Europe, bien qu’improbable, pourrait conduire la direction russe à penser qu’une attaque nucléaire puisse être possible, négligeant de fait les arsenaux français et britannique.

Ces scénarios sont très peu probables. Alors oui, une guerre nucléaire est impossible en Europe… presque impossible. Ce « presque » nous entraîne néanmoins, Français et Européens, à cultiver notre vigilance stratégique, à user d’une diplomatie incessante et à se préparer à l’impensable même si le pire est hautement improbable.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.04.2025 à 17:25

Un incident hospitalier sur dix serait dû à un problème de communication, selon une nouvelle étude

Jeremy Howick, Professor and Director of the Stoneygate Centre for Excellence in Empathic Healthcare, University of Leicester

Selon une nouvelle étude analysant des résultats provenant d’hôpitaux du monde entier, les problèmes de communication entre soignants mettraient chaque année en danger la vie d’un grand nombre de patients.
Texte intégral (1166 mots)

Selon une nouvelle étude analysant des résultats provenant d’hôpitaux du monde entier, les problèmes de communication entre professionnels de santé mettraient chaque année en danger la vie d’un grand nombre de patients.


Afin de déterminer les causes de survenue d’incidents qui mettent en jeu la sécurité des patients, mes collègues et moi-même avons analysé 46 études publiées entre 2013 et 2024 et portant sur plus de 67 000 patients non seulement en Europe, mais aussi en Amérique du Nord et du Sud, en Asie et en Australie. Nos résultats, alarmants, indiquent que dans 1 cas sur 10, l’incident est uniquement survenu en raison d’un problème de communication entre soignants. Par ailleurs, ce type de problème contribue – à côté d’autres facteurs – à la survenue d’un incident de sécurité sur quatre.

Il ne faut pas oublier que derrière ces statistiques désincarnées se trouvent des personnes réelles, qui ont été meurtries en raison d’erreurs qui auraient pu être évitées. Ainsi, dans l’un des cas documentés, un médecin qui tentait de réduire au silence une pompe qui bipait a accidentellement arrêté la perfusion d’Amiodarone – un médicament utilisé en cas d’arythmie cardiaque – d’un patient. Il a omis d’informer l’infirmière de sa manipulation. Résultat : le rythme cardiaque du patient a dangereusement augmenté.

Dans un autre cas, un patient est mort car une infirmière n’a pas informé le chirurgien que son patient souffrait de douleurs abdominales postopératoires et avait un taux de globules rouges faible – autant de signes d’une possible hémorragie interne. Une meilleure communication aurait permis d’éviter ce décès.

Ces résultats confirment ce que de nombreux professionnels de santé soupçonnaient depuis longtemps : les défaillances de communication constituent une menace directe pour la sécurité des patients. Il est particulièrement inquiétant de constater que ces incidents se produisent dans de nombreux systèmes de santé à travers le monde.

Un problème d’ampleur

Rien qu’au Royaume-Uni, plus de 1 700 vies sont perdues chaque année en raison d’erreurs médicamenteuses. Dans le monde, 3 millions de décès surviennent annuellement pour la même raison. Au moins la moitié de ces cas, qui sont souvent dus à une mauvaise communication, pourraient être évités.

Aux États-Unis, les défaillances de communication contribuent à plus de 60 % de tous les événements indésirables graves associés aux soins hospitaliers. Selon les experts, ces chiffres sont probablement sous-évalués, car les incidents impliquant la sécurité des patients sont souvent sous-déclarés.

Notre recherche comble une lacune importante dans la compréhension du phénomène. Si des études antérieures avaient déjà établi que la communication pouvait s’avérer problématique dans les environnements de soins, notre analyse est la première à quantifier précisément l’impact de ce type de lacunes sur la sécurité des patients.

Une analyse statistique distincte, portant uniquement sur une sélection d’études considérées comme « de haute qualité » a donné des résultats similaires, ce qui renforce la validité de nos conclusions.

L’importance cruciale que revêt la mise en place d’une communication efficace entre soignants a notamment été soulignée dans plusieurs grandes enquêtes visant à évaluer l’origine des défaillances des systèmes de santé. Au Royaume-Uni, les rapports Francis et Ockenden ont tous deux déterminé que l’inefficacité de la communication entre soignants était à l’origine de la survenue de décès évitables au sein des établissements Mid-Staffordshire NHS Foundation Trust et du Shrewsbury and Telford Hospital NHS Trust, respectivement. Selon le médiateur britannique de la santé, la mauvaise communication contribuerait à environ 48 000 décès dus à la septicémie chaque année.

Les insuffisances de communication causent donc un véritable préjudice. Les malentendus qui en résultent sont à l’origine de graves erreurs médicales, avec pour conséquence la formulation de diagnostics erronés, la mise en place de traitements sous-optimaux, ou la sous-estimation de complications potentiellement mortelles.

L’espoir d’une amélioration

Malgré cet alarmant constat, il faut souligner que des interventions ciblées peuvent améliorer la communication. Certains de nos travaux ont ainsi montré que des praticiens sensibilisés et formés pour adopter une communication plus empathique envers les patients changent leurs comportements, ce qui se traduit par une prise en charge aboutissant à de meilleurs résultats.

De même, lorsque les professionnels de santé apprennent à mieux communiquer entre collègues, des améliorations mesurables s’ensuivent. Une étude publiée dans le prestigieux New England Journal of Medicine a révélé que la mise en place d’un protocole de communication structuré au sein d’équipes de chirurgie pouvait réduire la survenue d’événements indésirables de 23 % en un an. D’autres travaux ont révélé que l’utilisation de procédures normalisées de transmission entre les équipes réduisait les erreurs médicales de près de 30 %.

Ces interventions ne requièrent qu’un investissement limité en regard des gains apportés : une demi-journée de mise en œuvre peut suffire. Les systèmes de santé ont donc à leur disposition un levier particulièrement intéressant pour diminuer significativement la survenue d’événements préjudiciables.

Les preuves sont là. Reste maintenant aux dirigeants d’établissement, aux enseignants et aux décideurs à agir. Pour mieux protéger la vie des patients, la formation des soignants à la communication doit devenir une norme universelle – et non demeurer un supplément optionnel.

The Conversation

Jeremy Howick est financé par le Stoneygate Trust et reçoit occasionnellement des honoraires pour ses conférences.

28.04.2025 à 17:01

Société connectée, mais fragmentée : comment restaurer le sens du commun ?

Pierre-Antoine Chardel, Docteur en philosophie, HDR en sciences sociales, Professeur, Institut Mines-Télécom Business School

Virginie Martin, Docteure sciences politiques, HDR sciences de gestion, Kedge Business School

À l’ère des réseaux sociaux et des algorithmes, le commun – fondement de la démocratie – se fragmente. Comment rétablir un équilibre entre liberté numérique et régulation collective ?
Texte intégral (1667 mots)
Face à l’opacité des algorithmes et au risque d’un éclatement du commun, une alternative possible est d’apprendre à mieux comprendre ces systèmes. Vitaly Gariev/Unsplash, CC BY

À l’heure où Elon Musk privatise l’espace public numérique en imposant ses propres règles sur X, créant une confusion majeure entre liberté et impunité, la question du commun et celle de « faire société » deviennent plus aiguës que jamais. Le commun, que nous entendons ici comme la capacité de s’entendre sur des règles de vie collective, est à la base de tout projet démocratique. Mais il n’est pas un acquis, il ne se décrète pas : il s’organise de manière sensible.


La métamorphose numérique et le bouleversement des technologies avec les pratiques de communication (via Internet et les réseaux sociaux en ligne) qui lui sont inhérentes sont souvent présentées comme étant au cœur des transformations que nous vivons d’un point de vue existentiel. Dans certains cas même, la conjonction des mutations technologiques et du tout communicationnel affaiblit paradoxalement le commun. Elle favorise une multiplicité vertigineuse qui brouille toujours davantage les grandes orientations de sens, pourtant essentielle à notre cohésion collective.

Il convient donc, plus que jamais, de réfléchir à l’organisation et la distribution du pouvoir dans ce commun fragmenté, et au bout du compte, la possibilité de les comprendre pour y bâtir des stratégies collectives riches de sens. Cela, en sachant que la redéfinition des réseaux classiques de communication et d’information rebat les cartes de la hiérarchie de celles et ceux qui les dominent et qui y prennent la parole.

Dans un monde en réseau(x) où est le centre, où est la périphérie ? En quoi la possibilité donnée à chacun d’avoir une audience, et la probabilité paradoxalement réduite de se faire comprendre de tous, altèrent-elles la nature du pouvoir, et la nature des « élites » ? Comment faire exister une parole institutionnelle dans un univers média/technologique où elle n’a plus aucun monopole ? Comment le concept traditionnel de pouvoir s’articule-t-il avec la notion à la mode, mais ô combien polysémique, d’influence ? Quelles nouvelles règles pour le « marché des idées » et les manipulations cognitives en tous genres ?

Ces questions sont d’autant plus cruciales qu’aujourd’hui, les « experts » détenteurs de savoirs et donc de pouvoir(s) voient leur parole largement concurrencée par des influenceurs de tous ordres. Sur la toile, la hiérarchisation des compétences est profondément bousculée. L’horizontalisation des savoirs passant par des biais médiatiques (médias traditionnels ou réseaux sociaux) gagne en puissance.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Il faut donc nous interroger sur les conséquences pour les disciplines scientifiques, pour l’avenir du monde académique et des chercheurs eux-mêmes. Comment gérer une telle fragmentation de l’accès aux connaissances alors même que la toile tend à créer une confusion des genres ? On y trouve sans doute plus d’arguments d’autorité que de vérités scientifiques, la sphère digitale étant créatrice de beaucoup d’indistinction.

Quelles alternatives aux algorithmes des plateformes?

Dans ce contexte toujours, que devient la culture de l’écrit, traditionnel attribut des élites et vecteur de pouvoir dans « l’ancien monde » ? Est-elle condamnée au déclassement, dans un monde internationalisé où règnent les images, poussées en avant par les algorithmes des plateformes ?

Assiste-t-on à l’avènement d’une sorte de technicisme froid, la machine et ses codes contraignant notre pensée et la formatant en imposant des normes éditoriales drastiques (la plateforme X, par exemple, limite les publications à 280 caractères), au risque de simplifier et de travestir le message de départ ? Jusqu’à quel point peut-on, en outre, laisser les algorithmes gérer la hiérarchisation d’une information, ceci au risque d’impacter les équilibres politiques eux-mêmes ?

Comme le décrit fort justement la philosophe Anne Alombert, tandis que le Web était fondé sur des liens hypertextes, permettant une navigation intentionnelle, les algorithmes de recommandations orientent les utilisateurs, comme si la « toile », sorte de rhizome, s’était transformée en silo. De telles réalités structurelles doivent très certainement aujourd’hui nous inciter à créer des politiques algorithmiques alternatives, plus ouvertes et contributives. Comme le souligne Anne Alombert :

« Ce passage de la recommandation automatique et privée (fondée sur les choix des entreprises et la quantification des vues) à la recommandation contributive et citoyenne (fondée sur les interprétations des citoyens et la qualité des contenus) est non seulement plus que souhaitable, mais tout à fait possible. »

L’enjeu sociétal est d’autant plus crucial que le vrai pouvoir semble avoir glissé du côté de celles et ceux qui contrôlent les infrastructures de diffusion – ce sont les entreprises propriétaires des réseaux sociaux qui décident de ce qui peut être visible ou pas, en privatisant ainsi les dynamiques de modération en fonction de leurs propres normes et valeurs –, mais aussi du côté de celles et ceux qui peuvent développer des outils pour les décrypter et les interpréter. À l’heure où les logiques de prédation des données sont exacerbées, une réinstauration d’un minimum de confiance et de transparence dans la conception des algorithmes se doit d’être engagée : en s’appuyant par exemple sur des initiatives qui visent à s’attaquer aux biais qu’ils peuvent véhiculer.

Comment évoluer avec plus de clairvoyance dans la société ?

Dans une telle perspective, une nouvelle production de savoir s’impose, plus collaborative et transdisciplinaire, renouant en ce sens avec une certaine expérience du commun. Un enjeu est aussi, d’un point de vue éthique, de rendre possible des conceptions plus vertueuses des technologies à l’heure où les systèmes d’IA tendent à fragiliser l’exercice même du libre-arbitre. Vis-à-vis de ces tendances, il nous faudrait apprendre à « visualiser les réseaux sans paniquer », en évitant de les laisser produire d’irréversibles effets de prolétarisation.

Face à l’opacité des algorithmes et au risque d’un éclatement du commun, une alternative possible est d’apprendre à mieux comprendre ces systèmes : décrypter leur logique (grâce à des initiatives comme AlgorithmWatch), réguler (avec des cadres comme le DSA) et explorer des alternatives (comme Mastodon ou Wikipédia). Ce travail de transparence et de conception collective permettrait de ne pas subir passivement les effets de ces architectures numériques, mais de les penser comme des espaces à réinvestir. Sans cet effort, nous restons à la merci d’un vertigineux tourbillon technologique.

Des outils de cartographie numérique, notamment, permettent d’aiguiser notre regard sur des phénomènes invisibles à l’œil nu. Des cartes et des flux de données personnelles peuvent mettre en lumière les circuits par lesquels nos informations sont collectées, revendues et exploitées par les grandes plateformes numériques. Des pratiques de data visualisation et de design graphique, en rendant visible et sensible l’invisible, peuvent alors contribuer à faire émerger une meilleure compréhension de nos environnements numériques. Par exemple, la cartographie des réseaux sociaux peut révéler des dynamiques souvent imperceptibles : des outils graphiques permettent d’identifier la formation de chambres d’écho, où certaines idées circulent en boucle sans contradiction, ou encore de repérer la structuration des réseaux d’influence et leur poids dans la diffusion de l’information.

Sans ces efforts de représentation, de design et d’interprétation de nos activités en ligne, il sera difficile d’évoluer avec clairvoyance dans nos sociétés des réseaux. Au-delà d’une certaine panique morale qui nous envahit, ce sont là des pistes pour développer une relation plus sereine avec nos technologies numériques en vue de rendre possible une meilleure compréhension des nouveaux milieux qu’elles façonnent.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

28.04.2025 à 17:00

Protéger l’agriculture française face aux risques climatiques

Philippe Delacote, Directeur de recherche en économie à l'INRAE et Chaire Economie du Climat, Inrae

Seuls 30 % des surfaces agricoles sont couvertes par les assurances en cas de crise climatique. Pour répondre au défi de la vulnérabilité, il faut se concentrer sur la recherche de résilience.
Texte intégral (1555 mots)

Seuls 30 % des surfaces agricoles sont couvertes par les assurances en cas de crise climatique. Pour répondre au défi de la vulnérabilité, les stratégies individuelles comme les politiques publiques doivent se concentrer sur la recherche de résilience.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 6 a pour objet, « Le système alimentaire à l’heure des choix ».


Le changement climatique a des impacts multiples sur de nombreux secteurs d’activité, tant dans les pays industrialisés que dans les pays du Sud. Ces impacts résultent non seulement de l’augmentation des températures moyennes, mais aussi de la fréquence et de l’intensité accrues des événements météorologiques extrêmes, tels que les sécheresses et les tempêtes. L’agriculture, en particulier, est fortement concernée.

Ainsi, en 2024, le ministère de l’agriculture indique que la production des céréales à paille en France a subi une baisse de 22 % par rapport aux cinq années précédentes, en raison de conditions climatiques extrêmes. Des études menées par Maxime Ollier et ses coauteurs ont démontré que les risques climatiques affectent de manière hétérogène les secteurs agricoles, en fonction des systèmes de production et de la localisation des exploitations.

Un taux de couverture de l’assurance récolte limité

Le réflexe naturel qui vient à l’esprit quand on parle de risque est d’envisager la couverture assurantielle. Ainsi il existe une offre d’assurance « multirisque récolte », qui, en théorie, devrait couvrir les acteurs contre les chocs liés au climat. Or, plusieurs facteurs limitent la portée de cette solution. En effet, le taux de couverture de l’assurance récolte est aujourd’hui limité en France : seuls 30 % des surfaces agricoles sont couvertes.


À lire aussi : Et si l’assurance verte pouvait aider à réduire les produits phytosanitaires dans les vignobles...


Les travaux de thèse de Richard Koenig ont montré que, malgré un taux de subvention important, le montant des franchises est un frein important à la souscription, ainsi que les délais de versement de la subvention. Or, la branche assurance récolte présente un déficit important, avec un rapport sinistre sur prime structurellement supérieur à 100 %. On peut donc en déduire que le rôle joué par les assurances récolte dans la protection des agriculteurs français sera certes utile, mais limité.

Face à ces multiples chocs et à l’impossibilité de l’assurance de couvrir l’ensemble de ces risques, la vulnérabilité des exploitants agricoles est une question centrale. Cette vulnérabilité peut être définie selon trois critères : l’exposition, la résistance et le rétablissement. L’exposition fait référence au fait que certains secteurs ou zones géographiques sont particulièrement concernés par les chocs liés au changement climatique. La résistance correspond à la capacité des agriculteurs à absorber ces chocs. Enfin, le rétablissement évoque leur aptitude à se relever après ces perturbations. Il est donc essentiel de comprendre dans quelle mesure ces impacts dépendent du contexte socio-économique local et des caractéristiques des acteurs concernés.

Sobriété, agilité et protection

Dans ce contexte, où l’agriculture est l’un des secteurs les plus affectés par le changement climatique, il est crucial que les stratégies individuelles et les politiques publiques se concentrent sur la recherche de résilience. Cet objectif peut être décliné selon trois grands principes : sobriété, agilité et protection. Premièrement, l’agriculture doit évoluer vers une utilisation plus sobre des ressources, notamment en réduisant la dépendance aux énergies fossiles et aux intrants chimiques. En effet, le secteur agricole contribue fortement aux émissions de gaz à effet de serre – 18,7 % des émissions françaises, selon le Citepa – et joue un rôle dans la dégradation des écosystèmes et de la qualité de l’eau. Or, le climat et les écosystèmes sont les socles sur lesquels repose l’activité agricole ; il n’y aura donc pas d’adaptation possible sans un effort d’atténuation sans précédent. Cela implique le développement de pratiques agroécologiques, telles que l’agroforesterie, et l’optimisation de l’usage de l’eau, comme le choix de cultures moins dépendantes des apports en eau.

Deuxièmement, l’agilité se manifeste au niveau des systèmes de production, en favorisant la diversification des cultures et des pratiques, mais aussi au niveau des chaînes de valeur, par la diversification des sources d’approvisionnement et des débouchés. Il est important que l’ancrage local soit renforcé, tout en maintenant des liens de partenariats plus éloignés, afin de diversifier les risques non seulement climatiques, mais aussi géopolitiques ou épidémiologiques. La recherche de partenariats de long terme, qui permettent de construire la confiance, est également préférable à une recherche court-termiste du mieux-disant.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Enfin, la protection des plus vulnérables nécessite d’abord leur identification, puis la priorisation de certaines politiques publiques en leur faveur. On peut penser ici à un ciblage plus important des politiques d’aides à la transition écologique ou à l’accès aux assurances récolte.

Un coût de 4 milliards d’euros par an pour l’inaction

Plusieurs enseignements peuvent être tirés de ces réflexions sur la résilience des acteurs et des systèmes agricoles. Tout d’abord, la priorité doit être donnée à la lutte contre le changement climatique et la dégradation des écosystèmes. Bien que l’action en faveur de la protection de l’environnement puisse engendrer des coûts, l’inaction entraînera des coûts nettement supérieurs, en particulier pour les secteurs agricoles. Le coût du changement climatique se fait déjà durement ressentir dans certains secteurs ou régions. L’impact global du changement climatique sur le secteur agricole et de l’agroalimentaire français a été estimé par le Conseil général de l’alimentation, de l’agriculture et des espaces ruraux à plus de 4 milliards d’euros par an d’ici à 2050, soit un peu plus de 4 % du PIB agricole. Or, chaque tonne de gaz à effet de serre supplémentaire ne fera qu’accroître ces coûts et les défis associés. Enfin, il est indispensable que les stratégies d’adaptation et d’atténuation soient complémentaires : des stratégies d’adaptation qui auraient comme conséquence la hausse des émissions de gaz à effet de serre et des pressions supplémentaires sur des écosystèmes ne peuvent qu’être néfastes à long terme.

France 24 – 2024.

Un but contre leur camp

L’agroécologie, dont le fondement est d’utiliser les solutions fondées sur le fonctionnement des écosystèmes pour répondre aux problèmes posés aux agriculteurs, va dans ce sens d’une recherche de synergie entre adaptation et atténuation.

Au total, il apparaît que les actions de certains acteurs contre les politiques environnementales agissent comme un but contre leur camp. En faisant mine de défendre les intérêts des secteurs agricoles, ces actions amplifient au contraire les problèmes auxquels sont confrontés de nombreux acteurs du monde agricole.

Les politiques de protection de l’environnement ne sont pas parfaites, et les exploitants agricoles doivent être consultés pour améliorer leur mise en œuvre. Il est cependant indispensable de les accentuer, et d’affirmer qu’il n’existera pas de protection durable de l’agriculture sans la protection et la restauration des écosystèmes sur lesquels ces activités reposent.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 6 a pour objet « Le système alimentaire à l’heure des choix ». Vous pourrez y lire d’autres contributions. Le titre et les intertitres ont été produits par la rédaction de The Conversation France.

The Conversation

Philippe Delacote a reçu des financements de Chaire Economie du Climat.

46 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   Fiabilité faible
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓