19.08.2025 à 15:54
Fo-Yovo Gérome Koutremon, Doctorant en Science de Gestion à l'Université Bourgogne Europe, Université Bourgogne Europe
Isabelle Frochot, Maître de Conférences HDR - Comportement du Consommateur, Université Bourgogne Europe
Jean-Baptiste Welté, Professeur des Universités en Sciences de Gestion
Face à l’accélération des rythmes de vie et aux excès du tourisme de masse, une autre façon de voyager émerge : le slow tourisme. Il s’agit de prendre le temps de se déplacer et de se ressourcer en étant plus respectueux de l’environnement et des territoires d’accueil. Une pratique qui vise une transformation profonde de l’expérience touristique.
Les vacances, et les voyages qui y sont associés, sont un plaisir recherché par nombre d’entre nous. À l’échelle planétaire, on observe une progression annuelle moyenne du tourisme international de + 5 % depuis plusieurs décennies (hors période Covid). À ce volume viennent s’ajouter les touristes nationaux et les excursionnistes (visiteurs se déplaçant à la journée). L’histoire nous montre que l’industrie touristique est résiliente et capable d’absorber les crises, à l’image du rebond observé après la pandémie de Covid. La France est par ailleurs la première destination mondiale, avec 100 millions de visiteurs internationaux.
En parallèle de cette hausse des voyages, émerge le slow tourisme – littéralement, « tourisme lent », qui promeut un ralentissement radical pour compenser l’accélération des rythmes de vie, marqués par une multiplication des activités professionnelles et personnelles et par des contraintes temporelles.
La pratique touristique devient l’occasion de se ressourcer. Séjours méditatifs dans des monastères, randonnées en montagne ou navigation sur les canaux français illustrent cette recherche d’apaisement.
À l’origine, le mouvement Slow est né en Italie, dans les années 1980, pour défendre le recours aux productions culinaires locales. Il prône, par extension, un réapprentissage de la lenteur, notamment dans les modes de transports, associé à des pratiques plus écoresponsables.
À lire aussi : Annecy : derrière la carte postale, l’ombre du surtourisme
Car le tourisme peut effectivement s’avérer dommageable pour les milieux naturels et pour les populations locales. La médiatisation du surtourisme dans les destinations les plus populaires, de Barcelone (Espagne) à Naples (Italie), en passant par Lisbonne (Portugal), a mis en lumière l’ampleur de ses effets délétères : dégradation de l’environnement, exclusion des populations locales, etc.
Le ministère de l’économie définit le slow tourisme comme
« [un] tourisme du temps choisi, garant d’un ressourcement de l’être (pause, déconnexion, lâcher-prise, mais aussi bien-être, temps pour soi, santé), peu émetteur de CO2, respectant l’écosystème du territoire d’accueil, synonyme de patience, de sérénité, d’enrichissement culturel ».
Cette définition en facilite la reconnaissance et met en avant les quatre dimensions structurantes du slow tourisme : un mode de transport, un rapport au territoire, au temps, et à soi.
Concernant le mode de transport, le slow tourisme s’appuie sur des mobilités décarbonées : train, transport pédestre, navigation fluviale. Des mobilités prisées, comme on peut le voir avec la hausse de fréquentation des chemins de Saint-Jacques-de-Compostelle, ou celle des trajets ferroviaires. Ainsi, la fréquentation des trains de voyageurs en France a atteint un record en 2024, avec une progression de 6 % par rapport à 2023.
Du côté des pouvoirs publics, on relève des investissements en ce sens : voies cyclables aussi bien locales qu’européennes (Véloroutes), développement de l’offre de trains de nuit ; tandis que des fédérations ou des associations mènent des actions pour entretenir des dispositifs existants (entretien des chemins de randonnée et des refuges par la Fédération française des clubs alpins et de montagne).
Conscients de cette aspiration émergente, les acteurs du tourisme se sont aussi saisis du concept. Se développent ainsi des offres de produits plus durables proposées par des prestataires privés : croisières à voile, voyages d’aventure combinant plusieurs modes de transport ou de déplacement sans avion.
Car le rapport au territoire constitue une autre caractéristique importante du slow tourisme. Il s’agit de mesurer l’impact de sa pratique touristique sur l’écosystème et sur les cultures locales et de valoriser des séjours centrés sur l’expérience et non sur la consommation d’une infrastructure façonnée pour le touriste.
Le temps du slow tourisme, c’est celui du ralentissement, ce que Katharina C. Husemann et Giana M. Eckhardt, chercheuses en marketing, désignent par le « besoin croissant de décélération », dans leur étude ethnographique du pèlerinage de Saint-Jacques de Compostelle, à savoir un temps où l’on est moins soumis aux événements et sollicitations.
Les adeptes du slow tourisme se réapproprient ce rythme apaisé, comme l’illustre ce témoignage d’un randonneur, recueilli au cours de l’une de nos recherches sur les refuges en montagne dans le massif des Écrins (Alpes françaises), en 2019 :
« Ici, c’est un rythme complètement différent parce que, quand je suis en bas, je suis quand même un minimum le rythme, les jours de la semaine, je sais quand c’est le week-end, par exemple, et dès que je suis en refuge, j’oublie complètement dans quelle temporalité on est. Je ne planifie plus ce que je dois faire : je dois juste manger, dormir et rebelote […] et du coup, y’a pas d’autre but que juste marcher et arriver là où on veut arriver. »
Ce retour à la lenteur valorise le trajet lui-même. Il n’est plus perçu uniquement comme un moyen d’atteindre une destination, mais comme une expérience à part entière. Cette lenteur imposée par le voyage choisi induit également une déconnexion bénéfique vis-à-vis des écrans, des obligations, du brouhaha quotidien, comme l’exprime cet autre témoignage :
« Pour moi, ça coupe vraiment de la routine, on n’est pas chez soi, on ne se donne pas d’obligations à faire ceci, cela, là on a juste à mettre les pieds sous la table comme on dit, et puis faire sa petite toilette, se promener, regarder le paysage, respirer, ça fait trop du bien quoi. »
Le slow tourisme est aussi un temps de réflexion sur soi. Il s’agit de réinterroger ce que l’on cherche en voyageant, de redonner place à l’ennui, de penser autrement sa vie, voire de revisiter ses priorités.
Cette expérience passe également par le corps : marcher, pédaler, ramer, camper. Loin des mobilités rapides, le voyage devient une expérience sensorielle, physique et méditative ; une façon de revenir à l’essentiel, de redécouvrir des plaisirs simples, loin du tumulte et de l’injonction d’efficacité du monde moderne.
L’essor du cyclotourisme est emblématique de cet attrait pour une autre manière de voyager. Sa pratique est en forte augmentation sur le marché français : évalué à 7,9 milliards de dollars (USD) en 2024 (7,27 milliards d’euros), il devrait croître de plus de 11 % par an d’ici à 2033. Ce mode de déplacement, mêlant effort physique et itinérance libre en immersion, séduit par sa capacité à faire du trajet un moment existentiel.
Au-delà de ces chiffres, certains récits de cyclo-voyageurs, (issus de blogs et de forums) récoltés dans le cadre d’une recherche doctorale en cours, révèlent une expérience d’autonomie radicale :
« J’aime beaucoup l’improvisation, j’aime beaucoup les chemins hors sentiers battus… Peu importe où ça mène, je les prends. »
Ce que certains appellent la « magie du chemin » relève ici d’une transformation intérieure liée à la lenteur, au silence, à la nature.
Cette philosophie du voyage lent, sobre, sensoriel, est souvent décrite comme une manière de « se recentrer », de « ralentir », ou de « réapprendre à vivre ». Loin d’un simple loisir, le cyclotourisme est pour ces voyageurs une forme d’existence en mouvement.
En somme, le slow tourisme ne se résume pas à une pratique écologique ou à un mode de déplacement. Il exprime une volonté de redonner du sens au voyage, en le replaçant dans un rapport spécifique au temps, au territoire et à soi.
À l’ère de l’éco-anxiété, le slow tourisme trouve une résonance. Et si l’avenir du tourisme ne consistait plus à aller plus vite ou plus loin, mais à être plus présent ?
Jean-Baptiste Welté a reçu des financements de l'ANR pour un projet sur la sobriété
Fo-Yovo Gérome Koutremon et Isabelle Frochot ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
19.08.2025 à 15:52
Ettore Recchi, Professeur des universités, Centre de Recherche Sur les Inégalités Sociales (CRIS), Sciences Po
Tobias Grohmann, Research Fellow at the Migration Policy Centre (MPC) of the European University Institute (EUI) in Florence, European University Institute
Créer un registre universel recensant toutes les personnes qui le souhaitent, ce qui leur permettra de bénéficier de nombreux services à ce stade inaccessibles ; et verser un dollar par jour à toutes celles qui vivent sous le seuil de pauvreté. Cette double mesure, qui peut paraître utopique, n’est pas aussi irréaliste que cela, comme le démontre un article paru dans une revue à comité de lecture, dont les auteurs nous présentent ici les principaux aspects.
Que signifie être invisible ? Pour plusieurs centaines de millions de personnes à travers le monde, cela veut dire ne posséder aucune preuve légale d’identité : ni passeport ni acte de naissance – aucun moyen de prouver son existence aux yeux d’un État. Et que signifie être incapable de mener une vie digne ? C’est gérer son quotidien avec moins de 6,85 $ par jour, ce qui correspond au seuil de pauvreté fixé par la Banque mondiale. Dans un monde plus riche que jamais, ces deux situations définissent ce que nous appelons des « inégalités scandaleuses ».
Notre proposition, détaillée dans un article récemment publié dans Humanities and Social Sciences Communications, vise à s’attaquer simultanément à ces deux problèmes : l’absence d’identité légale et la faim. L’idée est simple : garantir une carte d’identité pour chaque personne vivant sur Terre (Humanity Identity Card, HIC) et un complément de revenu de base de 1 dollar (USD) par jour (Basic Income Supplement, BIS) pour la moitié la plus pauvre de la population mondiale.
Cette politique sociale globale contribuerait à garantir des droits humains fondamentaux comme le droit à l’égalité devant la loi, un niveau de vie suffisant et une protection sociale. Elle devrait également encourager un nouveau sentiment de solidarité internationale : les pays, les entreprises et les individus les plus riches soutiendraient les plus vulnérables, non pas par charité, mais dans le cadre d’un engagement structuré et partagé.
En nous appuyant sur les travaux d’Amartya Sen et de Göran Therborn, nous nous concentrons sur deux dimensions de l’inégalité : l’existentielle et la vitale.
L’inégalité existentielle concerne la reconnaissance. Près de 850 millions de personnes, selon une étude de la Banque mondiale, n’ont aucune pièce d’identité reconnue légalement. Cela signifie que, dans la plupart des pays du monde, elles ne peuvent pas ouvrir de compte bancaire, accéder à des services publics, inscrire leurs enfants à l’école ou s’inscrire elles-mêmes dans des établissements d’enseignement, ou encore enregistrer une carte SIM à leur nom. Sans identité légale, on n’est pas seulement exclu : on est aussi invisible.
L’inégalité vitale concerne les ressources nécessaires à la survie. L’insécurité alimentaire demeure l’un des problèmes les plus persistants et mortels aujourd’hui. Alors que la production alimentaire mondiale atteint des sommets historiques, environ 735 millions de personnes souffrent encore de la faim et des millions d’enfants sont malnutris. Ceci n’est pas dû à une pénurie de nourriture, mais à une véritable exclusion économique, faute tout simplement d’avoir les moyens d’accéder à la nourriture disponible.
Ces deux problèmes vont souvent de pair : les plus pauvres sont aussi ceux qui ont le moins de chances d’être officiellement enregistrés auprès des administrations. Surtout, dans les pays les moins développés, en l’absence de filet de sécurité national, ils passent entre les mailles des systèmes censés les protéger.
La carte d’identité universelle (HIC) est au cœur de la proposition.
Elle serait délivrée par une instance mondiale – très probablement sous l’égide des Nations unies – et proposée à chaque personne, quels que soient sa nationalité ou son statut migratoire. La carte inclurait des données biométriques telles qu’une empreinte digitale ou un scan de l’iris, ainsi qu’une photo et des informations de base comme le nom et la date de naissance de l’individu.
Avec une HIC, les habitants des zones rurales dans les pays à faible revenu pourraient s’inscrire à des services téléphoniques, à travers lesquels ils pourraient recevoir de l’aide par « mobile money » ; ce qui est actuellement sujet à un enregistrement préalable avec carte d’identité. De même, migrants et voyageurs pourraient demander de l’aide, des soins ou simplement une chambre d’hôtel sans s’exposer à des refus ou à des discriminations en raison d’une nationalité stigmatisée.
Cette carte ne serait liée à aucun gouvernement. Sa seule fonction serait de vérifier l’existence de la personne et ses droits en tant qu’être humain. Les données sensibles seraient stockées dans un système sécurisé géré par l’ONU, inaccessible aux gouvernements sauf autorisation explicite du titulaire. Cela distingue notre proposition d’autres programmes, comme l’initiative Identification for Development (ID4D) de la Banque mondiale, qui est censée fonctionner dans les limites des systèmes d’identification nationaux, exposés aux changements d’agenda des gouvernements.
Le second pilier de la proposition est un complément de revenu de base (BIS). Toute personne disposant d’un revenu inférieur à 2 500 dollars par an – soit environ la moitié de la population mondiale – recevrait un paiement inconditionnel de 1 dollar par jour. Ce montant est suffisamment faible pour rester abordable à l’échelle mondiale, mais assez élevé pour changer concrètement la vie quotidienne des plus pauvres.
Contrairement à de nombreux systèmes d’aide sociale existants, ce revenu serait versé directement aux individus, et non aux ménages, ce qui permettrait de réduire les inégalités de genre et de garantir que les enfants et les femmes ne soient pas exclus. L’argent pourrait être distribué par l’intermédiaire des systèmes de paiement mobile, déjà largement utilisés avec une efficacité remarquable dans de nombreux pays à faible revenu.
Les conclusions tirées de l’examen d’autres programmes de transferts monétaires montrent que ce type de soutien peut réduire significativement la faim, améliorer la santé des enfants, augmenter la fréquentation scolaire et même encourager l’entrepreneuriat. Les personnes vivant dans l’extrême pauvreté dépensent généralement ce revenu supplémentaire de manière avisée : elles savent mieux que quiconque ce dont elles ont en priorité besoin.
Un programme mondial de cette ampleur n’est pas bon marché. Nous estimons que le complément de revenu de base coûterait environ 1 500 milliards de dollars par an. Mais nous avons aussi esquissé son plan de financement.
La proposition prévoit une taxe mondiale de seulement 0,66 % sur trois sources :
sur le produit intérieur brut (PIB) de chaque État souverain ;
sur la capitalisation boursière des entreprises valant plus d’un milliard de dollars ;
sur la richesse totale des ménages milliardaires.
Au total, cela générerait suffisamment de ressources pour financer le complément de revenu et administrer la carte d’identité, avec un petit surplus pour les coûts opérationnels.
La participation serait obligatoire pour tous les États membres de l’ONU, ainsi que pour les entreprises et individus concernés. Le non-respect entraînerait des sanctions, telles que la dénonciation publique, des conséquences commerciales ou l’exclusion de certains avantages internationaux.
Ce système s’inspire de précédents existants, comme l’objectif fixé aux États de consacrer 0,7 % de leur budget annuel à l’aide au développement ou l’accord récent de l’OCDE sur un impôt minimum mondial pour les entreprises. Plusieurs dirigeants du G20 ont d’ailleurs déjà exprimé leur soutien à une taxation mondiale de la richesse. Ce qui manque, c’est la coordination – et la volonté politique.
Pour beaucoup, la proposition semblera utopique. Les inégalités mondiales sont profondément ancrées, et les intérêts nationaux priment souvent sur les responsabilités globales, comme l’illustrent les développements politiques récents (le 1er juillet, le gouvernement des États-Unis a officiellement cessé de financer l’USAID). Mais nous avons aussi vu à quelle vitesse le monde peut mobiliser des ressources en temps de crise – comme lors de la pandémie de Covid-19, où des milliers de milliards ont été injectés dans l’économie mondiale en quelques semaines.
La technologie, elle aussi, a suffisamment progressé pour que la délivrance et la gestion d’une carte d’identité universelle ne relèvent plus de la science-fiction. Les systèmes biométriques sont répandus, et les services de paiement mobile sont des outils éprouvés pour distribuer efficacement l’aide. Ce qu’il faut aujourd’hui, c’est de l’imagination – et de la détermination.
En outre, la proposition repose sur un argument moral puissant : dans un monde aussi interconnecté que le nôtre, pouvons-nous continuer à accepter que certains n’aient aucune existence légale ni aucun moyen de se nourrir ? Pouvons-nous nous permettre de ne rien faire ?
Au-delà de ses bénéfices pratiques, la carte d’identité universelle et le complément de revenu de base représentent quelque chose de plus profond : un nouveau modèle de protection sociale mondiale.
Ils considèrent l’identité et le revenu de base non comme des privilèges de citoyenneté, mais comme des droits inhérents à la personne. Ils offrent ainsi une alternative à une vision nationaliste de l’organisation sociale.
C’est une vision radicale mais pas irréalisable – une politique proche de ce que le sociologue Erik Olin Wright appelait « une utopie réaliste » : un monde où naître au mauvais endroit ne condamne plus à une vie de souffrance et d’exclusion.
Que ce plan soit adopté ou non, il ouvre la voie à une réflexion sur la manière dont nous prenons soin les uns des autres au-delà des frontières. À mesure que les défis mondiaux s’intensifient – changement climatique, déplacements, pandémies –, le besoin de solutions globales devient plus urgent. Le projet confère aussi un rôle nouveau et véritablement supranational à l’ONU, à un moment où l’organisation – qui fête cette année son 80e anniversaire – traverse l’une des crises existentielles les plus profondes de son histoire.
Une carte et un dollar par jour peuvent sembler des outils modestes. Mais ils pourraient suffire à rendre visible l’invisible et à sauver les affamés. Et à nous rendre fiers d’être humains.
Pour une version détaillée de cet article, lire Recchi, E., Grohmann, T., « Tackling “scandalous inequalities”: a global policy proposal for a Humanity Identity Card and Basic Income Supplement », Humanities & Social Sciences Communications, 12, art. no : 880 (2025).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.08.2025 à 15:51
Cam Ly Rintz, Doctorante en écologie marine et sociologie, Muséum national d’histoire naturelle (MNHN)
Boris Leroy, Maître de conférences en écologie et biogéographie, Muséum national d’histoire naturelle (MNHN)
Les océans sont tous connectés entre eux, mais leur température peut agir comme une barrière, notamment pour les poissons-lanternes. Le changement climatique pourrait avoir des conséquences dramatiques, en poussant certaines espèces adaptées au froid vers un véritable cul-de-sac, où elles seraient piégées contre l’Antarctique.
Nous pensons souvent que tous les océans du globe sont connectés et que les animaux qui y vivent peuvent voyager de l’un à l’autre. Du côté de la recherche, le concept de One Ocean (un océan unique) a même émergé pour inviter les scientifiques à considérer cette interdépendance.
Pourtant, malgré cette grande connectivité, la biodiversité marine est loin d’être homogène. Elle se répartit en grandes communautés distinctes parmi les océans du monde. C’est le cas notamment des poissons-lanternes (désignés de la sorte du fait de leur bioluminescence) qui résident dans l’hémisphère Sud. En nous intéressant à ces espèces, nous avons découvert que la température de l’eau agit comme une barrière tout autour de l’océan Austral, séparant les communautés.
Avec le changement climatique, cette barrière se déplace vers le sud, ce qui pousse les poissons-lanternes de l’océan Austral dans un cul-de-sac, piégés par le continent antarctique.
Nous nous sommes intéressés à la grande famille des poissons-lanternes, ou myctophidés, à l’interface entre l’océan Austral et les autres océans du globe.
Contrairement à ce que l’on peut croire, les poissons-lanternes ne sont pas les poissons aux grandes dents et à la petite loupiote sur la tête comme dans le Monde de Nemo : ça, ce sont les baudroies abyssales. Les poissons-lanternes, eux, sont de fascinants petits poissons (en général, de moins de 10 centimètres) aux grands yeux dont les « lanternes » (photophores, organes qui émettent de la lumière) sont réparties le long du corps selon des motifs spécifiques leur permettant notamment de se camoufler ou de se reconnaître dans des profondeurs jusqu’à plus de 1 000 mètres.
Avec près de 250 espèces, on les retrouve dans tous les océans du globe. Ce sont les poissons les plus abondants à ces profondeurs. La plupart accomplissent tous les jours une formidable migration verticale, passant la journée dans les couches plus profondes, où ils sont moins visibles pour les prédateurs, et remontant à la surface la nuit pour se nourrir.
Dans notre étude, l’objectif était d’étudier la répartition géographique des poissons-lanternes, afin de comprendre comment et pourquoi ils se structurent en communautés. Nous ne partions pas de rien : l’expérience de nos collègues océanographes après des décennies d’échantillonnage dans la zone suggérait que les communautés de poissons-lanternes changent complètement à peu près au niveau de la zone des archipels de Crozet et de Kerguelen, dans le sud de l’océan Indien.
À cet endroit, il se trouve que les fronts océaniques sont particulièrement resserrés. Ces fronts correspondent à des changements brutaux de conditions de l’eau, notamment de température. Plusieurs ont été mis en évidence tout autour de l’océan Austral, dont le front subtropical et le front subantarctique.
On savait également que la température jouait un rôle important pour ces espèces, mais sans avoir de vision sur la répartition des communautés. Ces éléments nous ont amenés à tester une hypothèse qui existe depuis longtemps en écologie, mais qui n’avait jamais été démontrée auparavant. Se pourrait-il que le climat agisse comme une barrière à laquelle toutes les espèces réagissent de la même manière, séparant ainsi les communautés de poissons-lanternes ?
En étudiant la répartition géographique de toutes les espèces de poissons-lanternes du sud de l’hémisphère Sud, nous avons montré qu’elles s’organisent en deux grandes régions biogéographiques très différentes :
d’une part, une communauté australe composée de 19 espèces se regroupe tout autour du continent antarctique ;
et, d’autre part, plus au nord, une communauté subtropicale comprend 73 espèces.
Mais entre ces deux régions, aucune barrière physique ni continent. Nous avons alors testé avec des modèles statistiques l’ensemble des variations de l’océan dans la zone : température, salinité, composition chimique, etc.
Parmi tous ces facteurs, il apparaît que la température ressort, sans équivoque, comme la principale force qui sépare ces deux communautés. Ce qui est nouveau ici, c’est la découverte que toutes les espèces répondent de la même manière à la température : les espèces australes ne s’aventurent pas dans des eaux au-dessus de 8 °C, tandis que les espèces subtropicales ne s’aventurent pas dans celles en dessous de 8 °C.
Ainsi, la température forme une barrière climatique nette, peu perméable, séparant les deux communautés de poissons-lanternes. De l’équateur au pôle, la température de l’océan devient de plus en plus froide, et c’est précisément autour de 8 °C que nous avons mis en évidence cette barrière. C’est d’ailleurs la température que l’on retrouve entre les fronts subtropical et subantarctique.
Ce qui est très intéressant, c’est que, en cherchant à comprendre les mécanismes physiologiques qui expliquent cette séparation, nous avons découvert qu’une hypothèse sur un seuil physiologique à 8 °C avait été proposée en 2002, et que nos travaux viennent la corroborer.
Survivre en dessous de ce seuil nécessite des adaptations au froid, qui ont un coût : ne pas pouvoir survivre à la moindre élévation de température. Les espèces polaires ont ainsi un métabolisme adapté aux conditions extrêmes, mais qui, en retour, les rend incapables de supporter des eaux plus chaudes.
Avec le changement climatique, l’océan se réchauffe de façon globale, ce qui va induire un déplacement de cette barrière vers le pôle Sud. Les poissons-lanternes subtropicaux vont avoir accès à de nouvelles zones, qui auparavant étaient trop froides, et vont ainsi étendre leur aire de répartition vers le sud. Cependant, pour la communauté australe, ces zones vont devenir trop chaudes, et les espèces vont devoir se replier vers le pôle pour rester à des températures suffisamment basses.
Le problème, c’est que, de l’autre côté, se trouve l’Antarctique, qui forme ainsi un véritable cul-de-sac… Piégée par le continent, la communauté australe verra son habitat se réduire drastiquement.
En appliquant des modèles climatiques en fonction des scénarios d’émissions de gaz à effet de serre établis par le Groupement d’experts intergouvernemental sur l’évolution du climat (Giec), nous pouvons projeter la magnitude probable de ces changements. D’après ces scénarios, d’ici 2100, les poissons-lanternes de la région australe pourraient perdre 11 millions de kilomètres carrés (km2) de surface habitable, soit 23 % de leur habitat actuel. Pour donner un ordre de grandeur, cela représente l’équivalent de 80 % de la superficie de l’Antarctique !
Pourquoi ces résultats sont-ils inquiétants ? D’une part, ils indiquent que le changement climatique représente une menace directe pour les poissons-lanternes de l’océan Austral. D’autre part, les poissons-lanternes occupent une position clé dans la chaîne alimentaire : ce sont à la fois des prédateurs du krill, mais aussi des proies des grands prédateurs marins, comme les manchots ou les éléphants de mer.
Comment les déplacements des poissons-lanternes vont-ils affecter leurs proies ou leurs prédateurs ? Par exemple, pour certains prédateurs marins qui se reproduisent sur des îles comme les Crozet ou les Kerguelen, devront-ils nager plus loin pour se nourrir ? Pourront-ils se rabattre sur d’autres espèces ? Il est extrêmement difficile de répondre à ces questions, d’autant plus que ces autres membres de la chaîne alimentaire seront également affectés par le changement climatique, à des rythmes différents suivant la physiologie et l’écologie des espèces.
Alors comment, face aux changements climatiques et à l’incertitude qui en découle, peut-on concrètement aider ces écosystèmes fragiles à s’adapter aux changements climatiques ? La première étape est de s’assurer que les espèces qui les composent sont en bonne santé et ne sont pas déjà menacées de disparition. Pour cela, il faut réduire au maximum les menaces sur lesquelles nous pouvons agir, telles que la surpêche et la destruction de leurs habitats.
Une solution efficace est de créer des aires marines protégées qui préservent réellement les écosystèmes marins des méthodes de pêche destructrices, ce qui n’est malheureusement pas le cas pour beaucoup d’entre elles actuellement.
Ces zones sont cruciales pour permettre aux espèces de se rétablir et de devenir plus résistantes. Pour être efficaces face aux changements climatiques, ces aires protégées doivent être variées. Il est important de protéger des zones qui resteront relativement stables malgré le changement climatique, qui serviront de refuges, de même qu’il est aussi essentiel de protéger les zones qui seront plus touchées, afin de permettre à leurs espèces et écosystèmes d’être en bonne santé pour s’adapter aux bouleversements qui s’amorcent.
En d’autres termes, un bon réseau d’aires protégées doit représenter toute la diversité des conditions actuelles et futures. Dans le cas de nos poissons-lanternes, cela signifie qu’il faut protéger des zones où vivent les espèces d’eau chaude, d’autres pour celles vivant en eau froide, mais aussi, et surtout, la zone de transition entre les deux communautés, où les espèces se rencontrent, car, c’est là que les changements seront les plus importants.
Nos travaux, en prédisant où ces zones pourraient être localisées, servent ainsi de support aux prises de décision sur la localisation des aires protégées, comme celles menées au sein de la Commission pour la conservation de la faune et la flore marines de l’Antarctique (CCAMLR).
Cam Ly Rintz a bénéficié d'une aide de l'État gérée par l’Agence Nationale de la Recherche au titre de France 2030 portant la référence ANR-22-POCE-0001, dans le cadre du PPR Océan & Climat conjointement animé par le CNRS et l’Ifremer.
Boris Leroy est financé par l'état en tant qu'enseignant-chercheur fonctionnaire.
19.08.2025 à 15:50
Naomi S. Baron, Professor Emerita of Linguistics, American University
Le fait de pouvoir tourner les pages d’un livre ou de tracer au crayon les contours des lettres donne des appuis aux élèves dans l’apprentissage de la lecture et de l’écriture. Dans un monde d’outils numériques, pourquoi préserver cette importance du toucher ?
Lorsque les enfants entrent à l’école, l’une des techniques les plus courantes pour leur enseigner l’alphabet consiste à passer par des manipulations pratiques, comme la formation de lettres avec de l’argile ou de la pâte à modeler.
Mais à mesure que les élèves avancent en âge, la place du toucher diminue dans leur quotidien scolaire – à leur détriment. Beaucoup d’exercices de lecture deviennent numériques, et l’utilisation des claviers d’ordinateur pour écrire continue de progresser, d’autant que les outils d’intelligence artificielle (IA) sont très attractifs en matière d’édition et de composition.
Je suis linguiste et j’étudie les différences entre la lecture sur papier et la lecture numérique et la manière dont l’écriture favorise la réflexion. Avec ma collègue Anne Mangen, nous avons interrogé plus de 500 élèves du secondaire inscrits dans une école internationale d’Amsterdam (Pays-Bas) sur leurs expériences de lecture de textes imprimés par rapport celle des textes numériques. Par ailleurs, j’ai interrogé 100 étudiants et jeunes adultes aux États-Unis et en Europe sur leurs préférences en matière d’écriture manuscrite comparée à la saisie sur clavier.
Rassemblées, les réponses de ces deux études démontrent que les adolescents et les jeunes adultes continuent d’accorder de l’importance au contact physique dans leur rapport à l’écrit ; elles sont riches d’enseignements importants pour les éducateurs et les parents.
Lorsqu’on leur a demandé ce qu’ils aimaient le plus dans la lecture sur papier ou l’écriture à la main, les étudiants ont manifesté leur enthousiasme sur l’importance du toucher. Ce qui m’a surpris, c’est à quel point leurs perceptions à ce sujet concordaient dans les deux études.
Tenir un livre ou un instrument d’écriture entre leurs mains était important pour les élèves, c’est ce que montrent des observations comme :
« On a vraiment l’impression de lire parce que le livre est entre nos mains. »
ou
« J’aime tenir un stylo et sentir le papier sous mes mains, pouvoir former physiquement des mots. »
Les participants à l’étude ont également commenté l’interaction entre le toucher et le mouvement. En ce qui concerne la lecture, l’un d’eux a parlé de
« la sensation de tourner chaque page et d’anticiper ce qui va se passer ensuite ».
À propos de l’écriture manuscrite, un participant a décrit
« le fait de sentir les mots glisser sur la page ».
De nombreux étudiants ont également fait part d’avantages cognitifs. Une multitude de répondants ont évoqué la concentration, le sentiment d’immersion dans un texte ou la mémoire. En ce qui concerne la lecture imprimée, un étudiant a déclaré : « Je la prends plus au sérieux parce que je l’ai physiquement entre les mains. » Pour l’écriture, une réponse disait : « Je peux voir ce que je pense. »
Il y avait également des réflexions d’ordre psychologique. Des élèves ont ainsi écrit : « La sensation d’un livre entre mes mains est très agréable » ou :
« La satisfaction d’avoir rempli toute une page à la main, c’est comme si j’avais gravi une montagne. »
D’autres commentaires ont souligné à quel point le toucher permettait aux élèves de se sentir plus personnellement connectés à l’acte de lire et d’écrire. À propos de la lecture, l’un d’eux a déclaré :
« C’est plus personnel parce que c’est entre vos mains. »
À propos de l’écriture manuscrite, un autre a déclaré :
« Je me sens plus attaché au contenu que je produis. »
Un certain nombre de répondants ont écrit que lire des livres physiques et écrire à la main leur semblait en quelque sorte plus « réel » que d’utiliser leurs équivalents numériques. Un étudiant a commenté « le caractère réel du livre ». Un autre a déclaré que « cela semble plus réel que d’écrire sur un ordinateur, les mots semblent avoir plus de sens ».
Nous avons demandé aux participants ce qu’ils appréciaient le plus dans la lecture numérique et dans l’écriture sur un clavier d’ordinateur. Sur plus de 600 réponses, une seule mentionnait le rôle du toucher dans ce qu’ils appréciaient le plus dans l’utilisation de ces technologies pour lire et écrire. Pour la lecture, les étudiants ont salué la commodité et l’accès à Internet. Pour l’écriture, la plus grande rapidité et le fait de pouvoir accéder à Internet étaient des réponses fréquentes.
Ce que les élèves nous disent de l’importance du toucher reflète les conclusions de la recherche : ce sens est un moyen efficace de développer les compétences précoces en lecture et en écriture, ainsi qu’une aide pour les lecteurs et les personnes qui écrivent plus expérimentés dans leurs interactions avec l’écrit.
Les psychologues et les spécialistes de la lecture continuent de faire état d’une meilleure compréhension chez les enfants et les jeunes adultes lorsqu’ils lisent sur papier plutôt que sur support numérique, tant pour les lectures scolaires que pour la lecture de loisir. Pour les personnes qui écrivent chevronnées, les données suggèrent que passer plus de temps à écrire à la main qu’à utiliser un clavier d’ordinateur est corrélé à de meilleures capacités motrices fines.
Une récente étude menée en Norvège à l’université a comparé les images cérébrales d’étudiants prenant des notes et a révélé que ceux qui écrivaient à la main, plutôt que de taper au clavier, présentaient une plus grande activité électrique dans les parties du cerveau qui traitent les nouvelles informations et qui favorisent la formation de la mémoire.
Le défi pour les enseignants et les parents consiste à trouver comment intégrer le toucher dans les activités de lecture et d’écriture dans un monde qui dépend tellement des outils numériques.
Voici trois suggestions pour résoudre ce paradoxe.
Les parents et les enseignants peuvent commencer par écouter les élèves eux-mêmes. Malgré tout le temps qu’ils passent sur leurs appareils numériques, de nombreux jeunes reconnaissent clairement l’importance du toucher dans leur expérience de lecture et d’écriture. Élargissez la conversation en discutant ensemble des différences entre la lecture et l’écriture numériques et manuelles.
Ensuite, les parents peuvent trouver des occasions pour leurs enfants de lire des textes imprimés et d’écrire à la main en dehors de l’école, par exemple en les emmenant à la bibliothèque et en les encourageant à écrire une histoire ou à tenir un journal. Mieux encore, les adultes peuvent montrer l’exemple en adoptant eux-mêmes ces pratiques dans leur vie quotidienne.
Enfin, les enseignants doivent accorder davantage de place à la lecture d’imprimés et aux devoirs manuscrits. Certains se penchent déjà sur les avantages intrinsèques de l’écriture manuscrite, notamment comme aide à la mémoire et comme outil de réflexion, deux qualités mentionnées par les participants de notre enquête.
Les supports de lecture numériques et les claviers continueront à être utilisés dans les écoles et les foyers. Mais cette réalité ne doit pas occulter le pouvoir du toucher.
Naomi S. Baron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.08.2025 à 15:47
Hassen Raïs, Professeur de Finance, EDC Paris Business School
Du 13 au 24 juin 2025, un conflit militaire direct a opposé Israël à l’Iran. Comment les marchés boursiers ont-ils réagi ? Les traders ont-ils spéculé sur cette tendance ? Pour répondre à ces questions, nous avons étudié la volatilité (c’est-à-dire, l’amplitude des hausses et des baisses) des cours du pétrole et de l’or.
Le conflit militaire direct entre Israël et l’Iran déclenché le 13 juin 2025, appelé la « guerre de 12 jours », a opposé deux puissances régionales au cœur d’un espace stratégique déterminant pour les flux mondiaux d’énergie. Il concerne, en particulier, le détroit d’Ormuz, artère vitale pour les exportations de pétrole, avec une crainte du bouleversement des dynamiques économiques globales, notamment à travers la flambée et la volatilité des prix des matières premières.
Cet article se propose d’analyser l’impact de la volatilité (l’amplitude des hausses et des baisses) des marchés boursiers sur les matières premières durant cette période.
Les mouvements des prix des indicateurs de volatilités (VIX) suggèrent, dans les premiers jours de la « guerre de 12 jours », une situation de backwardation. Comme le marché de l’or et du pétrole présente une offre inférieure à la demande, leur cours s’avère inférieur à celui de l’instant présent. Concrètement, ce différentiel de prix sur les échéances des contrats, entre court et long terme, a encouragé une plus grande spéculation par les traders.
L’Autorité des marchés financiers (AMF) a recensé en France 5,2 millions de transactions sur des fonds cotés sur indices en 2024 (Exchange Traded Funds ou ETF), après 2,8 millions en 2023. Les matières premières et, en particulier, les contrats à (long) terme sur les matières premières, servent désormais : de couvertures potentielles contre les pressions inflationnistes, de composantes de portefeuille pour des opportunités de diversification et, potentiellement, de substituts monétaires en cas de turbulences économiques.
Dès les premières frappes échangées, les marchés pétroliers ont réagi avec une nervosité extrême. Le 13 juin 2025, le pétrole brut Brent a enregistré une hausse de 8,28 %, atteignant 75,10 dollars le baril et le cours du pétrole brut West Texas Intermediate (WTI) a grimpé de 8,8 %, atteignant presque 74 dollars.
Ces hausses s’expliquent par la crainte d’un blocage du détroit d’Ormuz par lequel transite environ 20 % du pétrole mondial. La structure oligopolistique du marché pétrolier, dominée par quelques grands exportateurs, le rend particulièrement sensible aux perturbations géopolitiques.
Ces inquiétudes ont incité les opérateurs financiers à spéculer massivement à la hausse sur les contrats à terme (les futures), accentuant la volatilité des cours.
On distingue deux volatilités sur les marchés financiers : la volatilité historique indique la volatilité d’un titre pour une période passée, et la volatilité implicite, ou perception du risque, correspond à la volatilité anticipée par le marché. On mesure la volatilité implicite par l’indice VIX, qui correspond à la valeur d’un panier d’options à court terme sur le S&P500. Cet indice boursier est basé sur 500 grandes sociétés cotées aux États-Unis.
À lire aussi : En 2025, l’or est-il encore l’ultime placement refuge ?
La recherche académique nous fournit beaucoup d’articles sur la relation entre la volatilité des marchés et les prix des matières premières. L’une souligne la distinction entre l’or comme valeur refuge. Par exemple, l’or est une valeur refuge pendant les trois crises financières de 1987, de 1997 et de 2008. Le précieux minerai est utilisé comme une couverture, car ses rendements sont positifs (en moyenne) lorsque les rendements des actifs financiers (actions ou obligations) sont négatifs.
D’autres chercheurs identifient l’or comme une valeur refuge pendant les périodes de détresse du marché, avec une faible corrélation avec le dollar et les actions. L’or a une relation négative et significative avec les actions dans les marchés baissiers, mais pas dans les marchés haussiers, parce que l’or est toujours considéré comme une valeur refuge. Autrement dit, on achète moins d’or quand les marchés sont florissants, beaucoup quand ils sont en berne. C’est pourquoi certains chercheurs utilisent le VIX comme indicateur des perceptions mondiales du risque.
Le VIX et le pétrole étant négativement corrélés, une augmentation de la crainte sur les marchés financiers induit une réduction de la demande sur les marchés de l’énergie. L’indicateur de volatilité du marché financier états-unien VIX, appelé indice de la peur, exprime et mesure la volatilité implicite ou la volatilité anticipée des marchés financiers. Il a, empiriquement, un effet économiquement significatif à long terme sur plusieurs matières premières comme le pétrole et l’or.
Dans le cadre de cet article, nous analysons les relations entre la perception du risque globale et les matières premières. Nous utilisons pour cela les données de la veille, ou intra-journalières, durant la période de la « guerre de 12 jours ».
La perception du risque ou la volatilité implicite est mesurée par l’indice boursier états-unien VIX. Concernant les matières premières, nous nous concentrons sur les prix du pétrole et de l’or.
Le prix du pétrole est mesuré sur deux indices : le Brent – référence de prix pour le pétrole d’Europe, d’Afrique et du Moyen-Orient – et le WTI – référence de prix pour le pétrole auprès du New York Mercantile Exchange.
Notre modèle économétrique sur les données de cette période montre que l’amplitude des hausses et des baisses du cours boursier VIX est de 60 % plus élevée que celle des matières premières.
Les études empiriques montrent que les rendements des contrats à (long) terme sur les matières premières sont influencés par la perception du risque (volatilité implicite). Concrètement, le cours de l’or augmente lorsqu’il y a cette perception. Cette tendance confirme l’idée que les investisseurs perçoivent toujours l’or comme une valeur refuge, à acheter en prévision d’un accroissement de la volatilité accrue des marchés.
Le pétrole, quant à lui, présente une corrélation négative avec la perception du risque. Le cours du pétrole baisse lorsqu’il y a cette volatilité implicite. Ces résultats sont conformes aux analyses des études précédentes. Le Brent, qui est le standard du pétrole du Moyen-Orient, présente une plus grande corrélation (négative) durant cette période que le WTI. La crainte de la fermeture du détroit d’Ormuz est davantage ressentie.
Pour compléter notre analyse, notre modèle intègre, dans un deuxième temps, l’indicateur de volatilité du marché financier états-unien établi quotidiennement par le Chicago Board Options Exchange, le VXX. Si le VIX est un indice mesurant la volatilité attendue du marché, le VXX est un titre négocié en bourse qui suit les contrats à (long) terme sur le VIX. Le VXX est un fonds négocié en bourse, qui utilise un portefeuille de contrats à court terme sur l’indice S&P500-VIX.
Les titres VXX peuvent être achetés ou vendus, comme des actions. Le VXX est couramment utilisé comme couverture contre la volatilité du marché. En détenant des positions longues ou acheteuses sur le marché, on peut acheter des options ou des contrats à terme pour se protéger contre une baisse soudaine du marché, durant la période d’étude.
Pendant les périodes de forte volatilité, elles peuvent atteindre un pic, offrant aux traders la possibilité de profiter des mouvements de prix à court terme et des opportunités de trading spéculatif. On observe une augmentation du VXX du 12 au 13 juin 2024, qui passe de 51 à 55. Ce mouvement indique une potentielle spéculation sur la peur.
Nous confirmons que le conflit militaire exacerbe la volatilité et un comportement spéculatif accru de la part des intervenants sur les marchés. Ce comportement en période de conflit mérite davantage d’attention de la part de la recherche académique.
Heureusement pour tous, la guerre a pris fin le 24 juin.
Hassen Raïs ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.08.2025 à 11:56
François Langot, Professeur d'économie, Directeur adjoint de l'i-MIP (PSE-CEPREMAP), Le Mans Université
Jacques Chirac, Nicolas Sarkozy, François Hollande puis Emmanuel Macron ont été confrontés à la problématique de la dette et de ses intérêts. Comment la conjoncture économique (inflation et croissance) agissent sur cette dette ? Qui a bénéficié d’une bonne ou d’une mauvaise conjoncture ?
La dette n’a cessé de croître au cours de ces trente dernières années. Elle est la somme de tous les déficits publics accumulés depuis le milieu des années 1970. Afin de comparer le montant de cette dette à une capacité de financement, elle est exprimée en pourcentage du produit intérieur brut (PIB) – ratio dette/PIB, ce qui indique combien d’années de création de richesses (le PIB) sont nécessaires à son remboursement.
Sous Jacques Chirac, elle est passée de 663,5 milliards d’euros à 1 211,4 milliards d’euros, soit de 55,5 % à 64,1 % du PIB. Sous Nicolas Sarkozy, à 1 833,8 milliards d’euros, soit à 90,2 % du PIB. Sous Hollande, à 2 258,7 milliards d’euros, soit 98,4 % du PIB.
À la fin du premier trimestre 2025, la dette de la France représente 3 345,4 milliards d’euros, soit 113,9 % du PIB. Si cet endettement résulte évidemment de choix politiques, déterminant les recettes et les dépenses du pays, il dépend également de la conjoncture économique… qui peut plus ou moins faciliter la gestion de cette dette.
Crise des subprimes en 2008, pandémie de Covid-19, zone euro en récession, bulle Internet, embellie des années 2000, les gouvernements de Jacques Chirac, Nicolas Sarkozy, François Hollande et Emmanuel Macron ont connu des conjonctures économiques aussi assombries que radieuses. Avec quels arbitrages ? Explication en graphiques.
La conjoncture économique peut être analysée à travers deux paramètres, qui sont tous les deux des taux : le taux d’intérêt (r), fixé par la Banque centrale européenne (BCE) et qui détermine la charge d’intérêt à payer sur la dette, et les taux de croissance (g comme growth) qui mesurent l’accroissement annuel de richesses créées (le PIB). La conjoncture économique est à l’origine de deux effets :
Un premier effet est défavorable aux finances publiques. Il se produit lorsque la conjoncture conduit le taux d’intérêt (r) à être supérieur au taux de croissance (g), soit r-g > 0. Dans ce contexte, le surplus de richesse créée induit par la croissance est inférieur aux intérêts à payer sur la dette. De facto, la dette croît, même si les choix politiques conduisent les recettes de l’État à financer ses dépenses (hors charges des intérêts de cette dette), c’est-à-dire si le déficit primaire est nul.
À lire aussi : « La crise politique est plus inquiétante pour l’économie française que la crise budgétaire seule »
Le schéma (Figure 1) indique que cette conjoncture défavorable s’est produite sous le mandat de Jacques Chirac. En cette période, la somme des déficits primaires, soit les dépenses de l’État hors charge de la dette, et les recettes, est quasiment stable (courbe bleue). La dette est en hausse à cause d’intérêts élevés (r entre 2,5 % et 5 %), conjugués avec une croissance modérée (g est autour de 4 %) qui font croître cet endettement (courbe rouge).
Un deuxième effet est favorable aux finances publiques. Si le taux d’intérêt réel est inférieur au taux de croissance (r-g < 0), alors la dette (ratio dette/PIB) peut être stabilisée, même si les dépenses, hors charges des intérêts, sont supérieures aux recettes, c’est-à-dire même si les choix politiques induisent un déficit primaire. En effet, dans ce cas, l’accroissement annuel de la richesse créée (la croissance du PIB) est supérieure à la charge des intérêts.
Le schéma (Figure 1) indique qu’une telle conjoncture s’est produite sous les mandats d’Emmanuel Macron. Pendant cette période, la somme des déficits primaires a fortement crû (courbe bleue) : les choix politiques ont conduit les dépenses de l’État (hors charges des intérêts sur la dette) à être supérieures à ses recettes. Toutefois, la dette a augmenté plus faiblement (courbe rouge), car les taux d’intérêts sont restés plus faibles que la croissance (moins de 2 % pour les taux d’intérêt, r, contre plus de 2,5 % pour la croissance, g).
L’histoire récente classe en deux groupes les mandats présidentiels. Celui où une « mauvaise » conjoncture explique majoritairement la hausse de la dette (ratio dette/PIB) – dans la figure 1, la courbe rouge croît davantage que la courbe bleue. Celui où les déficits primaires contribuent majoritairement à sa hausse – dans la figure 1, la courbe bleue croît davantage que la courbe rouge.
Le premier regroupe les mandats de Jacques Chirac et Nicolas Sarkozy. Le second, ceux de François Hollande et d’Emmanuel Macron.
Les données montrent que sous les deux mandats de Jacques Chirac (1995-2007), le ratio dette/PIB a augmenté de 8,99 points (0,75 point par an). Cette augmentation est due à une « mauvaise » conjoncture pour les finances publiques (effet de r-g > 0) qui a fait croître le ratio dette/PIB de 10,07 points, la dynamique des déficits primaires ayant contribué à le réduire de 1,08 point. Pendant cette période, les taux d’intérêt sur la dette publique étaient très élevés – entre 4 et 6 %.
Sous le mandat de Nicolas Sarkozy (2007-2012), le ratio dette/PIB a crû de 22,76 points (4,55 points par an), dont 11,01 points induits par les déficits primaires, soit 48 % de la hausse totale, et 11,75 points à la conjoncture (52 % du total). Les taux d’intérêt ont continué à être élevés – entre 3 et 4 %. Les déficits primaires importants ont suivi les choix politiques visant à amortir la crise des subprimes.
A contrario, pendant le mandat de François Hollande, c’est la hausse des déficits primaires qui expliquent à 71,5 % de la hausse totale du ratio dette/PIB (9,13 points parmi les 12,74 points de hausse totale, soit 2,55 points par année). Les taux d’intérêt ont continué à baisser, passant de 3 % à moins de 2 %, alors que les déficits primaires n’ont pas été contrôlés, même si les crises des subprimes puis des dettes souveraines étaient passées.
Les mandats d’Emmanuel Macron, jusqu’en 2024, accentuent encore le trait. La dette n’a augmenté que de 10,8 points (1,35 point par an), car la conjoncture l’a fait baisser de 15,31 points, les taux d’intérêt devenant très faibles, passant sous les 1 % en 2020. La hausse de la dette s’explique uniquement par la très forte hausse des déficits primaires qui l’ont fait croître de 26,11 points, pendant une période où la pandémie de Covid-19 et la crise de l’énergie ont conduit l’État à assurer les Français contre de trop forte baisses de pouvoir d’achat.
À lire aussi : Quand commence un krach boursier ? Et qu’appelle-t-on ainsi ?
La période future, allant de 2025-2029, se classe dans la seconde configuration où la conjoncture facilitera de moins en moins la gestion de la dette publique (r-g < 0). Même avec un objectif politique de maîtrise de l’endettement, la réduction des déficits primaires pourra alors se faire graduellement. Toutefois, avec ces déficits qui continueront à peser sur la dette, la conjoncture facilitera de moins en moins la gestion de la dette publique, car la croissance compensera de moins en moins un taux d’intérêt en hausse.
Le budget présenté par François Bayrou, le 25 juillet dernier, fera croître le ratio dette/PIB de 4,6 points (0,92 point par an), dans un contexte où la conjoncture le réduira de 1,7 point. Les déficits primaires l’augmenteront donc de 6,3 points. Dans ce contexte, l’effort budgétaire proposé par le gouvernement Bayrou permettra de stabiliser le ratio dette/PIB autour de 117 %, certes loin de la stabilisation autour de 60 % des mandats de Jacques Chirac…
L’évolution du déficit primaire (écart entre les dépenses, hors charges d’intérêt, et les recettes) indique que sur les vingt-neuf dernières années, il y a eu dix années où il s’est accru. Trois hausses majeures se dégagent : en 2002, de 1,82 point avec le krach boursier, en 2009 de 4,2 points, avec la crise des subprimes et, en 2020, de 6,1 points, avec la pandémie de Covid-19.
En 2002, la hausse du déficit était partagée avec 1,1 point lié aux hausses des dépenses et 0,72 point aux réductions des recettes. Les fortes hausses de 2008 et de 2020 sont majoritairement dues à des hausses de dépenses : 95 % des 4,2 points de 2009 et 97 % des 6,1 points de 2020. Afin de contenir la dette, les recettes ont fini par augmenter après les crises, entre 2004 et 2006, puis entre 2011 et 2013 et, enfin, entre 2021 et 2022. Mais il n’y a jamais eu de réduction des dépenses ni après 2011 ni après 2023.
C’est donc leur persistance à un niveau élevé qui explique l’accroissement du ratio dette/PIB. Seule la période très récente (en 2023) avec la crise ukrainienne a conduit l’État à réduire les recettes afin de préserver le pouvoir d’achat dans un contexte de forte inflation.
Le plan du gouvernement Bayrou, en faisant peser les trois quarts de l’ajustement sur les dépenses, propose de reprendre le contrôle des dépenses publiques afin qu’elles représentent 54,4 % du PIB en 2029 – ce que l’on observait avant la crise de 2007. Au-delà de stabiliser le ratio dette/PIB, ce choix politique permet aussi d’envisager la possibilité de gérer une éventuelle crise future. La question qui se pose alors est : quels postes de dépenses réduire en priorité ?
Les postes de dépenses qui ont crû depuis 1995 sont ceux liés à l’environnement (+0,8 point de PIB), à la santé (+3,2 points de PIB), aux loisirs, à la culture et au culte (+0,6 point de PIB) et à la protection sociale (+1,3 point de PIB). Ceux qui ont baissé sont ceux liés aux services généraux des administrations publiques (-4,1 points de PIB), à la défense (-1,1 point de PIB) et à l’enseignement (-1,5 points de PIB). À l’avenir, un budget réallouant les dépenses en faveur de la défense et l’enseignement via un meilleur contrôle des dépenses de santé et de protection sociale devra donc être perçu comme un simple rééquilibrage.
François Langot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.08.2025 à 18:13
Stéphane Puissant, Cicadologue au Muséum d'Histoire naturelle de Dijon, Muséum national d’histoire naturelle (MNHN)
Profession : cicadologue. Stéphane Puissant est un biologiste qui étudie les cigales. Son objet d’étude l’amène à sillonner la planète, du Maghreb à l’Afrique de l’Ouest en passant par Madagascar. Échanger avec lui, c’est découvrir combien nous connaissons mal ces insectes. C’est aussi apprendre, par exemple, que certaines espèces peuvent vivre plus de vingt ans, que certains mâles restent silencieux, que l’essentiel de la vie d’une cigale se passe sous terre et bien d’autres choses encore.
The Conversation : Les cigales nous semblent familières, car nous sommes nombreux à les entendre l’été, mais d’un point de vue scientifique, sont-elles très étudiées ?
Stéphane Puissant : Les cigales peuvent sembler effectivement familières, car on en trouve partout sur la planète, à l’exception des pôles. Mais l’oreille humaine, qui perçoit les fréquences autour de 2 000 hertz n’est pas du tout capable d’entendre toutes les cigales. Ce seront surtout les grandes cigales que l’on pourra écouter, comme Cicada orni, Lyristes plebejus, deux espèces que tous ceux qui sont allés un jour dans le midi de la France, l’été, ont pu entendre.
Mais la majorité des cigales à travers le monde sont en réalité plus petites. Elles émettent donc des sons de fréquences plus hautes ou même des ultrasons pour les plus petites espèces. On va donc bien moins les entendre, voire pas du tout, surtout quand on a passé la quarantaine, comme c’est mon cas et que notre ouïe est moins performante. Il faut alors avoir des appareils détecteurs d’ultrasons pour les repérer et les identifier grâce à leur cymbalisation.
Je dis cymbalisation, car, contrairement à ce qui est souvent dit, les mâles cigales ne chantent pas, ils cymbalisent, en utilisant pour cela leurs organes appelés « cymbales », uniquement consacrés à la production de sons, qui peuvent être parfois très forts. Ainsi, certaines cigales australiennes font plus de bruit qu’un avion à réaction au décollage, soit parfois plus de 145 décibels !
Ces sons, chez toutes les espèces, ont pour fonction d’attirer les femelles. Ils peuvent également être produits chez certaines espèces pendant l’accouplement. Mais qu’on entende ces bruits à l’oreille ou à l’aide d’appareils, ils ne sont émis que durant une courte période de la vie de l’animal. Durant l’immense majorité de leur existence, les cigales sont invisibles et inaudibles pour celui qui veut l’observer.
Où sont-elles, alors ?
S. P. : Sous terre ! C’est là qu’elles passent l’essentiel de leur vie. Cela étonne souvent les gens, qui les associent au soleil. Mais les jeunes cigales restent sous terre où elles se nourrissent de la sève des racines des plantes. Elles y passent un an, deux ans pour les espèces de petites tailles. Pour les grandes espèces emblématiques du sud de la France, comme Cicada orni, ce sera quatre ans, cinq ans en moyenne, mais cela peut fluctuer entre deux ans et dix ans.
Il y a aussi les cas célèbres des cigales périodiques du genre Magicicada, qu’on trouve en Amérique du Nord et qui passent typiquement treize ans ou dix-sept ans sous terre, mais parfois aussi plus de vingt ans pour certaines populations.
Toujours aux États-Unis, mais plutôt dans la moitié sud du pays cette fois, Okanagana synodica est une cigale également capable de passer une vingtaine d’années sous terre.
Après ces années passées sous terre, que ce soit deux ans ou vingt de plus, les cigales finissent par sortir pour se reproduire. C’est là qu’on peut donc les voir et les entendre, mais pour une très courte période de temps au regard de leurs années souterraines, car la durée de vie d’un spécimen n’est alors plus que d’une semaine ou deux, à la suite de quoi, les cigales, mâles et femelles, meurent. La femelle, juste avant, aura pondu des œufs sur les végétaux environnants. Ces œufs une fois éclos, les jeunes cigales se laisseront tomber à terre où elles s’enfonceront dans le sol, et où un nouveau cycle recommencera.
Tout cela pour dire que, si la cigale naît et meurt dans les arbres, elle passera l’essentiel de sa vie sous terre, ce qui fait qu’elle reste très difficile à observer, surtout pour certaines espèces qui ne sont visibles que deux à trois semaines dans l’année. Il faut donc bien les connaître et être réactif pour les étudier.
Quand on est cicadologue, est-il fréquent de découvrir aussi de nouvelles espèces ?
S. P. : Je pense qu’il doit y avoir peut-être trois à cinq fois plus de cigales dans le monde que celles qu’on connaît actuellement, même si cela reste difficile à évaluer.
Lorsque nous prospectons, en tant que spécialistes, il n’est pas si rare que cela de trouver de nouvelles espèces pour la science, surtout lorsque nous menons des recherches de terrain dans des zones qui n’ont encore jamais été prospectées par un spécialiste du groupe. Ça peut paraître excitant, mais parfois cela devient éprouvant. On déblaie sans cesse dans le champ de l’inconnu. On pense avoir gravi une montagne et puis, quand on est au sommet, on découvre une nouvelle chaîne de monts derrière, puis encore une autre… Cela montre finalement à quel point la vie sur terre reste méconnue, il reste tant à découvrir !
Je reviens ainsi cet été d’une mission dans le nord-ouest de l’Espagne avec un collègue suisse et un autre collègue français, spécialistes du genre Cicadetta, qui sont des petites cigales. Nous sommes partis une quinzaine de jours et tous les deux ou trois jours, de nouvelles découvertes apportaient leur lot de surprises.
Les espèces de Cicadetta sont généralement des cigales de moins de deux centimètres, qui émettent des fréquences parfois à la limite des ultrasons, qui sont très farouches et sont souvent endémiques à la région où on les trouve.
Du coup, comment fait-on pour les trouver et les étudier ?
S. P. : Lors de cette mission en Espagne, j’ai notamment utilisé une technique qui m’a été apprise par des collègues néo-zélandais et australiens pour entrer en communication avec l’animal et l’amener à se rapprocher. Car ces cigales peuvent parfois se trouver à plus de 10 mètres ou 15 mètres au sommet des arbres.
Imaginez donc, une cigale à peine plus grosse qu’une mouche, farouche, très mobile et qui émet une cymbalisation à la limite des ultrasons au sommet des arbres ! L’observer et l’enregistrer s’avère presque mission impossible, il faut a minima des outils et certaines techniques pour cela. Une de ces techniques, donc, c’est le snapping ou « claquement de doigts », en français.
Cela permet d’imiter le battement d’ailes que font théoriquement les femelles dans ce groupe de cigales. Par ce procédé, elles indiquent aux mâles là où elles se situent. Quand on trouve le rythme que feraient ces femelles en réponse aux émissions sonores des mâles, généralement en claquant des doigts au moment qui semble être accentué dans la cymbalisation du mâle, on va pouvoir amener ces derniers à se rapprocher de nous. Pour cela, bien sûr, il faut entendre les mâles et ceci n’est possible que si l’on est équipé de détecteurs d’ultrasons avec amplificateur.
C’est comme cela qu’on peut réussir à capturer des spécimens qui deviendront des « types » si l’espèce s’avère être nouvelle pour la science. Ces « types » sont des spécimens de référence qui seront déposés dans une collection scientifique d’un Muséum national d’histoire naturelle. Cette démarche scientifique rigoureuse est dictée par le code international de nomenclature zoologique lorsqu’il s’agit de décrire et nommer une nouvelle espèce.
Je sais aussi que vous avez pu décrire une espèce de cigale assez unique, la cigale marteau. Qu’est-ce qui la singularise ?
S. P. : Elle se distingue, car elle a, comme le requin marteau, une tête avec des yeux sur pédoncules assez énigmatiques. On a du mal d’ailleurs à comprendre les causes de cette évolution si singulière.
C’est une cigale relativement petite, moins de deux centimètres, qui est extrêmement mystérieuse, car rarissime et unique par l’aspect de sa tête dans toute la famille des Cicadidae du globe. Ses caractéristiques morphologiques sont tellement singulières que cette espèce constitue à elle seule une tribu nouvelle pour la science que nous avons été amenés à décrire à l’époque avec Michel Boulard, éminent spécialiste mondial des cigales.
Son environnement, dans le sud de la Thaïlande, a été très détruit. On a seulement pu observer quelques individus dans les amples dépendances, non entretenues de longue date, d’un vieux temple bouddhiste. Malgré sa morphologie tout à fait unique, elle est aussi passée inaperçue pendant des siècles, on a du mal à savoir pourquoi.
En France hexagonale, découvre-t-on encore de nouvelles cigales ?
S. P. : Actuellement, il y a 22 cigales différentes connues : 21 espèces recensées, dont deux espèces représentées par des sous-espèces géographiquement délimitées : Tibicina corsica corsica, en Corse, Tibicina corsica fairmairei dans le nord des Pyrénées-Orientales jusque dans le sud de l’Hérault.
Il y a également Cicadetta brevipennis litoralis que j’ai décrite avec un collègue suisse, Thomas Hertach, dans les Pyrénées-Orientales et qui est une cigale d’arrière-dune. Elle se rencontre dans des milieux parfois partiellement inondés, une certaine partie de l’année, qu’on appelle les sansouïres.
Cette sous-espèce du littoral, endémique des Pyrénées-Orientales, est d’ailleurs très menacée, car dépendante d’environnements locaux qui le sont également, par la pression touristique sur le littoral et par tous les bouleversements majeurs de son milieu fragile de reproduction.
Hormis ces sous-espèces récemment décrites, le nombre total d’espèces de cigales en France n’a plus tellement évolué ces dernières années, mais il est possible qu’il y ait encore des espèces inconnues à trouver, notamment dans des zones où les entomologistes spécialistes sont encore peu allés, dans certains massifs montagneux par exemple.
Lorsqu’on pense cigale, on pense immédiatement au sud de la France, mais peut-on en trouver également dans la moitié nord de l’Hexagone ?
S. P. : Bien sûr ! Il y a par exemple Cicadetta montana qu’on rencontre en Bretagne et même plus au nord en Europe, mais il faut avoir l’ouïe fine pour détecter sa présence. En 2007, avec mon confrère Jérôme Sueur, nous avons également pu décrire une nouvelle espèce pour la Science présente en région parisienne, elle aussi difficile à entendre. Nous l’avons d’ailleurs appelée la « cigale fredonnante », car elle émet un son à peine audible, très haché et très court.
Récemment, plusieurs médias locaux français se sont étonnés que l’on entende des cigales dans des régions où l’on ne les aurait pas entendues avant, à Lyon par exemple ou bien en région parisienne, et beaucoup sont tentés d’expliquer cela du fait du changement climatique. Est-ce la réalité ?
S. P. : Pas vraiment, car les cigales ne bougent presque jamais de l’endroit où elles sont nées. Mes collègues scientifiques portugais et espagnols ont étudié les capacités de déplacement des individus de diverses populations de cigales. Ils ont constaté que les capacités de déplacements des individus d’une population étaient très faibles et d’autant plus réduites que les milieux étaient perturbés.
Dans d’autres groupes d’insectes, il y a bien sûr des spécimens qui migrent, et qui, par le déplacement, peuvent nous indiquer qu’ils sont capables de coloniser de nouvelles zones parce que les conditions y sont plus propices, mais ce n’est pas le cas des cigales. Parfois, certains spécimens peuvent profiter des ascendances thermiques en montagne pour gagner des altitudes plus élevées via les courants d’air chaud. Seul l’avenir dira si une population pérenne pourra alors se maintenir.
Alors comment expliquer ces observations dans le nord de la France ?
S. P. : Déjà, il faut se rappeler que les espèces de cigales les plus faciles à entendre passent plusieurs années sous terre avant de sortir, d’être visibles et audibles pour l’humain, et qu’elles vont très vite mourir une fois la reproduction achevée.
Parfois, les gens peuvent donc avoir oublié qu’ils avaient entendu, y a quatre ou cinq ans, des cigales autochtones comme Tibicina haematodes, la cigale rouge. Car, il y a des années où il est possible d’entendre plus de cigales, ceci est intrinsèque au cycle de vie des populations de l’espèce. Certaines années, très peu de spécimens sortiront du sol en un milieu donné alors que, deux ou trois ans plus tard, ils seront nombreux. C’est une dynamique naturelle à l’espèce qui est très nettement influencée par la ressource alimentaire disponible, soit la sève des plantes, et les conditions hygrothermiques de la période de l’année où les jeunes cigales émergent du sol.
Il y a aussi un phénomène plus inquiétant. Certaines personnes dans des régions nord aiment avoir un olivier ou une plante du sud de la France ou d’Espagne en pot chez elles. Dans ces pots, il peut y avoir de jeunes cigales encore sous terre qui, un été, vont se décider à sortir. Cela arrive ainsi avec Cicada orni dans la moitié nord de la France mais aussi avec la présence avérée et sporadique de Cicada barbara en France. C’est une cigale dont l’aire de répartition d’origine s’étend du nord Maghreb jusque dans la moitié sud du domaine ibérique. Sa présence en France n’est donc pas naturelle. Lorsqu’on recherche les causes de sa présence, on peut souvent noter, non loin de l’endroit où se fait entendre l’espèce, la présence d’une serre, d’une pépinière ou encore d’une plantation récente.
En général, ces espèces ne vont pas réussir à s’adapter. C’est ce que j’ai pu observer par exemple avec Cicada orni. Il y a quelques années, j’ai entendu plusieurs mâles cymbalisant dans les grands platanes de mon lieu de travail, au Jardin de l’Arquebuse du Muséum d’Histoire naturelle de Dijon. Je me suis demandé si l’espèce allait pouvoir se maintenir, mais trois ans après, elle avait disparu. Sous le climat de la Bourgogne, elles n’ont soit pas pu se reproduire, soit leurs œufs n’ont pas réussi à éclore.
D’autres médias, cette fois-ci du sud de la France, ont pu s’inquiéter parfois de cigales qu’on n’entendait plus certains jours, ou du moins certains étés. À quoi est-ce dû ?
S. P. : Les cigales vont sortir de terre et se mettre à cymbaliser lorsqu’il fait une certaine température, entre 19 et 22 °C pour les petites espèces, plus autour de 24 °C ou 25 °C chez les grandes. Mais une fois au grand air, elles ne vont pas pour autant cymbaliser sans discontinuer. S’il pleut, s’il vente trop, elles vont s’arrêter. Les très fortes chaleurs inhibent également leur activité, tout du moins durant une partie de la journée, lors des pics de températures.
Au sein des populations, il y a aussi des mâles qui ne cymbalisent pas systématiquement, comme c’est le cas par exemple chez Tibicina haematodes. On les appelle les mâles satellites. Ils vont en gros se positionner à côté d’un autre mâle qui, en cymbalisant, va lui attirer les femelles. Positionné non loin, le mâle satellite va alors à la rencontre de la femelle qui s’approche, en restant silencieux. Le mâle qui a fait des efforts n’en récoltera donc pas les fruits.
Pour l’oreille humaine, cela semble très difficile de localiser une cigale précisément, on entend plutôt le brouhaha environnant que font divers mâles qui cymbalisent. La femelle cigale a-t-elle l’ouïe plus fine pour pouvoir localiser précisément un individu mâle en particulier ?
S. P. : Le mâle et la femelle ont bien sûr un système d’audition optimal pour la perception du message codant propre à leur espèce. Cela peut compenser, chez certaines espèces, une vue pas toujours précise. J’ai ainsi parfois vu des cigales mâles tenter de s’accoupler avec mon pouce quand je l’approchais d’eux.
Pour localiser le mâle avec son ouïe, donc, la femelle va d’abord géolocaliser l’endroit où il y a un ou plusieurs mâles avec les basses fréquences de leur cymbalisation. Ce sont ces basses fréquences qui portent le plus loin, notamment à travers le feuillage des arbres.
Elle va ensuite pouvoir beaucoup plus précisément localiser un individu avec les hautes fréquences que, nous, nous n’entendons guère. Certaines espèces vont donc alterner ces deux types de fréquences ou les émettre simultanément.
Parfois, chez certaines espèces, lorsque la femelle a localisé un ou plusieurs mâles, elle va se mettre à claquer des ailes, ce qui va inciter le mâle qui l’entend à changer son répertoire d’émissions sonores. Il pourra dans ce cas émettre une cymbalisation de cour, incitant la femelle à le rejoindre pour s’accoupler.
N’oublions pas que chaque espèce de cigale à une cymbalisation d’appel nuptial qui lui est propre. Il est donc possible d’identifier l’espèce à partir de ses émissions sonores.
Le brouhaha qu’on entend serait donc en réalité un chœur très organisé ?
S. P. : Oui, tout à fait ! Mais l’organisation complexe des cymbalisations est souvent difficile à entendre à l’oreille humaine. Certaines cigales, par exemple, semblent émettre leur cymbalisation en continu, comme Tibicina haematodes déjà évoquée précédemment. Cela nous paraissait étonnant, car il est important aussi pour les mâles de prêter attention aux autres mâles, aux femelles qui pourraient claquer des ailes, aux potentiels prédateurs… Or, si un mâle cymbalise sans s’arrêter, comment peut-il entendre ?
Mais en se penchant vraiment sur leur cymbalisation, on peut détecter des microcoupures, parfois de moins d’une seconde. À l’oreille, il faut s’entraîner pour les percevoir, mais à l’enregistrement, c’est très net lorsqu’une cymbalisation est analysée à l’aide d’un logiciel acoustique. On pense donc que c’est pendant ces microcoupures que les mâles se jaugent mutuellement ou, par exemple, mesurent la distance à laquelle ils se trouvent les uns des autres.
Il y a aussi parfois, dans un même environnement, plusieurs espèces de cigales différentes. Mon confrère Jérôme Sueur a montré, pendant sa thèse dans le cadre de ses recherches menées au Mexique, que les espèces pouvaient répartir leur activité durant des heures différentes de la journée, ou bien ne pas émettre aux mêmes fréquences pour que les femelles conspécifiques puissent les localiser.
On a aussi pu parfois noter au sein d’une même espèce que les individus mâles situés en périphérie de l’aire de répartition cymbalisent de façon différente de ceux présents au cœur de l’aire. Avec la distance et le temps, les émissions des mâles peuvent devenir suffisamment différentes au point qu’une femelle née à quelques centaines de kilomètres de là, et mise en leur compagnie peut ne pas systématiquement s’accoupler avec ces mâles. La communication sonore chez les cigales est en effet un des mécanismes puissants de la spéciation.
Et puis enfin, il y a, pour le genre Cicadetta par exemple, des comportements qui sont tout à fait différents : les mâles de certaines espèces vont voler en groupe pour chercher les femelles. Mais, comme beaucoup d’autres choses cela reste à être précisément étudié, car c’est encore très mal connu.
Propos recueillis par Gabrielle Maréchaux.
Stéphane Puissant ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.08.2025 à 16:49
Suzanne OConnell, Harold T. Stearns Professor of Earth Science, Wesleyan University
La géologue et cartographe américaine Marie Tharp (1920-2006) a révolutionné la conception scientifique du fond océanique. En démontrant que les fonds marins ne sont pas une surface plane ni uniforme, l’océanographe a joué un rôle crucial dans le développement de la théorie de la tectonique des plaques.
Malgré toutes les expéditions en eaux profondes et tous les échantillons prélevés des fonds marins au cours des cent dernières années, les profondeurs de l’océan restent encore pleines de mystères. En savoir davantage pourrait pourtant nous être bien utile.
Et ce, pour plusieurs raisons. La plupart des tsunamis, par exemple, sont provoqués par des tremblements de terre sous le, ou près du, fond océanique. Les abysses abritent aussi des poissons, des coraux et des communautés complexes de microbes, de crustacés et d’autres organismes encore très méconnus. Enfin, les fonds marins contrôlent les courants qui répartissent la chaleur, contribuant ainsi à réguler le climat terrestre.
À lire aussi : Les premières images d’un calamar colossal dans les fonds marins prises par des scientifiques
L’étude de ces fonds marins mystérieux doit beaucoup à une femme, née en 1920 (et décédée en 2006, ndlr), nommée Marie Tharp. Les cartes créées par cette géologue et océanographe ont changé la façon dont les gens imaginent les mers et les océans qui recouvrent plus des deux tiers de notre planète bleue. À partir de 1957, Tharp et son partenaire de recherche Bruce Heezen ont commencé à publier les premières cartographies complètes montrant les principales caractéristiques du fond océanique : monts, vallées et fosses.
En tant que géoscientifique, je pense que Tharp devrait être aussi célèbre que Jane Goodall ou Neil Armstrong. Voici pourquoi.
Jusqu’au milieu des années 1950, de nombreux scientifiques pensaient que les fonds marins étaient uniformes. Tharp a démontré qu’au contraire, ils comportaient des reliefs accidentés et qu’une grande partie d’entre eux étaient disposés de manière systématique.
Ses illustrations ont joué un rôle essentiel dans le développement de la théorie de la tectonique des plaques, selon laquelle les plaques, ou grandes sections de la croûte terrestre, interagissent pour générer l’activité sismique et volcanique de la planète. Des chercheurs antérieurs, en particulier Alfred Wegener, avaient déjà remarqué à quel point les côtes de l’Afrique et de l’Amérique du Sud s’emboîtaient parfaitement et avaient émis l’hypothèse que les continents avaient autrefois été reliés.
Tharp a identifié des monts et une vallée de fracture au centre de l’océan Atlantique, là où les deux continents auraient pu se séparer.
Grâce aux représentations du fond océanique dessinées à la main par Marie Tharp, je peux imaginer une promenade au fond de l’océan Atlantique, de New York (côte est des États-Unis) à Lisbonne (Portugal). Le voyage m’emmènerait le long du plateau continental. Puis vers le bas, en direction de la plaine abyssale de Sohm. Je devrais alors contourner des reliefs, appelées monts sous-marins. Ensuite, je commencerais une lente ascension de la dorsale médio-atlantique, une chaîne de montagnes submergée orientée nord-sud.
Après avoir gravi 2 500 mètres sous le niveau de la mer jusqu’au sommet de la crête, je descendrais de plusieurs centaines de mètres, traverserais la vallée centrale de la crête et remonterais par le bord est de celle-ci. Je redescendrais ensuite vers le fond océanique, jusqu’à ce que je commence à remonter le talus continental européen vers Lisbonne. Au total, le trajet représenterait environ 6 000 kilomètres, soit près de deux fois la longueur du sentier des Appalaches.
Rien ne prédestinait pourtant Mary Tharp à cartographier ainsi l’invisible. Née en 1920 à Ypsilanti, dans le Michigan, elle étudie l’anglais et la musique à l’université. Mais, en 1943, elle s’inscrit à un programme de maîtrise de l’université du Michigan destiné à former des femmes au métier de géologue pétrolier pendant la Seconde Guerre mondiale.
« On avait besoin de filles pour occuper les postes laissés vacants par les hommes partis au combat », se souvient Tharp, dans « Connect the Dots: Mapping the Seafloor and Discovering the Mid-ocean Ridge » (1999), chapitre 2 de Lamont-Doherty Earth Observatory of Columbia. Twelve Perspectives on the First Fifty Years 1949-1999.
Après avoir travaillé pour une compagnie pétrolière en Oklahoma, Tharp a cherché un emploi dans le domaine de la géologie à l’université Columbia en 1948. Les femmes ne pouvaient pas monter à bord des navires de recherche, mais Tharp savait dessiner et a été embauchée pour assister les étudiants diplômés masculins.
Tharp a ainsi travaillé avec Bruce Heezen, alors étudiant de second cycle qui lui confie des profils du fond marin à dessiner. Il s’agit de longs rouleaux de papier qui indiquent la profondeur du fond marin le long d’un trajet linéaire mesurée depuis un navire à l’aide d’un sonar.
Sur une grande feuille de papier vierge, Tharp a ainsi tracé des lignes de latitude et de longitude. Elle a ensuite soigneusement marqué les endroits où le navire avait navigué. Puis elle a inscrit la profondeur à chaque endroit à partir du sonar, l’a marquée sur la trajectoire du navire et a créé des profils bathymétriques, indiquant la profondeur du fond océanique par rapport à la distance parcourue par le navire.
L’une de ses innovations importantes a été de créer des croquis représentant l’aspect du fond marin. Ces vues ont facilité la visualisation de la topographie du fond océanique et la création d’une carte physiographique.
Le tracé minutieux par Tharp de six profils est-ouest à travers l’Atlantique Nord a révélé quelque chose que personne n’avait jamais décrit auparavant : une faille au centre de l’océan, large de plusieurs kilomètres et profonde de plusieurs centaines de mètres. Tharp a suggéré qu’il s’agissait d’une vallée de fracture, ou vallée de rift, un type de longue dépression dont l’existence était connue sur terre.
Heezen a qualifié cette idée de « discussion entre filles » et a demandé à Tharp de refaire ses calculs et de réécrire son rapport. Lorsqu’elle s’est exécutée, la vallée de fracture était toujours là.
Un autre assistant de recherche traçait les emplacements des épicentres sismiques sur une carte de même taille et à la même échelle. En comparant les deux cartes, Heezen et Tharp se rendirent compte que les épicentres sismiques se trouvaient à l’intérieur de la vallée de fracture. Cette découverte fut déterminante pour le développement de la théorie de la tectonique des plaques : elle suggérait que des mouvements se produisaient dans la vallée de fracture et que les continents pouvaient en fait être en train de s’éloigner les uns des autres.
Cette perspicacité était tout bonnement révolutionnaire. Lorsque Heezen, fraîchement diplômé, donne une conférence à Princeton en 1957 et montre la vallée du rift et les épicentres, le directeur du département de géologie Harry Hess assure :
« Vous avez ébranlé les fondements de la géologie. »
Deux ans plus tard, en 1959, la Société de géologie des États-Unis publie The Floors of the Oceans: I. The North Atlantic (les Fonds océaniques, Première partie : L’Atlantique Nord), sous la signature de Heezen, Tharp et Doc Ewing, directeur de l’observatoire Lamont, où ils travaillent. Cet ouvrage contient les profils océaniques de Tharp, ses idées et l’accès à ses cartes physiographiques.
Certains scientifiques trouvèrent ce travail brillant, mais la plupart ne voulurent pas y croire. L’explorateur sous-marin Jacques Cousteau, par exemple, était déterminé à prouver que Tharp avait tort. À bord de son navire de recherche, le Calypso, il traversa délibérément la dorsale médio-atlantique et descendit une caméra sous-marine. À la grande surprise de Cousteau, ses images montrèrent qu’une vallée de fracture existait bel et bien.
« Il y a du vrai dans le vieux cliché qui dit qu’une image vaut mille mots et que voir, c’est croire », fit remarquer Tharp dans son essai rétrospectif de 1999.
Qu’est-ce qui a pu créer cette faille ? Harry Hess, de Princeton, a proposé quelques idées dans un article de 1962. Il a émis l’hypothèse que du magma chaud s’était élevé depuis l’intérieur de la Terre au niveau de la faille, s’était dilaté en refroidissant et avait écarté davantage les deux plaques adjacentes. Cette idée a largement contribué à la théorie de la tectonique des plaques, mais Hess n’a pas mentionné les travaux essentiels présentés dans The Floors of the Oceans, l’une des rares publications dont Marie Tharp était co-auteure.
Tharp a ensuite continué à travailler avec Heezen pour donner vie au fond océanique. Leur collaboration a notamment abouti à une carte de l’océan Indien, publiée par National Geographic en 1967, et à une carte du fond océanique mondial(1977), aujourd’hui conservée à la bibliothèque du Congrès.
Après la mort de Heezen, en 1977, Tharp a poursuivi son travail jusqu’à son décès en 2006. En octobre 1978, Heezen (à titre posthume) et Tharp ont reçu la médaille Hubbard, la plus haute distinction de la Societé états-unienne de géographique, rejoignant ainsi les rangs d’explorateurs et de découvreurs tels qu’Ernest Shackleton, Louis et Mary Leakey et Jane Goodall.
Aujourd’hui, les navires utilisent une méthode appelée « cartographie par sondeur multifaisceau », qui mesure la profondeur sur un tracé en forme de ruban plutôt que le long d’une seule ligne. Les rubans peuvent être assemblés pour créer une carte précise du fond marin.
Mais comme les navires se déplacent lentement, il faudrait deux cents ans à un seul navire pour cartographier complètement les fonds marins.
Une initiative internationale visant à cartographier en détail l’ensemble des fonds marins d’ici 2030 est cependant en cours, à l’aide de plusieurs navires, sous la direction de la Nippon Foundation et du General Bathymetric Chart of the Oceans.
Ces informations sont essentielles pour commencer à comprendre à quoi ressemble le fond marin à l’échelle locale. Marie Tharp a été la première personne à montrer la riche topographie du fond océanique et ses différentes zones.
Suzanne OConnell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.08.2025 à 16:48
Pascale Ezan, professeur des universités - comportements de consommation - alimentation - réseaux sociaux, Université Le Havre Normandie
Maxime David, Maître de conférences - Marketing, Université Le Havre Normandie
On parle beaucoup des usages de l’intelligence artificielle générative dans le cadre universitaire. Mais les étudiants s’en servent aussi dans leur quotidien pour résoudre des questions pratiques et, par exemple, pour mieux équilibrer leur alimentation. Enquête sur leurs objectifs et les risques éventuels liés à ces nouveaux comportements de consommation.
En écho aux messages de santé publique auxquels ils sont exposés dès leur enfance, les jeunes adultes cherchent à adopter une alimentation saine et durable. Pourtant, leurs aspirations se heurtent aux réalités du quotidien. Perception d’un temps contraint, tensions financières, manque d’idées ou de matériel, déficit de confiance en leurs compétences culinaires sont des obstacles au bien manger, qu’ils évoquent fréquemment.
Les étudiants décohabitants (qui quittent le domicile parental) sont particulièrement concernés par ces questions. Ces freins apparaissent d’autant plus marqués que leurs profils sont hétérogènes en termes de compétences culinaires et de connaissances en matière d’équilibre alimentaire.
Beaucoup vont se tourner vers des produits industriels, peu qualitatifs sur le plan nutritionnel. Mais le décalage entre leurs souhaits d’alimentation et la composition réelle de leurs repas peut accroître un sentiment de fragilité, pouvant conduire à des troubles du comportement alimentaire chez certains.
Pour contourner ces freins et accéder à une alimentation plus saine et plus durable, certains s’emparent désormais de l’intelligence artificielle (IA). C’est ce qui ressort des entretiens de recherche que nous menons avec eux. Nous nous intéressons plus particulièrement aux usages de l’IA générative, à travers des agents conversationnels comme ChatGPT, Gemini ou Claude, que les étudiants mobilisent pour obtenir des conseils pratiques, rapides et personnalisés en matière d’alimentation.
Ainsi, l’alimentation devient pour eux une situation d’usage de l’IA, qu’ils plébiscitent pour sa simplicité et l’aide concrète qu’elle leur apporte, au-delà des recours dans le cadre des travaux académiques, plus médiatisés et interrogés par le monde enseignant.
En anticipant leurs repas, les étudiants ont le sentiment de disposer d’une grande autonomie dans leurs choix alimentaires. Le recours aux agents conversationnels d’IA générative, via des prompts, les conduit à orienter leurs menus vers des alternatives qu’ils considèrent comme plus saines, ce qui selon eux est une source de satisfaction personnelle.
En effet, la dichotomie qu’ils ressentent parfois entre plaisir et alimentation équilibrée est alors moins marquée. Ils peuvent sélectionner des produits qu’ils aiment tout en respectant les recommandations des professionnels de santé. Ils planifient ainsi leurs menus hebdomadaires selon leurs goûts, et s’y tiennent d’autant plus facilement que leurs préférences sont prises en compte.
À lire aussi : Et si les youtubeurs pouvaient aider les ados à manger sain ?
Grâce à l’IA, ils considèrent que les tensions qu’ils vivaient auparavant pour composer un menu équilibré se réduisent, car ils intègrent en amont leurs contraintes de matériel, de disponibilité des denrées, de prix… Enfin, les étudiants interrogés soulignent la facilité avec laquelle ils accèdent à des conseils nutritionnels quasi individualisés, en fonction de leurs profils, pour atteindre leurs objectifs corporels.
La réalisation de recettes est considérée chez certains d’entre eux comme un écueil qui vient s’ajouter aux difficultés de leur nouveau statut social. Ils recherchent prioritairement des « bons plans », car, au-delà de la pratique culinaire, ce sont souvent les idées qui manquent pour réaliser des menus à la fois sains, gourmands et faciles à répliquer.
L’IA contribue, selon eux, à stimuler la curiosité en les invitant à tester de nouveaux produits, à expérimenter de nouveaux plats, tout en tenant compte de leurs savoir-faire.
Dans cette génération, la cuisine est assimilée à une activité chronophage qui prend sur un temps consacré aux études ou aux loisirs. Ceci la conduit à ne pas se projeter et à préparer des « repas de la flemme », consistant à manger ce qu’elle a sous la main. Pour eux, l’IA apparaît comme une solution pour « éviter la junk food » au cours des repas et pour limiter le risque de grignotage d’aliments gras et sucrés tout au long de la journée.
Même lorsque les étudiants utilisent des applications nutritionnelles pour mieux anticiper leurs repas, ils restent nombreux à manquer de repères pour composer leurs plats au quotidien. En somme, pour eux, l’IA générative est une ressource qui limite leur charge cognitive liée à l’anticipation des menus. Elle permet non seulement de proposer des menus pour la semaine, mais également de préparer sa liste de course avec une attention apportée à la variété des produits à acheter.
De même, avec l’IA, les étudiants accèdent à des informations claires leur permettant de localiser les points de vente situés dans leur zone d’habitation ou d’études. Or, l’accessibilité des produits est une condition importante pour bien manger. Cette accessibilité s’accompagne de conseils leur permettant d’optimiser leur budget tout en achetant des denrées de bonne qualité.
De nombreux étudiants sont en situation de précarité et c’est en particulier en fin de mois, quand le budget dédié à l’alimentation est épuisé, que les choix les moins équilibrés s’imposent pour eux. L’IA peut alors les aider à mieux répartir leurs achats sur le mois et leur suggérer des aliments équivalents moins chers, en valorisant les produits en promotion, en aidant à composer des menus à partir de ce qu’ils ont déjà dans leurs placards ou leur réfrigérateur.
Si les propos des étudiants suggèrent une meilleure prise en charge de leur alimentation grâce à l’IA, ils mettent aussi en évidence un certain nombre de risques. Le premier concerne un risque de répétition et de monotonie.
Un autre porte sur le fait que l’IA amplifie la tendance à privilégier une individualisation excessive des repas. Or, les chercheurs et les professionnels de santé soulignent que manger, c’est aussi créer du lien social et que manger ensemble limite notamment les risques de surpoids et d’obésité.
Le programme de recherche ALIMNUM que nous menons actuellement auprès des étudiants montre que les réseaux sociaux font la promotion d’une alimentation fonctionnelle avec des visées de transformation corporelle.
L’usage de l’IA générative semble renforcer ces aspirations autour de dimensions performatives de l’alimentation. En croisant données nutritionnelles, préférences, antécédents ou objectifs, l’IA peut favoriser des logiques d’optimisation de soi, parfois sources de dérives sanitaires.
À lire aussi : Les influenceurs fitness : nouveaux relais d’opinion pour interpeller les pouvoirs publics sur la santé des jeunes ?
Enfin, un dernier risque identifié porte sur le fait que certains étudiants se servent de l’IA pour perdre du poids et qu’ils considèrent que les conseils qu’ils recueillent en quelques secondes leur permettent de se dispenser de consulter des professionnels de santé, difficilement accessibles à court terme.
Face aux obstacles que rencontrent de nombreux étudiants, l’IA peut devenir un outil précieux pour mieux manger. Leur appétence pour le numérique, conjuguée à un quotidien souvent contraint, justifie pleinement l’exploration de ces solutions par les jeunes adultes. En somme, en rendant l’information nutritionnelle plus claire et plus engageante, l’IA peut contribuer à réduire les inégalités de santé et redonner de l’autonomie alimentaire à cette génération.
Il s’avère donc pertinent que les acteurs de santé publique s’inspirent des usages actuels de l’IA générative et qu’ils les intègrent, de manière encadrée, dans leurs dispositifs de prévention et d’éducation nutritionnelle. Par exemple, des programmes pensés avec les professionnels de santé et par les étudiants eux-mêmes pourraient proposer des conseils fiables, personnalisés et adaptés à leurs budgets comme à leurs habitudes de vie.
L’omniprésence de l’IA dans la vie des jeunes bouscule également la manière dont les professionnels de santé doivent aborder la question de l’alimentation. Il semble nécessaire de les inviter à mieux comprendre ces technologies, à en saisir les atouts, mais aussi les limites.
Cela suppose également de les former à repérer les situations à risques, à informer et à accompagner les étudiants vers un usage plus éclairé de ces innovations numériques.
Dans le prolongement de ce que nous réalisons dans le cadre de la recherche participative MEALS, il s’agit plus globalement de stimuler l’esprit critique des jeunes et de mettre en œuvre une approche collective qui prenne en compte les cultures alimentaires, le plaisir, le partage et la diversité de leurs parcours.
Enfin, si les outils issus de l’IA générative offrent de réelles perspectives pour accompagner les jeunes dans leurs pratiques alimentaires, ils ne peuvent se substituer ni à la présence humaine, ni à la variété des expériences, ni à l’éducation au goût. Leur utilité dépendra de la manière dont ils seront intégrés à un cadre réflexif et bienveillant. Ces évolutions rappellent que, même avec la démocratisation de l’IA, l’accompagnement humain et le lien social doivent rester au cœur d’une alimentation saine et durable.
Les projets Alimentation et numérique – ALIMNUM et Manger avec les réseaux sociaux – MEALS sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Pascale Ezan a reçu des financements de l'Agence Nationale de la recherche .
Maxime David a reçu des financements de l'Agence Nationale de la Recherche.
18.08.2025 à 16:48
Florian Léon, Chargé de recherche, Fondation pour les Etudes et Recherches sur le Développement International (FERDI); Chercheur associé au CERDI (UMR UCA-CNRS-IRD), Université Clermont Auvergne (UCA)
Méconnues et peu mobilisées pour le moment, les banques nationales de développement pourraient jouer un plus grand rôle dans le financement de l’aide publique au développement. Pour cela, il faudrait mieux coordonner leur action avec celle des acteurs spécialisés internationaux.
La dissolution de l’Agence américaine pour le développement international (USAID), décidée par Donald Trump, combinée aux réductions budgétaires drastiques dans l’aide au développement, notamment en France, a accru les tensions sur le financement du développement. Dans ce contexte troublé, la quatrième conférence des Nations unies sur le financement du développement, qui s’est tenue à Séville (Espagne), du 30 juin au 3 juillet, en l’absence de la délégation américaine, revêtait une importance particulière.
Cette conférence visait à repenser la structure du financement du développement afin de mobiliser les milliers de milliards nécessaires pour atteindre les objectifs de développement durable d’ici à 2030.
Le communiqué final a souligné la nécessité de mobiliser toutes les ressources et institutions financières disponibles. Pour la première fois, ce texte a aussi mis l’accent sur le rôle central des banques nationales de développement.
Les banques de développement sont des institutions financières publiques qui investissent dans des projets à vocation de développement tout en veillant à avoir une rentabilité suffisante pour être viables financièrement. Il est possible de distinguer les banques multilatérales de développement (comme la Banque mondiale ou les banques continentales) qui sont issues de plusieurs États et les banques nationales de développement qui appartiennent à un seul pays.
À lire aussi : Aide au développement et ONG : quelles articulations, quelles recompositions ?
Les banques nationales de développement sont longtemps restées en dehors des discussions internationales en étant vues comme des actrices mineures dans le financement du développement (au mieux), mais plus souvent comme des structures dispendieuses et inefficaces. Pourtant, il existe près de 500 banques nationales de développement dans le monde, et ce modèle connaît un retour en grâce ces dernières années, après que ces institutions ont été souvent considérées comme inefficaces et placées au service des intérêts politiques.
Les banques nationales de développement opèrent sur tous les continents, aussi bien dans les pays industrialisés que dans les pays à faible revenu. Les banques nationales de développement jouent un rôle crucial pour le financement de projets de développement à l’échelle locale.
La conférence de Séville a remis sur le devant de la scène les banques nationales de développement à la suite de précédentes conférences comme le Pacte financier mondial de 2023. Cet éclairage est essentiel, mais ne résout pas la question de savoir comment ces banques peuvent pleinement jouer leur rôle, notamment lorsqu’elles peinent à se financer.
Une solution est que les banques de développement agissent comme un système unifié en intervenant ensemble et en se soutenant mutuellement. Des initiatives en ce sens existent, notamment à travers la communauté « Finance en commun », qui cherche à unir, sous un même toit, toutes les banques de développement, en particulier les grandes banques multilatérales de développement (comme la Banque mondiale ou les banques régionales) et les banques nationales, notamment issues de pays en développement.
Travailler ensemble est, en effet, une solution pertinente. Les banques nationales de développement sont les mieux placées pour mettre en œuvre des projets de développement en raison de leur connaissance approfondie des contextes locaux. Elles comprennent les besoins spécifiques et les défis des communautés qu’elles servent et elles peuvent aussi trouver plus aisément les acteurs capables de mettre en œuvre les projets sur le terrain. Cependant, ces banques font souvent face à des difficultés financières.
Rares sont les banques nationales de développement qui peuvent lever des fonds sur les marchés financiers. Elles manquent souvent de financements adéquats pour mener à bien leurs missions. C’est là que les banques multilatérales de développement entrent en jeu, avec leurs ressources financières substantielles et leur capacité à mobiliser des fonds à grande échelle. Elles peuvent relâcher la contrainte financière des banques nationales. Dans le même temps, ces banques multilatérales ne sont pas les plus aptes à assurer la mise en œuvre des projets à moindre coût.
L’engagement de Séville invite
« les banques multilatérales de développement et les partenaires de développement à renforcer l’appui financier et technique qu’ils donnent aux banques publiques nationales de développement de sorte que celles-ci puissent fournir des financements à long terme et à moindre coût en faveur du développement durable ».
S’il existe une véritable volonté de renforcer la coopération entre les banques multilatérales de développement et les banques nationales de développement, il existe peu de données sur les relations existantes entre ces acteurs. Afin de combler ce manque, nous avons réalisé une étude visant à recenser les soutiens financiers fournis par les dix principales banques multilatérales de développement aux autres banques de développement sur la dernière décennie.
Note de lecture : L’Afrique a reçu 12,8 % du montant total cumulé et représente 15,8 % des projets.
Cette étude fournit plusieurs enseignements utiles. Nous avons identifié 644 projets pour un total de 108 milliards de dollars, avec une augmentation notable des financements depuis la crise du Covid-19.
L’Amérique latine et l’Europe sont les principales bénéficiaires de ces programmes.
Les projets financés ciblent principalement les petites et moyennes entreprises, suivis par l’énergie, les infrastructures et les initiatives environnementales. Il y a une augmentation du nombre de projets consacrés aux questions environnementales au cours de la période.
(*) Sommes en millions de dollars US.
Note de lecture :
65 banques de développement, soit presque 40 % des bénéficiaires, n’ont bénéficié que d’un seul soutien pour un volume total représentant 7,6 % du montant total déboursé ;
14 banques ont reçu plus de 19 soutiens (8,6 % des bénéficiaires) pour un montant total cumulé de 43,6 % du total déboursé.
Cependant, un des résultats principaux de cette étude est la très forte concentration des financements. Sur l’ensemble des banques nationales de développement opérant dans le monde, à peine un tiers (163) ont reçu un financement de la part d’une banque multilatérale.
En outre, ces financements sont très concentrés même au sein des bénéficiaires. À peine 20 banques nationales de développement (soit 5 % de l’ensemble des banques opérant dans le monde) ont bénéficié de la moitié des fonds déboursés par les banques multilatérales de développement.
Ces banques sont principalement localisées en Europe et en Asie. Il s’agit souvent de banques nationales de développement dont on peut douter des difficultés à lever des fonds.
Cette concentration des financements soulève des questions sur l’équité et sur l’efficacité de la distribution des ressources. Pour que les banques nationales de développement puissent pleinement jouer leur rôle, une coopération renforcée avec les banques multilatérales de développement est essentielle. Cela implique de développer davantage les collaborations avec de nouvelles banques nationales de développement.
Nous présentons quelques pistes pour y parvenir, comme la nécessité de favoriser les interactions croissantes entre les banques nationales opérant de manière isolée et les banques multilatérales de développement, la simplification des procédures (surtout pour les petits projets) ou, encore, un soutien technique aux équipes des banques nationales de développement.
Élargir le réseau des soutiens des banques multilatérales de développement est une étape nécessaire pour parvenir à atteindre les promesses ouvertes à Séville.
La Ferdi, pour laquelle travaille Florian Léon, a reçu des financements de Finance en Commun (FiCS) pour la réalisation de cette étude. Néanmoins, ni le FiCS ni d'autres structures ne sont intervenus au cours de la rédaction de cette étude.
18.08.2025 à 16:47
Sylvain Wagnon, Professeur des universités en sciences de l'éducation, Faculté d'éducation, Université de Montpellier
Spirus Gay (1865-1938), artiste de cirque et militant anarchiste, incarne une figure rare du début du XXe siècle : celle d’un engagement total, mêlant art, corps, éthique et politique. À rebours des catégories figées, sa vie dessine une radicalité joyeuse, cohérente, où acrobatie rime avec pédagogie, naturisme avec syndicalisme, pamphlet avec solidarité.
Comment définir Spirus Gay ? Acrobate, jongleur, équilibriste, anarchiste, syndicaliste, libre penseur, pamphlétaire, naturiste, franc-maçon, mais aussi pédagogue… Joseph Jean Auguste Gay, dit Spirus Gay (1865-1938), échappe à toute tentative de classification. Son parcours foisonnant incarne une figure rare de l’engagement total, où corps, esprit, art et pensée politique s’entrelacent pour questionner et subvertir les normes établies.
C’est dans cette articulation cohérente entre action physique, engagement intellectuel et militantisme radical que se dessine un itinéraire véritablement singulier.
Notre société, cloisonnée et fragmentée, laisserait-elle encore aujourd’hui une place à un Spirus Gay ?
Pour un historien, écrire sur un tel personnage est un défi. Au premier abord, peu de traces. Il n’a pas laissé d’œuvre majeure ou de manifeste célèbre. Il n’a pas dirigé de journal influent ni fondé de courant théorique. Et pourtant, il est là, en creux, dans les marges et les interstices de l’histoire de l’anarchisme français. En militant, il participe aux luttes, combats, expérimentations et utopies de la fin du XIXe siècle et du début du XXe.
Sa trajectoire incarne une manière de vivre l’anarchisme : dans les corps, dans les gestes, dans l’harmonie entre vie personnelle et engagement individuel et collectif. Parce qu’il illustre cette cohérence rare entre les idées que l’on défend et la vie que l’on mène. Parce qu’il force à repenser les catégories : artiste ou militant ? Intellectuel ou manuel ? Penseur ou pédagogue ?
À l’image du travail biographique sur l’histoire des femmes, l’enjeu est de sortir d’un genre convenu, d’éviter la tentation de simplifier, de linéariser, de trahir une vie foisonnante. A contrario, il ne s’agit pas de construire une légende, mais de comprendre, par les sources et la rigueur historique, ce que cette vie singulière peut nous dire aujourd’hui. De reconstituer un puzzle à partir d’archives éparses et de journaux oubliés, d’aphorismes et d’articles de Spirus Gay, de traces ténues (plus de 600 mentions dans la presse de l’époque, une quinzaine de textes signés tout de même). D’écrire sans gommer les contradictions, les zones d’ombre et les silences.
Figure du music-hall parisien de la fin du XIXe siècle, Spirus Gay incarne une forme d’artiste polyvalent : équilibriste, jongleur de force, illusionniste, ventriloque et prestidigitateur, il monte sur les scènes parisiennes, des Folies-Belleville aux Folies Bergère, à Paris. Entre marginalité et culture de masse, derrière le prestige des affiches et les titres de « roi des équilibristes » ou de « champion du monde » de culturisme, se cache une réalité bien plus âpre.
Comme beaucoup d’artistes de variétés, Spirus Gay vit dans une instabilité constante, suspendu aux cachets, exposé aux blessures, aux accidents de scène, et aux coups durs de la vie. À plusieurs reprises, la communauté militante et artistique doit organiser des collectes pour subvenir à ses besoins, réparer ses outils détruits, ou l’aider à faire face à la maladie.
Cette précarité ne l’empêche pas d’être de nombreux combats pour la reconnaissance des artistes de « l’art vivant ». Spirus Gay s’engage avec ferveur dans la défense des droits des artistes, qu’il considère comme pleinement intégrés à la condition ouvrière.
Dès 1893, il siège au conseil syndical du Syndicat des artistes dramatiques, puis devient, en 1898, secrétaire de l’Union artistique de la scène, de l’orchestre et du cirque. Ce rôle lui permet d’organiser des actions collectives, mêlant concerts et solidarité militante. Porte-parole, il défend les artistes lyriques et revendique l’action directe face aux abus patronaux.
Autodidacte, Spirus Gay publie également dans le journal le Parti ouvrier, organe du Parti socialiste révolutionnaire, une dizaine d’articles qui esquissent sa vision de la société et du monde. Ces écrits, des aphorismes pour la plupart, un genre littéraire singulier qui interroge sur sa propre éducation et formation. L’étonnement apparent face à cette union du corps et de l’esprit repose, encore aujourd’hui, sur des préjugés profondément ancrés qui établissent une frontière entre l’artiste de divertissement et l’engagement politique profond et continu, mais aussi une hiérarchie entre les fonctions intellectuelles et manuelles.
Spirus Gay est aussi un pédagogue, héritier direct des principes éducatifs défendus par le pédagogue libertaire Paul Robin à partir de 1869. Pour ce dernier, l’éducation intégrale repose sur un principe simple mais profondément subversif : refuser la dissociation entre l’intellect, le corps et l’affectif. Développer « la tête, la main et le cœur » de manière harmonieuse, ce serait libérer l’individu de l’aliénation produite par une école jugée autoritaire, par l’usine, par l’Église ou par l’État.
Spirus Gay applique ce principe dans sa vie comme dans ses pratiques éducatives. Son gymnase qu’il fonde à Paris en 1903, le Végétarium, devient un espace d’expérimentation pédagogique et de formation à la liberté, où culture physique, végétarisme, éducation « cérébro-corporelle » et hygiène de vie s’articulent comme autant d’outils d’émancipation. Chez lui, l’acrobatie devient un acte politique, le mouvement une philosophie de résistance. L’éducation, envisagée comme un processus permanent, tout au long de la vie, s’inscrit autant dans le développement de l’esprit que dans celui du corps. En tant que militant naturien libertaire et naturiste, il participe à la fondation de la première communauté naturiste à Brières-les-Scellés, dans l’actuel département de l’Essonne, et milite pour la lutte contre les ravages de l’alcool.
Libre-penseur, anticlérical, athée et franc-maçon, Spirus Gay incarne aussi un engagement intellectuel humaniste, nourri par les idéaux de la liberté de conscience et de l’émancipation individuelle et collective. « Je crois en la divine égalité dans une société sans religion ni maître », écrit-il en 1894.
Ses écrits tracent les contours d’une philosophie éthique, engagée et radicale. Il y défend une société fondée sur l’égalité, la justice, le refus de l’autorité et une lutte acharnée contre l’égoïsme capitaliste.
Pour lui, l’altruisme n’est pas une posture morale, mais une arme politique : une manière de désarmer la violence d’un monde fondé sur l’exploitation et la compétition. Une notion que l’on retrouve dans le concept « d’altruisme efficace », défini par le philosophe Peter Singer.
Spirus Gay ne se résume pas. Il échappe aux classifications, refuse les cadres. Tant mieux, car il faut se méfier des panthéons : ils figent ce qu’ils célèbrent.
Sa trajectoire est finalement une proposition : celle d’une radicalité incarnée et cohérente. Sa vie oppose une résistance constante aux cloisonnements, aux hiérarchies et aux assignations identitaires. Elle articule le geste esthétique, la rigueur intellectuelle et l’engagement.
Spirus Gay interroge en profondeur nos façons de vivre nos idées : comment ne pas dissocier nos convictions de notre quotidien, notre politique de notre manière de vivre, de manger, de respirer. Son parcours constitue une invitation à penser, à lutter, à vivre.
Sylvain Wagnon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.08.2025 à 16:46
Ziteng Wang, Associate Lecturer, Curtin Institute of Radio Astronomy (CIRA), Curtin University
Dans le cosmos, certains objets émettent des pulsations plutôt qu’une lumière continue. Cette année, les astronomes ont découvert ASKAP J1832, un objet dans la Voie lactée qui émet à la fois des rayons X et des ondes radio, et qui ne ressemble à rien de connu.
Dans une étude publiée dans Nature au mois de mai, nous rapportons la découverte d’un nouveau phénomène transitoire à longue période – et, pour la première fois, qui émet également régulièrement des sursauts de rayons X.
Les transitoires à longue période sont une classe d’objets cosmiques récemment identifiés qui émettent d’intenses flashs d’ondes radio toutes les quelques minutes, voire à plusieurs heures d’intervalle, ce qui est beaucoup plus long que les émissions pulsées très rapides que nous détectons généralement chez les pulsars, qui sont issus de l’explosion d’une étoile massive en fin de vie.
La nature de ces objets transitoires à longue période et la manière dont ils génèrent leurs signaux inhabituels restent un mystère.
Notre découverte ouvre une nouvelle fenêtre sur l’étude de ces sources énigmatiques. Mais elle renforce également le mystère : l’objet que nous avons trouvé ne ressemble à aucun type d’étoile ou de système connu dans notre galaxie ni au-delà.
Le ciel nocturne recèle de nombreux éléments invisibles à l’œil nu, mais détectables à d’autres longueurs d’onde, comme les ondes radio.
Notre équipe de recherche scrute régulièrement le ciel radio à l’aide du SKA Pathfinder australien (ASKAP), exploité par le CSIRO dans la région de Wajarri Yamaji, dans l’ouest de l’Australie. Notre objectif est de trouver des objets cosmiques qui apparaissent et disparaissent – que l’on appelle « transients » en anglais, « objets transitoires », en français.
Les objets transitoires sont souvent liés à certains des événements les plus puissants et les plus spectaculaires de l’Univers, tels que la mort explosive d’étoiles.
Fin 2023, nous avons repéré une source extrêmement brillante, baptisée ASKAP J1832-0911 (d’après sa position dans le ciel), dans le plan de notre galaxie. Cet objet est situé à environ 15 000 années-lumière… c’est loin, mais toujours dans la Voie lactée.
Après la découverte initiale, nous avons commencé des observations de suivi à l’aide de télescopes situés dans le monde entier dans l’espoir de capter d’autres impulsions. Grâce à une surveillance continue, nous avons constaté que les impulsions radio provenant d’ASKAP J1832 arrivaient régulièrement, toutes les quarante-quatre minutes. Cela a confirmé qu’il s’agissait d’un nouveau membre du groupe peu fourni des transitoires à longue période.
Nous avons également fouillé les anciennes données provenant de la même partie du ciel, mais nous n’avons trouvé aucune trace de l’objet avant sa découverte en 2023. Ceci suggère qu’un événement spectaculaire s’est produit peu avant notre première détection, un événement suffisamment puissant pour « allumer » soudainement notre objet transitoire atypique.
Puis, en février 2024, ASKAP J1832 est devenu extrêmement actif. Après une période calme en janvier, la source s’est considérablement intensifiée : moins de 30 objets dans le ciel ont jamais atteint une telle luminosité dans le domaine radio… À titre de comparaison, la plupart des étoiles que nous détectons en radio sont environ 10000 fois moins lumineuses qu’ASKAP J1832 lors de cette flambée.
Les rayons X sont une forme de lumière que nous ne pouvons pas voir avec nos yeux. Ils proviennent généralement d’environnements extrêmement chauds et énergétiques. Bien qu’une dizaine d’objets similaires émettant des ondes radio (celles que nous avons détectées initialement) aient été découverts à ce jour, personne n’avait jamais observé d’émission X de leur part.
En mars, nous avons tenté d’observer ASKAP J1832 en rayons X. Cependant, en raison de problèmes techniques avec le télescope, l’observation n’a pas pu avoir lieu.
Puis, coup de chance ! En juin, j’ai contacté mon ami Tong Bao, chercheur postdoctoral à l’Institut national italien d’astrophysique, pour vérifier si des observations précédentes aux rayons X avaient capté la source. À notre grande surprise, nous avons trouvé deux observations antérieures provenant de l’observatoire à rayons X Chandra de la Nasa, bien que les données soient encore dans une période de diffusion limitée (et donc non encore rendues publiques en dehors d’un cercle restreint de chercheurs et chercheuses).
Nous avons contacté Kaya Mori, chercheur à l’université Columbia et responsable de ces observations. Il a généreusement partagé les données avec nous. À notre grande surprise, nous avons découvert des signaux X clairs provenant d’ASKAP J1832. Plus remarquable encore : les rayons X suivaient le même cycle de 44 minutes que les impulsions radio.
Ce fut un véritable coup de chance. Chandra était pointé vers une cible complètement différente, mais par pure coïncidence, il a capté ASKAP J1832 pendant sa phase inhabituellement brillante et active.
Un tel alignement fortuit est extrêmement rare, c’est comme trouver une aiguille dans une botte de foin cosmique.
La présence simultanée d’émissions radio et de sursauts X est une caractéristique commune des étoiles mortes dotées de champs magnétiques extrêmement puissants, telles que les étoiles à neutrons (étoiles mortes de grande masse) et les naines blanches (étoiles mortes de faible masse).
Notre découverte suggère qu’au moins certains objets transitoires à longue période pourraient provenir de ce type de vestiges stellaires.
Mais ASKAP J1832 ne correspond à aucune catégorie d’objet connue dans notre galaxie. Son comportement, bien que similaire à certains égards, reste atypique.
Nous avons besoin de plus d’observations pour vraiment comprendre ce qui se passe. Il est possible qu’ASKAP J1832 soit d’une nature entièrement nouvelle pour nous, ou qu’il émette des ondes radio d’une manière que nous n’avons jamais observée auparavant.
Ziteng Wang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.08.2025 à 11:55
Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans
En résonance avec la récente mobilisation citoyenne contre la loi Duplomb, la campagne de financement participatif « Décarbonons la France » révèle une autre forme d’engagement, tournée vers l’élaboration de solutions et la mise en œuvre d’un projet collectif. Elle témoigne des mutations à l’œuvre dans les modalités de participation citoyenne et du rôle croissant des plateformes numériques. Décryptage du succès record de cette campagne.
Lancée le 13 mai 2025, la campagne « Décarbonons la France » portée par le think tank The Shift Project a suscité une mobilisation exceptionnelle sur la plateforme Ulule. En l’espace de quelques semaines ont été récoltés 4 634 968 euros (sur un objectif de 300 000 euros) de la part de 36 552 contributeurs. Il s’agit de la campagne de financement participatif de don avec contreparties (reward-based crowdfunding) la plus soutenue de l’histoire européenne. Ce record était précédemment détenu par le youtubeur Tev – Ici Japon avec le projet Odyssée ayant pour ambition d’ouvrir le plus grand musée du jeu vidéo.
L’objectif de la campagne « Décarbonons la France » est clair : formuler des propositions concrètes pour organiser la transition énergétique et peser sur l’agenda politique en vue de l’élection présidentielle de 2027. Il s’agit plus précisément de répondre à l’urgence climatique « en planifiant une sortie progressive, mais déterminée des énergies fossiles ».
À lire aussi : Crowdfunding : 10 ans plus tard, vous aussi, financez votre salade de pommes de terre !
Cette campagne interroge les clés de réussite et les enjeux du financement participatif. Loin de se limiter à un simple mode de levée de fonds, elle témoigne d’une évolution vers un crowdfunding citoyen, orienté vers l’activation d’un engagement collectif.
Alors que le financement participatif est régulièrement associé aux projets créatifs, culturels ou entrepreneuriaux, son évolution vers des finalités civiques est de plus en plus manifeste. Le cas « Décarbonons la France » en est la parfaite illustration. Il s’agit ici de contribuer à la diffusion d’un projet de société et d’alimenter la réflexion individuelle et collective sur la transition énergétique.
Les sources de motivation des contributeurs vont, dès lors, bien au-delà de l’intérêt personnel ou symbolique. Il ne s’agit pas simplement de recevoir une contrepartie, parmi lesquelles un exemplaire du livre présentant le programme d’action du Shift Project pour 2027 ou l’invitation à un webinaire en présence de Jean-Marc Jancovici ou bien encore de bénéficier du dispositif de défiscalisation.
L’analyse qualitative des commentaires collectés sur la plateforme Ulule témoigne de la volonté des contributeurs de s’associer à un projet perçu comme nécessaire, lucide et porteur de sens collectif. Comme le formule l’un des contributeurs :
« On sort enfin des débats idéologiques et dogmatiques pour aborder les problèmes liés au changement climatique de manière plus factuelle et scientifique. »
Ce soutien financier s’accompagne ainsi d’une adhésion à une démarche qu’ils considèrent comme rigoureuse, pédagogique et émancipatrice. Un autre contributeur exprime en ces termes les raisons de son implication :
« Pour un réel projet instruit, construit et initié par des citoyens conscients. »
L’acte de contribuer devient une manière de prendre part à un effort de clarification du débat public autour de la transition écologique.
La réussite de cette campagne repose également sur la cohérence entre le fond du projet et ses modalités de déploiement. Les contributeurs ne sont pas seulement des financeurs. Ils sont sollicités comme relais, médiateurs, participants à une dynamique collective.
Cette dimension collective est renforcée par les supports mis à disposition de chacun au sein d’un kit de communication. La pluralité des contreparties permettant d’accéder aux statuts de citoyen « solidaire » (20 euros), « enchanté » (50 euros), « investi » (100 euros), « mobilisé » (300 euros), « déterminé » (1 000 euros) ou bien encore « conquis » (2 000 euros) témoigne d’une volonté d’engager les contributeurs dans une logique d’essaimage.
La campagne s’ouvre également aux entreprises, dont la participation contribue à élargir l’impact de cette mobilisation collective. La plateforme Ulule devient alors un dispositif de coordination horizontale, où l’adhésion passe par l’appropriation du message et sa transmission au sein des cercles respectifs des contributeurs, particuliers ou entreprises.
À travers ces différentes formes, le financement participatif tend à devenir un outil de mobilisation de la foule, susceptible de contourner certains blocages institutionnels ou économiques en donnant aux citoyens la possibilité de financer directement des projets jugés socialement ou politiquement nécessaires.
Ce mode d’engagement n’est ni un substitut aux institutions représentatives ni une simple alternative aux canaux classiques de financement. Le succès de la campagne « Décarbonons la France » ne repose pas seulement sur une stratégie de communication efficace. Il révèle une disposition sociale croissante à soutenir des projets à forte valeur collective, dès lors qu’ils sont porteurs de sens et offrent une lisibilité sur leurs objectifs et une transparence sur l’usage des ressources.
Alors que la pétition contre la loi Duplomb cristallise une prise de conscience face aux reculs environnementaux, la campagne « Décarbonons la France » montre que les citoyens peuvent aussi investir les plateformes pour proposer, pour structurer et pour financer une trajectoire écologique alternative.
Plus qu’un levier technique, le crowdfunding citoyen apparaît comme une forme renouvelée de participation démocratique, ancrée dans le soutien éclairé à des projets porteurs de transformations sociales. En cela, il offre un espace pour articuler don, engagement et diffusion d’une vision collective.
Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.08.2025 à 11:54
Hervé Joly, Directeur de recherche histoire contemporaine, CNRS, Laboratoire Triangle, Université Lumière Lyon 2
Durant trois siècles, les Wendel ont été les plus puissants barons de l’acier en France. Cette famille incarne, au-delà de la prétendue loi des trois générations – « la première crée, la deuxième développe, la troisième la ruine » –, la quintessence de la réussite du capitalisme familial. Quelle continuité peut-on leur accorder depuis 1704 ? Une chose est certaine, les 1 300 descendants se partagent 1,5 milliard d’euros en 2025.
L’entreprise Wendel fait remonter son histoire à 1704, avec l’acquisition par Jean-Martin Wendel (1665-1737) des forges d’Hayange – et de la seigneurie associée qui a permis son anoblissement. Elle est ainsi, après Saint-Gobain, l’une des plus anciennes grandes firmes françaises.
Encore plus rare, la firme est toujours contrôlée par la famille fondatrice, qui détient, à travers sa société de portefeuille Wendel-Participations SE, 39,6 % du capital. Avec 1,5 milliard d’euros, elle est la 89ᵉ fortune professionnelle française.
Si elle n’est plus présente à la direction opérationnelle de Wendel, la famille détient toujours, aux côtés de deux représentants des salariés et de quatre administrateurs indépendants, la moitié des sièges au conseil de surveillance. Ce dernier est présidé par un représentant de la dixième génération des descendants de Jean-Martin, Nicolas ver Hulst ; l’un des membres s’appelle même Humbert de Wendel.
Dans « La survivance d’une dynastie familiale sans la sidérurgie : les Wendel (1977-2017) » (in l’Industrie entre Méditerranée et Europe, édité par Mauve Carbonell, Presses universitaires de Provence, 2019, pp.65-77), j’ai retracé l’histoire singulière des dernières générations, en la complétant par le travail de l’historien Jacques Marseille, Les Wendel, 1704-2004 (éditions Perrin, 2004), sur les premières.
Le groupe Wendel est sorti en 1978 de son activité traditionnelle, la sidérurgie lorraine. L’État a pris le contrôle, à travers des banques publiques, de son principal actif, Sacilor, la nationalisation formelle n’intervenant qu’après l’arrivée de la gauche au pouvoir, en 1982.
La diversification, que la société fait remonter à 1977, est en fait bien plus ancienne.
Le 8 mai 1704, Jean-Martin Wendel, ancien officier de Louis XIV, achète pour une faible somme une forge en mauvais état, la Rodolphe, à Hayange, en Lorraine, qu’il a bien relancé avec d’autres acquisitions. Le fils Charles (1708-1784) développe l’affaire, encore modeste, héritée de son père avec cinq forges en Lorraine et double les actifs industriels. Le petit-fils François-Ignace (1741-1795) constitue un groupe considérable, qui intégrait par fusion la fonderie du Creusot (Saône-et-Loire) et celle d’Indret (Loire-Atlantique), des mines de fer et même la cristallerie royale de Sèvres (aujourd’hui dans les Hauts-de-Seine).
Une page s’ouvre avec Marguerite de Wendel, surnommée « la dame du fer », de 1718 à 1802, qui traverse les crises grâce à un caractère aussi trempé que l’acier.
La famille Wendel symbolise les guerres franco-prusiennes puis allemandes de 1870, de 1914-1918 et de 1939-1945.
En 1834, elle est la 9e entreprise française par sa production. En 1870, elle est devenue la première. La défaite militaire la divise entre Lorraine française et allemande, mais la famille Wendel conserve le contrôle, avec des sociétés distinctes, dans les deux parties. L’essentiel de la famille reste français, mais Henri (1844-1906), demeuré à Hayange annexée, devient député de Thionville au Reichstag. Les activités sont beaucoup développées en Lorraine française, du côté de Jœuf, mais la famille emploie, à la veille de la Grande Guerre, 20 000 personnes en Lorraine allemande, ce qui nourrit des accusations de trahison nationale.
Un autre François de Wendel (1874-1949), devenu chef de la famille et élu député de Meurthe-et-Moselle en 1914, rétablit l’équilibre. Il devient président du puissant Comité des forges en 1918 et assure la reconstitution de l’ensemble après le retour de la Moselle à la France. En 1929, la Maison de Wendel emploie 40 000 personnes. Elle est au premier rang des entreprises françaises par capitaux propres en 1932. La Seconde Guerre mondiale constitue une nouvelle épreuve, mais, privée par les Allemands du contrôle de ses affaires lorraines, la famille échappe aux accusations de collaboration.
Les Wendel détiennent des participations dans des sociétés métallurgiques en aval de la production d’acier. Les entreprises : J. J. Carnaud et Forges de Basse-Indre, fabricants de boîtes de conserve dans la région nantaise, Creusot-Loire, Bourgogne, les Forges de Gueugnon, fabricants de tôles inoxydables, et, en Dauphiné, les Forges d’Allevard, producteurs d’aciers spéciaux pour ressorts ou aimants.
La huitième génération rassemble toutes ces participations dans la Compagnie générale d’industrie et de participations (CGIP) restée à l’écart de la nationalisation. Elles ont toutes entre-temps été cédées, la dernière avec Allevard en 2005. La CGIP, redevenue Wendel en 2002, n’est plus présente ensuite dans la métallurgie. Comme toute société d’investissements, même si elle se veut un « investisseur pour le long terme », il s’agit de participations minoritaires non consolidées. Elle n’apparaît pas dans les classements des grandes entreprises françaises, mais elle pèse économiquement.
La famille Wendel s’est engagée dans de grandes firmes de services informatiques avec Cap Gemini (1982-2003), d’équipement automobile avec Valeo (1986-2005), de la pharmacie avec BioMérieux (1989-2004), de la construction électrique avec Legrand (2002-2013), de l’édition avec Éditis (2004-2008) ou des matériaux avec Saint-Gobain (2007-2019). Elle a connu quelques mauvaises affaires comme la compagnie aérienne AOM-Air Liberté (2000-2001) qui a déposé le bilan.
Il n’existe aucune logique de spécialisation ou de synergie industrielle. Aujourd’hui, à côté de « gestion d’actifs privés pour compte de tiers », sont citées en « gestion pour compte propre » huit participations minoritaires ou majoritaires dans des entreprises plus pointues : Bureau Veritas, « leader mondial de l’inspection et de la certification », depuis 1995, Stahl, « leader mondial des revêtements de spécialité et traitements de surface » depuis 2006, Tarkett, « leader mondial des revêtements de sol et surfaces sportives » depuis 2021, ou encore Globeducate, « un des principaux groupes d’écoles bilingues de la maternelle au secondaire » depuis 2024.
Les actionnaires de la famille Wendel sont des cousins au cinquième ou sixième degré. Liés par un intérêt économique et mémoriel, ils font le choix de préserver l’unité, sous l’impulsion de l’un d’entre eux, Ernest-Antoine Seillière de Laborde. Cet énarque quitte l’administration du Quai d’Orsay en 1978 pour rejoindre la CGIP.
Il en devient le PDG en 1987 et la rebaptise Wendel en 2002. Entre-temps, il prend la présidence du Conseil national du patronat français (CNPF) qu’il transforme en Mouvement des entreprises de France (Medef). Resté président non opérationnel de Wendel jusqu’en 2013, il est confronté à une crise au sein de la famille. Des plaintes successives pour abus de biens sociaux et fraude fiscale sont déposées par une cousine, contre un montage qui lui a permis, avec d’autres cadres dirigeants, de recevoir des montants considérables d’actions gratuites. Si la première plainte est classée sans suite, la seconde débouche en 2022 sur sa condamnation, contre laquelle il n’a pas fait appel, à trois ans de prison avec sursis.
La famille n’a pas pour autant perdu son unité. La dissidente est restée isolée et les autres héritiers ont considéré que le tout continuait, malgré les déboires boursiers, de valoir plus que la somme des parties.
Si l’on ne compte plus, par le jeu des descendances féminines, qu’une seule branche, les deux fils de Henri (1913-1982) et leurs enfants, à porter le nom de Wendel, la famille Wendel est devenue, par le jeu des multiples alliances au fil des générations, un extraordinaire Gotha. On y croise de nombreuses autres grandes familles de l’aristocratie comme les Rohan-Chabot, Cossé-Brissac ou Bourbon-Busset, ou de la bourgeoisie d’affaires comme les Schneider ou les Peugeot.
Ces dernières années, l’action Wendel n’a pas été qu’une bonne affaire pour ses actionnaires. Après une chute, comme toutes les autres valeurs, consécutive à la crise de 2008, le titre s’était redressé pour atteindre un maximum de 151 euros en 2018. Depuis, il est beaucoup retombé pour stagner autour de 90 euros. Cette baisse a été compensée par une hausse du dividende annuel, que la société a toujours versé, porté en 2025 à 4,7 euros, ce qui maintient une bonne rentabilité autour de 5 %. Les actionnaires familiaux, qui ont hérité de leurs titres, ont pu toucher ces dividendes.
Qui sont ces descendants aujourd’hui ? À la 10e ou 11e génération, ils seraient 1 300 à se partager cet actif de 1,5 milliard. Cela représente 1,2 million d’euros par descendant en moyenne qui peut, selon la démographie des différentes branches, cacher d’importants écarts.
Hervé Joly ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.08.2025 à 19:22
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
*En 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée, elle est pourtant à l’origine de cette découverte majeure. Découvrez son histoire et tous ses exploits scientifiques, notamment en virologie. *
« La science et la vie quotidienne ne peuvent pas et ne doivent pas être séparées. »
Cette phrase de Rosalind Franklin éclaire sa vision singulière : pour elle, la science n’était pas une abstraction, mais un chemin concret vers une meilleure compréhension du monde. Tout au long de sa vie, elle a su allier une rigueur scientifique sans faille à un engagement discret, dans un univers où les femmes peinaient encore à obtenir la reconnaissance qu’elles méritaient.
Ni figure publique ni militante affichée, Rosalind Franklin travaillait dans l’ombre, avec une exigence et une méthode implacables. Et pourtant, c’est grâce à son expertise que la lumière a traversé la molécule d’ADN, révélant sa fameuse forme en double hélice.
À une époque où la place des femmes en science restait fragile, elle imposa sa voie avec précision et détermination, convaincue que la véritable beauté réside dans la structure profonde des choses.
Le 25 juillet 1920, au cœur du quartier londonien de Notting Hill, naît Rosalind Elsie Franklin, deuxième enfant d’une fratrie de cinq. Issue d’une famille juive britannique aisée et cultivée, elle grandit dans un environnement où la rigueur intellectuelle et l’engagement social sont des piliers. Son père, Ellis Arthur Franklin, banquier passionné de physique, rêvait d’être scientifique mais a vu ses ambitions fauchées par la Première Guerre mondiale. Sa mère, Muriel Waley, militait activement pour l’éducation des femmes. Ce mélange d’idéalisme, de savoir et de devoir allait profondément façonner Rosalind.
Dès l’enfance, elle fait preuve d’une intelligence hors norme. À six ans, elle passe ses journées à résoudre des problèmes d’arithmétique, sans jamais faire d’erreur, selon sa tante. À neuf ans, elle se lance un défi personnel : finir chaque semaine première de sa classe. Elle tiendra ce pari pendant deux ans. Déjà se dessine une personnalité exigeante, compétitive et intensément tournée vers la connaissance. Mais dans la société britannique des années 1920, une telle ambition, chez une fille, suscite autant d’admiration que de réticence, dans un contexte où la place des femmes restait largement cantonnée à la sphère domestique.
Rosalind Franklin poursuit ses études au prestigieux St Paul’s Girls’ School, l’un des rares établissements à enseigner les sciences aux jeunes filles. Elle y brille, notamment en physique et en mathématiques. En 1938, elle entre au Newnham College de l’Université de Cambridge, l’un des deux collèges féminins de l’époque. Son choix de se spécialiser en chimie et en physique n’est pas encore courant chez les femmes.
En 1941, en pleine guerre mondiale, elle obtient son diplôme. Tandis que beaucoup de femmes sont orientées vers des rôles d’assistante, Rosalind refuse tout compromis et intègre un laboratoire du British Coal Utilisation Research Association (Association britannique pour la recherche sur l’utilisation du charbon). Elle y étudie la microstructure du charbon par diffraction des rayons X, technique qui deviendra sa spécialité.
Ces recherches, bien que menées dans un contexte de guerre, auront des retombées industrielles majeures, notamment pour la fabrication de masques à gaz et de matériaux isolants.
En 1945, Rosalind Franklin obtient un doctorat de Cambridge – un exploit pour une femme à cette époque. En effet, à cette période, Cambridge ne délivrait pas officiellement de diplômes aux femmes, ce qui rend cet accomplissement d’autant plus remarquable, car Franklin fait partie des premières à obtenir un doctorat dans un contexte universitaire encore très fermé aux femmes.
En 1947, une nouvelle étape marque sa vie : elle rejoint le Laboratoire Central des Services Chimiques de l’État, à Paris, sur invitation de Jacques Mering. Elle y perfectionne ses compétences en cristallographie par rayons X et découvre un environnement de travail plus ouvert, où sa parole est écoutée et ses idées respectées.
Elle se lie d’amitié avec des chercheurs, découvre la culture française, et adopte un mode de vie simple mais libre. Elle parcourt les Alpes à pied, discute dans les bistrots, s’immerge dans la langue et la gastronomie. Elle confiera plus tard :
« Je pourrais vagabonder en France pour toujours. J’adore le pays, les gens et la nourriture. »
Pour une femme qui a toujours ressenti le poids du sexisme britannique, la France offre alors un souffle de liberté. En effet, l’université britannique, en particulier Cambridge et King’s college, reste encore profondément patriarcale : les femmes sont exclues des clubs et réunions informelles et ne reçoivent officiellement des diplômes à Cambridge qu’à partir de 1947.
Mais la science l’appelle ailleurs. En 1951, elle retourne en Angleterre avec une bourse prestigieuse (Turner and Newall Fellowship). Elle rejoint le King’s College de Londres, au département de biophysique, pour travailler sur une mystérieuse molécule encore peu comprise : l’ADN. On sait, depuis Avery (1944), qu’elle joue un rôle dans l’hérédité, et Chargaff (1950) a établi que les bases azotées se répartissent selon des proportions constantes (A=T, G=C), mais la structure tridimensionnelle demeure inconnue. C’est là que son destin scientifique se joue.
Franklin apporte au projet son expertise pointue en diffraction X. En quelques mois, elle améliore considérablement les images de l’ADN, et capture l’une des photographies les plus célèbres de l’histoire de la biologie : le « cliché 51 ». Cette image révèle, avec une clarté inédite, la forme hélicoïdale de la molécule d’ADN. On y voit des taches disposées en forme de X, révélant que la molécule forme une double hélice régulière. L’espacement des taches renseigne sur la distance entre les bases (A, T, C et G), et leur symétrie suggère une structure très ordonnée.
Rosalind Franklin identifie également deux formes distinctes de l’ADN selon l’humidité (forme A et B), et démontre que les groupements phosphate sont orientés vers l’extérieur.
Mais derrière cette réussite, l’ambiance au laboratoire est tendue. Franklin est la seule femme scientifique du département, et ses collègues masculins, notamment Maurice Wilkins, voient son indépendance comme de l’insubordination. En effet, Wilkins pensait que Franlkin arrivait au laboratoire comme assistante sous sa direction. De son côté, Rosalind pensait avoir été recrutée pour diriger ses propres recherches sur l’ADN,de manière indépendante. Cette incompréhension institutionnelle a été exacerbée par une communication défaillante de la part de John Randall, directeur du laboratoire, qui n’a pas informé Wilkins de l’autonomie accordée à Franklin. Wilkins n’a appris cette décision que des années plus tard, ce qui a contribué à des tensions professionnelles. Ce dernier, persuadé qu’elle est son assistante, se heurte à son refus catégorique de toute hiérarchie injustifiée. Leur relation devient glaciale. Dans ce climat conservateur et misogyne, Franklin se heurte à un plafond de verre invisible, mais solide.
C’est dans ce contexte qu’un événement aux lourdes conséquences se produit. Sans son consentement, Wilkins montre le cliché 51 à James Watson, jeune chercheur de Cambridge. Ce dernier, avec Francis Crick, travaille lui aussi sur l’ADN, mais sans données expérimentales directes. En découvrant la photographie, Watson est stupéfait :
« Ma mâchoire s’est ouverte et mon pouls s’est emballé. »
La photographie de Franklin devient la pièce manquante qui leur permet de construire leur célèbre modèle de la double hélice. En avril 1953, trois articles fondamentaux sur l’ADN paraissent dans la revue Nature. Le premier, signé par Watson et Crick, propose le célèbre modèle en double hélice, fondé sur des raisonnements théoriques et des données expérimentales issues d’autres laboratoires – notamment le cliché 51, transmis à leur insu par Maurice Wilkins. Le second article, coécrit par Wilkins, Stokes et Wilson, présente des résultats de diffraction des rayons X qui confirment la présence d’une structure hélicoïdale, en cohérence avec le modèle proposé. Le troisième, rédigé par Rosalind Franklin et Raymond Gosling, expose avec rigueur leurs propres données expérimentales, parmi les plus décisives, mais sans que Franklin ait été informée de leur utilisation préalable par Watson et Crick. Bien que sa contribution soit déterminante, elle n’est mentionnée que brièvement dans les remerciements.
Watson la surnomme plus tard dans ses mémoires « Rosy », un diminutif qu’elle n’a jamais utilisé et qu’elle détestait. Il la décrit comme austère, inflexible, difficile – un portrait injuste qui trahit davantage les préjugés de l’époque que la réalité de sa personne. Ses collègues masculins l’appellent la « Dark Lady » de l’ADN.
Blessée, fatiguée par ce climat toxique, Franklin quitte le King’s College dès la fin 1953. Mais loin d’abandonner, elle rebondit immédiatement.
Elle rejoint alors le Birkbeck College, un établissement de l’Université de Londres situé à Bloomsbury, sur l’invitation du physicien John Bernal qui la qualifie de « brillante expérimentatrice ». Elle y obtient un poste de chercheuse senior, à la tête de son propre groupe de recherche, financé par l’Agricultural Research Council. Là, elle applique ses compétences en diffraction X à un nouveau domaine : les virus. Elle se lance dans l’étude du virus de la mosaïque du tabac, un petit virus végétal très étudié. Avec son équipe, les doctorants Kenneth Holmes et John Finch, le jeune chercheur postdoctoral Aaron Klug, futur prix Nobel, ainsi que l’assistant de recherche James Watt, elle démontre que l’ARN du virus est situé à l’intérieur d’une coque protéique hélicoïdale. Cette découverte est essentielle car elle montre la forme en 3D du virus, explique comment l’ARN est protégé à l’intérieur, et crée les bases pour mieux comprendre les virus. Cela a aidé à progresser dans la recherche pour trouver des traitements contre les infections virales.
Entre 1953 et 1958, elle publie plus de 15 articles majeurs, établissant les bases de la virologie moléculaire. Elle travaille également sur la structure du virus de la polio, en collaboration avec le futur prix Nobel Aaron Klug, récompensé en 1982 pour son développement de la microscopie électronique cristallographique et l’élucidation des complexes biologiques entre acides nucléiques et protéines. Elle est enfin dans un environnement où elle est écoutée, respectée, et même admirée.
Mais en 1956, le destin frappe cruellement. Au cours d’un séjour aux États-Unis, Franklin ressent de fortes douleurs abdominales. Le diagnostic tombe : cancer des ovaires. Elle a 36 ans. La maladie est probablement liée à son exposition répétée aux rayons X, à une époque où les protections étaient rudimentaires, voire absentes.
Malgré plusieurs opérations et de lourds traitements, elle continue de travailler, fidèle à sa discipline et à sa passion. Jusqu’à ses derniers mois, elle écrit, corrige, encourage, dirige. Elle meurt le 16 avril 1958, à l’âge de 37 ans.
Quatre ans après sa mort, en 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée. Officiellement, le prix ne peut être attribué à titre posthume. Officieusement, elle n’a jamais été sérieusement envisagée comme co-lauréate, car son nom ne circulait pas dans les cercles masculins du pouvoir scientifique.
Il faudra attendre les années 1970 pour que sa contribution soit pleinement reconnue. D’abord par Anne Sayre, amie de Franklin, journaliste américaine et amie proche de Franklin rencontrée à Londres dans les années 1950 grâce à leur cercle social commun lié au monde scientifique, qui publie Rosalind Franklin and DNA en 1975 pour rétablir les faits. Puis, bien après, en 2002, avec la biographie The Dark Lady of DNA, écrite par Brenda Maddox et qui rencontre un grand écho international.
Aujourd’hui, son nom est inscrit sur des bâtiments universitaires, des bourses, des prix scientifiques. En 2020, elle est sélectionnée par le magazine Nature parmi les plus grandes scientifiques du XXe siècle. En 2021, la mission spatiale européenne vers Mars, nommée Rosalind Franklin Rover, a été lancée pour chercher des traces de vie passée dans le sous-sol martien. Ce nom rend hommage à Franklin, dont les travaux sur la structure de l’ADN symbolisent la recherche des bases moléculaires du vivant.
Rosalind Franklin, longtemps éclipsée par ses pairs, incarne aujourd’hui bien plus qu’une figure oubliée de la science. Elle est devenue un symbole de ténacité, d’éthique scientifique, et de justice. Une pionnière dont l’éclat posthume inspire chercheuses et chercheurs à persévérer malgré les obstacles, les discriminations et les injustices qu’ils peuvent rencontrer.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.08.2025 à 17:15
Matthew Sussex, Associate Professor (Adj), Griffith Asia Institute; and Fellow, Strategic and Defence Studies Centre, Australian National University
La rencontre tenue en Alaska entre le président des États-Unis et celui de la Russie s’est soldée par un triomphe symbolique et diplomatique pour Vladimir Poutine. Les propositions de paix pour l’Ukraine qui semblent devoir en ressortir vont entièrement dans le sens des volontés du maître du Kremlin, et ne pourront sans doute pas être acceptées par Kiev et ses alliés européens. Trump, pour sa part, estime de toute évidence que toute paix, même injuste, temporaire et susceptible de déboucher sur une nouvelle attaque d’envergure menée par la Russie, serait souhaitable, car cela lui permettrait de se présenter comme l’artisan d’une solution.
L’étrange sommet entre Donald Trump et Vladimir Poutine qui vient de se tenir en Alaska devrait finir de convaincre ceux qui en doutaient encore que, aux yeux de la Maison Blanche, il importe plus d’entretenir des relations amicales avec le dictateur russe que d’instaurer une paix durable en Ukraine.
Le programme initial ayant été raccourci, les deux dirigeants ont pu conclure la réunion plus tôt que prévu. Ils se sont ensuite mutuellement félicités lors d’une conférence de presse à l’issue de laquelle ils n’ont pas répondu aux questions des journalistes présents.
Il ressort de cette séquence que Trump ne voit aucun inconvénient à offrir des victoires symboliques à Poutine et qu’il refuse d’exercer à son encontre la moindre pression réelle.
Le choix du lieu où s’est déroulée la rencontre n’avait rien d’anodin. En effet, la Russie affirme régulièrement que l’Alaska, qu’elle a vendu aux États-Unis dans les années 1860, lui appartient toujours de droit. Avant la réunion, les porte-parole du Kremlin ont pris plaisir à affirmer que Poutine et son équipe avaient emprunté un « vol intérieur » pour se rendre à Anchorage – des propos rappelant des panneaux d’affichage installés en Russie en 2022 et proclamant « L’Alaska est à nous ! ». Des prétentions russes sur l’Alaska que Trump a alimentées par une nouvelle gaffe avant la réunion lorsqu’il a déclaré que si les discussions ne prenaient pas le tour qu’il souhaitait… il « repartirait aux États-Unis ».
Lorsque l’avion de Poutine a atterri, des militaires américains se sont mis à genoux pour dérouler un tapis rouge sur lequel le président russe allait faire ses premiers pas sur le sol des États-Unis, comme un leader respecté plutôt que comme un criminel de guerre inculpé par la Cour pénale internationale. Poutine a ensuite été invité à rejoindre le bâtiment de la réunion non pas dans son propre véhicule, mais dans la limousine de Trump, en compagnie de celui-ci.
Au-delà de ces images marquantes, Trump a offert à Poutine plusieurs autres victoires qui ne peuvent que renforcer l’image du président russe dans son pays et confirmer au monde entier que les relations entre les États-Unis et la Russie se sont normalisées.
L’organisation d’un sommet est généralement perçue comme une faveur de la part du pays qui l’accueille, comme le signe d’une volonté sincère d’améliorer les relations bilatérales. En l’invitant en Alaska, Trump a traité Poutine sur un pied d’égalité. Il n’a exprimé aucune critique à propos des violations flagrantes des droits de l’homme commises par la Russie, de ses tentatives de plus en plus violentes visant à fragmenter l’alliance transatlantique ou de sa volonté de multiplier les conquêtes territoriales.
Au lieu de cela, Trump a, une fois de plus, cherché à présenter Poutine et lui-même comme des victimes. Il a notamment déploré que l’un comme l’autre aient été contraints, depuis des années, de supporter « le mensonge “Russie, Russie, Russie” » selon lequel Moscou aurait interféré dans l’élection présidentielle américaine de 2016.
Il a ensuite offert à Poutine une victoire supplémentaire, en rejetant la responsabilité d’accepter les conditions russes pour mettre fin à la guerre en Ukraine sur le gouvernement ukrainien et sur l’Europe, affirmant que « au bout du compte, c’est à eux de décider ».
Poutine a obtenu tout ce qu’il pouvait espérer. Outre le gain symbolique qu’ont constitué ses séances photo avec le président américain, il a pu, sans être contredit, déclarer que la guerre en Ukraine ne pourrait se terminer qu’à la condition que soient réglées ses « causes profondes » – ce qui, dans sa bouche, signifie que c’est l’OTAN qui est responsable du conflit, et non pas l’agression impérialiste non provoquée qu’il mène depuis des années à l’encontre du pays voisin.
Il a également évité d’aborder le sujet d’éventuelles sanctions américaines supplémentaires, menace que Trump avait vaguement brandie dans les semaines précédentes avant de déclarer, comme il l’a si souvent fait par le passé qu’il avait besoin de « deux semaines » pour y réfléchir davantage.
Puis, ayant empoché ces victoires symboliques et diplomatiques, Poutine a rapidement repris son avion pour rentrer chez lui, emportant probablement la statue de bureau de l’aigle à tête blanche, emblème des États-Unis, que Trump lui avait offerte.
Après l’appel téléphonique passé par Trump aux dirigeants européens à l’issue du sommet pour les informer de la teneur de ses échanges avec Poutine, des détails concernant le plan de paix abordé par les deux hommes ont commencé à fuiter.
Poutine serait prêt à fixer les lignes de front actuelles dans les régions de Kherson et de Zaporijia en Ukraine, à condition que Kiev accepte de céder l’ensemble des régions de Lougansk et de Donetsk, y compris les territoires que la Russie ne contrôle pas actuellement. Il n’y aurait pas de cessez-le-feu immédiat (ce que souhaitent l’Europe et l’Ukraine), mais une évolution vers une paix permanente, ce qui correspond aux intérêts du Kremlin.
Qu’on ne s’y trompe pas : il s’agit d’un piège à peine déguisé. Poutine et Trump soumettent à l’Ukraine et à l’Europe une proposition inacceptable, et une fois que celles-ci s’y seront opposées, ils les accuseront de refus d’aller de l’avant et de bellicisme.
D’une part, l’Ukraine contrôle toujours une partie importante de la région de Donetsk. Abandonner les régions de Donetsk et de Lougansk reviendrait non seulement à céder à Moscou les réserves de charbon et de minerais qu’elles recèlent, mais aussi à renoncer à des positions défensives vitales que les forces russes n’ont pas réussi à prendre depuis des années.
Cela permettrait également à la Russie de lancer plus aisément d’éventuelles incursions futures, ouvrant la voie vers Dnipro à l’ouest et vers Kharkiv au nord.
L’apparent soutien de Trump aux exigences de la Russie qui demande à l’Ukraine de céder des territoires en échange de la paix – ce que les membres européens de l’OTAN rejettent – signifie que Poutine a réussi à affaiblir encore davantage le partenariat transatlantique.
De plus, rien ou presque n’a été dit sur qui garantirait la paix, ni sur la façon dont l’Ukraine pourrait être assurée que Poutine ne profiterait pas de ce répit pour se réarmer et tenter à nouveau d’envahir la totalité du pays.
Étant donné que le Kremlin s’oppose systématiquement à l’adhésion de l’Ukraine à l’OTAN, accepterait-il vraiment que des forces européennes ou américaines assurent la sécurité de la nouvelle ligne de contrôle ? Quant à l’Ukraine, serait-elle autorisée à se réarmer, et dans quelle mesure ?
Et même si dans une future ère post-Trump les États-Unis adoptaient une ligne plus ferme, Poutine aura tout de même réussi à s’emparer de territoires qu’il sera impossible de lui reprendre. Voilà qui renforce l’idée selon laquelle conquérir des parties d’un pays voisin est une stratégie payante.
Il existe toutefois un élément à première vue plus encourageant pour l’Ukraine : les États-Unis seraient prêts à lui offrir des garanties de sécurité « hors OTAN ».
Mais là aussi, la plus grande prudence est de mise. L’administration Trump a déjà exprimé publiquement son rapport pour le moins ambigu quant aux engagements des États-Unis à défendre l’Europe en vertu de l’article 5 de l’OTAN, ce qui a remis en question la crédibilité de Washington en tant qu’allié. Les États-Unis se battraient-ils vraiment pour l’Ukraine en cas de future invasion russe ?
Il faut reconnaître que les dirigeants européens ont réagi avec fermeté aux transactions de Trump avec Poutine.
Tout en saluant la tentative de résolution du conflit, ils ont déclaré au président ukrainien Volodymyr Zelensky qu’ils continueraient à le soutenir si l’accord était inacceptable. Zelensky, qui doit rencontrer Trump à Washington lundi, a déjà rejeté l’idée de céder la région du Donbass (Donetsk et Lougansk) à la Russie.
Mais l’Europe se retrouve désormais face à une réalité qu’elle ne peut nier : non seulement elle doit faire plus, mais elle doit également assurer un leadership durable sur les questions sécuritaires, plutôt que se contenter de réagir à des crises qui ne cessent de se répéter.
En fin de compte, le sommet de l’Alaska montre que la paix en Ukraine n’est qu’une partie du tableau d’ensemble aux yeux de l’administration Trump, qui s’efforce d’établir des relations plus cordiales avec Moscou, si ce n’est de s’aligner complètement sur le Kremlin.
Trump se soucie peu de la manière dont la paix sera obtenue en Ukraine, ou du temps que cette paix durera. Ce qui lui importe, c’est qu’il en retire le mérite, voire obtienne grâce à cette paix précaire le prix Nobel de la paix auquel il aspire ouvertement.
Et bien que la vision de Trump consistant à éloigner la Russie de la Chine relève de la fantaisie, il a néanmoins décidé de s’y accrocher. Cela oblige les partenaires européens des États-Unis à réagir en conséquence.
Il existe déjà de nombreux signes indiquant que, ayant échoué à gagner la guerre commerciale avec la Chine, l’administration Trump choisit désormais de s’en prendre aux alliés des États-Unis. On le constate à travers son obsession pour les droits de douane ; son désir étrange de punir l’Inde et le Japon ; et, plus globalement, la destruction du soft power américain.
Plus inquiétant encore : les initiatives diplomatiques de Trump continuent de le faire passer pour un jouet entre les mains des dirigeants autoritaires.
Cela enseigne une leçon plus large aux amis et partenaires des États-Unis : leur sécurité future dépend peut-être des bons offices américains, mais il serait naïf de croire que cela garantit automatiquement que Washington leur donnera la priorité s’ils se trouvent menacés par des puissances ennemies…
Matthew Sussex a reçu des financements de l'Australian Research Council, de l'Atlantic Council, de la Fulbright Foundation, de la Carnegie Foundation, du Lowy Institute et de divers ministères et agences gouvernementaux australiens.
17.08.2025 à 11:58
David Camroux, Senior Research Associate (CERI) Sciences Po; Professorial Fellow, (USSH) Vietnam National University, Sciences Po
Cinq jours d’escarmouches entre le Cambodge et la Thaïlande en juillet 2025 ont fait près de 40 morts et déplacé environ 300 000 personnes, révélant l’ampleur des tensions frontalières et nationalistes entre les deux pays. Derrière ce conflit, vieux de plusieurs siècles, se mêlent calculs politiques internes, rivalités irrédentistes et enjeux économiques cruciaux, tandis que l’Asean tente de contenir la crise et d’éviter un nouveau bras de fer régional.
Le 7 août 2025, le Cambodge et la Thaïlande se sont mis d’accord pour renforcer le cessez-le-feu conclu le 28 juillet à Kuala Lumpur entre le premier ministre cambodgien Hun Manet et le premier ministre thaïlandais par intérim Phumtham Wechayachai. Dans l’attente du déploiement officiel de la mission d’observation de l’Asean, des attachés de défense d’autres États membres seront envoyés le long de la frontière disputée.
Malgré des incidents impliquant des mines antipersonnels, qui a blessé quatre soldats thaïlandais, la trêve a mis fin à cinq jours d’escarmouches ayant fait environ 35 morts et déplacé près de 300 000 personnes. L’implication de l’Asean rappelle son rôle dans la résolution d’affrontements similaires en 2011.
Le 22 août, Thaksin Shinawatra, de retour après quinze ans d’exil, connaîtra le verdict d’une affaire de lèse-majesté, suivi le 9 septembre par la décision de la Cour suprême sur sa détention en hôpital. Ces affaires judiciaires, liées à Hun Sen et aux anciennes alliances, se mêlent aux tensions frontalières, reflétant d’anciennes rivalités nationalistes et irrédentistes.
Le drapeau cambodgien, représentant Angkor Wat, évoque un âge d’or impérial. Adopté lors du retour de la monarchie en 1993, il reprend presque à l’identique celui de 1863, lorsque le roi Norodom demanda la protection française pour se prémunir des ambitions siamoises. Unique au monde, il arbore un monument existant comme élément central, symbole des gloires de l’Empire khmer (IXe–XIIIe siècles).
Le Trairong thaïlandais, quant à lui, date de 1917, adopté par décret royal et porté fièrement par le corps expéditionnaire siamois lors du défilé de la victoire à Paris en 1919, puis à Genève lorsque le Siam rejoignit la Société des Nations. Il célèbre la modernité et le statut unique de la Thaïlande, seul État d’Asie du Sud-Est à n’avoir jamais été colonisé.
Au fil de mes voyages et de mes échanges dans ces deux pays, j’ai eu l’impression, de manière anecdotique, que ces symboles reflètent des visions du monde opposées : les Cambodgiens, attachés à leur grandeur passée, considèrent les Thaïlandais comme des parvenus, tandis que ces derniers perçoivent leurs voisins comme soumis à l’influence étrangère et en retard sur le plan de la modernité.
Les différends frontaliers remontent aux traités franco-siamois de 1904 et 1907. Sur les 817 km de frontière terrestre, 195 km restent non délimités. Des désaccords sur les échelles cartographiques – projection Mercator pour le Cambodge, sinusoïdale pour la Thaïlande – bloquent toute avancée.
Les tensions de 2025 trouvent leur origine dans divers incidents, comme celui de février, lorsque des soldats cambodgiens ont entonné leur hymne national au temple Ta Muen Thom (situé à la frontière entre les deux pays), provoquant des protestations thaïlandaises.
Les différends maritimes jouent aussi un rôle, notamment autour de l’île de Koh Kood, cédée au Siam en 1907 mais toujours revendiquée par des nationalistes cambodgiens, y compris dans la diaspora. Les négociations sur la zone de revendications superposées dans le golfe de Thaïlande (27 000 km2 riches en gaz) ont par le passé déclenché une réaction hostile des conservateurs thaïlandais, contribuant à la chute de Thaksin en 2006. Début 2025, sa fille, la Première ministre Paetongtarn, a tenté de relancer les discussions avec Hun Manet, ravivant des tensions similaires.
Les combats de juillet ont impliqué l’artillerie cambodgienne et des frappes aériennes et de drones thaïlandaises, avec peu d’engagements au sol. Les forces cambodgiennes, moins précises, semblaient chercher à forcer des négociations, tandis que les Thaïlandais visaient à « les remettre à leur place ». Des images satellites montrent que le Cambodge se préparait depuis février. L’étincelle du conflit a été l’explosion d’une mine à la mi-juillet, qui a blessé huit soldats thaïlandais. Les affrontements ont duré cinq jours, entraînant moins de 40 morts et le déplacement temporaire d’environ 300 000 personnes le long de la frontière.
Sur le plan diplomatique, Hun Manet a sollicité l’arbitrage de la CIJ sur les sites disputés, bien que la Thaïlande refuse sa compétence obligatoire. Plus provocateur encore, Hun Sen a divulgué un appel téléphonique de Paetongtarn au ton jugé déférent, entraînant sa suspension politique. La police thaïlandaise a ensuite ciblé des réseaux d’arnaques liés au Cambodge, menaçant des flux financiers illicites cruciaux pour l’élite au pouvoir à Phnom Penh. Ces opérations ont cessé après le cessez-le-feu, le Cambodge se contentant de quelques actions internes limitées.
À lire aussi : La Thaïlande en crise politique et diplomatique
Le régime autoritaire cambodgien, dépendant des revenus issus de la cybercriminalité, a utilisé le conflit pour détourner l’attention de ses activités illicites, réprimer l’opposition de la diaspora via des modifications de la loi sur la nationalité, et renforcer ses références nationalistes.
Selon certaines estimations, la cybercriminalité représenterait entre 12,5 et 19 milliards de dollars par an, soit jusqu’à 60 % du PIB, surpassant largement le secteur formel le plus important du pays, celui du textile. Jacob Sims décrit le parti au pouvoir comme une « entreprise criminelle sophistiquée drapée dans un drapeau », où « la gouvernance passe par la criminalité »**
En Thaïlande, l’establishment conservateur-militaire, jamais vraiment réconcilié avec l’accession de Paetongtarn au pouvoir, a exploité la crise pour l’affaiblir. La configuration politique thaïlandaise combine un Parlement partiel élu, un Sénat puissant non élu en partie désigné par l’armée, une monarchie influente, un pouvoir judiciaire complaisant et un establishment politico-économique conservateur. L’armée thaïlandaise, qui a réalisé douze coups d’État depuis la fin de la monarchie absolue en 1932, conserve des instruments historiques de pouvoir, notamment les régiments de la Garde royale récemment réorganisés sous le contrôle personnel du roi. Cette structure a limité les risques de coups, mais permet à l’armée et aux élites conservatrices de peser fortement sur la scène politique. L’exploitation de la crise frontalière par ces acteurs pourrait conduire à l’éviction du clan Shinawatra, même si les revendications pour une réforme démocratique restent importantes.
Il existe des raisons objectives pour que les deux pays cherchent une solution durable. Selon Nikkei Asia (6 août 2025), le conflit a provoqué en Thaïlande des dommages directs d’au moins 10 milliards de baht, soit environ 300 millions de dollars. Si les points de passage frontaliers restent fermés, le commerce annuel pourrait chuter de 1,85 milliard de dollars. Entre 1 et 1,2 million de travailleurs cambodgiens se trouvent en Thaïlande, dont 400 000 sont déjà rentrés au Cambodge, ce qui risque de provoquer des pénuries de main-d’œuvre dans des secteurs exigeants tels que la construction et l’agriculture. Du côté cambodgien, les transferts d’argent en provenance de Thaïlande, estimés entre 1,4 et 1,9 milliard de dollars, constituent une ressource essentielle pour l’économie formelle. Moins médiatisée, l’intervention discrète du gouvernement japonais visait à mettre fin au conflit : pour Tokyo, comme pour Pékin, sa poursuite aurait représenté une menace pour les chaînes de production régionales fortement intégrées.
Les récentes taxes américaines de 19 % risquent de fragiliser encore davantage ce secteur, poussant au chômage et au retour à l’économie informelle et illicite. Les touristes thaïlandais, qui représentent environ un tiers des visiteurs étrangers au Cambodge, ne devraient pas revenir de sitôt.
Politiquement, chaque camp a atteint certains de ses objectifs : l’armée thaïlandaise a renforcé son rôle incontournable, tandis que le leadership cambodgien a mobilisé le soutien nationaliste. Cependant, les dynamiques sous-jacentes, notamment en Thaïlande, restent intactes : le mouvement générationnel incarné par le parti Move Forward (rebaptisé People’s Party) pourrait raviver les demandes pour une monarchie constitutionnelle plus classique, un pouvoir judiciaire indépendant et un parlement représentatif. Au Cambodge, l’avenir après Hun Sen demeure incertain : Hun Manet pourrait se heurter à des rivalités au sein de son propre appareil, et toute pression internationale, y compris chinoise, pour fermer les centres de cybercriminalité risquerait d’affaiblir l’élite dirigeante, offrant à l’opposition en exil une opportunité de mobiliser le nationalisme.
À lire aussi : Au Cambodge, une base militaire comme outil d’influence pour Pékin
La Commission mixte de délimitation des frontières, créée en 1997, a peu progressé. Après sa cinquième réunion en 2012, il a fallu treize ans pour convoquer une sixième réunion en 2024, au cours de laquelle les responsables ont indiqué que la démarcation n’était achevée que dans 13 zones et que 11 autres faisaient encore l’objet de désaccords.
En théorie, les différends frontaliers relèvent d’une arbitrage international neutre. La partie la plus faible, le Cambodge, a déjà sollicité par le passé l’arbitrage de la Cour internationale de justice, qui a statué en 1962 et 2013 que le temple de Preah Vihear appartenait au Cambodge. L’appel de Hun Manet à un nouvel arbitrage de la CIJ avait peu de chances de succès, mais il a attiré l’attention des États-Unis. Quelques jours avant une hausse tarifaire annoncée de 36 %, Donald Trump a appelé les deux dirigeants, s’attribuant le mérite du cessez-le-feu et réduisant la hausse à 19 %.
La médiation de l’Asean offre une lueur d’espoir. Les deux parties sont sous pression pour montrer qu’elles sont des membres responsables de la « famille Asean » et respectent la « voie Asean » fondée sur la souveraineté et le consensus. L’Asean, éventuellement avec l’appui technique d’autres partenaires régionaux, pourrait jouer le rôle d’arbitre indépendant, jusque-là absent. Toutefois, sans engagement durable, les différends irrédentistes resteront une menace récurrente pour la stabilité régionale, et leur résolution dépendra en grande partie de la capacité des dirigeants à dépasser les enjeux politiques immédiats et les rivalités historiques.
David Camroux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.08.2025 à 18:23
Adrian Palmer, Professor of Marketing, University of Reading
C’est un facteur qu’on oublie souvent pour expliquer le développement du tourisme de masse. Plutôt que de pointer des groupes sociaux, il peut être intéressant d’analyser l’influence du progrès technologique sur le développement du voyage pour tous – ou pour presque tous. Quel impact la technologie pourrait-elle avoir dans les années à venir ?
Le touriste n’est plus toujours le bienvenu parmi les habitants des lieux que beaucoup d’entre nous rêvent de visiter. Si un nombre important de visiteur peut apporter des avantages économiques, il peut aussi avoir un coût pour les locaux et causer des dommages environnementaux.
Airbnb est visé du doigt par certains. D’autres accusent les opérateurs de navires de croisière, les baby-boomers désormais à la retraite ou les classes moyennes en pleine croissance à travers le monde, avec leurs revenus disponibles et leur appétit insatiable pour les selfies. Reste un élément souvent négligé : le rôle de la technologie.
En effet, historiquement, les nouveaux modes de transport ont été un moteur important de l’industrie du tourisme. Au Royaume-Uni, par exemple, l’expansion des chemins de fer au XIXe siècle a produit le tourisme de masse dans les villes côtières, notamment dans les villes de Bournemouth (comté de Dorset, côte sud de l’Angleterre) et de Blackpool (Lancashire, nord-ouest de l'Angleterre). Dans les années 1960, les voyages aériens moins chers ont fait de même pour les destinations à l’étranger. Des endroits comme Majorque et la Costa del Sol en Espagne sont alors devenus accessibles à des masses de nouveaux visiteurs.
À lire aussi : Un tourisme durable est-il possible ?
Mais les nouveaux modes de transport ne sont plus le principal facteur pour expliquer la croissance actuelle et future du tourisme de masse. À court terme, de nouvelles façons de voyager par terre, air ou mer qui alimenteraient la croissance comme le firent le train ou l’avion, ne sont pas anticipées.
Aujourd’hui, les effets de la technologie sont plus subtils : le monde en ligne transforme la façon dont nous voyageons dans le monde réel. Ainsi, Internet a rendu plus floue la distinction entre résidents et touristes. L'essor du télétravail, rendu possible par Internet, permet à certaines personnes de vivre là où elles aiment passer leur temps libre, plutôt que de privilégier la proximité de leur lieu de travail ou des transports en commun.
À cette catégorie s’ajoutent les « nomades numériques » qui poussent plus loin le concept de télétravail : dès lors qu’ils ont une connexion Internet décente, ils peuvent vivre (et travailler) n’importe où dans le monde.
L’essor des réseaux sociaux a également eu un impact considérable sur le tourisme, en diffusant des récits et des images sur des attractions jusqu’alors peu connues. Quelques vidéos virales peuvent rapidement transformer des coins perdus en destinations touristiques très prisées. Il suffit de demander aux habitants de la station de ski italienne de Roccaraso, autrefois tranquille. Depuis janvier 2025, ils sont submergés par un afflux de visiteurs, à la suite de vidéos TikTok de l’influenceuse italienne Rita De Crescenzo.
Le monde en ligne a également comblé un fossé qui existait auparavant entre les destinations touristiques et leurs clients éloignés. Avant l’avènement d’Internet, l’industrie mondiale du tourisme dépendait des agences de voyage et de la presse écrite. Aujourd’hui, tous les hôtels et complexes touristiques sont accessibles en quelques clics, avec des plateformes comme Airbnb (qui a accueilli 5 millions de locations en 2024) transformant en profondeur le secteur.
Les effets de l’intelligence artificielle (IA) sur le tourisme sont moins certains pour le moment. Mais elle pourrait peut-être faire partie de la solution. L’IA pourrait être utilisée pour aider à créer des expériences touristiques personnalisées dans des endroits qui ont vraiment besoin de touristes, réduisant ainsi les dommages causés aux sites surpeuplés ou aux écosystèmes fragiles.
L’industrie du voyage pourrait également l’utiliser pour faire des prédictions plus précises sur les habitudes de voyage, aidant ainsi des villes comme Barcelone et Venise à gérer leur nombre de visiteurs.
La réalité virtuelle améliorée par l’IA a également le potentiel de permettre aux gens de vivre des expériences de destinations touristiques à distance. Des études suggérent que les « vacances virtuelles » pourraient bouleverser le secteur du tourisme.
Après tout, nous sommes nombreux à avoir troqué d'autres expériences réelles, comme le shopping ou les réunions de travail, contre des activités que nous pratiquons désormais sur un écran. Il y a même des preuves d’une préférence émergente pour la pratique de sports en ligne par rapport aux versions réelles.
Mais le tourisme virtuel pourrait-il devenir assez attrayant pour réduire sensiblement le tourisme réel ? Les touristes du futur se contenteront-ils vraiment d’une version virtuelle d’un chef d’œuvre ou d’un lieu exceptionnel, au lieu de faire la queue pendant des heures pour une expérience au sein d’une foule ?
La question a été posée dans des termes assez similaires lorsque la télévision couleur s’est développée dans les années 1960. Par exemple, certains estimaient que la représentation vivante de la faune sauvage dans les réserves africaines réduirait la nécessité pour les touristes de s’y rendre. Qui se donnerait la peine de dépenser de l’argent pour aller au Kenya ou au Botswana, alors qu'il est possible de voir ces animaux de près, en restant confortablement assis dans son canapé ?
Le résultat a toutefois été exactement le contraire. Il est prouvé que les programmes consacrés à la faune sauvage ont en fait stimulé la demande pour voir les animaux « en vrai ». De même, les films et les séries télévisions populaires tournés dans des lieux magnifiques donnent envie aux gens de les visiter. L’anticipation et l’attente de la « vraie » visite ajoutent même de la valeur à l’expérience touristique finale.
Ainsi, bien que nous puissions être à peu près sûrs que l’IA affectera le tourisme – comme elle le fera pour toutes les industries –, nous ne savons pas encore si son impact global réduira la pression sur les lieux les plus populaires du monde ou stimulera davantage la demande. Et ce n’est peut-être pas la technologie qui aura le dernier mot. Les préoccupations concernant le changement climatique et les pressions économiques pourraient influencer les habitudes de voyage mondiales avant tout. Mais une chose est sûre : la fin du surtourisme n’est pas pour demain.
Adrian Palmer a reçu un financement de la British Academy pour une étude sur le rôle des médias sociaux dans les visites touristiques. Il est membre non rémunéré du Collège d'experts du ministère britannique de la Culture, des Médias et des Sports, un organisme de recherche consultatif non politique.
15.08.2025 à 16:21
Pierre-Christophe Pantz, Enseignant-chercheur à l'Université de la Nouvelle-Calédonie (UNC), Université de Nouvelle Calédonie
Le FLNKS, le principal regroupement de mouvements indépendantistes, a officiellement désavoué le 13 août dernier l’accord de Bougival, qui devait renouer le dialogue avec l’État et permettre à la Nouvelle-Calédonie d’accéder à davantage d’autonomie. Qu’adviendra-t-il de ce texte, toujours soutenu par une partie du camp indépendantiste ?
Quelques semaines à peine après la ratification inespérée d’un accord politique entre l’État et dix-huit représentants politiques néocalédoniens – indépendantistes et non-indépendantistes – les voix dissonantes s’amplifient et contestent parfois avec virulence un compromis politique qu’elles considèrent comme « mort-né ».
Dans un premier temps, l’Union Calédonienne (UC), l’un des principaux partis indépendantistes de l’archipel, a vivement réagi en reniant la signature de ses trois représentants. Logiquement, le Front de libération nationale kanak et socialiste (FLNKS) – coalition de 7 groupes de pression dont l’UC est le principal membre – a suivi, en actant le 13 août son rejet de ce projet d’accord en raison de son « incompatibilité avec les fondements et acquis de sa lutte ». Il réclame par ailleurs des élections provinciales en novembre 2025. Face à cette levée de boucliers, l’accord de Bougival, qualifié d’« historique » par le ministre des Outre-mer Manuel Valls, a-t-il encore des chances d’aboutir ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dans ce contexte tendu, certains signataires – notamment ceux du FLNKS – se retrouvent désormais contestés par leur propre parti politique et leurs militants. Quelques jours après les signatures et la publication in extenso de l’accord, l’Union Calédonienne et le FLNKS avaient rapidement précisé que la délégation de signataires ne disposait pas du mandat politique pour signer un tel document au nom de leur parti. Sous la pression des militants, ce sont essentiellement de nouveaux responsables politiques qui ont contribué à l’ampleur de la contestation contre l’accord, puis à sa remise en cause. Rappelons tout de même que les trois signataires de l’UC occupent des rôles fondamentaux dans la gouvernance du parti, ce qui les rendait a priori légitimes à le représenter.
Après le rejet formel de l’Union Calédonienne (UC), principale composante du Front, l’organisation a précisé lors de son comité directeur que « le mandat des signataires et des équipes tombe de fait » : une nouvelle équipe devrait donc prendre le relais. Dans la continuité, le congrès extraordinaire du FLNKS du 9 août dernier a entériné cette position. L’organisation annonce désormais une mobilisation active contre le projet : « Nous utiliserons toutes nos forces et toutes les formes de lutte à notre disposition pour que ce texte n’aille pas au vote », affirme ainsi le président du FLNKS, Christian Tein.
Si le FLNKS considère désormais comme acté la mort de l’Accord de Bougival, il se positionne néanmoins pour la poursuite du dialogue, à condition toutefois de n’aborder que « les modalités d’accession à la pleine souveraineté » avec « le colonisateur ».
Si un consensus global autour de l’accord de Bougival semble désormais s’éloigner, qu’en est-il de la viabilité de cet accord, au regard notamment des 5 autres délégations de signataires – l’Union Nationale pour l’Indépendance (UNI), l’Éveil Océanien (EO) et les partis non indépendantistes – qui continuent de défendre et de soutenir ce compromis politique ? Au regard du paysage politique actuel, dont le Congrès de la Nouvelle-Calédonie est l’émanation représentative, et en considérant l’hypothèse d’une unanimité au sein des groupes, ceux en faveur de l’accord de Bougival représenteraient 40 membres sur 54 (12 membres de l’UNI, 3 pour l’EO et 25 pour les non-indépendantistes), contre 13 élus du groupe UC-FLNKS et nationalistes et 1 non-inscrit.
Si ce calcul théorique représente une majorité significative au Congrès de la Nouvelle-Calédonie, il ne tient pas compte d’une crise de légitimité qui frappe les élus territoriaux, dont le mandat de cinq ans a expiré en mai 2024. Il avait à l’époque été prolongé jusqu’en novembre 2025, en raison d’une situation politique particulièrement tendue résultant des émeutes en cours à l’époque.
En parallèle du rejet de l’UC et du FLNKS, le soutien renouvelé de l’UNI (rassemblant les partis indépendantistes Palika et UPM – Union progressiste en Mélanésie) à l’accord de Bougival confirme la scission au sein du camp indépendantiste. En effet, durant les émeutes de 2024, l’unité du FLNKS avait déjà été fragilisée avec la mise en retrait des deux partis de l’UNI (Palika et UPM), qui faisaient auparavant partie du Front.
L’une des conséquences de cette fragilisation du Front indépendantiste a été une recomposition institutionnelle : alors que le FLNKS détenait auparavant les présidences des deux principales institutions du Territoire (le Gouvernement et le Congrès), la combinaison des divisions en son sein et de la prise de distance de l’Éveil Océanien, un parti non aligné détenant une position de pivot, a entraîné un recul politique et institutionnel des indépendantistes. Ils ont ainsi perdu successivement la présidence du congrès en août 2024 et celle du gouvernement en décembre 2024.
Au sein du camp indépendantiste, cette recomposition du paysage politique s’apparente à une guerre d’influence entre UC et UNI, notamment sur la question de la stratégie et de la méthode à adopter en vue d’obtenir l’indépendance. L’UNI privilégie ainsi la voie du compromis politique pour parvenir à une souveraineté partagée à moyen terme. L’UC actuelle, quant à elle, se montre plus intransigeante et défend un rapport de force visant une pleine souveraineté immédiate.
Le FLNKS dans sa configuration actuelle se retrouve désormais sous domination de l’UC, marquée depuis août 2024 par la présidence de Christian Tein. Ce dernier s’est d’abord démarqué comme leader de la Cellule de coordination des actions de terrain (CCAT), mise en place par l’UC le 18 novembre 2023 pour lutter contre le projet de dégel du corps électoral. Le FLNKS se revendiquant comme seul mouvement légitime de libération du peuple kanak, son retrait vaudrait donc retrait de ce peuple de l’accord politique, le rendant mécaniquement caduc. L’UNI de son côté assume désormais son soutien au « compromis politique » de Bougival, prévoyant un statut que le parti estime évolutif, et qui permettrait in fine à la Nouvelle-Calédonie d’accéder à une « souveraineté partagée avec la France ».
Cette division risque d’être accélérée par le rejet en bloc de l’accord de Bougival par le FLNKS, qui marginalise en interne une ligne plus consensuelle, incarnée par les trois signataires qui sont désormais désavoués par leur propre camp. Des sanctions disciplinaires sont désormais réclamées par une partie des militants, contribuant à rendre intenable une ligne favorable au compromis politique.
Face au rejet catégorique exprimé par une partie du camp indépendantiste, la réaction de l’État, notamment par la voix du ministre des Outre-mer Manuel Valls, n’a pas tardée. Il a insisté sur le fait que l’accord représente un « compromis » et que son rejet risquerait de ramener le territoire au « chaos ». Il précise également qu’un « non-accord » aurait des conséquences sociales et économiques délétères, ce qui a pu être perçu par certains comme un chantage néocolonial.
Le ministre des Outre-mer a également réaffirmé sa disponibilité permanente au dialogue, annonçant se rendre en août une quatrième fois sur le territoire calédonien pour la mise en place d’un comité de rédaction chargé d’affiner les textes, de lever les ambiguïtés et de clarifier l’esprit de l’accord, sans toutefois en altérer l’équilibre. Toutes les forces politiques, y compris l’UC et le FLNKS, sont conviées à ce travail. Mais il y a peu de chances que ces deux organisations, en boycott actif du processus, y participent.
Malgré cette main tendue, Manuel Valls reste déterminé à tenir le calendrier prévisionnel de l’accord : report des élections provinciales à mai-juin 2026, adoption des réformes constitutionnelles et organiques à l’automne 2025, et surtout consultation populaire visant à adopter définitivement l’accord en février 2026.
Deux fragilités majeures pèsent sur ce processus : au plan national, l’instabilité politique et l’incertitude pour le gouvernement d’obtenir la majorité des 3/5e au Congrès, nécessaire à l’adoption finale de l’accord qui implique une révision constitutionnelle ; au plan local, la contestation de la légitimité des signataires, les divisions internes du camp indépendantiste et la menace d’une mobilisation active de l’UC-FLNKS qui compte fermement bloquer la consultation populaire.
Dans un contexte post-émeutes et marqué par de profondes fractures politiques, cette consultation populaire en forme de nouveau référendum interrogera la capacité des signataires à rallier une large majorité de Calédoniens, et conditionnera la viabilité durable de l’accord de Bougival.
Pierre-Christophe Pantz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.08.2025 à 16:00
Hans Schlierer, Professeur et coordinateur RSE, EM Lyon Business School
Cet été, « The Conversation » vous emmène à la rencontre de figures de pionnières, mais souvent méconnues, en matière d’écologie. Aujourd’hui, redécouvrons la figure de l’Américain George Perkins Marsh, diplomate, savant du XIXe siècle et précurseur du concept de durabilité.
Pionnier de l’écologie oublié des universitaires comme du grand public, George Perkins Marsh (1801–1882) est un diplomate et savant américain du XIXe siècle, mais aussi l’un des premiers environnementalistes, qui a marqué le début de la réflexion moderne sur l’impact de l’industrialisation.
Bien avant que le terme de durabilité ne s’impose, George P. Marsh a reconnu les effets destructeurs des actions humaines sur la Terre. Il est un des premiers à avoir identifié les menaces que le développement du capitalisme faisait peser sur les dynamiques écologiques. Son livre Man and Nature, publié en 1864, a été l’un des premiers à discuter de la gestion des ressources naturelles et de la conservation.
Initialement philologue, c’est-à-dire spécialiste des langues, Marsh parlait couramment une vingtaine de langues, dont le suédois, l’allemand ou encore l’italien. Ce polymathe a été membre de l’Académie américaine des arts et des sciences, de la Royal Society, de l’American Antiquarian Society et de l’Académie américaine des sciences. Il a également enseigné à l’Université Columbia (New York) et écrit de nombreux articles pour des encyclopédies et des revues scientifiques.
Né en 1801 dans le Vermont rural, le jeune George P. Marsh se révèle vite grand lecteur, autodidacte et intéressé par de nombreux sujets. À l’âge de six ans, il apprend tout seul le grec ancien et le latin pour devenir, plus tard, spécialiste de l’islandais. Contraint cependant d’abandonner la lecture durant plusieurs années à cause de problèmes de vue – il devient presque aveugle –, George P. Marsh se réfugie dans la nature.
Très jeune, il apprend de son père à distinguer les essences d’arbres et à comprendre la dynamique des eaux dans les montagnes du Vermont. Lui-même se déclare « porté sur les forêts ». Tous ses souvenirs montrent à quel point ce contact direct, sensible et accompagné a été fondateur pour toute sa pensée environnementale.
Ces observations précoces du paysage serviront de socle à sa future et riche réflexion sur les relations entre l’humain et la nature, notamment lorsqu’il constate que la déforestation dans le Vermont entraîne une érosion des sols, une perte de biodiversité et conduit à une désertification du paysage en seulement quelques années.
Il complète plus tard ses propres observations par la lecture d’ouvrages scientifiques et historiques. Ce sont ses années en tant qu’ambassadeur des États-Unis dans l’Empire ottoman (1849–1854) et en Italie (de 1861 jusqu’à sa mort) qui lui permettent de lier observations et analyse historique du bassin méditerranéen.
Il constate en particulier que la perte de productivité agricole des sols érodés peut rendre la terre infertile pendant des siècles, entraînant maladies et famines pour les populations et l’affaiblissement du pouvoir des nations. C’est d’ailleurs ce problème qui aurait contribué, selon lui, à mettre l’Empire romain à genoux – une hypothèse qui figure aujourd’hui parmi celles retenues par les historiens comme élément déterminant de la chute de Rome.
Dans son livre Man and Nature, il ne cesse de multiplier les exemples historiques pour renforcer sa thèse centrale : l’avenir du monde dépend des décisions que prendra l’humanité quant à l’utilisation et à la conservation de ses ressources naturelles. L’essentiel du livre illustre la dégradation environnementale, avec quatre chapitres principaux consacrés à des exemples spécifiques parmi les plantes et les animaux, les forêts, les eaux et les sables.
George P. Marsh s’intéresse, d’abord et avant tout, aux forêts, car, pour lui, leur destruction est la « première violation par l’humanité des harmonies de la nature inanimée », non seulement dans le temps, mais aussi en termes d’importance.
Le chapitre sur les forêts commence par une description méticuleuse de l’influence de la forêt sur l’ensemble de l’environnement, des variations de température locales aux propriétés électriques et chimiques de l’air, en passant par les schémas climatiques régionaux. Mais le plus important, ce sont ses effets sur les précipitations et l’humidité du sol.
Les forêts, selon lui, rendent des services inestimables à l’humanité par leur effet modérateur sur le cycle hydrologique. Elles protègent le sol des pluies violentes, réduisant ainsi l’érosion. Les feuilles et les végétaux morts permettent au sol d’absorber d’énormes quantités d’humidité et de les libérer lentement, ce qui non seulement réduit les inondations, mais maintient également le débit des cours d’eau et des sources pendant les saisons sèches. Leur évapotranspiration, enfin, rafraîchit l’air et apporte la pluie à des terres qui en seraient autrement dépourvues.
À lire aussi : Éloge des feuilles mortes, carburant indispensable des écosystèmes
Mais lorsque les êtres humains font disparaître les forêts, ces avantages cessent. Le sol est emporté par les pluies, des rivières placides se transforment en torrents dévastateurs et les terres s’assèchent lorsque les pluies disparaissent. Les coûts humains, poursuit-il, pourraient être énormes.
Son travail a influencé de nombreux penseurs et décideurs dans le domaine de la conservation et de la protection environnementales. Il a notamment inspiré Gifford Pinchot (1865–1946), un des pères philosophiques et politiques du mouvement environnementaliste aux États-Unis, qui a joué un grand rôle dans la protection des forêts et, plus généralement, des ressources naturelles.
Il a été aussi une référence importante pour John Muir (1838–1914), le chef de file d’un courant qui vise à préserver une nature non affectée par l’activité humaine (« wilderness »). Ce mouvement a aussi initié la création des parcs nationaux aux États-Unis. George P. Marsh lui-même a joué un rôle clé dans la création de l’Adirondack Park (dans l’État de New York), l’un des premiers parcs forestiers aux États-Unis.
Au-delà de la réception historique de ses travaux, les constats de George P. Marsh sont d’une actualité brûlante.
Les feux de forêt récurrents l’été, en France et ailleurs dans le monde, causés par des sécheresses elles-mêmes amplifiées par l’activité humaine, le rappellent encore. De même la déforestation en Amazonie et en Indonésie entraîne-t-elle aujourd’hui une érosion massive des sols, affectant la productivité agricole et les écosystèmes locaux.
Bien que Marsh n’ait pas utilisé le terme de « changement climatique », il a compris que la disparition des forêts pouvait modifier les régimes climatiques locaux.
Aujourd’hui, nous savons que la déforestation contribue au réchauffement climatique en libérant le carbone stocké dans les arbres et en réduisant la capacité des forêts à absorber le CO₂. La réduction des émissions provenant du déboisement et de la dégradation des forêts, ainsi que la gestion durable des forêts, la conservation et l’amélioration des stocks de carbone forestier sont des éléments essentiels des efforts mondiaux visant à atténuer le changement du climat.
Avec ses observations et ses conclusions, Marsh s’est forgé la conviction que l’humanité dépend de son environnement, et non l’inverse. Une position qui ébranle la certitude de la suprématie de l’être humain sur la nature, très répandue à son époque. Il arrive finalement à la conclusion que l’être humain « possède un pouvoir bien plus important sur ce monde que n’importe quel autre être vivant », position qui s’apparente à celle plus moderne qui fonde le concept d’anthropocène.
La modernité de son approche se manifeste aussi dans sa conception globale des phénomènes naturels. George P. Marsh combine une véritable géographie environnementale à une vue historique et à une approche déambulatoire et paysagère. Cela lui permet de relier entre eux des phénomènes épars afin d’aboutir à une compréhension globale des relations entre l’être humain et la nature.
Au moment de la première industrialisation, Marsh a le mérite de débuter la réflexion sur les dépassements et les limites d’une modernité balbutiante. Les sujets de ses observations que sont le sable, la déforestation, l’utilisation des sols ou la question de l’eau font tous partie des neuf limites planétaires que l’humanité a dépassées depuis.
Alors que la conférence des Nations unies sur les océans à Nice, en juin 2025, ne s’est pas conclue par des déclarations suffisamment fortes en faveur de leur protection et que le retard sur la décarbonation nous approche dangereusement du seuil de +1,5 °C par rapport à l’ère préindustrielle, il est urgent de reconsidérer les analyses de George P. Marsh.
Hans Schlierer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.08.2025 à 17:33
Clare Fox-Ruhs, Part-Time Assistant Professor, Robert Schuman Centre for Advanced Studies, European University Institute
It is said that a true measure of any society is how it treats its most vulnerable members. To what extent, however, does this litmus test extend to the irregular migrants among us – namely, those who live and/or work in host communities without the legal right to reside? What does it take to be a “member” of society to whom protection is owed?
These are key questions facing all major migrant-receiving countries. Moreover, the choices our national governments make in relation to regulating the rights of irregular migrants matter for all of us. These choices affect our schools, our workplaces, our healthcare and eldercare settings, and our streets. Everyone is implicated, for this is what it means to live in society.
The first step in problem-solving around the issues related to irregular migration is to better understand the conditions of irregular migrants and the current responses of national governments. To this end, we at the European University Institute, Uppsala University and the University of Zagreb developed IRMIGRIGHT – Europe’s first database of the social and labour rights of irregular migrants. Unrestricted public access to the database will be available in the second half of 2026.
Using the data we compiled, we constructed a novel set of indicators that allow us to measure and compare the nature of irregular migrants’ rights in 16 different social and labour fields across the 27 EU member states and the UK. Our recently published results of this analysis reveal important differences in the types of rights that irregular migrants can claim by law in European countries, and they show significant variation in the quality of those rights cross-nationally.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Our research shows that European governments typically legislate to provide irregular migrants with a small set of basic rights. On the social side, these rights include access to emergency healthcare, maternity care and compulsory education for children. In labour terms, irregular migrants most commonly enjoy the right to recover a portion of unpaid wages (the UK and Bulgaria are the only countries in which they do not) and to be assured basic health and safety standards in the workplace. The range of services or benefits included in these rights is, in most cases, equal to those of citizens.
By contrast, it is only in a small minority of European countries that irregular migrants can exercise rights to emergency subsistence-level income support and temporary shelter – even in cases of extreme need. Routine income support payments and access to long-term social housing are virtually non-existent for irregular migrants under national laws.
The more established EU member states (the “EU 15”) typically offer better protections than the newer, post-enlargement member states. However, Denmark, Greece, Ireland and the UK break with this trend by providing weaker rights protections for irregular migrants.
Amid the patchwork of protection and exclusion of irregular migrants in the rights frameworks of European countries, perhaps the bigger story is the widespread presence of obstacles to meaningful rights enjoyment. What our research shows is that it is one thing for an irregular migrant to have a right by law in a host country, but quite another to have a right that is provided in terms that enable the migrant to freely exercise that right.
Our findings show that even among the “best-performing” European countries such as Spain, France, Finland, Belgium and Sweden, irregular migrants face multiple “cost” barriers to enjoying their rights. Some of these costs are financial. Irregular migrants might have access to a variety of healthcare and education rights, but where the user costs of services associated with these rights exceed costs charged to citizens, irregular migrants might be priced out of services altogether.
User costs for irregular migrants vary cross-nationally: for instance, the UK charges 150% of National Health Service costs for certain maternity and specialised treatments, whereas the Netherlands treats irregular migrants on the same basis as citizens in regard to all healthcare for which these migrants are eligible. Costs may be waived, but the very presence of high costs can be enough to stop individuals from seeking even emergency or medically necessary care.
Prohibitive financial costs can also deter irregular migrants from exercising rights that they ought to be able to enjoy by law. There is no right without a remedy, yet our research finds that only around 50% of legal “rights” for irregular migrants are accompanied by some form of legal aid for them to exercise those rights.
Arguably, the cost that weighs most heavily on irregular migrants in exercising their legal rights is that of becoming visible to law enforcement authorities and facing potential immigration detention and deportation.
This rights obstacle can be reduced by “firewalls” – laws or policies that prevent service providers and state officials from reporting to immigration enforcement authorities those irregular migrants who, for example, use hospitals, schools and social services, or seek labour justice. It is striking, however, that only a handful of European countries offer such firewalls in regard to social rights (mostly healthcare), and that no country provides a firewall for irregular migrants to pursue their labour rights following workplace exploitation, abuse or injury.
All in all, the picture of irregular migrants’ rights across Europe suggests that we have some way to go in guaranteeing fundamental and realisable rights that apply to all persons regardless of immigration status. The comparative country data we have compiled provide a new opportunity for European societies to hold up a mirror to themselves and ask if they are satisfied with the reflection. Do the rights that irregular migrants enjoy under the law speak to the values, norms and aspirations of host societies, or is it time for a health check?
Irregular migrants will inevitably remain of our societies, however well national governments succeed in limiting immigration and however we choose to set the boundaries of societal membership. By promoting and protecting irregular migrants’ core rights to necessary healthcare, emergency subsistence-level income and shelter, freedom from labour exploitation, and compulsory education for children, countries can realise their shared European ideals while simultaneously building healthier communities for all.
Our development of IRMIGRIGHT is part of the international “PRIME” project that analyses the conditions of irregular migrants in Europe. PRIME is funded by the European Union Horizon Europe programme.
Clare Fox-Ruhs ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.08.2025 à 15:16
Spector Céline, Professeure des Universités, UFR de Philosophie, Sorbonne Université, Sorbonne Université
Notre démocratie est en crise, comment la réinventer ? Que nous enseignent ceux qui, au cours des âges, furent ses concepteurs ? Cinquième volet de notre série consacrée aux philosophes et à la démocratie avec Montesquieu (1689-1755). Précurseur de l’approche constitutionnelle moderne, ce dernier définit des conditions de la liberté politique par la tripartition des pouvoirs de l’État – législatif, exécutif et judiciaire.
Comment Montesquieu peut-il nous aider à cerner l’esprit de la démocratie moderne ? Dans De l’esprit des lois (1748), paru de manière anonyme à Genève, le philosophe distingue la démocratie antique, dont le lieu d’origine est Athènes et Rome, et la république moderne, qui se dissimule encore sous la forme monarchique. Cette république nouvelle ne recourt plus au tirage au sort pour permettre aux citoyens de choisir leurs édiles ; elle privilégie le système représentatif en conférant au peuple – ou du moins à une partie du peuple – le droit d’élire ses députés à la Chambre.
C’est dans l’Angleterre postérieure à la Glorious Revolution (1689) que Montesquieu va chercher les principes de la liberté politique. Si cette nation est dotée d’un statut singulier, c’est qu’au terme de sanglantes guerres civiles, le prince y a été apprivoisé. Magistrat et juriste de formation, le philosophe de la Brède a observé la vie politique anglaise lors de son séjour sur l’île pendant plus de 18 mois (novembre 1729-avril 1731). Au livre XI de L’Esprit des lois, il brosse un tableau inédit des conditions de la liberté politique, en partant de la tripartition des pouvoirs de l’État : la puissance législative, la puissance exécutive ou exécutrice, la puissance judiciaire. C’est seulement si par la « disposition des choses », « le pouvoir arrête le pouvoir » que la Constitution pourra protéger la liberté, redéfinie de manière originale comme opinion que chacun a de sa sûreté, à l’abri de l’arbitraire et de l’abus de pouvoir. Montesquieu fournit ainsi à la postérité une interprétation subtile et profonde des institutions de la liberté.
La question de l’attribution des pouvoirs est d’abord essentielle : afin de faire fonctionner l’État, le pouvoir exécutif doit certes être confié à un seul homme – le monarque – en raison de la rapidité nécessaire des décisions à prendre. Mais la liberté politique suppose d’autres exigences : afin d’éviter la formation d’une caste de juges potentiellement tyrannique, l’autorité judiciaire doit être attribuée pour l’essentiel à des jurys populaires tirés au sort. Quant au pouvoir législatif, il doit être confié, dans un grand État, aux représentants du peuple. Toutefois, il ne faut pas se faire d’illusions : les députés ne sont pas toujours mandataires de l’intérêt général. Telle est la raison pour laquelle le Parlement doit être constitué par deux Chambres – House of Commons et House of Lords. Si le bicaméralisme s’avère nécessaire, c’est que l’élite tente toujours d’opprimer le peuple et le peuple, de nuire à l’élite. Comme Machiavel, Montesquieu considère que les gens « distingués par la naissance, les richesses ou les honneurs » ne doivent pas être confondus avec ceux qui en sont dénués, sans quoi « la liberté commune serait leur esclavage et ils n’auraient aucun intérêt à la défendre ». L’État n’est pas une personne morale constituée en amont de la société et transcendant ses clivages : chaque groupe social dispose au sein du pouvoir législatif d’un organe partiel pour défendre ses intérêts, et se trouve par là même « constitué » avec ses droits et, le cas échéant, avec ses privilèges.
Néanmoins, l’exécutif lui-même n’est pas laissé sans secours face aux risques d’atteinte à sa prérogative : dans le sillage de certains publicistes anglais comme le Vicomte Bolingbroke, Montesquieu reconnaît le droit de véto du roi dans une monarchie limitée. Grâce à cette opposition de forces et de contre-forces, la constitution est un système dynamique qui se conserve par une forme d’autorégulation. Cet équilibre, sans doute, reste précaire : l’Angleterre perdra sa liberté au moment où le pouvoir législatif deviendra plus corrompu que l’exécutif. Mais contrairement aux théoriciens absolutistes de la souveraineté, l’auteur de L’Esprit des lois ne craint pas la paralysie des pouvoirs divisés, pas plus qu’il ne redoute l’impuissance associée à la nécessité d’un compromis politique et social. Tant que l’équilibre est maintenu, la préservation des droits résulte de la négociation et de la tension entre intérêts divergents. Dans le mouvement nécessaire des choses, les pouvoirs antagonistes finissent par « aller de concert ».
Comment interpréter la Constitution libre ? Dans un article classique, le juriste Charles Eisenmann a réfuté l’interprétation selon laquelle Montesquieu défendrait une véritable « séparation des pouvoirs ». L’interprétation séparatiste soutenue par la plupart des juristes consiste à affirmer que le pouvoir de légiférer, le pouvoir d’exécuter et le pouvoir de juger doivent être distribués à trois organes absolument distincts, pleinement indépendants, et même parfaitement isolés les uns des autres. Elle exclut pour chaque organe le droit de donner des instructions aux autres, et même tout droit de contrôle sur leur action.
Or cette conception stricte de la séparation des pouvoirs est intenable : en réalité, le philosophe-jurisconsulte ne remet pas le pouvoir législatif au Parlement seul, mais au Parlement et au monarque. Le Parlement élabore et vote les lois dont ses membres ont pris l’initiative ; mais ces lois n’entrent en vigueur que si le monarque y consent. Le monarque prend part à la législation par son droit de veto ; la puissance exécutrice, de ce point de vue, « fait partie de la législative ». En second lieu, si Montesquieu condamne le cumul intégral du pouvoir législatif et du pouvoir de juger, il n’exclut pas que la Chambre des Lords puisse juger les nobles. Enfin, il ne préconise pas davantage l’indépendance de chaque organe dans l’exercice de sa fonction ; il assigne au Parlement, dans un État libre, le droit et même le devoir de contrôler l’action exécutive du gouvernement.
De ce point de vue, la séparation des pouvoirs relève d’un « mythe ». Montesquieu l’affirme de façon explicite : « Dans les monarchies que nous connaissons, les trois pouvoirs ne sont point distribués et fondus sur le modèle de la Constitution dont nous avons parlé », à savoir la Constitution d’Angleterre : les pouvoirs de l’État sont distribués sans doute, mais d’une façon qui, loin de les séparer, les fond. L’État libre est un système dynamique où les parties en mouvement contribuent à l’équilibre du tout ; la distinction et l’opposition des pouvoirs est le préalable à leur coordination : « Voici donc la constitution fondamentale du gouvernement dont nous parlons : le corps législatif y étant composé de deux parties, l’une enchaînera l’autre par sa faculté mutuelle d’empêcher. Toutes les deux seront liées par la puissance exécutrice, qui le sera elle-même par la législative ». Le mécanisme constitutionnel est ici agencé de telle sorte que ses divers rouages soient en mesure de se faire opposition les uns aux autres. Or c’est précisément parce que les pouvoirs sont en mesure de s’opposer qu’ils ne peuvent être radicalement séparés. Ce point est essentiel : contre les risques de dérive despotique, le contrôle parlementaire du gouvernement permet à l’État de rester libre.
D’où l’interprétation politique et non juridique de la distribution des pouvoirs : afin d’éviter les abus de pouvoir, il ne faut pas que deux des trois pouvoirs étatiques, et à plus forte raison les trois, soient remis à un seul et homme ou à un seul corps de l’État (pas même le Parlement !). Un seul pouvoir doit être réellement séparé des deux autres, à savoir le pouvoir judiciaire. Selon le président à mortier du Parlement de Bordeaux, le juge doit se contenter d’appliquer la loi, d’être la « bouche de la loi ». Pour que le citoyen n’éprouve pas la crainte des magistrats qui caractérise les États despotiques, il faut neutraliser la puissance de juger, « si terrible parmi les hommes » : elle doit devenir, pour ainsi dire, « invisible et nulle ». En particulier, l’exécutif ne doit en aucun cas influencer ou contrôler le pouvoir judiciaire. Il faut éviter à tout prix qu’il puisse opprimer par sa « volonté générale » et mettre en péril chaque citoyen par ses volontés particulières – ce qui risque d’arriver là où la puissance est « une ». La concentration et la confusion des pouvoirs font du prince un monstre omnipotent qui légifère, exécute, et juge, quitte à éliminer ses opposants politiques et à opprimer la dissidence.
Cette théorie doit bien sûr être contextualisée : en luttant contre le despotisme en France, Montesquieu n’a pas inventé telle quelle la conception fonctionnelle de la séparation des pouvoirs qui s’appliquera par la suite, aux États-Unis notamment ; il n’a pas imaginé un Sénat conçu comme Chambre des États, susceptible de remplacer la Chambre des Pairs ; il n’a pas conçu de président élu se substituant au monarque. Il reste que sa vision puissante est à l’origine du constitutionnalisme moderne. Elle inspire notre conception de l’État de droit, qui associe liberté des élections et des médias, distribution des pouvoirs et indépendance du judiciaire. En influençant la formation des constitutions républicaines, elle fournit la boussole dont nous avons encore besoin, au moment où le président américain remet en cause les pouvoirs du Congrès, menace d’abolir l’indépendance de l’autorité judiciaire, torpille celle des agences gouvernementales et envoie chaque jour des salves d’executive orders en défendant une théorie de l’exécutif « unitaire », fort et immune. Que le Congrès l’accepte et que la Cour suprême avalise l’impunité présidentielle est un signe, parmi d’autres, du danger mortel qui pèse sur nos démocraties.
Céline Spector est membre du Conseil scientifique de l'UEF France. Elle a reçu des financements pour des projets de recherche à Sorbonne Université au titre de l'Initiative Europe.
14.08.2025 à 15:16
Marie Bassi, Enseignante-chercheure. Maîtresse de conférences en science politique, Université Côte d’Azur
Depuis plus de deux ans, le Soudan est en proie à une guerre opposant l’armée régulière à un groupe paramilitaire. Ce conflit a plongé le pays dans la plus grave crise humanitaire au monde et provoqué le déplacement de près de 13 millions de personnes depuis avril 2023, selon les Nations unies.
Quel bilan peut-on dresser aujourd’hui de ces deux années de guerre ? Éléments de réponse avec Marie Bassi, maîtresse de conférences à l’Université Côte d’Azur et coordinatrice du Centre d’études et de documentation économiques, juridiques et sociales au Soudan, basé à Khartoum mais actuellement délocalisé au Caire.
The Conversation : Pourriez-vous revenir brièvement sur les origines du conflit actuel au Soudan ?
Marie Bassi : La guerre a éclaté le 15 avril 2023 en plein cœur de Khartoum, la capitale soudanaise. Elle oppose deux acteurs ; les forces armées soudanaises (FAS), dirigées par le général Abdel Fattah al-Burhan, et un puissant groupe paramilitaire appelé les Forces de soutien rapide (FSR), représenté par Mohamed Hamdan Daglo (alias « Hemetti »). Les premiers, l’armée régulière, gouvernent le Soudan de manière presque ininterrompue depuis l’indépendance du pays, en 1956. Les deuxièmes, les FSR, sont dirigées par des chefs issus de tribus arabes de l’ouest du Soudan, au Darfour.
Ce conflit a la particularité d’avoir débuté dans la capitale, une première pour le pays. Bien que l’histoire du Soudan ait été marquée par des décennies de tensions entre le Nord et le Sud et par des conflits entre le centre et les périphéries, ceux-ci ne s’étaient jamais exportés dans la capitale. Cette fois-ci, Khartoum a été directement affectée, avec des pillages, la destruction des infrastructures (centrales électriques, conduites d’eau, hôpitaux, écoles, patrimoine culturel, archives nationales…), et des attaques de zones administratives et militaires, mais aussi de très nombreuses habitations.
C’est aussi probablement la première fois qu’autant de puissances étrangères sont directement impliquées dans le conflit. L’économie de guerre est alimentée par un réseau complexe d’alliances internationales. Les Émirats arabes unis apportent leur soutien aux FSR, ce qu’ils démentent en dépit de plusieurs enquêtes qui le prouvent. D’un autre côté, l’Égypte est un allié majeur de l’armée. La Libye, l’Ouganda, le Tchad, le Soudan du Sud, la Russie, l’Iran et bien d’autres sont également impliqués, plus ou moins directement.
Ce conflit se caractérise aussi par son extrême violence. On compte plus de 150 000 morts, des viols, des tortures, des exécutons sommaires. Les viols de masse font partie du recours généralisé aux violences sexuelles comme arme de guerre.
Ce sont 25 millions de Soudanais qui souffrent de faim aiguë avec l’augmentation drastique des prix des denrées alimentaires. La famine a été confirmée par l’ONU dans dix régions du pays. À cette crise alimentaire s’ajoute une crise sanitaire : de nombreux hôpitaux ne sont plus opérationnels et près de la moitié de la population n’a pas accès à des soins médicaux. On observe le développement d’épidémies, comme la rougeole, la dengue, le paludisme ou le choléra.
On assiste à une prolifération des armes et à une multiplication des groupes armés qui éloignent l’espoir d’une paix proche. La guerre se poursuit et les deux camps continuent de commettre des exécutions sommaires visant des civils, accusés de soutenir le camp adverse ou appartenant à des groupes ethniques perçus comme proches soit des FSR, soit de l’armée. On a également pu observer des campagnes de nettoyage ethnique menées par les FSR ou par l’armée, notamment au Darfour et dans la région de la Gezira.
Quelle est actuellement la situation au Darfour ?
M. B. : Le Darfour est une région de l’ouest du Soudan, presque aussi grande que la France. Depuis 2003, le Darfour est le théâtre d’un conflit armé ayant pour origine un accès inégal aux ressources, des années de marginalisation politique, des conditions économiques difficiles et l’implication de grandes puissances qui en convoitent les richesses.
Aujourd’hui, les FSR en contrôlent la quasi-totalité. Seule la ville d’Al Fasher, capitale du Darfour du Nord, leur échappe, mais elle est actuellement en état de siège. Une famine dramatique touche la ville. Le Darfour était déjà très pauvre en infrastructures de base avant la guerre ; maintenant, l’ensemble de la région est dans une situation humanitaire catastrophique.
Il y a quelques mois, les FSR avaient annoncé leur intention de former un gouvernement parallèle à celui établi à Port-Soudan sous le contrôle de l’armée. Ce 26 juillet, les FSR ont nommé un premier ministre. Elles vont peut-être réussir à contrôler l’entièreté du Darfour et une partie du Kordofan du Sud, et on évoque un risque de partition du pays.
On dit souvent que la guerre au Soudan souffre d’une sous-médiatisation. Cela engendre-t-il une mauvaise compréhension du conflit et de ses conséquences ?
M. B. : Il est vrai que cette réalité dramatique contraste avec un silence politique et médiatique assourdissant. Les rares moments où les médias européens parlent du Soudan se comptent sur les doigts de la main. D’autre part, je pense que la mise en récit de la guerre par les belligérants, par la plupart des médias et par certains acteurs politiques repose sur des interprétations assez simplificatrices et essentialistes.
On parle souvent d’une « guerre entre généraux », d’une « guerre ethnique », d’une « guerre entre les périphéries et Khartoum » ou uniquement d’une « guerre par procuration ».
C’est un peu tout ça, mais en réalité les racines de la guerre sont bien plus complexes et celle-ci doit être étudiée sous un prisme historique.
Le conflit est lié à une longue histoire d’exploitation des ressources des périphéries du Soudan par le pouvoir central, avec une gestion militarisée et brutale de ces périphéries. La violence qui secoue le pays, depuis 2023, va bien au-delà d’une simple compétition entre généraux rivaux. Il convient de rappeler deux éléments essentiels.
Il y a effectivement une guerre de pouvoir entre les deux groupes pour s’emparer du contrôle d’un pays très riche, en or, en uranium, en terres arables, en bétail, en gaz naturel et en pétrole, et d’un territoire 800 km qui donne également accès à la mer Rouge. Cependant, il faut mentionner que cette guerre oppose des personnes issues du régime précédent et alliées de longue date.
En effet, depuis l’indépendance, le gouvernement soudanais a suivi une stratégie d’externalisation de la violence en faisant systématiquement appel à différentes milices pour se prémunir des coups d’État et pour vaincre les mouvements armés dans certaines régions, notamment au Darfour ou dans les monts Nuba (dans l’État du Kordofan, Soudan du Sud) qui luttaient pour le partage équitable des ressources du pays.
Les FSR ne portaient pas le même nom il y a quelques années. Ils sont en partie des héritiers des janjawids, des milices issues des tribus arabes du Darfour, qui étaient impliquées dans les massacres, du début des années 2000 au Darfour, qualifiés de génocide par la Cour pénale internationale.
Elles ont pris du poids au fil des années et, en 2013, l’ancien dictateur Omar al-Bachir les convertit en FSR avant de les institutionnaliser en 2017. Avec leur participation comme supplétifs dans le conflit au Yémen, leur rôle pour renforcer le contrôle aux frontières à la demande de l’Union européenne, leur implantation dans les secteurs très rentables de l’or et de l’immobilier, les FSR se sont considérablement enrichies et ont été en position de rivaliser avec l’armée. Les milices qui sévissent aujourd’hui ont donc en réalité été construites par l’armée.
Ensuite, pour comprendre cette guerre, il faut revenir au soulèvement révolutionnaire soudanais de 2019. En avril, le dictateur Omar al-Bachir est destitué du pouvoir après trente ans de règne. Débutait alors une période de transition démocratique qui devait déboucher sur un gouvernement civil.
L’ancien inspecteur de l’armée soudanaise, Abdel Fattah al-Burhan, qui avait succédé à Bachir, s’allie avec Mohamed Hamdan Daglo qui est à la tête des FSR. Ils orchestrent un coup d’État en octobre 2021 qui renverse le gouvernement de transition, évince les forces civiles et marque la reprise du pouvoir par l’armée et leurs alliés, les FSR.
Abdel Fattah al-Burhan dirige le nouveau gouvernement de transition militaire. Cependant, l’alliance entre l’armée et les FSR est fragile et leurs rivalités pour le partage du pouvoir s’exacerbent jusqu’à donner lieu au conflit d’avril 2023.
Fin mai, l’armée soudanaise a annoncé avoir libéré l’État de Khartoum des forces paramilitaires. Quel impact cette annonce a-t-elle eu auprès des diasporas soudanaises ? A-t-on pu observer des retours massifs vers la capitale ?
M. B. : Tout d’abord, il faut rappeler le nombre colossal de Soudanais contraints au déplacement forcé : on estime qu’au moins 13 millions de personnes ont quitté leur foyer, dont 4 millions dans les pays voisins. Les principaux pays d’accueil sont l’Égypte, avec plus d’un million et demi de Soudanais, le Soudan du Sud où ils sont plus d’un million, puis le Tchad (1,2 million), la Libye (plus de 210 000) et enfin l’Ouganda (plus de 70 000). Ce sont des chiffres colossaux et ils expliquent en partie pourquoi cette guerre est considérée comme la plus importante crise humanitaire au monde.
Ensuite, on observe en effet beaucoup de retours au Soudan, ces dernières semaines, bien que les chiffres annoncés restent approximatifs et soient à prendre avec précaution. La reprise de la capitale a marqué un tournant, c’était une victoire à la fois symbolique et tactique.
À l’intérieur du Soudan, le Haut-Commissariat des Nations unies pour les réfugiés (HCR) estime que près d’un million de personnes sont revenues dans leurs foyers d’origine, principalement à Khartoum et dans la région de la Gezira dont l’armée a également repris le contrôle début 2025. Près de 320 000 Soudanais seraient aussi revenus d’Égypte et du Soudan du Sud.
En Égypte, le gouvernement a mis en place une ligne de train pour faciliter le retour, et des bus entiers partent quotidiennement du Caire vers la frontière. Les gens ont envie de revenir dans leur maison, de voir s’il en reste quelque chose. Les personnes âgées ne veulent pas mourir en dehors de leur pays.
Les personnes les plus précaires, celles qui ne sont pas parvenues à scolariser leurs enfants ou à trouver des moyens de subsistance, reviennent. Par ailleurs, les autorités militaires cherchent à encourager le retour des Soudanais, en multipliant les annonces officielles. Celles-ci, toutefois, apparaissent souvent déconnectées de la situation réelle, comme lorsqu’elles affirment pouvoir reconstruire Khartoum en six mois pour retrouver son état d’avant-guerre.
Tout ceci a néanmoins un goût amer, puisque certains Soudanais se retrouvent contraints de célébrer leurs anciens ennemis, le camp de l’armée, celle-là même contre laquelle ils s’étaient mobilisés lors de la révolution de 2019, une révolution portée par l’espoir d’un gouvernement civil.
Et il faut aussi garder en tête que la guerre et les horreurs continuent dans plusieurs régions, notamment au Darfour et au Kordofan.
Dans vos travaux, vous abordez les formes d’engagement des diasporas soudanaises, notamment en Égypte. Quels sont les réseaux de solidarité qui existent aujourd’hui et quels sont les liens que les diasporas entretiennent avec leurs proches restés au Soudan ?
M. B. : Les transferts de fonds des membres de la diaspora vers le Soudan sont essentiels pour assurer la survie des Soudanais. C’est le cas pour les membres de la diaspora qui vivent et travaillent en Europe, au Canada, aux États-Unis ou dans les pays du Golfe.
En Égypte, pays sur lequel je travaille plus particulièrement, les familles sont en contact permanent avec leurs proches restés au Soudan. Malheureusement, les opportunités professionnelles sont réduites et les Soudanais n’ont que très peu de moyens de subsistance, ce qui réduit les possibilités d’aider leurs proches. Ceux qui possédaient des ressources financières importantes avant la guerre ou dont des membres de la famille travaillent à l’étranger réussissent généralement à mieux s’en sortir.
Par ailleurs, il faut savoir trois choses. La première, c’est que toutes les initiatives d’aide et de solidarité diasporiques sont totalement invisibilisées. Pourtant, c’est ce qui permet la survie des Soudanais au Soudan. On parle de l’aide humanitaire internationale mais, en réalité, sans les centaines de milliers de Soudanais qui envoient de l’argent à leur famille restée au pays, la situation du Soudan serait bien plus catastrophique. Ceux qui retournent au pays aujourd’hui y amènent ce qu’ils peuvent – de la nourriture, des médicaments et parfois même des panneaux solaires.
La deuxième, c'est que le système bancaire soudanais est quasiment à l’arrêt et que peu de cash circule dans le pays. Les soutiens financiers fonctionnent donc essentiellement par une digitalisation de l’aide. Les Soudanais n’ont pas accès aux liquidités bancaires ; toutes les transactions passent par des applications bancaires. Grâce à celles-ci, il est possible d’acheter un peu de nourriture et des biens de première nécessité.
La troisième, c’est qu’il existe des modalités de solidarité locale très puissantes au Soudan, en particulier les salles d’intervention d’urgence, les Emergency Rooms ou les cantines solidaires, que les réfugiés soudanais soutiennent à distance. En dépit de la répression que ces groupes subissent, ils ont continué à œuvrer tout au long de la guerre et ont été, et sont toujours, des soutiens essentiels à la survie de milliers de Soudanais.
Propos recueillis par Coralie Dreumont et Sabri Messadi.
Marie Bassi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.08.2025 à 15:15
Ola Anabtawi, Assistant Professor - Department of Nutrition and Food Technology, An-Najah National University
Berta Valente, PhD candidate in Public Health at the Faculty of Medicine, Universidade do Porto
Deux spécialistes de la nutrition décrivent, sur le plan physiologique, les différentes étapes de dégradation du corps humain lorsqu’il est soumis à des famines comme celles qui sévissent à Gaza et au Soudan. Contraint de puiser dans ses réserves, l’organisme est alors de plus en plus vulnérable aux infections telles que la pneumonie ou d’autres complications.
La faim existe sous différentes formes.
Au départ, il est question d’insécurité alimentaire quand les populations sont contraintes de s’adapter à des repas en nombres insuffisants. À mesure que la nourriture se raréfie, l’organisme puise dans ses réserves. Le passage de la faim à la famine commence par une baisse du niveau d’énergie, puis le corps puise dans ses réserves de graisse, ensuite dans ses muscles. Finalement, les organes vitaux commencent à défaillir.
De la sous-alimentation à la malnutrition aiguë puis à la famine, le processus atteint un stade où l’organisme n’est plus en mesure de survivre. À Gaza aujourd’hui, des milliers d’enfants de moins de cinq ans et des femmes enceintes ou allaitantes souffrent de malnutrition aiguë. Au Soudan, les conflits et les restrictions d’accès à l’aide humanitaire ont poussé des millions de personnes au bord de la famine, et les alertes à la famine se font de plus en plus pressantes chaque jour.
Nous avons demandé aux nutritionnistes Ola Anabtawi et Berta Valente d’expliquer les mécanismes physiologiques à l’œuvre dans les situations de famine et ce qui arrive au corps humain quand il est privé de nourriture.
Pour leur survie, les humains ne peuvent se contenter d’eau potable et de sécurité. L’accès à une alimentation qui couvre leurs besoins quotidiens en énergie, en macronutriments et en micronutriments est essentiel pour rester en bonne santé, favoriser la guérison et prévenir la malnutrition.
Selon l’Organisation mondiale de la santé (OMS), les adultes ont besoin de quantités d’énergie différentes en fonction de leur âge, de leur sexe et de leur niveau d’activité physique.
Une kilocalorie (kcal, soit 1 000 calories) est une unité de mesure de l’énergie. En nutrition, elle indique la quantité d’énergie qu’une personne tire de son alimentation ou la quantité d’énergie dont le corps a besoin pour fonctionner. Techniquement, une kilocalorie correspond à la quantité d’énergie nécessaire pour élever la température d’un kilogramme d’eau d’un degré Celsius. Le corps utilise cette énergie pour respirer, digérer les aliments, maintenir sa température corporelle et, en particulier chez les enfants, pour grandir.
Les besoins énergétiques totaux proviennent de trois sources :
la dépense énergétique au repos : elle correspond à l’énergie utilisée par le corps au repos pour maintenir ses fonctions vitales, comme la respiration et la circulation sanguine ;
l’activité physique : elle peut varier pendant les situations d’urgence en fonction de facteurs tels que les déplacements, les soins prodigués ou les tâches indispensables à la survie ;
la thermogenèse : on nomme ainsi l’énergie utilisée pour digérer et transformer les aliments.
La dépense énergétique au repos représente généralement la plus grande partie des besoins énergétiques, en particulier lorsque l’activité physique est limitée. D’autres facteurs, notamment l’âge, le sexe, la taille, l’état de santé, la grossesse ou les environnements froids, influencent également la quantité d’énergie dont une personne a besoin.
Les besoins énergétiques varient tout au long de la vie. Les nourrissons ont besoin d’environ 95 kcal à 108 kcal par kilogramme de poids corporel par jour pendant les six premiers mois et de 84 kcal à 98 kcal par kilogramme de six à douze mois. Pour les enfants de moins de dix ans, les besoins énergétiques sont basés sur des modèles dans une situation de croissance normale, sans distinction entre les garçons et les filles.
Par exemple, un enfant de deux ans a généralement besoin d’environ 1 000 à 1 200 kcal par jour. Un enfant de cinq ans a besoin d’environ 1 300 à 1 500 kcal et un enfant de dix ans a généralement besoin de 1 800 à 2 000 kcal par jour.
À partir de dix ans, les besoins énergétiques commencent à être différents entre garçons et filles en raison des variations de croissance et d’activité, et les apports sont ajustés en fonction du poids corporel, de l’activité physique et du taux de croissance.
Pour les adultes ayant une activité physique légère à modérée, les besoins énergétiques quotidiens moyens sont d’environ 2 900 kcal pour les hommes âgés de 19 à 50 ans, tandis que les femmes du même groupe d’âge ont besoin d’environ 2 200 kcal par jour. Ces valeurs comprennent une fourchette de plus ou moins 20 % afin de tenir compte des différences individuelles en matière de métabolisme et d’activité physique. Pour les adultes de plus de 50 ans, les besoins énergétiques diminuent légèrement, les hommes ayant besoin d’environ 2 300 kcal et les femmes d’environ 1 900 kcal par jour.
Dans les situations d’urgence humanitaire, l’aide alimentaire doit garantir l’apport énergétique minimal qui est largement recommandé pour maintenir une personne en bonne santé et assurer ses fonctions vitales de base, cet apport ayant été fixé à 2 100 kcal par personne et par jour. Ce niveau minimum vise à satisfaire les besoins physiologiques fondamentaux et à prévenir la malnutrition lorsque l’approvisionnement en aliments est limité.
Cette énergie doit provenir d’un équilibre entre les macronutriments, les glucides représentant 50 à 60 % de l’apport (sous forme de riz ou de pain), les protéines 10 à 35 % (haricots, viande maigre…) et les lipides 20 à 35 % (l’huile de cuisson ou les noix, par exemple).
Les besoins en graisses sont plus élevés chez les jeunes enfants (30 % à 40 %), ainsi que chez les femmes enceintes et allaitantes (au moins 20 %).
En plus de l’énergie, le corps a besoin de vitamines et de minéraux, comme le fer, la vitamine A, l’iode et le zinc, qui sont essentiels au fonctionnement du système immunitaire, à la croissance et au développement du cerveau. Le fer se trouve dans des aliments tels que la viande rouge, les haricots et les céréales enrichies. La vitamine A provient des carottes, des patates douces et des légumes verts à feuilles foncées. L’iode est généralement obtenu par le sel iodé et par les fruits de mer. Le zinc est présent dans la viande, les noix et les céréales complètes.
Lorsque les systèmes alimentaires s’effondrent, cet équilibre est rompu.
Sur le plan physiologique, les effets de la famine sur le corps humain se déroulent en trois phases qui se chevauchent. Chacune reflète les efforts du corps pour survivre sans nourriture. Mais ces adaptations ont un coût physiologique élevé.
Au cours de la première phase qui dure jusqu’à 48 heures après l’arrêt de l’alimentation, l’organisme puise dans les réserves de glycogène stockées dans le foie afin de maintenir un taux de sucre dans le sang stable.
(Le glycogène est un glucide complexe que l’on pourrait définir comme une réserve de glucose – donc de sucre – facilement mobilisable, ndlr).
Ce processus, appelé glycogénolyse, est une solution à court terme. Lorsque le glycogène est épuisé, la deuxième phase commence.
Le corps passe alors à la gluconéogenèse, qui correspond à une production de glucose à partir de sources non glucidiques telles que les acides aminés (provenant des muscles), le glycérol (provenant des graisses) et le lactate. Ce processus alimente les organes vitaux, mais entraîne une dégradation musculaire et une augmentation de la perte d’azote, en particulier au niveau des muscles squelettiques.
Le troisième jour, la cétogenèse devient le processus dominant. Le foie commence à convertir les acides gras en corps cétoniques. Ce sont des molécules dérivées des graisses qui servent de source d’énergie alternative lorsque le glucose vient à manquer. Ces cétones sont utilisées par le cerveau et d’autres organes pour produire de l’énergie. Ce changement permet de préserver les tissus musculaires, mais il est également le signe d’une crise métabolique plus profonde.
Les changements hormonaux, notamment la diminution de l’insuline, de l’hormone thyroïdienne (T3) et de l’activité du système nerveux, ralentissent le métabolisme afin d’économiser l’énergie. Au fil du temps, les graisses deviennent la principale source d’énergie. Mais une fois les réserves de graisses épuisées, le corps est contraint de dégrader ses propres protéines pour produire de l’énergie. Cela accélère la fonte musculaire, affaiblit le système immunitaire et augmente le risque d’infections mortelles.
Le décès, souvent dû à une pneumonie ou à d’autres complications, survient généralement après 60 jours à 70 jours sans nourriture chez un adulte qui était, au départ, en bonne santé.
Lorsque l’organisme entre dans une phase de privation prolongée de nutriments, les signes visibles et invisibles de la famine s’intensifient.
Sur le plan physique, les individus perdent beaucoup de poids et souffrent d’une fonte musculaire, de fatigue, d’un ralentissement du rythme cardiaque, d’une sécheresse cutanée, d’une perte de cheveux et d’une altération des processus de cicatrisation. Les défenses immunitaires s’affaiblissent, ce qui augmente la vulnérabilité aux infections, en particulier à la pneumonie, une cause fréquente de décès en cas de famine.
Sur le plan psychologique, la famine provoque une profonde détresse. Les personnes touchées font état d’apathie, d’irritabilité, d’anxiété et d’une préoccupation constante pour la nourriture. Les capacités cognitives déclinent et la régulation des émotions se détériore, ce qui conduit parfois à la dépression ou au repli sur soi.
Chez les enfants, les effets à long terme comprennent un retard de croissance et des troubles du développement cérébral. Ces deux effets peuvent devenir irréversibles.
Pendant la famine, l’organisme s’adapte progressivement pour survivre. Au début, il utilise les réserves de glycogène pour produire de l’énergie. À mesure que la famine se prolonge, il commence à dégrader les graisses puis les tissus musculaires. Cette transition progressive explique à la fois la faiblesse physique et les changements psychologiques tels que l’irritabilité ou la dépression.
Mais les effets de la famine ne sont pas seulement d’ordre individuel. La famine brise aussi les familles et les communautés. À mesure que leurs forces déclinent, les gens sont incapables de prendre soin des autres ou d’eux-mêmes. Dans les crises humanitaires, comme celles de Gaza et du Soudan, la famine aggrave les traumatismes causés par la violence et les déplacements, en entraînant un effondrement total de la résilience sociale et biologique.
Après une période de famine, le corps humain se trouve dans un état de fragilité métabolique. La réintroduction soudaine d’aliments, en particulier de glucides, provoque une hausse brutale du taux d’insuline et un transfert rapide d’électrolytes tels que le phosphate, le potassium et le magnésium vers les cellules. Cela peut submerger l’organisme et entraîner un syndrome lié à la réalimentation, appelé en anglais refeeding syndrome (en français, l’expression « renutrition inappropriée » est employée quelquefois dans la littérature médicale, ndlr).
Ce syndrome peut entraîner des complications graves, telles qu’une insuffisance cardiaque, une détresse respiratoire, ou encore la mort en l’absence d’une prise en charge adéquate.
Les protocoles standard débutent par des laits thérapeutiques appelés F-75, spécialement conçus pour stabiliser les patients pendant la phase initiale du traitement de la malnutrition aiguë sévère, suivis d’aliments thérapeutiques prêts à l’emploi, d’une pâte ou de biscuits à base de beurre d’arachide (spécialement formulés pour permettre à un enfant souffrant de malnutrition de passer de l’état de mort imminente à un rétablissement nutritionnel complet en seulement quatre à huit semaines), de sels de réhydratation orale et de poudres de micronutriments.
Ces produits alimentaires doivent être livrés en toute sécurité. Un accès humanitaire constant est essentiel.
Les largages par voies aériennes ne font pas partie de la sécurité alimentaire. La survie nécessite des efforts soutenus et coordonnés pour restaurer les systèmes alimentaires, protéger les civils et faire respecter le droit humanitaire. Sans cela, les cycles de famine et de souffrances risquent de se répéter.
Quand l’aide alimentaire est insuffisante en termes de qualité ou de quantité, ou quand l’eau potable n’est pas disponible, la malnutrition s’aggrave rapidement.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.08.2025 à 17:25
Thierry Gauquelin, Professeur émérite, Institut méditerranéen de biodiversité et d’écologie marine et continentale (IMBE), Aix-Marseille Université (AMU)
Créé à la fin des années 1980, ce mot a immédiatement connu un grand succès. Mais ce qu’il désigne est bien plus vaste qu’on ne le pense souvent. Aujourd’hui, de nouvelles notions émergent également pour nous permettre de mieux penser la diversité du vivant, telles que la biodiversité fantôme ou la biodiversité potentielle.
Demandez à un enfant de huit ans, à un homme politique ou à une mère de famille, quel organisme symbolise, pour eux, la biodiversité… À coup sûr, ce sera un animal et plutôt un gros animal. Ce sera le panda, le koala, la baleine, l’ours, ou le loup, présent aujourd’hui dans nombre de départements français. Ce sera rarement un arbre, même si la déforestation ou les coupes rases sont dans tous les esprits, et, encore plus rarement, une fleur… Jamais un insecte, une araignée, un ver, une bactérie ou un champignon microscopique… qui, pourtant, constituent 99 % de cette biodiversité.
Raconter l’évolution de ce terme, c’est donc à la fois évoquer un grand succès, mais aussi des incompréhensions et certaines limites.
Mais pour prendre la mesure de tout cela, commençons par revenir sur ses débuts.
Le terme « biodiversité », traduction de l’anglais biodiversity, est issu de la contraction de deux mots « diversité biologique » (biological diversity). Il est relativement récent et date seulement de la fin des années 1980, mais il a connu depuis un intérêt croissant.
Ainsi, en 2012, la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystèmiques (IPBES), équivalent pour la biodiversité du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), a été lancée par le programme des Nations unies pour l’environnement (PNUE).
L’IPBES a publié, en moins de quinze ans, nombre de rapports dont, par exemple, en 2023, un rapport sur les espèces exotiques envahissantes (EEE) qui constituent l’une des cinq principales pressions sur la biodiversité.
La progression spectaculaire de l’utilisation de ce terme depuis sa création témoigne de l’intérêt croissant pour cette notion, notamment depuis le sommet de la Terre de Rio en 1992 où la biodiversité et sa préservation ont été considérées comme un des enjeux principaux du développement durable.
Mais dès qu’on s’intéresse à ce que cette notion tâche de décrire, on voit rapidement qu’il existe différents critères complémentaires pour mesurer la richesse du monde vivant, avec, au moins, trois niveaux de biodiversité retenus par les scientifiques. :
la diversité spécifique, soit la richesse en espèces d’un écosystème, d’une région, d’un pays donné. Elle correspond, par exemple concernant les espèces de plantes natives, à près de 5 000 espèces pour la France hexagonale contre seulement 1 700 pour la Grande-Bretagne.
la diversité génétique, soit la diversité des gènes au sein d’une même espèce. C’est, par exemple, la très faible diversité génétique de la population de lynx boréal de France, issue de quelques réintroductions à partir des Carpates slovaques.
la diversité des écosystèmes, soit la diversité, sur un territoire donné, des communautés d’êtres vivants (la biocénose) en interaction avec leur environnement (le biotope). Ces interactions constituent aussi un autre niveau de biodiversité, tant elles façonnent le fonctionnement de ces écosystèmes.
Ces différents niveaux tranchent avec la représentation que peuvent se faire nos concitoyens de cette biodiversité, souvent limitée à la diversité spécifique, mais surtout à une fraction particulière de cette biodiversité, celle qui entretient des relations privilégiées ou affectives avec l’être humain. Ces espèces sont d’ailleurs aussi celles que l’on voit incarnée dans les principaux organismes de défense de la nature, par exemple le panda du WWF. Mais c’est un peu l’arbre qui cache la forêt.
Car, à ce jour, seulement environ 2 millions d’espèces ont pu être inventoriées alors qu’on estime qu’il en existe entre 8 millions et 20 millions.
À lire aussi : Combien y a-t-il d’espèces sur la planète ? La réponse n’est pas si simple
Cette méconnaissance affligeante et paradoxale, à une époque où l’on veut conquérir Mars, est liée au fait que cette biodiversité se trouve pour une grande partie dans deux endroits, les sols, d’une part, et les océans, d’autre part. Soit deux milieux encore trop peu investigués et, pourtant, recélant l’essentiel de la biodiversité spécifique de notre planète.
Concernant les sols, si l’on s’intéresse simplement à sa faune, on sait qu’elle correspond à environ 80 % de la biodiversité animale. Plus de 100 000 espèces ont déjà été identifiées (notamment les collemboles, les acariens, les vers de terre…), alors qu’il n’existe que 4 500 espèces de mammifères. Mais, rien que pour les nématodes, ces vers microscopiques au rôle capital pour le fonctionnement du sol, il y aurait en réalité entre 300 000 et 500 000 espèces.
Il faut aussi avoir en tête tous les micro-organismes (bactéries et champignons) dont on ne connaît environ qu’un pour cent des espèces et dont on peut retrouver un milliard d’individus dans un seul gramme de sol forestier.
Ainsi, dans une forêt, et d’autant plus dans une forêt tempérée où la biodiversité floristique reste faible, c’est donc bien dans le sol que cette biodiversité, pour l’essentielle cachée, s’exprime.
Elle demeure, enfin, indispensable au fonctionnement des écosystèmes, indispensable au fonctionnement de la planète, marqué par les échanges de matière et d’énergie.
À lire aussi : Éloge des feuilles mortes, carburant indispensable des écosystèmes
Darwin, en 1881, nous disait à propos des vers de terre qu’il avait beaucoup étudiés, on le sait peu :
« Dieu sait comment s’obtient la fertilité du sol, et il en a confié le secret aux vers de terre. »
Il ajoutait ensuite :
« Il est permis de douter qu’il y ait beaucoup d’autres animaux qui aient joué dans l’histoire du globe un rôle aussi important que ces créatures d’une organisation si inférieure. »
Concernant la biodiversité des océans, et notamment celle des écosystèmes profonds, il est frappant de voir à quel point les chiffres avancés restent très approximatifs. On connaît moins la biodiversité, notamment marine, de notre planète que les étoiles dans notre univers.
À lire aussi : Les premières images d’un calamar colossal dans les fonds marins prises par des scientifiques
À ce propos, Evelyne Beaulieu, l’héroïne océanographe du dernier prodigieux roman de Richard Powers, Un jeu sans fin (2025), s’exclame, après une plongée dans l’archipel indonésien Raja Ampat :
« C’est presque absurde des compter les espèces. Rien que pour les cnidaires, il y a sans doute au moins un millier de variétés, dont un bon nombre qu’aucun humain n’a jamais vu. Combien d’espèces encore à découvrir ? Autant qu’on en veut ! Je pourrais passer ma vie à donner à des créatures ton nom et le mien. »
La diversité génétique demeure, ensuite, la deuxième manière d’aborder la biodiversité.
Elle est fondamentale à considérer, étant garante de la résilience des espèces comme des écosystèmes. Dans une forêt de hêtres présentant une diversité génétique importante des individus, ce sont bien les arbres qui génétiquement présentent la meilleure résistance aux aléas climatiques ou aux ravageurs qui permettront à cette forêt de survivre.
Si, à l’inverse, la forêt ou le plus souvent la plantation est constituée d’individus présentant un patrimoine génétique identique, une sécheresse exceptionnelle ou encore une attaque parasitaire affectant un arbre les affecterait tous et mettra en péril l’ensemble de la plantation.
À lire aussi : Changement climatique : la diversité génétique à l’origine de l’adaptation des arbres ?
Les écosystèmes sont également définis comme des ensembles où des organismes vivants (la biocénose) se trouvent en interaction avec leur environnement physique (le biotope) dans un espace délimité.
Écosystèmes et biodiversité sont ainsi indissociables, d’une part, parce que la diversité d’écosystèmes va de pair avec la diversité spécifique, mais surtout, d’autre part, parce que les interactions qui définissent ces écosystèmes se réalisent au travers des organismes vivants constituant cette même biodiversité spécifique. Maintenir dans un espace donné des écosystèmes diversifiés, c’est en même temps favoriser la biodiversité et le fonctionnement de chacun de ces écosystèmes.
Les paysages méditerranéens du sud de la France présentent ainsi une diversité d’écosystèmes où se côtoient pelouses sèches, garrigue ou maquis, forêts de pins, forêts de chênes verts, blancs ou liège, s’inscrivant tous dans une dynamique successionnelle, auxquels s’ajoutent oliveraies, champs de céréales ou de légumineuses, etc.
Pour dépasser la difficulté à inventorier complètement et partout ces différentes facettes de la biodiversité, le concept d’une biodiversité potentielle a été développé. Des forestiers ont ainsi mis au point l’indice de biodiversité potentielle (IBP), un outil scientifique particulièrement intéressant et pédagogique permettant d’évaluer le potentiel d’accueil d’un peuplement forestier par les êtres vivants (faune, flore, champignons), sans préjuger de la biodiversité réelle qui ne pourrait être évaluée qu’avec des inventaires complexes, non réalisables en routine.
Cet IBP permet donc d’identifier les points d’amélioration possibles lors des interventions sylvicoles. Cet indicateur indirect et « composite », repose sur la notation d’un ensemble de dix facteurs qui permettent d’estimer les capacités d’accueil de biodiversité de la forêt.
Ainsi sera notée, par exemple, la présence ou non dans l’écosystème forestier de différentes strates de végétation, de très gros arbres, d’arbres morts sur pied ou au sol, mais aussi de cavités, de blessures, d’excroissances se trouvant au niveau des arbres et susceptibles d’abriter des organismes très divers, des coléoptères aux chiroptères.
Enfin, cette biodiversité peut aussi s’exprimer au travers de la biodiversité fantôme, c’est-à-dire la biodiversité des espèces qui pourraient naturellement occuper un environnement du fait de leurs exigences écologiques, mais qui en sont absentes du fait des activités humaines.
De fait, chaque écosystème a, par les caractéristiques climatiques, géographiques, géologiques de son biotope, un potentiel de biodiversité – potentiel entravé par la main de l’être humain, ancienne ou récente. Dans les régions fortement affectées par les activités humaines, les écosystèmes ne contiennent que 20 % des espèces qui pourraient s’y établir, contre 35 % dans les régions les moins impactées ; un écart causé par la fragmentation des habitats qui favorise la part de la diversité fantôme.
Inventoriée, cachée, potentielle ou fantôme, la biodiversité n’en reste pas moins la clé du fonctionnement des écosystèmes et la clé de notre résilience au changement climatique.
En témoignent toutes les publications scientifiques qui s’accumulent montrant l’importance de cette diversité pour nos efforts d’atténuation et d’adaptation. De plus en plus menacée dans toutes ses composantes sur la planète, la biodiversité doit donc, plus que jamais, être explorée et décrite, notamment là où elle est la plus riche mais la moins connue.
Thierry Gauquelin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.08.2025 à 17:23
Frédéric Lamantia, Docteur en géographie et maître de conférences, UCLy (Lyon Catholic University)
De la Chine à l’Indochine, en passant par Hongkong et la Corée du Sud, l’art lyrique occidental s’est implanté en Asie dans des contextes très variés. Héritage colonial ou outil de distinction sociale, il révèle bien plus que des goûts musicaux : une géographie du pouvoir, des hiérarchies culturelles, et des trajectoires d’appropriation locale.
Second épisode de la série « L’opéra : une carte sonore du monde ».
L’implantation de l’art lyrique en Asie ne fut ni spontanée ni universellement répartie dans le temps et l’espace. Elle s’intègre dans un processus lent de greffes culturelles débutées dès la fin du XVIe siècle par des missionnaires jésuites, notamment en Chine. Toutefois, ce n’est qu’au XIXe siècle, dans un contexte de domination coloniale, que l’art lyrique occidental s’inscrit dans les paysages urbains de l’Asie du Sud-Est. L’opéra occidental devient alors un marqueur d’urbanité à l’Européenne à travers son architecture et sa place centrale dans la cité, mais aussi grâce à l’image qu’il véhicule urbi et orbi. Objet de distinction sociale à l’origine réservé aux colons, il sera peu à peu adopté par les nouvelles générations ouvertes aux influences véhiculées par la mondialisation.
L’art lyrique occidental co-existe avec l’opéra de Pékin, un genre populaire autochtone chinois, né à la fin du XVIIIe siècle, qui propose des spectacles mêlant musique, danse acrobatique et théâtre présentés avec des costumes colorés traditionnels.
Le répertoire européen sera timidement importé à partir des années 1980, comme en témoignent les représentations de Carmen à Pékin, en 1982, à destination d’un public chinois parfois un peu perdu face à cet art si éloigné de la tradition culturelle locale. Le Parti communiste chinois avait d’ailleurs distribué des cassettes audio aux spectateurs pour leur expliquer l’œuvre et les prévenir de la moralité de Carmen…
Sur le plan architectural, le recours à l’architecte Paul Andreu, concepteur de l’aéroport de Roissy (Paris), pour réaliser la maison d’opéra (à l’architecture futuriste) de Pékin, en 2007, est significatif. Il témoigne d’une volonté politique d’utiliser l’opéra comme un outil à plusieurs dimensions. D’un côté, cette forme musicale est pensée comme un loisir destiné aux nouvelles classes sociales chinoises, davantage perméables à la musique classique ou contemporaine occidentale. De l’autre, elle est mobilisée comme un symbole de puissance ouverte sur le monde, l’innovation et la créativité. (Dix-sept nouveaux opéras ont ainsi été commandés à des compositeurs chinois entre 2007 et 2019).
La maison d’opéra devient, comme en Europe, un lieu central, dont la fréquentation s’inscrit dans un processus de distinction sociale prisé des classes sociales supérieures. Ce bâtiment futuriste a ainsi remplacé une partie de la ville composée de petites maisons traditionnelles et d’habitants souvent âgés, montrant une volonté politique forte d’inscrire la Chine dans la modernité. Ce phénomène rappelle mutatis mutandis, les opérations d’urbanisme menées sous la houlette du baron Haussmann à Paris, destinées à mettre en scène l’opéra dans la ville et à structurer l’urbanisme autour de sa centralité.
Au début du XXe siècle, l’implantation lyrique en Indochine reste strictement coloniale et sous le contrôle étroit de la censure. À Saïgon, à Haïphong ou à Hanoï, les colons français importent l’art théâtral et dans une moindre mesure l’opérette et les grandes œuvres du répertoire pour recréer les sociabilités parisiennes dont ils sont nostalgiques. Ces villes deviennent les vitrines culturelles de l’empire français reproduisant, ici comme dans d’autres colonies, les signes urbains de la centralité métropolitaine à travers le triptyque « cathédrale, théâtre et Palais du gouverneur ».
Dès les années 1880, ces édifices accueillent des troupes venues de France, renforçant ainsi le lien affectif avec la métropole. Les représentations d’art lyrique s’intègrent dans des activités culturelles variées avec le recours fréquent d’orchestres militaires. Ces activités lyriques restent destinées à la population coloniale dont le territoire lyrique demeure hermétique à la population autochtone.
Bien que parfois initiée à la culture française, celle-ci demeure le plus souvent exclue des pratiques musicales européennes, pour des raisons tant culturelles qu’économiques. Utilisé par les communistes lors de la révolution d’août 1945, l’opéra conserve aujourd’hui une activité culturelle réservée à une élite. Il est devenu le lieu où l’on accueille les délégations internationales et bientôt des touristes…
L’expérience coloniale française liée à l’art lyrique en Inde, notamment à Pondichéry, propose un modèle plus mixte. Comptoir commercial et place forte militaire de longue date (1674–1954), la ville s’organise selon un urbanisme à l’européenne.
Le théâtre, propriété de l’armée, devient au début du XXe siècle un lieu culturel diffusant entre autres de l’art lyrique, chanté en français et destiné à un public mêlant colons, fonctionnaires, militaires et élite tamoule francophone. Cette appropriation partielle du répertoire par certains groupes locaux témoigne d’un ancrage culturel plus diffus, bien que toujours limité à une élite cultivée. Les musiciens militaires jouent un rôle essentiel dans l’entretien de cette vie lyrique, participant parfois aux représentations.
Aujourd’hui, le lieu tente de conserver une activité culturelle variée malgré de nombreuses difficultés, notamment financières.
À la croisée des routes commerciales entre l’Europe et l’Asie, Hongkong développe, dès le XIXe siècle, un territoire lyrique singulier. Sous domination britannique depuis 1841, cette cité cosmopolite accueille des troupes itinérantes diffusant majoritairement le répertoire italien – Verdi, Rossini, Donizetti –, assez populaire dans ce lieu. L’opéra s’implante le long des circuits du négoce et s’ancre dans un paysage urbain en mutation, où la culture devient vitrine de réussite sociale.
À partir des années 1970, les élites locales s’approprient l’opéra occidental. Si l’italien reste la langue dominante utilisée, des artistes chinois, comme Ella Kiang, s’imposent désormais sur scène. Par la suite, les représentations sont sous-titrées en caractères chinois, et certaines œuvres françaises traduites dans la langue locale. À partir de 1973, le festival de Hongkong devient un espace de dialogue entre cultures, tandis que l’influence française décline au profit de celle de l’Italie et du Royaume-Uni.
En 1989, lors de l’inauguration du centre culturel Tsim Sha Tsui, Louis Vuitton offre le rideau de scène peint par Olivier Debré, symbole d’un soft power français à travers l’industrie du luxe…
La Corée du Sud, qui échappe aux influences coloniales occidentales directes mais pas à la mondialisation culturelle récente, adopte l’opéra comme outil de distinction sociale. L’Opéra national est inauguré en 1959, avec un répertoire dominé par Verdi, chanté en coréen.
Le chant devient un moyen d’ascension sociale pour une jeunesse ambitieuse dont les meilleurs éléments s’exporteront dans les grandes scènes lyriques mondiales. Cependant, l’opéra français peine à s’imposer, tant pour des raisons linguistiques (difficultés de prononciation de la langue française et notamment du e muet pour les larynx des chanteurs coréens). Le répertoire français reste donc marginal face à l’italien.
Le National Opera adapte aussi des récits coréens dans un style lyrique mêlant musique traditionnelle et instruments occidentaux, ce qui témoigne d’une appropriation du genre à travers une esthétique hybride.
À travers ces différents cas, l’art lyrique en Asie apparaît comme un révélateur des rapports de domination, de circulation culturelle et de hiérarchies linguistiques.
Si la colonisation a été un vecteur d’importation de formes lyriques européennes, elle a également été une force de sélection et de segmentation. En effet, l’art lyrique occidental n’a réellement pris racine que là où les élites – coloniales ou nationales – y ont trouvé un intérêt social ou politique. Plus récemment, la montée de classes moyennes et cultivées dans les grandes métropoles asiatiques a transformé le rapport à l’opéra, qui devient désormais un bien culturel universalisé, affranchi de ses origines européennes, adapté aux langues et aux esthétiques locales.
Ainsi, l’art lyrique, autrefois outil de cohésion entre colons, devient aujourd’hui un symbole de puissance et d’ouverture des sociétés asiatiques en quête de reconnaissance sur la scène internationale.
Frédéric Lamantia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.08.2025 à 17:22
Eric Chaumillon, Chercheur en géologie marine, La Rochelle Université
On pense bien connaître le trait de côte des cartes géographiques. Sa définition est pourtant plus complexe qu’il n’y paraît, car il ne s’agit pas d’une référence immuable au cours du temps. Le changement climatique, sans surprise, vient encore compliquer la donne.
Tout le monde pense connaître le trait de côte qui est représenté sur les cartes géographiques. Il occupe une place importante dans nos représentations et semble correspondre à une ligne de référence stable dans le temps. Nous allons voir qu’il n’en est rien.
Commençons par le définir. Selon le service hydrographique et océanographique de la Marine nationale (SHOM) et l’Institut géographique national (IGN), il s’agit de la « limite de laisse » (c’est-à-dire, jusqu’où peuvent s’accumuler les débris déposés par la mer) des plus hautes mers, dans le cas d’une marée astronomique de coefficient 120 et dans des conditions météorologiques normales (pas de vent du large et pas de dépression atmosphérique susceptible d’élever le niveau de la mer).
Il faut encore ajouter à ces conditions « pas de fortes vagues », car elles peuvent aussi faire s’élever le niveau de l’eau. De façon pragmatique toutefois, on peut se limiter aux marées hautes de vives-eaux dans des conditions météorologiques normales pour définir le trait de côte.
Les marées de grandes vives-eaux se produisant selon un cycle lunaire de 28 jours et les très grandes vives-eaux se produisant lors des équinoxes deux fois par an (en mars et en septembre).
Le trait de côte est situé à l’interface entre l’atmosphère, l’hydrosphère (mers et océans) et la lithosphère (les roches et les sédiments), ce qui en fait un lieu extrêmement dynamique. Le trait de côte peut reculer, quand il y a une érosion des roches ou des sédiments, ou avancer, quand les sédiments s’accumulent.
Par conséquent il est nécessaire de le mesurer fréquemment. Il existe tout un arsenal de techniques, depuis l’utilisation des cartes anciennes, l’interprétation des photographies aériennes et des images satellitaires, les mesures par laser aéroporté, les mesures topographiques sur le terrain et les mesures par drones.
Les évolutions des côtes sont très variables et impliquent de nombreux mécanismes. En France, selon des estimations du CEREMA, 19 % du trait de côte est en recul.
Le principal problème est que l’évolution du trait de côte est très sensible aux variations du niveau de la mer. En raison du réchauffement climatique d’origine humaine, la mer monte, du fait de la fonte des glaces continentales et de la dilation thermique des océans, et ce phénomène s’accélère.
Pour les côtes sableuses, cela conduit à une aggravation des phénomènes d’érosion déjà existants. Avec l’élévation du niveau des mers, des côtes stables, voire même des côtes en accrétion pourraient changer de régime et subir une érosion chronique. Sur un horizon de quelques décennies, il est impossible de généraliser, car la position du trait de côte dépend aussi des apports sédimentaires qui sont très variables d’une région à une autre.
Le Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) estime que d’ici 2050, 5 200 logements et 1 400 locaux d’activité pourraient être affectés par le recul du trait de côte, pour un coût total de 1,2 milliard d’euros. La dynamique et le recul du trait de côte sont un sujet majeur, dont l’intérêt dépasse les seuls cercles spécialisés, avec des implications très concrètes, notamment en matière de droit de la construction. En premier lieu parce que le trait de côte est utile pour définir le domaine public maritime (DPM).
Ses limites ont été précisées en 1681 par une ordonnance de Colbert qui précise que le DPM naturel ne peut être cédé et qu’une occupation ou une utilisation prolongée par des particuliers qui se succèdent sur cette zone ne leur confère aucun droit réel ou droit de propriété.
La législation française relative au trait de côte a récemment évolué. En témoigne par exemple la loi Climat et résilience de 2021, qui renforce l’adaptation des territoires littoraux. La stratégie nationale de gestion intégrée du trait de côte insiste sur la mise en place de solutions durables pour préserver le littoral, tout en assurant la préservation des personnes et des biens.
Concrètement, comment faire ? L’approche la plus connue est la défense de côte en dur, souvent en béton ou en roches. Cette stratégie est chère, nécessite un entretien, elle est inesthétique et entraîne une forte dégradation, voire une disparition, des écosystèmes littoraux. Surtout, on ne pourrait généraliser cette stratégie sur les milliers de kilomètres de côtes en France et dans le monde (on parle de 500 000 km de côte).
Sans rentrer dans le détail de toutes les solutions existantes, on peut noter que la communauté scientifique qui étudie les littoraux appelle à davantage recourir aux solutions fondées sur la nature (SFN). En simplifiant, on peut dire qu’il s’agit de tirer parti des propriétés des écosystèmes sains pour protéger les personnes, tout en protégeant la biodiversité.
Ces approches ont fait leurs preuves, particulièrement en ce qui concerne les prés salés, les mangroves ou les barrières sédimentaires en général (constituées par la plage sous-marine, la plage et la dune). On peut assimiler ces écosystèmes littoraux à des « zones tampons » qui absorbent l’énergie des vagues et limitent les hauteurs d’eau tout en préservant la biodiversité et les paysages.
La série « L’envers des mots » est réalisée avec le soutien de la Délégation générale à la langue française et aux langues de France du ministère de la Culture.
Eric Chaumillon a reçu des financements de l'ANR et du Département de Charente-Maritime.
13.08.2025 à 17:17
Damien Bazin, Maître de Conférences HDR en Sciences Economiques, Université Côte d’Azur
Thierry Pouch, Chef du service études et prospectives APCA, Université de Reims Champagne-Ardenne (URCA)
Économiste de génie et… membre de la Schutzstaffel (SS). Comment séparer la biographie un des auteurs majeurs de la théorie des jeux et du duopole, de ses convictions politiques ? Dans la période de l’entre-deux-guerres et de l’après-guerre, Heinrich Von Stackelberg entendait peser sur le cours du monde. À base de compétition, de corporatisme fasciste et d’ordolibéralisme.
Heinrich von Stackelberg est à la fois un économiste méconnu et un théoricien de réputation internationale. Il a laissé son nom à la postérité en proposant une typologie des marchés qui fait encore l’objet de recherches aujourd’hui, en développant la théorie des jeux et en questionnant l’idée d’« équilibre économique ». Il ne fut pourtant pas que cela. Son itinéraire de théoricien de l’économie renferme une face sombre, très sombre même, puisqu’il adhéra au Parti national-socialiste allemand en 1931, soit deux ans avant l’accession de Hitler à la Chancellerie.
L’actualité de la politique commerciale de Donald Trump pose un problème bien connu des économistes. Faut-il rétorquer par des sanctions similaires, et s’engager dans l’escalade tarifaire, ou bien négocier pour alléger les droits de douane additionnels du pays qui les a établis ? Doit-on participer à un jeu coopératif ou bien à un jeu non coopératif ? En lien direct avec cette actualité commerciale, c’est la figure de l’économiste et mathématicien Heinrich Freiherr Von Stackelberg qui se dessine en toile de fond. Un économiste dont la réputation tient essentiellement à son approche des coûts, de la concurrence et des formes de marché.
La figure de Stackelberg dans le champ de la science économique conduit à penser qu’un discours théorique n’est que rarement, voire jamais, séparé d’une vision du monde (Weltanschaung), d’un engagement politique. L’entre-deux-guerres en constitue une période hautement symbolique. Les théoriciens de l’économie, au sein desquels il prit place, entendaient peser sur le cours du monde, ce qui explique l’âpreté des conceptions des uns et des autres.
Nul doute que cet économiste, baron de son état, né en Russie en 1905, devenu allemand par la suite et mort en Espagne en 1946, aura marqué la théorie économique. Il analyse tout particulièrement les comportements des acteurs, ces entreprises dans la sphère marchande, pouvant être à l’origine de rapports économiques asymétriques. Ces comportements participent in fine à l’émergence d’un acteur leader. Ce leader est en mesure d’empêcher, par le pouvoir dont il est doté sur le marché, la formation d’un équilibre économique. C’est lui qui fixe les règles de fonctionnement du marché, l’autre acteur étant considéré comme un suiveur. Stackelberg en déduit que l’équilibre sur les marchés est une conception très éloignée de la réalité économique.
Stackelberg s’éloigne en cela de ses prédécesseurs français, Antoine Cournot ou Joseph Bertrand, qui, pour leur part, avaient axé leur réflexion sur des jeux coopératifs. Ils aboutissaient à des marchés considérés comme équilibrés.
L’extrême rigueur de la démonstration de Stackelberg tient à la dotation élevée en capital mathématique qui caractérisait cet économiste. Elle lui vaut une insertion rapide dans les grands débats qui animent la science économique durant les années 1920-1930, années souvent qualifiées de « haute théorie », et ce, en dépit de la barrière de la langue allemande. Sa vision de l’instabilité des marchés fait qu’il n’est pas un économiste isolé puisque, la Grande Dépression aidant, d’autres économistes développent des travaux similaires comme ceux de Nicholas Kaldor en Grande-Bretagne.
Avec de telles avancées théoriques, Stackelberg s’installe durablement dans le paysage éditorial économique, et en particulier dans les ouvrages d’économie industrielle et, plus largement, dans les manuels contemporains de science économique couvrant les trois premières années d’économie dans les universités.
C’est en 1934 qu’il publie son ouvrage phare, en langue allemande, et longtemps resté sans traduction ni anglaise ni encore moins française, Marktform und Gleichgewicht. Il faudra attendre 2011 pour avoir une traduction anglaise complète de ce livre Market Structure and Equilibrium. La théorie du duopole de Stackelberg, que l’on peut trouver dans cet ouvrage, lui a valu une notoriété mondiale. Un ouvrage publié en 1934 qui suscita d’emblée des commentaires et des recensions dans les revues d’économie les plus prestigieuses, et signés par les grands noms de la discipline, à l’image de Wassily Leontief aux États-Unis, de Nicholas Kaldor et de John Hicks en Grande-Bretagne, ou encore de Walter Eucken en Allemagne.
Mathématicien, statisticien, économiste, Stackelberg est un intellectuel brillant. Ses travaux sur les coûts et les formes de marché l’attestent. La science, celle de l’économie en particulier, n’est toutefois pas idéologiquement neutre. Dans le cas de Stackelberg, l’homme de connaissances développe une conscience nationaliste, une attirance pour les mouvements paramilitaires dès qu’il foule le sol allemand à l’âge de 18 ans, après avoir fui sa Russie natale avec ses parents et ses trois frères.
Le point d’aboutissement de l’attraction qu’exerce sur lui le nationalisme allemand, est l’adhésion au Parti national-socialiste (Nationalsozialistische Deutsche Arbeiterpartei, NSDAP) en 1931, puis à la Schutzstaffel (SS) en 1933. Si ses recherches sur les formes de marché sont finalisées dans la publication de l’ouvrage de 1934, Stackelberg publie plusieurs articles dans des revues comme Jungnationale Stimmen (Voies des jeunesses nationalistes. Lire James Konow).
On pourrait considérer qu’une ligne de démarcation sépare les travaux théoriques de l’engagement politique de Stackelberg, et affirmer ainsi que la science ne se mélange pas à la politique. L’argument principal qui plaide en faveur de cette étanchéité entre les deux champs tient à l’antériorité de l’adhésion au NSDAP sur les recherches académiques qui vont faire de lui un économiste de réputation internationale.
En réalité, Stackelberg prend des positions politiques qui transpirent dans ses analyses scientifiques.
Un premier indice réside dans sa vision de la politique monétaire. Lors d’une conférence (« Die deutsche Geldpolitik seit 1870 »), prononcée en 1942 à Bonn, dont le thème est la politique monétaire allemande, Stackelberg s’attache à retracer l’évolution des réformes monétaires de l’Allemagne depuis 1870. L’ambition de cette conférence est d’identifier les fondements d’une souveraineté monétaire de l’Allemagne en phase avec ses ambitions hégémoniques dans une Europe en voie de renouveau. La publication des inaugural lectures (Antrittsvorlesung) de l’Université de Bonn est placée sous la responsabilité de Karl Franz Johann Chudoba (1898-1976), qui enseigne la minéralogie à Bonn, mais qui est, par ailleurs, un membre actif du Parti national-socialiste des travailleurs allemands (Nationalsozialistische Deutsche Arbeiterpartei, NSDAP).
Le second indice est beaucoup révélateur de l’articulation qu’il peut y avoir entre démarche scientifique et engagement politique. Il tient fondamentalement à la période historique dans laquelle évolue Stackelberg. Cette période, c’est celle de la défaite de 1918 et celle de la République de Weimar. Comme bon nombre d’économistes, dont le français François Perroux, Stackelberg s’emploie, dans son livre de 1934 (Marktform und Gleichgewicht), à cherche une troisième voie entre, d'une part, le bolchévisme et le nivellement social qu’il lui semble incarner et, d'autre part, le capitalisme et son individualisme exacerbé qui a mis à l’épreuve les valeurs de l’Allemagne.
C’est pourquoi, dans un court chapitre (trois pages seulement), il prône l’adhésion au corporatisme. En cela, il rejoint une frange des économistes qui, comme lui, ont la certitude que le capitalisme est instable, et qui sont en quête d’une troisième voie, celle du corporatisme d’obédience fasciste.
Stackelberg n’est donc pas qu’un théoricien, il définit des leviers de politique économique, admet l’importance de l’interventionnisme de l’État, dans la perspective d’une réconciliation des acteurs d’une même filière économique, participant ainsi d’une unité nationale. Cette conception, il en échange les principes fondamentaux avec son collègue et ami, l’économiste Luigi Amoroso, auteur en 1938 d’un article publié par la prestigieuse revue Econometrica, dédié à Vilfredo Pareto, et dans lequel il rend un vibrant hommage à Benito Mussolini.
Stackelberg participe pleinement à la bataille des idées économiques de l’entre-deux-guerres. S’éloignant du nazisme à partir de 1943, il rejoint le groupe de Fribourg, autour d’économistes comme Eucken Walter ou Röpke Wilhelm ou encore Böhm Franz. Un groupe qui fera date, puisque les économistes qui le composent forment l’ordolibéralisme, incarnation allemande d’une voie médiane entre le laissez-faire intégral et le socialisme. Ce courant de pensée libéral conceptualise que la mission économique de l’État est de créer et de maintenir un cadre normatif permettant la « concurrence libre et non faussée » entre les entreprises.
Des économistes qui entendent préparer le lendemain de la guerre en proposant de nouveaux principes organisationnels de l’économie allemande.
Invité par l’Université de Madrid comme visiting professor, Stackelberg profite de cette opportunité en 1944 pour fuir l’Allemagne nazie. Il échappe au sort qui fut réservé à tous les opposants au régime dont il fait partie. En effet, après son adhésion sans ambiguïté au nazisme, Stackelberg s'était rangé dans le camp des opposants à Hitler. Ses enseignements en Espagne font de Stackelberg un diffuseur de l’ordolibéralisme, dans un régime politique autoritaire, attestant une fois de plus de l’attirance de cet économiste pour le fascisme et le nationalisme.
Il va laisser une forte empreinte chez ses collègues espagnols, empreinte que l’on peut mesurer dans les recherches menées sur lui en Espagne, jusqu’à très récemment. Cette empreinte aura été réalisée dans un laps de temps très court, puisque Stackelberg mourut en 1946. Durant ces deux années, il publiera un ouvrage en langue espagnole : Principios de Téoria Economica.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.08.2025 à 17:17
Katherine Twamley, Professor of Sociology, UCL
Jenny van Hooff, Reader in Sociology, Manchester Metropolitan University
Baisse de l’activité sexuelle, montée d’un certain « hétéropessimisme » ou célibat revendiqué… de plus en plus d’éléments indiquent que la génération Z se détourne des formes traditionnelles de rencontres et des relations amoureuses à long terme. Dans le même temps, on observe un clivage politique entre jeunes femmes – plus progressistes – et jeunes hommes – plus conservateurs. Comment analyser ces évolutions, au regard du contexte politique, social et économique ?
Des signes de clivage politique entre les jeunes hommes et les jeunes femmes ont pu être observés au cours de l’année écoulée. Les données issues des élections dans plusieurs pays indiquent que les femmes âgées de 18 à 29 ans se montrent nettement plus progressistes, tandis que les jeunes hommes penchent davantage vers le conservatisme. Une récente étude, menée dans 30 pays a également révélé que la génération Z est plus divisée que les précédentes sur les questions liées à l’égalité entre les sexes.
Parallèlement, de plus en plus d’éléments montrent que cette génération se détourne des rencontres amoureuses. Selon les données de l’enquête nationale sur la croissance des familles aux États‑Unis (National Survey of Family Growth), entre 2022 et 2023, 24 % des hommes et 13 % des femmes, âgés de 22 à 34 ans, ont déclaré n’avoir eu aucune activité sexuelle au cours de l’année écoulée.
Il s’agit d’une augmentation significative par rapport aux années précédentes. Et les adolescents états-uniens sont moins enclins à entretenir des relations amoureuses que ceux des générations précédentes.
Au Royaume-Uni, les enquêtes menées au cours des dernières décennies révèlent une tendance à la baisse de l’activité sexuelle, tant en termes de fréquence que de nombre de partenaires chez les jeunes. Les applications de rencontre perdent également de leur attrait, les principales plateformes enregistrant des baisses significatives du nombre d’utilisateurs parmi les hétérosexuels de la génération Z l’an dernier.
Une fracture politique genrée rend-elle les rencontres plus difficiles ? En tant que sociologues de l’intimité, nos travaux ont montré comment les relations sont affectées par des tendances sociales, économiques et politiques plus larges.
Nos recherches sur la persistance des inégalités de genre montrent qu’elles peuvent affecter la qualité des relations intimes ainsi que leur stabilité.
Par exemple, les relations hétérosexuelles reposent souvent sur une répartition inégale du travail émotionnel et domestique, même au sein des couples ayant des revenus similaires. Certains commentateurs et chercheurs ont identifié une tendance à l’« hétéropessimisme » – un désenchantement vis-à-vis des relations hétérosexuelles, souvent marqué par l’ironie, par le détachement ou par la frustration. De nombreuses femmes expriment une lassitude face aux inégalités de genre qui peuvent apparaître dans les relations avec les hommes.
Mais l’hétéropessimisme a également été identifié chez les hommes et des recherches ont montré que les femmes sont, en moyenne, plus heureuses célibataires que ces derniers.
Prenons le travail domestique. Malgré les avancées en matière d’égalité entre les sexes dans de nombreux domaines, les données montrent que, dans les couples hétérosexuels, les femmes assument encore la majorité des tâches ménagères et des tâches liées au soin. Au Royaume-Uni, elles effectuent en moyenne 60 % de travail non rémunéré de plus que les hommes. Cet écart subsiste même au sein des couples où les deux partenaires travaillent à temps plein.
À lire aussi : What is 'heteropessimism', and why do men and women suffer from it?
En Corée, l’inégalité persistante entre les sexes est considérée comme étant à l’origine du mouvement 4B. Des jeunes femmes coréennes, lassées des stéréotypes sexistes qui les cantonnent à des rôles traditionnels, déclarent rejeter le mariage, la maternité, les relations amoureuses et le sexe avec les hommes.
Dans ce pays et ailleurs, sur les réseaux sociaux, des jeunes femmes se disent « boy sober » [littéralement « sobres de garçons », ndlr]. Le harcèlement, les abus et les « comportements toxiques » sur les applications de rencontre ont, selon certains témoignages, détourné nombre d’entre elles de toute envie de sortir avec quelqu’un.
D’autres ont opté pour la célibat volontaire. Un élément d’explication tient au fait que, pour certaines femmes, la remise en cause des droits reproductifs – comme l’abrogation de l’arrêt Roe v. Wade (qui garantissait le droit fédéral à l’avortement aux États-Unis, ndlr) – rend les questions d’intimité fondamentalement politiques.
Des désaccords politiques, qui auraient, autrefois, pu être surmontés dans une relation, sont aujourd’hui devenus profondément personnels, car ils touchent à des enjeux tels que le droit des femmes à disposer de leur corps et les expériences de misogynie qu’elles peuvent subir.
Bien sûr, les femmes ne sont pas seules à pâtir des inégalités de genre. Dans le domaine de l’éducation, les données suggèrent que les garçons prennent du retard sur les filles à tous les niveaux au Royaume-Uni, bien que des recherches récentes montrent que la tendance s’est inversée en mathématiques et en sciences.
Nombre d’hommes estiment être privés d’opportunités de s’occuper de leurs enfants, notamment en raison de normes dépassées en matière de congé parental, limitant le temps qu’ils peuvent leur consacrer.
Certains influenceurs capitalisent sur les préjudices réels ou supposés des hommes, diffusant leurs visions rétrogrades et sexistes des femmes et du couple sur les réseaux sociaux de millions de garçons et de jeunes hommes.
À lire aussi : Extrême droite et antiféminisme : pourquoi cette alliance séduit tant de jeunes hommes
Compte tenu de tout cela, il n’est pas surprenant que les jeunes hommes soient plus enclins que les jeunes femmes à affirmer que le féminisme a « fait plus de mal que de bien ».
Mais des enjeux politiques et économiques plus larges influencent également les jeunes hommes et les jeunes femmes, et conditionnent leur façon – voire leur décision – de se fréquenter. La génération Z atteint l’âge adulte à une époque de dépression économique. Des recherches montrent que les personnes confrontées à des difficulté économiques peuvent avoir du mal à établir et à maintenir des relations intimes.
Cela peut être en partie dû au fait que les débuts d’une romance sont fortement associés au consumérisme – sorties au restaurant, cadeaux, etc. Mais il existe aussi un manque d’espace mental pour les rencontres lorsque les gens sont sous pression pour joindre les deux bouts. L’insécurité financière affecte également la capacité des jeunes à se payer un logement et, donc, à disposer d’espaces privés avec un partenaire.
On observe, par ailleurs, une augmentation des problèmes de santé mentale signalés par les jeunes dans le monde entier. Les angoisses liées à la pandémie, à la récession économique, au climat et aux conflits internationaux sont omniprésentes.
Ces inquiétudes se reflètent dans les rencontres amoureuses, au point que certains voient dans une relation sentimentale une prise de risque supplémentaire dont il vaut mieux se protéger. Des recherches menées auprès d’utilisateurs hétérosexuels d’applications de rencontre au Royaume-Uni, âgés de 18 à 25 ans, ont révélé qu’ils perçoivent souvent les rencontres comme un affrontement psychologique – dans lequel exprimer son intérêt trop tôt peut mener à l’humiliation ou au rejet.
Il en résulte que ni les jeunes hommes ni les jeunes femmes ne se sentent en sécurité pour manifester un véritable intérêt envers un potentiel partenaire. Cela les enferme souvent dans le fameux, et souvent décrié, « talking stage » (« phase de discussion »), où les relations peinent à progresser.
Comme l’ont montré Lisa Wade et d’autres sociologues, même dans le cadre de relations sexuelles occasionnelles, l’attachement émotionnel est souvent volontairement évité.
Si la génération Z se détourne des relations amoureuses, ce n’est pas forcément par manque d’envie de créer du lien, mais sans doute en raison d’un sentiment de vulnérabilité accru, nourri par une montée des problèmes de santé mentale et un climat d’insécurité sociale, économique et politique.
Il ne s’agit peut-être pas d’un rejet des relations de la part des jeunes. Peut-être ont-ils plutôt du mal à trouver des espaces émotionnellement sûrs (et financièrement accessibles) propices au développement d’une intimité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.08.2025 à 16:03
Donald Heflin, Executive Director of the Edward R. Murrow Center and Senior Fellow of Diplomatic Practice, The Fletcher School, Tufts University
Avant sommet organisé à la hâte entre les présidents Donald Trump et Vladimir Poutine le 15 août 2025 en Alaska, qui n'a abouti à aucun accord de paix pour l'Ukraine, « The Conversation » s’est entretenu avec le diplomate chevronné Donald Heflin, qui enseigne aujourd’hui à la Fletcher School de l’Université Tufts, près de Boston, afin de connaître son point de vue sur cette rencontre inhabituelle. L'analyse du diplomate a été confirmée par les faits.
The Conversation : Comment les guerres prennent-elles fin ?
Donald Heflin : Les guerres prennent fin pour trois raisons. La première est que les deux camps s’épuisent et décident de faire la paix. La deuxième, plus courante, est qu’un camp s’épuise, lève la main et dit : « Oui, nous sommes prêts à nous asseoir à la table des négociations. »
Et puis la troisième raison, que nous avons vue au Moyen-Orient, c’est que des forces extérieures, comme les États-Unis ou l’Europe, interviennent et disent : « Ça suffit. Nous imposons notre volonté de l’extérieur. Arrêtez ça. »
Ce que nous voyons dans la situation entre la Russie et l’Ukraine, c’est qu’aucune des deux parties ne montre une réelle volonté de s’asseoir à la table des négociations et de céder du territoire.
Les combats se poursuivent donc. Et le rôle que jouent actuellement Trump et son administration correspond à la troisième possibilité, celle d’une puissance extérieure qui intervient et dit « Ça suffit ».
Regardons la Russie. Elle n’est peut-être plus la superpuissance qu’elle a été, mais c’est une puissance qui dispose d’armes nucléaires et d’une armée importante. Ce n’est pas un petit pays du Moyen-Orient que les États-Unis peuvent dominer complètement. C’est presque un égal. Alors, peut-on vraiment lui imposer sa volonté et le faire venir sérieusement à la table des négociations s’il ne le veut pas ? J’en doute fort.
De quelle manière cette rencontre entre Trump et Poutine en Alaska s’inscrit-elle dans l’histoire des négociations de paix ?
D. H. : Beaucoup de gens font l’analogie avec la conférence de Munich de 1938, où le Royaume-Uni et la France ont rencontré l’Allemagne hitlérienne. Je n’aime pas faire de comparaison avec le nazisme ou avec l’Allemagne hitlérienne. Ces gens ont déclenché la Seconde Guerre mondiale, perpétré l’Holocauste et tué de 30 millions à 40 millions de personnes. Il est difficile de comparer quoi que ce soit à cela.
Mais sur le plan diplomatique, ce qui s’est passé en 1938 peut éclairer la situation actuelle. L’Allemagne a dit : « Écoutez, nous avons tous ces citoyens allemands qui vivent dans ce nouveau pays qu’est la Tchécoslovaquie. Ils ne sont pas traités correctement. Nous voulons qu’ils fassent partie de l’Allemagne. » Et les dirigeants nazis étaient prêts à envahir le pays.
L’Europe est alors en pleine crise des Sudètes : la situation est explosive. Pour éviter la guerre, le premier ministre britannique Neville Chamberlain décide de mener seul des négociations avec le chancelier Hitler. Il fait trois fois le voyage en Allemagne en quinze jours et ces rencontres mèneront aux accords de Munich, qui actent la cession par la Tchécoslovaquie des Sudètes au profit du IIIe Reich, avec des garanties françaises et britanniques sur l’intégrité du reste du pays. Et cela devait s’arrêter là. L’Allemagne ne devait avoir aucune autre exigence.
La Tchécoslovaquie n’était pas présente en 1938. C’est une paix qui lui a été imposée.
Et, bien sûr, il n’a pas fallu attendre plus d’un an ou deux ans avant que l’Allemagne déclare : « Non, nous voulons toute la Tchécoslovaquie. Et, d’ailleurs, nous voulons aussi la Pologne. » C’est ainsi que la Seconde Guerre mondiale a commencé.
Pourriez-vous préciser davantage ces comparaisons ?
D. H. : La Tchécoslovaquie n’était pas à la table des négociations. L’Ukraine n’est pas à la table des négociations.
À lire aussi : L’Ukraine pas conviée aux négociations sur son avenir : des précédents existent, et ils ne sont pas encourageants
Encore une fois, je ne suis pas sûr de vouloir comparer Poutine à Hitler, mais c’est un chef autoritaire à la tête d’une armée importante.
Des garanties de sécurité avaient été données à la Tchécoslovaquie ; elles n’ont pas été respectées. L’Occident a donné des garanties de sécurité à l’Ukraine lorsque ce pays a renoncé à ses armes nucléaires en 1994. Nous avons dit aux Ukrainiens : « Si vous faites preuve de courage et renoncez à vos armes nucléaires, nous veillerons à ce que vous ne soyez jamais envahis. » Et ils ont été envahis deux fois depuis, en 2014 et en 2022. L’Occident n’a pas réagi.
L’histoire nous enseigne donc que les chances que ce sommet débouche sur une paix durable sont assez faibles.
Quel type d’expertise est nécessaire pour négocier un accord de paix ?
D. H. : Voici comment cela se passe généralement dans la plupart des pays qui ont une politique étrangère d’envergure ou un appareil de sécurité nationale important, et même dans certains petits pays.
D’abord, les dirigeants politiques définissent leur objectif politique, ce qu’ils veulent atteindre.
Ils communiquent ensuite leurs objectifs aux agents de l’État, des services diplomatiques et aux militaires en leur disant : « Voici ce que nous voulons obtenir à la table des négociations. Comment y parvenir ? »
Alors ces experts leur font des propositions : « Nous allons faire ceci et cela, et nous affecterons du personnel à cette tâche. Nous travaillerons avec nos homologues russes pour tenter de réduire le nombre de points litigieux, puis nous proposerons des chiffres et des cartes. »
Or, il y a eu beaucoup de turnover au département d’État depuis l’investiture en janvier. L’équipe est nouvelle, et si certains, comme Marco Rubio, savent généralement ce qu’ils font en matière de sécurité nationale, d’autres moins. De nombreux hauts fonctionnaires et personnels du département d’État ont été licenciés, et beaucoup de cadres intermédiaires partent, et avec eux, c’est l’expertise qui s’en va.
C’est un vrai problème. L’appareil de sécurité nationale américain est de plus en plus dirigé par une équipe B, dans le meilleur des cas.
Pourquoi cela posera-t-il un problème quand Trump rencontrera Poutine ?
D. H. : Une rencontre entre deux dirigeants de deux grands pays comme ceux-ci ne s’organise pas à la hâte, à moins qu’il s’agisse d’une situation de crise.
C’est-à-dire que cette rencontre pourrait avoir lieu dans deux ou trois semaines, aussi bien que cette semaine.
En disposant de plus de temps, on peut mieux se préparer. On peut transmettre toutes sortes de documents et d’informations aux agents diplomatiques américains qui vont participer au sommet. Ceux-ci auraient le temps de rencontrer leurs homologues russes, ainsi que leurs homologues ukrainiens, voire des agents d’autres pays d’Europe occidentale. Et lorsque les deux parties finiraient par s’asseoir à la table des négociations, cela se passerait de manière très professionnelle.
Les négociateurs auraient des documents de travail similaires. Chacun aurait à peu près le même niveau d’information. Les questions seraient ciblées.
Ce n’est pas du tout le cas avec ce sommet en Alaska. Ici, il s’agit de deux dirigeants politiques qui vont se rencontrer et prendre des décisions – souvent motivées par des considérations purement politiques –, mais sans aucune idée réelle de leur faisabilité ou de la manière dont elles vont pouvoir être mises en œuvre.
Un accord de paix pourrait-il être appliqué ?
D. H. : Une fois encore, la situation est, en quelque sorte, hantée par le fait que l’Occident n’a jamais appliqué les garanties de sécurité promises en 1994.
Historiquement, la Russie et l’Ukraine ont toujours été liées, et c’est là le problème. Quelle est la ligne rouge de Poutine ? Renoncerait-il à la Crimée ? Non. Renoncerait-il à la partie de l’est de l’Ukraine qui a été prise de facto par la Russie avant même le début de la guerre ? Probablement pas. Renoncerait-il à ce qu’ils ont gagné depuis lors ? Peut-être.
Mettons-nous ensuite à la place de l’Ukraine. Veut-elle renoncer à la Crimée ? Elle répond « Non ». Veut-elle renoncer à une partie de l’est du pays ? Encore « Non ».
Je suis curieux de savoir ce que vos collègues du monde diplomatique pensent de cette réunion à venir.
D. H. : Les personnes qui comprennent le processus diplomatique pensent que cette initiative est de l’amateurisme et qu’elle a peu de chances d’aboutir à des résultats concrets et applicables. Elle donnera lieu à une déclaration et à une photo de Trump et de Poutine se serrant la main. Certains croiront que cela résoudra le problème. Ce ne sera pas le cas.
Donald Heflin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.08.2025 à 14:27
Chang He, Professor of environmental sciences, The University of Queensland
From pesticides in our food to hormone disruptors in our kitchen pans, modern life is saturated with chemicals, exposing us to unknown long-term health impacts.
One of the surest routes to quantifying these impacts is the scientific method of biomonitoring, which consists of measuring the concentration of chemicals in biological specimens such as blood, hair or breastmilk. These measurable indicators are known as biomarkers.
Currently, very few biomarkers are available to assess the impact of chemicals on human health, even though 10 million new substances are developed and introduced to the market each year.
My research aims to bridge this gap by identifying new biomarkers of chemicals of emerging concern in order to assess their health effects.
One of the difficulties of biomonitoring is that once absorbed in our bodies, chemical pollutants are typically processed into one or more breakdown substances, known as metabolites. As a result, many chemicals go under the radar.
In order to understand what happens to a chemical once it has entered a living organism, researchers can use various techniques, including approaches based on computer modelling (in silico models), tests carried out on cell cultures (in vitro approaches), and animal tests (in vivo) to identify potential biomarkers.
The challenge is to find biomarkers that allow us to draw a link between contamination by a toxic chemical and the potential health effects. These biomarkers may be the toxic product itself or the metabolites left in its wake.
But what is a “good” biomarker? In order to be effective in human biomonitoring, it must meet several criteria.
First, it should directly reflect the type of chemical to which people are exposed. This means it must be a direct product of the chemical and help pinpoint the level of exposure to it.
Second, a good biomarker should be stable enough to be detectable in the body for a sufficient period without further metabolization. This stability ensures that the biomarker can be measured reliably in biological samples, thus providing an accurate assessment of exposure levels.
Third, a good biomarker should enable precise evaluation. It must be specific to the chemical of interest without interference from other substances. This specificity is critical for accurately interpreting biomonitoring data and making informed decisions about health risks and regulatory measures.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
One example of a “bad” biomarker involves the diester metabolites of organophosphate esters. These compounds are high-production-volume chemicals widely used in household products as flame retardants and plasticizers, and are suspected to have adverse effects on the environment and human health.
Recent findings showed the coexistence of both organophosphate esters and their diester metabolites in the environment. This indicates that the use of diesters as biomarkers to estimate human contamination by organophosphate esters leads to an overestimation.
Using an inappropriate biomarker may also lead to an underestimation of the concentration of a compound. An example relates to chlorinated paraffins, persistent organic pollutants that are also used as flame retardants in household products. In biomonitoring, researchers use the original form of chlorinated paraffins due to their persistence in humans. However, their levels in human samples are much lower than those in the environment, which seems to indicate underestimation in human biomonitoring.
Recently, my team has found the potential for biodegradation of chlorinated paraffins. This could explain the difference between measurements taken in the environment and those taken in living organisms. We are currently working on the identification of appropriate biomarkers of these chemicals.
Despite the critical importance of biomarkers, several limitations hinder their effective use in human biomonitoring.
A significant challenge is the limited number of human biomarkers available compared to the vast number of chemicals we are exposed to daily. Existing biomonitoring programmes designed to assess contamination in humans are only capable of tracking a few hundred biomarkers at best, a small fraction of the tens of thousands of markers that environmental monitoring programmes use to report pollution.
Moreover, humans are exposed to a cocktail of chemicals daily, enhancing their adverse effects and complicating the assessment of cumulative effects. The pathways of exposure, such as inhalation, ingestion and dermal contact, add another layer of complexity.
Another limitation of current biomarkers is the reliance on extrapolation from in vitro and in vivo models to human contexts. While these models provide valuable insights, they do not always accurately reflect human metabolism and exposure scenarios, leading to uncertainties in risk assessment and management.
To address these challenges, my research aims to establish a workflow for the systematic identification and quantification of chemical biomarkers. The goal is to improve the accuracy and applicability of biomonitoring in terms of human health.
We aim to develop a framework for biomarker identification that could be used to ensure that newly identified biomarkers are relevant, stable and specific.
This framework includes advanced sampling methods, state-of-the-art analytical techniques, and robust systems for data interpretation. For instance, by combining advanced chromatographic techniques, which enable the various components of a biological sample to be separated very efficiently, with highly accurate methods of analysis (high-resolution mass spectrometry), we can detect and quantify biomarkers with greater sensitivity and specificity.
This allows for the identification of previously undetectable or poorly understood biomarkers, expanding the scope of human biomonitoring.
Additionally, the development of standardized protocols for sample collection and analysis ensures consistency and reliability across different studies and monitoring programmes, which is crucial for comparing data and drawing meaningful conclusions about exposure trends and health risks.
This multidisciplinary approach will hopefully be providing a more comprehensive understanding of human exposure to hazardous chemicals. This new data could form a basis for improving prevention and adapting regulations in order to limit harmful exposure.
Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the Axa Research Fund has supported nearly 700 projects around the world conducted by researchers in 38 countries. To learn more, visit the website of the Axa Research Fund or follow @AXAResearchFund on X.
Chang He received funding from the AXA Research Fund.
12.08.2025 à 17:38
Charles Vanthournout, Doctorant en égyptomanie américaine, chargé d'enseignement à l'Université Polytechnique des Hauts-de-France, Université de Lorraine
Depuis le 11 juin, l’Institut du monde arabe, à Paris, propose de découvrir Cléopâtre VII, la dernière reine d’Égypte, à travers l’exposition « Le mystère Cléopâtre ». De l’autre côté de l’Atlantique, à Washington DC, le Smithsonian American Art Museum expose lui aussi la célèbre reine égyptienne.
Le chef-d’œuvre de la sculptrice états-unienne, d’ascendance noire et autochtone, Edmonia Lewis (en illustration de cet article), est exposée au Smithsonian American Art Museum de Washington (États-Unis) et montre Cléopâtre VII Philopator juste après sa mort. La pharaone est allongée sur un grand trône, les yeux fermés : elle vient d’être mordue par un serpent. Cette statue impressionnante, grandeur nature, s’appelle la Mort de Cléopâtre. Edmonia Lewis l’a créée pour l’Exposition universelle de Philadelphie de 1876. L’artiste s’est inspirée des pièces de monnaie anciennes et des découvertes archéologiques faites en Égypte. Elle a voulu représenter Cléopâtre dans ses derniers instants, entre douleur et silence.
Le trône rappelle une célèbre statue du pharaon Khéphren (aujourd’hui conservée au Caire), mais Edmonia a remplacé les animaux habituels par des visages humains. On y voit aussi des symboles égyptiens, comme des fleurs de lotus, un soleil levant, et même des sortes de hiéroglyphes – qui ne forment aucun mot, mais donnent un effet mystérieux. Cléopâtre porte des bijoux inspirés de livres anciens sur l’Égypte, une amulette en forme de cœur, des sandales comme celles du temps de Ramsès et une robe qui ressemble à celles qu’on voit dans les tableaux néoclassiques du peintre David ou de Sir Lawrence Alma-Tadema.
Au final, la sculpture est un mélange de tout ce qu’on savait, ou croyait savoir, à l’époque sur l’Égypte. Edmonia Lewis a rassemblé plusieurs idées et objets venus d’autres œuvres pour inventer sa propre Cléopâtre, entre histoire ancienne et imagination. À l’époque, on a souvent comparé sa statue à celle d’un autre artiste, William Wetmore Story, qui avait sculpté Cléopâtre en 1858, avec des traits africains. Les deux œuvres montrent à quel point cette reine continue d’inspirer des visions différentes.
Au XIXe siècle, Cléopâtre fascine de nombreux artistes américains. On sait qu’au moins six sculpteurs ont créé quatorze statues représentant la dernière reine d’Égypte. Certaines la montrent en buste, d’autres en taille réelle, souvent au moment dramatique de sa mort. Parmi ces œuvres, une statue reste un mystère : on ne sait pas qui l’a faite ni à quoi elle ressemblait exactement.
Cléopâtre devient célèbre en Europe et aux États-Unis au XIXe siècle, grâce aux campagnes militaires de Napoléon en Égypte à la toute fin du siècle précédent. Ces expéditions ont rapporté beaucoup de découvertes, comme des dessins de temples, des objets anciens ou encore la fameuse Description de l’Égypte, un grand livre illustré. En 1822, Champollion réussit à traduire les hiéroglyphes, ce qui donne encore plus envie de mieux connaître l’Égypte ancienne.
En Amérique, Cléopâtre ne plaît pas seulement pour son histoire. Elle devient aussi un symbole important. Pour certaines femmes, elle représente une reine forte, qui ose tenir tête aux hommes. C’est pourquoi des femmes commencent à écrire sa vie dans des livres, en montrant qu’elle a du pouvoir.
Mais Cléopâtre fait aussi parler d’elle dans les débats sur l’esclavage. À cette période, les Noirs américains, descendants des Africains réduits en esclavage, disent que Cléopâtre vient d’un grand peuple africain : les Égyptiens de l’Antiquité. Pour les Blancs américains qui veulent garder l’esclavage, c’est un problème. Ils vont alors inventer des idées pour montrer que « l’Égypte ancienne était blanche », en s’appuyant sur des objets, des textes religieux ou des momies. Cette assertion permet de prétendre que seuls les Blancs auraient créé de grandes civilisations, pour justifier leur supériorité et l’esclavage.
Edmonia Lewis est une artiste engagée. Avec sa sculpture, elle veut parler des difficultés que vivent les Noirs aux États-Unis. Même si l’esclavage est aboli en 1863 pendant la guerre de Sécession, les inégalités continuent, surtout dans le Sud, durant la période dite de « Reconstruction ». Quand la Mort de Cléopâtre est présentée au public, en 1876, les avis sont partagés. Les journaux afro-américains admirent l’œuvre, mais certains critiques d’art sont plus réservés. Après l’exposition, la statue n’est ni achetée ni exposée : elle est oubliée pendant presque cent ans.
Redécouverte bien plus tard, elle est aujourd’hui considérée comme un chef-d’œuvre. Les historiens ne sont pas tous d’accord sur son sens. Pour certains, Edmonia Lewis voulait montrer Cléopâtre comme une femme forte, libre de choisir son destin. Pour d’autres, sa mort représente un acte de résistance, comme celle des Noirs américains face à l’injustice. Et même si Cléopâtre est sculptée avec des traits blancs, elle pourrait aussi représenter une femme blanche puissante renversée – comme une image de la fin de l’esclavage. Un message fort et courageux pour l’époque.
Aujourd’hui encore, Cléopâtre fascine. On la voit dans les films, dans les livres, dans les bandes dessinées. Récemment, une série Netflix l’a montrée comme une femme noire, ce qui a (re)lancé un grand débat : À qui appartient Cléopâtre ? Quelle est sa couleur de peau ? Que dit son image sur notre façon de raconter l’histoire ?
Grâce à des artistes comme d’Edmonia Lewis, on découvre une autre Cléopâtre : libre, fière et pleine de mystère.
Charles Vanthournout ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.08.2025 à 17:12
Jeff Bachman, Associate Professor, Department of Peace, Human Rights & Cultural Relations, American University School of International Service
Esther Brito Ruiz, Adjunct Instructor, American University School of International Service
Depuis la fin de la Seconde Guerre mondiale, les États-Unis ont régulièrement soutenu des dirigeants et des pays qui ont commis des atrocités. Washington déploie six stratégies rhétoriques pour se distancier de ces actes. Illustrations historiques avec les cas du Guatemala, de l’Indonésie au Timor oriental et de la coalition dirigée par l’Arabie saoudite au Yémen.
Depuis la Seconde Guerre mondiale, les États-Unis ont à plusieurs reprises soutenu des gouvernements qui ont commis des atrocités de masse, définies par le spécialiste du génocide Scott Straus comme étant une « violence à grande échelle et systématique contre des populations civiles ».
Cela inclut le soutien à Israël, qui est resté constant malgré le désaccord récent entre le président Donald Trump et le premier ministre Benyamin Nétanyahou sur la question de savoir si les Palestiniens sont victimes de famine à Gaza.
Nous sommes spécialistes des questions liées aux génocides et autres atrocités de masse, ainsi que des enjeux de sécurité internationale. Dans le cadre de nos recherches pour un prochain article à paraître dans le Journal of Genocide Research, nous avons étudié des déclarations officielles, des documents déclassifiés et des articles de presse portant sur quatre cas où les États-Unis ont soutenu des gouvernements alors qu’ils commettaient des atrocités : l’Indonésie au Timor oriental (1975-1999), le Guatemala (1981-1983), la coalition dirigée par l’Arabie saoudite – dite « Coalition » – au Yémen depuis 2015 et Israël à Gaza depuis octobre 2023.
Nous avons identifié six stratégies rhétoriques, autrement dit six façons de formuler un discours, utilisées par des responsables américains pour distancier publiquement les États-Unis des atrocités commises par ceux qui bénéficient de leur soutien.
Cette analyse est essentielle : lorsque les Américains, et plus largement l’opinion internationale, prennent ces discours pour argent comptant, les États-Unis peuvent continuer à agir en toute impunité, malgré leur rôle dans la violence mondiale.
Lorsque des responsables américains nient toute connaissance des atrocités perpétrées par des parties bénéficiant du soutien des États-Unis, nous appelons cela une ignorance feinte (premier stratagème).
Par exemple, après que la Coalition a bombardé un bus scolaire au Yémen, tuant des dizaines d’enfants, la sénatrice américaine Elizabeth Warren a demandé au général Joseph Votel si le Commandement central des États-Unis suivait l’objectif des missions qu’il ravitaillait en carburant.
Sa réponse : « Sénatrice, nous ne le faisons pas. »
Cette ignorance proclamée contraste fortement avec les crimes de guerre de la Coalition, bien documentés depuis 2015. Comme l’a exprimé Scott Paul, expert du Yémen, dans ces termes : « Plus personne ne peut feindre la surprise lorsque de nombreux civils sont tués. »
Lorsque les preuves d’atrocités ne peuvent plus être ignorées, les responsables américains ont recours à la confusion pour brouiller les faits (deuxième stratagème).
Lorsque les forces indonésiennes ont perpétré des massacres en 1983, tuant des centaines de civils, l’ambassade des États-Unis à Jakarta a envoyé un télégramme au secrétaire d’État ainsi qu’à plusieurs ambassades, consulats et missions américaines remettant en question les rapports, car ils « n’avaient pas été confirmés par d’autres sources ».
De même, lors du génocide maya au Guatemala, à la suite du coup d’État réussi d’Efraín Ríos Montt, des responsables américains ont déformé les informations faisant état des violences perpétrées par le gouvernement, en rejetant la responsabilité sur les guérilleros.
Dans son rapport de 1982 sur les droits humains au Guatemala, par exemple, le département d’État affirmait :
« Lorsqu’il a été possible d’attribuer la responsabilité des [meurtres au Guatemala], il semble plus probable que, dans la majorité des cas, ce sont les insurgés […] qui sont coupables. »
Pourtant, les services de renseignement américains affirmaient le contraire.
Des rapports sur les atrocités et abus commis par l’État au Guatemala figurent dans des documents de renseignement américains datant des années 1960. Un câble de la CIA de 1992 mentionnait explicitement que « plusieurs villages ont été rasés » et que « l’armée ne devait pas faire de quartier, aux combattants comme aux non-combattants ».
Alors que continuent de s’accumuler les preuves des atrocités, ainsi que celles permettant d’identifier les responsables, les responsables américains ont souvent recours à la négation (troisième stratagème).
Ils ne nient pas que l’aide américaine est fournie, mais soutiennent qu’elle n’a pas été directement utilisée pour commettre des atrocités.
Par exemple, lors des atrocités commises par l’Indonésie au Timor oriental, les États-Unis ont activement formé des membres du corps des officiers indonésiens. Lorsque les forces de sécurité indonésiennes ont massacré jusqu’à 100 personnes dans un cimetière de Dili en 1991, la réaction de l’administration Bush s’est limitée à déclarer qu’« aucun des officiers militaires indonésiens présents à Santa Cruz n’avait reçu de formation américaine ».
Lorsque l’attention publique sur le soutien américain atteint un niveau qui ne peut plus être facilement ignoré, les responsables américains peuvent recourir à la diversion (quatrième stratagème).
Il s’agit d’ajustements politiques très médiatisés, qui impliquent rarement des changements significatifs. Ils incluent souvent une forme de leurre. En effet, l’objectif de la diversion n’est pas de changer le comportement du bénéficiaire de l’aide américaine, mais simplement une tactique politique utilisée pour apaiser les critiques.
En 1996, lorsque l’administration Clinton a cédé à la pression des militants en suspendant les ventes d’armes légères à l’Indonésie, elle a tout de même vendu à l’Indonésie pour 470 millions de dollars d’armements sophistiqués, dont neuf avions de combat F-16.
Plus récemment, en réponse aux critiques du Congrès et de l’opinion publique, l’administration Biden a suspendu la livraison de bombes de 2 000 et 500 livres à Israël en mai 2024 – mais seulement pour une courte période. Toutes ses autres importantes livraisons d’armes sont restées inchangées.
Comme l’illustre le soutien des États-Unis à Israël, le détournement inclut également des enquêtes américaines superficielles qui signalent une certaine préoccupation face aux abus, sans aucune conséquence, ainsi que le soutien à des auto-enquêtes, dont les résultats disculpatoires sont prévisibles.
Lorsque les atrocités commises par les bénéficiaires de l’aide américaine sont très visibles, les responsables américains utilisent également la glorification (cinquième stratagème) pour faire l’éloge des premiers et pour les présenter comme dignes d’être aidés.
En 1982, le président Ronald Reagan a fait l’éloge du président Suharto, le dictateur responsable de la mort de plus de 700 000 personnes en Indonésie et au Timor oriental entre 1965 et 1999, pour son leadership « responsable ». Par ailleurs, des responsables de l’administration Clinton le qualifiaient de « notre genre de gars ».
De même, le dirigeant guatémaltèque Ríos Montt a été présenté par Reagan au début des années 1980 comme
« un homme d’une grande intégrité personnelle et d’un grand engagement », contraint de faire face à « un défi brutal lancé par des guérilleros armés et soutenus par des forces extérieures au Guatemala ».
Ces dirigeants sont ainsi dépeints comme exerçant la force soit pour une cause juste, soit uniquement parce qu’ils font face à une menace existentielle. Ce fut le cas pour Israël, l’administration Biden déclarant qu’Israël était
« en proie à une bataille existentielle ».
Cette glorification élève non seulement les dirigeants sur un piédestal moral, mais justifie également la violence qu’ils commettent.
Enfin, les responsables américains affirment souvent mener une forme de diplomatie discrète (sixième stratagème), agissant en coulisses pour contrôler les bénéficiaires de l’aide des États-Unis.
Il est important de noter que, selon ces responsables, pour que cette diplomatie discrète soit efficace, le soutien américain reste nécessaire. Ainsi, le maintien de l’aide à ceux qui commettent des atrocités se trouve légitimé précisément parce que c’est cette relation qui permet aux États-Unis d’influencer leur comportement.
Au Timor oriental, le Pentagone a fait valoir que la formation renforçait le « respect des droits humains par les troupes indonésiennes ». Lorsqu’une unité militaire indonésienne formée par les États-Unis a massacré environ 1 200 personnes en 1998, le département de la Défense a déclaré que « même si des soldats formés par les Américains avaient commis certains des meurtres », les États-Unis devaient continuer la formation afin de « maintenir leur influence sur la suite des événements ».
Les responsables américains ont également laissé entendre en 2020 que les Yéménites attaqués par la Coalition dirigée par l’Arabie saoudite bénéficiaient du soutien militaire américain à cette Coalition, car ce soutien conférait aux États-Unis une influence sur l’utilisation de ces armes.
Dans le cas de Gaza, les responsables américains ont, à plusieurs reprises, invoqué la diplomatie discrète pour promouvoir la retenue, tout en cherchant à bloquer d’autres systèmes de responsabilisation.
Par exemple, les États-Unis ont utilisé leur veto à six résolutions du Conseil de sécurité des Nations unies sur Gaza depuis octobre 2023 et ont imposé des sanctions à cinq juges et procureurs de la Cour pénale internationale en raison de mandats d’arrêt émis contre Nétanyahou et l’ancien ministre israélien de la Défense Yoav Gallant.
Les responsables américains utilisent depuis longtemps diverses stratégies rhétoriques pour prendre leurs distances par rapport aux atrocités commises par d’autres avec le soutien des États-Unis et pour minimiser leur contribution à ces actes.
Dans ce contexte, la reconnaissance par Trump d’une « vraie famine » à Gaza peut être considérée comme une diversion visant à détourner l’attention du soutien inchangé des États-Unis à Israël, alors que les conditions de famine à Gaza s’aggravent et que des Palestiniens sont tués en attendant de recevoir de la nourriture.
De l’ignorance feinte à la minimisation de la violence en passant par la louange de ses auteurs, les gouvernements et présidents américains ont, depuis longtemps, recours à une rhétorique trompeuse pour légitimer la violence des dirigeants et des pays qu’ils soutiennent.
Mais deux éléments sont nécessaires pour que ce discours continue de fonctionner : l’un est le langage employé par le gouvernement américain, l’autre est la crédulité et l’apathie du public.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.08.2025 à 17:11
Pierre Cilluffo Grimaldi, Maître de conférences, Sorbonne Université
Chaque été arrive désormais avec de nouvelles images de milliers d’hectares qui partent en fumée. Si ces mégafeux, comme on les appelle aujourd’hui, menacent la vie humaine et les écosystèmes, ils bouleversent aussi nos imaginaires sociaux et climatiques.
C’est un terme qui s’est progressivement imposé dans le langage courant et dans nos imaginaires. Celui de « mégafeu ». Il semble décrire une version extrême d’un phénomène déjà spectaculaire dont nous sommes de plus en plus témoins. Il serait apparu pour la première fois en 2013 dans la bouche d’un homme pourtant habitué à côtoyer les flammes : l’Américain Jerry Williams, qui travaille au service gouvernemental des forêts des États-Unis. Selon lui, le mégafeu, ne serait pas seulement un immense incendie, mais surtout un feu au comportement jamais observé auparavant par les spécialistes et par les riverains qui en sont victimes.
Le terme, depuis, n’en finit pas d’embraser les livres et journaux comme en témoigne la spectaculaire courbe de ses occurrences depuis 2014, en anglais, mais aussi en français.
Car ces incendies ne cessent de survenir, du Brésil au Canada, en passant par l’Australie, la Californie ou la Sibérie, et semblent chaque fois battre de nouveaux records. Ainsi, le département de l’Aude vient tout juste de subir des flammes aux ravages sans précédent depuis cinquante ans pour le pourtour méditerranéen français. Ces mégafeux n’ont pas fini non plus de se multiplier. Une étude de Harvard prévoit ainsi le doublement voir le triplement des mégafeux d’ici 2050 aux États-Unis.
Ces mégafeux, dont nous pouvons tous aujourd’hui observer les images ou constater les immenses dégâts provoquent des chocs sans précédent.
Un habitant de Gironde confiait par exemple, un an après les incendies qui ont décimé les forêts de pin de son terrain familial et de tout son département, être perdu sans la forêt familière qui entourait sa maison et redouter, désormais, chaque nouvel été. Les flammes semblent ainsi avoir provoqué ce que l’on appelle un « choc moral ».
Le choc moral est un événement ou une information imprévisible qui génère un sentiment viscéral d’indignation ou de malaise moral chez un individu, au point de l’inciter à agir politiquement, même s’il n’est pas déjà intégré à un réseau militant. Il s’agit d’une réaction émotive et cognitive à une violation perçue du quotidien et sa norme, nécessitant une reconstruction de sa vision du monde.
Sans en être aussi directement touchés, ces mégafeux peuvent tous perturber nos imaginaires, réactiver des mythologies, voici comment.
Face à la puissance des images de mégafeux ravageant des milliers d’arbres, l’esprit humain peut être tenté de chercher dans le passé et ses mythes des repères pour donner du sens à ces catastrophes.
Or ces gigantesques incendies s’attaquent à un lieu familier de nos imaginaires en Occident, celui de la forêt, qui, rappelle le chercheur américain Robert Harrison,
« représente un monde à part, opaque, qui a permis à cette civilisation de se dépayser, de s’enchanter, de se terrifier, de se mettre en question, en somme de projeter dans les ombres de la forêt ses plus secrètes, ses plus profondes angoisses ».
C’est donc un lieu familier de nos imaginaires, parfois même un éden naturel qui se consume et dont nous sommes de nouveau chassés par les flammes de l’enfer.
Les images d’une forêt ravagée par les flammes provoquent ainsi la rencontre de plusieurs symboles puissants dans nos esprits. Car le feu, lui, détient une valeur on ne peut plus forte dans les mythes et cultures dont nous sommes les descendants. C’est le feu qui symbolise la porte d’entrée de l’enfer avec une valeur apocalyptique, c’est le feu du châtiment qui revient dans les cercles de l’Enfer, de Dante. Il est aussi un « feu barrière » ou une « barrière de feu » entre deux mondes dans nos mythes judéo-chrétiens. Car ce sont encore des flammes qui interdisent à Adam et Ève de retourner au jardin d’Éden, après avoir été chassés du paradis terrestre pour avoir mangé le fruit défendu.
Les pompiers et habitants, plus concrètement, parlent eux plutôt de « front de flamme » qui irradie et détruit la végétation et nous prive d’une forêt qui ne sera bientôt plus que cendres.
Mais les mégafeux convoquent aussi un autre mythe qui hante nos imaginaires, celui de la dérive du feu prométhéen.
Prométhée est connu dans la mythologie grecque pour avoir dérobé le feu sacré de l’Olympe afin d’en faire don aux humains. C’est ici un feu utile mythologiquement au développement de la civilisation permettant de développer les industries, de cuisiner mais qui est aussi décrit comme imprévisible et risqué par nature dans les mains humaines.
En effet, une fois volé par l’être humain, il acquiert des caractéristiques contraires au feu naturel des volcans ou du soleil qui animent le monde dans une certaine stabilité naturelle. En le dérobant, l’humain s’arroge un pouvoir de transformation inédit, mais cette capacité porte en elle une forme de contradiction.
Loin de participer aux cycles naturels, le feu fabriqué, maîtrisé ou amplifié par les sociétés industrielles et modernes perturbe profondément les équilibres écologiques. Il devient une force dévastatrice à l’image des mégafeux contemporains qui dérèglent les cycles naturels, menace la stabilité même des environnements et de nos modes de vie. À cet égard, on peut rappeler aussi qu’en France, ces dernières décennies, les feux de forêt ont été neuf fois sur dix, déclenchés par une main humaine, qu’elle soit criminelle ou accidentelle.
On peut aussi noter que, jamais avant aujourd’hui, l’être humain n’a eu autant de force grâce à l’exploitation de l’énergie du feu. C’est celle-ci qui lui a permis de développer la technique qui a façonné, par exemple, le moteur thermique.
Et pourtant, la technique reste limitée pour lutter contre les mégafeux, surtout quand on manque de Canadairs par choix politique et par mépris de l’historicité des alertes… La situation actuelle semble à cet égard préoccupante.
Outre-Atlantique devant les mégafeux amazoniens de 2020, on a aussi vu la figure de Néron mobilisée pour contester les politiques d’inaction environnementale du climatosceptique Jaïr Bolsonaro, alors président du Brésil. L’ONG Greenpeace a même construit une statue de Bolsonaro grimée en cet empereur romain pour alerter sur le sort de la forêt incendiée. Cette figure n’est pas anodine. Elle rappelle une légende tenace selon laquelle la folie de l’empereur romain Néron serait responsable du terrible incendie qui toucha Rome en 64 de notre ère. Si les sources historiques latines ne permettent guère d’établir sa culpabilité, nous sommes cependant sûrs de l’opportunisme politique de Néron désignant à l’époque directement, en bouc émissaire, la minorité chrétienne de Rome comme coupable.
Les images de mégafeux demeurent d’autant plus traumatiques pour les populations qu’elles nous obligent à changer de regard sur une nature jugée maîtrisable, qu’on scrute désormais impuissants, subir des pertes irréversibles pour le paysage, les forêts, le vivant tout entier. Ainsi, les feux ravagent aussi nos imaginaires écologiques. On peut ressentir face à ces paysages détruits par les flammes un choc moral, au sens du sociologue James Jasper soit une réaction viscérale bousculant la perception de l’ordre présent du monde et appelant à l’action.
Néanmoins, cette brûlure du choc moral peut s’éteindre aussi rapidement sans relais d’opinions et actions collectives dès les premières années de « l’après ». On peut alors voir s’installer une nouvelle norme où les mégafeux ne surprennent plus. Car il existe une forme d’amnésie environnementale sur les effets du dérèglement climatique. En 2019, des chercheurs américains ont ainsi analysé 2 milliards de tweets en relation avec le changement climatique. Cette analyse quantitative remarquable par son ampleur a montré qu’en moyenne, nos impressions sur le dérèglement climatique se basaient sur notre expérience récente des deux à huit dernières années.
En France, devant les images de cette nature brûlée dans l’Aude, le concept de « pyrocène » de la philosophe Joëlle Zask prend tout son sens. Il sert à caractériser et à décrire cette nouvelle ère définie par la prédominance et la multiplication des mégafeux. Autrement dit, le pyrocène succéderait à l’anthropocène, marquant une époque où le feu devient un agent central des transformations écologiques et climatiques.
Politiquement, cette ère du feu impose une reconfiguration de notre relation à la nature, car il s’agit d’apprendre à vivre avec ces feux extrêmes et non plus simplement de les combattre directement comme jadis. Cette nouvelle donne appelle ainsi à une « culture du feu » qui intégrerait ces réalités dans nos politiques (habitations et PLU, coupe-feu naturel, gestion des forêts, adaptation des territoires à la crise, agriculture régénératrice…), nos modes de vie (vacances, consommations…). Mais sommes-nous collectivement prêts à cela ?
Pierre Cilluffo Grimaldi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.08.2025 à 17:10
Chloé Djamdji, Doctorante en droit privé spécialisée en droit de la concurrence et droit du numérique, Université Côte d’Azur
Patrice Reis, Professeur des Universités de Droit privé et sciences criminelles, Université Côte d’Azur
Le numérique était censé tout « disrupter ». Mais il pourrait remettre en selle une pratique qu’on croyait disparue : le démantèlement de groupes pour rétablir une concurrence réelle et non faussée. Il faut suivre de près ce que décidera la Federal Trade Commission états-unienne dans l’affaire qui concerne le groupe Meta.
Le 15 avril 2025 s’est ouvert aux États-Unis, le procès Meta (FTC v. Meta Platforms, Inc.). Cette affaire fait suite à l’action en justice intentée par la Federal Trade Commission (FTC) à l’encontre de Meta. L’autorité reproche à l’entreprise d’avoir procédé aux acquisitions d’Instagram (2012) et de WhatsApp (2014), pour renforcer sa position dominante sur les réseaux sociaux, notamment en imposant des conditions inégales à l’égard des développeurs de logiciel. Ces comportements auraient, selon la FTC, pour conséquence, une expérience fortement dégradée pour les utilisateurs avec plus de publicités subies et une confidentialité réduite.
Depuis quelques années, la pratique des acquisitions prédatrices ou killers acquisitions– visant à éliminer une menace concurrentielle avant qu’elle n’émerge – est devenue une pratique courante, notamment pour les entreprises spécialisées dans le numérique comme en témoignerait ici le rachat par Meta d’Instagram et de WhatsApp au cœur de ce procès.
Selon la FTC, l’objectif de ces rachats semble être dès le départ de chercher à éliminer toute concurrence sur le marché des réseaux sociaux. Cette pratique s’apparente à la stratégie dite de « pile de technologie publicitaire ». Cette dernière vise à renforcer la position dominante d’une entreprise sur plusieurs produits technologiques de publicité numérique par une série d’acquisitions prédatrices. Pour ces raisons, l’autorité a demandé une injonction visant à prévenir la réitération de ces types de pratiques ainsi que la cession d’Instagram et de WhatsApp.
En matière de contrôle des concentrations, les entreprises parties aux dites opérations acceptent souvent de procéder à une telle cession – totale ou partielle – d’actifs. Cette dernière opération consiste le plus souvent à vendre à des tiers des points de vente, des établissements, une division, une gamme de produits voire l’intégralité d’une filiale.
À lire aussi : GAFAM : comment limiter les « acquisitions tueuses » de start-up ?
Dans le cadre des procédures de contrôle des concentrations par les autorités de la concurrence (FTC ou encore Commission européenne), la cession d’actifs permet à l’entreprise menant l’opération de concentration via une acquisition ou une fusion de proposer et ou de négocier des ventes d’actifs avec les autorités afin que son opération soit validée. La cession est donc dans ce cadre un instrument de nature structurel utilisé ici dans le cadre d’un contrôle a priori des opérations de concentrations garant de l’ordre public économique.
Ce type de cession d’actifs doit néanmoins être distingué du démantèlement qui est susceptible aussi d’être utilisé par lesdites autorités. Le démantèlement correspond en la scission d’une entreprise en de multiples sociétés indépendantes mais il s’agit ici d’une sanction a posteriori.
Les cas historiques les plus emblématiques étant le démantèlement de la Standard Oil (en 1911) en 34 sociétés et d’ATT (1982) qui donna naissance à sept opérateurs téléphoniques régionaux aux USA, les célèbres « babys bells ». Ces deux affaires peuvent être considérées comme des cas d’école qui viennent interroger la pertinence du démantèlement en tant que solution adaptée à la protection de la concurrence.
Peut-on considérer le démantèlement comme une solution efficace ? La réponse semble a priori négative dans la mesure où le démantèlement dans ces affaires emblématiques s’est finalement avéré avec le temps peu opérant face aux stratégies de restructuration des entreprises. Ainsi, par exemple, le démantèlement de la Standard Oil s’est traduit au fil du temps par une recombinaison partielle des 34 sociétés se traduisant in fine par une des plus grandes fusions de l’histoire entre supermajors sur le marché pétrolier en 1999 entre EXXON (ex Standard Oil of California) et Mobil (ex Standard Oil of NY).
Le démantèlement a certes permis de relancer temporairement la concurrence dans ce secteur, mais l’efficacité de la sanction disparaît plus ou moins rapidement au regard des stratégies de fusions-acquisitions que mettent en place les entreprises. Le démantèlement ne fut d’ailleurs guère utilisé en dehors de ces deux cas d’école. Il n’a jamais été utilisé en droit européen ni en droit français de la concurrence pour sanctionner des positions dominantes absolues ou quasi absolues comme celle de la Standard Oil en son temps. Les débats sur son éventuelle utilisation avaient quasiment disparu jusqu’à l’avènement de l’économie numérique.
L’économie numérique marquée par la vitesse des évolutions techniques et technologiques a pu laisser croire dans un premier temps que les monopoles ou les quasi-monopoles n’étaient qu’une histoire relevant de la vieille économie. Néanmoins, l’apparition et le développement des géants du numérique (GAFAM) combiné à une puissance financière et technologique sans égale et des stratégies d’acquisitions prédatrices des concurrents a permis à ces grands groupes de capter et de contrôler le développement des innovations disruptives. Les concurrents innovants au stade de start-up sont acquis avant même de pouvoir remettre en cause les positions dominantes des GAFAM.
L’intérêt théorique et pratique pour le démantèlement connaît un renouveau en droit et en économie de la concurrence, la cession pouvant être considérée comme une menace crédible : en quelque sorte l’arme nucléaire du droit antitrust destinée à n’être utilisée qu’en dernier recours. Cette nouvelle forme de stratégie de la terreur suppose que la menace devrait suffire en principe à obtenir des entreprises concernées des engagements comportementaux et structurels devant remédier aux préoccupations de concurrence identifiées par les autorités de concurrence.
Le procès Meta incarne probablement cette volonté de gagner en crédibilité au même titre que l’article 18 du Digital Market Act (DMA) européen de 2022 prévoyant cette possibilité. Aux États-Unis, en l’absence de texte équivalent au DMA, le procès devant le tribunal de Washington constitue pour la FTC en invoquant le droit antitrust classique, le monopolisation ou l’abus de position dominante, de demander la vente partielle d’Instagram et de WhatsApp.
L’objectif est de rendre à ces filiales leur autonomie afin qu’elles puissent à nouveau concurrencer Meta sur le marché des réseaux sociaux. Ainsi, si finalement le tribunal suit le raisonnement de la FTC et que la cession se traduit par un démantèlement de Meta, cette mesure structurelle devient alors une menace crédible pour l’ensemble des GAFAM. Leur situation de position dominante serait alors menacée et les autorités et les tribunaux de la concurrence rétabliront la concurrence là où elle était absente ou quasi absente. Reste à savoir si l’histoire se répétera comme pour le pétrole ou les télécoms et si, à terme, les groupes finiront par se reconstituer…
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.08.2025 à 17:09
Primrose Freestone, Senior Lecturer in Clinical Microbiology, University of Leicester
Peut-on tomber malade à cause de la climatisation ? Dans des conditions de fonctionnement normales, non. Mais si un système de climatisation est mal entretenu ou défectueux, les conséquences sur la santé peuvent être graves.
La climatisation peut être une véritable bénédiction lors des chaudes journées d’été. Elle maintient une température agréable et contrôle l’humidité, rendant les environnements intérieurs supportables même lors des vagues de chaleur.
Or certaines personnes évitent d’utiliser la climatisation, quelle que soit la température extérieure, de peur qu’elle ne les rende malades. On pourrait trouver cela exagéré, mais en tant que microbiologiste, je peux affirmer que cette crainte n’est pas totalement infondée.
En effet, si un système de climatisation fonctionne mal ou n’est pas correctement entretenu, il peut être contaminé par des microbes infectieux. Votre climatiseur peut alors devenir une source potentielle de nombreuses infections transmissibles par l’air, allant du simple rhume à la pneumonie.
Le « syndrome des bâtiments malsains » est le nom générique donné aux symptômes qui peuvent apparaître après un séjour prolongé dans des environnements climatisés. Ces symptômes peuvent inclure des maux de tête, des vertiges, une congestion ou un écoulement nasal, une toux persistante ou une respiration sifflante, des démangeaisons et des éruptions cutanées, des troubles de concentration et de la fatigue.
Ce syndrome touche généralement les personnes qui travaillent dans des bureaux, des espaces confinés, mais il peut survenir chez toute personne passant de longues périodes dans des bâtiments climatisés, tels que les hôpitaux ou autres bâtiments publics. Les symptômes du syndrome des bâtiments malsains ont tendance à s’aggraver avec le temps passé dans un bâtiment donné, et s’atténuent après le départ.
Une étude indienne réalisée en 2023 a comparé 200 adultes en bonne santé travaillant au moins six à huit heures par jour dans un bureau climatisé à 200 adultes en bonne santé ne travaillant pas dans un environnement climatisé. Le groupe exposé à la climatisation a présenté davantage de symptômes associés au syndrome du bâtiment malsain au cours de la période d’étude de deux ans, en particulier une prévalence plus élevée d’allergies. Il est important de noter que les tests cliniques ont montré que les personnes exposées à la climatisation avaient une fonction pulmonaire plus faible et étaient plus souvent en arrêt maladie que celles qui n’y étaient pas exposées.
D’autres études ont confirmé que les employés de bureau travaillant dans des locaux climatisés présentaient une prévalence plus élevée du syndrome du bâtiment malsain que ceux qui ne travaillaient pas dans un environnement climatisé.
On soupçonne que l’une des causes du syndrome des bâtiments malsains est le mauvais fonctionnement des climatiseurs. Lorsqu’un climatiseur ne fonctionne pas correctement, il peut libérer dans l’air des allergènes, des produits chimiques et des micro-organismes en suspension qui auraient normalement dus été piégés par des filtres.
Les climatiseurs défectueux peuvent également libérer des vapeurs chimiques provenant des produits de nettoyage ou des réfrigérants dans l’air du bâtiment. Les produits chimiques tels que le benzène, le formaldéhyde et le toluène sont toxiques et peuvent irriter le système respiratoire.
Les systèmes de climatisation mal entretenus peuvent également abriter des bactéries pathogènes susceptibles de provoquer des infections graves.
La Legionella pneumophila est la bactérie responsable de la « maladie du légionnaire », une infection pulmonaire. La contamination se fait par voie respiratoire, par inhalation d’eau contaminée diffusée en aérosol. Elle se développe généralement dans les environnements riches en eau, tels que les jacuzzis ou les systèmes de climatisation.
La légionellose se contracte le plus souvent dans des lieux collectifs tels que les hôtels, les hôpitaux ou les bureaux, où la bactérie a contaminé l’eau. Les symptômes de la maladie du légionnaire sont similaires à ceux de la pneumonie : toux, essoufflement, gêne thoracique, fièvre et symptômes grippaux généraux. Les symptômes apparaissent généralement entre deux et quatorze jours après la contamination par les légionelles.
Les infections à Legionella peuvent être mortelles et nécessitent souvent une hospitalisation. La guérison peut prendre plusieurs semaines.
L’accumulation de poussière et d’humidité à l’intérieur des systèmes de climatisation peut également créer des conditions propices à la prolifération d’autres microbes infectieux.
Par exemple, des recherches sur les systèmes de climatisation des hôpitaux ont montré que des champignons tels que les espèces Aspergillus, Penicillium, Cladosporium et Rhizopus s’accumulent fréquemment dans les zones riches en eau des systèmes de ventilation hospitaliers.
Ces infections fongiques peuvent être graves chez les patients vulnérables, tels que ceux qui sont immunodéprimés, qui ont subi une greffe d’organe ou qui sont sous dialyse, ainsi que chez les bébés prématurés. L’Aspergillus par exemple, provoque des pneumonies, des abcès pulmonaires, cérébraux, hépatiques, spléniques et rénaux, et peut également infecter les brûlures et les plaies.
Les symptômes des infections fongiques sont principalement respiratoires et comprennent une respiration sifflante ou une toux persistante, de la fièvre, un essoufflement, de la fatigue et une perte de poids inexpliquée.
Les infections virales peuvent également être contractées par la climatisation. Une étude de cas a révélé que des enfants d’une classe de maternelle chinoise avaient été infectés par le norovirus provenant de leur système de climatisation. Cela a provoqué une gastro-entérite chez 20 élèves.
Alors que le norovirus se transmet généralement par contact étroit avec une personne infectée ou après avoir touché une surface contaminée, dans ce cas précis, il a été confirmé que, de manière inhabituelle, le virus s’était propagé dans l’air, à partir du système de climatisation des toilettes de la classe. Plusieurs autres cas de ce type ont été signalés.
Cependant, les climatiseurs peuvent également contribuer à empêcher la propagation des virus en suspension dans l’air. Des recherches montrent que les climatiseurs régulièrement entretenus et désinfectés peuvent réduire les niveaux de circulation des virus courants, y compris le Covid-19.
Le risque d’infection lié à la climatisation vient aussi du fait que celle-ci fait baisser le taux d’humidité de l’air. L’air intérieur est plus sec que l’air extérieur.
Passer de longues périodes dans des environnements à faible humidité peut assécher les muqueuses de votre nez et de votre gorge. Cela peut nuire à leur capacité à empêcher les bactéries et les champignons de pénétrer dans votre corps et vous rendre plus vulnérable au développement d’une infection des tissus profonds des sinus.
Les climatiseurs sont conçus pour filtrer les contaminants atmosphériques, les spores fongiques, les bactéries et les virus pour les empêcher de pénétrer dans l’air que nous respirons à l’intérieur. Mais ce bouclier protecteur peut être compromis si le filtre du système est vieux ou sale, ou si le système n’est pas nettoyé. Ainsi, il est essentiel d’assurer un bon entretien de la climatisation pour prévenir les infections liées à la climatisation.
Primrose Freestone ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.08.2025 à 17:09
Andrew Latham, Professor of Political Science, Macalester College
Aujourd’hui, dans le monde, aucune puissance ne semble en position hégémonique. Mais que signifie exactement ce concept d’hégémonie, au fondement des théories des relations internationales ? Est-il toujours valide ? Peut-on se passer d’une puissance dominante pour structurer les relations internationales ?
L’ère de l’hégémonie américaine est terminée – du moins si l’on en croit les titres de presse partout dans le monde, de Téhéran à Washington. Mais qu’est-ce que cela signifie exactement ?
Le concept d’hégémonie est un fondement théorique des relations internationales depuis les débuts de la discipline. Au-delà d’une simple mesure de la puissance d’un État donné, il désigne sa capacité non seulement à imposer ses décisions à d’autres, mais aussi à façonner les règles, les normes et les institutions qui régissent l’ordre international.
Ce mélange subtil entre coercition et consentement des autres acteurs internationaux distingue l’hégémonie de la domination pure : il rend également le maintien de ce type de position particulièrement complexe dans un monde où les rapports entre puissances sont de plus en plus contestés.
Le terme « hégémonie » vient du grec hegemon, qui signifie guide ou chef. Il désignait à l’origine la prédominance d’une cité-État sur les autres.
Dans la Grèce antique, Athènes illustre bien cette notion, notamment à travers son rôle de leader dans la Ligue de Délos, une alliance de cités-États. Sa puissance militaire, notamment sa suprématie sur les mers, s’y mêlait à une influence politique affirmée, permettant à Athènes d’orienter les décisions de ses alliés.
Cette domination reposait certes sur la force, mais aussi sur le consentement : les membres de la Ligue tiraient en effet parti de la sécurité collective et des liens économiques renforcés sous l’égide d’Athènes.
La définition moderne du concept d’hégémonie émerge au XIXe siècle pour décrire le rôle de la Grande-Bretagne dans l’ordre mondial.
Cette hégémonie reposait sur une puissance navale inégalée et la domination économique acquise lors de la révolution industrielle.
Ce n’était cependant pas uniquement sa force matérielle qui faisait de la Grande-Bretagne une puissance hégémonique. Les réseaux commerciaux bâtis et les normes de libre-échange dont elle faisait la promotion ont structuré un système largement accepté par les autres États européens – souvent parce qu’eux aussi en retiraient stabilité et prospérité.
Cette période démontre que l’hégémonie va bien au-delà de la contrainte : elle suppose la capacité d’un État dominant à façonner un ordre international aligné sur ses propres intérêts, tout en rendant ces intérêts acceptables pour les autres.
Au début du XXe siècle, le penseur marxiste italien Antonio Gramsci a étendu le concept d’hégémonie au-delà des relations internationales, en l’appliquant à la lutte des classes. Sa thèse était que l’hégémonie dans l’espace social repose non seulement sur le pouvoir coercitif de la classe dominante, mais aussi sur sa capacité à obtenir le consentement des autres classes en façonnant les normes culturelles, idéologiques et institutionnelles.
Transposée à l’échelle internationale, cette théorie postulerait qu’un État hégémonique maintient sa suprématie en créant un système perçu comme légitime et bénéfique, et non seulement par la force économique ou militaire.
Au XXe siècle, les États-Unis s’imposent comme l’incarnation de l’hégémon moderne, surtout après la Seconde Guerre mondiale. Leur hégémonie se caractérise par une puissance matérielle – force militaire sans égal, suprématie économique et avance technologique – mais aussi par leur capacité à bâtir un ordre international libéral conforme à leurs intérêts.
Le plan Marshall, qui a permis la reconstruction économique de l’Europe, illustre ce double levier de coercition et de consentement : les États-Unis fournissaient aux pays d’Europe de l’Ouest ressources et garanties de sécurité, mais imposaient leurs conditions, consolidant ainsi leur puissance dans le système qu’ils contribuaient à structurer.
À la même période, l’Union soviétique s’est posée en puissance hégémonique alternative, proposant des équivalents au plan Marshall aux pays d’Europe de l’Est à travers le plan Molotov, ainsi qu’un ordre international concurrent au sein du monde socialiste.
Les défenseurs du concept d’hégémonie en relations internationales estiment qu’une puissance dominante est nécessaire pour fournir des biens publics globaux, bénéficiant à tous : sécurité, stabilité économique, application des règles. Dès lors, le déclin d’un hégémon serait synonyme d’instabilité.
Les critiques, quant à eux, soulignent que les systèmes hégémoniques sont au service des intérêts propres de la puissance dominante, et masquent la coercition sous un vernis de consentement. L’exemple de l’ordre international dominé par les États-Unis est souvent donné : celui-ci a certes promu le libre-échange économique et la démocratie, mais aussi les priorités stratégiques américaines – parfois au détriment des pays les plus faibles.
Quoi qu’il en soit, maintenir une hégémonie à long terme est une gageure. Trop de coercition érode la légitimité de l’hégémon ; trop d’appels au consentement sans pouvoir réel empêchent de faire respecter les règles de l’ordre international et de protéger les intérêts fondamentaux du pays dominant.
Dans un monde désormais multipolaire, le concept d’hégémonie se heurte ainsi à de nouveaux défis. L’ascension de la Chine, mais aussi de puissances régionales comme la Turquie, l’Indonésie ou l’Arabie saoudite, vient perturber la domination unipolaire des États-Unis.
Ces candidats à l’hégémonie régionale disposent de leurs propres leviers d’influence, mêlant incitations économiques et pressions stratégiques. Dans le cas de la Chine, les investissements dans les infrastructures et le commerce mondial à travers l’initiative des Nouvelles routes de la soie s’accompagnent de démonstrations de force militaire en mer de Chine méridionale, destinées à impressionner ses rivaux régionaux.
Alors que l’ordre mondial se fragmente progressivement, l’avenir de la position d’hégémon reste incertain. Aucune puissance ne semble aujourd’hui en mesure de dominer l’ensemble du système international. Pourtant, la nécessité d’un leadership dans ce domaine demeure cruciale : nombre d’observateurs estiment que des enjeux, comme le changement climatique, la régulation technologique ou les pandémies exigent une coordination que seule une hégémonie mondiale – ou bien une gouvernance collective – pourrait garantir.
La question reste ouverte : l’hégémonie va-t-elle évoluer vers un modèle de leadership partagé, ou céder la place à un système mondial plus anarchique ? La réponse pourrait bien déterminer l’avenir des relations internationales au XXIe siècle.
Andrew Latham ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.