13.08.2025 à 17:22
Eric Chaumillon, Chercheur en géologie marine, La Rochelle Université
On pense bien connaître le trait de côte des cartes géographiques. Sa définition est pourtant plus complexe qu’il n’y paraît, car il ne s’agit pas d’une référence immuable au cours du temps. Le changement climatique, sans surprise, vient encore compliquer la donne.
Tout le monde pense connaître le trait de côte qui est représenté sur les cartes géographiques. Il occupe une place importante dans nos représentations et semble correspondre à une ligne de référence stable dans le temps. Nous allons voir qu’il n’en est rien.
Commençons par le définir. Selon le service hydrographique et océanographique de la Marine nationale (SHOM) et l’Institut géographique national (IGN), il s’agit de la « limite de laisse » (c’est-à-dire, jusqu’où peuvent s’accumuler les débris déposés par la mer) des plus hautes mers, dans le cas d’une marée astronomique de coefficient 120 et dans des conditions météorologiques normales (pas de vent du large et pas de dépression atmosphérique susceptible d’élever le niveau de la mer).
Il faut encore ajouter à ces conditions « pas de fortes vagues », car elles peuvent aussi faire s’élever le niveau de l’eau. De façon pragmatique toutefois, on peut se limiter aux marées hautes de vives-eaux dans des conditions météorologiques normales pour définir le trait de côte.
Les marées de grandes vives-eaux se produisant selon un cycle lunaire de 28 jours et les très grandes vives-eaux se produisant lors des équinoxes deux fois par an (en mars et en septembre).
Le trait de côte est situé à l’interface entre l’atmosphère, l’hydrosphère (mers et océans) et la lithosphère (les roches et les sédiments), ce qui en fait un lieu extrêmement dynamique. Le trait de côte peut reculer, quand il y a une érosion des roches ou des sédiments, ou avancer, quand les sédiments s’accumulent.
Par conséquent il est nécessaire de le mesurer fréquemment. Il existe tout un arsenal de techniques, depuis l’utilisation des cartes anciennes, l’interprétation des photographies aériennes et des images satellitaires, les mesures par laser aéroporté, les mesures topographiques sur le terrain et les mesures par drones.
Les évolutions des côtes sont très variables et impliquent de nombreux mécanismes. En France, selon des estimations du CEREMA, 19 % du trait de côte est en recul.
Le principal problème est que l’évolution du trait de côte est très sensible aux variations du niveau de la mer. En raison du réchauffement climatique d’origine humaine, la mer monte, du fait de la fonte des glaces continentales et de la dilation thermique des océans, et ce phénomène s’accélère.
Pour les côtes sableuses, cela conduit à une aggravation des phénomènes d’érosion déjà existants. Avec l’élévation du niveau des mers, des côtes stables, voire même des côtes en accrétion pourraient changer de régime et subir une érosion chronique. Sur un horizon de quelques décennies, il est impossible de généraliser, car la position du trait de côte dépend aussi des apports sédimentaires qui sont très variables d’une région à une autre.
Le Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) estime que d’ici 2050, 5 200 logements et 1 400 locaux d’activité pourraient être affectés par le recul du trait de côte, pour un coût total de 1,2 milliard d’euros. La dynamique et le recul du trait de côte sont un sujet majeur, dont l’intérêt dépasse les seuls cercles spécialisés, avec des implications très concrètes, notamment en matière de droit de la construction. En premier lieu parce que le trait de côte est utile pour définir le domaine public maritime (DPM).
Ses limites ont été précisées en 1681 par une ordonnance de Colbert qui précise que le DPM naturel ne peut être cédé et qu’une occupation ou une utilisation prolongée par des particuliers qui se succèdent sur cette zone ne leur confère aucun droit réel ou droit de propriété.
La législation française relative au trait de côte a récemment évolué. En témoigne par exemple la loi Climat et résilience de 2021, qui renforce l’adaptation des territoires littoraux. La stratégie nationale de gestion intégrée du trait de côte insiste sur la mise en place de solutions durables pour préserver le littoral, tout en assurant la préservation des personnes et des biens.
Concrètement, comment faire ? L’approche la plus connue est la défense de côte en dur, souvent en béton ou en roches. Cette stratégie est chère, nécessite un entretien, elle est inesthétique et entraîne une forte dégradation, voire une disparition, des écosystèmes littoraux. Surtout, on ne pourrait généraliser cette stratégie sur les milliers de kilomètres de côtes en France et dans le monde (on parle de 500 000 km de côte).
Sans rentrer dans le détail de toutes les solutions existantes, on peut noter que la communauté scientifique qui étudie les littoraux appelle à davantage recourir aux solutions fondées sur la nature (SFN). En simplifiant, on peut dire qu’il s’agit de tirer parti des propriétés des écosystèmes sains pour protéger les personnes, tout en protégeant la biodiversité.
Ces approches ont fait leurs preuves, particulièrement en ce qui concerne les prés salés, les mangroves ou les barrières sédimentaires en général (constituées par la plage sous-marine, la plage et la dune). On peut assimiler ces écosystèmes littoraux à des « zones tampons » qui absorbent l’énergie des vagues et limitent les hauteurs d’eau tout en préservant la biodiversité et les paysages.
La série « L’envers des mots » est réalisée avec le soutien de la Délégation générale à la langue française et aux langues de France du ministère de la Culture.
Eric Chaumillon a reçu des financements de l'ANR et du Département de Charente-Maritime.
13.08.2025 à 17:17
Damien Bazin, Maître de Conférences HDR en Sciences Economiques, Université Côte d’Azur
Thierry Pouch, Chef du service études et prospectives APCA, Université de Reims Champagne-Ardenne (URCA)
Économiste de génie et… membre de la Schutzstaffel (SS). Comment séparer la biographie un des auteurs majeurs de la théorie des jeux et du duopole, de ses convictions politiques ? Dans la période de l’entre-deux-guerres et de l’après-guerre, Heinrich Von Stackelberg entendait peser sur le cours du monde. À base de compétition, de corporatisme fasciste et d’ordolibéralisme.
Heinrich von Stackelberg est à la fois un économiste méconnu et un théoricien de réputation internationale. Il a laissé son nom à la postérité en proposant une typologie des marchés qui fait encore l’objet de recherches aujourd’hui, en développant la théorie des jeux et en questionnant l’idée d’« équilibre économique ». Il ne fut pourtant pas que cela. Son itinéraire de théoricien de l’économie renferme une face sombre, très sombre même, puisqu’il adhéra au Parti national-socialiste allemand en 1931, soit deux ans avant l’accession de Hitler à la Chancellerie.
L’actualité de la politique commerciale de Donald Trump pose un problème bien connu des économistes. Faut-il rétorquer par des sanctions similaires, et s’engager dans l’escalade tarifaire, ou bien négocier pour alléger les droits de douane additionnels du pays qui les a établis ? Doit-on participer à un jeu coopératif ou bien à un jeu non coopératif ? En lien direct avec cette actualité commerciale, c’est la figure de l’économiste et mathématicien Heinrich Freiherr Von Stackelberg qui se dessine en toile de fond. Un économiste dont la réputation tient essentiellement à son approche des coûts, de la concurrence et des formes de marché.
La figure de Stackelberg dans le champ de la science économique conduit à penser qu’un discours théorique n’est que rarement, voire jamais, séparé d’une vision du monde (Weltanschaung), d’un engagement politique. L’entre-deux-guerres en constitue une période hautement symbolique. Les théoriciens de l’économie, au sein desquels il prit place, entendaient peser sur le cours du monde, ce qui explique l’âpreté des conceptions des uns et des autres.
Nul doute que cet économiste, baron de son état, né en Russie en 1905, devenu allemand par la suite et mort en Espagne en 1946, aura marqué la théorie économique. Il analyse tout particulièrement les comportements des acteurs, ces entreprises dans la sphère marchande, pouvant être à l’origine de rapports économiques asymétriques. Ces comportements participent in fine à l’émergence d’un acteur leader. Ce leader est en mesure d’empêcher, par le pouvoir dont il est doté sur le marché, la formation d’un équilibre économique. C’est lui qui fixe les règles de fonctionnement du marché, l’autre acteur étant considéré comme un suiveur. Stackelberg en déduit que l’équilibre sur les marchés est une conception très éloignée de la réalité économique.
Stackelberg s’éloigne en cela de ses prédécesseurs français, Antoine Cournot ou Joseph Bertrand, qui, pour leur part, avaient axé leur réflexion sur des jeux coopératifs. Ils aboutissaient à des marchés considérés comme équilibrés.
L’extrême rigueur de la démonstration de Stackelberg tient à la dotation élevée en capital mathématique qui caractérisait cet économiste. Elle lui vaut une insertion rapide dans les grands débats qui animent la science économique durant les années 1920-1930, années souvent qualifiées de « haute théorie », et ce, en dépit de la barrière de la langue allemande. Sa vision de l’instabilité des marchés fait qu’il n’est pas un économiste isolé puisque, la Grande Dépression aidant, d’autres économistes développent des travaux similaires comme ceux de Nicholas Kaldor en Grande-Bretagne.
Avec de telles avancées théoriques, Stackelberg s’installe durablement dans le paysage éditorial économique, et en particulier dans les ouvrages d’économie industrielle et, plus largement, dans les manuels contemporains de science économique couvrant les trois premières années d’économie dans les universités.
C’est en 1934 qu’il publie son ouvrage phare, en langue allemande, et longtemps resté sans traduction ni anglaise ni encore moins française, Marktform und Gleichgewicht. Il faudra attendre 2011 pour avoir une traduction anglaise complète de ce livre Market Structure and Equilibrium. La théorie du duopole de Stackelberg, que l’on peut trouver dans cet ouvrage, lui a valu une notoriété mondiale. Un ouvrage publié en 1934 qui suscita d’emblée des commentaires et des recensions dans les revues d’économie les plus prestigieuses, et signés par les grands noms de la discipline, à l’image de Wassily Leontief aux États-Unis, de Nicholas Kaldor et de John Hicks en Grande-Bretagne, ou encore de Walter Eucken en Allemagne.
Mathématicien, statisticien, économiste, Stackelberg est un intellectuel brillant. Ses travaux sur les coûts et les formes de marché l’attestent. La science, celle de l’économie en particulier, n’est toutefois pas idéologiquement neutre. Dans le cas de Stackelberg, l’homme de connaissances développe une conscience nationaliste, une attirance pour les mouvements paramilitaires dès qu’il foule le sol allemand à l’âge de 18 ans, après avoir fui sa Russie natale avec ses parents et ses trois frères.
Le point d’aboutissement de l’attraction qu’exerce sur lui le nationalisme allemand, est l’adhésion au Parti national-socialiste (Nationalsozialistische Deutsche Arbeiterpartei, NSDAP) en 1931, puis à la Schutzstaffel (SS) en 1933. Si ses recherches sur les formes de marché sont finalisées dans la publication de l’ouvrage de 1934, Stackelberg publie plusieurs articles dans des revues comme Jungnationale Stimmen (Voies des jeunesses nationalistes. Lire James Konow).
On pourrait considérer qu’une ligne de démarcation sépare les travaux théoriques de l’engagement politique de Stackelberg, et affirmer ainsi que la science ne se mélange pas à la politique. L’argument principal qui plaide en faveur de cette étanchéité entre les deux champs tient à l’antériorité de l’adhésion au NSDAP sur les recherches académiques qui vont faire de lui un économiste de réputation internationale.
En réalité, Stackelberg prend des positions politiques qui transpirent dans ses analyses scientifiques.
Un premier indice réside dans sa vision de la politique monétaire. Lors d’une conférence (« Die deutsche Geldpolitik seit 1870 »), prononcée en 1942 à Bonn, dont le thème est la politique monétaire allemande, Stackelberg s’attache à retracer l’évolution des réformes monétaires de l’Allemagne depuis 1870. L’ambition de cette conférence est d’identifier les fondements d’une souveraineté monétaire de l’Allemagne en phase avec ses ambitions hégémoniques dans une Europe en voie de renouveau. La publication des inaugural lectures (Antrittsvorlesung) de l’Université de Bonn est placée sous la responsabilité de Karl Franz Johann Chudoba (1898-1976), qui enseigne la minéralogie à Bonn, mais qui est, par ailleurs, un membre actif du Parti national-socialiste des travailleurs allemands (Nationalsozialistische Deutsche Arbeiterpartei, NSDAP).
Le second indice est beaucoup révélateur de l’articulation qu’il peut y avoir entre démarche scientifique et engagement politique. Il tient fondamentalement à la période historique dans laquelle évolue Stackelberg. Cette période, c’est celle de la défaite de 1918 et celle de la République de Weimar. Comme bon nombre d’économistes, dont le français François Perroux, Stackelberg s’emploie, dans son livre de 1934 (Marktform und Gleichgewicht), à cherche une troisième voie entre, d'une part, le bolchévisme et le nivellement social qu’il lui semble incarner et, d'autre part, le capitalisme et son individualisme exacerbé qui a mis à l’épreuve les valeurs de l’Allemagne.
C’est pourquoi, dans un court chapitre (trois pages seulement), il prône l’adhésion au corporatisme. En cela, il rejoint une frange des économistes qui, comme lui, ont la certitude que le capitalisme est instable, et qui sont en quête d’une troisième voie, celle du corporatisme d’obédience fasciste.
Stackelberg n’est donc pas qu’un théoricien, il définit des leviers de politique économique, admet l’importance de l’interventionnisme de l’État, dans la perspective d’une réconciliation des acteurs d’une même filière économique, participant ainsi d’une unité nationale. Cette conception, il en échange les principes fondamentaux avec son collègue et ami, l’économiste Luigi Amoroso, auteur en 1938 d’un article publié par la prestigieuse revue Econometrica, dédié à Vilfredo Pareto, et dans lequel il rend un vibrant hommage à Benito Mussolini.
Stackelberg participe pleinement à la bataille des idées économiques de l’entre-deux-guerres. S’éloignant du nazisme à partir de 1943, il rejoint le groupe de Fribourg, autour d’économistes comme Eucken Walter ou Röpke Wilhelm ou encore Böhm Franz. Un groupe qui fera date, puisque les économistes qui le composent forment l’ordolibéralisme, incarnation allemande d’une voie médiane entre le laissez-faire intégral et le socialisme. Ce courant de pensée libéral conceptualise que la mission économique de l’État est de créer et de maintenir un cadre normatif permettant la « concurrence libre et non faussée » entre les entreprises.
Des économistes qui entendent préparer le lendemain de la guerre en proposant de nouveaux principes organisationnels de l’économie allemande.
Invité par l’Université de Madrid comme visiting professor, Stackelberg profite de cette opportunité en 1944 pour fuir l’Allemagne nazie. Il échappe au sort qui fut réservé à tous les opposants au régime dont il fait partie. En effet, après son adhésion sans ambiguïté au nazisme, Stackelberg s'était rangé dans le camp des opposants à Hitler. Ses enseignements en Espagne font de Stackelberg un diffuseur de l’ordolibéralisme, dans un régime politique autoritaire, attestant une fois de plus de l’attirance de cet économiste pour le fascisme et le nationalisme.
Il va laisser une forte empreinte chez ses collègues espagnols, empreinte que l’on peut mesurer dans les recherches menées sur lui en Espagne, jusqu’à très récemment. Cette empreinte aura été réalisée dans un laps de temps très court, puisque Stackelberg mourut en 1946. Durant ces deux années, il publiera un ouvrage en langue espagnole : Principios de Téoria Economica.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.08.2025 à 17:17
Katherine Twamley, Professor of Sociology, UCL
Jenny van Hooff, Reader in Sociology, Manchester Metropolitan University
Baisse de l’activité sexuelle, montée d’un certain « hétéropessimisme » ou célibat revendiqué… de plus en plus d’éléments indiquent que la génération Z se détourne des formes traditionnelles de rencontres et des relations amoureuses à long terme. Dans le même temps, on observe un clivage politique entre jeunes femmes – plus progressistes – et jeunes hommes – plus conservateurs. Comment analyser ces évolutions, au regard du contexte politique, social et économique ?
Des signes de clivage politique entre les jeunes hommes et les jeunes femmes ont pu être observés au cours de l’année écoulée. Les données issues des élections dans plusieurs pays indiquent que les femmes âgées de 18 à 29 ans se montrent nettement plus progressistes, tandis que les jeunes hommes penchent davantage vers le conservatisme. Une récente étude, menée dans 30 pays a également révélé que la génération Z est plus divisée que les précédentes sur les questions liées à l’égalité entre les sexes.
Parallèlement, de plus en plus d’éléments montrent que cette génération se détourne des rencontres amoureuses. Selon les données de l’enquête nationale sur la croissance des familles aux États‑Unis (National Survey of Family Growth), entre 2022 et 2023, 24 % des hommes et 13 % des femmes, âgés de 22 à 34 ans, ont déclaré n’avoir eu aucune activité sexuelle au cours de l’année écoulée.
Il s’agit d’une augmentation significative par rapport aux années précédentes. Et les adolescents états-uniens sont moins enclins à entretenir des relations amoureuses que ceux des générations précédentes.
Au Royaume-Uni, les enquêtes menées au cours des dernières décennies révèlent une tendance à la baisse de l’activité sexuelle, tant en termes de fréquence que de nombre de partenaires chez les jeunes. Les applications de rencontre perdent également de leur attrait, les principales plateformes enregistrant des baisses significatives du nombre d’utilisateurs parmi les hétérosexuels de la génération Z l’an dernier.
Une fracture politique genrée rend-elle les rencontres plus difficiles ? En tant que sociologues de l’intimité, nos travaux ont montré comment les relations sont affectées par des tendances sociales, économiques et politiques plus larges.
Nos recherches sur la persistance des inégalités de genre montrent qu’elles peuvent affecter la qualité des relations intimes ainsi que leur stabilité.
Par exemple, les relations hétérosexuelles reposent souvent sur une répartition inégale du travail émotionnel et domestique, même au sein des couples ayant des revenus similaires. Certains commentateurs et chercheurs ont identifié une tendance à l’« hétéropessimisme » – un désenchantement vis-à-vis des relations hétérosexuelles, souvent marqué par l’ironie, par le détachement ou par la frustration. De nombreuses femmes expriment une lassitude face aux inégalités de genre qui peuvent apparaître dans les relations avec les hommes.
Mais l’hétéropessimisme a également été identifié chez les hommes et des recherches ont montré que les femmes sont, en moyenne, plus heureuses célibataires que ces derniers.
Prenons le travail domestique. Malgré les avancées en matière d’égalité entre les sexes dans de nombreux domaines, les données montrent que, dans les couples hétérosexuels, les femmes assument encore la majorité des tâches ménagères et des tâches liées au soin. Au Royaume-Uni, elles effectuent en moyenne 60 % de travail non rémunéré de plus que les hommes. Cet écart subsiste même au sein des couples où les deux partenaires travaillent à temps plein.
À lire aussi : What is 'heteropessimism', and why do men and women suffer from it?
En Corée, l’inégalité persistante entre les sexes est considérée comme étant à l’origine du mouvement 4B. Des jeunes femmes coréennes, lassées des stéréotypes sexistes qui les cantonnent à des rôles traditionnels, déclarent rejeter le mariage, la maternité, les relations amoureuses et le sexe avec les hommes.
Dans ce pays et ailleurs, sur les réseaux sociaux, des jeunes femmes se disent « boy sober » [littéralement « sobres de garçons », ndlr]. Le harcèlement, les abus et les « comportements toxiques » sur les applications de rencontre ont, selon certains témoignages, détourné nombre d’entre elles de toute envie de sortir avec quelqu’un.
D’autres ont opté pour la célibat volontaire. Un élément d’explication tient au fait que, pour certaines femmes, la remise en cause des droits reproductifs – comme l’abrogation de l’arrêt Roe v. Wade (qui garantissait le droit fédéral à l’avortement aux États-Unis, ndlr) – rend les questions d’intimité fondamentalement politiques.
Des désaccords politiques, qui auraient, autrefois, pu être surmontés dans une relation, sont aujourd’hui devenus profondément personnels, car ils touchent à des enjeux tels que le droit des femmes à disposer de leur corps et les expériences de misogynie qu’elles peuvent subir.
Bien sûr, les femmes ne sont pas seules à pâtir des inégalités de genre. Dans le domaine de l’éducation, les données suggèrent que les garçons prennent du retard sur les filles à tous les niveaux au Royaume-Uni, bien que des recherches récentes montrent que la tendance s’est inversée en mathématiques et en sciences.
Nombre d’hommes estiment être privés d’opportunités de s’occuper de leurs enfants, notamment en raison de normes dépassées en matière de congé parental, limitant le temps qu’ils peuvent leur consacrer.
Certains influenceurs capitalisent sur les préjudices réels ou supposés des hommes, diffusant leurs visions rétrogrades et sexistes des femmes et du couple sur les réseaux sociaux de millions de garçons et de jeunes hommes.
À lire aussi : Extrême droite et antiféminisme : pourquoi cette alliance séduit tant de jeunes hommes
Compte tenu de tout cela, il n’est pas surprenant que les jeunes hommes soient plus enclins que les jeunes femmes à affirmer que le féminisme a « fait plus de mal que de bien ».
Mais des enjeux politiques et économiques plus larges influencent également les jeunes hommes et les jeunes femmes, et conditionnent leur façon – voire leur décision – de se fréquenter. La génération Z atteint l’âge adulte à une époque de dépression économique. Des recherches montrent que les personnes confrontées à des difficulté économiques peuvent avoir du mal à établir et à maintenir des relations intimes.
Cela peut être en partie dû au fait que les débuts d’une romance sont fortement associés au consumérisme – sorties au restaurant, cadeaux, etc. Mais il existe aussi un manque d’espace mental pour les rencontres lorsque les gens sont sous pression pour joindre les deux bouts. L’insécurité financière affecte également la capacité des jeunes à se payer un logement et, donc, à disposer d’espaces privés avec un partenaire.
On observe, par ailleurs, une augmentation des problèmes de santé mentale signalés par les jeunes dans le monde entier. Les angoisses liées à la pandémie, à la récession économique, au climat et aux conflits internationaux sont omniprésentes.
Ces inquiétudes se reflètent dans les rencontres amoureuses, au point que certains voient dans une relation sentimentale une prise de risque supplémentaire dont il vaut mieux se protéger. Des recherches menées auprès d’utilisateurs hétérosexuels d’applications de rencontre au Royaume-Uni, âgés de 18 à 25 ans, ont révélé qu’ils perçoivent souvent les rencontres comme un affrontement psychologique – dans lequel exprimer son intérêt trop tôt peut mener à l’humiliation ou au rejet.
Il en résulte que ni les jeunes hommes ni les jeunes femmes ne se sentent en sécurité pour manifester un véritable intérêt envers un potentiel partenaire. Cela les enferme souvent dans le fameux, et souvent décrié, « talking stage » (« phase de discussion »), où les relations peinent à progresser.
Comme l’ont montré Lisa Wade et d’autres sociologues, même dans le cadre de relations sexuelles occasionnelles, l’attachement émotionnel est souvent volontairement évité.
Si la génération Z se détourne des relations amoureuses, ce n’est pas forcément par manque d’envie de créer du lien, mais sans doute en raison d’un sentiment de vulnérabilité accru, nourri par une montée des problèmes de santé mentale et un climat d’insécurité sociale, économique et politique.
Il ne s’agit peut-être pas d’un rejet des relations de la part des jeunes. Peut-être ont-ils plutôt du mal à trouver des espaces émotionnellement sûrs (et financièrement accessibles) propices au développement d’une intimité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.08.2025 à 16:03
Donald Heflin, Executive Director of the Edward R. Murrow Center and Senior Fellow of Diplomatic Practice, The Fletcher School, Tufts University
Avant sommet organisé à la hâte entre les présidents Donald Trump et Vladimir Poutine le 15 août 2025 en Alaska, qui n'a abouti à aucun accord de paix pour l'Ukraine, « The Conversation » s’est entretenu avec le diplomate chevronné Donald Heflin, qui enseigne aujourd’hui à la Fletcher School de l’Université Tufts, près de Boston, afin de connaître son point de vue sur cette rencontre inhabituelle. L'analyse du diplomate a été confirmée par les faits.
The Conversation : Comment les guerres prennent-elles fin ?
Donald Heflin : Les guerres prennent fin pour trois raisons. La première est que les deux camps s’épuisent et décident de faire la paix. La deuxième, plus courante, est qu’un camp s’épuise, lève la main et dit : « Oui, nous sommes prêts à nous asseoir à la table des négociations. »
Et puis la troisième raison, que nous avons vue au Moyen-Orient, c’est que des forces extérieures, comme les États-Unis ou l’Europe, interviennent et disent : « Ça suffit. Nous imposons notre volonté de l’extérieur. Arrêtez ça. »
Ce que nous voyons dans la situation entre la Russie et l’Ukraine, c’est qu’aucune des deux parties ne montre une réelle volonté de s’asseoir à la table des négociations et de céder du territoire.
Les combats se poursuivent donc. Et le rôle que jouent actuellement Trump et son administration correspond à la troisième possibilité, celle d’une puissance extérieure qui intervient et dit « Ça suffit ».
Regardons la Russie. Elle n’est peut-être plus la superpuissance qu’elle a été, mais c’est une puissance qui dispose d’armes nucléaires et d’une armée importante. Ce n’est pas un petit pays du Moyen-Orient que les États-Unis peuvent dominer complètement. C’est presque un égal. Alors, peut-on vraiment lui imposer sa volonté et le faire venir sérieusement à la table des négociations s’il ne le veut pas ? J’en doute fort.
De quelle manière cette rencontre entre Trump et Poutine en Alaska s’inscrit-elle dans l’histoire des négociations de paix ?
D. H. : Beaucoup de gens font l’analogie avec la conférence de Munich de 1938, où le Royaume-Uni et la France ont rencontré l’Allemagne hitlérienne. Je n’aime pas faire de comparaison avec le nazisme ou avec l’Allemagne hitlérienne. Ces gens ont déclenché la Seconde Guerre mondiale, perpétré l’Holocauste et tué de 30 millions à 40 millions de personnes. Il est difficile de comparer quoi que ce soit à cela.
Mais sur le plan diplomatique, ce qui s’est passé en 1938 peut éclairer la situation actuelle. L’Allemagne a dit : « Écoutez, nous avons tous ces citoyens allemands qui vivent dans ce nouveau pays qu’est la Tchécoslovaquie. Ils ne sont pas traités correctement. Nous voulons qu’ils fassent partie de l’Allemagne. » Et les dirigeants nazis étaient prêts à envahir le pays.
L’Europe est alors en pleine crise des Sudètes : la situation est explosive. Pour éviter la guerre, le premier ministre britannique Neville Chamberlain décide de mener seul des négociations avec le chancelier Hitler. Il fait trois fois le voyage en Allemagne en quinze jours et ces rencontres mèneront aux accords de Munich, qui actent la cession par la Tchécoslovaquie des Sudètes au profit du IIIe Reich, avec des garanties françaises et britanniques sur l’intégrité du reste du pays. Et cela devait s’arrêter là. L’Allemagne ne devait avoir aucune autre exigence.
La Tchécoslovaquie n’était pas présente en 1938. C’est une paix qui lui a été imposée.
Et, bien sûr, il n’a pas fallu attendre plus d’un an ou deux ans avant que l’Allemagne déclare : « Non, nous voulons toute la Tchécoslovaquie. Et, d’ailleurs, nous voulons aussi la Pologne. » C’est ainsi que la Seconde Guerre mondiale a commencé.
Pourriez-vous préciser davantage ces comparaisons ?
D. H. : La Tchécoslovaquie n’était pas à la table des négociations. L’Ukraine n’est pas à la table des négociations.
À lire aussi : L’Ukraine pas conviée aux négociations sur son avenir : des précédents existent, et ils ne sont pas encourageants
Encore une fois, je ne suis pas sûr de vouloir comparer Poutine à Hitler, mais c’est un chef autoritaire à la tête d’une armée importante.
Des garanties de sécurité avaient été données à la Tchécoslovaquie ; elles n’ont pas été respectées. L’Occident a donné des garanties de sécurité à l’Ukraine lorsque ce pays a renoncé à ses armes nucléaires en 1994. Nous avons dit aux Ukrainiens : « Si vous faites preuve de courage et renoncez à vos armes nucléaires, nous veillerons à ce que vous ne soyez jamais envahis. » Et ils ont été envahis deux fois depuis, en 2014 et en 2022. L’Occident n’a pas réagi.
L’histoire nous enseigne donc que les chances que ce sommet débouche sur une paix durable sont assez faibles.
Quel type d’expertise est nécessaire pour négocier un accord de paix ?
D. H. : Voici comment cela se passe généralement dans la plupart des pays qui ont une politique étrangère d’envergure ou un appareil de sécurité nationale important, et même dans certains petits pays.
D’abord, les dirigeants politiques définissent leur objectif politique, ce qu’ils veulent atteindre.
Ils communiquent ensuite leurs objectifs aux agents de l’État, des services diplomatiques et aux militaires en leur disant : « Voici ce que nous voulons obtenir à la table des négociations. Comment y parvenir ? »
Alors ces experts leur font des propositions : « Nous allons faire ceci et cela, et nous affecterons du personnel à cette tâche. Nous travaillerons avec nos homologues russes pour tenter de réduire le nombre de points litigieux, puis nous proposerons des chiffres et des cartes. »
Or, il y a eu beaucoup de turnover au département d’État depuis l’investiture en janvier. L’équipe est nouvelle, et si certains, comme Marco Rubio, savent généralement ce qu’ils font en matière de sécurité nationale, d’autres moins. De nombreux hauts fonctionnaires et personnels du département d’État ont été licenciés, et beaucoup de cadres intermédiaires partent, et avec eux, c’est l’expertise qui s’en va.
C’est un vrai problème. L’appareil de sécurité nationale américain est de plus en plus dirigé par une équipe B, dans le meilleur des cas.
Pourquoi cela posera-t-il un problème quand Trump rencontrera Poutine ?
D. H. : Une rencontre entre deux dirigeants de deux grands pays comme ceux-ci ne s’organise pas à la hâte, à moins qu’il s’agisse d’une situation de crise.
C’est-à-dire que cette rencontre pourrait avoir lieu dans deux ou trois semaines, aussi bien que cette semaine.
En disposant de plus de temps, on peut mieux se préparer. On peut transmettre toutes sortes de documents et d’informations aux agents diplomatiques américains qui vont participer au sommet. Ceux-ci auraient le temps de rencontrer leurs homologues russes, ainsi que leurs homologues ukrainiens, voire des agents d’autres pays d’Europe occidentale. Et lorsque les deux parties finiraient par s’asseoir à la table des négociations, cela se passerait de manière très professionnelle.
Les négociateurs auraient des documents de travail similaires. Chacun aurait à peu près le même niveau d’information. Les questions seraient ciblées.
Ce n’est pas du tout le cas avec ce sommet en Alaska. Ici, il s’agit de deux dirigeants politiques qui vont se rencontrer et prendre des décisions – souvent motivées par des considérations purement politiques –, mais sans aucune idée réelle de leur faisabilité ou de la manière dont elles vont pouvoir être mises en œuvre.
Un accord de paix pourrait-il être appliqué ?
D. H. : Une fois encore, la situation est, en quelque sorte, hantée par le fait que l’Occident n’a jamais appliqué les garanties de sécurité promises en 1994.
Historiquement, la Russie et l’Ukraine ont toujours été liées, et c’est là le problème. Quelle est la ligne rouge de Poutine ? Renoncerait-il à la Crimée ? Non. Renoncerait-il à la partie de l’est de l’Ukraine qui a été prise de facto par la Russie avant même le début de la guerre ? Probablement pas. Renoncerait-il à ce qu’ils ont gagné depuis lors ? Peut-être.
Mettons-nous ensuite à la place de l’Ukraine. Veut-elle renoncer à la Crimée ? Elle répond « Non ». Veut-elle renoncer à une partie de l’est du pays ? Encore « Non ».
Je suis curieux de savoir ce que vos collègues du monde diplomatique pensent de cette réunion à venir.
D. H. : Les personnes qui comprennent le processus diplomatique pensent que cette initiative est de l’amateurisme et qu’elle a peu de chances d’aboutir à des résultats concrets et applicables. Elle donnera lieu à une déclaration et à une photo de Trump et de Poutine se serrant la main. Certains croiront que cela résoudra le problème. Ce ne sera pas le cas.
Donald Heflin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.08.2025 à 14:27
Chang He, Professor of environmental sciences, The University of Queensland
From pesticides in our food to hormone disruptors in our kitchen pans, modern life is saturated with chemicals, exposing us to unknown long-term health impacts.
One of the surest routes to quantifying these impacts is the scientific method of biomonitoring, which consists of measuring the concentration of chemicals in biological specimens such as blood, hair or breastmilk. These measurable indicators are known as biomarkers.
Currently, very few biomarkers are available to assess the impact of chemicals on human health, even though 10 million new substances are developed and introduced to the market each year.
My research aims to bridge this gap by identifying new biomarkers of chemicals of emerging concern in order to assess their health effects.
One of the difficulties of biomonitoring is that once absorbed in our bodies, chemical pollutants are typically processed into one or more breakdown substances, known as metabolites. As a result, many chemicals go under the radar.
In order to understand what happens to a chemical once it has entered a living organism, researchers can use various techniques, including approaches based on computer modelling (in silico models), tests carried out on cell cultures (in vitro approaches), and animal tests (in vivo) to identify potential biomarkers.
The challenge is to find biomarkers that allow us to draw a link between contamination by a toxic chemical and the potential health effects. These biomarkers may be the toxic product itself or the metabolites left in its wake.
But what is a “good” biomarker? In order to be effective in human biomonitoring, it must meet several criteria.
First, it should directly reflect the type of chemical to which people are exposed. This means it must be a direct product of the chemical and help pinpoint the level of exposure to it.
Second, a good biomarker should be stable enough to be detectable in the body for a sufficient period without further metabolization. This stability ensures that the biomarker can be measured reliably in biological samples, thus providing an accurate assessment of exposure levels.
Third, a good biomarker should enable precise evaluation. It must be specific to the chemical of interest without interference from other substances. This specificity is critical for accurately interpreting biomonitoring data and making informed decisions about health risks and regulatory measures.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
One example of a “bad” biomarker involves the diester metabolites of organophosphate esters. These compounds are high-production-volume chemicals widely used in household products as flame retardants and plasticizers, and are suspected to have adverse effects on the environment and human health.
Recent findings showed the coexistence of both organophosphate esters and their diester metabolites in the environment. This indicates that the use of diesters as biomarkers to estimate human contamination by organophosphate esters leads to an overestimation.
Using an inappropriate biomarker may also lead to an underestimation of the concentration of a compound. An example relates to chlorinated paraffins, persistent organic pollutants that are also used as flame retardants in household products. In biomonitoring, researchers use the original form of chlorinated paraffins due to their persistence in humans. However, their levels in human samples are much lower than those in the environment, which seems to indicate underestimation in human biomonitoring.
Recently, my team has found the potential for biodegradation of chlorinated paraffins. This could explain the difference between measurements taken in the environment and those taken in living organisms. We are currently working on the identification of appropriate biomarkers of these chemicals.
Despite the critical importance of biomarkers, several limitations hinder their effective use in human biomonitoring.
A significant challenge is the limited number of human biomarkers available compared to the vast number of chemicals we are exposed to daily. Existing biomonitoring programmes designed to assess contamination in humans are only capable of tracking a few hundred biomarkers at best, a small fraction of the tens of thousands of markers that environmental monitoring programmes use to report pollution.
Moreover, humans are exposed to a cocktail of chemicals daily, enhancing their adverse effects and complicating the assessment of cumulative effects. The pathways of exposure, such as inhalation, ingestion and dermal contact, add another layer of complexity.
Another limitation of current biomarkers is the reliance on extrapolation from in vitro and in vivo models to human contexts. While these models provide valuable insights, they do not always accurately reflect human metabolism and exposure scenarios, leading to uncertainties in risk assessment and management.
To address these challenges, my research aims to establish a workflow for the systematic identification and quantification of chemical biomarkers. The goal is to improve the accuracy and applicability of biomonitoring in terms of human health.
We aim to develop a framework for biomarker identification that could be used to ensure that newly identified biomarkers are relevant, stable and specific.
This framework includes advanced sampling methods, state-of-the-art analytical techniques, and robust systems for data interpretation. For instance, by combining advanced chromatographic techniques, which enable the various components of a biological sample to be separated very efficiently, with highly accurate methods of analysis (high-resolution mass spectrometry), we can detect and quantify biomarkers with greater sensitivity and specificity.
This allows for the identification of previously undetectable or poorly understood biomarkers, expanding the scope of human biomonitoring.
Additionally, the development of standardized protocols for sample collection and analysis ensures consistency and reliability across different studies and monitoring programmes, which is crucial for comparing data and drawing meaningful conclusions about exposure trends and health risks.
This multidisciplinary approach will hopefully be providing a more comprehensive understanding of human exposure to hazardous chemicals. This new data could form a basis for improving prevention and adapting regulations in order to limit harmful exposure.
Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the Axa Research Fund has supported nearly 700 projects around the world conducted by researchers in 38 countries. To learn more, visit the website of the Axa Research Fund or follow @AXAResearchFund on X.
Chang He received funding from the AXA Research Fund.
12.08.2025 à 17:38
Charles Vanthournout, Doctorant en égyptomanie américaine, chargé d'enseignement à l'Université Polytechnique des Hauts-de-France, Université de Lorraine
Depuis le 11 juin, l’Institut du monde arabe, à Paris, propose de découvrir Cléopâtre VII, la dernière reine d’Égypte, à travers l’exposition « Le mystère Cléopâtre ». De l’autre côté de l’Atlantique, à Washington DC, le Smithsonian American Art Museum expose lui aussi la célèbre reine égyptienne.
Le chef-d’œuvre de la sculptrice états-unienne, d’ascendance noire et autochtone, Edmonia Lewis (en illustration de cet article), est exposée au Smithsonian American Art Museum de Washington (États-Unis) et montre Cléopâtre VII Philopator juste après sa mort. La pharaone est allongée sur un grand trône, les yeux fermés : elle vient d’être mordue par un serpent. Cette statue impressionnante, grandeur nature, s’appelle la Mort de Cléopâtre. Edmonia Lewis l’a créée pour l’Exposition universelle de Philadelphie de 1876. L’artiste s’est inspirée des pièces de monnaie anciennes et des découvertes archéologiques faites en Égypte. Elle a voulu représenter Cléopâtre dans ses derniers instants, entre douleur et silence.
Le trône rappelle une célèbre statue du pharaon Khéphren (aujourd’hui conservée au Caire), mais Edmonia a remplacé les animaux habituels par des visages humains. On y voit aussi des symboles égyptiens, comme des fleurs de lotus, un soleil levant, et même des sortes de hiéroglyphes – qui ne forment aucun mot, mais donnent un effet mystérieux. Cléopâtre porte des bijoux inspirés de livres anciens sur l’Égypte, une amulette en forme de cœur, des sandales comme celles du temps de Ramsès et une robe qui ressemble à celles qu’on voit dans les tableaux néoclassiques du peintre David ou de Sir Lawrence Alma-Tadema.
Au final, la sculpture est un mélange de tout ce qu’on savait, ou croyait savoir, à l’époque sur l’Égypte. Edmonia Lewis a rassemblé plusieurs idées et objets venus d’autres œuvres pour inventer sa propre Cléopâtre, entre histoire ancienne et imagination. À l’époque, on a souvent comparé sa statue à celle d’un autre artiste, William Wetmore Story, qui avait sculpté Cléopâtre en 1858, avec des traits africains. Les deux œuvres montrent à quel point cette reine continue d’inspirer des visions différentes.
Au XIXe siècle, Cléopâtre fascine de nombreux artistes américains. On sait qu’au moins six sculpteurs ont créé quatorze statues représentant la dernière reine d’Égypte. Certaines la montrent en buste, d’autres en taille réelle, souvent au moment dramatique de sa mort. Parmi ces œuvres, une statue reste un mystère : on ne sait pas qui l’a faite ni à quoi elle ressemblait exactement.
Cléopâtre devient célèbre en Europe et aux États-Unis au XIXe siècle, grâce aux campagnes militaires de Napoléon en Égypte à la toute fin du siècle précédent. Ces expéditions ont rapporté beaucoup de découvertes, comme des dessins de temples, des objets anciens ou encore la fameuse Description de l’Égypte, un grand livre illustré. En 1822, Champollion réussit à traduire les hiéroglyphes, ce qui donne encore plus envie de mieux connaître l’Égypte ancienne.
En Amérique, Cléopâtre ne plaît pas seulement pour son histoire. Elle devient aussi un symbole important. Pour certaines femmes, elle représente une reine forte, qui ose tenir tête aux hommes. C’est pourquoi des femmes commencent à écrire sa vie dans des livres, en montrant qu’elle a du pouvoir.
Mais Cléopâtre fait aussi parler d’elle dans les débats sur l’esclavage. À cette période, les Noirs américains, descendants des Africains réduits en esclavage, disent que Cléopâtre vient d’un grand peuple africain : les Égyptiens de l’Antiquité. Pour les Blancs américains qui veulent garder l’esclavage, c’est un problème. Ils vont alors inventer des idées pour montrer que « l’Égypte ancienne était blanche », en s’appuyant sur des objets, des textes religieux ou des momies. Cette assertion permet de prétendre que seuls les Blancs auraient créé de grandes civilisations, pour justifier leur supériorité et l’esclavage.
Edmonia Lewis est une artiste engagée. Avec sa sculpture, elle veut parler des difficultés que vivent les Noirs aux États-Unis. Même si l’esclavage est aboli en 1863 pendant la guerre de Sécession, les inégalités continuent, surtout dans le Sud, durant la période dite de « Reconstruction ». Quand la Mort de Cléopâtre est présentée au public, en 1876, les avis sont partagés. Les journaux afro-américains admirent l’œuvre, mais certains critiques d’art sont plus réservés. Après l’exposition, la statue n’est ni achetée ni exposée : elle est oubliée pendant presque cent ans.
Redécouverte bien plus tard, elle est aujourd’hui considérée comme un chef-d’œuvre. Les historiens ne sont pas tous d’accord sur son sens. Pour certains, Edmonia Lewis voulait montrer Cléopâtre comme une femme forte, libre de choisir son destin. Pour d’autres, sa mort représente un acte de résistance, comme celle des Noirs américains face à l’injustice. Et même si Cléopâtre est sculptée avec des traits blancs, elle pourrait aussi représenter une femme blanche puissante renversée – comme une image de la fin de l’esclavage. Un message fort et courageux pour l’époque.
Aujourd’hui encore, Cléopâtre fascine. On la voit dans les films, dans les livres, dans les bandes dessinées. Récemment, une série Netflix l’a montrée comme une femme noire, ce qui a (re)lancé un grand débat : À qui appartient Cléopâtre ? Quelle est sa couleur de peau ? Que dit son image sur notre façon de raconter l’histoire ?
Grâce à des artistes comme d’Edmonia Lewis, on découvre une autre Cléopâtre : libre, fière et pleine de mystère.
Charles Vanthournout ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.08.2025 à 17:12
Jeff Bachman, Associate Professor, Department of Peace, Human Rights & Cultural Relations, American University School of International Service
Esther Brito Ruiz, Adjunct Instructor, American University School of International Service
Depuis la fin de la Seconde Guerre mondiale, les États-Unis ont régulièrement soutenu des dirigeants et des pays qui ont commis des atrocités. Washington déploie six stratégies rhétoriques pour se distancier de ces actes. Illustrations historiques avec les cas du Guatemala, de l’Indonésie au Timor oriental et de la coalition dirigée par l’Arabie saoudite au Yémen.
Depuis la Seconde Guerre mondiale, les États-Unis ont à plusieurs reprises soutenu des gouvernements qui ont commis des atrocités de masse, définies par le spécialiste du génocide Scott Straus comme étant une « violence à grande échelle et systématique contre des populations civiles ».
Cela inclut le soutien à Israël, qui est resté constant malgré le désaccord récent entre le président Donald Trump et le premier ministre Benyamin Nétanyahou sur la question de savoir si les Palestiniens sont victimes de famine à Gaza.
Nous sommes spécialistes des questions liées aux génocides et autres atrocités de masse, ainsi que des enjeux de sécurité internationale. Dans le cadre de nos recherches pour un prochain article à paraître dans le Journal of Genocide Research, nous avons étudié des déclarations officielles, des documents déclassifiés et des articles de presse portant sur quatre cas où les États-Unis ont soutenu des gouvernements alors qu’ils commettaient des atrocités : l’Indonésie au Timor oriental (1975-1999), le Guatemala (1981-1983), la coalition dirigée par l’Arabie saoudite – dite « Coalition » – au Yémen depuis 2015 et Israël à Gaza depuis octobre 2023.
Nous avons identifié six stratégies rhétoriques, autrement dit six façons de formuler un discours, utilisées par des responsables américains pour distancier publiquement les États-Unis des atrocités commises par ceux qui bénéficient de leur soutien.
Cette analyse est essentielle : lorsque les Américains, et plus largement l’opinion internationale, prennent ces discours pour argent comptant, les États-Unis peuvent continuer à agir en toute impunité, malgré leur rôle dans la violence mondiale.
Lorsque des responsables américains nient toute connaissance des atrocités perpétrées par des parties bénéficiant du soutien des États-Unis, nous appelons cela une ignorance feinte (premier stratagème).
Par exemple, après que la Coalition a bombardé un bus scolaire au Yémen, tuant des dizaines d’enfants, la sénatrice américaine Elizabeth Warren a demandé au général Joseph Votel si le Commandement central des États-Unis suivait l’objectif des missions qu’il ravitaillait en carburant.
Sa réponse : « Sénatrice, nous ne le faisons pas. »
Cette ignorance proclamée contraste fortement avec les crimes de guerre de la Coalition, bien documentés depuis 2015. Comme l’a exprimé Scott Paul, expert du Yémen, dans ces termes : « Plus personne ne peut feindre la surprise lorsque de nombreux civils sont tués. »
Lorsque les preuves d’atrocités ne peuvent plus être ignorées, les responsables américains ont recours à la confusion pour brouiller les faits (deuxième stratagème).
Lorsque les forces indonésiennes ont perpétré des massacres en 1983, tuant des centaines de civils, l’ambassade des États-Unis à Jakarta a envoyé un télégramme au secrétaire d’État ainsi qu’à plusieurs ambassades, consulats et missions américaines remettant en question les rapports, car ils « n’avaient pas été confirmés par d’autres sources ».
De même, lors du génocide maya au Guatemala, à la suite du coup d’État réussi d’Efraín Ríos Montt, des responsables américains ont déformé les informations faisant état des violences perpétrées par le gouvernement, en rejetant la responsabilité sur les guérilleros.
Dans son rapport de 1982 sur les droits humains au Guatemala, par exemple, le département d’État affirmait :
« Lorsqu’il a été possible d’attribuer la responsabilité des [meurtres au Guatemala], il semble plus probable que, dans la majorité des cas, ce sont les insurgés […] qui sont coupables. »
Pourtant, les services de renseignement américains affirmaient le contraire.
Des rapports sur les atrocités et abus commis par l’État au Guatemala figurent dans des documents de renseignement américains datant des années 1960. Un câble de la CIA de 1992 mentionnait explicitement que « plusieurs villages ont été rasés » et que « l’armée ne devait pas faire de quartier, aux combattants comme aux non-combattants ».
Alors que continuent de s’accumuler les preuves des atrocités, ainsi que celles permettant d’identifier les responsables, les responsables américains ont souvent recours à la négation (troisième stratagème).
Ils ne nient pas que l’aide américaine est fournie, mais soutiennent qu’elle n’a pas été directement utilisée pour commettre des atrocités.
Par exemple, lors des atrocités commises par l’Indonésie au Timor oriental, les États-Unis ont activement formé des membres du corps des officiers indonésiens. Lorsque les forces de sécurité indonésiennes ont massacré jusqu’à 100 personnes dans un cimetière de Dili en 1991, la réaction de l’administration Bush s’est limitée à déclarer qu’« aucun des officiers militaires indonésiens présents à Santa Cruz n’avait reçu de formation américaine ».
Lorsque l’attention publique sur le soutien américain atteint un niveau qui ne peut plus être facilement ignoré, les responsables américains peuvent recourir à la diversion (quatrième stratagème).
Il s’agit d’ajustements politiques très médiatisés, qui impliquent rarement des changements significatifs. Ils incluent souvent une forme de leurre. En effet, l’objectif de la diversion n’est pas de changer le comportement du bénéficiaire de l’aide américaine, mais simplement une tactique politique utilisée pour apaiser les critiques.
En 1996, lorsque l’administration Clinton a cédé à la pression des militants en suspendant les ventes d’armes légères à l’Indonésie, elle a tout de même vendu à l’Indonésie pour 470 millions de dollars d’armements sophistiqués, dont neuf avions de combat F-16.
Plus récemment, en réponse aux critiques du Congrès et de l’opinion publique, l’administration Biden a suspendu la livraison de bombes de 2 000 et 500 livres à Israël en mai 2024 – mais seulement pour une courte période. Toutes ses autres importantes livraisons d’armes sont restées inchangées.
Comme l’illustre le soutien des États-Unis à Israël, le détournement inclut également des enquêtes américaines superficielles qui signalent une certaine préoccupation face aux abus, sans aucune conséquence, ainsi que le soutien à des auto-enquêtes, dont les résultats disculpatoires sont prévisibles.
Lorsque les atrocités commises par les bénéficiaires de l’aide américaine sont très visibles, les responsables américains utilisent également la glorification (cinquième stratagème) pour faire l’éloge des premiers et pour les présenter comme dignes d’être aidés.
En 1982, le président Ronald Reagan a fait l’éloge du président Suharto, le dictateur responsable de la mort de plus de 700 000 personnes en Indonésie et au Timor oriental entre 1965 et 1999, pour son leadership « responsable ». Par ailleurs, des responsables de l’administration Clinton le qualifiaient de « notre genre de gars ».
De même, le dirigeant guatémaltèque Ríos Montt a été présenté par Reagan au début des années 1980 comme
« un homme d’une grande intégrité personnelle et d’un grand engagement », contraint de faire face à « un défi brutal lancé par des guérilleros armés et soutenus par des forces extérieures au Guatemala ».
Ces dirigeants sont ainsi dépeints comme exerçant la force soit pour une cause juste, soit uniquement parce qu’ils font face à une menace existentielle. Ce fut le cas pour Israël, l’administration Biden déclarant qu’Israël était
« en proie à une bataille existentielle ».
Cette glorification élève non seulement les dirigeants sur un piédestal moral, mais justifie également la violence qu’ils commettent.
Enfin, les responsables américains affirment souvent mener une forme de diplomatie discrète (sixième stratagème), agissant en coulisses pour contrôler les bénéficiaires de l’aide des États-Unis.
Il est important de noter que, selon ces responsables, pour que cette diplomatie discrète soit efficace, le soutien américain reste nécessaire. Ainsi, le maintien de l’aide à ceux qui commettent des atrocités se trouve légitimé précisément parce que c’est cette relation qui permet aux États-Unis d’influencer leur comportement.
Au Timor oriental, le Pentagone a fait valoir que la formation renforçait le « respect des droits humains par les troupes indonésiennes ». Lorsqu’une unité militaire indonésienne formée par les États-Unis a massacré environ 1 200 personnes en 1998, le département de la Défense a déclaré que « même si des soldats formés par les Américains avaient commis certains des meurtres », les États-Unis devaient continuer la formation afin de « maintenir leur influence sur la suite des événements ».
Les responsables américains ont également laissé entendre en 2020 que les Yéménites attaqués par la Coalition dirigée par l’Arabie saoudite bénéficiaient du soutien militaire américain à cette Coalition, car ce soutien conférait aux États-Unis une influence sur l’utilisation de ces armes.
Dans le cas de Gaza, les responsables américains ont, à plusieurs reprises, invoqué la diplomatie discrète pour promouvoir la retenue, tout en cherchant à bloquer d’autres systèmes de responsabilisation.
Par exemple, les États-Unis ont utilisé leur veto à six résolutions du Conseil de sécurité des Nations unies sur Gaza depuis octobre 2023 et ont imposé des sanctions à cinq juges et procureurs de la Cour pénale internationale en raison de mandats d’arrêt émis contre Nétanyahou et l’ancien ministre israélien de la Défense Yoav Gallant.
Les responsables américains utilisent depuis longtemps diverses stratégies rhétoriques pour prendre leurs distances par rapport aux atrocités commises par d’autres avec le soutien des États-Unis et pour minimiser leur contribution à ces actes.
Dans ce contexte, la reconnaissance par Trump d’une « vraie famine » à Gaza peut être considérée comme une diversion visant à détourner l’attention du soutien inchangé des États-Unis à Israël, alors que les conditions de famine à Gaza s’aggravent et que des Palestiniens sont tués en attendant de recevoir de la nourriture.
De l’ignorance feinte à la minimisation de la violence en passant par la louange de ses auteurs, les gouvernements et présidents américains ont, depuis longtemps, recours à une rhétorique trompeuse pour légitimer la violence des dirigeants et des pays qu’ils soutiennent.
Mais deux éléments sont nécessaires pour que ce discours continue de fonctionner : l’un est le langage employé par le gouvernement américain, l’autre est la crédulité et l’apathie du public.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.08.2025 à 17:11
Pierre Cilluffo Grimaldi, Maître de conférences, Sorbonne Université
Chaque été arrive désormais avec de nouvelles images de milliers d’hectares qui partent en fumée. Si ces mégafeux, comme on les appelle aujourd’hui, menacent la vie humaine et les écosystèmes, ils bouleversent aussi nos imaginaires sociaux et climatiques.
C’est un terme qui s’est progressivement imposé dans le langage courant et dans nos imaginaires. Celui de « mégafeu ». Il semble décrire une version extrême d’un phénomène déjà spectaculaire dont nous sommes de plus en plus témoins. Il serait apparu pour la première fois en 2013 dans la bouche d’un homme pourtant habitué à côtoyer les flammes : l’Américain Jerry Williams, qui travaille au service gouvernemental des forêts des États-Unis. Selon lui, le mégafeu, ne serait pas seulement un immense incendie, mais surtout un feu au comportement jamais observé auparavant par les spécialistes et par les riverains qui en sont victimes.
Le terme, depuis, n’en finit pas d’embraser les livres et journaux comme en témoigne la spectaculaire courbe de ses occurrences depuis 2014, en anglais, mais aussi en français.
Car ces incendies ne cessent de survenir, du Brésil au Canada, en passant par l’Australie, la Californie ou la Sibérie, et semblent chaque fois battre de nouveaux records. Ainsi, le département de l’Aude vient tout juste de subir des flammes aux ravages sans précédent depuis cinquante ans pour le pourtour méditerranéen français. Ces mégafeux n’ont pas fini non plus de se multiplier. Une étude de Harvard prévoit ainsi le doublement voir le triplement des mégafeux d’ici 2050 aux États-Unis.
Ces mégafeux, dont nous pouvons tous aujourd’hui observer les images ou constater les immenses dégâts provoquent des chocs sans précédent.
Un habitant de Gironde confiait par exemple, un an après les incendies qui ont décimé les forêts de pin de son terrain familial et de tout son département, être perdu sans la forêt familière qui entourait sa maison et redouter, désormais, chaque nouvel été. Les flammes semblent ainsi avoir provoqué ce que l’on appelle un « choc moral ».
Le choc moral est un événement ou une information imprévisible qui génère un sentiment viscéral d’indignation ou de malaise moral chez un individu, au point de l’inciter à agir politiquement, même s’il n’est pas déjà intégré à un réseau militant. Il s’agit d’une réaction émotive et cognitive à une violation perçue du quotidien et sa norme, nécessitant une reconstruction de sa vision du monde.
Sans en être aussi directement touchés, ces mégafeux peuvent tous perturber nos imaginaires, réactiver des mythologies, voici comment.
Face à la puissance des images de mégafeux ravageant des milliers d’arbres, l’esprit humain peut être tenté de chercher dans le passé et ses mythes des repères pour donner du sens à ces catastrophes.
Or ces gigantesques incendies s’attaquent à un lieu familier de nos imaginaires en Occident, celui de la forêt, qui, rappelle le chercheur américain Robert Harrison,
« représente un monde à part, opaque, qui a permis à cette civilisation de se dépayser, de s’enchanter, de se terrifier, de se mettre en question, en somme de projeter dans les ombres de la forêt ses plus secrètes, ses plus profondes angoisses ».
C’est donc un lieu familier de nos imaginaires, parfois même un éden naturel qui se consume et dont nous sommes de nouveau chassés par les flammes de l’enfer.
Les images d’une forêt ravagée par les flammes provoquent ainsi la rencontre de plusieurs symboles puissants dans nos esprits. Car le feu, lui, détient une valeur on ne peut plus forte dans les mythes et cultures dont nous sommes les descendants. C’est le feu qui symbolise la porte d’entrée de l’enfer avec une valeur apocalyptique, c’est le feu du châtiment qui revient dans les cercles de l’Enfer, de Dante. Il est aussi un « feu barrière » ou une « barrière de feu » entre deux mondes dans nos mythes judéo-chrétiens. Car ce sont encore des flammes qui interdisent à Adam et Ève de retourner au jardin d’Éden, après avoir été chassés du paradis terrestre pour avoir mangé le fruit défendu.
Les pompiers et habitants, plus concrètement, parlent eux plutôt de « front de flamme » qui irradie et détruit la végétation et nous prive d’une forêt qui ne sera bientôt plus que cendres.
Mais les mégafeux convoquent aussi un autre mythe qui hante nos imaginaires, celui de la dérive du feu prométhéen.
Prométhée est connu dans la mythologie grecque pour avoir dérobé le feu sacré de l’Olympe afin d’en faire don aux humains. C’est ici un feu utile mythologiquement au développement de la civilisation permettant de développer les industries, de cuisiner mais qui est aussi décrit comme imprévisible et risqué par nature dans les mains humaines.
En effet, une fois volé par l’être humain, il acquiert des caractéristiques contraires au feu naturel des volcans ou du soleil qui animent le monde dans une certaine stabilité naturelle. En le dérobant, l’humain s’arroge un pouvoir de transformation inédit, mais cette capacité porte en elle une forme de contradiction.
Loin de participer aux cycles naturels, le feu fabriqué, maîtrisé ou amplifié par les sociétés industrielles et modernes perturbe profondément les équilibres écologiques. Il devient une force dévastatrice à l’image des mégafeux contemporains qui dérèglent les cycles naturels, menace la stabilité même des environnements et de nos modes de vie. À cet égard, on peut rappeler aussi qu’en France, ces dernières décennies, les feux de forêt ont été neuf fois sur dix, déclenchés par une main humaine, qu’elle soit criminelle ou accidentelle.
On peut aussi noter que, jamais avant aujourd’hui, l’être humain n’a eu autant de force grâce à l’exploitation de l’énergie du feu. C’est celle-ci qui lui a permis de développer la technique qui a façonné, par exemple, le moteur thermique.
Et pourtant, la technique reste limitée pour lutter contre les mégafeux, surtout quand on manque de Canadairs par choix politique et par mépris de l’historicité des alertes… La situation actuelle semble à cet égard préoccupante.
Outre-Atlantique devant les mégafeux amazoniens de 2020, on a aussi vu la figure de Néron mobilisée pour contester les politiques d’inaction environnementale du climatosceptique Jaïr Bolsonaro, alors président du Brésil. L’ONG Greenpeace a même construit une statue de Bolsonaro grimée en cet empereur romain pour alerter sur le sort de la forêt incendiée. Cette figure n’est pas anodine. Elle rappelle une légende tenace selon laquelle la folie de l’empereur romain Néron serait responsable du terrible incendie qui toucha Rome en 64 de notre ère. Si les sources historiques latines ne permettent guère d’établir sa culpabilité, nous sommes cependant sûrs de l’opportunisme politique de Néron désignant à l’époque directement, en bouc émissaire, la minorité chrétienne de Rome comme coupable.
Les images de mégafeux demeurent d’autant plus traumatiques pour les populations qu’elles nous obligent à changer de regard sur une nature jugée maîtrisable, qu’on scrute désormais impuissants, subir des pertes irréversibles pour le paysage, les forêts, le vivant tout entier. Ainsi, les feux ravagent aussi nos imaginaires écologiques. On peut ressentir face à ces paysages détruits par les flammes un choc moral, au sens du sociologue James Jasper soit une réaction viscérale bousculant la perception de l’ordre présent du monde et appelant à l’action.
Néanmoins, cette brûlure du choc moral peut s’éteindre aussi rapidement sans relais d’opinions et actions collectives dès les premières années de « l’après ». On peut alors voir s’installer une nouvelle norme où les mégafeux ne surprennent plus. Car il existe une forme d’amnésie environnementale sur les effets du dérèglement climatique. En 2019, des chercheurs américains ont ainsi analysé 2 milliards de tweets en relation avec le changement climatique. Cette analyse quantitative remarquable par son ampleur a montré qu’en moyenne, nos impressions sur le dérèglement climatique se basaient sur notre expérience récente des deux à huit dernières années.
En France, devant les images de cette nature brûlée dans l’Aude, le concept de « pyrocène » de la philosophe Joëlle Zask prend tout son sens. Il sert à caractériser et à décrire cette nouvelle ère définie par la prédominance et la multiplication des mégafeux. Autrement dit, le pyrocène succéderait à l’anthropocène, marquant une époque où le feu devient un agent central des transformations écologiques et climatiques.
Politiquement, cette ère du feu impose une reconfiguration de notre relation à la nature, car il s’agit d’apprendre à vivre avec ces feux extrêmes et non plus simplement de les combattre directement comme jadis. Cette nouvelle donne appelle ainsi à une « culture du feu » qui intégrerait ces réalités dans nos politiques (habitations et PLU, coupe-feu naturel, gestion des forêts, adaptation des territoires à la crise, agriculture régénératrice…), nos modes de vie (vacances, consommations…). Mais sommes-nous collectivement prêts à cela ?
Pierre Cilluffo Grimaldi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.08.2025 à 17:10
Chloé Djamdji, Doctorante en droit privé spécialisée en droit de la concurrence et droit du numérique, Université Côte d’Azur
Patrice Reis, Professeur des Universités de Droit privé et sciences criminelles, Université Côte d’Azur
Le numérique était censé tout « disrupter ». Mais il pourrait remettre en selle une pratique qu’on croyait disparue : le démantèlement de groupes pour rétablir une concurrence réelle et non faussée. Il faut suivre de près ce que décidera la Federal Trade Commission états-unienne dans l’affaire qui concerne le groupe Meta.
Le 15 avril 2025 s’est ouvert aux États-Unis, le procès Meta (FTC v. Meta Platforms, Inc.). Cette affaire fait suite à l’action en justice intentée par la Federal Trade Commission (FTC) à l’encontre de Meta. L’autorité reproche à l’entreprise d’avoir procédé aux acquisitions d’Instagram (2012) et de WhatsApp (2014), pour renforcer sa position dominante sur les réseaux sociaux, notamment en imposant des conditions inégales à l’égard des développeurs de logiciel. Ces comportements auraient, selon la FTC, pour conséquence, une expérience fortement dégradée pour les utilisateurs avec plus de publicités subies et une confidentialité réduite.
Depuis quelques années, la pratique des acquisitions prédatrices ou killers acquisitions– visant à éliminer une menace concurrentielle avant qu’elle n’émerge – est devenue une pratique courante, notamment pour les entreprises spécialisées dans le numérique comme en témoignerait ici le rachat par Meta d’Instagram et de WhatsApp au cœur de ce procès.
Selon la FTC, l’objectif de ces rachats semble être dès le départ de chercher à éliminer toute concurrence sur le marché des réseaux sociaux. Cette pratique s’apparente à la stratégie dite de « pile de technologie publicitaire ». Cette dernière vise à renforcer la position dominante d’une entreprise sur plusieurs produits technologiques de publicité numérique par une série d’acquisitions prédatrices. Pour ces raisons, l’autorité a demandé une injonction visant à prévenir la réitération de ces types de pratiques ainsi que la cession d’Instagram et de WhatsApp.
En matière de contrôle des concentrations, les entreprises parties aux dites opérations acceptent souvent de procéder à une telle cession – totale ou partielle – d’actifs. Cette dernière opération consiste le plus souvent à vendre à des tiers des points de vente, des établissements, une division, une gamme de produits voire l’intégralité d’une filiale.
À lire aussi : GAFAM : comment limiter les « acquisitions tueuses » de start-up ?
Dans le cadre des procédures de contrôle des concentrations par les autorités de la concurrence (FTC ou encore Commission européenne), la cession d’actifs permet à l’entreprise menant l’opération de concentration via une acquisition ou une fusion de proposer et ou de négocier des ventes d’actifs avec les autorités afin que son opération soit validée. La cession est donc dans ce cadre un instrument de nature structurel utilisé ici dans le cadre d’un contrôle a priori des opérations de concentrations garant de l’ordre public économique.
Ce type de cession d’actifs doit néanmoins être distingué du démantèlement qui est susceptible aussi d’être utilisé par lesdites autorités. Le démantèlement correspond en la scission d’une entreprise en de multiples sociétés indépendantes mais il s’agit ici d’une sanction a posteriori.
Les cas historiques les plus emblématiques étant le démantèlement de la Standard Oil (en 1911) en 34 sociétés et d’ATT (1982) qui donna naissance à sept opérateurs téléphoniques régionaux aux USA, les célèbres « babys bells ». Ces deux affaires peuvent être considérées comme des cas d’école qui viennent interroger la pertinence du démantèlement en tant que solution adaptée à la protection de la concurrence.
Peut-on considérer le démantèlement comme une solution efficace ? La réponse semble a priori négative dans la mesure où le démantèlement dans ces affaires emblématiques s’est finalement avéré avec le temps peu opérant face aux stratégies de restructuration des entreprises. Ainsi, par exemple, le démantèlement de la Standard Oil s’est traduit au fil du temps par une recombinaison partielle des 34 sociétés se traduisant in fine par une des plus grandes fusions de l’histoire entre supermajors sur le marché pétrolier en 1999 entre EXXON (ex Standard Oil of California) et Mobil (ex Standard Oil of NY).
Le démantèlement a certes permis de relancer temporairement la concurrence dans ce secteur, mais l’efficacité de la sanction disparaît plus ou moins rapidement au regard des stratégies de fusions-acquisitions que mettent en place les entreprises. Le démantèlement ne fut d’ailleurs guère utilisé en dehors de ces deux cas d’école. Il n’a jamais été utilisé en droit européen ni en droit français de la concurrence pour sanctionner des positions dominantes absolues ou quasi absolues comme celle de la Standard Oil en son temps. Les débats sur son éventuelle utilisation avaient quasiment disparu jusqu’à l’avènement de l’économie numérique.
L’économie numérique marquée par la vitesse des évolutions techniques et technologiques a pu laisser croire dans un premier temps que les monopoles ou les quasi-monopoles n’étaient qu’une histoire relevant de la vieille économie. Néanmoins, l’apparition et le développement des géants du numérique (GAFAM) combiné à une puissance financière et technologique sans égale et des stratégies d’acquisitions prédatrices des concurrents a permis à ces grands groupes de capter et de contrôler le développement des innovations disruptives. Les concurrents innovants au stade de start-up sont acquis avant même de pouvoir remettre en cause les positions dominantes des GAFAM.
L’intérêt théorique et pratique pour le démantèlement connaît un renouveau en droit et en économie de la concurrence, la cession pouvant être considérée comme une menace crédible : en quelque sorte l’arme nucléaire du droit antitrust destinée à n’être utilisée qu’en dernier recours. Cette nouvelle forme de stratégie de la terreur suppose que la menace devrait suffire en principe à obtenir des entreprises concernées des engagements comportementaux et structurels devant remédier aux préoccupations de concurrence identifiées par les autorités de concurrence.
Le procès Meta incarne probablement cette volonté de gagner en crédibilité au même titre que l’article 18 du Digital Market Act (DMA) européen de 2022 prévoyant cette possibilité. Aux États-Unis, en l’absence de texte équivalent au DMA, le procès devant le tribunal de Washington constitue pour la FTC en invoquant le droit antitrust classique, le monopolisation ou l’abus de position dominante, de demander la vente partielle d’Instagram et de WhatsApp.
L’objectif est de rendre à ces filiales leur autonomie afin qu’elles puissent à nouveau concurrencer Meta sur le marché des réseaux sociaux. Ainsi, si finalement le tribunal suit le raisonnement de la FTC et que la cession se traduit par un démantèlement de Meta, cette mesure structurelle devient alors une menace crédible pour l’ensemble des GAFAM. Leur situation de position dominante serait alors menacée et les autorités et les tribunaux de la concurrence rétabliront la concurrence là où elle était absente ou quasi absente. Reste à savoir si l’histoire se répétera comme pour le pétrole ou les télécoms et si, à terme, les groupes finiront par se reconstituer…
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.08.2025 à 17:09
Primrose Freestone, Senior Lecturer in Clinical Microbiology, University of Leicester
Peut-on tomber malade à cause de la climatisation ? Dans des conditions de fonctionnement normales, non. Mais si un système de climatisation est mal entretenu ou défectueux, les conséquences sur la santé peuvent être graves.
La climatisation peut être une véritable bénédiction lors des chaudes journées d’été. Elle maintient une température agréable et contrôle l’humidité, rendant les environnements intérieurs supportables même lors des vagues de chaleur.
Or certaines personnes évitent d’utiliser la climatisation, quelle que soit la température extérieure, de peur qu’elle ne les rende malades. On pourrait trouver cela exagéré, mais en tant que microbiologiste, je peux affirmer que cette crainte n’est pas totalement infondée.
En effet, si un système de climatisation fonctionne mal ou n’est pas correctement entretenu, il peut être contaminé par des microbes infectieux. Votre climatiseur peut alors devenir une source potentielle de nombreuses infections transmissibles par l’air, allant du simple rhume à la pneumonie.
Le « syndrome des bâtiments malsains » est le nom générique donné aux symptômes qui peuvent apparaître après un séjour prolongé dans des environnements climatisés. Ces symptômes peuvent inclure des maux de tête, des vertiges, une congestion ou un écoulement nasal, une toux persistante ou une respiration sifflante, des démangeaisons et des éruptions cutanées, des troubles de concentration et de la fatigue.
Ce syndrome touche généralement les personnes qui travaillent dans des bureaux, des espaces confinés, mais il peut survenir chez toute personne passant de longues périodes dans des bâtiments climatisés, tels que les hôpitaux ou autres bâtiments publics. Les symptômes du syndrome des bâtiments malsains ont tendance à s’aggraver avec le temps passé dans un bâtiment donné, et s’atténuent après le départ.
Une étude indienne réalisée en 2023 a comparé 200 adultes en bonne santé travaillant au moins six à huit heures par jour dans un bureau climatisé à 200 adultes en bonne santé ne travaillant pas dans un environnement climatisé. Le groupe exposé à la climatisation a présenté davantage de symptômes associés au syndrome du bâtiment malsain au cours de la période d’étude de deux ans, en particulier une prévalence plus élevée d’allergies. Il est important de noter que les tests cliniques ont montré que les personnes exposées à la climatisation avaient une fonction pulmonaire plus faible et étaient plus souvent en arrêt maladie que celles qui n’y étaient pas exposées.
D’autres études ont confirmé que les employés de bureau travaillant dans des locaux climatisés présentaient une prévalence plus élevée du syndrome du bâtiment malsain que ceux qui ne travaillaient pas dans un environnement climatisé.
On soupçonne que l’une des causes du syndrome des bâtiments malsains est le mauvais fonctionnement des climatiseurs. Lorsqu’un climatiseur ne fonctionne pas correctement, il peut libérer dans l’air des allergènes, des produits chimiques et des micro-organismes en suspension qui auraient normalement dus été piégés par des filtres.
Les climatiseurs défectueux peuvent également libérer des vapeurs chimiques provenant des produits de nettoyage ou des réfrigérants dans l’air du bâtiment. Les produits chimiques tels que le benzène, le formaldéhyde et le toluène sont toxiques et peuvent irriter le système respiratoire.
Les systèmes de climatisation mal entretenus peuvent également abriter des bactéries pathogènes susceptibles de provoquer des infections graves.
La Legionella pneumophila est la bactérie responsable de la « maladie du légionnaire », une infection pulmonaire. La contamination se fait par voie respiratoire, par inhalation d’eau contaminée diffusée en aérosol. Elle se développe généralement dans les environnements riches en eau, tels que les jacuzzis ou les systèmes de climatisation.
La légionellose se contracte le plus souvent dans des lieux collectifs tels que les hôtels, les hôpitaux ou les bureaux, où la bactérie a contaminé l’eau. Les symptômes de la maladie du légionnaire sont similaires à ceux de la pneumonie : toux, essoufflement, gêne thoracique, fièvre et symptômes grippaux généraux. Les symptômes apparaissent généralement entre deux et quatorze jours après la contamination par les légionelles.
Les infections à Legionella peuvent être mortelles et nécessitent souvent une hospitalisation. La guérison peut prendre plusieurs semaines.
L’accumulation de poussière et d’humidité à l’intérieur des systèmes de climatisation peut également créer des conditions propices à la prolifération d’autres microbes infectieux.
Par exemple, des recherches sur les systèmes de climatisation des hôpitaux ont montré que des champignons tels que les espèces Aspergillus, Penicillium, Cladosporium et Rhizopus s’accumulent fréquemment dans les zones riches en eau des systèmes de ventilation hospitaliers.
Ces infections fongiques peuvent être graves chez les patients vulnérables, tels que ceux qui sont immunodéprimés, qui ont subi une greffe d’organe ou qui sont sous dialyse, ainsi que chez les bébés prématurés. L’Aspergillus par exemple, provoque des pneumonies, des abcès pulmonaires, cérébraux, hépatiques, spléniques et rénaux, et peut également infecter les brûlures et les plaies.
Les symptômes des infections fongiques sont principalement respiratoires et comprennent une respiration sifflante ou une toux persistante, de la fièvre, un essoufflement, de la fatigue et une perte de poids inexpliquée.
Les infections virales peuvent également être contractées par la climatisation. Une étude de cas a révélé que des enfants d’une classe de maternelle chinoise avaient été infectés par le norovirus provenant de leur système de climatisation. Cela a provoqué une gastro-entérite chez 20 élèves.
Alors que le norovirus se transmet généralement par contact étroit avec une personne infectée ou après avoir touché une surface contaminée, dans ce cas précis, il a été confirmé que, de manière inhabituelle, le virus s’était propagé dans l’air, à partir du système de climatisation des toilettes de la classe. Plusieurs autres cas de ce type ont été signalés.
Cependant, les climatiseurs peuvent également contribuer à empêcher la propagation des virus en suspension dans l’air. Des recherches montrent que les climatiseurs régulièrement entretenus et désinfectés peuvent réduire les niveaux de circulation des virus courants, y compris le Covid-19.
Le risque d’infection lié à la climatisation vient aussi du fait que celle-ci fait baisser le taux d’humidité de l’air. L’air intérieur est plus sec que l’air extérieur.
Passer de longues périodes dans des environnements à faible humidité peut assécher les muqueuses de votre nez et de votre gorge. Cela peut nuire à leur capacité à empêcher les bactéries et les champignons de pénétrer dans votre corps et vous rendre plus vulnérable au développement d’une infection des tissus profonds des sinus.
Les climatiseurs sont conçus pour filtrer les contaminants atmosphériques, les spores fongiques, les bactéries et les virus pour les empêcher de pénétrer dans l’air que nous respirons à l’intérieur. Mais ce bouclier protecteur peut être compromis si le filtre du système est vieux ou sale, ou si le système n’est pas nettoyé. Ainsi, il est essentiel d’assurer un bon entretien de la climatisation pour prévenir les infections liées à la climatisation.
Primrose Freestone ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.08.2025 à 17:09
Andrew Latham, Professor of Political Science, Macalester College
Aujourd’hui, dans le monde, aucune puissance ne semble en position hégémonique. Mais que signifie exactement ce concept d’hégémonie, au fondement des théories des relations internationales ? Est-il toujours valide ? Peut-on se passer d’une puissance dominante pour structurer les relations internationales ?
L’ère de l’hégémonie américaine est terminée – du moins si l’on en croit les titres de presse partout dans le monde, de Téhéran à Washington. Mais qu’est-ce que cela signifie exactement ?
Le concept d’hégémonie est un fondement théorique des relations internationales depuis les débuts de la discipline. Au-delà d’une simple mesure de la puissance d’un État donné, il désigne sa capacité non seulement à imposer ses décisions à d’autres, mais aussi à façonner les règles, les normes et les institutions qui régissent l’ordre international.
Ce mélange subtil entre coercition et consentement des autres acteurs internationaux distingue l’hégémonie de la domination pure : il rend également le maintien de ce type de position particulièrement complexe dans un monde où les rapports entre puissances sont de plus en plus contestés.
Le terme « hégémonie » vient du grec hegemon, qui signifie guide ou chef. Il désignait à l’origine la prédominance d’une cité-État sur les autres.
Dans la Grèce antique, Athènes illustre bien cette notion, notamment à travers son rôle de leader dans la Ligue de Délos, une alliance de cités-États. Sa puissance militaire, notamment sa suprématie sur les mers, s’y mêlait à une influence politique affirmée, permettant à Athènes d’orienter les décisions de ses alliés.
Cette domination reposait certes sur la force, mais aussi sur le consentement : les membres de la Ligue tiraient en effet parti de la sécurité collective et des liens économiques renforcés sous l’égide d’Athènes.
La définition moderne du concept d’hégémonie émerge au XIXe siècle pour décrire le rôle de la Grande-Bretagne dans l’ordre mondial.
Cette hégémonie reposait sur une puissance navale inégalée et la domination économique acquise lors de la révolution industrielle.
Ce n’était cependant pas uniquement sa force matérielle qui faisait de la Grande-Bretagne une puissance hégémonique. Les réseaux commerciaux bâtis et les normes de libre-échange dont elle faisait la promotion ont structuré un système largement accepté par les autres États européens – souvent parce qu’eux aussi en retiraient stabilité et prospérité.
Cette période démontre que l’hégémonie va bien au-delà de la contrainte : elle suppose la capacité d’un État dominant à façonner un ordre international aligné sur ses propres intérêts, tout en rendant ces intérêts acceptables pour les autres.
Au début du XXe siècle, le penseur marxiste italien Antonio Gramsci a étendu le concept d’hégémonie au-delà des relations internationales, en l’appliquant à la lutte des classes. Sa thèse était que l’hégémonie dans l’espace social repose non seulement sur le pouvoir coercitif de la classe dominante, mais aussi sur sa capacité à obtenir le consentement des autres classes en façonnant les normes culturelles, idéologiques et institutionnelles.
Transposée à l’échelle internationale, cette théorie postulerait qu’un État hégémonique maintient sa suprématie en créant un système perçu comme légitime et bénéfique, et non seulement par la force économique ou militaire.
Au XXe siècle, les États-Unis s’imposent comme l’incarnation de l’hégémon moderne, surtout après la Seconde Guerre mondiale. Leur hégémonie se caractérise par une puissance matérielle – force militaire sans égal, suprématie économique et avance technologique – mais aussi par leur capacité à bâtir un ordre international libéral conforme à leurs intérêts.
Le plan Marshall, qui a permis la reconstruction économique de l’Europe, illustre ce double levier de coercition et de consentement : les États-Unis fournissaient aux pays d’Europe de l’Ouest ressources et garanties de sécurité, mais imposaient leurs conditions, consolidant ainsi leur puissance dans le système qu’ils contribuaient à structurer.
À la même période, l’Union soviétique s’est posée en puissance hégémonique alternative, proposant des équivalents au plan Marshall aux pays d’Europe de l’Est à travers le plan Molotov, ainsi qu’un ordre international concurrent au sein du monde socialiste.
Les défenseurs du concept d’hégémonie en relations internationales estiment qu’une puissance dominante est nécessaire pour fournir des biens publics globaux, bénéficiant à tous : sécurité, stabilité économique, application des règles. Dès lors, le déclin d’un hégémon serait synonyme d’instabilité.
Les critiques, quant à eux, soulignent que les systèmes hégémoniques sont au service des intérêts propres de la puissance dominante, et masquent la coercition sous un vernis de consentement. L’exemple de l’ordre international dominé par les États-Unis est souvent donné : celui-ci a certes promu le libre-échange économique et la démocratie, mais aussi les priorités stratégiques américaines – parfois au détriment des pays les plus faibles.
Quoi qu’il en soit, maintenir une hégémonie à long terme est une gageure. Trop de coercition érode la légitimité de l’hégémon ; trop d’appels au consentement sans pouvoir réel empêchent de faire respecter les règles de l’ordre international et de protéger les intérêts fondamentaux du pays dominant.
Dans un monde désormais multipolaire, le concept d’hégémonie se heurte ainsi à de nouveaux défis. L’ascension de la Chine, mais aussi de puissances régionales comme la Turquie, l’Indonésie ou l’Arabie saoudite, vient perturber la domination unipolaire des États-Unis.
Ces candidats à l’hégémonie régionale disposent de leurs propres leviers d’influence, mêlant incitations économiques et pressions stratégiques. Dans le cas de la Chine, les investissements dans les infrastructures et le commerce mondial à travers l’initiative des Nouvelles routes de la soie s’accompagnent de démonstrations de force militaire en mer de Chine méridionale, destinées à impressionner ses rivaux régionaux.
Alors que l’ordre mondial se fragmente progressivement, l’avenir de la position d’hégémon reste incertain. Aucune puissance ne semble aujourd’hui en mesure de dominer l’ensemble du système international. Pourtant, la nécessité d’un leadership dans ce domaine demeure cruciale : nombre d’observateurs estiment que des enjeux, comme le changement climatique, la régulation technologique ou les pandémies exigent une coordination que seule une hégémonie mondiale – ou bien une gouvernance collective – pourrait garantir.
La question reste ouverte : l’hégémonie va-t-elle évoluer vers un modèle de leadership partagé, ou céder la place à un système mondial plus anarchique ? La réponse pourrait bien déterminer l’avenir des relations internationales au XXIe siècle.
Andrew Latham ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.