LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

14.02.2026 à 10:05

La santé, un enjeu incontournable des prochaines élections municipales

Laurent Chambaud, Médecin de santé publique, École des hautes études en santé publique (EHESP)

À leur échelle, les collectivités locales ont la possibilité de mettre en place des politiques capables d’influer sur de nombreux déterminants de santé. À condition qu’on leur en donne les moyens.
Texte intégral (2849 mots)

Alors que l’échelon des collectivités locales est particulièrement pertinent en matière de santé, les freins qui s’opposent à une réelle « territorialisation » de la santé sont nombreux. Fruit des échanges entre Laurent Chambaud, médecin de santé publique et inspecteur général des affaires sociales, qui a dirigé l’École des hautes études en santé publique (EHESP) de 2013 à 2022 et Gilbert Hangard, adjoint au maire d’Albi délégué à la santé et président de l’association Élus Santé Publique et Territoires (ESPT), ce texte fait le point sur la situation, à la veille des élections municipales 2026.


L’intérêt des Français pour leur santé ne se dément pas. Sur la période 2007 à 2022, ce sujet figurait selon l’Insee dans le top 3 de leurs principales préoccupations, une tendance confirmée par plusieurs sondages d’opinion.

Au fil des décennies, un élargissement progressif du périmètre d’intervention de la santé est maintenant acquis. Elle intègre désormais les déterminants sociauxDéterminants sociaux de la santé
Les déterminants sociaux de la santé sont les circonstances dans lesquelles les individus naissent, grandissent, vivent, travaillent et vieillissent ainsi que les systèmes mis en place pour faire face à la maladie.
, environnementauxDéterminants environnementaux de la santé
Ici, l’environnement est compris aussi bien au sens écologique qu’au sens du logement, du travail, de l’aménagement urbain, du tissu social, etc.
et comportementauxLes déterminants comportementaux de la santé
Les déterminants comportementaux de la santé regroupent l’ensemble des comportements individuels et collectifs qui ont une influence directe sur la santé : tabagisme et autres addictions, consommation d’alcool, sédentarité, régime alimentaire inapproprié, etc.
de la santé, conformément aux cadres proposés par l’OMS (Organisation mondiale de la santé).

Cette évolution a conduit à reconnaître le rôle essentiel des territoires dans la production de la santé et du bien-être. Même dans un pays comme la France, où le système de santé est centré sur le soin et ne reconnaît que marginalement la prévention et la promotion de la santé, ce changement devient inéluctable. Pour cette raison, il est essentiel que les questions de santé soient débattues dans le cadre des élections locales. Revenons sur les arguments qui plaident en ce sens.

Trois arguments en faveur d’un ancrage territorial des politiques de santé

Le premier argument en faveur de l’échelon des collectivités territoriales s’appuie sur le fait que la grande majorité des déterminants de la santé se concrétisent et sont perceptibles au niveau des lieux de vie, de travail, d’éducation…

Qu’il s’agisse de mettre en place une politique de mobilité active (qui peut s’inscrire dans le contexte plus large d’un aménagement du territoire visant à favoriser la transition écologique), de lutter contre des environnements polluants, de faire régresser les déserts médicaux, de circonscrire l’impact sanitaire des addictions, ou de lutter contre les inégalités de santé, l’échelon des collectivités territoriales s’avère essentiel pour incarner et adapter la stratégie nationale de santé.

Autre argument soulignant l’importance des collectivités territoriales : ces dernières sont des laboratoires d’innovation publique. Cette dynamique, réelle, est documentée depuis plus de dix ans, notamment dans les domaines de la coordination des acteurs, de la prévention populationnelle ou de la participation citoyenne.

Les exemples les plus fréquents et concrets sont les politiques locales de sport santé (dont les maisons sport-santé) et les dispositifs territoriaux de santé mentale portés via les Conseils locaux de Santé mentale (CLSM). D’autres initiatives se développent, comme les services médicaux de proximité co-construits par les villes pour lutter contre les déserts médicaux, ou les plateformes d’entraide créées par plusieurs municipalités pour « aller vers » les publics isolés et permettre de conserver ou de développer les liens de proximité.

Enfin, un troisième argument est que le principe de « la santé dans toutes les politiques » formulé par l’OMS en 2014 constitue aujourd’hui un référentiel largement partagé. Il repose sur l’idée que la santé est influencée par l’ensemble des politiques publiques et à son tour, doit être prise en compte dans l’élaboration de politiques publiques dans de nombreux domaines.

De la même manière, le développement du concept « One Health » (une seule santé), demande à agir en prônant une approche transversale. Or les collectivités de proximité sont de véritables « tisseurs de politiques intersectorielles », ayant développé une compétence et un savoir-faire particuliers dans ce domaine.

La place stratégique des collectivités locales

Étant en mesure d’agir sur l’urbanisme, les mobilités, l’environnement, l’alimentation, le sport, la petite enfance et la vie scolaire ou la cohésion sociale, les collectivités locales apparaissent donc comme des acteurs stratégiques. Dans le même temps, les élus de proximité sont également interrogés sur l’organisation du système de santé, que ce soit du fait des déserts médicaux, ou de la disponibilité des structures et services pour accompagner les personnes âgées dépendantes.

Cette reconnaissance du rôle que les collectivités locales ont à jouer en matière de santé s’accompagne cependant d’une question centrale : disposent-elles réellement des moyens et des cadres institutionnels nécessaires pour assumer ces responsabilités croissantes ?

Les politiques territoriales de santé reposent actuellement sur des dispositifs contractuels (Contrats locaux de Santé, projets territoriaux, appels à projets…), qui favorisent l’innovation, mais entretiennent une ambiguïté institutionnelle. La santé demeure une compétence principalement étatique, tandis que les collectivités sont incitées à agir en mobilisant des compétences facultatives qui se révèlent « de plus en plus essentielles ».

Ainsi, ces dispositifs font peser une responsabilité importante sur les exécutifs locaux en matière de résultats, alors que les financements font régulièrement l’objet de discussions et négociations avec l’État qui dispose d’une compétence inscrite dans la loi. Dans ces conditions, nombre d’entre elles rechignent à se saisir de ces enjeux, pour diverses raisons.

Des questions financières

Le premier de ces freins majeurs est financier : le risque d’un transfert implicite des responsabilités de l’État vers les collectivités, sans transfert équivalent de moyens. Dans le contexte budgétaire actuel, cette logique conduit à transformer l’échelon local en amortisseur des défaillances structurelles du système national de santé, alors même que la soutenabilité de l’action locale est menacée.

Par ailleurs, si l’innovation de ces territoires est souvent saluée, l’innovation territoriale repose fréquemment sur des financements fragiles. En effet, bien souvent, les dispositifs innovants sont financés via des appels à projets, régionaux ou nationaux, limités dans le temps. Ce qui pose très vite la question de leur pérennité. Les expérimentations dites « article 51 » illustrent cette situation malsaine.

Développées dans le cadre de la loi de financement de la Sécurité sociale de 2018, ces expérimentations, qui ont mobilisé de nombreux acteurs locaux, n’arrivent pas à être généralisées ou simplement pérennisées. De plus, sur le terrain, la mise en œuvre de la transversalité se heurte à la segmentation administrative, à la rareté de l’ingénierie territoriale et à l’absence d’arbitrages clairs entre objectifs concurrents. Faute de hiérarchisation, la transversalité peut diluer les responsabilités et ralentir la prise de décision.

Un déficit d’évaluation

Peu de politiques territoriales de santé font l’objet d’analyses longitudinales, de comparaisons inter-territoriales ou d’évaluations économiques. Malgré la multiplication des initiatives locales, l’évaluation rigoureuse de leurs impacts reste limitée.

Ce déficit d’évaluation constitue une limite structurelle à la pérennité de l’action, car il affaiblit la capacité à distinguer les dispositifs réellement efficaces de ceux qui relèvent principalement d’une logique symbolique ou communicationnelle.

Les arbitrages, des angles morts

Autre frein : les arbitrages dans le domaine de la santé constituent souvent un angle mort du discours territorial. Les politiques de santé et de transition impliquent des choix politiques structurants : allocation des ressources, priorisation des publics, acceptabilité sociale des mesures. Or, le discours sur l’action locale tend à « naturaliser » ces politiques comme des évidences consensuelles.

Cette dépolitisation apparente masque des conflits d’intérêts légitimes et peut fragiliser la légitimité démocratique de l’action publique locale.

La nécessité d’arbitrage de politiques locales pour des raisons de santé publique peut s’illustrer par la mise en œuvre des Zones à Faible Emission (ZFE). La pollution atmosphérique est responsable de plus de 40 000 décès par an en France et les données scientifiques confirment le rôle positif de ces mesures de restriction de la circulation pour les véhicules les plus polluants. Pourtant, cette mesure fait l’objet de nombreuses contestations et alimente de nombreuses fausses informations.

La nécessité d’un cadre clair

Un point important à souligner est qu’une territorialisation de la santé sans cadre explicite pourrait avoir des effets négatifs, notamment dans l’offre de services ou dans le déploiement d’interventions en santé.

Il existe en effet des écarts significatifs en termes de ressources financières, de compétences techniques et de capital politique entre les différentes collectivités locales. Les territoires les mieux dotés concentrent les expérimentations, tandis que les collectivités les plus fragiles peinent à s’inscrire dans les dispositifs existants.

Les choix politiques peuvent également influencer la volonté de développer, voire juste préserver des dispositifs existants ou à venir. Ainsi, si certaines municipalités s’engagent dans des Contrats locaux de Santé, d’autres n’y voient pas d’intérêt ou ignorent même leur existence.

La territorialisation des politiques de santé, censée réduire les inégalités, peut paradoxalement contribuer à les renforcer si elle n’est pas accompagnée de mécanismes de solidarité et de péréquation.

Les collectivités locales au cœur d’un paradoxe

Toute cette situation crée un paradoxe : les collectivités sont appelées à jouer un rôle central à la fois dans la prévention et la réduction des inégalités de santé, ainsi que dans l’organisation en proximité de notre système de santé. Cependant, elles n’ont aucun pouvoir structurant sur les leviers essentiels du système de soins ou de redistribution…

Par ailleurs, le pouvoir central conserve un rôle stratégique et de cadrage des politiques. Les systèmes de santé évoluent vers une complexité croissante et la multiplication d’acteurs autonomes (établissements de santé, établissements médico-sociaux, acteurs libéraux, monde associatif, industries pharmaceutiques, acteurs technologiques…). Ainsi, l’État n’a plus les moyens humains, organisationnels et financiers pour mettre en œuvre sur le terrain des politiques de santé. Pourtant il rechigne à partager ses compétences et fragilise l’échelon régional de régulation, c’est-à-dire les Agences Régionales de Santé, chargées de traduire les orientations nationales sans disposer de leviers suffisants.

Tirer les leçons de la pandémie de Covid-19

Les collectivités locales constituent un levier indispensable pour répondre aux défis sanitaires, sociaux et environnementaux contemporains. Après la canicule de 2003, qui a montré le rôle majeur des dispositifs de proximité, la crise causée par la pandémie de Covid-19 a mis en lumière ce maillon indispensable pour la pleine efficacité d’une politique publique au plus près de la population (le dernier kilomètre).

Dans ce moment exceptionnel, elles ont par exemple mis en place de nombreux centres de dépistage et de vaccination, en mobilisant des locaux municipaux et du personnel. Elles ont aussi assuré la distribution de masques, le soutien aux personnes isolées (livraison de courses, aide sociale) et l’adaptation des services publics (écoles, transports, aides aux entreprises locales).

Pour autant, et en l’absence d’un retour d’expérience partagé entre État et collectivités locales sur les enseignements à en tirer pour avancer sur une territorialisation des politiques de santé, à ce jour rien n’a vraiment changé dans la répartition des compétences et des moyens qui doivent être investis pour promouvoir, rétablir et préserver la santé des populations.

Un rôle à repenser pour les collectivités de proximité

Les prochaines élections municipales constituent un moment stratégique pour mettre la santé territoriale au cœur du débat, car la commune agit déjà sur de nombreux déterminants (urbanisme, mobilités, pollution, logement, nature, sport, alimentation) et est interpellée régulièrement sur l’organisation en proximité de notre système de santé. Les candidats cherchent des projets concrets et visibles, et ces sujets de santé parlent directement au quotidien des habitants.

L’enjeu est de présenter la santé comme une politique de qualité de vie, pas seulement comme une question médicale. Il est temps d’interpeller les échelons central et régional sur le nécessaire cadrage des politiques de santé et sur la garantie d’une équité des dispositifs sur l’ensemble du territoire.

Dans le même temps, il est indispensable de proposer un plan municipal de santé, de garantir la présence d’un élu référent, et de mettre en place des dispositifs de concertation (à l’instar du contrat local de santé). De telles initiatives permettront de structurer des actions locales crédibles et de fédérer largement.

Pour conclure, soulignons que la montée en responsabilité des collectivités de proximité en matière de santé ne saurait se substituer à une politique nationale structurante. Une territorialisation efficace se doit d’être lucide et suppose un cadre institutionnel clair, des moyens pérennes, une évaluation robuste et une reconnaissance explicite des arbitrages politiques. À défaut, l’ambition territoriale ne fera que fragiliser l’action publique au lieu de la renforcer.


Pour aller plus loin :

- Le site de l’association Élus Santé Publique et Territoires (ESPT), dont l’objet est la promotion et la reconnaissance du rôle des villes et des élus locaux en santé.

The Conversation

Laurent Chambaud est membre de Place Publique

PDF

14.02.2026 à 08:42

En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses

Raffaele F Ciriello, Senior Lecturer in Business Information Systems, University of Sydney

Kathryn Backholer, Co-Director, Global Centre for Preventive Health and Nutrition, Deakin University

Les chatbots sont utilisés pour demander conseil, réfléchir, décider. Insérer des annonces dans cet espace intime crée un risque inédit.
Texte intégral (2105 mots)
OpenAI affirme que des règles strictes encadreront l'intégration publicitaire mais l'histoire incite à la prudence en la matière. OpenAI, The Conversation

La question dépasse la technique. En ouvrant ChatGPT aux annonceurs, OpenAI pose un choix politique : l’IA doit-elle servir le public ou devenir un outil redoutable dans les mains des publicitaires ?


OpenAI a annoncé son intention d’introduire de la publicité dans ChatGPT aux États-Unis. Les annonces apparaîtront dans la version gratuite et pour les abonnés à l'offre Go (la moins chère), mais pas pour les abonnés Pro, Business ou Entreprise.

L’entreprise affirme que les publicités seront clairement séparées des réponses du chatbot et qu’elles n’influenceront pas les contenus générés. Elle s’est également engagée à ne pas vendre les conversations des utilisateurs, à permettre la désactivation des publicités personnalisées et à éviter toute publicité destinée aux moins de 18 ans ou portant sur des sujets sensibles tels que la santé et la politique.

Malgré ces engagements, la décision a suscité des inquiétudes chez une partie des utilisateurs. La question centrale est de savoir si ces garanties tiendront une fois que la publicité deviendra un pilier de son modèle économique.

Pourquoi la publicité dans l’IA était presque inévitable

Nous avons déjà vu ce scénario. Il y a quinze ans, les plateformes de réseaux sociaux peinaient à transformer leurs audiences massives en profits.

Le tournant est venu avec la publicité ciblée : adapter les annonces à ce que les utilisateurs recherchent, consultent et regardent. Ce modèle est devenu la principale source de revenus de Google et de Facebook, au point de remodeler leurs services pour maximiser l’engagement des utilisateurs.

Les plateformes d’intelligence artificielle (IA) grand-public sont extrêmement coûteuses pour leurs propriétaires. L’entraînement et le fonctionnement de modèles avancés exigent d’immenses centres de données, des puces spécialisées et un travail d’ingénierie continu. Malgré une croissance rapide du nombre d’utilisateurs, de nombreuses entreprises d’IA continuent d’opérer à perte. OpenAI prévoit à elle seule de « brûler » près de 100 milliards d’euros au cours des cinq prochaines années.

Seules quelques entreprises peuvent absorber de tels coûts. Pour la plupart des fournisseurs d’IA, trouver un modèle économique à grande échelle est urgent, et la publicité ciblée apparaît comme la réponse la plus évidente. Elle reste le moyen le plus fiable de rentabiliser de larges audiences.

Ce que l’histoire nous enseigne

OpenAI affirme qu’elle maintiendra une séparation claire entre les publicités et les réponses, et qu’elle protégera la vie privée des utilisateurs. Ces garanties peuvent sembler rassurantes, mais elles reposent pour l’instant sur des engagements vagues et susceptibles d’être réinterprétés.

L’entreprise indique ainsi qu’elle ne diffusera pas de publicités « à côté de sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique », mais apporte peu de précisions sur ce qui est considéré comme « sensible », sur l’étendue de la notion de « santé » ou sur l’instance chargée de fixer ces limites.

La plupart des échanges avec une IA, dans la vie réelle, ne relèveront pas de ces catégories restreintes. À ce jour, OpenAI n’a donné aucune précision sur les types de publicités qui seront autorisés ou exclus. Si aucun garde-fou n’est posé sur le contenu des annonces, on peut aisément imaginer qu’un internaute demandant « comment décompresser après une journée stressante » se voie proposer des publicités pour la livraison d’alcool. Une requête sur des « idées de week-end sympa » pourrait faire surgir des promotions pour des sites de jeux d’argent.

Pourtant, ces produits sont associés à des effets néfastes reconnus sur la santé et la société. Placées à côté d’un conseil personnalisé, au moment précis où une décision se prend, ces publicités peuvent infléchir les comportements de façon discrète mais efficace, même en l’absence de toute question de santé explicitement formulée.

On avait vu fleurir des promesses comparables aux débuts des réseaux sociaux. Mais l’expérience montre que l’autorégulation s’érode face aux impératifs commerciaux, au profit des entreprises et au détriment des utilisateurs.

Les logiques publicitaires ont souvent mis à mal l’intérêt général. Le scandale Cambridge Analytica a révélé des données personnelles collectées à des fins commerciales pouvaient être réutilisées pour peser sur des scrutins. Les « Facebook Files » ont, eux, révélé que Meta était consciente des effets délétères de ses plateformes, notamment sur la santé mentale des adolescentes et adolescents, mais a tardé à engager des réformes susceptibles d’entamer ses revenus publicitaires.

Plus récemment, des investigations ont montré que Meta continue de tirer profit de publicités frauduleuses, malgré les alertes répétées sur leurs conséquences.

Pourquoi les chatbots changent la donne

Les chatbots ne sont pas un simple fil d’actualité de plus. Les utilisateurs s’en servent de manière intime et personnelle, pour demander des conseils, chercher un soutien émotionnel ou réfléchir en privé. Ces échanges sont perçus comme discrets, sans jugement, et incitent souvent à confier des choses que l’on ne dirait pas en public.

Cette relation de confiance renforce le pouvoir de persuasion, d’une manière que les réseaux sociaux ne permettent pas. On consulte un chatbot pour obtenir de l’aide ou prendre une décision. Même si les publicités sont formellement séparées des réponses, elles s’insèrent dans un espace privé et conversationnel, et non dans un flux public.

Cette relation de confiance décuple le pouvoir de persuasion, bien au-delà de ce que permettent les réseaux sociaux. On se tourne vers un chatbot pour demander conseil, trancher une décision, chercher un appui. Même officiellement dissociées des réponses, les publicités s’invitent alors dans un tête-à-tête numérique, au cœur d’un échange privé, et non dans le brouhaha d’un fil public.

Des messages placés aux côtés de recommandations personnalisées — qu’ils concernent des biens de consommation, des loisirs, les finances ou la politique — ont toutes les chances d’exercer une influence bien plus forte que les mêmes publicités aperçues au détour d’une navigation classique.

Alors qu’OpenAI présente ChatGPT comme un « super assistant » capable d’accompagner ses utilisateurs dans tous les domaines, des finances à la santé, la frontière entre conseil et incitation devient de plus en plus floue.

Pour les escrocs comme pour les régimes autoritaires, disposer d'un outil de propagande encore plus efficace serait particulièrement tentant. Et du côté des acteurs de l’IA, la perspective de revenus supplémentaires rendra toute complaisance d’autant plus difficile à écarter

Le problème de fond tient à un conflit d’intérêts structurel. Les modèles publicitaires récompensent les plateformes qui maximisent l’engagement, alors même que les contenus les plus susceptibles de capter durablement l’attention sont souvent trompeurs, émotionnellement chargés ou préjudiciables à la santé.

C’est pour cette raison que l’autorégulation des plateformes en ligne a, à maintes reprises, montré ses limites.

Existe-t-il une meilleure voie ?

Une piste serait de considérer l’IA comme une infrastructure publique numérique : des systèmes essentiels, conçus pour servir l’intérêt général plutôt que pour maximiser les recettes publicitaires.

Cela n’implique pas d’exclure les acteurs privés. Mais cela suppose l’existence d’au moins une option publique de haute qualité, placée sous contrôle démocratique — à l’image des médias audiovisuels publics qui coexistent avec les chaînes commerciales.

Des exemples émergent déjà. La Suisse a développé le système d’IA public Apertus via ses universités et son centre national de calcul intensif. Ce modèle est open source, conforme au droit européen sur l’IA et exempt de publicité.

L’Australie (NDT : la version originale de ce texte a été écrite pour un public australien) pourrait aller plus loin. En parallèle du développement de ses propres outils d’IA, les autorités pourraient imposer des règles claires aux acteurs commerciaux : obligation de transparence, interdiction des publicités nuisibles à la santé ou à caractère politique, et sanctions effectives — pouvant aller jusqu’à la suspension d’activité — en cas d’infractions graves.

La publicité n’a pas dévoyé les réseaux sociaux en un jour. Elle a progressivement déplacé les incitations, jusqu’à faire des atteintes à l’intérêt général un simple effet secondaire de la quête de rentabilité. L’introduire dans l’IA conversationnelle, c’est risquer de reproduire ce scénario — mais dans des systèmes auxquels les utilisateurs accordent une confiance bien plus profonde encore.

La question décisive n’est donc pas d’ordre technique, mais politique : l’IA doit-elle servir le public, ou les annonceurs et les investisseurs ?

The Conversation

Raffaele F Ciriello est membre bénévole et temporaire du groupe consultatif des parents auprès de l’eSafety Commissioner, où il conseille sur les réactions des parents et des jeunes face aux lois australiennes fixant un âge minimum pour l’usage des réseaux sociaux. Cet article s’appuie sur ses recherches menées à titre indépendant.

Kathryn Backholer est vice-présidente (politique) de la Public Health Association of Australia. Elle reçoit des financements du National Health and Medical Research Council, de l’Australian Research Council, de l’UNICEF, de la Ian Potter Foundation, de la National Heart Foundation, de VicHealth, de la Foundation for Alcohol Research and Education, de QUIT, de la .auDA Foundation ainsi que du Victorian Department of Justice and Community Safety pour des travaux portant sur les effets nocifs de la publicité en ligne sur la santé.

PDF

13.02.2026 à 17:06

La Saint-Valentin échappe aux marques : comment les individus réinventent ce rituel

Cindy Lombart, Professeure de marketing, Audencia

Didier Louis, Maître de conférences, techniques de commercialisation, IUT de Saint-Nazaire, Nantes Université

Si elle persiste, la Saint-Valentin change de sens. De plus en plus, les individus cherchent à s’émanciper du modèle marchand.
Texte intégral (1167 mots)

Derrière le rituel annuel en apparence immuable, les comportements changent. La Saint-Valentin, si elle garde sa signification symbolique forte, est de moins en moins associée à une dépense consumériste. Place à l’expérience, loin des obligations marchandes.


Pendant des décennies, la Saint-Valentin a été l’une des fêtes les plus façonnées par le marketing. Les marques en ont codifié les symboles, le bijou, le parfum, le dîner romantique, et ont imposé une manière standardisée d’indiquer à l’autre son amour via un geste matériel, visible, parfois ostentatoire. Près d’un Français sur quatre voit la Saint-Valentin comme un moment idéal pour faire un présent. Le romantisme était solvable. L’affection portée quantifiable. Mais ce modèle semble vaciller. La Saint-Valentin semble glisser hors du cadre commercial qui l’avait façonnée. Les individus se la (ré)approprient et la transforment en un rituel moins prescrit et plus personnel.

Quand l’expérience remplace l’objet

Le signe le plus clair de cette réappropriation est la montée en puissance de l’expérience. Ce qui, autrefois, accompagnait le cadeau, un dîner, une sortie, une activité, devient désormais son cœur. L’objet n’est plus le point focal. Il n’est plus que l’éventuelle conséquence d’un moment partagé. Dans un contexte de tensions économiques, ce basculement n’est pas seulement culturel, il est aussi pragmatique.


À lire aussi : Saint-Valentin : ce que nos histoires d’amour révèlent de nos habitudes


L’expérience permet de marquer l’occasion sans entrer dans une logique d’accumulation, voire de surconsommation, de respecter un budget, tout en créant une valeur immatérielle, celle du souvenir et du temps passé ensemble. Les individus privilégient ainsi des moments qui ont du sens : une soirée construite à deux, un repas préparé ensemble, un décor improvisé, un rituel bien-être conçu à la maison, une micro-escapade accessible, un projet créatif. Un Français sur trois fêtera la Saint-Valentin autour d’un dîner à la maison. L’expérience devient un terrain de jeu, d’invention.

De l’injonction à l’accompagnement

Ce qui change profondément, c’est que l’expérience ne se consomme plus. Elle se fabrique. Les couples n’attendent plus qu’une marque leur propose une solution clé en main. Ils inventent leurs propres scénarios, élaborent des rituels. L’amour devient une matière à créer, pas un objet à acquérir et à offrir ensuite. Cette transformation fragilise le rôle prescripteur des marques. Elles ne dictent plus les gestes, elles ne fixent plus les codes. Elles proposent des idées, parfois des supports, mais elles ne tiennent plus les rênes du récit. La logique d’injonction, « achetez ceci pour prouver votre amour », laisse place à une logique d’accompagnement, « n’hésitez pas à vous approprier cette source d’inspiration ».

À chaque génération, sa manière d’échapper au marketing

Si le mouvement est transversal, il s’exprime différemment selon les générations.

La Génération Z, la plus distante vis-à-vis du consumérisme classique, adopte naturellement une Saint-Valentin désynchronisée des marques. Elle privilégie les expériences créatives, le DIY, les activités participatives, les souvenirs qu’on fabrique plutôt que ceux qu’on achète. Pour elle, la valeur se situe dans la cocréation : faire ensemble, vivre ensemble.

Les millénaux, quant à eux, privilégient une fête plus intime et reposante. Dans une vie marquée par le travail, les charges mentales et les arbitrages économiques, ils recherchent davantage la profondeur que l’apparat. Une soirée hors du temps, un dîner maison élaboré, une ambiance réconfortante suffisent à donner du poids à la relation.

Les générations plus âgées restent attachées à des pratiques plus classiques (restaurant, sortie culturelle), mais elles aussi s’éloignent progressivement des logiques marchandes ostentatoires. Elles veulent avant tout un moment authentique, une occasion de se retrouver loin de l’agitation du quotidien.

RTBF 2022.

Un sentiment de lassitude

Le recul de l’objet ne s’explique pas uniquement par l’inflation. Il reflète un changement plus profond : la lassitude vis-à-vis des injonctions commerciales. De plus en plus, les consommateurs se méfient des rituels standardisés. Ils souhaitent des moments qui leur ressemblent, des gestes qui ne sont pas interchangeables, des attentions qui ne puissent être confondues avec celles de n’importe quel autre couple.

La montée en puissance des réseaux sociaux accentue ce phénomène. Ce n’est plus le cadeau que l’on montre, mais l’atmosphère du moment, la spontanéité, le récit personnel. L’amour ne se prouve plus par la valeur d’un bien, mais par la singularité d’une intention. Dans cet univers, les marques sont reléguées en arrière-plan. Elles ne peuvent pas produire du sur-mesure à l’échelle industrielle.

Des moments symboliques à soi

La transformation de la Saint-Valentin révèle un phénomène plus large : la volonté croissante des individus de reprendre la main sur les moments symboliques de leur vie. Dans un monde saturé de normes, de sollicitations et d’incitations à consommer, ils cherchent à regagner de la liberté, de la créativité, du sens. La Saint-Valentin 2026 devient alors le laboratoire d’une nouvelle manière d’habiter les rituels : moins marchande, moins standardisée, plus personnelle. Ce qui était autrefois l’une des fêtes les plus codifiées par le marketing devient un espace d’expression.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

13.02.2026 à 15:34

La Coupe du monde de cricket : un événement autant géopolitique que sportif

Raphaël Le Magoariec, Géopolitologue, spécialiste des sociétés de la péninsule Arabique et du sport, CITERES-EMAM, Université de Tours

La Coupe du monde de cricket – sport extrêmement populaire en Asie du Sud –, qui vient de commencer en Inde, est aussi le terrain d’expression des rivalités régionales.
Texte intégral (2413 mots)

Alors que l’Inde et le Pakistan se sont affrontés à coups de missiles en mai 2025, leurs sélections nationales de cricket vont se rencontrer ce dimanche dans le cadre de la Coupe du monde organisée par l’Inde et le Sri Lanka. Ce match très attendu a bien failli ne pas avoir lieu du fait des menaces de boycott exprimées par la partie pakistanaise. La compétition revêt également une importance majeure pour les pays du Golfe, qui accueillent d’importantes diasporas sud-asiatiques et qui cherchent à développer leur influence dans cette région.


Les Jeux olympiques d’hiver viennent de démarrer ; mais vu d’Asie du Sud, l’événement majeur de l’année se joue à des milliers de kilomètres des neiges italiennes, sur les pelouses indiennes et sri lankaises. Samedi 7 février, Jay Shah, président de l’International Cricket Council (ICC) et du Board of Control for Cricket in India (BCCI), et aussi fils du ministre indien de l’intérieur, a déclaré aux côtés de l’ancien capitaine indien Rohit Sharma, la Coupe du monde de cricket Twenty20 ouverte.

De New Delhi aux Caraïbes, loin de la vision olympique européenne, le cricket impose sa propre lecture du monde issue du Commonwealth, mêlant culture et sport dans une expression unique et éclatante.

Cette Coupe du monde, qui apparaît une nouvelle fois comme l’expression de l’hyperpuissance indienne dans le cricket, est marquée par le contexte géopolitique.

De l’annonce de la co-organisation du tournoi par l’Inde et le Sri Lanka, en 2021, à son lancement, en 2026, cet événement de premier plan révèle les ambitions de puissance des uns et des autres, qui viennent s’articuler autour de ce théâtre symbolique que constitue le stade de cricket. Pour bien comprendre cette dimension, il faut commencer par décortiquer ce qu’est ce sport, qui pour des populations n’étant pas originaires du Commonwealth apparaît étranger, et décrypter la signification de son qualificatif Twenty20.

Le b.a.-ba d’un sport mal connu hors du Commonwealth

Sport hérité de l’Empire britannique, le cricket oppose deux équipes de onze joueurs. Celle qui marque plus de points que l’adversaire remporte la rencontre. Basé sur l’affrontement entre batteurs et lanceurs, il suit des règles codifiées dès le XVIIIe siècle et valorise stratégie, patience et fair-play. Longtemps sport des élites, il trouve son expression la plus complète dans le test cricket, disputé sur quatre à cinq jours, qui récompense endurance, tactique et maîtrise du temps long. Ce format noble demeure néanmoins peu adapté aux exigences médiatiques et financières contemporaines.

Sous l’influence de la dérégulation économique et des impératifs d’audience, des formats plus courts émergent, culminant en 2003 avec l’apparition du Twenty20 (T20), où chaque équipe dispose de vingt séries de lancers, ce qui réduit la durée des matchs à environ trois heures. Plus spectaculaire et plus accessible, le T20 transforme le jeu et devient la vitrine du cricket mondialisé.

Ce support est privilégié par l’Inde afin d’accroître la massification de ce sport en vue de projeter son influence sportive et financière. La Coupe du monde T20 a ainsi été lancée par l’ICC en 2007, dans l’objectif de multiplier les compétitions et d’accroître les retombées financières. L’attribution de l’édition 2026 de cet événement bisannuel à l’Inde et au Sri Lanka, décidée en 2021, est venue appuyer cette logique. L’annonce de cette attribution a été faite à Dubaï, au siège de l’ICC, au cœur de ce hub, emblème de la dérégulation de l’économie mondiale et nouveau centre névralgique du cricket mondial depuis 2005, ce qui traduit la quête d’un profit économique sans limites.

De Londres à l’océan Indien

Cet ancrage de l’ICC dans le Golfe illustre la bascule de l’histoire du cricket au tournant des années 2000 de la métropole britannique vers ses anciennes colonies. Désormais, le centre de gravité économique de ce sport se trouve sur le pourtour de l’océan Indien, entre le sous-continent indien, la péninsule Arabique et l’Afrique australe.

Cette recomposition est portée par l’Inde qui, en raison de son poids démographique et de la puissance de son marché médiatique, génère aujourd’hui entre 70 et 80 % des revenus de l’ICC. Cette domination se traduit institutionnellement par une captation d’environ 38,5 % des revenus redistribués par l’ICC au profit du BCCI sur le cycle 2024-2027, soit plus d’un milliard de dollars. New Delhi s’impose ainsi comme l’hegemon du cricket mondial, et les diasporas issues du sous-continent indien deviennent dans les pays où elles résident (à commencer par ceux du Golfe) d’importants marchés pour les droits de diffusion et le sponsoring.

Le déménagement du siège de l’ICC de Londres à Dubaï en 2005 ne s’explique pas seulement par des considérations d’ordre fiscal ; il s’agit aussi, et surtout, de trouver un point d’ancrage dans un hub où réside la deuxième plus grande diaspora indienne. La présence de celle-ci est si manifeste qu’il n’est pas rare que Dubaï soit surnommée « Dumbaï », en référence à Mumbai (nom de Bombay depuis 1995), la plus grande ville indienne. En outre, située au cœur des réseaux mondiaux, Dubaï constitue une interface de choix avec la région de l’océan Indien.

Un trait d’union entre l’Inde et le Sri Lanka

Dans ce contexte, la co-organisation de la Coupe du monde par l’Inde et le Sri Lanka prend une signification particulière. Attribuée, en 2021, alors que le clan Rajapaksa est encore au pouvoir à Colombo, elle s’appuie sur la légitimité sportive du Sri Lanka, héritée notamment de sa victoire lors de la Coupe du monde 1996. Pensé comme un partenariat structuré autour de l’hyperpuissance du cricket, l’Inde, l’accueil conjoint de cet événement par les deux pays reflète la stratégie diplomatique du gouvernement sri lankais de l’époque, à savoir équilibrer ses relations entre l’Inde et la Chine pour maximiser sa marge de manœuvre régionale.

Après le renversement du clan Rajapaksa en 2022, et les bouleversements politiques internes qui s’en sont suivis, la coorganisation a été maintenue, l’enjeu allant bien au-delà du cas de gouvernants corrompus et destitués.

Pour Colombo, cette Coupe du monde représente une garantie de visibilité internationale, de légitimité symbolique et de reconnaissance de sa diplomatie régionale. Dans un océan Indien marqué par des rivalités croissantes, le cricket fonctionne ainsi comme un instrument d’influence non coercitif, permettant à l’Inde de projeter son leadership sous les apparences d’une coopération sportive, tandis que le Sri Lanka conserve un statut d’acteur crédible sur la scène internationale, le cricket apparaissant comme un support des relations entre élites.

Le Golfe : quasi inexistant sur le terrain, omniprésent sur les panneaux publicitaires

Dès la cérémonie d’ouverture, sur le bord du terrain, les sponsors golfiens dominent. Emirates et DP World, les deux fleurons du transport de Dubaï, ainsi qu’Aramco, le géant pétrolier saoudien, sont en haut de l’affiche. Sobha, la société du promoteur immobilier originaire du Kerala, Palath Narayanan Menon, basée à Dubaï, complète cet ensemble.

Entre gain d’influence et ambitions de puissance étatique, ces sociétés du Golfe influent sur le cricket mondial. Sobha s’affirme comme l’incarnation de l’influence des réseaux indiens aux Émirats arabes unis. À travers ces investisseurs, pour Dubaï, puis à l’arrière-plan Abu Dhabi et maintenant l’Arabie saoudite, le cricket rime avec diversification. Avec ce sport, leur tropisme penche vers l’est, il est conçu pour parler à l’Asie du Sud en vue de poursuivre l’édification de leur vision multipolaire.

Le cricket apparaît pour les monarchies du Golfe comme un vecteur d’influence au service de leur diversification économique et de la sécurisation de leur environnement régional. Il s’affirme comme un espace de convergence avec les milieux économiques et politiques du sous-continent indien dont le marché et leurs capacités militaires sont devenus indispensables. Mais sur le terrain, c’est une autre géopolitique qui se joue.

Une tension palpable, le boycott comme arme

Inde-Pakistan : le match tant attendu, prévu pour le 15 février, a bien failli ne pas se jouer. Shehbaz Sharif, le premier ministre pakistanais, avait annoncé, le 5 février, que la sélection pakistanaise ne prendrait pas part à cette rencontre historique, déclarant qu’elle ne jouerait pas contre l’Inde en signe de solidarité avec le Bangladesh après le retrait de ce dernier du tournoi.

Le boycott de la compétition par le Bangladesh avait été annoncé fin janvier 2026. Les autorités de Dacca avaient justifié cette décision par des craintes sécuritaires liées au déplacement de la sélection nationale en Inde, évoquant non seulement des risques logistiques pour les joueurs et le staff, mais aussi un climat de tensions politiques croissant, alimenté par le nationalisme hindou promu par le premier ministre Narendra Modi et des incidents récents perçus comme menaçants pour les sportifs bangladais. Islamabad a alors saisi l’occasion pour accentuer la pression sur l’ICC, cherchant à obtenir l’absence de sanctions à l’encontre du Bangladesh et une reconnaissance institutionnelle de sa position, tout en annonçant son intention de boycotter cette affiche parmi les plus emblématiques et lucratives du cricket mondial.

Pour le Pakistan, ce boycott motivé par la contestation de la puissance indienne, Islamabad ne manquant aucune occasion pour protester contre sa mainmise sur le cricket mondial, n’était que temporaire. Cette action eut néanmoins l’avantage de tendre une épée de Damoclès au-dessus de ce duel rare et de ce fait si lucratif, très recherché tant par les institutions du cricket que par les diffuseurs, pour lesquels ce match constitue un temps fort en termes d’audience et de revenus.

Face à la crise, l’ICC a engagé de longues discussions avec le Pakistan Cricket Board (PCB) et d’autres parties prenantes pour préserver l’intégrité du calendrier et maintenir ce rendez‑vous tant attendu. Au terme de ces négociations, le Pakistan a finalement renoncé à son boycott et accepté de jouer, permettant ainsi au match de se tenir comme prévu lors de cette édition 2026.

Cette opposition s’inscrit toujours dans un climat de tensions latentes, ce qui contribue à son attrait médiatique et populaire. Le terrain devient alors, pour Islamabad comme pour New Delhi, un espace central d’instrumentalisation politique et symbolique, où gouvernants, hommes d’affaires, artistes et sportifs contribuent à mettre en scène leurs aspirations nationalistes dans un contexte géopolitique chargé. Ainsi, en février 2025, alors que le Pakistan accueillait l’ICC Champions Trophy, la cérémonie de remise du trophée a été organisée pour des questions de sécurité en terrain délocalisé, à Dubaï, et aucun représentant du PCB n’était présent au pied du podium, comme il est de coutume.

Les crispations se sont accentuées à la suite de l’opération « Sindoor », à savoir une série de frappes de missiles indiens ayant eu lieu, du 7 au 10 mai 2025, contre plusieurs cibles situées au Pakistan et au Cachemire sous administration pakistanaise. Les affrontements ont encore dégradé les relations bilatérales à l’approche de la Coupe du monde. C’est dans ce climat de tensions exacerbées que la compétition s’est ouverte, la perspective de la tenue (ou non) de la rencontre au sommet Inde-Pakistan occupant une place centrale dans les esprits des observateurs et des supporters.

Après de nombreuses discussions entre l’ICC et le PCB, et au terme d’une séquence diplomatique largement médiatisée, le Pakistan, on l’a dit, a finalement infléchi sa position. Cette volte-face est intervenue après que l’ICC s’est engagée à ne pas pénaliser le Bangladesh pour son retrait et à lui accorder, à l’avenir, l’organisation d’un événement majeur.

La rencontre aura donc bien lieu. Le cricket demeure néanmoins soumis à une pression géopolitique constante, structurée par les rivalités internes à l’espace de l’océan Indien, dans lequel l’Inde exerce une hégémonie qui pourrait, durant cette Coupe du monde, être remise en cause… sur le plan sportif uniquement.

The Conversation

Raphaël Le Magoariec a reçu des financements d'IHEDN.

PDF

13.02.2026 à 13:22

Avant d’être protégés, les hérissons ont été longtemps persécutés

Kate Davies, PhD candidate, Nottingham Trent University

Animal familier des jardins, le hérisson n’a pas toujours bénéficié de cette affection. Longtemps accusé de méfaits imaginaires, il a payé au prix fort des croyances qui ont profondément influencé son destin.
Texte intégral (2051 mots)
Accusé de vols, soupçonné d'être l'allié des sorcières, le hérisson a subi bien des persécutions de la part de l'homme. Getty Open Content., CC BY

Pendant des siècles, le hérisson a été tour à tour craint, persécuté, puis idéalisé. Des mythes médiévaux aux campagnes de protection actuelles, son histoire éclaire la manière dont nos récits façonnent notre rapport à la faune sauvage.


Les hérissons font partie de la culture humaine depuis des millénaires. Selon les sociétés, ils ont été tour à tour associés à la fertilité, à la protection et à la guérison, mais aussi à la peur, aux superstitions et à la méfiance.

Aujourd’hui, 17 espèces de hérissons sont présentes en Europe, en Afrique et en Asie. Beaucoup vivent à proximité immédiate des humains, une cohabitation étroite qui a contribué à façonner les récits que l’on raconte à leur sujet.

Bien avant l’apparition de l’écriture, des représentations évoquant le hérisson apparaissaient déjà dans des formes d’art symbolique liées à la fertilité et au renouveau, ce qui suggère que ces animaux comptaient pour les humains depuis bien plus longtemps que ne le révèlent les sources écrites.

Dans l’Égypte ancienne, ils étaient considérés comme des guides et des protecteurs, admirés pour leur capacité à survivre à l’hiver grâce à l’hibernation, un puissant symbole de renaissance. Toutefois, les Égyptiens les chassaient également et utilisaient leurs piquants dans des remèdes populaires, notamment ceux supposés soigner la calvitie.

Les hérissons ont aussi, au fil de l’histoire, endossé des rôles plus inquiétants. Dans certaines régions de Chine, les premiers récits évoquaient des esprits de hérissons capables de se transformer en êtres humains et d’apporter le malheur. Des traditions plus tardives en faisaient à l’opposé des protecteurs sacrés du foyer et des guérisseurs.

Dans « Alice au pays des merveilles
Dans « Alice au pays des merveilles ». British Library archive

L’histoire sombre des hérissons

En Grande-Bretagne, les hérissons ont longtemps souffert d’une image largement négative, jusqu’à une période relativement récente. Au Moyen Âge, ils étaient étroitement associés à la sorcellerie. Une croyance très répandue voulait que les sorcières puissent se transformer en hérissons afin de perpétrer leurs méfaits. On pensait aussi qu’ils se glissaient la nuit dans les champs pour voler le lait directement au pis des vaches.

Selon une autre croyance ancienne, les hérissons transportaient des fruits volés sur leurs piquants. Les illustrations médiévales les représentaient souvent traversant des vergers, des pommes fichées sur le dos, une image qui perdure encore aujourd’hui dans les livres pour enfants et jusque dans les décorations de gâteaux d’anniversaire. Certains mythes anciens subsistent également : des personnes bien intentionnées continuent par exemple de leur proposer du lait, alors même que les hérissons sont intolérants au lactose.

Si certaines de ces histoires subsistent aujourd’hui comme de simples curiosités pittoresques, d’autres ont eu des conséquences bien plus graves. Les hérissons ont ainsi été officiellement classés parmi les « vermines » en vertu du Preservation of Grain Act (loi sur la protection des récoltes céréalières) de 1532, parmi une longue liste d’animaux.

Les paroisses étaient tenues de les tuer, une prime de trois pence étant versée pour chaque hérisson abattu, une somme importante pour l’époque. Les communautés qui n’atteignaient pas les quotas imposés pouvaient même être sanctionnées par des amendes. Les hérissons sont restés inscrits sur ces listes de nuisibles pendant des siècles.

On estime qu’entre 1660 et 1800, sur une période de 140 ans, près de 500 000 hérissons ont été éliminés de cette manière – un total proche de celui que compte aujourd’hui la population britannique actuelle de hérissons. Et les hérissons n’étaient pas les seuls : chats sauvages, loutres ou encore martres des pins (pour ne citer qu’eux) ont eux aussi été persécutés selon les mêmes logiques. Après de forts déclins, ces espèces figurent aujourd’hui parmi les plus strictement protégées par la loi au Royaume-Uni.

Persécution et protection

Bien que cette loi ait fini par être abrogée, la mise à mort des hérissons s’est poursuivie jusqu’au XIXe siècle et au début du XXe, en particulier sur les domaines de chasse. Les archives indiquent que des dizaines de milliers d’individus étaient tués chaque année durant cette période, avant que les chiffres ne commencent à reculer entre les années 1960 et le début des années 1980. Ce recul peut traduire une évolution des mentalités et l’adoption de lois de protection de la faune, mais il est aussi possible qu’il reflète une raréfaction des hérissons.

Un texte illustré du XVᵉ siècle présentant un hérisson et un loup
Un texte illustré du XVᵉ siècle présentant un hérisson et un loup. Getty’s Open Content Program, FAL

Aujourd’hui, au Royaume-Uni du moins, les hérissons bénéficient d’une image très différente. En 2016, ils ont été élus mammifère préféré des Britanniques, devançant largement le renard roux, arrivé en deuxième position. Cet attachement du public a nourri des campagnes de préservation dans les jardins, le développement de structures caritatives dédiées et l’essor d’un réseau croissant de centres de soins, qui prennent en charge des animaux malades ou blessés, souvent avec le soutien de particuliers qui aménagent activement leurs jardins en pensant aux hérissons.

Si les attitudes à l’égard des hérissons se sont nettement améliorées au cours des dernières décennies, cela n’a toutefois pas suffi à enrayer leur déclin. L’espèce a récemment été reclassée comme « quasi menacée » sur la liste rouge de l’Union internationale pour la conservation de la nature. Comprendre notre parcours culturel et l’évolution de notre regard sur les hérissons permet d’éclairer à la fois notre volonté de les protéger et certaines des erreurs que nous continuons à commettre.

Le parcours du hérisson, autrefois perçu comme un nuisible redouté et aujourd’hui érigé en icône des jardins, illustre la puissance des récits humains, capables à la fois de nuire à la faune sauvage et de susciter sa protection. Mais l’affection, à elle seule, ne suffit pas.

Les mythes qui ont jadis servi à justifier sa persécution subsistent encore sous des formes plus atténuées, influençant des comportements bien intentionnés mais parfois préjudiciables. Aujourd’hui, les hérissons ont besoin de protection. Des gestes simples – comme mettre à disposition une coupelle d’eau peu profonde, aménager des jardins favorables aux hérissons, prévoir des issues de secours dans les bassins ou limiter l’usage des pesticides – peuvent contribuer à préserver ce mammifère désormais très apprécié.

The Conversation

Kate Davies ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.02.2026 à 12:41

Aux États-Unis, les vents du « backlash » climatique redoublent d’intensité

Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL

Le président Trump a annoncé l’abrogation de l’Endangerment Finding, texte clé pour la régulation des émissions de gaz à effet de serre aux États-Unis.
Texte intégral (2053 mots)

Le président Trump a annoncé l’abrogation de l’Endangerment Finding, un texte de l’Agence environnementale américaine (EPA) à la base de toutes les régulations fédérales concernant les émissions de gaz à effet de serre (GES) du pays. Après le retrait de l’accord de Paris et des institutions internationales traitant du climat, c’est un renforcement du backlash climatique qui souffle sur les États-Unis.


L’abrogation de l’Endangerment Finding (qu’on peut traduire par « constat de mise en danger »), annoncée depuis la Maison-Blanche, le 12 février 2026, marque un retour en arrière de près de vingt ans.

Ce texte de l’EPA réunit en effet les éléments scientifiques permettant l’application d’une décision de la Cour suprême des États-Unis datant de 2007, qui appelait l’Agence environnementale américaine (EPA) à inclure les six principaux gaz à effet de serre parmi les rejets atmosphériques qu’elle a mission de réguler.

Nouvelle illustration du backlash climatique de l’Amérique trumpienne, cette abrogation promet de multiples contentieux juridiques qui remonteront sans doute jusqu’à la Cour suprême, dont la décision de 2007 n’a pas été abrogée.


À lire aussi : La réélection de Donald Trump : quelles implications pour les politiques climatiques ?


Aux origines du « backlash »

Titre d’un livre de Susan Faludi paru en 1991, l’expression « backlash » a connu son heure de gloire aux États-Unis dans les années 1990. Elle désignait alors toute régression en matière de droits civiques, en particulier ceux des femmes et des minorités.

Le backlash est revenu en force en 2025, avec le démarrage du second mandat de Donald Trump. La guerre contre les droits civiques a repris avec une grande violence pour les migrants. Elle a été étendue à tout ce qui touche le changement climatique, autrement dit aux droits environnementaux, ainsi qu’à la science.

La guerre anti-climat a été déclarée le premier jour de la présidence. Le 20 janvier 2025, parmi les innombrables décrets signés par Donald Trump, figurait celui annonçant le retrait des États-Unis de l’accord de Paris sur le climat et un autre visant la relance des énergies fossiles.

En termes de politique extérieure, la dénonciation de l’accord de Paris a été complétée en janvier 2026 par le retrait des États-Unis de la convention-cadre des Nations unies sur le réchauffement climatique et du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). En se retirant de la convention-cadre, l’Amérique trumpienne s’est affranchie de toute obligation en matière climatique.


À lire aussi : La transition énergétique américaine à l’épreuve de Trump 2.0


Les sciences du climat en ligne de mire

Le retrait du Giec illustre un autre volet du backlash : la guerre déclarée contre les sciences du climat et toutes les institutions qui les hébergent.

Si les universités et les centres indépendants comme le World Resources Institute (WRI) ou le Berkeley Earth ont pu résister, trois grandes administrations fédérales ont été directement affectées : l’administration en charge de l’atmosphère et de l’océan (NOAA), les centres de recherche sur le climat de la NASA et l’agence environnementale (EPA), en charge de l’établissement de l’inventaire des émissions de gaz à effet de serre. Ces trois institutions produisent nombre de données et de modélisations utilisées par les scientifiques du monde entier.

Sur le plan de la politique intérieure, l’abrogation de l’Endangerment Finding ouvre la voie à la suppression de l’ensemble des régulations environnementales touchant le climat, notamment dans les transports et l’énergie. Elle a été préparée par la publication du rapport de juillet 2025 du Département de l’énergie, qui relativisait les impacts du réchauffement climatique, instillant le doute sur ses origines anthropiques et affirmant, dans son résumé pour décideurs, que « des politiques d’atténuation excessivement agressives pourraient s’avérer plus néfastes que bénéfiques ».

La question des preuves scientifiques était déjà au cœur de la décision d’avril 2007 de la Cour suprême des États-Unis, dite Massachusetts v. EPA, qui enjoignait à l’EPA d’intégrer les gaz à effet de serre (GES) parmi les polluants atmosphériques qu’elle avait en charge de réglementer. Ce faisant, la Cour a retourné, par une faible majorité (5 contre 4), la jurisprudence antérieure qui reposait sur les supposées incertitudes scientifiques quant au lien entre les émissions de GES et le changement climatique.

C’est à nouveau en contestant les diagnostics des sciences du climat que l’Amérique trumpienne tente de s’affranchir de toute responsabilité face au changement climatique. Cela ne va pas manquer de multiplier les contentieux judiciaires, qui risquent fort de remonter jusqu’à la Cour suprême, dont la décision de 2007 enjoignant à l’EPA de réguler les émissions de gaz à effet de serre n’a pas été abrogée.

Des conséquences déjà tangibles pour le climat

L’abrogation de l’Endangerment Finding vise à inscrire dans la durée la stratégie trumpienne. Celle-ci est guidée par le rétroviseur, avec la promesse de retrouver un paradis énergétique reposant sur une abondance d’énergie fossile livrée à bas coût à la population.

C’est au nom de cette chimère que les dispositifs de soutien aux énergies renouvelables et à l’électrification des usages ont été démantelés en moins d’un an. Cela a conduit les constructeurs américains à mettre un grand coup de frein sur la voiture électrique. Dans les énergies renouvelables, la filière éolienne a été particulièrement visée, avec le gel ou l’arrêt de la plupart des grands projets offshore déjà engagés, généralement portés par des entreprises européennes.

Simultanément, le secteur des énergies fossiles a été cajolé par la « grande et belle loi budgétaire » qui prévoit, entre autres, la cession de nouvelles concessions pétrolières dans le golfe du Mexique et sur les terres fédérales, des allègements fiscaux sur les forages, le report de la redevance sur le méthane, la réduction des redevances minières pour le charbon, l’extension de son extraction sur les terres fédérales et enfin des crédits d’impôt pour le « charbon métallique » utilisé dans les hauts-fourneaux.

Ce cocktail de mesures a contribué à la remontée, estimée à 2,4 %, des émissions de gaz à effet de serre du pays en 2025. La tendance à la baisse des émissions observée depuis 2005 risque ainsi d’être interrompue.

Le tête-à-queue américain peut-il faire dérailler les scénarios globaux de sortie des énergies fossiles ? En 2025, les États-Unis ont été à l’origine de 13 % des émissions mondiales de carbone fossile. Tout dépendra de la façon dont va réagir le reste du monde.


À lire aussi : « Drill, baby, drill » : face à l'obsession de Trump pour le pétrole, une mobilisation citoyenne verra-t-elle le jour ?


Face au « backlash » : accélération au Sud, hésitations en Europe

Dans le reste du monde, ce n’est pas le backlash, mais l’accélération de la transition énergétique qui prévaut.

La Chine en est devenue l’acteur pivot. Grâce à un investissement sans pareil dans les énergies bas carbone, elle est en train de franchir son pic d’émission à 8 tonnes de CO2 par habitant, quand les États-Unis ont franchi le leur à 21 tonnes, et l’Europe à 11 tonnes. La question clé est désormais celle du rythme de la décrue après le pic.

Devenue le fournisseur dominant des biens d’équipement de la transition énergétique, la Chine a contré la fermeture du marché américain en redirigeant ses ventes vers le Sud global, qui accélère ses investissements dans l’économie bas carbone. L’agressivité trumpiste a même réussi à rapprocher la Chine de l’Inde.

L’accélération de la transition bas carbone est particulièrement forte en Asie. En 2025, l’Inde a stabilisé les émissions de son secteur électrique, grâce à la montée en régime du solaire. La même année, on a vendu, en proportion, plus de véhicules électriques au Viêt-nam ou en Thaïlande que dans l’Union européenne, et le Pakistan s’est couvert de panneaux photovoltaïques.


À lire aussi : La Chine, leader de la décarbonation des économies du Sud


Dans ce contexte, l’Europe s’enferme dans une position défensive face aux États-Unis, subissant les coups les uns après les autres. Les vents du backlash climatique trouvent même des relais au sein de l’Union européenne, où une partie de la classe politique cherche désormais à freiner, voire stopper, la transition bas carbone.

Cette attitude est contreproductive. Le vieux continent importe la grande majorité de son énergie fossile, et pourrait au contraire reconquérir une partie de sa souveraineté économique en accélérant sa transition énergétique. Cela contribuerait également à relever son taux d’investissement, car l’économie bas carbone est plus capitalistique que celle reposant sur l’énergie fossile.

L’Europe devrait, enfin, mobiliser toutes ses ressources scientifiques pour faire face aux attaques lancées contre les sciences du climat. Aux « faits alternatifs » que cherchent à imposer les « ingénieurs du chaos » – du nom de l’essai éponyme paru en 2019 – sur les réseaux sociaux, il est temps d’opposer avec détermination les faits scientifiques.

The Conversation

Christian de Perthuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.02.2026 à 10:09

Comment Bad Bunny a porté l’activisme sur la scène du Super Bowl

Belinda Zakrzewska, Assistant Professor of Marketing, University of Birmingham

Flavia Cardoso, Associate Professor in Business and Economics

Jannsen Santana, Assistant Professor in Marketing, TBS Education

La prestation de Bad Bunny au Super Bowl a déplacé le débat au-delà du divertissement. Elle a proposé une lecture panaméricaine de l’identité, où l’amour, la solidarité et la mémoire collective s’imposent comme réponses à la division.
Texte intégral (1466 mots)

Le show de mi-temps du Super Bowl signé Bad Bunny n’a pas seulement battu des records d’audience. À travers une mise en scène chargée de symboles, le rappeur portoricain a transformé un spectacle grand public en manifeste culturel, articulant mémoire coloniale, identité et activisme.


Après plusieurs jours de controverse – au cours desquels Donald Trump s’était plaint du choix des artistes, avait déclaré qu’il n’assisterait pas à l’événement, et qu’une programmation alternative « 100 % américaine » serait mise en avant –, le rappeur portoricain Bad Bunny est monté sur scène lors du très attendu spectacle de mi-temps du Super Bowl, dimanche 8 février.

Les attentes étaient élevées, comme en témoigne le nombre inédit de téléspectateurs. Le show de Bad Bunny a généré plus de 135,4 millions de vues, surpassant les 133,5 millions de Kendrick Lamar en 2025 et les 133,4 millions de Michael Jackson en 1993.


À lire aussi : Bad Bunny is the latest product of political rage — how pop culture became the front line of American politics


Les médias ont principalement présenté l’événement comme une célébration de la diversité, suscitant en retour une réaction hostile chez les partisans de Donald Trump et certains commentateurs conservateurs. Les critiques visaient Bad Bunny non seulement pour son opposition ouverte à l’administration Trump, mais aussi au motif qu’il ne serait « pas un artiste américain » (comprendre : « états-unien »), malgré le fait que Porto Rico est un territoire des États-Unis. Sa performance a montré comment l’authenticité peut se construire à travers un activisme anticolonial.

Si l’authenticité est souvent vue comme quelque chose de réel, vrai ou sincère, elle repose en réalité sur une qualité relationnelle qui peut être liée au comportement d’une personne de trois façons : par la connexion aux personnes ou aux lieux ; par la conformité aux conventions ou leur remise en cause ; et par la cohérence entre le message et les actions. Lors de la mi-temps du Super Bowl, Bad Bunny a incarné ces trois dimensions.

L’authenticité comme connexion

L’authenticité s’est manifestée notamment par la présence de canne à sucre sur scène, une culture qui a façonné les économies coloniales des Caraïbes. Les plantations appartenaient aux colonisateurs et reposaient sur l’exploitation violente des peuples autochtones et des Africains réduits en esclavage. En mettant la canne à sucre au centre du décor, la performance a rappelé les fondements de la richesse coloniale et a réhabilité un symbole d’oppression en tant que vérité historique plutôt que comme mémoire idéalisée.

La présence de l’icône portoricaine Ricky Martin a renforcé ce sentiment de connexion lorsqu’il a interprété Lo Que Le Pasó A Hawaii, de Bad Bunny. Par ses paroles, la chanson met en garde les Portoricains contre la perte de leur identité culturelle face aux pressions d’assimilation à l’influence états-unienne. La performance de Martin a souligné ce message, en présentant la préservation culturelle comme une forme essentielle de résistance anticoloniale.

Lady Gaga a ajouté une dimension symbolique forte. Sa robe bleu clair renvoyait à la version originale de 1895 du drapeau portoricain, avant que sa teinte ne soit assombrie pour s’aligner sur celle du drapeau des États-Unis. Elle portait un hibiscus rouge – emblème national de fierté et de résistance – ainsi que des fleurs blanches, évoquant ensemble les couleurs du drapeau. Elle incarnait ainsi le respect, la participation et la solidarité plutôt que la séparation ou l’effacement.

L’authenticité comme conformité

Les artistes naviguent souvent entre conformité et transgression, et Bad Bunny a parfaitement maîtrisé cet équilibre. En tant qu’artiste portoricain évoluant dans une industrie qui pousse souvent à abandonner ses origines, il a au contraire créé un espace culturel hybride : un spectacle de mi-temps du Super Bowl en espagnol. Il a ainsi agi au sein du système tout en remettant en cause l’idée que l’anglais doive dominer et que les figures grand public doivent correspondre à un modèle culturel étroit.

L’artiste a également bousculé le récit dominant qui réduit l’« Amérique » aux États-Unis, en reconnaissant l’ensemble du continent américain. Après avoir déclaré « God Bless America », il a énuméré tous les pays du continent, du sud au nord.

En citant les pays, Bad Bunny a inversé la hiérarchie géopolitique traditionnelle. Ce geste évoquait l’œuvre América Invertida de l’artiste uruguayen Joaquín Torres-García et son idée selon laquelle « le Sud est notre Nord », remettant en cause l’idée que la légitimité culturelle ou politique doive venir du « Nord ».

L’authenticité comme cohérence

Enfin, la cohérence s’est manifestée par des clins d’œil à l’activisme de longue date de Bad Bunny. L’explosion d’un lampadaire avant l’interprétation d’El Apagón renvoyait directement à son clip de 2022, qui prend la forme d’un documentaire dénonçant la négligence des infrastructures et la privatisation de l’électricité par des entreprises états-uniennes. Ce moment reliait le divertissement aux réalités coloniales vécues à Porto Rico.

La brève apparition d’El Sapo Concho, mascotte de son dernier album, a ajouté une autre dimension symbolique. Presque disparu en raison des perturbations écologiques liées à l’exploitation coloniale des ressources, ce crapaud portoricain est devenu un symbole de survie face aux dommages structurels. Sa présence dans le show rappelait que l’impact du colonialisme est autant environnemental que culturel.

De la même façon, lorsque Bad Bunny a remis un Grammy à une version plus jeune de lui-même, il renforce son message : « Si je suis ici, c’est parce que j’ai toujours cru en moi. » Dans un contexte où les populations issues de nations colonisées font face à la discrimination et à la marginalisation, beaucoup ont vu la culture des colonisateurs comme un moyen d’ascension sociale. Son geste a ainsi réaffirmé la confiance en soi comme un acte de résistance.

« This is America »

À la fin du spectacle, un panneau lumineux affichait « The only thing more powerful than hate is love » (La seule chose plus puissante que la haine, c’est l’amour). Bad Bunny tenait alors un ballon de football portant l’inscription : « Together, We Are America. » (Ensemble, nous sommes l’Amérique.)

Cette image proposait un idéal panaméricain fondé sur la solidarité plutôt que sur la domination. À travers des symboles de résilience collective, l’artiste présentait ainsi l’authenticité comme une forme d’activisme anticolonial ancrée dans l’amour, la mémoire et la communauté.

Ces choix visuels étaient intentionnels et s’inscrivaient dans des années de prises de position publique, de musique et d’engagement. Chaque élément renforçait un récit cohérent de résistance, démontrant que l’authenticité n’est pas seulement une performance, mais le résultat d’un activisme anticolonial constant.

En imbriquant histoire, symbolismes et convictions personnelles à chaque instant de sa performance, Bad Bunny a démontré que l’art peut devenir un vecteur d’action politique et culturelle, fondé sur l’amour, la tolérance et l’inclusion.

The Conversation

Flavia Cardoso a reçu des financements du gouvernement chilien (Fondecyt) et de la Fondation Luksic.

Belinda Zakrzewska et Jannsen Santana ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

13.02.2026 à 09:23

Inondations : l’aménagement du territoire est-il responsable ?

Luc Aquilina, Professeur en sciences de l’environnement, Université de Rennes 1 - Université de Rennes

Pierre Brigode, Maître de conférences en hydrologie, École normale supérieure de Rennes

Les inondations qui touchent le Sud-Ouest de la France provoquées par la tempête Nils pourraient alimenté à nouveau le débat sur le rôle l’aménagement du territoire dans la survenue de ces événements.
Texte intégral (2282 mots)

Les inondations qui touchent le Sud-Ouest de la France provoquées par la tempête Nils pourraient alimenter à nouveau le débat sur le rôle l’aménagement du territoire dans la survenue de ces événements. Les inondations sont pourtant des phénomènes complexes et le rôle des aménagements reste difficile à estimer.


Depuis plusieurs années, l’Europe est frappée par des inondations majeures aux bilans humains terribles : 243 morts en juillet 2021 en Allemagne, en Belgique, au Luxembourg et aux Pays-Bas, 17 morts en mai 2023 en Italie du Nord, 27 morts en septembre 2024 lors de la tempête Boris en Europe Centrale, de l’Allemagne à la Roumanie, et 237 morts en octobre 2024 dans le sud de Valence. Plus près de nous, les inondations de la Vilaine de ce mois de janvier 2026 et celles de l’année dernière ont ravivé pour les habitants le spectre des inondations du passé.

Ces évènements frappent les esprits et font la une des médias, surtout s’ils se déroulent en Europe. Très vite, des causes liées à l’aménagement du territoire sont invoquées. En Espagne, l’extrême droite a condamné les écologistes qui ont prôné l’arasement des barrages. Vérification faite, il ne s’est agi que de la suppression de « barrières » peu élevées et le lien avec les barrages n’est pas attesté. En Bretagne, à l’inverse, suite à la crue de la Vilaine début 2025 et à l’inondation de plusieurs quartiers de Rennes et de Redon, plusieurs coupables ont été rapidement désignés dans les médias. Le changement climatique d’abord, puis le remembrement des territoires ruraux et le drainage des parcelles agricoles qui ont accompagné la révolution verte des années 1960 et 1970 ont été pointés du doigt.

Les scientifiques de l’eau soulignent le rôle des aménagements passés sur les sécheresses et les tensions autour de la ressource en eau. Pour autant, l’attribution des causes à des événements exceptionnels comme les crues intenses s’avère difficile. Faut-il chercher un seul coupable, ou bien plusieurs ? Changement climatique et modification des usages des sols contribuent à la genèse des inondations, mais leurs implications respectives dans ces évènements varient selon le type d’inondation ainsi qu’au cours du temps.

Il est difficile de déterminer les causes des crues

Isoler la part de responsabilité du changement climatique dans la survenue d’un événement climatique extrême est ce qu’on appelle un processus d’attribution. La science de l’attribution, relativement récente, est nécessaire pour quantifier les impacts du changement climatique dans des processus complexes et variables. Un exemple récent est l’étude menée suite aux pluies torrentielles d’octobre 2024 en Espagne, qui a montré que ce type d’épisode pluvieux présente jusqu’à 15 % de précipitations supplémentaires par rapport à un climat sans réchauffement. En d’autres termes, environ une goutte d’eau sur six tombée lors de cet épisode peut être imputée au changement climatique.

Si l’attribution des pluies est aujourd’hui de mieux en mieux maîtrisée, celle des crues reste moins bien déterminée. On confond souvent l’attribution de la pluie et celle de la crue, alors qu’elles ne sont pas équivalentes. Entre le moment où la pluie tombe et celui où la rivière déborde, il se passe beaucoup de choses au niveau du bassin versant : selon le degré d’humidité et la nature du sol et du sous-sol ou bien la manière dont il a été aménagé, il peut agir comme tampon ou accélérer les flux d’eau. Deux bassins versants différents auront des réponses également différentes pour un même volume de pluie, et un même volume de pluie tombant sur un même bassin versant peut avoir des conséquences très différentes selon le moment de l’année. La survenue d’une crue dépend donc de la combinaison de deux dés : la pluie qui tombe sur le bassin versant et la capacité de ce bassin à l’absorber.

Le changement climatique et les aménagements perturbent l’absorption des sols

Les études d’attribution des pluies montrent avec certitude que le réchauffement climatique — et donc les activités humaines qui en sont la cause — intensifient les pluies fortes et les rendent de plus en plus fréquentes. Si nos futurs étés seront plus secs, les hivers seront eux plus humides, notamment dans le nord de la France. Qu’en est-il du deuxième dé, la capacité d’absorption des bassins versants ? Le changement climatique l’affecte également, en modifiant l’humidité des sols au fil des saisons. Mais cette capacité dépend aussi largement des transformations opérées par certaines activités humaines.

C’est le cas par exemple des barrages, conçus pour stocker l’eau lors des saisons humides et qui ont la capacité de tamponner la puissance des crues. Mais d’autres phénomènes sont impliqués, comme l’urbanisation, qui imperméabilise les sols en remplaçant champs et prairies par du béton et de l’asphalte. Ces surfaces imperméables réduisent fortement l’infiltration et favorisent le ruissellement. Même si l’urbanisation reste marginale à l’échelle des grands bassins versants, elle peut jouer un rôle majeur localement, notamment en zones périurbaines, où les petits cours d’eau sont souvent canalisés ou recouverts.

Les aménagements agricoles comptent également. Le remembrement, qui a fait disparaître des milliers de haies et fossés au profit de grandes parcelles plus facilement exploitables pour des machines agricoles, a profondément modifié la circulation de l’eau. En parallèle, d’autres transformations ont réduit la capacité du paysage à retenir l’eau lors des pluies fortes, comme la pose de drains en profondeur dans les sols agricoles qui vise à évacuer l’excédent d’eau des terres trop humides durant l’hiver. La création de digues et de canaux pour limiter l’expansion des rivières, le creusement des cours d’eau et la rectification de leurs berges les ont recalibrées pour les rendre linéaires. Ces différents aménagements ont des effets importants. Ils modifient le cycle de l’eau continental en accélérant globalement les flux vers la mer. Les niveaux des nappes ont déjà été affectés par ces modifications. Dans les vastes marais du Cotentin, nous avons montré que le niveau moyen des nappes a chuté d’environ un mètre depuis 1950, alors que les aménagements des siècles précédents avaient déjà diminué ces niveaux. Le changement climatique va renforcer cette diminution des niveaux de nappe au moins sur une grande partie du territoire hexagonal.

D’un bassin à l’autre, des effets différents

Ces facteurs jouent différemment selon la surface des bassins versants et leur localisation : l’urbanisation a un effet très fort sur les crues des petits bassins versants côtiers de la Côte d’Azur, qui ont une surface inférieure à 10 km2, mais un effet moindre sur le bassin versant de la Vilaine, qui compte 1 400 km2 à Rennes après la confluence avec l’Ille. À l’inverse, les pratiques agricoles ont un effet plus important sur les crues du bassin de la Vilaine que sur ceux de la Côte d’Azur.

Aujourd’hui, il est difficile de quantifier précisément la part relative de ces facteurs dans l’occurrence des crues observées. En amont des cours d’eau, certaines transformations peuvent ralentir la propagation des crues en augmentant des capacités de stockage locales, par exemple dans les sols, les zones humides ou les plaines inondables, tandis qu’en aval, l’accélération des flux et leur addition tendent à dominer. Chacun des aménagements décrits influence la manière dont un bassin versant absorbe ou accélère l’eau, mais l’addition de leurs effets crée une interaction complexe dont nous ne savons pas précisément faire le bilan.

Lors d’événements exceptionnels comme la crue de Valence, ce sont avant tout les volumes de pluie qui déclenchent la crue et ses conséquences, le changement climatique pouvant intensifier ces précipitations. Les aménagements du territoire influencent de manière secondaire la façon dont l’eau s’écoule et se concentre dans les bassins versants. Il n’en reste pas moins que ces deux effets jouent un rôle de plus en plus important dans les événements de moindre ampleur, dont les impacts sont néanmoins importants et dont l’occurrence a déjà augmenté et va encore s’accentuer dans le futur. Pour deux degrés de réchauffement, l’intensité des crues décennales (d’une ampleur observée en moyenne une fois tous les 10 ans) augmentera potentiellement de 10 à 40 % dans l’Hexagone, et celle des crues centennales (observées en moyenne une fois tous les siècles) de plus de 40 %.

Une vie en catastrophes ?

Ces événements ont provoqué des prises de position politique virulentes. Certains, en particulier à droite de l’échiquier politique, ont remis en question les politiques récentes de restauration de l’état naturel des cours d’eau, de protection des zones humides et de destruction des barrages. Elles ont conduit à des appels à la suppression de l’Office français de la biodiversité lors des manifestations agricoles, proposition reprise par le sénateur Laurent Duplomb devant le Sénat le 24 janvier 2024.

Les aménagements les plus récents, défendus par de nombreuses structures territoriales, visent à redonner au cycle de l’eau, et en particulier aux rivières, des espaces plus larges et à recréer ou protéger des zones humides. Tous ces aménagements conduisent à ralentir les flux et donc luttent contre les inondations, tout en préservant la biodiversité à laquelle notre santé est liée. Les zones humides sont par exemple les meilleurs ennemis des moustiques tigres, en permettant le développement de leurs prédateurs. Bien qu’ils exigent de concéder des terres agricoles aux milieux naturels, ces aménagements nourrissent les nappes qui restent le meilleur réservoir pour le stockage de l’eau des saisons humides.

Remettre en question les politiques de recalibration des cours d’eau, de remembrement et de drainage, tout comme l’imperméabilisation des zones urbaines, est une nécessité imposée par l’adaptation au changement climatique. Il s’agit de limiter ou éviter les tensions entre les besoins des activités humaines et les besoins des écosystèmes qui pourraient en faire les frais. Les inondations catastrophiques ne sont qu’en partie liées aux aménagements et ne peuvent pas justifier à elles seules les politiques de retour à l’état naturel des cours d’eau, qui sont en revanche une réponse aux sécheresses estivales à venir. Pour autant, ces inondations majeures sont là pour nous alerter sur les effets du changement climatique. Les étés vont devenir plus secs et les ressources vont manquer, mais les événements extrêmes vont également se multiplier. Une vie en catastrophes nous attend si nous ne transformons pas nos modes de consommation et de production. Tel est le message porté par les inondations. Sera-t-il mieux entendu que les appels des hydrologues ?

The Conversation

Luc Aquilina est co-titulaire de la chaire Eaux et territoires de la fondation de l’Université de Rennes qui reçoit des fonds d’Eau du Bassin Rennais, Rennes Métropole et du Syndicat Mixte Eau 50.

Pierre Brigode a reçu des financements de l'Université de Rennes, du Centre national de la recherche scientifique et de l'Agence nationale de la recherche.

PDF

12.02.2026 à 16:15

Manger ou ne pas manger d’huîtres ?

François Lévêque, Professeur d’économie, Mines Paris - PSL

Clivantes comme l’actualité, les huîtres ne sont plus réservées aux repas de fête. Et vous, les préférez-vous diploïdes ou triploïdes ?
Texte intégral (2337 mots)

L’huître est clivante : elle séduit les amateurs gourmets et dégoûte ses détracteurs. Mets de fête, longtemps réservées aux mois en « r », les huîtres ont échappé à leur destin depuis que l’humain s’est mêlé de leur génétique. Aliment naturel, ce mollusque est réputé pour être sain, si l’on survit à ce qui pourrait être le plus grand des dangers : ouvrir sa coquille.


Noël est passé, la consommation d’huîtres a chuté. La France se retrouve coupée en deux : les amateurs qui en mangent toute l’année et les mangeurs occasionnels qui rejoignent alors les rangs de celles et ceux qui n’en avalent jamais. La France du littoral contre celle de l’intérieur.

Examinons sérieusement, mais dans la bonne humeur, cette fracture française trop ignorée dans notre monde, pourtant si friand d’oppositions binaires. Quel que soit votre camp, renforcez ou questionnez vos comportements en découvrant les causes de ce fossé séparant les Français.

Deux positions bien tranchées

Traçons tout d’abord le profil des uns et des autres. Si vous ne consommez pas d’huîtres, sachez que vous êtes loin d’être seuls. Un tiers de la population française n’en mange jamais. Vous en avez peut-être goûté un jour mais vous n’aimez pas cela. Ou même pas essayé, rebuté par l’idée d’ingérer un animal ou par conviction religieuse. Souvent, vous craignez aussi que les huîtres ne conviennent pas à toute la famille.

Si vous êtes un consommateur occasionnel, vous en avez mangé à Noël ou au Nouvel An ; éventuellement aussi lors d’autres repas festifs. Vous formez le plus grand bataillon des consommateurs d’huîtres. Vous les achetez au supermarché et vous manquez d’expertise pour les choisir. Vous n’aimez pas trop les ouvrir.


À lire aussi : Huîtres et algues : partenaires pour le meilleur et pour le pire dans un océan en mutation


Enfin, si vous êtes un consommateur régulier, comme 20 % des Français, vous habitez le plus souvent près de la mer et en consommez toute l’année. Vous achetez vos huîtres auprès d’un ostréiculteur ou d’un écailler du marché. Vous savez faire la différence entre les huîtres numéro 2, 3 ou 4, les fines et les spéciales. Vous éprouvez même un certain plaisir et de la fierté à les ouvrir.

De La Fontaine à Maupassant

Trouvez-vous les huîtres délicieuses ? Comme Maupassant qui décrit les huîtres d’un souper dans Bel-Ami (1885) « mignonnes et grasses, semblables à de petites oreilles enfermées en des coquilles et fondant entre le palais et la langue ainsi que les bonbons salés ». Ou bien dégoûtantes, comme ce personnage d’une nouvelle de Tchekhov, un enfant pauvre de Moscou, forcé à manger des huîtres. Il les découvre « hideuses, aux yeux brillants et à la peau visqueuse ».

Il est vrai que ce coquillage se mange vivant. À ma connaissance, c’est le seul animal ainsi ingurgité sous nos latitudes. Piquez de la pointe de votre couteau le bord d’une huître, elle se rétractera à moins qu’elle se soit endormie sous la glace. Âmes sensibles, s’abstenir. Ou manger les huîtres cuites – il y a pléthore de recettes. Renonciation aussi des végétariens, au moins tant que la chair d’huître végétale n’a été inventée, à partir d’algues par exemple.

Dans les enquêtes, l’aspect cru et vivant ainsi que le mauvais goût et l’odeur sont invoqués en premier par les non-consommateurs. À l’inverse, les mangeurs d’huîtres soulignent leurs qualités gustatives et leur parfum iodé.

Naturelle peut-être, mais plus très sauvage

L’huître fait partie des fruits de mer, d’où le côté naturel que les consommateurs lui associent spontanément. Mais, contrairement à la coquille Saint-Jacques ou à la crevette grise, elle a quitté son caractère sauvage. Bel-Ami mangeait des huîtres plates cueillies sur l’estran et les compères qui, chez Boileau et La Fontaine, se disputent une huître qu’avalera finalement un troisième larron l’ont trouvée sur une plage. La découverte d’une huître sur l’estran suggère qu’une exploitation ostréicole n’est sans doute pas loin. Surexploitée au dix-neuvième siècle, l’huître plate sauvage, native de nos côtes, a quasiment disparu.

Si l’huître est un fruit de mer, elle est le produit de l’aquaculture. Une aquaculture que l’on serait néanmoins tenté de qualifier de douce, de quasi-naturelle, puisque l’huître, contrairement au saumon, croît sans aliments industriels ni médicaments vétérinaires.

Tout dépend cependant si l’huître est née en écloserie ou en mer ainsi que de son nombre de chromosomes. Reproduite en mer, elle aura vécu sa vie larvaire au gré des courants et des vagues avant de se fixer aux collecteurs posés par les ostréiculteurs. Aux branchages, pierres, coquilles et tuiles d’autrefois, les naissains sont désormais captés dans des assemblages de coupelles ou de tubes en PVC, plus rarement en plastique biosourcé. Née à terre entre quatre murs, elle aura connu un début de vie en milieu contrôlé, vie qu’elle poursuivra un temps en nurserie dans des bacs alimentés en eau de mer avant de découvrir enfin la vie marine.

France 3 Nouvelle-Aquitaine, 2022.

La vérité est dans les chromosomes

L’essor des écloseries a été favorisé par l’invention de l’huître triploïde, rencontre d’un gamète à 10 chromosomes et d’un autre qui en compte 20. Souvenez-vous de vos cours de biologie ou d’éducation sexuelle : les gamètes n’embarquent qu’une moitié des chromosomes de chacun de leurs parents. L’huître triploïde est donc issue du mariage d’une huître diploïde normale (deux fois 10 chromosomes) et d’une huître tétraploïde (quatre fois 10 chromosomes) fabriquée en laboratoire. Évidemment, cela fait peur et renforce le camp des non-consommateurs. L’huître serait devenue un être transgénique, un OVM (organisme vivant modifié) !

Mais soyons rassurés. On dispose d’un temps de recul suffisamment long pour établir solidement l’absence de contamination des zones de captage naturel des huîtres normales. Manger des huîtres triploïdes n’entraîne pas non plus de risques pour la santé humaine. L’Agence nationale de sécurité sanitaire (Anses) a tranché la question. En outre, l’élevage de l’huître diploïde est majoritaire. Il couvre les trois quarts de la production ostréicole.

Diploïde ou triploïde ?

Il est vrai que l’origine diploïde ou triploïde des huîtres est rarement communiquée aux consommateurs. Il n’y a pas d’obligation légale en la matière. Pas de signes faciles à déceler non plus. En revanche, si vos huîtres consommées l’été ne contiennent pas de laitance, il s’agit à coup sûr de triploïdes. Ces huîtres étant stériles, elles ne produisent pas cette substance blanchâtre visqueuse principalement composée de gamètes. C’est d’ailleurs ce qui explique l’intérêt commercial et économique de la triploïde. Pas de reproduction, pas de laitance qui rebute les consommateurs et cantonne la consommation aux mois de l’année en « r ». L’huître triploïde peut se consommer toute l’année. Par ailleurs, sans dépense d’énergie de l’animal pour se reproduire, le cycle d’élevage peut être ramené à deux ans au lieu de trois.

Quant au goût différent entre les huîtres modifiées et celles non modifiées, la question reste ouverte. La composition chimique présente bien quelques différences objectives. Mais il n’est pas évident d’en saisir les effets sur le plan olfactif et gustatif. Le seul test à l’aveugle dont j’ai connaissance n’est pas convaincant faute d’un protocole scientifique digne de ce nom.

Blessures et intoxications

Pompant plusieurs litres d’eau chaque heure pour se nourrir de plancton, l’huître est tributaire de la qualité de l’eau qu’elle filtre. Microalgues toxiques, virus et bactéries sont ses ennemies mais aussi les nôtres quand nous les dégustons. Un risque d’intoxication entraînant diarrhées, nausées et vomissements est bien réel. La France dispose cependant d’un réseau efficace de surveillance sanitaire et d’alerte pour le réduire à de faibles proportions. Les autorités n’hésitent pas à interdire la commercialisation des huîtres s’il le faut. Ainsi, en décembre 2023, les huîtres du bassin d’Arcachon ont raté les repas de fêtes.

Le vrai danger est plutôt de se blesser en ouvrant les huîtres ! Les Français semblent d’ailleurs ne pas s’y tromper comme le suggèrent leurs réponses aux sondages. Ils sont 87 % à avoir confiance dans la production d’huîtres en France ; les craintes sanitaires sont peu évoquées alors que la très grande majorité des sondés reconnaissent l’existence de ce risque.

Ainsi, la mention de ces craintes vient très loin derrière les images négatives ayant trait au dégoût, que ce soit pour les Français dans leur ensemble ou pour les non-consommateurs. Pour ces derniers, la difficulté à ouvrir les huîtres est citée juste après la crainte de tomber malade comme raison justifiant le choix de ne pas en consommer. Dans une autre enquête portant sur un plus faible échantillon, elle est même placée devant.

L’huître innocentée faute de preuves

Ce faisceau de présomptions n’apporte pas la preuve que l’ouverture des huîtres est bien objectivement le plus grand danger. Il faudrait pouvoir comparer le nombre de personnes intoxiquées à celui d’ouvreurs d’huîtres blessés. Des données manquantes dans les deux cas. En outre, déclarer que les huîtres sont difficiles à ouvrir ne signifie pas forcément que l’on s’est entaillé la peau de la main en tentant l’opération.

L’ouverture des huîtres est en tout cas un frein à leur consommation. Pour la faciliter, de nombreuses méthodes, plus ingénieuses et cocasses les unes que les autres, ont été inventées. Citons le fil à couper l’huître consistant à passer un cordon en inox dans l’huître en la faisant bâiller dans une eau saturée en sel. Refermée, il suffira ensuite à la maison de tirer ce fil pour provoquer l’ouverture. Ou encore le cachet de cire alimentaire fermant un trou percé exprès, laissant plus facilement entrer la pointe du couteau. Ou enfin, l’ouv-huître, un outillage ad-hoc, créé par un ostréiculteur de Pontivy, Michel Lannay. Il a remporté le concours Lépine et a même été couronné au concours mondial des inventeurs. Sa prestation vidéo vaut le détour.

Actu 2024.

Vous n’allez sans doute pas modifier votre habitude alimentaire à l’issue de cette lecture. J’espère qu’elle vous aura seulement rendu plus tolérant à l’égard de ceux qui ne font pas comme vous. Que mangeurs et non-mangeurs d’huîtres puissent partager la même table, les uns dégustant leurs mollusques marins, et les autres une autre entrée qu’ils trouveront délicieuse.

The Conversation

François Lévêque ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.02.2026 à 16:13

Fabriquer de l’oxygène avec le sol lunaire : le futur de l’exploration spatiale  ?

Jack Robinot, Doctorant en sciences de l'ingénieur, Centre national de la recherche scientifique (CNRS)

Alexis Paillet, Chargé de projet vaisseaux spatiaux, Centre national d’études spatiales (CNES)

Stéphane Abanades, Directeur de Recherche, Centre national de la recherche scientifique (CNRS)

Sylvain Rodat, Chimiste, Centre national de la recherche scientifique (CNRS)

Alors que les projets de retour sur la Lune se multiplient, et cette fois-ci pour s’y implanter durablement, comment respirer sur un astre sans atmosphère ?
Texte intégral (3232 mots)
Pour survivre à long terme sur la Lune, la roche qui s’étend à perte de vue à sa surface pourrait bien nous fournir de quoi y respirer. Eugene A. Cernan/NASA

Alors que les projets de retour sur la Lune se multiplient, et cette fois-ci pour s’y implanter durablement, comment respirer sur un astre sans atmosphère ? La réponse se trouve peut-être dans la poussière qui recouvre notre satellite.


Une nouvelle course à la Lune se dessine entre les États-Unis et la Chine. Contrairement à il y a cinquante ans, il n’est plus seulement question d’alunir et de repartir, mais bien d’établir une base qui autorise une présence durable et des séjours prolongés à la surface de notre satellite naturel. L’objectif est désormais de se servir de la Lune comme d’un bac à sable pour tester les technologies qui nous permettront de voyager plus loin, notamment vers Mars.

L’une de ces technologies clés est l’in-situ resource utilization (ISRU), c’est-à-dire l’exploitation des ressources disponibles sur place afin de produire les consommables nécessaires aux activités humaines : oxygène, eau, carburants pour les fusées ou matériaux de construction. En produisant directement sur la Lune ce qui est indispensable à la vie et aux opérations, il sera possible de réduire significativement la masse de cargaison à expédier depuis la Terre, réduisant ainsi les coûts logistiques et financiers de l’exploration spatiale. Plutôt que d’importer ces ressources depuis la Terre, il s’agit d’apprendre à vivre sur la Lune.

Décomposer la poussière lunaire pour en extraire de l’oxygène

À l’aube de ce retour durable de l’être humain sur la Lune, l’ISRU s’impose donc comme un pivot stratégique. L’un des défis majeurs est de produire de l’oxygène à partir du régolithe, la couche de sol qui recouvre la Lune, principalement formée de petits fragments de roches et de poussières. La composition du régolithe est complexe. Celui-ci est essentiellement constitué de plusieurs minéraux (plagioclase, pyroxène, olivine) eux-mêmes constitués d’un mélange d’oxydes métalliques, des composés chimiques qui associent de l’oxygène à un autre élément comme du silicium, du fer ou du calcium.

Environ 40 à 45 % de la masse du régolithe est donc composée d’oxygène, ce qui en fait l’élément le plus abondant à la surface de la Lune. L’oxygène est omniprésent, mais il n’existe pas sous forme gazeuse comme dans l’atmosphère terrestre. Pour libérer l’oxygène, il faut briser les liaisons chimiques qui l’attachent aux autres éléments dans les oxydes du sol lunaire.

Une des méthodes envisagées est la pyrolyse, un type de réaction chimique qui permet de décomposer des matériaux grâce à de hautes températures, afin de produire des composés volatils. Appliquée au régolithe, il est possible de le chauffer jusqu’à ce que les oxydes métalliques se vaporisent et se décomposent en oxygène et en métaux.

Sur la Lune, l’énergie thermique serait fournie grâce à la concentration solaire, un procédé qui consiste à utiliser des miroirs ou des lentilles pour focaliser la lumière du Soleil vers une petite zone. Les rayons se rassemblent alors en un faisceau et convergent en un point focal où l’énergie est fortement concentrée, permettant d’atteindre des températures de plusieurs milliers de degrés. Cette méthode prévoit également d’exploiter le vide lunaire, un environnement qui favorise les réactions libérant du gaz. Cela permettra de diminuer la quantité d’énergie nécessaire à la réaction.

Le four solaire, une méthode efficace et peu coûteuse

La Lune a un environnement particulièrement favorable à la pyrolyse solaire. Dépourvue d’atmosphère, la pression à sa surface est extrêmement faible, de l’ordre de 10⁻15 bar. L’absence d’atmosphère offre un second avantage : le rayonnement solaire ne peut pas être absorbé par celle-ci ni bloqué par des nuages. Cela permet d’obtenir des flux solaires concentrés plus élevés que sur Terre. De plus, certaines zones géographiques à son pôle Sud sont exposées à la lumière du Soleil jusqu’à 90 % du temps. Ainsi, en combinant le vide lunaire avec des systèmes de concentration solaire, on peut concevoir un procédé relativement simple, robuste et potentiellement efficace pour extraire de l’oxygène du régolithe.

De nombreux miroirs constituant la parabole, face à un bâtiment. On peut voir le reflet du paysage inversé à l’intérieur
Le grand four solaire d’Odeillo, l’un des équipements du laboratoire. Cette grande parabole permet de concentrer une grande quantité d’énergie solaire en un même point. H. Zell/Wikimedia, CC BY-SA

Au sein du laboratoire Procédés, matériaux, énergie solaire (Promes-CNRS), spécialisé dans les technologies de concentration solaire, nous travaillons à la validation du concept de base de la pyrolyse qui pourra à l’avenir être déployé sur la Lune. Implanté sur le site du grand four solaire d’Odeillo (Pyrénées-Orientales) en Occitanie, le laboratoire dispose d’infrastructures expérimentales uniques au monde vouées à l’étude des procédés hautes températures. Parmi ces équipements figurent notamment des paraboles de deux mètres de diamètre permettant de concentrer 10 000 fois les rayons solaires sur une tache d’environ 2 cm de diamètre et d’atteindre des températures de plus de 3 000 °C.

Photo du dispositif expérimental
L’expérience de pyrolyse avec une parabole de deux mètres. On peut voir les rayons de lumière formant un cône et, au centre de l’image, le point focal où ils convergent et chauffent. Jack Robinot/CNRS, Fourni par l'auteur

Cette énergie alimente le réacteur de pyrolyse, une enceinte sous vide conçue pour exposer des échantillons de matériaux qui simulent le régolithe lunaire au flux solaire concentré. Les pastilles de simulant sont placées sur un support en cuivre refroidi, tandis qu’une parabole focalise la lumière du Soleil à l’intérieur du réacteur pour assurer leur chauffage. Une pompe à vide maintient une pression d’environ 10 millibars. Une cellule électrochimique permet de déterminer en continu la concentration d’oxygène dans le réacteur.

L’échantillon est ensuite progressivement chauffé et commence à fondre aux alentours de 1 200 °C. Le régolithe atteint par la suite des températures d’environ 2 000 °C. Dans ces conditions, les oxydes présents dans l’échantillon commencent à se vaporiser et se dissocient pour libérer de l’oxygène.

alt
Photo du réacteur de pyrolyse en cours de fonctionnement : les parois du hublot en verre se sont opacifiées en raison de la condensation des espèces chimiques vaporisées. La parabole est visible au-dessus du réacteur. Jack Robinot/CNRS, Fourni par l'auteur

D’autres produits en plus de l’oxygène

Lors des premiers essais, 35 mg d’oxygène ont été extraits à partir d’une pastille de 3,38 g, soit environ 1 % de la masse totale. Cela correspond à 2,5 % de l’oxygène contenu dans le simulant de régolithe. Une fois l’expérience achevée, une bille de verre est obtenue à la place de la pastille de régolithe. La fraction de régolithe qui s’est vaporisée lors de l’expérience se condense sur les parois froides du réacteur sous la forme de composés minéraux. Ces espèces sont collectées afin de les caractériser ensuite et de déterminer leur composition chimique.

Après pyrolyse, la bille de verre formée présente une composition chimique différente de celle du simulant de régolithe initial. Les oxydes volatils, qui se sont échappés lors du processus, y sont moins concentrés, à l’inverse des oxydes non volatils. Les espèces les plus volatiles ont été retrouvées dans les dépôts collectés sur les parois du réacteur, où elles se sont condensées lors de la pyrolyse.

Cette observation suggère qu’il serait aussi possible d’utiliser la pyrolyse comme une méthode pour séparer les oxydes dans le régolithe selon le principe de la distillation. Ces coproduits pourraient être exploités pour la fabrication de structures, d’outils ou de matériaux de construction directement sur la Lune, renforçant ainsi l’autonomie des futures missions lunaires.

Passer de la preuve de concept aux conditions réelles

Ces premiers essais ont permis de déterminer un rendement, mais celui-ci reste faible. Les prochaines étapes de développement viseront à réduire la pression à l’intérieur du réacteur, afin de se rapprocher des conditions lunaires. Une pression réduite devrait permettre de diminuer les températures mises en jeu lors de la pyrolyse, afin de vaporiser intégralement l’échantillon et d’augmenter le rendement.

Par la suite, il sera également pertinent de tester différents types de régolithes, ainsi que les minéraux et oxydes individuels qui les composent, afin de mieux comprendre la chimie des réactions. Le réacteur de pyrolyse se devra de fonctionner en continu afin d’exploiter au mieux le jour lunaire. Le procédé peut encore être optimisé. Un contrôle plus précis de la température permettrait de mieux maîtriser les réactions et d’améliorer leur rendement. Une collecte plus efficace des gaz produits viserait à limiter les pertes d’oxygène. Nous espérons également réduire les pertes thermiques en utilisant un creuset et en l’isolant. Enfin, une meilleure condensation des sous-produits permettrait d’identifier et de valoriser les matériaux formés lors de la pyrolyse en plus de l’oxygène.

L’ensemble du système (réacteur, miroirs et dispositifs de concentration solaire) devra en outre être robuste et fiable, capable de résister aux conditions extrêmes de l’environnement lunaire : poussière abrasive, radiations, fortes variations thermiques… Enfin, l’oxygène généré devra être stocké, purifié pour le séparer d’autres éléments qui peuvent être présents dans le gaz et utilisé. Il faut aussi penser à la logistique d’alimentation du réacteur en régolithe, qu’il s’agisse de son extraction, de son transport ou de son utilisation après traitement.

Trois photos au cours de l’expérience. La pastille de régolithe réagit peu à peu pour fondre en verre. Une flamme bleue apparaît sur la troisième photo
Photos de la pastille de simulant de régolithe pendant la pyrolyse. Après quinze minutes, la pastille commence à fondre en son centre à l’emplacement du point focal. Après trente minutes, un panache bleu de gaz est émis de sa surface, indiquant la vaporisation des oxydes du régolithe. Jack Robinot/CNRS, Fourni par l'auteur

La pyrolyse solaire sous vide est une méthode particulièrement bien adaptée aux conditions lunaires. Elle tire parti du vide naturel de la Lune, demande peu de ressources importées et utilise l’énergie solaire, abondante sur un satellite sans atmosphère. Les tests à Odeillo ont déjà prouvé la faisabilité du concept, mais les rendements doivent encore être améliorés et les défis techniques restent considérables. En produisant localement de l’oxygène et des matériaux, le procédé soutiendrait les futures bases lunaires et réduirait leur dépendance vis-à-vis de la Terre.

The Conversation

Jack Robinot a reçu des financements du CNES et de la région Occitanie.

Sylvain Rodat a reçu des financements de la région Occitanie et un support matériel de l'ESA (Agence spatial européenne) qui a fourni le simulant de régolithe.

Alexis Paillet et Stéphane Abanades ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

12.02.2026 à 16:12

Barbie, figure d’émancipation féminine ?

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans

Barbie a évolué avec son époque, intégrant diversité et inclusion. Mais ces transformations relèvent-elles d’une réelle émancipation ou d’une stratégie de marque ?
Texte intégral (1781 mots)
Une partie de la collection Barbie Fashionistas, qui se veut plus inclusive. Mattel

Longtemps critiquée pour enfermer les fillettes dans des carcans stéréotypés, Barbie s’affirme désormais comme un symbole de l’émancipation féminine. Effectivement, Mattel a entièrement révisé sa stratégie : diversité des origines, des hobbies et professions, représentation des handicaps… Mais Barbie est-elle pour autant devenue un levier d’émancipation ou présente-t-elle un féminisme compatible avec les ambitions commerciales ?


Créée en 1959, Barbie apparaît comme une innovation majeure dans l’univers du jouet. À une époque où les poupées proposées aux fillettes sont essentiellement des bébés à pouponner, Barbie incarne une femme adulte, indépendante, dotée d’une maison, d’une voiture et susceptible d’épouser une pluralité de métiers. Elle ouvre ainsi un espace de projection inédit, permettant aux enfants d’imaginer des trajectoires féminines affranchies du seul horizon domestique. Cette promesse d’autonomie s’accompagne toutefois de critiques. La silhouette de Barbie, aux proportions irréalistes, devient un symbole de la pression exercée sur les corps féminins. Comme l’indique Bazzano dans son ouvrage intitulé la Femme parfaite : histoire de Barbie :

« Si Barbie, au lieu de ses quelque trente centimètres, mesurait un mètre soixante-quinze, ses mensurations poitrine-taille-hanches seraient : 95-53-83. »

Selon l’auteure, il s’agit de proportions peu crédibles avec un buste trop court, une poitrine trop forte, sur une taille trop fine, avec des hanches trop étroites, sur des jambes trop longues se terminant par des pieds trop cambrés. De nombreuses recherches montrent que l’exposition répétée à cet idéal corporel contribue à l’intériorisation de normes de beauté susceptibles d’affecter l’image corporelle dès le plus jeune âge.

L’univers esthétique de la poupée, centré sur la mode, la consommation et une féminité très codifiée, renforce cette critique. Barbie représente une femme indépendante, certes, mais tenue de rester belle, mince et désirable.

Représenter pour rendre possible

Afin de répondre aux transformations sociétales et de mieux coller à la diversité du réel, Mattel a engagé une évolution progressive de la poupée. Comme le signifie Rogers dans son ouvrage intitulé Barbie Culture, bien que Barbie ait des amies racisées depuis les années 1960 et qu’elle ait elle-même été commercialisée en version afro-américaine, asiatique et hispanique, elle demeurait dans l’esprit collectif blonde, blanche et élancée.

L’introduction de la gamme Barbie Fashionistas en 2009 constitue une étape décisive. Mattel élargit la gamme des carnations, de types de cheveux et coiffures, tout en mettant l’accent sur une diversité des styles, hobbies et professions. Il faut attendre 2016 pour que la marque franchisse une étape supplémentaire en introduisant des morphologies alternatives en termes de taille et corpulence engageant ainsi une remise en question plus directe de l’idéal corporel historiquement associé à la poupée.

Barbie incarne également une diversité de carrières, avec un message clair : « You can be anything » (« Tu peux être qui tu veux »). Sur le plan symbolique, cette logique se fonde sur un principe qui postule que tout ce qui est visible devient susceptible d’être pensé. Les jouets jouent un rôle actif dans la socialisation genrée et la formation des aspirations. Évidemment, une poupée astronaute, paléontologue, médecin ou rock-star n’évoque pas les mêmes rêves qu’une poupée confinée au milieu domestique. Ici, l’émancipation se manifeste par le jeu, la redondance et la normalisation de figures féminines qui ont été longtemps mises en marge. Ainsi, Barbie permet aux enfants d’explorer une variété de scénarios professionnels. Pourtant, cette influence sur le réel reste complexe.

L’étude menée par Sherman et Zurbriggen a montré que les fillettes qui jouaient à Barbie, même dans sa version docteur avec blouse blanche, otoscope et stéthoscope, indiquaient qu’elles avaient moins d’options de carrière futures que les garçons. En revanche, celles qui jouaient avec Monsieur Patate signalaient une différence moins importante entre leurs propres carrières futures possibles et celles des garçons, suggérant que la sexualisation de la poupée pèse plus lourd que son uniforme.

Présentée comme célibataire, malgré l’omniprésence de Ken, son éternel prétendant relégué au second plan, Barbie met en scène une indépendance qui passe aussi par ce qu’elle possède. Les objets qui l’entourent participent à la construction d’une image de femme libre et ambitieuse. L’empowerment se transforme alors en promesse individualisée, esthétisée et compatible avec les logiques de consommation de masse, plutôt qu’en un processus collectif de transformation sociale. Par ailleurs, malgré les efforts de diversification, certaines normes persistent. Même lorsqu’elle est scientifique ou pilote d’avion, Barbie reste conforme aux standards de désirabilité dominants. Son évolution demeure ainsi régie par les normes du marché. Il s’agit in fine de provoquer l’acte d’achat.

La représentation du handicap : entre reconnaissance et simplification

Parmi les avancées les plus notables figure la récente représentation du handicap dans l’univers de Barbie. Mattel a en effet déployé des poupées en fauteuil roulant, dotées de prothèses de jambe, touchées par le vitiligo, l’alopécie, la cécité ou bien encore la trisomie 21. Élaborées en partenariat avec des personnes concernées ou spécialistes (professionnels de santé, associations…), ces poupées ont le plus souvent été saluées pour leur aptitude à représenter des vérités longtemps négligées dans le monde du jouet. Elles permettent aux enfants concernés de se reconnaître et aux autres d’intégrer la différence comme une composante ordinaire du monde social. Le jeu devient alors un espace de familiarisation et de déstigmatisation.

La commercialisation, en 2025, d’une Barbie atteinte de diabète de type 1, équipée d’un capteur de glucose et d’une pompe à insuline, marque une étape importante dans la politique inclusive de la marque. Ce lancement ouvre un nouveau chapitre en déplaçant la question de la représentation vers le terrain des handicaps dits « invisibles », longtemps absents de l’univers du jouet. Dans cette mouvance, une Barbie autiste est commercialisée depuis janvier 2026. Ici aussi, la représentation s’opère principalement par l’utilisation d’accessoires. La Barbie est en effet équipée d’un casque antibruit, d’un hand-spinner et d’une tablette de communication. Ces évolutions posent alors la question de la capacité du jouet à offrir un véritable espace d’identification, sans réduire le handicap à une série de signes ou d’objets immédiatement reconnaissables.

Barbie, miroir de nos contradictions

À mesure que l’inclusion devient un argument central du discours de marque, une tension se dessine entre reconnaissance symbolique et logique commerciale, au risque de relever d’une forme d’habillage éthique. Dans cette perspective, l’inclusion est envisagée comme une stratégie de marque, consolidant la crédibilité de Barbie sans remettre en question les hiérarchies esthétiques et commerciales qui structurent son succès.

Barbie cristallise certaines des contradictions contemporaines : la reconnaissance d’une diversité plus visible s’accompagne d’une vigilance face à une stratégie marketing bien maîtrisée. Cette ambivalence a été mise en évidence par le film Barbie (2023) qui oscille entre satire populaire et analyse métaféministe. Le film met en effet en exergue les paradoxes d’un féminisme soutenu par une icône commerciale.

En définitive, Barbie ne génère pas l’empowerment, elle le soutient, le reformule et parfois le simplifie. Elle exprime, dans le langage accessible du jouet, des problématiques complexes. La trajectoire de Barbie illustre que l’émancipation dépend des conditions socio-économiques et culturelles qui peuvent transformer ces représentations en expériences concrètes.

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.02.2026 à 16:12

Élections municipales : quelle place pour les femmes, les minorités et les classes populaires ? Enquête en Seine-Saint-Denis

Violette Arnoulet, Urbaniste et maître de conférences en sociologie à l'université Paris Dauphine - PSL, Université Paris Dauphine – PSL

Claudette Lafaye, Maitresse de conférence en sociologie, Université Paris 8 – Vincennes Saint-Denis

Si les conseils municipaux accueillent plus de femmes et de personnes racisées, celles-ci se heurtent toujours à un « plafond de verre ».
Texte intégral (2351 mots)

Dans certains départements français, dont la Seine-Saint-Denis, les mandats municipaux se sont largement ouverts aux femmes et aux personnes appartenant à une minorité visible. Mais cette évolution masque une reconfiguration du « plafond de verre », entre discriminations, exclusion des classes populaires et limitation à des postes stéréotypés.


À quelques semaines des élections municipales de mars 2026 se repose la question de la faible représentativité du personnel politique français. Dans les conseils municipaux comme à l’Assemblée nationale, la professionnalisation des élu·e·s s’accompagne de la quasi-disparition des classes populaires et du maintien d’assemblées majoritairement blanches et le plus souvent présidées par des hommes. En 2025, 21 % seulement des maires étaient des femmes et 9 % déclaraient une profession d’employé ou d’ouvrier.

Qu’en est-il en Seine-Saint-Denis, département marqué par l’histoire de la « banlieue rouge », la présence des classes populaires et d’une immigration ancienne ? Les listes candidates et les conseils municipaux sont-ils, dans ce département comme ailleurs, de plus en plus éloignés de la population qu’ils représentent ?

Pour nourrir ces réflexions, nous partageons les premiers résultats d’une enquête sur les 40 communes de ce département, menée par une équipe des universités Paris Nanterre, Paris 8 et Paris Dauphine. Cette recherche documente les évolutions des candidats et candidates aux élections municipales et celles des membres des conseils municipaux de 2001 à 2020, au prisme de la classe sociale, du genre et de l’assignation raciale. Elle analyse notamment la place en politique des personnes renvoyées à un statut social inférieur, sur la base de leur origine supposée, de leur apparence ou de leur nom. On désigne ici ces personnes comme « racisées » ou « minorités visibles ».

Une percée des femmes et des minorités racisées dans les conseils municipaux

Depuis les élections municipales de 2001, l’évolution du personnel politique en Seine-Saint-Denis suit les tendances nationales. Si l’implantation du Parti communiste français (PCF) a longtemps favorisé l’élection de conseillers municipaux et de maires ouvriers, la présence des classes populaires dans les assemblées municipales est désormais résiduelle : seuls 11 % des personnes élues en 2020 sont employées ou ouvrières, alors que ces catégories représentent 53 % de la population active du département. Comme dans le reste des communes urbaines, les conseils municipaux de Seine-Saint-Denis sont plus accessibles aux cadres (42 % des personnes élues en 2020, pour 21 % de la population active du département). Ces dynamiques sont encore plus vraies pour le mandat de maire : 25 maires sur 40 sont des cadres en 2020.

Du côté du genre, les lois sur la parité en politique ont renforcé la présence des femmes. En 2020, elles représentaient 48 % des personnes élues du département. Leur part reste néanmoins inférieure à 50 %, signe que les têtes de liste sont, ici comme ailleurs, plus souvent des hommes. Cette féminisation s’accompagne, par ailleurs, d’une forte sélection sociale des femmes élues qui, comme les hommes, sont très souvent des cadres (40 % des élues).

Dans ce contexte, c’est une évolution moins commentée qui a retenu notre attention. Depuis 2001, la présence de personnes appartenant aux minorités visibles se renforce dans les conseils municipaux du département. Les élections de 2008 qui suivent les révoltes urbaines de 2005 marquent un tournant : la part des personnes racisées double sur les listes candidates et augmente fortement dans les conseils municipaux. Elle triple même au sein des bureaux municipaux (composés d’un·e maire et de ses adjoint·es) qui concentrent la réalité du pouvoir communal.

En 2020, les personnes racisées représentent désormais plus du tiers (36,2 %) des membres des conseils municipaux, améliorant ainsi la représentation politique de la population du département.

Comme pour les femmes, cette ouverture bénéficie surtout aux classes moyennes et supérieures : 5 des 7 maires racisés élus en 2020 sont des cadres ou des chefs d’entreprise, et aucun n’est ouvrier ou employé. Néanmoins, beaucoup d’élu·es racisé·es sont des enfants ou des petits enfants d’immigré·es de milieu populaire qui ont connu une ascension sociale. Au sein des conseils municipaux, cette trajectoire les distingue des autres élu·e·s, de même que leur jeunesse (19 % ont moins de 30 ans en 2020).

Figure : La part des personnes racisées parmi les candidat·es aux élections municipales, les élu·es des conseils municipaux et des bureaux municipaux est en progression constante depuis les élections de 2008

Un graphique représentant la part de personnes racisées parmi les candidats et candidates aux élections municipales, dans les conseils municipaux et dans les bureaux municipaux
Évolution de la part des personnes racisées parmi les candidats et candidates aux élections municipales, dans les conseils municipaux (CM) et dans les bureaux municipaux (BM) de Seine-Saint-Denis, entre 2001 et 2020. On voit que ces trois variables augmentent fortement en 2008, puis progressent régulièrement, malgré un léger ralentissement de la croissance de la part des personnes racisées dans les conseils municipaux en 2020. Fourni par l'auteur

Dans les communes de Seine-Saint-Denis, représentation des classes populaires et diversité de genre ou ethnoraciale ne vont ainsi pas de pair. Au contraire, l’entrée de femmes et de personnes racisées dans les conseils municipaux s’accommode du renforcement de la sélection sociale, aboutissant à l’invisibilisation des classes populaires. Peut-on pour autant conclure de cette avancée relative que le racisme et le sexisme auraient disparu en politique ?

Le « plafond de verre » n’a pas disparu, il s’est reconfiguré

Premier constat, les femmes et les personnes racisées continuent à faire face à des obstacles dans l’accès aux responsabilités. C’est pour le mandat de maire que le « plafond de verre » résiste le mieux, en particulier pour les femmes. Dans les 40 communes du département, seules 5 femmes sont élues maires en 2020, sans amélioration vis-à-vis des scrutins précédents.

Pour les personnes racisées, ce plafond de verre, longtemps impénétrable, commence à se fissurer. En 2014, Stains est la première ville de Seine-Saint-Denis à élire un descendant de l’immigration algérienne en la personne d’Azzedine Taïbi. En 2020, c’est le cas de six autres communes, ce qui porte à sept le nombre de maires racisés. Deux femmes racisées accèdent également à cette fonction en cours de mandat en 2016 et 2022, à la faveur de la démission du maire en place. La première n’est pas reconduite aux élections suivantes et la seconde a depuis rétrocédé sa place à son prédécesseur.

Au-delà des limitations imposées à leurs ambitions, les personnes racisées comme les femmes font face à des inégalités dans la répartition des rôles au sein des conseils municipaux, qui tendent à reconduire des stéréotypes genrés ou racialisés. Ainsi, les femmes sont souvent en charge des affaires sociales, de l’enfance ou des familles, et les personnes racisées se voient confier la lutte contre les discriminations ou la jeunesse, surtout en début de carrière.

Cette situation est in fine particulièrement défavorable pour les femmes racisées, largement évincées des délégations clés – finances de la commune, urbanisme et aménagement – généralement confiées aux premiers adjoints ou adjointes du maire. Dans ce contexte, elles sont nombreuses à exprimer en entretien le sentiment d’être considérées comme des « décorations » ou des « cautions féminines ».

Un engagement politique marqué par l’expérience des inégalités

Second constat, les limitations imposées aux ambitions des femmes et des personnes racisées ne sont que l’un des aspects des discriminations rencontrées par ces dernières en politique. Si l’importance du sexisme est désormais connue, le racisme exerce aussi une influence sur les parcours en politique. Il peut nourrir un désir de s’engager comme freiner l’accès à la candidature et favoriser l’usure au cours du mandat.

Les personnes racisées témoignent d’abord souvent du rôle joué par l’expérience des discriminations dans leur politisation et leur désir d’engagement. Certaines ont fait de l’amélioration de la représentation des habitants et habitantes des quartiers populaires un enjeu de campagne, en s’engageant sur des listes citoyennes, portées par des militantes et militants associatifs. On a pu voir ce type de liste dans des villes comme Aubervilliers ou le Blanc-Mesnil, aux élections de 2008, 2014 et 2020.

D’autres, plus nombreuses, ont été renvoyées à leurs origines supposées ou à leur appartenance à une minorité visible au cours de leur mandat, parfois de façon positive. À Gagny, par exemple, l’élection du maire Rolin Cranoly en 2019 a été saluée par la presse antillaise, conduisant cet édile à prendre conscience du caractère symbolique de son parcours. Le plus souvent cependant, ces assignations relèvent du racisme ordinaire, comme en témoigne en entretien une adjointe d’une commune de gauche :

« Ah, c’est subtil, c’est très subtil. Au début, on doute en disant : “C’est pas possible.” On écorche votre nom, puis on vous demande de le répéter ; quand vous dites une phrase, on vous demande de la répéter deux ou trois fois ; on vient vous demander si vous faites le ramadan. »

Enfin, certains sont la cible d’attaques virulentes, comme Azzedine Taïbi, maire de Stains depuis 2014 : des militants d’extrême droite ont cherché à s’introduire dans la mairie après la dénonciation publique par l’édile d’injures racistes et de menaces de mort proférées à son encontre.

À l’approche des élections municipales de mars 2026, des initiatives s’emparent de ces questions. Les militants et militantes de l’Assemblée des quartiers ont obtenu l’ouverture de certaines listes de gauche à des candidatures issues des quartiers populaires. Le collectif Démocratiser la politique défend quant à lui l’institution d’une parité sociale en politique pour remédier à l’exclusion des classes populaires.

Ces enjeux sont particulièrement vifs en Seine-Saint-Denis, où de nombreuses villes verront s’affronter des listes menées par des femmes et des personnes racisées. Alors que pour les classes populaires, le défi est plus que jamais celui de l’accès à la représentation politique locale, les femmes et les personnes racisées sont désormais face à la tâche difficile de politiser l’expérience du plafond de verre et des discriminations, pour transformer le jeu politique local.


Cet article s’appuie sur une recherche conduite par Marie-Hélène Bacqué, Jeanne Demoulin, Claudette Lafaye, Hélène Haztfeld, Violette Arnoulet et Yasmina Dris. Elle a donné lieu à l’écriture d’un livre : Élus des banlieues populaires, « La vie des idées », Presses universitaires de France, 2026.

The Conversation

J'ai travaillé 6 ans pour l'établissement public territorial Plaine Commune de 2014 à 2019 en tant qu'urbaniste. J'étais chargée de mission au sein de la direction de la rénovation urbaine sur les projets de Stains. J'ai ensuite consacré ma thèse (soutenue en 2023) à la commune de Stains.

Claudette Lafaye ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.02.2026 à 16:11

Chine-Inde : le face-à-face des géants

Emmanuel Lincot, Spécialiste de l'histoire politique et culturelle de la Chine contemporaine, Institut catholique de Paris (ICP)

La Chine et l’Inde entretiennent depuis longtemps des relations antagoniques, malgré une histoire et une mémoire communes.
Texte intégral (3347 mots)

Les relations entre la Chine et l’Inde s’inscrivent dans une longue histoire politique et culturelle. Bouddhisme, colonisation occidentale puis décolonisation et héritages de la guerre froide : les deux géants asiatiques partagent un immense passé commun. Dans son ouvrage Chine-Inde. La guerre des mondes, Emmanuel Lincot, sinologue, professeur à l’Institut catholique de Paris et directeur Asie de l’Iris, revient sur les rivalités et les interdépendances sino-indiennes. Extrait.


Prolégomènes

En guise de préambule général à cette étude très générale concernant les relations entre la Chine et l’Inde, il est primordial de restaurer la place occupée par l’imaginaire dans l’histoire culturelle de ces deux pays, car lui seul expliquerait la puissante attirance qui s’est exercée entre eux, à l’origine de leur porosité même. Cette attirance correspond à une épistémè. Elle s’ouvre sur près d’un millénaire, depuis l’introduction du bouddhisme en Chine sous les Han de l’Est (IIe siècle de notre ère), par l’intermédiaire tout d’abord des missionnaires et marchands kouchans, jusqu’aux invasions islamiques ghaznévides et la destruction hautement symbolique de ce lieu d’études bouddhistes que fut Nalanda dans la province du Bihar vers 1200.

Cette longue période est marquée par toute une série d’échanges, dans le domaine de la pensée et de l’esthétique notamment. C’est ce que retient l’historiographie la plus courante, sous la forme de prodigieux inventaires dont on retiendra ceux réalisés à l’initiative du gouvernement indien, fruit d’une collaboration académique sino-indienne remarquable éditée il y a dix ans, et si le bouddhisme dans ces échanges finit par être marginalisé, c’est qu’en Inde même il entrait dans une phase irréversible de déclin par rapport à l’hindouisme tandis que le néoconfucianisme en Chine, sous la dynastie Song, dans ses formes les plus réactionnaires, se muait en une politique de rejet vis-à-vis de cette religion d’origine étrangère.

En apparence tout au moins, car ce bouddhisme première manière qui avait emprunté ses thèses sur la vacuité des choses attribuées au grand penseur Nagarjuna (IIe siècle de notre ère), se voit transformé dans son contact avec la Chine par la puissance d’une toute autre tradition, l’herméneutique tibétaine. Celle-ci, jusqu’au début du XXe siècle, nourrit à la Cour sino-mandchou de Pékin tout un ordonnancement qui allie à la fois le rite au mythe. Ce dernier tient lieu d’explication, de fabulation, de facteur de mobilisation, mais aussi de mode discursif permettant d’élaborer toute une variante de représentations, politiques notamment.

Lorsque Xi Jinping convoque la mémoire bouddhiste de son pays à Xi’an (2015) ou que Narendra Modi lui rendant la pareille s’attache à commémorer la figure de Bodhidharma à Mahabalipuram (2019), chacun souligne des analogies structurelles, sans se préoccuper des différences historiques, ce qui relève bel et bien d’une préoccupation avant tout idéologique. Ce qui vaut pour les périodes anciennes vaut pour les périodes les plus récentes. Ainsi, et pour s’en tenir à un événement de la seconde moitié du XXe siècle important dans l’histoire des relations internationales, Bandung est l’un des grands mythes continuant à nourrir les imaginaires politiques à la fois indien et chinois. Cette conférence qui vit en 1955 New Dehli et Pékin défier l’Occident, au nom des intérêts du Tiers Monde, demeure l’une des grandes références idéologiques que le Sud Global a cœur encore aujourd’hui à cultiver.

C’est que ces deux États ont une histoire commune et douloureuse vis-à-vis de l’Occident. Elle est liée au déploiement des voies de communication et partant, des échanges les plus divers. Échanges suivant le cheminement des convoyages de l’opium à partir de la seconde moitié du XIXe siècle, dans une trajectoire géographiquement parallèle à celle des imprimés, lesquels sont symptomatiques d’une accélération de l’histoire. En définitive, cette accélération de l’histoire n’est pas autre chose qu’une accélération de la médiation. Transnationale, cette histoire voit le jour avec le capitalisme international et la colonisation des espaces indien et chinois que l’Europe marchande convoite. Elle bouleverse les représentations traditionnelles chinoise et indienne du monde. Respectivement marquées par un rapport centre/périphérie que traduisent les spéculations indiennes sur le symbole du mandala ou pour la Chine par un marquage identitaire fort et que personnifie la Grande Muraille, ces représentations volent en éclat lorsqu’au XIXe siècle les Européens s’imposent avec des normes, une supériorité technique et un calendrier que ne maîtrisent ni les Indiens ni les Chinois.

Ce qui change aussi c’est une culture impériale vernaculaire que remettent en cause les Européens. C’est vrai, côté chinois, avec les Guerres de l’Opium ou du côté indien dès la prise de New Dehli (1857) et la délégitimation des dynasties régnantes (Qing et Moghole). Désormais, les décisions pour l’Inde et la Chine se prennent à Londres et à Paris. Les puissances conquérantes morcellent de leur emprise territoriale des régions entières. Encore à ce jour, l’Inde et la Chine n’ont de cesse que de vouloir les réintégrer dans leur propre espace de sécurité ou, à défaut, d’en chasser définitivement toute présence étrangère qui viendrait à s’y exercer.

La reconfiguration des espaces stratégiques n’est pas le seul héritage des transformations liées à l’entrée brutale de l’Inde et de la Chine dans l’ère moderne. L’exemple de l’islam indien, sous la colonisation britannique, et ses ramifications jusqu’en Chine à travers la présence de communautés basées à Hongkong ou celui, beaucoup plus récent, galvanisant les mouvements contestataires de la Milk Tea Alliance depuis les marges des mondes indien et chinois, sont en cela des plus probants.

Mais l’évocation de ces faits ne saurait faire oublier que cette histoire partagée se bâtit sur des omissions sélectives. Si c’est particulièrement vrai pour la Chine eu égard à l’histoire du « siècle de la honte » (bai nian guo chi), autrement dit le XIXe siècle dans son rapport conflictuel aux puissances européennes, cela l’est davantage pour l’épisode traumatisant que représentent les ratées du maoïsme, et que le régime entend faire disparaître d’un trait. Cette amnésie peut être identifiée, également en Inde, comme une source possible de pratiques discriminatoires à l’encontre du passé moghol et musulman en l’espèce ici. Dans les faits, cette discrimination commence très tôt avec une référence forte à l’hindutva. Son terreau idéologique né dans le contexte colonial britannique du début du XXe siècle sera le fil directeur, on le sait, de toute l’extrême droite hindouiste.

Atavisme géographique et héritages de la guerre froide

Cette radicalité n’est évidemment pas la seule que l’on observe. La perception de l’espace stratégique de chacun de ces pays change tout autant. Ainsi, jusqu’au XIXe siècle la menace existentielle pour l’empire chinois se situe dans les régions du Nord et de l’Ouest, régions associées dans les mémoires collectives, au danger du monde barbare. Elles redeviendront prioritaires et stratégiques à l’issue du schisme sino-soviétique, dans les années soixante, alors que Mao Zedong craignait par-dessus tout une invasion par les troupes de Moscou depuis la Mongolie et la Sibérie et ce, après un intermède d’un siècle qui avait été marqué par le dépeçage de l’empire à l’instigation des puissances européenne et japonaise, c’est-à-dire sur son flanc Est.

Comparativement, pour l’Inde et à la suite de l’effondrement de l’URSS en 1991, ce schéma s’inverse. Pour New Dehli, le danger provient en effet beaucoup moins de la mer et du littoral que du grand Nord et de ses régions limitrophes qui l’opposent à la Chine et au Pakistan. La guerre froide aura toutefois laissé de part et d’autre des préjugés et des appréhensions tenances qui échappent à ces considérations géographiques, qu’il s’agisse de la relation établie par Pékin ou New Dehli vis-à-vis de Washington et de Moscou. Pour des raisons historiques, une grande partie de l’armée indienne doute de la fiabilité américaine à son endroit.

Des incartades voire de spectaculaires revirements de la Maison Blanche, elle a été ébranlée par trois fois. La première, lorsque les Américains se sont engagés en 1954 à apporter une assistance militaire au Pakistan, qui, en contrepartie, a participé au système d’alliances occidentales (Organisation du traité de l’Asie du Sud-Est (OTASE), puis pacte de Bagdad). La deuxième, lorsque les Américains ont soutenu les Pakistanais contre les sécessionnistes du Bangladesh en 1971 ; ces derniers bénéficiant en revanche de l’aide des Indiens et de leur partenaire soviétique. La troisième enfin, est liée à la question tibétaine. Depuis 1959, le Dalaï-lama s’est réfugié à Dharamsala dans le Nord de l’Inde et la CIA conduit des commandos tibétains depuis le territoire indien contre des intérêts chinois.

Lorsque Richard Nixon rencontre son homologue Mao Zedong en 1972, Tibétains et Indiens assistent impuissants au lâchage de ces hommes. Malgré les critiques proférées par Pékin contre Washington et Moscou, la Chine, elle, reste à la fois pragmatique et prudente vis-à-vis des États-Unis. D’une part en raison d’une antériorité de liens sino-américains profonds qui remontent à la seconde guerre mondiale alors que Washington soutenait les Chinois dans leur effort de guerre contre les Japonais avec l’envoi notamment des premières escadrilles de volontaires américains commandés par le Général Chenault, les Flying Tigers.

À ce précédent s’ajoute la collaboration discrète dans les années quatre-vingt entre la CIA et les services chinois afin de renseigner les Moudjahidines afghans en lutte contre les Soviétiques. L’idylle sino-américaine est ternie par les massacres des étudiants à Tiananmen en 1989. Washington impose un embargo sur la vente d’armes à Pékin. Il est encore en vigueur aujourd’hui. Dans le même temps, Washington semble donner des signes d’encouragement en faveur de la démocratisation de Taïwan, île avec laquelle les Américains ont signé le très important Taïwan Relations Act. Avec Moscou, l’Inde entretient des relations privilégiées dès son indépendance et la relation militaire au sein de leur partenariat stratégique occupe une place de premier rang.

Depuis l’instauration du régime en 1949, l’État-Parti chinois s’est quant à lui à la fois inspiré de l’URSS défunte ou s’y est référée comme repoussoir. Ainsi, se confondant avec les structures de l’État, le Parti fonctionne sur un mode stalinien. Dans ses choix de développement, y compris dans la volonté de se doter de l’arme nucléaire à partir de 1964, Moscou est le modèle vers lequel les premières générations de communistes et stratèges chinois se tournent. Quitte à devoir renoncer, comme dut s’y plier Mao Zedong, à l’usage de la guérilla au profit d’une modernisation de l’Armée Populaire de Libération et ce, en suivant des modalités plus conventionnelles, c’est-à-dire en optant pour un programme de nucléarisation qu’appelait de ses vœux le Maréchal Peng Dehuai.

Notons que cet usage de la guérilla d’inspiration chinoise a fait bien des émules en Inde même avec le développement d’une mouvance, les Naxalites. Dès les années soixante, elle a recours à une lutte armée de nature asymétrique, et revendique pleinement sa filiation idéologique avec le maoïsme chinois en vue d’instaurer une démocratie directe et défendre les intérêts des paysans. Si cette mouvance s’essouffle aujourd’hui, elle ne constitue pas moins, dans ses modalités profondes, une opposition structurée au modèle de la démocratie représentative et le modèle d’une utopie rurale vivace quoi que malmenée par les bouleversements en Inde liés au développement du capitalisme, la privatisation de l’économie à partir des années quatre-vingt dix et l’explosion des cultures urbaines.

Sur le plan international, que ce soit en Inde ou en Chine, la chute du Mur de Berlin en 1989 puis la chute, trois ans plus tard, de l’URSS est de toutes les mémoires. C’est sur ses cendres (dont la décomposition est à l’origine de l’indépendance de quinze États) qu’Evguenij Primakov, alors ministre des Affaires étrangères de la toute jeune fédération de Russie, devient l’ardent avocat de la multipolarité, en tant qu’alternative à l’hégémonie mondiale exercée par les États-Unis. Ce choix demeure une constante pour Moscou. Cette volonté russe s’est parfois plus clairement exprimée sur la nécessité de constituer un axe « Moscou-Pékin-Delhi ». Véritable serpent de mer, cette idée de « trilatéralisme » n’a pas toujours fait l’unanimité. Ainsi, Pékin a longtemps fait prévaloir le principe de « coexistence pacifique » (heping gongchu, une expression empruntée par Mao Zedong aux Soviétiques) avant d’employer, beaucoup plus tard, celle d’« ascension pacifique » (heping jueqi) sous la présidence (2003-2013) de Hu Jintao, comme doctrine caractérisant ses choix de politique étrangère.

Quelles perspectives ?

Alors que la Chine et l’Inde s’apprêtent en cette fin de XXe siècle à souscrire aux règles de la mondialisation, et à poursuivre le développement de voies alternatives à l’Occident, chacune cherche à consolider sa présence sur ses marges. La Look East Policy pour l’Inde et la volonté pour la Chine de sanctuariser ses intérêts dans le Sud de la mer de Chine en sont la parfaite illustration. Bien que la Russie fasse figure de matrice référentielle à ces velléités de coopération trilatérale, la rivalité systémique qui oppose pour l’heure la Chine à l’Inde augure mal d’une structure pérenne commune aux trois États.

Toutefois, chacun de leurs dirigeants se projette déjà dans une ère post-américaine pour définir leur rôle dans les relations internationales. On en veut pour preuve leur rencontre fortement médiatisée lors du sommet de l’Organisation de Coopération de Shanghai à Tianjin en août 2025. Cette projection leur sera d’autant plus aisée que les axes de leur politique étrangère, sur bien des aspects convergent, et sont même parfois très proches.

Si leur attachement à la défense de leurs intérêts et à leur souveraineté est un premier point commun, leur souhait d’accompagner la mondialisation pour gagner en influence sur la scène internationale en est un autre. Cette idée d’une trilitéralité entre les trois États sera encouragée par Vladimir Poutine et trouvera des échos favorables auprès de Pékin. Tandis que la Chine y verra le moyen de contrer l’unipolarité américaine qu’elle commencera ouvertement à contester, l’Inde se verra chaque année davantage acculée à des choix cornéliens dans le choix de ses priorités de partenariat tout en gardant un avantage, celui d’être ramenée au centre de toutes les attentions. La signature des accords de libre-échange entre l’Inde et l’Union européenne en janvier 2026 confirme cette observation et montre le souhait de l’Inde à privilégier un nouvel équilibre avec ses partenaires européens.

Et pour cause, les faits sont têtus : partageant avec la Chine 3800 kilomètres de frontière commune avec la Chine, New Dehli et Pékin n’ont toujours pas su apaiser leurs litiges frontaliers. Ils s’ajoutent à ceux qui opposent au Cachemire l’Inde au Pakistan, de nouveau entrés en guerre pour une brève période en avril 2025. Pour Pékin, ce foyer de crise constitue avec son prolongement himalayen, « une nouvelle frontière ». Alors que la Chine a réglé la plupart de ses contentieux frontaliers, l’Himalaya est la dernière région de sa périphérie où ses frontières ne sont pas stabilisées. Cette instabilité est liée à une problématique plus profonde, celle que pose l’intégration de deux régions situées sur ses confins. Elles se heurtent aux paradigmes historiques et culturels proprement chinois. Ce sont les provinces du Tibet et du Xinjiang. Elles comptent encore aujourd’hui parmi les régions les plus déshéritées du pays.

Rappelons que chacune est d’autant plus importante, qu’elle ouvre respectivement vers le subcontinent indien et l’Asie centrale. Se comprend d’autant mieux le fait que les questions ouïgoure et tibétaine soient moins traitées par les analystes indiens sous l’angle des droits de l’Homme, comme le font leurs homologues occidentaux, que sécuritaires. Le seul Tibet représente 13 % du territoire chinois. La province est en contact avec l’Inde, le Bhoutan, le Népal, le Myanmar et le Pakistan, sa position en surplomb, ses ressources minières et en eau offrent à Pékin un ascendant considérable par rapport à New Dehli. Le développement du grand Ouest programmé dès la fin des années quatre-vingt-dix par le gouvernement central confère au Tibet une place particulière en tant que province frontalière mais aussi dans les moyens alloués en vue de son essor sur le plan économique. C’est cette région du monde qui verra sans doute de prochaines déflagrations.

The Conversation

Emmanuel Lincot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.02.2026 à 16:10

Croissance rapide de la population en Afrique de l’Ouest : les quatre défis que la région doit relever

Serge Rabier, Chargé de recherche Population et Genre, Agence Française de Développement (AFD)

Mariages précoces, écoles surchargées et insertion professionnelle difficile freinent le potentiel de développement d’une Afrique de l’Ouest dont la population est très jeune.
Texte intégral (2506 mots)

L’Afrique de l’Ouest fait face à une expansion démographique accélérée : près de la moitié de la population est âgée de moins de 20 ans. Les défis – insertion sur le marché du travail, transformations urbaines et, à plus long terme, accroissement sensible du nombre des personnes âgées – que pose ce phénomène sont nombreux. S’ils sont relevés, la jeunesse pourra être un véritable moteur pour le développement de la région.


D’ici à 2050, le continent africain devrait compter plus de 2,4 milliards d’habitants, soit presque un milliard de plus qu’aujourd’hui. Cette dynamique est marquée en Afrique subsaharienne et tout particulièrement en Afrique de l’Ouest et centrale (AOC), dont environ 33 % de la population se situe dans la tranche d’âge 10-24 ans en 2025.

L’expansion démographique s’accompagne de transformations économiques, sociales et territoriales majeures : urbanisation rapide et non planifiée, migrations accrues, profondes inégalités de revenus ou d’accès aux services essentiels comme la santé ou l’éducation… Cette expansion peut représenter, pour l’Afrique de l’Ouest, non pas un handicap mais, au contraire, une opportunité de développement à saisir. Mais pour cela, quatre défis devront être relevés.

Défi nunéro 1 : accompagner la transition démographique

Si la mortalité infantile a diminué, la fécondité reste élevée. Les normes sociales pèsent lourdement et les bilans des politiques de planification familiale sont mitigés.

Le mariage demeure une norme sociale centrale, avec un âge moyen au mariage compris entre 18 et 21 ans. Au Mali, 53 % des femmes sont mariées avant 18 ans. Au Niger et au Burkina Faso, plus de la moitié des jeunes filles sont concernées par les mariages précoces. Cette situation contraste avec celle de l’Afrique australe, où l’âge moyen au mariage est d’environ 31 ans. En Afrique de l’Ouest, les normes encadrant le mariage et la stigmatisation des grossesses hors mariage freinent l’autonomie des filles et leur maintien dans le système éducatif. L’assignation pour les femmes mariées à avoir un nombre d’enfants élevé et de prendre en charge les besoins domestique du ménage reste encore largement prédominante. Un grand nombre de jeunes filles quittent le système éducatif dès le secondaire et ne terminent pas le cycle allant jusqu’au baccaluréat.

Les interventions en planification familiale mises en place par les États visent à étendre la couverture contraceptive et à changer les normes reproductives. Mais la baisse de la fécondité reste lente. Les normes culturelles et sociales ainsi que les contraintes financières et logistiques limitent la demande et l’accès à la contraception. Selon l’institut Guttmacher, 23 % des femmes âgées de 15 à 29 ans en Afrique subsaharienne présentent un besoin non satisfait de contraception. Du côté de l’offre, les systèmes publics de santé, souvent sous-financés et peu développés, accordent une place limitée à la distribution de contraceptifs modernes.

Des différences existent cependant entre milieu urbain et milieu rural. Les femmes urbaines – notamment dans les grandes agglomérations – et disposant d’un niveau d’instruction plus élevé présentent généralement des taux de fécondité plus faibles. Entre 2010 et 2019, les femmes ont eu en moyenne 2,7 enfants à Dakar et 3,4 à Abidjan, contre 5,9 en milieu rural au Sénégal comme en Côte d’Ivoire.

L’éducation des filles apparaît comme un autre levier majeur de réduction de la fécondité. Déjà en 2013, l’Unesco soulignait qu’en Afrique de l’Ouest, les femmes pas ou peu éduquées avaient en moyenne 6,7 enfants. Celles ayant achevé le cycle primaire en avaient environ 5,8 et celles ayant suivi des études secondaires 3,9. Une année supplémentaire dans le cycle secondaire pouvait représenter 2 à 3 enfants de moins par femme. Mais le système éducatif connaît de nombreuses difficultés, que ce soit sur le plan de l’offre ou sur celui de la demande en Afrique de l’Ouest :

Sur le plan de l’offre, les systèmes éducatifs souffrent d’infrastructures insuffisantes, de classes surchargées, de programmes mal alignés avec les réalités économiques locales et d’une pénurie criante d’enseignants qualifiés. Les conflits, les crises sociales et l’instabilité politique perturbent aussi les calendriers scolaires et limitent l’accès à l’éducation dans certaines régions.

Du côté de la demande, l’accès à l’éducation est fortement limité par la pauvreté et les coûts directs et indirects de la scolarisation. De nombreux ménages privilégient des stratégies de survie à court terme, comme le travail des enfants, au détriment de l’investissement éducatif. Ces contraintes, combinées aux normes sociales défavorables, aux conflits et à l’insécurité, expliquent les forts taux d’abandon scolaire, en particulier en milieu rural et chez les filles.


À lire aussi : Au Bénin, ces enfants qui quittent l’école pour apprendre un métier


Défi numéro 2 : favoriser l’insertion professionnelle de la jeunesse

La jeunesse africaine, toujours plus nombreuse, est confrontée aux défis du développement. Les jeunes entrants (15-24 ans) sur le marché du travail entre 2025 et 2040 seront par exemple de 93 millions pour le Nigeria et de 13 millions pour la Côte d’Ivoire. La part de la population en âge de travailler augmente progressivement, ce qui exacerbe le besoin de création d’emplois décents.

Les marchés du travail peinent à absorber cette nouvelle main-d’œuvre : derrière le taux de chômage officiel des jeunes, qui est de 8,7 % (2019), se cache un sous-emploi estimé à 35 %. L’économie reste dominée par l’informalité économique, souvent synonyme de précarité et de salaires insuffisants pour sortir de la pauvreté.

Le secteur formel stagne face à un climat des affaires défavorable et une absence de diversification industrielle.

Trois types d’interventions stratégiques pourraient dynamiser l’insertion économique des jeunes en Afrique de l’Ouest face à l’urgence démographique régionale : la formation technique et l’apprentissage, de façon à renforcer les compétences locales pour anticiper les emplois du futur tout en « collant » aux exigences du marché du travail ; la modernisation agricole, pour transformer le secteur rural en un moteur d’emploi stable grâce à des modèles combinés de l’agro-écologie et de l’agro-industrie, encore très polarisées ; enfin, la révolution numérique et le soutien aux start-up pour favoriser l’innovation technologique chez les nouveaux diplômés.

Défi numéro 3 : gérer l’urbanisation et les migrations

L’expansion démographique s’accompagne d’une urbanisation rapide et de mobilités accrues au sein de la sous-région. Entre 2020 et 2050, la population urbaine devrait passer de 54 à 130 millions d’habitants (+140 %) tandis que le nombre d’agglomérations – une agglomération étant entendue comme une zone où la population est de 10 000 habitants ou plus, et où les bâtiments sont espacés de moins de 200 mètres les uns des autres – augmentera de 900 à 1 700.

Urbanisation en Afrique en 1980. Africapolis
Urbanisation en Afrique en 2020. Africapolis

Cette expansion urbaine rapide fait du foncier un enjeu central, tant pour le logement que pour les infrastructures (transports, assainissement), les services publics et la gestion des déchets. L’enjeu majeur réside moins dans le nombre d’habitants que dans leur localisation et le caractère souvent informel de leurs activités. La gestion des villes, en pleine expansion, supposera un encadrement plus strict du foncier et une planification de long terme des investissements publics.

Par ailleurs, les mobilités sous-régionales sont importantes : si 19 millions d’Africains vivent hors du continent, plus de 21 millions résidaient en 2024 dans un autre pays africain. En Afrique de l’Ouest, deux pays concentraient à eux seuls 51 % des migrants internationaux en 2020 : la Côte d’Ivoire (34 %) et le Nigeria (17 %). Et si la Communauté économique des États de l’Afrique de l’Ouest (Cédéao) demeure un espace majeur de mobilités économiques et de travail, les dynamiques migratoires sont de plus en plus façonnées par les enjeux sécuritaires et climatiques. Selon la Banque mondiale, plus de 32 millions de personnes pourraient être déplacées à l’intérieur de leurs pays d’ici 2050 en Afrique de l’Ouest, du fait de la pénurie d’eau, du recul de la productivité agricole et de l’élévation du niveau de la mer.

Ces facteurs s’ajoutent aux conflits armés, aux crises sécuritaires et aux violences politiques.

Défi numéro 4 : anticiper le vieillissement encore marginal, mais qui pourrait s’intensifier

Si l’Afrique de l’Ouest reste jeune, elle devra affronter le vieillissement de sa population. D’ici à 2050, les plus de 60 ans devraient représenter environ 8 % de la population.

Le principal défi reste l’extension de la couverture sociale. Aujourd’hui, elle est la plus faible au monde, 20 % de la population étant couverte. Cette situation s’explique par le poids de l’économie informelle, surtout en milieu rural, qui limite les systèmes contributifs.

L’évolution des systèmes de protection sociale, santé et retraite dépend du recouvrement fiscal et du développement du salariat formel, encore absent en Afrique, et freinant la soutenabilité future des politiques publiques.

La vitalité démographique exceptionnelle de l’Afrique de l’Ouest pourrait devenir une force motrice du développement. Mais la difficile émergence de politiques publiques (santé, éducation, genre, climat) fragilise son potentiel et alimente les tensions. Sans la mise en œuvre ou le renforcement de ces politiques publiques, l’Afrique de l’Ouest pourra-t-elle parvenir à tirer pleinement parti de sa croissance démographique ?

The Conversation

Serge Rabier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.02.2026 à 16:10

Des « miasmes » et « germes » du XIXᵉ siècle au Covid-19, ces controverses historiques sur le mode de transmission des épidémies

David Simard, Docteur en philosophie, Université Paris-Est Créteil Val de Marne (UPEC)

Lors de la pandémie de Covid-19, l’Organisation mondiale de la santé avait d’abord minoré la transmission par voie aérienne. Une mise en perspective historique éclaire cette position initiale.
Texte intégral (2341 mots)

Une mise en perspective historique éclaire la position initiale prise par l’Organisation mondiale de la santé lors du déclenchement de la pandémie de Covid-19. L’agence de l’ONU avait d’abord minoré la transmission par voie aérienne, mode de propagation majoritaire du SARS-CoV-2.


Quelques semaines après l’apparition de la pandémie de Covid-19, début 2020, une controverse majeure avait émergé concernant les modes de transmission du virus SARS-CoV-2. Le virus se transmet-il principalement par contact rapproché entre individus et par l’intermédiaire d’objets et surfaces (fomites), ou bien par voie aérienne sur de plus longues distances ?

L’Organisation mondiale de la santé (OMS) avait d’abord rejeté l’idée de la transmission aérienne. Puis, elle avait progressivement modifié sa position, reconnaissant finalement cette voie comme la principale forme de propagation du coronavirus.

Cette controverse ainsi que l’évolution de la position de l’OMS s’inscrivent dans un contexte historique plus large, marqué par des débats séculaires sur la nature des épidémies.

Au début du Covid-19 : prédominance du modèle de la transmission par contact

En février 2020, après quelques hésitations en interne, l’OMS a statué officiellement sur les voies de transmission du SARS-CoV-2. Selon elle, le virus se transmet alors directement par les grosses gouttelettes émises par une personne infectée qui tousse ou éternue, et qui sont respirées par une autre personne se trouvant à proximité. Il se transmet également indirectement par l’intermédiaire d’objets ou surfaces contaminées par les gouttelettes émises par les personnes infectées. Ces voies de transmission caractérisent le modèle dit de contact (médiat ou immédiat).

Toutefois, exception faite de certaines procédures en milieu de soins générant des aérosols (intubation endo-trachéale, bronchoscopie…), la voie aérienne n’est pas retenue comme un facteur majeur de transmission. Fin mars 2020, l’agence de l’ONU rejette même catégoriquement cette dernière possibilité, à travers une communication sur les réseaux sociaux.

Une controverse immédiate sur la transmission et les mesures sanitaires

Déclinée par la plupart des autorités politiques et sanitaires à travers le monde (l’U.S. Center for disease control and prevention ou CDC aux États-Unis, l’European Centre for Disease Prevention and Control ou ECDC en Europe…), la minimisation de la transmission dite « aéroportée » (airborne en anglais) a rapidement donné lieu à controverse au sein de la communauté scientifique. En particulier, de nombreuses et nombreux scientifiques et ingénieur·es du domaine de la dynamique des fluides et des aérosols ont mis en avant la transmission aéroportée du Covid-19, mais aussi d’autres infections respiratoires, privilégiant ainsi le modèle dit de l’air.

Ce débat se traduit en pratique par la promotion de mesures sanitaires différentes :

  • pour le modèle du contact, la distanciation sociale (se tenir à un ou deux mètres les uns des autres), la désinfection des surfaces et le lavage des mains, ainsi que le port d’un masque anti-projections de type chirurgical, en particulier par les personnes infectées, lorsque la distance entre les personnes ne peut être respectée ;

  • pour le modèle aérien, le port d’un masque de protection respiratoire individuelle de type FFP2 par les personnes infectées ou non, particulièrement dans des lieux clos, et la désinfection de l’air dans ces mêmes lieux, par l’aération et/ou la ventilation filtrée.

Les mesures soutenues par le modèle du contact se fondent sur la théorie selon laquelle les contaminations s’opèrent essentiellement par l’intermédiaire des grosses gouttelettes émises par les personnes infectées. Ces gouttelettes sont porteuses de particules pathogènes, dont la trajectoire est semi-balistique : leur poids les fait tomber rapidement sur le sol à proximité du lieu de leur émission. Pour être contaminé, il faut alors se trouver physiquement proche de la personne infectée, ou toucher des surfaces ou objets (poignée de porte, stylo, téléphone…) où se sont déposées des gouttelettes, et porter ensuite ses mains au visage.

En revanche, les mesures soutenues par le modèle de l’air reposent sur la théorie d’une transmission des particules infectieuses par l’intermédiaire de gouttelettes beaucoup plus fines et légères, appelées microgouttelettes, dont la trajectoire est dynamique, c’est-à-dire répondant aux lois de la mécanique des fluides : elles peuvent être transportées par les mouvements de l’air à plusieurs mètres de leur lieu d’émission (on parle alors d’aérosols).

L’enjeu de santé publique est d’importance : si la théorie de l’aéroportage est correcte, les mesures promues par le modèle du contact sont inadaptées et donc inefficaces. De plus, si un confinement drastique, comme ce fut le cas en 2020, interrompt les transmissions interfoyers, l’absence de prise en compte de l’aéroportage contribue aux contaminations au sein des foyers par les personnes infectées avant la mise en œuvre du confinement.

Un héritage historique

La position initiale de l’OMS en faveur du modèle du contact s’est inscrite dans la suite de la prédominance depuis plus d’un siècle de ce modèle à propos des infections respiratoires. Autour des années 1910, le médecin de santé publique américain Charles Chapin a soutenu le modèle du contact entre les corps individuels pour la plupart des maladies infectieuses, y compris respiratoires, en insistant en outre sur le rôle prépondérant des porteurs asymptomatiques dans les dynamiques épidémiques. Il a tenu pour négligeables les transmissions par fomites (par des objets et surfaces) et par l’air.

Charles Chapin a exercé une très grande influence sur la santé publique du XXᵉ siècle au niveau international, et on considère qu’il a inauguré « une troisième phase révolutionnaire du mouvement moderne de santé publique », après l’assainissement urbain (nettoyage des rues, réseaux d’égouts…) et la lutte contre les maladies infectieuses à partir de la théorie microbienne (isolement des malades, vaccination…).

Mais Chapin a élaboré sa conception sur les modes d’infection selon deux biais majeurs :

  1. il l’a avant tout fondée à partir des infections sexuellement transmissibles et des maladies de l’appareil digestif, en insistant pour ces dernières sur la transmission directe (poignées de main) ou indirecte (alimentation) de matière fécale par les mains non lavées ;

  2. ses considérations sur le rôle des gouttelettes dans les infections respiratoires reposaient uniquement sur des expériences réalisées avec des bactéries, alors que, si l’existence de microbes plus petits que celles-ci était soupçonnée, aucun virus au sens restrictif du terme n’avait été observé. Certaines maladies virales, telles que la grippe, étaient d’ailleurs faussement considérées comme bactériennes.

Comme pour les infections digestives, Chapin a mis en exergue la transmission par les mains pour les infections respiratoires, celles-ci étant souvent portées à la bouche et au nez, et touchant de nombreux objets. Sur le plan épidémiologique, il considérait que le manuportage des microbes contenus dans les sécrétions nasales et buccales suffisait à rendre compte des épidémies respiratoires, y compris de tuberculose pulmonaire, sans faire appel à d’autres mécanismes.

En particulier, il a rejeté la théorie des microgouttelettes élaborée à la fin du XIXᵉ siècle par l’hygiéniste et bactériologiste allemand Carl Flügge, collègue de Robert Koch : sans contester l’émission de telles gouttelettes, il considérait qu’elles étaient très peu porteuses de microbes, contrairement aux plus grosses gouttelettes.

Pourtant, avec l’émergence de la bactériologie dans la seconde moitié du XIXᵉ siècle, la théorie de la transmission des microorganismes infectieux, alors appelés « germes », incluait la voie aérienne, notamment pour la tuberculose pulmonaire (alors appelée « phtisie »). Non seulement Flügge, mais également Koch, Pasteur, etc., soutenaient l’idée de l’air transportant des microbes. Comment, alors, expliquer un tel revirement au début du XXᵉ siècle ?

Un air inquiétant de théorie des miasmes

Si la seconde moitié du XIXe siècle a établi que les maladies infectieuses ont pour cause biologique des microorganismes qui se reproduisent, deux grandes théories étaient auparavant en concurrence : la théorie des germes se transmettant de personne à personne, et la théorie des miasmes se transmettant par l’air. Cette dernière trouve ses racines dès l’Antiquité dans la médecine hippocratique, tandis que la première a surtout commencé à être développée à la fin de la Renaissance par le médecin et philosophe italien Jérôme Fracastor.

Mais en l’absence d’identification des microorganismes, la théorie des germes contagieux n’était pas moins spéculative que la théorie des miasmes supposés émaner, par phénomène de génération spontanée, de la matière en putréfaction et des marécages viciant l’air.

Pour autant, dès Fracastor, l’idée d’une transmission de personne à personne n’excluait pas l’air comme vecteur. Mais, pour Chapin et d’autres, cette idée évoquait trop la théorie des miasmes, tombée en désuétude. De plus, elle était généralement considérée comme plus inquiétante et susceptible d’effrayer les populations, en rendant invisible la voie de transmission par des microgouttelettes plutôt que par de grosses gouttelettes visibles (crachats, postillons…).

Enfin, persistait l’idée issue de la théorie des miasmes selon laquelle, si les maladies sont transmises par l’air, alors la médecine se trouve dans une forme d’impuissance pour les combattre sur le plan prophylactique, ou doit recourir à des mesures considérées comme beaucoup trop contraignantes et complexes.

Malgré l’appropriation de la transmission aérienne par la théorie microbienne dans la seconde moitié du XIXᵉ siècle, sa proximité avec la théorie des miasmes a ainsi favorisé le modèle de la transmission par contact, plus rassurant en ce qu’il écarte le risque volatil.

Épilogue : en 2024, le modèle de transmission du SARS-CoV-2 révisé

Mais tout au long du XXᵉ siècle, et ce dès les recherches sur le virus de la grippe dans les années 1930, des recherches expérimentales ont été menées sur la transmission des infections respiratoires virales par l’air.

Celles publiées sur le Covid-19 ont conduit l’OMS à infléchir sa position, jusqu’à publier en 2024 deux documents qui proposent une révision du modèle de compréhension de la transmission du SARS-CoV-2 en particulier et des maladies respiratoires transmissibles en général. Ils mettent en exergue la transmission aéroportée en milieu intérieur et proposent un nouveau modèle de gestion du risque, en précisant la terminologie afférente en conséquence (aéroporté, transmission aéroportée, transmission par aérosols…). Reste à savoir dans quelle mesure l’héritage historique, profondément ancré dans les pratiques médicales et paramédicales, pourra être dépassé.

Alors que les infections respiratoires sont récurrentes, que le Covid-19 sévit plusieurs fois par an, et que de nouvelles pandémies respiratoires sont probables, l’enjeu de santé publique s’avère fondamental.

The Conversation

David Simard est membre du Comité d’Orientation et de Dialogue de Santé Publique France, ainsi que du Collège des Humanités Médicales.

PDF

12.02.2026 à 12:45

Saint-Valentin : ce que nos histoires d’amour révèlent de nos habitudes

Julia Milner, Professeure de leadership, EDHEC Business School

Les relations amoureuses sont révélatrices des manières d’être. En les décryptant, découvrez comment changer vos routines, en abandonner certaines et en adopter de nouvelles.
Texte intégral (1074 mots)

L’amour n’est évidemment pas une habitude comme les autres. Reste que pour comprendre l’amour, comme pour comprendre comment certaines habitudes s’installent et se modifient, un parallèle entre les deux peut être éclairant. De la rencontre à la rupture, analyse entre quatre temps des points communs.


Nos histoires d’amour peuvent nous en apprendre beaucoup sur nous, nos manières de faire, nos habitudes et toutes nos autres routines.

Je ne parle pas ici de la passion que vous pouvez éprouver pour certaines de vos habitudes. Bien sûr, le lien affectif que vous développerez avec quelques-unes de vos routines pourra vous aider à en adopter certaines, en changer d’autres voire à abandonner les plus néfastes. Car aimer quelque chose est un bon début pour trouver en vous les ressources pour vous adapter…

Je parle ici de quatre enseignements tirés des histoires d’amour, qui peuvent transformer vos habitudes en une love story. À partir de mes recherches récentes, plongeons ensemble dans le monde de la romance…

La rencontre ou les « schémas » plutôt que le potentiel

Nous nous souvenons tous probablement de la phase qui suit la première rencontre avec une personne. Parfois, nous pouvons rapidement nous dire : « Il ou elle n’est pas pour moi. » Le plus souvent, cependant, lorsque nous commençons à fréquenter quelqu’un, nous voyons d’abord son potentiel. L’autre personne se montre sous son meilleur jour, peut-être en affichant un profil en ligne avec de nombreuses qualités, en affirmant qu’elle est organisée et fiable, etc.

Pourtant, lorsque vous vous rencontrez, elle a vingt minutes de retard et vous fait attendre. Vous vous êtes peut-être dit : « Ah, je suis sûr qu’elle sera à la hauteur de son potentiel… un jour. » Il semblerait pourtant judicieux de se concentrer plutôt sur ses schémas, son quotidien. Que vous montre-t-elle en ce sens ?


À lire aussi : Au Moyen Âge, l’état amoureux était parfois synonyme de maladie


Il en va de même pour nos habitudes. Vous pouvez vous offrir un abonnement coûteux à une salle de sport, car cela présente un grand potentiel pour votre bien-être. Cependant, au quotidien, des urgences peuvent se présenter, des choses inattendues, et vous êtes alors susceptible de mettre la salle de sport au second plan. Adopter un programme d’entraînement à domicile pourrait donc être une meilleure solution, car cela vous permettrait de faire face aux imprévus quotidiens, tels qu’un enfant malade, un projet professionnel qui prend plus de temps qu’imaginé, etc.

Les premiers temps : s’investir sans se sacrifier

Vous vous êtes engagé dans une relation, et nous sommes nombreux à faire des sacrifices pour que cela fonctionne dès le départ. Pourtant, selon certaines recherches sur les relations, trop de sacrifices ne sont pas une bonne chose. Tout d’abord, la plupart des partenaires ne sont même pas conscients que l’autre fait des sacrifices et, deuxièmement, même s’ils le remarquent, ils peuvent avoir des sentiments mitigés à ce sujet, comme la culpabilité. En d’autres termes, dans les relations, les efforts et l’investissement sont une bonne chose, mais des sacrifices trop élevés ont souvent l’effet inverse à celui recherché.

Adoptez la même approche pour vos habitudes. Investissez-vous dans tel ou tel projet professionnel, travaillez dur, mais ne faites pas des nocturnes quotidiennes, au détriment de votre santé et d’autres aspects de votre vie. Vos collègues, votre hiérarchie ou encore vos clients n’auraient sans doute pas conscience de ces sacrifices. L’équilibre est essentiel.

La phase intermédiaire : un peu de piment ne nuit pas

Pour que la relation reste passionnante, savoir la pimenter peut apporter de réels bénéfices. Il ne s’agit pas ici de disputes violentes, mais simplement de maintenir l’intérêt et de changer certaines approches, d’essayer un nouveau restaurant, de se lancer dans un nouveau passe-temps…

En ce qui concerne vos habitudes, il est bon d’être constant, mais, là aussi, de nouvelles aventures peuvent être bénéfiques. Comment pouvez-vous changer votre routine ? Peut-être devriez-vous trouver un partenaire d’entraînement ou emprunter un autre chemin pour aller au travail…

La rupture : le moment du bon lâcher-prise

Parfois, malgré tout l’investissement et les tentatives de pimenter la relation, cela ne marche pas. Bonne nouvelle : ce n’est pas grave ! Cela signifie peut-être simplement que vous n’étiez pas compatibles, que vous n’aviez pas les mêmes valeurs, et qu’il vaut mieux lâcher prise plutôt que de s’acharner.

Les Rita Mitsouko, YouTube.

Soyez également honnête avec vous-même en ce qui concerne vos habitudes. Certaines habitudes ont peut-être fonctionné dans le passé, mais vous les avez dépassées. Il est maintenant temps de faire de la place pour quelque chose de nouveau, sans mauvaise conscience.

En cette Saint-Valentin, veillez à investir dans la relation la plus importante et la plus longue que vous aurez jamais. Celle que vous entretenez avec vous-même. Les habitudes font partie des fondements de cette relation. Nos habitudes quotidiennes façonnent notre mode de vie, alors veillez à faire des choix judicieux, à bien investir et à savoir quand commencer quelque chose de nouveau. Et joyeuse Saint-Valentin à tous !

The Conversation

Julia Milner ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.02.2026 à 10:54

Why brands can become emotional lifelines in times of crisis

Laetitia Mimoun, Associate Professor in Marketing at ESCP Business School, ESCP Business School

Julien Schmitt, Professeur de Marketing, ESCP Business School

When times are tough, household brands and consumer rituals provide a source of comfort, reaffirming family identity and a sense of togetherness.
Texte intégral (1432 mots)

The rain hasn’t stopped for hours. Wind rattles the shelter’s windows as the storm outside swells, flooding the streets they used to call home. In a crowded gym, a family of four sit huddled together on makeshift beds pushed side by side each other. The parents wrap donated blankets around their shoulders; the teenagers lean against each other. Someone suggests a movie: something light, something old. They settle on a childhood favourite, a worn-out Pixar film, its colours flickering softly on the phone screen. Familiar voices, the opening music, the brand logo before the title… For a few minutes, it feels like the flood damage caused to their home no longer matters because they are together.

This is not just nostalgia. Research shows it is a form of collective coping. When the world feels unstable, why do we cling to familiar household brands and family rituals?

A study in everyday survival

In our recent research published in the International Journal of Research in Marketing, we explored how families use everyday brands and consumer rituals to restore a shared sense of identity after major life-changing disruptions.

Drawing on interviews and the diaries of 22 French families during the Covid-19 lockdowns, we found that major life disruptions, sudden collective shocks like pandemics, wars, or natural disasters, destabilise shared identities. When crisis strikes, family units don’t merely adapt their routines; they rebuild who they are together through consumption.

Brands act as scaffolding for reconstructing “who we are together”. Products, platforms, and rituals, from Netflix series to board games to family meals, become tools for resilience and belonging.

And this pattern extends well beyond Covid. In an era of growing environmental volatility, it matters more than ever. According to global risk reports, the number of natural disasters causing major economic losses is at record highs. As more and more communities around the world face upheaval, these small, mundane gestures of consumption are likely to become even more vital.

How we make sense when the world stops making sense

The study identifies three-way people use shared consumption to soothe anxiety and reclaim a sense of belonging.

1) Ritualised structuring: re-creating routine

When time feels suspended, people rebuild daily habits through familiar brands. This can involve watching the same show every night at eight to mark family time or deciding that Tuesday night is reserved for a sisterly chat over WhatsApp while watching a cooking show. Even a simple coffee in a beloved mug every morning can signal the start of “normal” life again.

These rituals restore predictability and reinforce family structure: who does what, when, and with whom?

2) Collective revalorising: rediscovering shared fun

Shared consumption becomes a new form of togetherness. Families dust off old board games like Monopoly and Cluedo. Parents can cook with kids using brands that “belong” to the household (e.g. Nutella pancakes, Lego projects). The activity is not about the brand itself; it is about reasserting family character traits: “We’re playful,” “We’re resilient,” “We do this together.”

3) Intergenerational romanticising: reviving lineage

Families can also turn to the past for comfort, rewatching classics from childhood, cooking passed down recipes, or creating family newsletters to share stories across generations. These rituals ease anxiety by reconnecting with lineage and continuity. A form of quiet resistance to the fear that the future is slipping away.

Together, these practices form a kind of psychological architecture: a way to impose meaning, order, and belonging amidst chaos.

What brands really mean in a crisis

Not all brands can play that role. The ones that endure crises often do so not because they shout louder, but because they embody stability, shared experience, and emotional legacy.

During an economic downturn or after a parent’s layoff, trusted retailers can become family anchors and symbols that life can still be rearranged. A brand like Ikea, for example, could help families adjust to smaller homes by buying back larger furniture and offering adaptable, modular pieces that transform rooms into communal areas. That kind of gesture does more than move products: it helps families reimagine togetherness and regain a sense of control.

In climate disasters, local brands can strengthen communities and become symbols of solidarity. After the 2025 Texas flash floods, Walmart offered free meals to affected families. Initiatives like that could go further, for example by creating spaces where families gather, connect, and rest. The value is not just in the food; it is in rebuilding collective morale.

Even in political upheaval, cultural and media brands provide continuity. National broadcasters, for instance, can help by reviving beloved classic films that families can watch together. A subtle act of collective reassurance, reminding people of their shared cultural heritage.

The insight is simple but powerful: during disruption, consumption is not escapism. It’s sense making.

Belonging as a Business Asset

If brands can become emotional lifelines, it is because consumption in moments of rupture is not mindless escapism. Sharing a meal, lighting the same candle, queuing up the same movie… these acts whisper, “We’re still ourselves.”

The brands that subsist are not the ones that dominate conversations, but those that quietly fit into our family coping mechanisms. Our research shows that brands become vectors of family history, creators of gathering occasions, and delineators of individual, relational, and collective times and activities. They are, in effect, identity technologies which act as everyday anchors for group belonging and continuity.

As societies face mounting major challenges, from climate anxiety to digital disconnection and geopolitical tension, the emotional dimension of the marketplace will matter more than ever. When the world falls apart, the brands we hold onto are not about consumption at all; they are about remembering who we are.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

12.02.2026 à 10:54

Valentine’s Day: What’s love got to do with habit-building?

Julia Milner, Professeure de leadership, EDHEC Business School

Our romances tell us a lot about how we live our lives and vice versa. They can help us make informed choices about changing and breaking habits or developing new ones.
Texte intégral (1094 mots)

Our love stories speak volumes about habit building and the quirks that become part of our daily routines… and vice versa!

By this, I’m not talking about being passionate about certain habits. But when you enjoy doing something, you are more likely to make it part of your daily routine.

In my latest research, I took a dive into the world of romance by looking at how, throughout the four stages of a love affair, we can become “routine lovers”.

The dating phase: Patterns over potential

We all probably remember the first stage of getting to know someone. Sometimes we say fairly early on, “Okay, this is not for me,” but often at the start of the dating game we see potential. The other person puts on their best front, maybe via an online profile with wonderful attributes, stating how organised and reliable they are. Yet, when you meet for the date, they are always 20 minutes late and keep you waiting. You might say to yourself, “Ah, I am sure one day they’ll live up to their potential,” yet it’s wiser to focus on patterns that emerge and their day-to-day. What you see is what you get.

You might buy yourself an expensive gym membership, as this habit would give your well-being a huge boost. However, as more pressing matters and unexpected events arise in everyday life, going to the gym takes a backseat; so a home workout program might actually be a better fit, as it would allow you to deal with life’s curveballs, such as a sick child or a work project that ends up being more time-consuming than initially planned, etc.

The early relationship phase: Invest yet don’t sacrifice

So, you entered the relationship and made sacrifices to make it work. Yet according to relationship research, too much sacrifice is not a good thing. First of all, most partners aren’t even aware that the other person has made sacrifices and second of all, even if they do notice, they might have mixed feelings about it, like guilt. In other words, effort and investment are good for relationships, whereas big sacrifices often backfire.

The same applies to our habits. Invest in that work project, put the graft in, but don’t work all hours on a continuous basis and sacrifice your health and other parts of your life. The sacrifices you make aren’t even likely to register with your chain of command, work colleagues or clients. Balance is key.

The ‘in between’ phase: Drama, baby

To keep relationships exciting, some drama can bear fruit. We are not talking about huge fights here, but keeping it interesting and changing some approaches, like trying a new place to eat out or taking up a new hobby. Consistency is great for building habits but adding some new adventures to the mix can benefit them too. How can you tweak your routine? Maybe find a workout buddy or take a different route to work, for instance.

The breakup: Letting go

Sometimes it doesn’t work out and it’s okay. It doesn’t mean the other person is evil; it might just mean that you weren’t compatible or shared the same values, and that it’s better to let go instead of letting it drag on.

Ed Sheeran – Bad Habits, YouTube.

Be honest with yourself when it comes to your habits. Some habits might have worked in the past, but you may have outgrown them. Now it’s time to make way for something new, without having a guilty conscience.

Note to self

This Valentine’s make sure you invest in the most important relationship and the longest one you will ever have. The one with yourself. Habits are part of the building blocks of that relationship. Through our daily habits, we design our lifestyle, so be sure to choose wisely at work and at play, invest well and know when the time is right to start something new. Happy Valentine’s day everyone!


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

12.02.2026 à 10:29

Les clauses environnementales des accords de libre-échange sont-elles efficaces ? L’exemple de la pêche

Clément Nedoncelle, Chercheur en economie INRAE, Inrae

Basak Bayramoglu, Directrice de recherche, Inrae

Estelle Gozlan, Chercheuse, Inrae

Thibaut Tarabbia, chercheur, Paris School of Economics – École d'économie de Paris

L’accord UE-Mercosur fait ressurgir une question sensible : comment concilier commerce international et protection de l’environnement ?
Texte intégral (1327 mots)

Une étude montre que les clauses environnementales contenues dans les accords de libre-échange sont ambivalentes : leur succès dépend, pour beaucoup, du contexte global et de la volonté politique à les mettre en œuvre. Le principal problème ? Elles ne contribuent pas vraiment à transformer les modèles et les pratiques qui nuisent le plus à l’environnement.


Les projecteurs sont actuellement braqués sur l’accord de libre-échange entre l’Union européenne et le Mercosur, signé le 17 janvier 2026 et déjà très contesté. Nombre de préoccupations portent sur les effets délétères qu’il pourrait avoir sur l’environnement.

Peut-on concilier commerce international et protection de l’environnement ? Cette question dépasse les forêts amazoniennes ou les bœufs brésiliens. Il touche aussi un bien commun trop souvent oublié : les océans et les pêcheries qui en dépendent.

Les pêcheries sont, en effet, un pilier de la sécurité alimentaire mondiale. Elles nourrissent des milliards de personnes, font vivre des communautés entières dans les pays côtiers et assurent une part cruciale des exportations des pays du Sud global. Et pourtant, elles s’épuisent : selon l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO), à peine 65 % des stocks mondiaux de poissons sont exploités durablement, contre 90 % dans les années 1970.

Face à ce déclin, les gouvernements mobilisent un éventail de politiques : quotas, aires marines protégées, taxes, subventions… Mais un autre outil, plus discret, joue un rôle croissant : celui es accords commerciaux, qui incluent désormais des « clauses environnementales » censées limiter les effets néfastes du commerce sur la nature. Certaines portent directement sur les pêcheries. Mais sont-elles efficaces ?

Notre étude récente publiée dans la revue World Development analyse les conséquences économiques et écologiques de ces clauses, appliquées au secteur des pêcheries. En examinant plus de 700 accords commerciaux conclus depuis la Seconde Guerre mondiale, nous avons comparé ceux qui comportaient des clauses sur la pêche à ceux qui n’en prévoient pas.

Nous avons ainsi étudié leur effet sur le niveau trophique moyen des prises, c’est-à-dire la position des poissons pêchés dans la chaîne alimentaire. Si cet indicateur baisse, cela signifie que l’on pêche des espèces de plus en plus petites et basses dans la chaîne, et donc que les grands prédateurs marins disparaissent.


À lire aussi : Que sait-on sur les captures accidentelles de dauphins dans le golfe de Gascogne, et pourquoi est-il si difficile de les éviter ?


Un filet de sécurité, mais qui dépend du contexte national

Notre étude montre un résultat principal : les accords commerciaux sur la pêche détériorent la durabilité des ressources marines, mais l’inclusion de clauses environnementales atténue significativement cette dégradation. Ces clauses limitent les dégradations supplémentaires provoquées ou accentuées par la libéralisation des échanges.

En clair, ces dispositions environnementales jouent un rôle de filet de sécurité : elles empêchent la situation de se dégrade davantage, sans pour autant l’améliorer spectaculairement. Les effets positifs apparaissent lentement, entre cinq et neuf ans après la signature.

Ces résultats ont des implications au-delà des pêcheries. En effet, depuis une quinzaine d’années, les accords commerciaux ont intégré une multitude de clauses environnementales : sur les forêts, le climat, la pollution, la biodiversité… Toutefois, si ces dispositions ont parfois prouvé leur efficacité – pour réduire la déforestation ou les émissions polluantes, par exemple – leurs effets varient fortement selon les secteurs et les pays. Ils dépendent notamment largement de la qualité des institutions des pays signataires : les pays dotés d’une gouvernance solide en tirent bien plus de bénéfices écologiques.

Autrement dit, cela peut fonctionner, mais d’abord là où les États sont capables de les mettre en œuvre.


À lire aussi : Quel est le poids exact de la France dans la « déforestation importée » qui touche l’Amazonie ?


Un impact limité sur les pratiques de pêche

Notre étude souligne aussi le revers de la médaille, autrement dit l’ambivalence de ces politiques : elles peuvent atténuer les dégâts écologiques, mais pas nécessairement transformer les comportements économiques qui en sont à la source.

En effet, les améliorations écologiques observées, par rapport à un accord de libre-échange dépourvu de dispositions environnementales, ne sont pas tant liés à la transformation des pratiques de pêche – comme l’abandon du chalutage destructeur – qu’à la réduction forte des volumes pêchés et exportés.

Les clauses environnementales semblent donc d’abord agir comme des freins au commerce plutôt que comme des moteurs d’innovation durable. Elles freinent la pression commerciale, mais sans transformer le modèle de production vers davantage de soutenabilité.

Elles montrent surtout que la réussite de la transition écologique ne dépend pas uniquement des règles internationales, mais de la volonté politique et institutionnelle de les faire vivre par les États.


À lire aussi : À quelles conditions peut-on parler d’activités de pêche « durables » ?


Un enjeu de volonté politique

La question dépasse donc le commerce international : tout se joue dans la capacité des États à appliquer localement des engagements pris au niveau supranational. Une clause environnementale n’a d’effet que si la capacité des administrations à contrôler et sanctionner suit.

Sans investissement dans la mise en application et l’accompagnement des secteurs concernés, ces accords ne peuvent donc agir qu’à la marge. L’enjeu n’est donc pas d’ajouter des obligations dans les traités, mais de s’assurer qu’elles sont réellement mises en œuvre, seule condition pour changer les pratiques plutôt que simplement freiner le commerce.

Dans le débat sur l’accord UE–Mercosur, beaucoup craignent que l’environnement serve à nouveau de variable d’ajustement aux intérêts commerciaux. Nos recherches montrent qu’il n’y a pas de fatalité : si les clauses environnementales sont ambitieuses, assorties de mécanismes de suivi et appliquées par des États capables de les faire respecter, elles peuvent réellement protéger les ressources naturelles.

The Conversation

Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.

Clément Nedoncelle, Estelle Gozlan et Thibaut Tarabbia ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

12.02.2026 à 10:29

Accord UE-Mercosur : quand la radiochronologie retrace l’histoire agricole de la Pampa en Amérique du Sud

Amaury Bardelle, Doctorant au laboratoire des sciences du climat et de l’environnement, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Anthony Foucher, Chercheur CEA au Laboratoire des Sciences du Climat et de l’Environnement, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)

Olivier Evrard, Directeur de recherche, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Université Paris-Saclay

Pierre-Alexis Chaboche, Chercheur au Laboratoire des Sciences du Climat et de l'Environnement (LSCE), Université Paris-Saclay

Renaldo Gastineau, Chercheur postdoctorant au laboratoire EDYTEM, Université Savoie Mont Blanc

Dans la Pampa, les sédiments issus des sols agricoles livrent une histoire précise des pollutions. Même si certains pesticides sont désormais interdits, la terre n’oublie pas.
Texte intégral (3091 mots)

Alors que l’accord UE-Mercosur suscite de vives inquiétudes chez les agriculteurs européens, il ne faut pas éluder ses conséquences environnementales potentielles en Amérique du Sud. Notre étude récente, qui s’appuie sur la datation radiométrique de sédiments, a permis de reconstituer une histoire des pollutions agricoles dans la Pampa uruguayenne. Or, en matière de pesticides, la terre n’oublie pas : on retrouve par exemple du DDT, pourtant interdit depuis des décennies, dans des prélèvements récents.


Alors que la récente signature de l’accord commercial entre l’Union européenne (UE) et le Mercosur fait encore débat, on a beaucoup parlé – à raison – de ses retombées pour les agriculteurs français et européens. On a, par contre, beaucoup moins évoqué les impacts que cet accord pourrait avoir sur l’environnement dans les pays du Mercosur (Argentine, Brésil, Paraguay et Uruguay).

L’Amérique du Sud est aujourd’hui devenue une puissance agricole mondiale, et l’un des premiers producteurs de soja dans le monde. La production de cette légumineuse est en effet passée de 297 000 tonnes en 1961 à 210 millions de tonnes en 2024, soit plus de la moitié de la production mondiale d’après les statistiques de l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO).

La pampa est un biome que l’on retrouve en Argentine, en Uruguay et au Brésil. jjw, CC BY-SA

Cette expansion agricole se fait au détriment des espaces naturels. La région amazonienne retient souvent l’attention du grand public et des médias. Pourtant, il ne s’agit pas – loin s’en faut – du seul ensemble d’écosystèmes naturels (ou « biome ») à pâtir de l’expansion agricole. C’est également le cas de la Pampa, localisée entre le sud du Brésil, l’Uruguay et dans le nord-est de l’Argentine. Sa superficie dépasse les 1,2 million de kilomètres carrés (km²), soit plus de deux fois la superficie de la France hexagonale.

Ces vastes étendues de prairies naturelles constituent un vaste réservoir de biodiversité et un important puits de carbone. En 2023, une équipe de chercheurs brésiliens y avait identifié plus de 12 500 espèces différentes. L’accélération de la conversion de la Pampa en cultures, en prairies intensives et en plantations forestières commerciales au cours des dernières décennies menace ainsi les services fournis par ces écosystèmes.

Le rio Negro, qui traverse l’Uruguay sur 750 km, prend sa source dans le sud du Brésil et constitue le principal affluent du rio Uruguay. Il traverse le lac artificiel de Rincón del Bonete, où ont été collectés les sédiments dans le cadre de cette étude.

Afin de reconstituer l’histoire agricole de ces écosystèmes depuis les 80 dernières années, nous avons collecté et analysé les sédiments qui se sont déposés au cours du temps dans le réservoir du barrage de Rincón del Bonete, sur le rio Negro, en étroite collaboration avec des chercheurs uruguayens.

Nous avons ensuite procédé à des analyses pour dater ces échantillons, en nous appuyant sur les traces de radionucléides à la fois naturels (qui retombent en continu avec les pluies) et artificiels (issus des essais nucléaires atmosphériques réalisés entre les années 1950 et les années 1970) qu’on y retrouve. Nous avons ainsi abouti à une remise en perspective historique inédite de l’histoire agricole de la région.

Des archives naturelles de l’histoire agricole

Ces sédiments jouent le rôle d’archives naturelles. En effet, chaque année, au fil des évènements pluvieux et des crues, les sédiments érodés à l’amont du rio Negro et transportés par la rivière se déposent dans le réservoir. Leur collecte et leur analyse permettent ainsi de reconstruire l’histoire des paysages de la région depuis l’inauguration du barrage hydroélectrique en 1945. C’est l’un des barrages l’un des plus anciens d’une telle ampleur en Amérique du Sud.

Le barrage de Rincón del Bonete, en Uruguay, a été inauguré en 1945. Marcelo Campi, CC BY-SA

L’analyse de cette archive sédimentaire (intensité des flux sédimentaires, détection de pesticides…) a permis de reconstruire quatre grandes phrases de développement agricole dans la région :

De la fin de la Seconde Guerre mondiale à 1963 : une agriculture conventionnelle en continu, basée sur la mise en place de rotations annuelles, se développe. Ce système est associé, dans notre analyse, à des flux sédimentaires importants. Comprendre : une quantité importante de terres agricoles étaient alors lessivées par les pluies et transportées par le rio Negro.

De 1963 aux années 1990 : un système associant cultures et élevage se met en place. Il permet la réduction des flux sédimentaires. Cette période est caractérisée par la première détection de pesticides dans l’archive sédimentaire.

Des années 1990 au début des années 2000 : l’usage du semis direct, c’est-à-dire de cultures sans labour, commence à se répandre dans la région. Cette évolution est liée au développement de variétés de soja génétiquement modifiées, conçues pour être résistantes au glyphosate, qui pouvait ainsi être répandu pour détruire les adventices (les « mauvaises herbes ») sans endommager la culture principale.

Accompagnée d’une rotation entre polyculture et élevage, cette pratique semble avoir contribué à la réduction de l’érosion des sols, puisque cette période enregistre les plus faibles taux de sédimentation de la séquence. Cette période coïncide aussi avec d’importantes plantations d’arbres exotiques, principalement l’eucalyptus, utilisé pour produire de la pâte à papier.

À partir de 2007 : bien que le semis direct ait été adopté par la majorité des agriculteurs, les pratiques agricoles s’intensifient. La monoculture continue intensive ou une double récolte au cours de l’année (généralement une succession de soja et de céréales) est souvent de mise.

De nombreuses zones naturelles sont alors converties pour la culture du soja et la plantation d’eucalyptus. En conséquence, cette période enregistre les plus forts taux de sédimentation et les flux de pesticides les plus élevés depuis la fin de la Seconde Guerre mondiale.

Des traces récentes de pesticides interdits, comme le DDT

Parmi les pesticides retrouvés au sein des sédiments déposés récemment dans le barrage uruguayen, on retrouve notamment des substances interdites en Europe et aux États-Unis, telles que le Mirex – utilisé dans les plantations d’eucalyptus – ou le DDT.

Ce pesticide nocif à la fois pour l’humain et l’environnement, désormais interdit dans la quasi-totalité du monde, a été historiquement utilisé comme insecticide pour l’agriculture. Il fut également largement répandu à travers l’Amérique lors de grandes campagnes d’éradication des vecteurs du paludisme au sortir de la Seconde Guerre mondiale.

L’explication la plus probable derrière la réapparition du DDT serait une remobilisation des quantités de ce pesticide déjà présentes dans l’environnement. Cela pourrait faire suite à l’augmentation de l’érosion des sols cultivés depuis des décennies, ainsi qu’à la mise en culture et à l’érosion de nouvelles terres, faisant partie d’espaces naturels qui avaient été traités avec du DDT au milieu du siècle dernier.


À lire aussi : Pesticides et biodiversité, les liaisons dangereuses


Les essais nucléaires du siècle dernier, utiles pour la datation

Dans notre étude, nous avons combiné plusieurs analyses à haute résolution des sédiments accumulés par le barrage. L’analyse historique a été rendue possible grâce à la datation des couches successives de sédiments, réalisée à travers l’analyse de radionucléides à la fois naturels (qui retombent en continu avec les pluies) et artificiels (liés aux essais nucléaires atmosphériques réalisés entre les années 1950 et les années 1970).

Ces essais nucléaires, menés principalement par les États-Unis, l’Union soviétique et la France, sont en effet associés à des émissions de césium et de plutonium spécifiques, dont ils sont, en quelque sorte, la signature. De quoi aider à reconstruire l’âge des couches successives de la séquence sédimentaire.

Nous avons ensuite pu mettre en relation les propriétés des sédiments avec des données historiques, telles que les statistiques agricoles ou d’usage des sols, afin de proposer cette analyse historique de l’impact des changements paysagers.

Les impacts environnementaux à venir dans la Pampa

Les impacts environnementaux liés à la mise en culture de la Pampa sont déjà très nets, mais ce n’est malheureusement peut-être que le début.

À ce jour, seuls 20 % des prairies qui étaient encore en place en 1985 ont été transformées. Les prairies de la Pampa, qui recouvraient 83 % de la zone étudiée en 1985, ne représentaient plus que 60 % de la surface en 2022. Autant d’espaces où les activités agricoles et sylvicoles pourraient continuer à se développer.

Dans ce contexte, les accords commerciaux qui ont été conclus entre les pays du Mercosur et de l’Union européenne – mais aussi avec d’autres grandes puissances, telles que la Chine – auront un impact. Ils favoriseront les exportations et augmenteront la demande en produits tels que le soja et la pâte à papier. Ce faisant, ils risquent d’exacerber l’expansion et l’intensification agricole, ainsi que leurs impacts environnementaux.

L’approche développée, qui a donc permis de reconstruire une perspective historique inédite, pourrait être prolongée dans le temps pour suivre les impacts environnementaux à venir dans la région, en lien avec les évolutions réglementaires et commerciales en cours.

The Conversation

Amaury Bardelle a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).

Anthony Foucher a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).

Olivier Evrard a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).

Pierre-Alexis Chaboche a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).

Renaldo Gastineau a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001).

PDF

12.02.2026 à 09:43

Adolescence : comment le téléphone change les codes amoureux

Marine Lambolez, Doctorante, ENS de Lyon

S’ils se croisent tous les jours au collège ou au lycée, c’est sur les réseaux sociaux que les adolescentes et les adolescents préfèrent déclarer leur flamme. Explications.
Texte intégral (1949 mots)

S’ils se croisent tous les jours au collège ou au lycée, c’est sur les réseaux sociaux que les adolescentes et les adolescents choisissent souvent de déclarer leur flamme. S’agit-il d’échapper aux regards moqueurs en cas de déconvenue ? Ou est-ce au contraire un moyen de rechercher une validation ? Penchons-nous sur ces nouveaux codes amoureux.


L’utilisation du téléphone portable personnel par les plus jeunes fait l’objet de nombreuses craintes et fantasmes dans le débat public. La proposition de loi visant à interdire les réseaux sociaux aux moins de 15 ans en témoigne : l’inquiétude vis-à-vis des liens virtuels entretenus par les ados ne faiblit pas.

S’il est important de protéger les personnes mineures de rencontres en ligne avec des individus malintentionnés, souvent plus âgés, il ne faut pas croire que les réseaux sociaux ne leur servent qu’à communiquer avec des inconnus.

Les discussions en ligne jouent un rôle central dans les sociabilités adolescentes, même avec les camarades de classe croisés toute la semaine à l’école. Plus précisément, le portable participe activement à la naissance des amours de jeunesse et occupe une place importante dans les échanges amoureux des jeunes.

Se rapprocher en ligne

Le fait de se parler, en ligne, dans des conversations privées, c’est-à-dire auxquelles seuls les deux participants ont accès, semble être un préambule obligatoire à la mise en couple chez les jeunes. Plutôt que le temps passé ensemble, les rendez-vous donnés hors de l’établissement scolaire ou le premier baiser, c’est le fait de s’écrire sur ses réseaux personnels qui atteste du caractère intime de la relation.

Dans mon enquête auprès de jeunes de 13 ans, il apparaît que les interactions en ligne ont la même valeur que les moments partagés « in real life » quand il s’agit de nouer, alimenter ou rompre des relations amoureuses. Par exemple, pour Amina, en couple depuis huit mois sur la plateforme Discord avec un garçon qu’elle n’a jamais vu, la rencontre n’est ni souhaitée ni préalable au fait de se dire en relation sérieuse.


À lire aussi : Au téléphone, les adolescents ne répondent plus : manque de politesse ou nouveaux usages ?


Vladimir, lui, se sert des réseaux sociaux pour séduire et considère que ne plus se parler via ces interfaces scelle la fin d’une relation. Lorsqu’il veut se rapprocher d’une fille, il ne lui demande pas son numéro de téléphone mais son compte Instagram ou Snapchat. Un autre jeune, Fabio, détaille la façon dont il s’est rapproché d’une amie, jusqu’à leur mise en couple officielle :

« Alors, j’ai fait une photo torse nu dans ma salle de bain, je voulais mentionner des personnes sur Insta[gram], j’ai vu son nom et j’ai cliqué parce que c’était la première personne proposée et, vu qu’avant c’était ma meilleure amie entre guillemets… Du coup je l’ai identifiée, après elle a mis l’émoji avec les cœurs dans les yeux. Et voilà, après elle m’a identifié dans sa story. J’ai fait de même et on a commencé à se rapprocher. »

L’importance que Fabio porte au type d’émojis employé montre bien la valeur apportée à ce simple symbole numérique qui évoque la précision avec laquelle certaines et certains se souviennent de la première déclaration de leur partenaire.

La drague en ligne permet aux jeunes de choisir leurs mots avec plus de réflexion, et de prétexter de fausses manipulations, des blagues ou l’emprunt du téléphone par un ami ou une amie en cas de « râteau ». Ces échanges virtuels présentent aussi le grand avantage d’être secrets : le flirt adolescent échappe ainsi aux regards souvent moqueurs de la cour d’école ainsi qu’aux interdictions familiales.

Preuves d’amour virtuelles

Les réseaux proposent des fonctionnalités qui mettent en lumière la proximité partagée entre deux contacts : amis proches sur Instagram, flammes sur Snapchat, pseudo et émojis personnalisés sur Messenger… Autant d’options qui soulignent le lien spécial entre deux personnes, pour elles-mêmes et parfois aux yeux des autres utilisateurs.


À lire aussi : Le crush à l’adolescence : une pratique culturelle ?


Documenter sa relation en publiant des photos prises à deux, liker et commenter les publications de l’élu·e de son cœur, sont autant de manifestations virtuelles d’engagement amoureux qui rassurent les adolescent·es sur les sentiments de leurs partenaires. Ces preuves d’amour en ligne prennent encore plus d’importance quand le jeune couple n’a pas l’occasion de soumettre son idylle au regard extérieur en dehors du monde connecté, c’est-à-dire quand les jeunes se connaissaient au collège mais sont dans des lycées différents, sont en couple à distance ou se connaissent via une activité extra-scolaire.

La sociologue Claire Balleys écrit :

« Les adolescents fonctionnent entre eux comme un public participatif et évaluateur. Ils sont à la fois spectateurs et acteurs du lien social entre pairs, en ce sens qu’ils prennent activement part à la construction, à la négociation et à la gestion des relations amicales et amoureuses. »

Rendre publiques ses relations amoureuses sur les espaces en ligne est un enjeu majeur dans la hiérarchie sociale adolescente. La popularité s’acquiert notamment par la validation externe de sa relation amoureuse, en choisissant un·e partenaire convenable et en mettant en scène des comportements amoureux adéquats.

Le contrôle du téléphone comme abus amoureux

La question du contrôle du téléphone portable est centrale quand il s’agit d’adolescent·es et de jalousie. 72 % des jeunes interrogés en entretien, filles comme garçons, répondent « Oui » à la question : « Est-ce que tu laisserais ton copain ou ta copine regarder tes messages sur ton téléphone ? » Plusieurs élèves racontent comment ce droit de regard téléphonique fonctionnait dans leurs couples précédents :

Céleste : Alors ça, on en a parlé parce qu’il avait mon code de téléphone et j’avais le sien. Alors s’il veut fouiller avec qui je parle, il y a pas de souci. J’ai rien à me reprocher. Il peut regarder mes discussions, oui bien sûr, ça fait suspect sinon.

Malvina : Bah oui, le gars avec qui j’étais, il connaissait mes codes, il les avait même.
ML : Et est-ce que toi, tu voudrais voir ses messages ?
Malvina : Je lui fais confiance, mais de temps en temps bon… ça fait du bien de regarder. Enfin, j’avais tout le temps ses codes, donc je savais qu’il faisait rien.

Pour ces ados, si l’on est fidèle, notre partenaire devrait pouvoir fouiller dans notre téléphone sans que cela soit un problème.

Zlatan : Oui, elle a mon code.
ML : Ok, sans hésitation ?
Zlatan : Oui.
ML : Et toi, tu lui demanderais de regarder ses messages ?
Zlatan : Oui. Enfin, je prends pas son téléphone, mais juste si je vois un truc ou quoi je demande son téléphone, je regarde, voilà. Déjà ça peut rassurer, ça peut beaucoup rassurer et faire confiance aussi.

Puisque la plupart d’entre eux se draguent virtuellement avant de se dire en couple, toute conversation sur les réseaux devient suspecte. Vouloir garder une part d’intimité en ligne serait alors un red flag laissant soupçonner une tromperie.

Karim : Après, si elle fait une crise de jalousie, ça veut dire qu’elle m’aime vraiment, ça veut dire qu’elle tient à moi. Par exemple, si elle voit que j’ai une copine sur Instagram, je la [cette copine] bloque d’abord, je parle avec elle et après si elle veut bien, je reste avec elle, si elle veut pas, ben je sais pas comment ça se passerait.

Toutefois, d’après le violentomètre – outil conçu en Amérique latine, puis adapté en 2018 par les Observatoires des violences faites aux femmes de Seine-Saint-Denis et de Paris, l’association En Avant Toutes et la Mairie de Paris, pour déterminer ce qui relève ou non des violences – si un partenaire « contrôle tes sorties, fouille tes textos et est jaloux et possessif en permanence », il faut être vigilant·e et « dire stop ! » à ces comportements.

Le violentomètre.

D’autres cyberviolences émaillent parfois les relations amoureuses : divulgations d’échanges intimes, harcèlement, montages photos violents…

Rappeler ces risques n’est cependant pas condamner l’utilisation des réseaux par les ados, car leur diabolisation empêche une éducation aux bonnes pratiques numériques et laisse les jeunes démunis face à leurs premiers téléphones, avant ou après 15 ans.

The Conversation

Marine Lambolez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.02.2026 à 16:28

Face au changement climatique, la Normandie plus vulnérable qu’elle ne le croit

Julien Réveillon, Vice-Président Transitions Environnementales et Sociétales, Université de Rouen Normandie

Le fait que les conditions climatiques y restent plus supportables qu’ailleurs occulte les évolutions inquiétantes que la région connaît et repousse la mise en œuvre de solutions systémiques.
Texte intégral (2367 mots)

La Normandie, protégée par son climat océanique, s’est longtemps pensée à l’abri des bouleversements climatiques. Pourtant, les données scientifiques racontent une autre histoire : celle de risques nouveaux qui s’installent peu à peu. Comprendre et intégrer ces mécanismes est urgent pour aider le territoire à s’adapter


Alors que le sud de la France commence à s’inquiéter d’une éventuelle recomposition de son attractivité touristique et résidentielle avec un recul du ski hivernal et l’augmentation des canicules, la Normandie court un risque très différent : celui de se croire à l’abri.

Seuls 52 % des Normands disent en effet ressentir le dérèglement climatique dans leur quotidien, contre 71 % au niveau national. Ce sentiment de sécurité relative ressenti par une partie de la population normande face au changement climatique s’explique par un facteur géographique réel, associé à des biais psychologiques naturels.

Depuis toujours, les territoires délimités par la Manche sont ouverts aux flux atmosphériques d’ouest perturbés, qui ont conduit à la construction d’une réputation, pas toujours élogieuse – ni usurpée – de risques de pluie importants, y compris durant l’été.

Ce rideau de fumée météorologique mène naturellement à un fort décalage de perception du dérèglement climatique. Il entretient chez nous, les Normands, un biais d’optimisme irréaliste accentué. De ce fait, nous avons une tendance naturelle à nous considérer comme mieux protégés que les autres et, parfois paradoxalement, à l’abri.

Lors des deux épisodes caniculaires de l’été 2025, alors que les stations météo du sud de la France dépassaient 40 °C, la Normandie atteignait péniblement les 30 °C. Une température tout à fait accueillante pour les touristes ayant eu l’audace de choisir Deauville (Calvados) ou Dieppe (Seine-Maritime) comme destination estivale, mais beaucoup moins adaptée à nos écosystèmes normands.

En réalité, le changement climatique touche la Normandie, comme toutes les autres régions.

La Normandie, loin d’être épargnée

À Rouen (Seine-Maritime), la fréquence des jours de chaleurs à plus de 25 °C est passée de 14 jours par an en 1971 à 40 jours par an en 2023. Les huit années les plus chaudes depuis 1970 se sont toutes produites après 2014.

Pendant ce temps, sur nos côtes, les falaises reculent de 20 cm à 25 cm par an, parfois 40 cm dans certaines zones où nos constructions amplifient le phénomène. Ce recul n’est pas régulier, il se fait souvent au prix d’effondrements spectaculaires… et dangereux.

Cette mer qui monte peut aussi provoquer un phénomène de blocage de l’écoulement des eaux fluviales vers la mer, comme cela a été observé en mars 2020 quand les quais de Rouen se sont retrouvés inondés. La tempête Ciara avait alors provoqué une surcote au niveau de l’embouchure de la Seine.

D’ici la fin du siècle, ce phénomène va s’accentuer. Sur le littoral, la menace changerait d’échelle avec une élévation du niveau de la mer projetée entre 1,1 m et 1,8 m. Dans les terres, le réchauffement moyen de la Normandie pourrait atteindre plus de + 3 °C, augmentant radicalement le stress hydrique et les risques sanitaires.

Modélisation du risque d’inondations à Rouen en 2100.

Petit à petit, nous nous habituons à ces étés plus chauds, à ces hivers plus doux et à voir les bâtiments de nos villes les pieds dans l’eau. Mais si chaque événement semble acceptable, pris isolément, leur répétition et surtout leur combinaison changeront, dans un futur proche, la nature du risque sur le territoire normand.

Le risque n’est plus seulement ponctuel : il provoque un enchaînement de conséquences territoriales et sociales, souvent invisibles au moment de l’événement, mais persistantes dans le temps.


À lire aussi : « Renaturer » les villes, une voie prometteuse pour mieux s’adapter au changement climatique


Dans les angles morts des risques climatiques

L’équilibre et la dynamique d’un territoire découlent de multiples facteurs étroitement liés par des interactions complexes. La modification d’un seul élément, comme l’élévation des températures, entraîne des conséquences en chaîne sur l’ensemble des autres secteurs : eau, biodiversité, économie, santé, etc.

Or la complexité de ces interactions peut créer des angles morts, c’est-à-dire à des zones non visibles par les observations et les projections, et donc des procédures de prévention et d’adaptation inadéquates face aux risques qui menacent la Normandie.

Ce risque dépend de la combinaison d’un aléa climatique, comme une canicule ou de fortes pluies, du niveau d’exposition d’enjeux humains ou matériels et enfin de la vulnérabilité de ces enjeux. L’un des premiers leviers d’action, pour le diminuer, est d’abaisser le niveau de vulnérabilité : par exemple, construire une digue face à des habitations menacées ou d’engager des actions de renaturation dans une ville exposée aux canicules.

Mais ce faisant, un premier angle mort peut apparaître : en réduisant une vulnérabilité précise, nous pouvons en accroître d’autres. Une digue mal conçue va accélérer le recul du trait de côte à proximité de sa zone de protection. Une végétation urbaine inadaptée peut entraîner des risques sanitaires en diffusant des allergènes ou en abritant des insectes porteurs de maladies.

D’autres angles morts existent, comme la fragilisation d’un territoire entier ou l’existence de grands décalages temporels entre les temps politiques et les temps climatiques. Par exemple, des choix d’urbanisation (par exemple, constructions en bord de plage) ou d’artificialisation réalisés il y a plusieurs décennies n’expriment pleinement leurs effets que tardivement. Aujourd’hui, ils augmentent les risques d’inondation avec des épisodes pluvieux ou des tempêtes littorales devenus plus intenses.

Quitter l’approche en silo

L’angle mort qui permet à tous les autres d’exister, enfin, réside dans notre difficulté persistante à prendre en compte les liens qui existent entre les différents risques climatiques. Inondations, sécheresses, canicules, submersions, risques industriels ou sanitaires sont mesurés, analysés et combattus séparément. Cette vision en silo nous empêche de voir l’ensemble de leurs relations, et par là même les mécanismes de déclenchement, d’amplification ou de cascade, qui sont pourtant au cœur des crises climatiques actuelles et à venir.

À Rouen, par exemple, de fortes pluies associées aux grandes marées, à la montée des eaux et à une tempête à l’embouchure de la Seine pourront mener à des inondations, et notamment dans le secteur industriel de la rive gauche où se concentrent plusieurs usines Seveso.

L’aléa naturel entraîne alors des risques industriels qui peuvent conduire à des pollutions des captages ou des sols, des tensions sanitaires, et même sociales, avec l’arrêt de certaines activités professionnelles et l’évacuation de quartiers d’habitation.

Cette cécité culturelle court des chercheurs, évalués sur leur hyperspécialisation dans un domaine, aux opérateurs de l’État ou des collectivités au sein desquels l’action reste structurée par secteurs, compétences et dispositifs spécialisés. Une organisation qui favorise l’expertise, mais rend difficile une approche systémique pourtant indispensable.

Prendre en compte la société face aux changements

La création en 2019 du Giec normand, suivie des premiers rapports publiés en 2020, a permis d’établir un diagnostic scientifique sur l’évolution physique du territoire. Très vite, les limites d’une lecture classique des risques sont apparues : face aux interactions multiples entre activités humaines et équilibres environnementaux, les réponses ciblées ou sectorielles se sont révélées insuffisantes.

Avec le Giec normand, dont la seconde mouture de travaux a été publiée en 2023 et 2024, un cap a été franchi : l’analyse s’est élargie aux effets sociaux, juridiques et économiques du changement climatique.

Si plus de 80 % des Français reconnaissent l’origine humaine du réchauffement, les travaux en sciences humaines et sociales montrent que cette prise de conscience se traduit encore peu en actions concrètes. Ils mettent aussi en évidence des vulnérabilités socialement différenciées face aux aléas, comme la submersion marine.

Le droit, de son côté, précise les responsabilités croissantes des collectivités et l’économie commence à chiffrer le coût, souvent sous-estimé, de l’inaction.

Il ne s’agit plus seulement de comprendre les changements induits par le dérèglement climatique, mais aussi d’analyser la société face à ces transformations et face aux solutions d’adaptation qui se déploient.

Élaborer des scénarios pour l’avenir

Cependant, une étape majeure reste à franchir, sans doute la plus difficile : passer de la phase de diagnostic à une transformation opérationnelle des politiques publiques. Et si nous, citoyens, avons parfois tendance à reporter l’ensemble des responsabilités sur nos décideurs politiques, une part de ce travail nous revient également.

Pour penser système, il ne faut plus raisonner à l’aune d’événements isolés, mais en scénarios. Il s’agit, par exemple, de dépasser le raccourci « pluie = crue » pour déplier un enchaînement de conséquences possibles, de l’inondation à l’interruption de certains secteurs économiques, en passant par l’accident industriel et la saturation des services hospitaliers.

Cette lecture en scénarios implique aussi de revisiter les choix d’adaptation. Les décisions prises aujourd’hui en matière d’aménagement, de travail ou de formation engagent les territoires sur le long terme et produisent souvent leurs effets à distance, dans le temps comme dans l’espace. Sans une compréhension claire de ces enchaînements, le risque est de multiplier des réponses locales cohérentes prises isolément, mais inefficaces, voire contre-productives.

Agir à l’échelle des métropoles et des régions

À l’échelle de nos choix individuels, cela implique de sortir d’une logique de réponses immédiates et de réussir à relier nos décisions d’aujourd’hui aux effets qu’ils auront plus tard, peut-être dans longtemps, sur les systèmes dont nous faisons partie.

Mais les actions individuelles seront vaines sans une action collective pensée de manière globale. Ce rôle incombe aux institutions publiques, aux collectivités territoriales, aux acteurs associatifs mais aussi aux universités, qui produisent des connaissances, forment des acteurs et font dialoguer sciences, territoires et société.

Le territoire joue ici un rôle crucial et les échelons des métropoles et de la région apparaissent les plus pertinents : ils sont assez larges pour permettre des actions adaptées aux risques à venir, mais assez proches pour que chaque citoyen s’y sente concerné et impliqué.

Réduire les inégalités face aux risques

Une action territoriale structurée, appuyée sur les savoirs scientifiques et leur appropriation collective, est aussi un enjeu de justice, dans un contexte où tous les citoyens ne disposent pas des mêmes ressources pour s’informer, s’adapter ou agir. Elle permet de réduire ces inégalités d’exposition et de vulnérabilité face à des risques climatiques qui dépassent largement l’échelle des choix individuels.

La vision systémique prend alors tout son sens. Elle nous aide à relier les aléas, les risques en cascade qu’ils engendrent, leurs conséquences mais aussi les effets parfois contradictoires des solutions d’adaptation. Elle permet de regarder la société dans son ensemble et de construire des réponses justes et adaptées à la diversité des situations.

The Conversation

Julien Réveillon a reçu des financements de ANR France 2030 - ANR-23-EXES-0013.

PDF

11.02.2026 à 16:27

La cinéaste Chloé Zhao, portraitiste de l’intimité du deuil

Joanne Vrignaud, Doctorante en cinéma américain à UPN, Université Paris Nanterre

Au fil de sa filmographie, la réalisatrice – dont le dernier film est nommé dans plusieurs catégories aux Oscars – développe une esthétique intimiste et sensorielle et s’empare de la question du deuil.
Texte intégral (2660 mots)
La scène finale de catharsis d’*Hamnet*.

Le dernier film de Chloé Zhao, Hamnet, est déjà un succès critique et populaire. Quatre ans après le succès mitigé de son film de commande les Éternels, la réalisatrice oscarisée revient avec une adaptation de l’œuvre de la romancière et journaliste britannique Maggie O’Farrell. Un drame qui met en lumière un thème central dans son cinéma : l’intimité du deuil.


Chloé Zhao s’est fait connaître dès ses débuts dans l’industrie en se formant sous l’égide de réalisateurs et d’acteurs engagés, comme Spike Lee ou Forrest Whittaker. Alors que les médias s’emparent de la question de l’alcoolisme dans les réserves amérindiennes, la Sino-Américaine part en 2015 filmer les riders (ces hommes qui pratiquent le rodéo) des nations lakotas du Dakota du Sud et en tire son premier long-métrage, Les chansons que mes frères m’ont apprises.

On y suit deux jeunes membres du clan des Oglalas dont la mort brusque du père entraîne une réflexion sur leur présence dans la réserve de Pine Ridge. Leur gestion différente du deuil, l’un par les questionnements sur la masculinité, l’autre par l’apprentissage culturel, se rejoint dans leur relation commune à la nature et devient le fil conducteur de l’histoire et, incidemment, de toutes les autres que Zhao développera.

Une esthétique intime fondée sur le lien avec la nature

En effet, dans Les chansons…, Johnny (17 ans) et Jashaun Winters (10 ans) sont sans cesse ramenés aux conséquences de la perte de leur père (un rider alcoolique), des difficultés économiques à l’opportunité de se tourner vers de nouveaux mentors, tout aussi violents et traumatisés par la vie dans une réserve. Si elle ne quitte jamais le domaine du réalisme social, la caméra s’attache aux moments de vulnérabilité : un premier baiser, un lever de soleil, un combat de boxe. L’ancrage des protagonistes dans la réserve est un cheminement émotionnel fait de plans rapprochés nous invitant à nous projeter dans leur univers mental. Les scènes sont douces, le son feutré, les plans longs : les dialogues laconiques dans la nature forment déjà la patte caractéristique (fortement inspirée par le réalisateur Terrence Malick) de l’esthétique de la réalisatrice.

Le film fait parler de lui au festival du cinéma indépendant de Sundance (Wyoming), et lui permet de réaliser son second film en 2017, The Rider. À nouveau, Zhao dézoome lentement sur l’expression endeuillée du jeune rider Brady Blackburn, interdit de monter à cause d’une terrible chute de rodéo, pour l’inscrire dans son environnement. Loin de l’esthétique épique des westerns traditionnels où selon l’historien Armando José Pratts, les cowboys, ranchers et bandits s’approprient les terres d’abord par le regard, puis par la force, ce cowboy sioux ne domine pas le sublime paysage qui l’entoure, laissant ses fantasmes de masculinité de cowboy dans le sillage de sa dernière course sur le dos de Gus. C’est là la théorie de l’intime de Zhao : se concentrer sur les regards plutôt que sur l’objet de ceux-ci et inscrire les personnages dans des environnements qui reflètent l’abondance de leur paysage intérieur.

Pouvoir thérapeuthique des grands espaces

Nomadland (oscarisé en 2021) s’inscrit dans des thèmes similaires (perte, questionnement identitaire, critique du capitalisme). Après avoir perdu son mari et son travail, Fern devient nomade pour fuir son passé. L’intime, comme toujours chez Zhao, se crée dans les dialogues minimes, une bande-son légère et des moments d’humanité poétisée. Zhao filme encore l’Ouest américain et le pouvoir thérapeutique des grands espaces sur Fern, en contraste avec son dénuement isolant dans le monde du travail. Quittant les tensions raciales et idéologiques du western, elle utilise les codes du road movie pour dramatiser le paysage (grands panoramas, lumières rasantes) au travers du regard de Fern, qui se fait camérawoman, utilisant des cailloux percés pour observer la même réserve de Pine Ridge. C’est par cet apprentissage de la vision artistique que Fern parvient à recréer du lien dans un système capitaliste et individualiste qui déchire l’Amérique profonde et à se remettre de son deuil. L’étape finale de son développement est le regard caméra soulagé de Fern quand on lui indique la sortie d’un labyrinthe naturel : l’intime se noue aussi par la relation à la spectatrice.

Le regard caméra complice de Fern (Frances McDormand), perdue et retrouvée. Searchlight Pictures, 2020

Zhao pose ainsi les fondements de son esthétique intimiste, qui lui sera reprochée dans le cadre épique d’un film Marvel comme les Éternels (2021). Les plans rapprochés et les longues séquences à l’épaule où les personnages baignent dans des lumières rasantes (les fameuses golden hours) reflètent le cheminement émotionnel des personnages. Il s’agit de lenteur, de gros plans, voire de très gros plans, sur des personnages sensibles, marginalisés et souvent ignorés par les films hollywoodiens, dont la tradition cinématographique peine encore à séparer la figure de l’autochtone de l’Indien des westerns ou à centrer des personnages féminins marginalisés.

« Hamnet », un monde naturel où seul l’intime survit

Avec Hamnet (2026), la relecture du mythe shakespearien se fait à l’aune de la perte, annoncée dans une myriade de symboles : l’oiseau de proie, un gouffre mystérieux, l’inondation, les scènes d’accouchement anxiogènes. La forêt forme l’épicentre de la vie et de la mort dont émergent les femmes de la lignée d’Agnes : c’est là qu’elle accouche, qu’elle rencontre puis perd son oiseau. Surtout, les boutures de la clairière, symbole de vie et de renaissance, sont replantées dans le jardin de la maisonnette, reconstituées sur la scène du Théâtre du Globe et dans les tapisseries des coulisses de l’au-delà où attend Hamnet.

La mort, le monde naturel et la scène s’entremêlent dans le deuil de William (Paul Mescal). Focus Feature LLC, 2025

La dichotomie stéréotypée entre Agnes, femme de la forêt, et William, génie littéraire, s’inscrit dans le cinéma de Zhao : alors que William se construit par le verbe (contre son père, en jouant avec ses enfants, sur scène), Agnes, comme Jashaun et Fern, est caractérisée par la mise en scène de son regard sur le monde naturel. L’art et la nature s’emmêlent à l’image du couple, comme dans les costumes en treille et paille des enfants jouant Macbeth.

Le pathos du film ne fait pas non plus l’unanimité auprès de la critique. En effet, Zhao ne laisse aucune distance s’établir entre les personnages et les spectatrices et spectateurs : le film foisonne sensoriellement, souligne les textures, capture les micro-expressions, remplit l’espace sonore de bruits de fonds discrets qui rendent les rares silences insoutenables.

Gros plan illustrant la caractérisation d’Agnes dans le monde naturel : son regard et ses émotions sont le sujet de la scène. Focus Feature LLC, 2025

Alors que le film commence sur des plans pied ou panoramiques, la caméra de Zhao se rapproche progressivement des visages à mesure qu’approche la disparition de l’enfant, jusqu’à finir sur les gros plans à l’épaule qui caractérisent l’agonie du fils et le cri de sa mère.

La caméra, suivant les dynamiques de l’intime propre au cinéma de Zhao, semble également représenter une puissance de vie et de mort : un très gros plan vacillant sur l’œil de William symbolise ses tendances suicidaires sur le quai, un regard caméra terrifié de Hamnet brise le quatrième mur quand il prend la place de sa sœur dans le lit de mort. Le regard spectateur, si intime dans Nomadland, se fait celui de la Faucheuse : nous, public presque voyeur, annonçons la scène finale ou l’acteur fantomatique d’Hamlet transcende la frontière de la mort et des planches en prenant la main d’Agnes.

Comme Jashaun, Fern ou Brady, Agnes redécouvre ses émotions au travers de la confrontation avec l’art et le toucher. En serrant la chair du pouce, Agnes perçoit les paysages secrets de ceux qu’elle aime, et c’est par la perte de ce contact que le couple se déchire dans le deuil de leur enfant. C’est donc également par ce toucher qu’Agnes rend universel le deuil de ce fils-personnage conjuré par les mots de son mari : une fois que les parents s’accordent sur la forme du deuil et que la mère a pu recréer de l’intime individuel avec les fantômes sur scène, les autres spectateurs se joignent à l’expérience de cette perte.

The Conversation

Joanne Vrignaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.02.2026 à 16:26

La grande démission citoyenne : 59 % des Français ne soutiennent aucun parti politique

Vincent Tiberj, Professeur des universités, délégué recherche de Sciences Po Bordeaux, Sciences Po Bordeaux

Le niveau de défiance envers les partis politiques n’a jamais été aussi fort. Cette majorité de « sans-parti » questionne le fonctionnement de notre démocratie.
Texte intégral (2261 mots)
Entre 2016 et 2020, les citoyens qui ne soutiennent aucun parti politique sont passés de 51 % à plus de 59 %, une proportion inédite. RVillalon/Shutterstock

Les partis politiques sont de moins en moins soutenus – aucun ne dépasse 10 % de soutien –, et les citoyens « sans parti » ont atteint le nombre inédit de 60 %. Les débats continuent à s’organiser autour des partis politiques comme si de rien n’était, mais les fondements de notre démocratie « représentative » sont en péril.


Nous vivons une étrange période politique. La coalition qui gouverne n’est pas celle qui est sortie victorieuse des élections de 2024. Les débats continuent à s’organiser autour des figures et partis politiques comme si de rien n’était. La perspective de la présidentielle est dans les têtes et elle est préparée activement dans les cercles partisans. Pourtant, les niveaux de défiance n’ont jamais été aussi forts en France et la classe politique est devenue un des sujets majeurs de préoccupations des répondants aux sondages. La « grande démission civique » aboutit à ce que de plus en plus de citoyens se détournent des urnes et des partis pour faire politique autrement.

Ici, je me focalise sur un aspect particulier de cette grande démission, celui qui interroge les liens entre citoyens et partis. Dans les routines de pensée sondagières, il y a cette habitude de continuer à analyser les réponses en fonction de la proximité partisane. Cette approche est doublement trompeuse : elle laisse supposer que les partis sont encore soutenus alors que leurs racines populaires sont de plus en plus ténues, et elle sort de l’analyse tous les démissionnaires, faisant comme si, parce qu’ils n’ont pas de parti proche, ils n’auraient pas de préférences. On va voir que ces « sans-parti » ne sont pas n’importe qui et que leur nombre grandissant oblige à penser différemment notre démocratie.

L’érosion du lien positif aux partis

Figure 1 : lien et absence de proximité partisane en France (1999-2023)

Les « sans-parti », dans la version stricte de l’ESS ou élargie des enquêtes françaises sont déjà nombreux dès le début du XXIᵉ siècle : en 2002-2016, on comptait entre 45 % et 51 % pour l’ESS tandis que, dans le baromètre CNCDH, on a assisté à une progression des sans-parti de 30 % en 1999 à 44 % en 2010, puis à une baisse après la présidentielle de 2012 (25 %) avant qu’ils ne remontent à 34 % en 2016. De plus, les noyaux durs partisans, ces répondants qui se disent « très ou assez proches » d’une formation peinent à dépasser le tiers des répondants. Ceci dénote déjà l’ampleur de l’insatisfaction d’un nombre conséquent de citoyens français face à l’ensemble des partis qui se disputent leurs suffrages.

On aurait pu penser qu’il s’agissait là de l’épuisement des « vieux » partis Union pour un mouvement populaire (UMP) et Parti socialiste (PS), avant l’émergence d’Emmanuel Macron. Pourtant 2017 n’a pas changé la donne : entre 2016 et 2020, les sans-parti dans l’ESS passent de 51 % à 59 % tandis que les noyaux durs partisans ont reculé jusqu’à 23 % en 2020. Dans les enquêtes CNCDH, on a atteint 45 % en 2018 et 42 % en 2019. Surtout, cette faiblesse des partis se confirme après 2022. Pour se rendre compte de l’érosion des partis dans l’électorat, analysons en détail les proximités partisanes.

Figure 2 : le détail des proximités partisanes

Certaines évolutions sont les échos de moments politiques particuliers, notamment les victoires électorales : l’UMP en 2008, La République en marche (LREM) en 2018, après la victoire d’Emmanuel Macron. La décennie 2000 est marquée par la domination du duo PS/UMP. On parlait alors d’un « bipartisme à la française », selon l’expression de Gérard Grunberg et Florence Haegel.

En 2008, le troisième parti, le Mouvement démocratique (MoDem), rassemble quatre fois moins de soutiens que le PS (16 %) et l’UMP (17 %). Pourtant, même cumulés, les soutiens de ces deux partis ne pesaient qu’un peu plus d’un tiers des répondants.

Le mandat de François Hollande (2012-2017) voit reculer ces deux partis traditionnels : le PS passe de 16 % en 2012 à 7 % en 2018, et l’UMP (transformée en LR en 2015) de 14 % à 7 %. Cette érosion des partis de l’« ancien monde » ne s’est pas traduite pour autant par la montée en puissance des partis du « nouveau monde ». Le Rassemblement national (RN, ex-FN) ne séduit au mieux que 8 % des répondants en 2014. Quant au mouvement macroniste, il atteint 10 % de soutien en 2018, mais 8,5 % en 2020, soit guère mieux que le PS, Les Républicains (LR, ex-UMP) ou Europe Écologie-Les Verts (EELV) qui recueillent entre 6 % et 7 %. Quant à La France insoumise (LFI), elle reste largement en dessous des 5 %.

La vague post-2022 confirme la faiblesse numérique des partis français : le RN revient à son niveau de 2014, devant le parti macroniste (6 %), mais les Verts, le PS, LFI et LR comptent environ 5 % des suffrages chacun.

Dans la France des années 2020, on peut résumer ainsi la situation : la proportion des sans-parti n’a jamais été aussi forte, et l’on assiste à un fractionnement partisan sans précédent puisqu’aucun parti ne domine nettement. Surtout, la faiblesse numérique des soutiens pour chaque parti ne peut qu’interroger quand on la met en miroir d’un mode de scrutin qui favorise le fait majoritaire. Les présidents obtiennent bien une majorité de suffrages, mais leur parti peine à dépasser les 10 % de soutien, tout comme les finalistes du second tour. Cela doit nous interroger.

Les logiques sociales et générationnelles du recul partisan

Figure 3. Les évolutions des sans-parti selon le diplôme, la profession et les générations

Longtemps l’absence de lien partisan était signe d’incompétence politique. De fait la difficulté à prendre parti est plus fréquente chez les citoyens ordinaires tandis que les citoyens sophistiqués sont à la fois connaissants (ils sont informés du champ et des acteurs politiques) et « appétents » (ils sont intéressés). Mais cette explication ne suffit plus.

Certes, les apartisans sont plus nombreux parmi les moins diplômés, les catégories populaires (ici, les travailleurs qualifiés et non qualifiés) et les plus jeunes, ce qui va dans le sens d’une lecture privilégiant l’incompétence politique. Mais, dès le début de la période étudiée, parmi les groupes socialement les plus favorisés, la part des sans-parti est loin d’être négligeable. En 2004, les membres de la génération 1961-1980 ont entre 23 et 44 ans et comptent beaucoup plus de diplômés du supérieur que les générations précédentes, et pourtant 54 % d’entre eux ne se sentent proches d’aucun parti.

À partir du milieu des années 2010, l’augmentation des sans-parti vient démontrer qu’il se passe beaucoup plus qu’un simple effet de compétence politique. Entre 2012 et 2020, leur proportion gagne + 11 points parmi les plus diplômés, + 7 points dans la génération 1940-1960, + 7 points parmi la service class qualifiée (managers et cadres).

Les niveaux de sans-parti sont particulièrement importants dans les catégories populaires (en 2020, 62 % chez les travailleurs qualifiés et 70 % chez les non qualifiés, au-delà de 60 % chez ceux qui ont moins de 16 ans d’études), mais aussi chez les post-baby-boomers (59 %) et les millennials (68 %). Il reste des citoyens alignés, mais ils sont de moins en moins représentatifs de l’ensemble des Français.

La négativisation du lien partisan

Voter « pour » était évident, mais c’est le vote négatif (Catt, 1996) qui prend de plus en plus de place. Une tendance qui permet de comprendre pourquoi choisir un bulletin est de moins en moins synonyme de soutien et de plus en plus un choix faute de mieux.

Pour cela, on dispose depuis longtemps de questions qui mesurent la probabilité de voter pour différents partis, de 0 (exclut totalement de voter pour ce parti) à 10 (sûr de voter pour ce parti). Elles permettent de distinguer les ennemis (qui obtiennent la note de 0) des adversaires (notes de 1 à 4, voire 5) et des partenaires (notes supérieures à 5). Par ailleurs, on peut aussi mesurer les « supporters » (notes de 8 à 10).

Figure 4 : Les probabilités de vote pour les différents partis français en 2012 et en 2023

Les probabilités de vote mesurées en 2012 rendent compte d’un monde politique où il y avait certes de la négativité mais contenue. Seul le FN suscitait un rejet absolu chez plus de 40 % des répondants. Le second parti le plus rejeté était le Front de gauche (dont est issu LFI) avec environ 20 %. Du côté du lien positif au parti, quatre organisations recueillaient plus de 30 % de notes supérieures à 5 sur 10, le Front de gauche (30 %), le PS (31 %), les écologistes (53 %) et l’UMP (31 %).

La négativisation du rapport à l’offre politique est un phénomène majeur dans la France d’après 2022. Les partis considérés comme les plus à gauche et les plus à droite suscitent plus de rejet, 47 % des répondants donnent une note de 0 à LFI, 46 % font de même pour le RN et 69 % pour Reconquête d’Éric Zemmour. Cette négativité dépasse largement la part des électeurs qui ont des chances de voter pour ces mêmes partis. LFI compte 8 % de soutien fort (notes supérieures à 8), le RN 13 %, et le parti zemmouriste 2 %. Si l’on rajoute les notes 6 et 7, soit des préférences plus faibles, on atteint 14 %, 18 % et 4 %.

Mais le rejet et surtout la difficulté à fédérer des soutiens positifs touchent désormais l’ensemble de l’offre politique. EELV suscite 29 % de notes nulles, LR et LREM autour de 36 %, le PS et EELV autour de 30 %. Ce rejet est très différent de 2012. Tous ces partis entrent au mieux dans la catégorie des adversaires pour nombre de répondants. Politiquement, cela équivaut à ce qu’une victoire à la présidentielle de chacun des quatre plus importants partis se fasse « par défaut », dans une logique d’élimination du pire par rapport au moins pire.

Une situation dangereuse

La France se trouve dans une situation inédite et potentiellement dangereuse. D’un côté, les institutions fonctionnent et les partis politiques y opèrent. Mais de l’autre, ils le font avec des racines de plus en plus fragiles et de moins en moins représentatives de la société, en particulier en ce qui concerne les classes populaires et les nouvelles générations. On pourrait dire que les absents, les non-partisans, ont tort, mais c’est oublier qu’ils ont des préférences et des revendications spécifiques, et que l’offre politique française n’est pas en mesure d’y répondre. Plus grave encore, ont-elles l’intention de le faire ?

En 2024, les grands perdants des élections législatives ont été LR et les macronistes et pourtant ils gouvernent. Les partis peuvent faire comme d’habitude, mais c’est agir comme si ces citoyennes et ces citoyens qui se détournent des partis ne comptaient pour rien. D’ailleurs, il n’y a pas que les partis qui sont touchés. Il en va de même de l’éloignement des urnes d’une fraction croissante de l’électorat potentiel.

Tenir pour négligeable cette « grande démission citoyenne » met sous tension les équilibres politiques et notre modèle démocratique. C’est faire comme si les apartisans ou les abstentionnistes n’avaient pas d’opinions et de préférences ou faire comme si ceux qui restent alignés étaient représentatifs. C’est de moins en moins le cas et dans le cadre d’une démocratie qui reste centrée sur les élus, c’est nourrir la distance et le rejet d’un nombre de plus en plus important de Français.


Cet article est tiré de l’ouvrage French Democracy in Distress. Challenges and Opportunities in French Politics (Palgrave Macmillan, 2025), sous la direction d’Élodie Druez, Frédéric Gonthier, Camille Kelbel, Nonna Mayer, Felix-Christopher von Nostitz et Vincent Tiberj.

The Conversation

Vincent Tiberj ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.02.2026 à 16:24

Hauts-de-France, Pays de la Loire… quelle solidarité à l’épreuve des inégalités territoriales ?

Nathalie Chusseau, Professeure de Sciences Economiques, Université de Lille

Comment peut-on expliquer les différences de développement entre des régions ? Est-ce dû à l’histoire ? Ou les politiques menées jouent-elles un rôle ? Comment rendre celles-ci plus efficaces ?
Texte intégral (2984 mots)

Comment peut-on expliquer les différences de développement entre les régions ? Est-ce dû à l’histoire ? Ou les politiques menées jouent-elles un rôle ? Comment rendre ces dernières plus efficaces ? Décryptage des différences de situation entre les Hauts-de-France et les Pays de la Loire.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».


Les inégalités territoriales regroupent les disparités économiques, sociales, et environnementales entre différents territoires, régionaux ou locaux. Ces inégalités peuvent se manifester sous de multiples formes : différences en termes de niveau de vie, d’éducation, d’accès aux services publics, d’opportunités d’emploi, ou d’infrastructures. Elles mesurent les écarts de développement socio-économique et de bien-être entre différentes zones géographiques. Elles peuvent être mesurées via différents indicateurs.

Emportant des conséquences sociales, économiques et environnementales majeures, des politiques publiques spécifiques sont nécessaires pour remédier à ces inégalités. Souvent liées à des facteurs historiques et structurels, elles génèrent un sentiment d’abandon et d’injustice chez les populations concernées.

Deux régions, deux histoires

Pour illustrer un propos plus général, on compare deux régions en termes de niveau d’inégalités territoriales et de trajectoire. Les inégalités territoriales s’étudient via les politiques publiques déclinées localement en tenant compte de l’histoire régionale, de la spécialisation économique et de l’aménagement du territoire.

En comparant les Hauts-de-France et les Pays de la Loire, totalement opposées tant du point de vue de l’histoire industrielle que des grands projets d’infrastructures et du mode de développement, nous allons pouvoir comprendre le rôle de la décision publique, nationale et locale, dans le développement économique et social du territoire. Nous pourrons alors en tirer les leçons sur la stratégie à mettre en œuvre, l’échelon décisionnel le plus approprié, et la méthode à appliquer pour réduire la fracture territoriale.

Indicateurs / Zones 2000/2005 2011 2022
Revenu fiscal médian par unité de consommation (€) France hexagonale : 13 949 20 184 23 080
Hauts-de-France : 12 000 18 636 21 420
Pays de la Loire : 13 400 19 941 23 050
Rapport interdécile du niveau de vie (D9/D1) France hexagonale : 3,5 3,00 3,00
Hauts-de-France : Nd* 3,00 3,00
Pays de la Loire : Nd* 3,00 3,00
Taux de pauvreté (%) France hexagonale : 13,40 % 14,00 % 14,00 %
Hauts-de-France : Nd* 18,00 % 18,00 %
Pays de la Loire : 9,90 % 11,00 % 11,00 %
Part des personnes non scolarisées de 16 ans ou plus titulaires d’un diplôme universitaire France hexagonale : 17,40 % 25,00 % 33,00 %
Hauts-de-France : 13,50 % 20,00 % 27,00 %
Pays de la Loire : 14,20 % 22,00 % 31,00 %
Taux de NEETs (%) France hexagonale : 10,16 % 17,00 % 15,00 %
Hauts-de-France : 15,60 % 21,00 % 18,00 %
Pays de la Loire : 8,80 % 14,00 % 12,00 %
Taux de chômage au sens du BIT (%) France hexagonale : 8,70 % 9,00 % 7,00 %
Hauts-de-France : 11,20 % 12,00 % 9,00 %
Pays de la Loire : 7,30 % 8,00 % 6,00 %
Taux d’emploi des 15 à 64 ans (%) France hexagonale : 63,10 % 63,00 % 66,00 %
Hauts-de-France : 58,70 % 59,00 % 62,00 %
Pays de la Loire : 66,40 % 66,00 % 69,00 %
Taux d’activité féminin 15-64 ans (%) France hexagonale : 67,00 % 68,00 % 72,00 %
Hauts-de-France : 61,70 % 64,00 % 68,00 %
Pays de la Loire : 69,20 % 70,00 % 75,00 %
Part des créations d’entreprises dans l’industrie (%) France hexagonale : Nd* 5,00 % 4,00 %
Hauts-de-France : Nd* 5,00 % 5,00 %
Pays de la Loire : Nd* 6,00 % 6,00 %
Espérance de vie (ans) France hexagonale : 79,7 82,0 83,0
Hauts-de-France : 78,3 80,0 81,0
Pays de la Loire : 81,0 82,0 84,0
Taux de mortalité (pour 1 000) France hexagonale : 8,63 9,0 9,0
Hauts-de-France : 8,94 9,0 9,0
Pays de la Loire : 8,55 8,0 9,0
Part des personnes non scolarisées 15 ans ou + titulaires d’un diplôme de l’enseignement supérieur (%) France hexagonale : 22,20 % 25,00 % 33,00 %
Hauts-de-France : 17,60 % 20,00 % 27,00 %
Pays de la Loire : 19,20 % 22,00 % 30,00 %

Sources : Observatoire des territoires ; Insee, Recensements de la population ; Insee, Enquête emploi ; Insee, Annuaire des statistiques régionales ; Insee, Données démographiques ; Insee, Indicateurs sur la pauvreté ; NEET : part des 15-24 ans ; * Non disponible

Les inégalités se cumulent

L’analyse des indicateurs socio-économiques en région Hauts-de-France et Pays de la Loire (tableau 1) montre de fortes inégalités dans les Hauts-de-France comparativement aux Pays de la Loire et au reste du territoire national, et ce quel que soit le champ considéré. On observe une inégalité de revenu disponible (après redistribution) qui demeure bien supérieure à celle observée en Pays de la Loire, avec un faible revenu médian qui témoigne d’une forte précarité caractérisée par des taux de pauvreté largement supérieurs à la moyenne nationale.

On observe également de fortes inégalités de santé (faible espérance de vie et surmortalité), des inégalités environnementales marquées (précarité énergétique et pollution environnementale), des inégalités de formation conséquentes (faible part de diplômés du supérieur et fort taux de jeunes Not in Employment Education or Training, NEET), et un retard économique caractérisé par un taux de chômage élevé et un taux d’emploi faible associés à une moindre création d’entreprises industrielles et un taux d’activité féminin limité.


À lire aussi : Restaurer la confiance au niveau local : un enjeu économique et démocratique national


Si ce constat est assez alarmant, il est encore plus inquiétant d’observer une absence de rattrapage par les Hauts-de-France depuis les années 90. En clair, les inégalités y demeurent importantes et on ne voit pas d’amélioration de la trajectoire, y compris du point de vue de l’état de santé de la population. À cela s’ajoute la fracture entre territoires urbains et ruraux : les habitants des territoires ruraux ont un accès limité à l’emploi et aux services publics essentiels (santé, éducation, transport), avec des problèmes accrus de mobilité, de désertification médicale et davantage de pauvreté.

Initiatives citoyennes face au désengagement de l’État

Ces inégalités territoriales fragilisent la solidarité financière entre les territoires. Les collectivités territoriales sont dépendantes des dotations de l’État et des impôts locaux pour financer leurs projets. Les communes rurales ou les territoires moins peuplés peinent à générer suffisamment de ressources fiscales pour couvrir leurs besoins en matière d’infrastructures et de services publics. Ce phénomène est exacerbé par la baisse des dotations de l’État, et la suppression de la taxe d’habitation.

Par ailleurs, de nombreuses initiatives citoyennes cherchent à pallier les inégalités territoriales. Des associations et des collectifs citoyens agissent directement pour réduire localement les inégalités via des programmes d’aide alimentaire, de soutien scolaire et à l’alphabétisation, d’accès aux soins et à la culture, notamment dans les quartiers défavorisés.

Les entreprises jouent également un rôle important dans la réduction des inégalités territoriales, en investissant dans des projets locaux visant à dynamiser les territoires. Comment expliquer une telle diversité de situation ? Comment agir efficacement pour réduire les inégalités territoriales ?

Une industrialisation plus tardive dans les Pays de la Loire

L’existence de disparités entre les territoires s’explique d’abord par l’héritage historique en matière de spécialisation économique.

Dans les Pays de la Loire, on observe une industrialisation principalement en Vendée, mais qui s’étend en Loire-Atlantique, en Deux-Sèvres et en Maine et Loire, avec une spécialisation textile de longue date dans le choletais, et le développement de la construction navale et de la sidérurgie au XIXe siècle. Toutefois, en Vendée, l’industrie se développe au cœur de la société rurale. Et c’est principalement dans la moitié du XXe siècle que s’est faite son industrialisation, avec des entrepreneurs et des capitaux locaux, dans les secteurs de la construction nautique, les transports et l’agroalimentaire.

Actuellement, on observe une forte densité de petites et moyennes entreprises industrielles permettant à cette région rurale de bénéficier d’un taux de chômage et d’un taux de pauvreté globalement inférieurs à la moyenne nationale.

L’héritage historique

On connaît la forte spécialisation industrielle de la Région Nord-Pas de Calais dès le début du XIXᵉ siècle, et son fort essor lié au développement du capitalisme largement inspiré de la révolution industrielle connue par la Grande-Bretagne, avec des investissements massifs dans les machines textiles et l’exploitation minière.

On constate ensuite une forte désindustrialisation dès les années soixante pour les mines et les années soixante-dix pour le textile, avec une perte considérable d’emplois (un tiers de l’emploi industriel est détruit entre 1975 et 1990) et la fin des industries traditionnelles. Aujourd’hui, on observe un processus de réindustrialisation qui se veut massive, largement appuyé par de grands projets d’infrastructures financés par l’État (Grand Port Maritime de Dunkerque, centrale nucléaire de Gravelines, plates-formes logistiques, gigafactory de batteries…).

Toutefois, la Région Hauts-de-France peine à se remettre de la désindustrialisation, et présente des indicateurs de développement économique et sociaux bien en deçà de la moyenne nationale et de ceux observés en Pays de la Loire. Certains territoires restent encore particulièrement marqués, comme le bassin minier.

Dans les Hauts-de-France, la désindustrialisation a probablement aussi pesé sur les comportements individuels et l’entrepreneuriat. Ainsi, contrairement aux Pays-de-Loire, l’entrepreneuriat semble freiné par le poids d’un paternalisme industriel qui a façonné les esprits.

Superposition des échelons décisionnels locaux

Les disparités territoriales sont accrues en raison du mille-feuilles territorial, avec des échelons qui ne remplissent pas ou mal les obligations liées à leurs compétences administratives, et d’autres qui s’emparent de compétences qui ne les concernent pas, avec pour conséquence une surutilisation de moyens humains et financiers, sans coordination des acteurs, et parfois sans les compétences requises, et donc sans réelle efficacité.

Or, sur les territoires où la coopération intercommunale instaure la coordination de l’ensemble des acteurs (élus, entreprises, habitants, associations, fournisseurs et distributeurs d’énergie, syndicats, acteur…) autour d’objectifs communs de développement économique, social et culturel, d’aménagement du territoire, et de politiques de la ville et du logement, on constate que les inégalités se réduisent. L’exemple le plus probant est celui de la communauté urbaine de Dunkerque.

Un coût de 10 milliards d’euros

En réalité, la superposition des échelons décisionnels locaux engendre une accumulation de politiques publiques locales, souvent non coordonnées, difficilement lisibles, qui font doublon, et sont malheureusement peu efficaces. Le coût de l’inefficacité de ces dépenses publiques est difficile à chiffrer. Toutefois, dans son rapport public annuel de 2020, la Cour des comptes a évalué le coût administratif du mille-feuille territorial à près de 10 milliards d’euros par an. Ce montant inclut les dépenses liées aux doublons administratifs entre les communes, les EPCI, les départements, les régions, et autres niveaux de collectivité.

Les coûts proviennent de la multiplication des structures, des fonctions administratives et des politiques locales qui se chevauchent, générant ainsi des redondances dans la gestion publique, et notamment les duplications de services et de fonctions. La simplification de la structure des collectivités locales apparaît comme indispensable pour améliorer leur efficacité et réduire ce coût inutile.

Une réelle stratégie nationale déclinée au niveau local

On ne voit pas au niveau national, un réel plan à moyen-terme de réduction des inégalités territoriales. Au contraire, on observe un éparpillement de différents programmes nationaux peu lisibles, rarement évalués, dont l’application est confiée à l’Agence nationale de la cohésion des territoires (ANACT), mais sans grande stratégie nationale imposant des objectifs clairs déclinés au niveau local.

La décision de politique publique doit être prise par les politiques au niveau national, avec les financements correspondants, et une déclinaison appropriée au niveau local. Celle-ci implique de fait la participation des élus locaux, le tandem préfet/élus locaux étant le levier de mise en œuvre des politiques locales de réduction des inégalités.

Un diagnostic précis requis

Pour cela, il faut mener une analyse précise de la situation du territoire à partir d’indicateurs dûment sélectionnés mesurant le niveau et l’évolution de l’emploi, l’activité économique, la formation initiale et continue, le nombre de décrocheurs, l’état de santé de la population, l’entrepreneuriat et l’innovation, l’investissement, l’accès aux énergies et aux services publics, l’offre de soins…

Ce constat doit être réalisé avec des experts universitaires locaux, formés à l’évaluation des politiques publiques, qui connaissent le territoire.

Hugo décrypte, 2024.

Une évaluation systématique dès l’amont

Quel que soit l’échelon, l’évaluation des politiques publiques locales reste assez marginale, très inégale et peu systématique. Les collectivités territoriales ne sont pas toujours soumises à des obligations strictes d’évaluation de leurs politiques publiques. Les outils d’évaluation (indicateurs de performance, rapports d’activité, etc.) sont souvent insuffisamment utilisés ou bien trop généraux pour permettre une analyse fine de l’efficacité des mesures.

Les élus locaux et nationaux doivent être acculturés à l’élaboration, au suivi et à l’évaluation des politiques publiques. En effet, une politique publique se pense et s’évalue en amont de sa mise en œuvre, et la collecte de données est indispensable tout au long du dispositif. Il est crucial de programmer une évaluation systématique de la mesure, et de créer des collaborations avec celles et ceux qui savent les concevoir et les évaluer, c’est-à-dire les universitaires locaux formés aux méthodes d’évaluation. Il faut aussi associer les habitants à la mise en œuvre de ces politiques locales : les consulter en amont, leur expliquer ce qui est envisagé, et les associer à l’instauration de ces politiques.


Cet article est un extrait d’un article publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ». L’article peut être consulté en ligne.

The Conversation

Nathalie Chusseau a reçu des financements de l'ANR et du CPER.

PDF

11.02.2026 à 16:23

« Jeudi noir » du bitcoin : plus intégré que jamais à l’économie mondiale, mais toujours aussi volatil

Mehdi Guelmamen, Doctorant en sciences économiques, Université de Lorraine

L’intégration croissante du bitcoin ne s’est pas traduite par une stabilisation de son cours, mais par une sensibilité accrue aux chocs macroéconomiques.
Texte intégral (1803 mots)
En 2024, les autorités états-uniennes ont autorisé la mise sur le marché des premiers fonds indiciels cotés en Bourse adossés à des cryptoactifs, dont le bitcoin. Pingingz/Shutterstock

Le 5 février 2026, le bitcoin a connu son « Jeudi noir ». Longtemps présenté comme un actif à part, susceptible d’évoluer indépendamment des marchés financiers traditionnels, le bitcoin est aujourd’hui profondément intégré à la finance mondiale. Paradoxalement, cette intégration croissante ne s’est pas traduite par une stabilisation de son cours, mais par une sensibilité accrue aux chocs macroéconomiques et par l’émergence de nouveaux risques de contagion financière.


Ces derniers mois, et surtout ces derniers jours, le bitcoin a connu des épisodes de volatilité d’une ampleur inédite. En quatre mois, la cryptomonnaie phare a perdu 50 % de sa valeur. En l’espace d’une semaine, le marché des cryptomonnaies a perdu 700 milliards de dollars de capitalisation.

Dans l’un de nos travaux en cours, nous montrons que des annonces de politique commerciale ou monétaire venues des États-Unis peuvent provoquer des variations brutales du cours du bitcoin en l’espace de quelques heures.

Cours du bitcoin depuis 2016. Boursorama

Ce constat tranche avec l’image longtemps associée à cet actif. Conçu comme un système monétaire décentralisé, indépendant des banques centrales et des politiques économiques nationales, le bitcoin est souvent présenté comme un instrument capable d’évoluer en marge des cycles financiers traditionnels. Cette promesse de décorrélation constitue l’un des piliers de son attractivité initiale.

Cette lecture est de moins en moins compatible avec la réalité observée. Loin de rester isolé, le bitcoin s’est progressivement inséré au cœur des mécanismes financiers globaux. Il est aujourd’hui détenu, échangé et intégré dans des stratégies de portefeuille aux côtés d’actifs classiques tels que les actions, les obligations ou les matières premières. Cette transformation structurelle modifie profondément la nature de ses fluctuations.

Alors, comment expliquer ce paradoxe ?

Volatilité du bitcoin

Le bitcoin ne réagit plus uniquement à des facteurs internes à l’écosystème des cryptoactifs. Sa volatilité est désormais étroitement liée aux chocs macroéconomiques, tels que les variations de taux d’intérêt, les annonces d’inflation ou les épisodes de stress financier.

Lorsqu’un choc survient, les investisseurs ajustent leurs portefeuilles de manière globale. Le bitcoin peut alors être vendu, non pas en raison de caractéristiques propres, mais pour couvrir des pertes, réduire l’exposition au risque ou répondre à des contraintes de liquidité. Il devient, de fait, une variable d’ajustement comme une autre.

Le graphique ci-dessous illustre cette dynamique. Il montre que plusieurs phases de forte baisse du bitcoin coïncident avec des événements macroéconomiques majeurs. En mars 2020, lors du déclenchement de la pandémie de Covid-19, son prix chute d’environ 40 % en une seule journée. En 2021, l’annonce de chiffres d’inflation élevés aux États-Unis entraîne une baisse de près de 30 % du cours.

Ces épisodes suggèrent que le bitcoin ne joue plus le rôle de valeur refuge parfois mis en avant, mais qu’il amplifie au contraire certaines dynamiques de marché en période de tension.

Intégration croissante aux ETF

L’intégration du bitcoin aux marchés financiers s’est accélérée avec l’entrée d’investisseurs institutionnels et le développement de produits financiers permettant d’y être exposé sans détenir directement l’actif. Les fonds cotés en Bourse (ETF) adossés au bitcoin illustrent cette évolution.

En achetant un ETF bitcoin, l’investisseur ne détient pas directement des bitcoins, mais un titre financier dont la valeur suit l’évolution de leur prix. Dans le cas des ETF dits « spot », les émetteurs détiennent effectivement des bitcoins afin de répliquer le cours. Il existe aussi des ETF « synthétiques », qui ne possèdent pas les bitcoins mais reproduisent leurs performances. Ces produits financiers créent un lien direct entre le marché du bitcoin et les marchés financiers traditionnels.

Le bitcoin n’est plus seulement perçu comme un actif expérimental ou marginal, mais comme une composante à part entière de stratégies d’investissement diversifiées. À la fin de l’année 2025, près de 115 milliards de dollars (96,9 milliards d’euros) étaient investis dans ces ETF.

Les fonds de gestion friands de bitcoins

Cette intégration accrue ne concerne pas seulement les investisseurs individuels. Les acteurs institutionnels occupent désormais une place importante dans l’écosystème. Des fonds de gestion, des banques d’investissement et de grandes entreprises cotées détiennent des positions significatives en bitcoin ou dans des produits qui y sont liés.

BlackRock, par exemple, a investi 217 millions de dollars (182,9 millions d’euros) dans des produits liés au bitcoin. Larry Fink, le dirigeant de BlackRock, déclarait pourtant que son cours pourrait atteindre, à terme, entre 500 000 et 700 000 dollars (entre 421 270 et 589 900 euros).

En zone euro, cette exposition passe par des acteurs soumis à la réglementation financière. Selon la Banque de France, les positions institutionnelles en bitcoin sont passées d’environ 13 milliards de dollars (10,9 milliards d’euros) début 2024 à plus de 33 milliards de dollars (27,8 milliards d’euros) fin 2024, pour près de 2 000 institutions exposées. Si ces montants restent limités au regard de la capitalisation totale du bitcoin, leur concentration et leur interconnexion avec le système financier traditionnel renforcent les risques de transmission.

La liquidité quasi continue du marché du bitcoin, accessible 24 heures sur 24, 7 jours sur 7, peut accélérer la propagation des chocs vers d’autres classes d’actifs. Selon le FMI, lors de la crise sanitaire, la volatilité du bitcoin expliquerait jusqu’à 16 % de la volatilité du S&P 500, et environ 10 % de la variation de ses rendements. Autrement dit, les fluctuations du bitcoin ne restent plus cantonnées à l’univers des cryptoactifs.

Nouveau défi pour les épargnants

Pour les épargnants, cette transformation pose un défi majeur. La présence d’acteurs institutionnels et l’encadrement des intermédiaires peuvent donner l’impression que le bitcoin est devenu un actif comparable aux instruments financiers traditionnels, et donc moins risqué. Cette perception est trompeuse.

En France, environ 5 millions de particuliers ont déjà investi dans des cryptoactifs, souvent sans disposer d’outils de couverture ou de diversification adaptés. Lors des phases de retournement, les pertes peuvent être rapides et importantes. En 2022, le bitcoin a perdu près de 60 % de sa valeur, tandis que l’ensemble du marché des cryptoactifs enregistrait une perte d’environ 1 700 milliards de dollars (1 433 milliards d’euros). Ce jeudi 5 février 2026, en quarante-huit heures, le bitcoin a plongé de près de 15 %, passant sous les 70 000 dollars (59 000 euros).

L’intégration du bitcoin à la finance mondiale n’a donc pas réduit le risque, elle l’a déplacé en l’inscrivant dans des dynamiques macroéconomiques plus larges et potentiellement plus systémiques.


Cet article a été intégralement co-écrit avec Sami Es-Snibi, étudiant à l’Université de Lorraine.

The Conversation

Mehdi Guelmamen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.02.2026 à 16:22

Des centaines de séismes ont été détectés à proximité du « glacier de l’apocalypse » en Antarctique

Thanh-Son Pham, ARC DECRA Fellow in Geophysics, Australian National University

Longtemps insaisissables, des séismes glaciaires ont été détectés pour la première fois en Antarctique. Ils pourraient aider à comprendre le rôle du glacier de Thwaites dans la montée du niveau de la mer.
Texte intégral (1459 mots)
L’extrémité du glacier libère de grands icebergs, dont le basculement, ou vêlage, déclenche des secousses sismiques. Copernicus/ESA, CC BY

Grâce à l’utilisation de stations sismiques locales, des chercheurs ont identifié des centaines de séismes glaciaires au glacier de Thwaites, jusqu’ici passés inaperçus. Ils permettent de suivre l’activité d’une zone critique pour la stabilité antarctique.


Les séismes glaciaires sont un type particulier de tremblement de terre dans les régions froides et glacées. Découverts pour la première fois dans l’hémisphère Nord il y a plus de vingt ans, ils se produisent lorsque d’énormes blocs de glace tombent des glaciers dans la mer, générant des vibrations qui se propagent ensuite dans le sol sous le glacier et au-delà.

Jusqu’à présent, seuls très peu de ces séismes provoqués par la chute de blocs de glace avaient été détectés en Antarctique. Dans une nouvelle étude publiée dans Geophysical Research Letters, je présente des preuves de centaines d’occurrences en Antarctique entre 2010 et 2023, principalement à l’extrémité océanique du glacier Thwaites – le fameux « glacier de l’Apocalypse », qui pourrait provoquer une montée rapide du niveau de la mer en cas d’effondrement.


À lire aussi : Face à la fonte des glaces de l’Antarctique, le niveau de la mer n’augmente pas au même rythme partout


Une découverte récente

Un séisme glaciaire se produit lorsque de hauts icebergs effilés se détachent de l’extrémité d’un glacier et tombent dans l’océan.

Lorsque ces blocs basculent, ils heurtent violemment le glacier principal. Ce choc génère de fortes vibrations mécaniques du sol, ou ondes sismiques, qui se propagent sur des milliers de kilomètres depuis leur origine.

Ce qui rend les séismes glaciaires uniques, c’est qu’ils ne génèrent aucune onde sismique à haute fréquence. Et comme ces ondes sont essentielles pour détecter et localiser les sources sismiques classiques, comme les tremblements de terre, les volcans ou les explosions nucléaires, les séismes glaciaires n’ont été découverts que relativement récemment, alors que d’autres sources sismiques sont, elles, analysées quotidiennement depuis plusieurs décennies.

Variations saisonnières

La plupart des séismes glaciaires détectés jusqu’à présent ont été localisés près des extrémités des glaciers au Groenland, la plus grande calotte glaciaire de l’hémisphère nord.

Ils présentent des magnitudes relativement élevées, dont les plus importantes sont comparables à celles des séismes provoqués par les essais nucléaires menés par la Corée du Nord au cours des deux dernières décennies. Ces magnitudes assez importantes permettent de suivre ces séismes glaciaires avec un réseau sismique international, opérationnel en continu.

Les événements groenlandais sont saisonniers. Ils surviennent plus fréquemment à la fin de l’été. Ils sont également devenus plus fréquents au cours des dernières décennies. Ces tendances pourraient être liées à un réchauffement climatique plus rapide dans les régions polaires.

En Antarctique, des preuves difficiles à obtenir

Bien que l’Antarctique abrite la plus grande calotte glaciaire de la planète, les preuves directes de séismes glaciaires causés par le basculement d’icebergs (on parle de vêlage) sont difficiles à détecter.

La plupart des tentatives précédentes reposaient sur le réseau mondial de détecteurs sismiques – qui pourraient ne pas être suffisamment sensible si les séismes glaciaires antarctiques sont de magnitude beaucoup plus faible que ceux du Groenland.

Dans ma nouvelle étude, j’ai utilisé des stations sismiques situées en Antarctique. J’ai détecté ainsi plus de 360 événements sismiques glaciaires. La plupart ne figuraient pas dans les catalogues de séismes.

Ces événements sont situés dans deux zones, près des glaciers de Thwaites et de Pine Island. Ce sont les deux principales sources de la montée du niveau de la mer en provenance de l’Antarctique.

Les séismes du glacier de l’Apocalypse

Le glacier de Thwaites est parfois surnommé « glacier de l’Apocalypse », car, s’il venait à s’effondrer complètement, il ferait monter le niveau mondial des mers de 3 mètres – et parce qu’il est susceptible de se désintégrer rapidement.

Environ les deux tiers des événements que j’ai détectés – 245 sur 362 – se situaient près de l’extrémité du glacier en contact avec l’océan. La plupart sont probablement des séismes glaciaires causés par le basculement d’icebergs.

À la différence de ce qui se passe au Groenland, le principal facteur à l’origine de ces événements ne semble pas être la variation annuelle des températures de l’air.

La période la plus prolifique pour les séismes glaciaires à Thwaites, entre 2018 et 2020, coïncide plutôt avec une accélération de la progression de la langue glaciaire vers la mer. Cette accélération, confirmée de manière indépendante par des observations satellites, pourrait être liée aux conditions océaniques, mais leur effet est encore mal compris.

Ces nouveaux résultats suggèrent donc que l’état de l’océan peut avoir un impact à court terme sur la stabilité des glaciers qui terminent dans la mer. Cela mérite d’être étudié plus avant pour évaluer la contribution potentielle du glacier à la hausse future du niveau de la mer.


À lire aussi : Une nouvelle méthode pour évaluer l’élévation du niveau de la mer


Le deuxième plus grand groupe de séismes glaciaires antarctiques que j’ai observés se trouve près du glacier de Pine Island. Mais ces séismes étant situés à 60–80 kilomètres du rivage, il est peu probable qu’ils aient été provoqués par le basculement d’icebergs.

Ces événements demeurent énigmatiques et nécessitent des recherches complémentaires.

Perspectives pour la recherche sur les séismes glaciaires en Antarctique

La détection de séismes glaciaires liés au vêlage d’icebergs sur le glacier de Thwaites pourrait contribuer à avancer sur plusieurs questions scientifiques importantes. Parmi elles, figure l’interrogation fondamentale sur l’instabilité potentielle du glacier de Thwaites, en lien avec l’interaction entre océan, glace et substrat rocheux à l’endroit précis où il rejoint la mer.

Mieux comprendre ces mécanismes est essentiel pour réduire les grandes incertitudes sur les projections de montée du niveau de la mer au cours des prochains siècles.

The Conversation

Thanh-Son Pham a reçu des financements de l'Australian Research Council.

PDF

11.02.2026 à 16:22

Dogs and cats carry invasive land flatworms from garden to garden

Jean-Lou Justine, Professeur, UMR ISYEB (Institut de Systématique, Évolution, Biodiversité), Muséum national d’histoire naturelle (MNHN)

Leigh Winsor, Adjunct Senior Research Fellow, James Cook University

Citizen science allows us to discover how invasive flatworms travel from garden to garden… surprisingly, on the backs of dogs and cats!
Texte intégral (1051 mots)

What was discovered?

Domestic dogs and cats can carry invasive flatworms (Platyhelminthes) attached to their fur. Unwittingly, this is how they contribute to the spread of these invasive alien species. Our work on the subject has just been published in the scientific journal PeerJ.

Globally, invasive alien species represent one of the major threats to biodiversity. It is striking to discover that dogs and cats, our everyday companions, unwittingly contribute to the invasion of gardens by a species potentially dangerous to biodiversity.

How was the research conducted?

We were alerted by e-mails from individuals reporting the presence of worms attached to the fur of dogs and cats. We then re-examined over 6,000 messages received over 12 years and found that these observations were far from anecdotal: they represented approximately 7% of the reports. Remarkably, among the dozen or so species of exotic flatworms introduced into France, only one was affected: the yellow-striped flatworm, or Caenoplana variegata, a species from Australia whose diet consists of arthropods (woodlice, insects, spiders).

Caenoplana variegata, the land flatworm which is carried by dogs and cats. by Jean-Lou Justine, CC BY

Why is this discovery important?

It has long been known that exotic flatworms are transported from their countries of origin to Europe through means linked to human activities: containers of plants shipped by boat, trucks then delivering them to garden centres, and finally transported by car to gardens. It was not well understood how flatworms, which move very slowly, could then infest surrounding gardens. The mechanism identified is quite simple: a dog (or cat) rolls in the grass, a worm sticks to its fur, and the animal then deposits it a short distance away. In some cases, it even takes it home, bringing it to owners’ attention.

Furthermore, it is surprising to note that only one species is affected in France, even though it is not the most abundant. Obama nungara is the most widespread species, both in terms of the number of districts affected and the number of worms found in gardens, but there were no reports of animal transport for this species. This difference is explained by their diet. Obama nungara feeds on earthworms and snails, while Caenoplana variegata eats arthropods, producing a very abundant and sticky mucus that traps its prey. This mucus can adhere to animal fur (or to shoes or trousers, for that matter). On top of that, Caenoplana variegata reproduces asexually by cloning itself: just one single, transported worm can infest an entire garden.

We then attempted to estimate the distances travelled by the ten million cats and sixteen million dogs in France each year. Based on existing data, we arrived at a spectacular estimate: several billion kilometres in total, which is many times the distance from the Earth to the Sun! Even if only a small fraction of domestic animals carry worms, this represents an enormous number of opportunities to spread these invasive species.

It is important to clarify that this is not parasitism, but a phenomenon called “phoresy”. This is a well-known mechanism in nature, particularly in plants with sticky or spiny seeds, which cling to animal fur and fall a short distance away. But here, it is a sticky animal that accidentally becomes attached to a domestic pet and is dislodged some distance away.

What’s next?

We hope this discovery will stimulate further observations, and we expect more reports of the same kind. Furthermore, our published results concern France, for which citizen science has provided a wealth of information, but some observations suggest that the same phenomenon exists in other countries, albeit with different species of flatworms. It is now necessary to expand this research internationally to better understand the extent of this dispersal method and the species involved.


_The Research Brief is a short three-minute take on interesting academic work with context and commentary from the academics themselves.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

11.02.2026 à 16:21

Thaïlande : l’horizon démocratique s’éloigne

Alexandra Colombier, Spécialiste des médias en Thaïlande, Université Le Havre Normandie

Les élections consacrent la victoire des conservateurs tandis que progressistes et populistes reculent. Une réforme constitutionnelle aura lieu, mais elle sera étroitement encadrée.
Texte intégral (2868 mots)

**Les élections législatives et le référendum constitutionnel organisés le 8 février 2026 en Thaïlande ont conduit à une recomposition du paysage parlementaire. Le parti Bhumjaithai, avec Anutin Charnvirakul, le premier ministre sortant candidat à sa propre succession, s’impose comme la première force politique, devant le Parti du peuple, héritier du parti progressiste Move Forward, et Pheu Thai, formation issue du clan de l’ancien premier ministre Thaksin Shinawatra. Si le référendum, qui s’est tenu le même jour, a validé le principe d’une réforme constitutionnelle, sa mise en œuvre s’inscrit dans un cadre institutionnel fortement contraint par les rapports de force parlementaires et sénatoriaux.

¨¨

Le 8 février 2026, les électeurs thaïlandais ont été appelés aux urnes pour renouveler les 500 sièges de la Chambre des représentants et se prononcer simultanément sur un référendum constitutionnel. Le Parti de la fierté thaïe (Bhumjaithai) est arrivé en tête avec 193 sièges, devant le Parti du peuple (Phak Prachachon, 118 sièges) et Pour les Thaïs (Pheu Thai, 74 sièges).

Ces élections, qui se sont déroulées dans un contexte économique fragile et marqué par de fortes incertitudes régionales, notamment le conflit frontalier avec le Cambodge, confirment une recomposition du paysage politique thaïlandais et marquent un tournant symbolique. Anutin Charnvirakul, qui occupait le poste de premier ministre depuis seulement cinq mois au moment du scrutin, a su transformer une position gouvernementale fragile en victoire électorale décisive pour son parti.

Pour la première fois depuis plus d’une décennie, la stabilité et l’ordre se sont imposés comme valeurs centrales du débat électoral, dans un contexte où le nationalisme et la promesse de continuité institutionnelle ont primé sur les revendications réformistes.

Bhumjaithai, d’un parti à ancrage territorial à un pivot conservateur du système

La victoire de Bhumjaithai, qui n’avait obtenu que 71 sièges aux précédentes législatives, tenues en 2023, confirme la trajectoire d’un parti longtemps perçu comme périphérique. Fondé en 2008 par Newin Chidchob après sa rupture avec Thaksin Shinawatra, le parti s’est construit comme une organisation de pouvoir local fondée sur le patronage et les dynasties politiques, solidement ancrée à Buriram, dans l’Isan (Nord-Est du pays). Depuis ses bastions initiaux, Bhumjaithai a progressivement étendu son influence à l’ensemble de la région.

Le contrôle de ministères clés, notamment la santé publique, les transports puis l’intérieur, lui a permis de tisser des réseaux durables avec les administrations locales et les exécutifs provinciaux. Cette stratégie a été renforcée par une participation active aux élections des Provincial Administrative Organizations (PAO), organes décentralisés élus au niveau provincial qui gèrent le développement local, les infrastructures et les services publics, et constituent des relais essentiels du pouvoir dans les provinces. Elle explique la capacité du parti à transformer un soutien électoral diffus en victoires décisives.

Cette dynamique a culminé en septembre 2025 avec l’accession de Bhumjaithai au cœur du pouvoir parlementaire après la destitution par la Cour constitutionnelle de la première ministre Paetongtarn Shinawatra, et son remplacement par Anutin Charnvirakul.

Bhumjaithai s’est imposé comme l’acteur central de la recomposition conservatrice. L’effondrement progressif des partis pro-militaires issus du coup d’État de 2014 – qui avait renversé le gouvernement de Yingluck Shinawatra et instauré une junte dirigée par Prayut Chan-o-cha –, notamment le Palang Pracharath et le Ruam Thai Sang Chart, affaiblis par leurs divisions internes et leur perte de soutien populaire, a laissé un vide que le parti a su occuper. La domination de ses réseaux lors de l’élection sénatoriale de 2024 a débouché sur un Sénat largement aligné sur ses intérêts. Dans un système où la Chambre haute conserve un pouvoir décisif, toute stabilité gouvernementale passe désormais par Bhumjaithai.

Cette montée en puissance s’est accompagnée d’un travail ciblé en direction des classes moyennes et supérieures. Bhumjaithai a opéré ce repositionnement en s’entourant de figures technocratiques issues des élites administratives et économiques – Ekniti Nitithanprapas aux finances, Suphajee Suthumpun au commerce et Sihasak Phuangketkeow aux affaires étrangères –, ce qui a permis au parti de projeter une image de compétence économique et de crédibilité internationale. Cette configuration, explicitement assumée durant la campagne, a contribué à rendre Bhumjaithai politiquement acceptable pour un électorat jusque-là réticent.

La campagne électorale a combiné deux registres complémentaires. Sur le plan économique, le parti a promis le redressement de la croissance, la restauration de la confiance des investisseurs et une gestion budgétaire rigoureuse. Sur le plan sécuritaire, les tensions frontalières avec le Cambodge ont été instrumentalisées pour hiérarchiser les priorités autour de l’ordre et de la souveraineté nationale. Anutin a donné carte blanche à l’armée lors des affrontements de juillet et décembre 2025, présentant le conflit comme une « guerre contre l’armée des arnaques », visant les casinos cambodgiens utilisés pour la cybercriminalité.

Parallèlement, le parti a mobilisé le registre de la peur : instabilité politique chronique, risque d’ingérence étrangère (illustré par le scandale de l’appel entre Paetongtarn Shinawatra et Hun Sen), et menace supposée de bouleversement radical incarnée par le Parti du peuple. Le vote en faveur de Bhumjaithai s’est ainsi structuré autour d’une promesse de stabilité, de compétence technocratique et de fermeté face aux menaces extérieures.

Le Parti du peuple : le choix du pragmatisme

Le Parti du peuple arrive en deuxième position avec 118 sièges, ce qui constitue un recul par rapport aux 151 sièges gagnés en 2023 par Move Forward, auquel il a succédé après que celui-ci a été dissous par la Cour constitutionnelle en 2024. Ce résultat reflète une transformation de cette formation : née des mobilisations de rue et ancrée dans les mouvements sociaux, elle s’est progressivement tournée vers une approche plus pragmatique, au risque de perdre une partie de sa base militante.

En 2023, Move Forward promettait une transformation structurelle : réforme de l’article 112 du code pénal (qui punit de trois à quinze ans de prison toute critique, insulte ou menace envers le roi, la reine, l’héritier du trône ou le régent), démantèlement des monopoles, abolition de la conscription militaire. Trois ans plus tard, le Parti du peuple a opéré un virage stratégique. En septembre 2025, sa décision de soutenir Anutin Charnvirakul a déçu nombre de ses partisans.

Thanathorn Juangroongruangkit, cofondateur de Future Forward (dissous en 2020, dont Move Forward était l’héritier direct) devenu conseiller du parti, avait justifié ce choix par la nécessité de se montrer pragmatique. En échange, sa formation avait négocié un calendrier pour un référendum constitutionnel et une dissolution du Parlement dans les quatre mois.

Les dissolutions répétées ont affaibli les structures participatives. Le Parti du peuple s’est appuyé sur les réseaux sociaux et sur un leadership centralisé. Sur les listes de 2026, technocrates et entrepreneurs ont remplacé les militants. Le parti avait présenté trois candidats au poste de premier ministre : Natthaphong Ruengpanyawut, leader du parti, Sirikanya Tansakun, économiste et dirigeante adjointe du parti, et Veerayooth Kanchoochat, économiste. Aucun n’a réussi à recréer l’engouement de la campagne de 2023. Même le retour lors de la dernière semaine de Pita Limjaroenrat, ancien leader de Move Forward lors des élections de 2023, n’a pas suffisamment galvanisé l’électorat.

C’est Ruckchanok Srinok, 31 ans, qui a incarné l’énergie de la campagne. Candidate sur la liste proportionnelle nationale (100 sièges répartis entre les partis en fonction de leur score national, contrairement aux 400 sièges de circonscription attribués au candidat arrivé en tête localement), elle a exposé la corruption systémique, notamment les détournements de fonds au sein du Bureau en charge de la sécurité sociale, qui ont affecté 24,5 millions de personnes. Son comportement tranche avec les conventions politiques thaïlandaises : elle se déplace simplement à vélo, ne porte pas de vêtements de créateurs, ne provient pas d’une famille célèbre et n’a pas hérité d’une quelque fortune. Mais sa condamnation à six ans de prison pour lèse-majesté (elle est en liberté sous caution) incarne le dilemme du parti : comment réformer un système qui criminalise la réforme ?

Le résultat du 8 février 2026 est donc en deçà des espérances. Le Parti du peuple fait face à une question cruciale : né de la défiance contre l’establishment conservateur, peut-il s’appuyer sur le pragmatisme sans perdre son identité ?

Pheu Thai, l’échec d’une reconquête territoriale

Pheu Thai, parti populiste à l’identité idéologique aujourd’hui brouillée par ses alliances avec les conservateurs, arrive en troisième position avec 74 sièges, un recul très marqué par rapport aux 141 obtenus en 2023. Pour un parti qui se présentait encore récemment comme une force dominante, ce résultat constitue une défaite électorale nette. Il met en lumière l’échec de la stratégie de reconquête de ses bastions historiques dans le Nord du pays.

Le parti a mobilisé ses ressources habituelles, en s’appuyant sur des candidats sortants, des héritiers de dynasties politiques locales et des figures issues de ses réseaux traditionnels. Pheu Thai avait présenté trois candidats au poste de premier ministre : Yodchanan Wongsawat, neveu de Thaksin Shinawatra (premier ministre de 2001 à 2006, renversé par coup d’État, exilé pendant quinze ans, rentré en 2023 et actuellement incarcéré pour corruption), Julapun Amornvivat, le chef du parti, et Suriya Juangroongruangkit, ancien ministre des transports. Le parti a également cherché à élargir son audience par des politiques populistes, dont un projet de loterie quotidienne de 9 millions de bahts (près de 250 000 euros) adossée à un dispositif fiscal numérique. Cette mesure a suscité de nombreuses critiques et n’a pas produit les effets escomptés.

De plus, la campagne s’est déroulée dans un contexte politique fortement dégradé pour Pheu Thai. La divulgation d’une conversation téléphonique où Paetongtarn Shinawatra adoptait un ton informel et conciliant à l’égard de Hun Sen, ancien premier ministre cambodgien, aujourd’hui sénateur et père de l’actuel premier ministre Hun Manet, avait provoqué la chute du gouvernement en août 2025 et sérieusement ébranlé la crédibilité du parti. Tout au long de la campagne, cet épisode a été abondamment exploité par les adversaires de Pheu Thai. Cette fragilisation s’est trouvée accentuée par l’incarcération de Thaksin Shinawatra depuis le 9 septembre 2025, ce qui a privé le parti de sa figure tutélaire.

Le Parti démocrate survit et Kla Tham entre au Parlement

Au-delà des trois partis arrivés en tête, le scrutin de février 2026 a révélé deux évolutions importantes : le Parti démocrate a enregistré des résultats contrastés mais notables et Kla Tham a réalisé une percée lors de sa première participation électorale nationale d’ampleur.

Après plusieurs cycles de recul électoral, le Parti démocrate a opéré un repositionnement sous la direction d’Abhisit Vejjajiva. L’ancien premier ministre (2008-2011) avait quitté la direction du parti en 2019, à la suite d’une lourde défaite électorale et de divisions internes persistantes. Pour ces élections, il s’est entouré de figures technocratiques telles que Korn Chatikavanij, ancien ministre des finances, et Karndee Leopairote, spécialiste des politiques économiques. Leur stratégie s’est fondée sur la rigueur institutionnelle, la discipline budgétaire et la lutte contre la corruption.

En apparence, le résultat du Parti démocrate peut sembler décevant. Le parti a perdu des sièges par rapport à 2023. Avec seulement huit députés sortants au moment de la dissolution, il faisait face à un défi majeur pour remporter des sièges en circonscription. Mais ce résultat global masque une dynamique importante. Sur les listes proportionnelles, le parti a obtenu environ 3,6 millions de voix, un score très proche de sa performance de 2019. En quelques mois seulement après son retour à la tête du parti, Abhisit Vejjajiva est parvenu à reconquérir une part importante de l’électorat démocrate. Pour un parti en difficulté depuis plusieurs années, ce résultat constitue une forme de stabilisation.

Kla Tham a effectué une entrée marquante au Parlement avec 58 sièges de circonscription. Le parti n’a obtenu que deux sièges proportionnels. Thammanat Prompao dirige cette formation. Cette figure controversée possède un passé judiciaire chargé. Il a joué un rôle central dans les négociations de coalition sous Prayut Chan-o-cha. Le parti s’est structuré comme un véhicule électoral. Plus de la moitié de ses candidats avaient concouru sous d’autres étiquettes lors de scrutins précédents.

Sa campagne s’est appuyée sur l’implantation territoriale de ses candidats et sur une stratégie de continuité, faisant de la politique locale la racine d’une politique plus large. Les propositions programmatiques ont joué un rôle secondaire, l’accent étant mis sur le travail de terrain et l’ancrage dans les réseaux locaux. L’entrée de Kla Tham au Parlement s’opère dans un contexte de soupçons persistants liés aux financements politiques et aux liens de certains cadres avec des intérêts économiques controversés. Le soir du scrutin, Thammanat a souligné la position charnière de sa formation dans les négociations à venir.

Le référendum constitutionnel et ses contraintes politiques

Organisé simultanément aux élections législatives, le référendum constitutionnel portait sur l’ouverture d’un processus de réécriture de la Constitution de 2017. 58,3 % des votants se sont prononcés en faveur de ce processus, contre 30,8 % d’opposition et 8,3 % de votes blancs. Ce vote exprime une attente de réforme constitutionnelle, sans pour autant constituer un mandat précis sur la nature ou l’ampleur des changements à venir.

Le cadre institutionnel demeure particulièrement contraignant. La procédure implique plusieurs étapes successives, combinant un vote parlementaire à majorité qualifiée, la désignation d’un comité de rédaction, puis l’organisation de nouveaux référendums. Dans ce processus, le Sénat conserve un rôle central.

Le rapport de forces issu des élections législatives pèse directement sur l’interprétation politique du référendum. La victoire de Bhumjaithai et sa position dominante au Parlement et au Sénat orientent le processus vers une gestion étroitement encadrée de la réforme constitutionnelle. Les positions défendues par Bhumjaithai et par Kla Tham, favorables au maintien des principaux mécanismes institutionnels, suggèrent que les dispositifs centraux du système apparaissent peu susceptibles d’être substantiellement remis en cause.

Alors que la bataille des coalitions s’ouvre, le référendum de 2026 engage une séquence institutionnelle sans en déterminer l’issue. Il met en évidence un décalage entre une demande de réforme et les équilibres conservateurs qui dominent le système politique.

The Conversation

Alexandra Colombier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.02.2026 à 16:19

Catatumbo’s ‘Care-Land’: how local initiatives sustain humanitarian relief amid escalating violence in Colombia’s borderland with Venezuela

Silke Oldenburg, Senior Researcher in Anthropology, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

Anna Leander, Professor, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

Nora Doukkali, Doctoral Researcher in International Relations and Political Sciences

In Colombia’s coca-cultivating Catatumbo region on the border with Venezuela, community care and survival efforts amid escalating violence are in a state of emergency.
Texte intégral (1461 mots)

Drones hover low over coca fields in Catatumbo, a remote region in northeastern Colombia along the border with Venezuela, tracing invisible lines of control across the land. They are joined by rumours circulating on social media, naming alleged collaborators, announcing new allegiances, warning of imminent violence. Together, drones and rumours kill arbitrarily: they determine who can move, who must flee, and who disappears. This is the texture of war in Catatumbo today.

The fragile border region has experienced a sharp escalation of armed conflict since early 2025, as multiple illegal armed groups, including the ELN, dissident factions of the FARC, and elements linked to the Clan del Golfo, vie for control of territory long marked by weak state presence and lucrative illicit economies. Civilians have been displaced, confined, and threatened with violence, including forced recruitment and targeted attacks. Local communities report that armed actors’ actions have disrupted food production, limited mobility, and hindered access to basic services, while official humanitarian relief remains scarce. These conditions have left communities to rely on their own initiatives and networks for survival Norwegian Refugee Council (NRC).

Last year’s humanitarian emergency briefly pushed Catatumbo into the national spotlight. Slogans such as ‘Al Catatumbo Nada lo Tumba’ (nothing can strike down Catatumbo) were painted on walls across Colombia in a loud and clear show of solidarity. The government declared a ‘conmocion interior’ state of emergency allowing for exceptional humanitarian measures. By April 2025 it had ended, but the violence had not. On January 3 2026, the collapse of the Maduro regime in neighbouring Venezuela acted as a further trigger for unrest.

According to estimates by OCHA and the Norwegian Refugee Council, more than 100,000 people have been displaced from Catatumbo since January 2025. As armed actors continue to fight for territorial control, and exceptional humanitarian relief is shrinking, the responsibility for survival falls back onto those who live on and from the land itself.

Catatumbo’s ‘care-land’ history

Humanitarian relief is not delivered to Catatumbo; it is improvised from within the land. Here we trace the terrain of survival that shows how humanitarian care operates when merged into a land, fractured by violence and sustained through its connections.

In Catatumbo, care and land are inseparable. Access to food, health, protection, and dignity depends on the ability to inhabit, move through, and claim territory under conditions of violence. For the local Peasant Farmer Association Ascamcat, the guiding principle remains: “Life, dignity, land tenure, and permanence in the territory”.

Returning to care-land

Catatumbo sits at the crossroads of multiple crises. It is one of the world’s most productive coca-growing regions, a strategic corridor along the Venezuelan border, and a territory where state presence has long been fragile. It experienced egregious violence during the ongoing Colombian armed conflict, including mass executions and furnaces built to dispose of bodies. Left largely to its own devices, local institutions have long relied on a patchwork of humanitarian programmes, community organisations, and civil society platforms to fill persistent gaps.

As a result, responsibility for care and humanitarian relief has been returned to the land itself. Homegrown initiatives such as the Zona de Reserva Campesina- legally recognised rural reserve zones created under Colombian law to support small‑scale farming and campesino territoriality; and the Pacto Catatumbo have played a central role: stabilising rural livelihoods, formalising land rights, and anchoring development plans in community priorities. Human rights defenders and regional civil society organisations including Ascamcat, describe these arrangements as uneven and incomplete, yet indispensable; systems that made life bearable without ever delivering security or peace. In crises, these initiatives are the only option that enables humanitarian care to work at all. The fragile ‘care-land’ they sustain is now under acute strain. As fighting intensifies, it is at breaking point.

Fracturing care-land

In Catatumbo, armed clashes between the National Liberation Army (ELN) and dissident factions of the former FARC have escalated. Criminal groups, from the region-wide Tren de Aragua to local youth gangs, further fuel the violence. Drones and social media intensify these dynamics. In Catatumbo, bomb’s fall from the sky and mines are placed in the ground. The fractures ripple through care systems.

Access to medical and humanitarian supplies is increasingly blocked. Ambulances cannot reach remote areas, roads are mined, and infrastructure like schools, clinics, administrative offices is neglected or destroyed. Local contacts or staff from regional humanitarian networks report that billions of Colombian pesos are spent on arms while essential services languish. These blockages are embedded in the region’s topography, shaping who can survive.

Care networks are breaking down. Local, legally-recognised community organisations such as the Juntas de Acción Comunal (JAC) are disintegrating. Social leaders are fleeing or disappearing, and with them the work they sustained. Families abandon their homes with little more than the hope that aid awaits in shelters and registration centres in towns near the border with Venezuela such as El Tarra, Tibú, Ocaña, or the departmental capital, Cúcuta. Some remain to protect land, crops, or elderly relatives. The fractures run deep.

Connecting care-land

Yet continuity of care is patched together across Catatumbo. Families, neighbours, and local organisations improvise systems of mutual support that extend beyond village boundaries and displacement routes. Community leaders coordinate relief, share information, and maintain connections between rural areas and shelters in nearby cities. Care here is fragile and constantly renegotiated, yet it persists.

The Mesa Humanitaria, established in 2018, illustrates how such care is coordinated under these conditions. As a recognised governance platform in Colombia, it brings together Indigenous resguardos, women’s organisations, municipal authorities, and international observers to negotiate access to humanitarian aid, document violations, and coordinate relief in areas otherwise cut off. Through the Mesa, strategies emerge to distribute food and medicine, verify incidents of displacement or violence, and advocate for basic rights.

While formal, the Mesa depends on informal practices and social ties: neighbours checking on one another; connections between those who have fled and those who stayed; the sharing of scarce resources; exchanges of information about risks and safe passage; pooling medical supplies; or collectively monitoring landmines. These connections hold care-land together across fractures, weaving humanitarian action into the terrain itself. Any engagement in Catatumbo must work with these connections rather than around them.

Care-land at stake

Today, this care-land is under direct threat. Armed groups, shifting geopolitics along the Colombian border with Venezuela, where conflict dynamics between armed groups extend across the frontier, the shadow of US interventions, and a diminishing humanitarian presence erode the fragile conditions under which care can be sustained. What remains is not continuity secured by institutions, but care unevenly patched together across fractured territory. Humanitarian relief in Catatumbo is neither stable nor assured. It is living on the brink of violence and abandonment. Hanging on, as one human rights activist puts it, by little more than half a hope.

The Conversation

Silke Oldenburg a reçu des financements du Fonds National Suisse (FNS) de la recherche scientifique et fait partie du projet de recherche « The Future(s) of Humanitarian Design ».

Anna Leander a reçu des financements du Fond National Suisse pour le project 'The Future of Humanitarian Design' (CRSII5_213546)

Nora Doukkali a reçu des financements du Fonds National Suisse (FNS) de la recherche scientifique et fait partie du projet de recherche « The Future(s) of Humanitarian Design ».

PDF

10.02.2026 à 17:06

How Paris’ working-class dining experience is reshaping restaurant economics in France

Nathalie Louisgrand, Enseignante-chercheuse, GEM

Bouillons are back! What’s behind the French revival of these cheap and cheerful eateries that started out as canteens for Paris’ hungry, blue-collar workers?
Texte intégral (1942 mots)

In cities across France, a number of new bouillon soup-kitchen inspired restaurants are opening for business. Dating back to the 19th century and designed to feed Paris’ working-class masses, for some time these cheap and cheerful places to eat fell out of fashion. Why are they making a comeback today? What makes them so special and what’s the history behind these ‘old school’ eateries?

Offering nutritious, affordable meals to Paris’ many labourers was the avant-garde brainchild of the Dutch East India Company in the 19th century. In 1828, the firm opened a chain of small restaurants in the French capital to serve boiled beef bone broth (or “bouillon”) to a burgeoning working-class population. And thus, the bouillon concept was born along with an early form of the inexpensive ‘set meal’. In 1854, the company went out of business and it was at that moment in time that Baptiste-Adolphe Duval made History by becoming the founding father of the bouillon phenomenon.

In the 1850s, Baptiste-Adolphe Duval owned a butcher’s shop on rue Coquillière in Paris’ 1st arrondissement. Since his customers only bought the “prime cuts”, Duval looked for a way of using up all the poor cuts that he couldn’t sell. He came up with the idea of concocting a top quality broth with boiled beef and the cheaper cuts of beef. Hence, in 1854, he went on to open a place on rue de la Monnaie in the historic heart of the city. It was here that he dished up comforting yet simple, hot meals that wouldn’t burn a hole in even the most cash-strapped wallets of the likes of the workers at the local Les Halles wholesale market – formerly known as the “belly of Paris”, named after the title of the Emile Zola novel. Baron Haussmann’s citywide urban planning and renovation works drew thousands of labourers from across France to the capital for work. With all the more mouths to feed, Duval’s initiative was an instant success!

The forefather of fast food

Duval went on to open other canteens around the city including one in an extravagant, cast-iron hall in 1855, in an 800 square meter (approx. 8,610 square feet) warehouse location at number 6 rue de Montesquieu near the Louvre museum. The premises could cater for up to 500 people, offering non-stop service by waitresses dressed in distinctive black uniforms with white aprons and tulle caps. Coined les petites bonnes, these waitresses epitomised the Duval bouillon experience and became the subjects of many an artist or novelist such as Auguste Renoir and Joris-Karl Huysmans. A new clientele hungry for value for money, flexible opening hours and set-price menus formed. Customers hailed from middle-class backgrounds and the lesser bourgeoisie. The meals on offer evolved over time: oysters, poultry and fish were added alongside staple dishes of pot-au-feu, boeuf bourguignon or roast veal.

These places that came to be known as “bouillons” were spotlessly clean, and led the way for modern dining, pioneering a whole new restaurant model based on simple cuisine using quality produce. They were considered as one of the precursors of fast food.

A whole new business model

The economic success of Duval’s bouillons is mainly due to its stock management model. They run like a restaurant chain, using economies of scale to manage supply chain practices, breadmaking or their butcher’s shops, etc. In 1867, Duval founded the Compagnie anonyme des établissements Duval which included 9 outlets. In 1878, they grew to 16, with a dozen more opening across the capital by the end of the 19th century.

Duval’s success story has inspired many restaurateurs. While the capital counted around 400 of these restaurants in 1900, they actually encompassed a variety of diverse establishments serving different purposes from simple street food sellers to workers’ soup-kitchens in line with Duval like Boulant or Chartier.

Still in business today, Chartier, opened in 1896 in Paris’ Grands Boulevards area. Its huge dining room clad with sculpted woodwork and magnificent art nouveau chandeliers are listed as historical monuments. Not once has Chartier shut shop or changed its name; and unlike its counterparts, it has continuously stood the test of time and changing fashions, even despite fluctuations in ‘bums on seats’.

This is how the popular bouillon restaurant concept became a fully fledged Parisian institution. Its initial success ran up until the Interwar period before fizzling out. During France’s 30-year Post war boom (1945-1975), bouillons seemed passé and old-fashioned, and diners preferred brasseries which they saw as more modern and ‘upmarket’. Then came the fast food boom (Editorial note: from the 1960S onwards).


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Bouillons: back by popular demand since 2017

The bouillon’s flame and surrounding legend never completely died out and in November 2017, as restaurateurs the Moussié brothers proved by opening le Bouillon Pigalle (Paris 18e) in Paris.

Their wish was to remix the essence of the bouillon dining experience: comfort food such as beef bourgignon, salted pork with lentils, sausage and mash or decadent desserts such like profiteroles drizzled with hot chocolate sauce, served at affordable prices in a retro setting with large, canteen style tables, in a relaxed atmosphere, with continuous service and a ‘no reservations’ policy.

Inside Paris’ bouillon dining experience: “Les bouillons, la table du tout-Paris”, documentary on European Culture Channel Arte (2025).

The initiative was met with success, and gradually other restaurants were (re)opened in refurbished premises like Bouillon Julien in 2018, or Bouillon République in 2021; in the existing restaurant space that was once home to the old Alsatian brasserie Chez Jenny. These affordable restaurants attracted a lot of French and foreign customers who were delighted to eat out well and not too expensively during inflation time. Many of these eateries offer a 3-course meal for less than 20 euros. Simplicity and authenticity are the backbone supporting the renaissance of this dining experience.

Many bouillons insist on serving homemade food, working frequently with local producers and short supply chains.

A back to the future phenomenon that is now nationwide

These places that are inextricably linked with a convivial atmosphere and quintessentially French dining are also springing up outside the French capital. And while for the most part, their chefs continue to bank on comforting classic French cuisine staples, some restaurants are keeping it regional: “baked Maroilles cheese”, served at Petit Bouillon Alcide in Lille, or “traditional Savoy sausage with creamy polenta” on offer at Cantine Bouillon de Seynod, in Haute-Savoie, in the French Alps are both fine examples.

In Lille, where local tradition is “on the menu.”

In the last two or three years, Michelin-starred chefs have also opened their own bouillon restaurants. This was the case of Christophe Aribert, a chef from Grenoble with 2 Michelin stars to his name, with Bouillon A, which opened in May 2022, where he showcases locally grown, organic and seasonal produce. 2-star chef Thierry Marx in 2024 also opened le Bouillon du Coq in Saint Ouen, where he serves herrings in oil with boiled potatoes or his signature dish coq au vin. He saw it as an opportunity to revamp dishes that were labelled outdated and make them extremely affordable.

Since early 2023 in France, it is estimated that a new bouillon restaurant opens every month. Customers are mainly drawn to the low prices.

Maintaining affordable prices is the first challenge for a number of restaurant owners. What’s their secret? A great deal of meal prep (particularly for cold dishes like egg mayonnaise or leeks in vinaigrette, whittling down the steps for each dish, keeping techniques minimal and plating uncomplicated), simple recipes, a menu that barely changes, and also saving money on purchasing volume and super fast table turnover.

The other thing that makes these restaurants a safe bet is that they remain a go-to for classic meals served in record time, in a perfectly pleasant, convivial setting.

The Conversation

Nathalie Louisgrand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.02.2026 à 16:51

Tout sauf l’Ehpad ? Les ambiguïtés de la politique du grand âge

Dominique Argoud, Professeur des Universités en sociologie, Université Paris-Est Créteil Val de Marne (UPEC)

Près de 75 % des Français déclarent ne pas souhaiter aller en Ehpad. Les pouvoirs publics promeuvent donc d’autres formes d’hébergement moins médicalisées. Est-ce une bonne solution ?
Texte intégral (2011 mots)
Trois Français sur quatre ne souhaitent pas vivre dans un établissement pour personnes âgées dans le futur. En 2001, ils n’étaient qu’un sur deux. Age Cymru/Unsplash, CC BY

En France, les établissements d’hébergement pour personnes âgées dépendantes (Ehpad) font figure de repoussoirs. En 2001, 53 % des Français déclaraient en ne pas souhaiter vivre dans un établissement pour personnes âgées dans le futur, ce pourcentage s’élève aujourd’hui à 74 %. Les pouvoirs publics cherchent à promouvoir d’autres formes d’hébergement moins médicalisées. Est-ce une bonne approche ?


Les établissements d’hébergement pour personnes âgées dépendantes (Ehpad) constituent aujourd’hui le mode dominant d’accueil pour les personnes âgées ne pouvant pas rester à leur domicile. Fin 2023, sur les 700 000 personnes fréquentant un établissement d’hébergement pour personnes âgées, près de 80 % vivent en Ehpad. Compte tenu du vieillissement démographique, si les pratiques d’entrée en institution restent inchangées, il faudra ouvrir 108 000 places en Ehpad d’ici à 2030, puis 211 000 places entre 2030 et 2050. Cela reviendrait à un peu plus que doubler, dans la durée, le rythme d’ouverture de places observé depuis 2012.

Or, une telle projection se heurte à l’image dégradée dont bénéficient les Ehpad en France. Ceux-ci font office de repoussoir pour un grand nombre de personnes âgées et de familles, encore plus depuis l’affaire Orpea et la parution du livre Les fossoyeurs du journaliste Victor Castanet. La crainte de perdre sa liberté en établissement d’hébergement, voire d’être maltraité, conduit à plébisciter le maintien à domicile pour ses vieux jours. Ainsi, selon le baromètre de la DREES, alors que 53 % des Français déclaraient en 2001 de ne pas souhaiter vivre dans un établissement pour personnes âgées dans le futur, ce pourcentage s’élève aujourd’hui à 74 %. 44 % des Français feraient en sorte de s’occuper de son parent âgé à son domicile, 21 % seraient prêts à l’accueillir chez eux et 16 % les soutiendraient financièrement afin qu’il puisse bénéficier d’aides à domicile. Entre 2014 et 2023, la proportion de personnes qui privilégient de s’occuper de leur proche à son domicile a augmenté de presque 20 points, passant de 25 % en 2014 à 44 % en 2023.

Une politique domiciliaire en panne

Dans ce contexte, quelles sont les orientations de la politique vieillesse ? Depuis quelques années, l’État s’engage à promouvoir une approche domiciliaire pour tenir compte des réticences croissantes manifestées à l’égard des institutions d’hébergement. Cette approche est confortée par les projections des attentes des nouvelles générations de personnes âgées, qui correspondront aux baby-boomers (nés entre 1946 et 1964) atteignant le grand âge au cours des prochaines décennies. Ainsi, il est attendu que ces nouvelles générations soient plus enclines à vouloir préserver leur pleine et entière citoyenneté et à moins dépendre de décisions leur échappant.

Schématiquement, la politique domiciliaire engagée par l’État se structure autour de deux axes. Le premier consiste à renforcer les capacités du domicile pour que les gens puissent s’y maintenir plus nombreux et dans de bonnes conditions. Le second axe vise à transformer le fonctionnement des Ehpad pour qu’ils deviennent des lieux de vie ouverts sur la cité et où les résidents puissent y être « comme chez eux ». En réalité, cette politique relativement consensuelle se situe dans le prolongement des orientations antérieures. Mais de sérieux doutes ont été émis par l’Inspection générale des affaires sociales quant à la capacité de l’État à la mettre réellement en œuvre. Le coût budgétaire de la politique domiciliaire de même que la faible attractivité des métiers du grand âge en constituent autant de freins.

Une volonté politique d’encourager les habitats intermédiaires

D’un côté, l’Ehpad comme mode d’hébergement des personnes âgées n’a plus le vent en poupe, et de l’autre, le maintien à domicile des personnes en perte d’autonomie présente des limites. C’est pourquoi, pour mettre en œuvre l’approche domiciliaire, les pouvoirs publics misent fortement sur le développement de « l’habitat intermédiaire ».

Par habitat intermédiaire, il faut entendre toutes les formes d’habitat qui se situent entre le domicile historique et les établissements proposant un hébergement collectif. La Caisse nationale de solidarité pour l’autonomie (CNSA) estime qu’il y aurait aujourd’hui 275 000 places en habitat intermédiaire (résidences autonomie, résidences services seniors, habitats inclusifs, accueil familial, résidences intergénérationnelles…). Compte tenu des besoins liés au vieillissement de la population, elle projette la nécessité de créer 500 000 solutions de logement en habitat intermédiaire d’ici 2050.

La justification de cette incitation publique en faveur de l’habitat intermédiaire est qu’il s’agit d’une formule qui répond au souhait des personnes de vivre chez elles sans êtres seules, tout en préservant leur intimité et leur liberté de choix.

Une autre de ses caractéristiques est que le public visé est plutôt constitué de personnes ayant une perte d’autonomie modérée, dont l’isolement ou les problèmes de santé les inciteraient à rejoindre un cadre de vie plus sécurisant. De fait, l’habitat intermédiaire apparaît comme une formule aux antipodes de l’Ehpad. Ce dernier accueille en effet des personnes plus dépendantes et représente un coût plus important pour les finances publiques compte tenu de la présence de personnels soignants.

Les Ehpad condamnés à faire figure de repoussoir

Cette politique en faveur de l’habitat intermédiaire contient un implicite : demain, encore plus qu’aujourd’hui, les Ehpad auront vocation à accueillir les personnes âgées très dépendantes. Malgré toute l’énergie que mettent les directions d’Ehpad pour ouvrir leurs établissements sur la vie de la cité, l’image repoussoir risque de se renforcer : la moitié des résidents en Ehpad a plus de 88 ans et 85 % sont en perte d’autonomie (classés en GIR 1 à 4) ; 38 % sont atteint d’une maladie neurodégénérative, soit 4 points de plus qu’en 2019. Parallèlement, le nombre de personnes autonomes qui intègrent un établissement a encore reculé en l’espace de quatre ans.

Pourtant, cette évolution n’est pas inéluctable. Les Ehpad ont toujours accueilli des personnes en situation de perte d’autonomie modérée. En effet, l’entrée en établissement d’hébergement ne résulte pas d’un processus linéaire qui rendrait le maintien à domicile impossible à partir d’un certain seuil de dépendance. De multiples facteurs entrent en ligne de compte dans ce processus, mêlant tant des éléments subjectifs (la perception individuelle de la situation) que des éléments objectifs comme la qualité de son cadre de vie ou la présence d’aidants mobilisables pour intervenir à domicile.

Une approche alternative aurait été possible

En favorisant le développement d’un habitat intermédiaire, quoi qu’il s’en défende, l’État contribue à segmenter l’offre en fonction du degré de dépendance. Toute catégorisation qui se veut positive tend à produire son contraire, à savoir une catégorie qui concentre les éléments négatifs. Que va-t-il advenir des personnes dont l’état de santé ne permettra plus de rester en habitat intermédiaire si ce dernier est amené à se développer ?

Un modèle alternatif était pourtant possible. Il a été défendu à partir des années 1980 par la Fondation de France qui encourageait la création de « lieux de vie jusqu’à la mort ». Contre l’idée de segmentation, il s’agissait de promouvoir des petites unités de vie, bien insérées dans le tissu social local, où les personnes auraient pu être accompagnées par des services d’aide et de soins à domicile jusqu’à la fin de leur vie. Ces structures, de petite taille, reposaient sur un mode de vie et d’accompagnement familial, prenant le contre-pied des grands établissements hospitaliers et médicalisés.

À la différence de beaucoup d’habitats intermédiaires actuels, leur ambition était de pouvoir accompagner jusqu’au bout des personnes âgées en perte d’autonomie. C’est sur ce modèle que se sont développées ces dernières années, par exemple, des colocations accueillant des personnes atteintes de la maladie d’Alzheimer.

Mais, pour l’essentiel, cette option a peu été soutenue par les pouvoirs publics et beaucoup d’opérateurs sont restés prisonniers de cadres organisationnels et économiques favorables à la réalisation d’économies d’échelle, aboutissant à la constitution de lieux de relégation. Dans les faits, il s’est avéré plus aisé de produire une offre segmentée avec, d’un côté, des Ehpad ou des unités spécialisées hébergeant des personnes très dépendantes et, de l’autre, des habitats intermédiaires accueillant une population fragilisée mais encore peu dépendante. Ce processus de segmentation s’est opéré avec l’assentiment des élus locaux soucieux de proposer une offre non stigmatisée sur leur territoire, qui est elle-même valorisée par les familles.

Il n’est toutefois pas certain que le mot d’ordre « tout sauf l’Ehpad » contribue à rendre la société plus inclusive pour faire face au vieillissement de la population. Alors que les lieux de vie visent à accompagner l’ensemble des « gens du coin » dans leur vieillissement, le paysage gérontologique tend au contraire à spécialiser les réponses d’hébergement, enfermant un peu plus la figure du « vieux dépendant » dans son rôle de repoussoir.

The Conversation

Dominique Argoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.02.2026 à 16:50

« Si j’avais su » : la phrase qui absout les élites dans l’affaire Epstein ?

Frédérique Sandretto, Adjunct assistant professor, Sciences Po

Plaider l’ignorance des activités criminelles pour lesquelles Jeffrey Epstein a été condamné en 2008 à une peine de prison ferme apparaît comme une ligne de défense pour le moins fragile.
Texte intégral (2229 mots)

La plupart des personnalités citées dans les archives Epstein qui viennent d’être révélées affirment que si elles avaient été au courant de ses crimes, elles n’auraient en aucun cas entretenu la moindre forme de contact avec le milliardaire, qui avait été condamné en 2008 pour trafic de prostituées mineures. Ce procédé rhétorique est toutefois loin de suffire à répondre à toutes les interrogations que suscite la pérennité de leurs relations avec un homme dont le passé judiciaire était, en réalité, de notoriété publique. Au contraire, ce type de défense est de nature à alimenter, auprès des simples citoyens, l’idée que les élites estiment appartenir à une caste à part.


Depuis la divulgation progressive de près de trois millions de documents judiciaires, de dépositions sous serment et de pièces issues de procédures civiles et pénales liées à Jeffrey Epstein, une réponse revient avec une régularité presque mécanique chez les personnalités citées ou associées à son réseau : « Je ne savais pas. Si j’avais su, je ne l’aurais jamais fréquenté. »

Cette formule, reprise par des responsables politiques, des membres de familles royales, des figures centrales du monde économique, s’est imposée comme la ligne de défense dominante du scandale. Caroline Lang tout comme la princesse héritière Mette-Marit de Norvège, qui affirme que ses échanges avec le financier relevaient d’« une erreur de jugement », ont récemment mobilisé cet argument, affirmant avoir ignoré la réalité des crimes d’Epstein au moment de leurs interactions avec lui.

À première vue, ces déclarations semblent relever d’une posture morale minimale. Elles permettent de condamner les faits sans ambiguïté et d’ériger une frontière claire entre le criminel et ceux qui l’ont côtoyé. Pourtant, replacée dans son contexte historique, judiciaire et médiatique, cette ignorance revendiquée pose un problème de crédibilité majeur. Elle interroge moins la sincérité individuelle que le fonctionnement collectif des élites face à une information abondante, accessible et durablement documentée.

Une condamnation judiciaire qui était tout sauf un secret bien gardé

Jeffrey Epstein n’a jamais été un prédateur invisible. Dès la fin des années 1990, des signalements circulent dans les cercles policiers de Floride. En 2005, la plainte déposée par la famille d’une mineure de 14 ans déclenche une enquête officielle de la police de Palm Beach. En 2006, Epstein est arrêté. En 2008, il conclut un accord judiciaire exceptionnel avec le bureau du procureur fédéral du district sud de la Floride. Ce « non-prosecution agreement » lui permet d’éviter des poursuites fédérales pour trafic sexuel de mineures, crimes passibles de peines très lourdes, en échange d’un plaidoyer de culpabilité limité à des infractions de niveau étatique.

Les faits sont publics, précis et chiffrés. Epstein est condamné à dix-huit mois de prison, n’en purge que treize dans un régime de semi-liberté extrêmement favorable, comprenant jusqu’à douze heures de sortie quotidienne, six jours sur sept. Il est officiellement enregistré comme délinquant sexuel. En 2020, l’enquête du Miami Herald, intitulée « Perversion of Justice », met en lumière l’ampleur des protections institutionnelles dont il a bénéficié et identifie au moins trente-six victimes mineures citées dans le cadre de l’accord de 2008.

Malgré cette condamnation, Epstein continue à évoluer dans les cercles de pouvoir pendant plus d’une décennie. Entre 2008 et 2018, il fréquente des universités prestigieuses, finance des programmes de recherche, entretient des relations avec d’anciens chefs d’État, des membres de familles royales, des investisseurs influents et des intellectuels médiatisés. Ses donations à des institutions académiques se chiffrent en centaines de milliers de dollars, parfois après sa condamnation. Ce maintien au sommet après une reconnaissance officielle de culpabilité constitue le cœur du scandale.

La formule « Si j’avais su » fonctionne alors comme un mécanisme central de dissociation sociale. Elle permet de séparer artificiellement la relation entretenue avec Epstein de la connaissance de sa trajectoire judiciaire. Elle repose sur l’idée implicite que la sociabilité des élites évoluerait dans un espace parallèle, partiellement soustrait aux normes pénales ordinaires. Cette dissociation n’est pas un accident individuel. Elle est structurelle et collectivement tolérée.

Redevabilité : la mécanique silencieuse du système Epstein

L’un des ressorts essentiels du système Epstein réside dans la production systématique de redevabilité. Epstein ne se contente pas d’acheter des relations par l’argent. Il crée des situations d’endettement symbolique. Il offre, finance, héberge, soutient, facilite. Chaque geste est présenté comme désintéressé, mais aucun n’est neutre. La redevabilité n’est jamais contractualisée, ce qui la rend d’autant plus efficace.

Epstein cible des individus disposant d’un capital symbolique élevé. En retour, il leur offre des ressources rares : accès à des résidences d’exception à Manhattan, Palm Beach ou dans les îles Vierges, usage de jets privés, financement de projets académiques, soutien à des trajectoires professionnelles ou familiales. Il héberge des proches, facilite des parcours éducatifs ou offre une visibilité institutionnelle.

Le cas de Caroline Lang illustre cette logique de manière particulièrement éclairante. Le fait qu’Epstein ait hébergé l’une de ses filles en son absence, et aussi elle-même en compagnie de ses deux filles, dans des propriétés lui appartenant ne relève pas d’un simple service ponctuel. Il s’agit d’un acte à forte valeur symbolique, qui engage une dette morale durable. Cette redevabilité n’implique pas une complicité active, mais elle rend la rupture socialement coûteuse. Elle crée un inconfort moral à l’idée de dénoncer, d’interroger ou de s’éloigner publiquement.

Email de Caroline Lang par lequel elle demande à Jeffrey Epstein d’héberger sa fille et deux de ses amies. Epstein Library

La redevabilité fonctionne ici comme un mécanisme de neutralisation. Celui qui a reçu hésite à questionner. Celui qui a bénéficié hésite à rompre. Celui qui est redevable hésite à savoir. La proximité devient un frein cognitif. Dans ce cadre, l’ignorance n’est pas une absence d’information, mais une posture rendue possible par la dette symbolique.

La recevabilité sociale d’Epstein repose sur cette accumulation de relations redevables. Chaque figure prestigieuse qui le fréquente renforce l’illusion de normalité. Ce cercle autoréalisateur transforme la condamnation judiciaire en détail marginal, absorbé par le poids du réseau.

Le « Si j’avais su » permet ensuite d’effacer cette dynamique. Il transforme une relation structurée par des échanges matériels et symboliques en simple erreur de jugement. Il neutralise la question des bénéfices reçus. Il évite surtout d’interroger la responsabilité collective d’un système fondé sur l’évitement du savoir.

Le « Si j’avais su » et la théorie du complot

La posture du « Si j’avais su » ne se limite pas à une stratégie individuelle de protection réputationnelle. Elle produit des effets politiques et cognitifs profonds sur la perception du pouvoir et alimente directement la défiance contemporaine envers les élites. En affirmant qu’ils ignoraient des faits pourtant publics, documentés et accessibles, les acteurs concernés installent un décalage troublant entre leur position sociale et leur responsabilité informationnelle. Cette dissonance nourrit un soupçon durable : si ceux qui disposent du plus fort capital culturel, médiatique et relationnel disent ne pas savoir, alors soit ils mentent, soit ils bénéficient d’un régime d’exception.

C’est dans cet espace de flou que prospèrent les théories complotistes. Le « Si j’avais su » crée une zone d’indétermination discursive, dans laquelle l’absence d’explication systémique laisse place à des récits alternatifs. En refusant de reconnaître les mécanismes ordinaires de complaisance, de silence et de redevabilité, cette posture alimente l’idée d’un mensonge organisé et d’une vérité volontairement dissimulée au public. Là où une analyse sociologique mettrait en évidence des logiques de réseau et de protection mutuelle, l’opinion perçoit un système opaque, intentionnellement dissimulé.

La défiance envers les puissants s’en trouve renforcée. Plus le statut de celui qui invoque l’ignorance est élevé, plus cette ignorance devient suspecte. Le « Si j’avais su » ne rassure pas ; il confirme l’idée que les élites vivent dans un monde séparé, soustrait aux contraintes morales ordinaires. En ce sens, cette posture ne désamorce pas la crise de confiance démocratique : elle l’aggrave. En l’absence de reconnaissance claire des angles morts et des responsabilités collectives, le discours officiel laisse le champ libre aux interprétations complotistes, qui trouvent dans cette ignorance proclamée l’un de leurs principaux arguments de crédibilité.

Comment peut-on ne pas savoir ?

Reste enfin une question centrale, rarement abordée frontalement : comment peut-on réellement ne pas savoir, à l’ère d’Internet et des réseaux sociaux ? Depuis le milieu des années 2000, les informations sur Epstein sont accessibles en quelques clics. Articles de presse, archives judiciaires, bases de données publiques, moteurs de recherche, réseaux sociaux : jamais l’accès à l’information n’a été aussi large, aussi rapide, aussi durable.

Ne pas savoir suppose alors un choix implicite. Celui de ne pas chercher. Celui de ne pas vérifier. Celui de considérer que certaines informations, bien que disponibles, ne méritent pas d’être intégrées. L’ignorance devient active. Elle repose sur une hiérarchisation des savoirs dans laquelle la respectabilité sociale l’emporte sur la vigilance morale.

Dans ce contexte, l’argument de l’ignorance perd sa dimension défensive pour devenir un révélateur. Il ne dit pas ce que les acteurs ignoraient, mais ce qu’ils acceptaient de ne pas vouloir savoir. À l’ère numérique, l’ignorance n’est plus un manque. Elle est une stratégie.

L’affaire Epstein ne révèle donc pas seulement des crimes, mais une culture du non-savoir partagée, rendue possible par la redevabilité, la proximité avec le pouvoir et la dissociation morale. Le « Si j’avais su » n’est pas une excuse. C’est le symptôme d’un système.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.02.2026 à 16:50

La Chine serait-elle déjà la première puissance militaire mondiale ?

Éric Martel-Porchier, Enseignant chercheur, Conservatoire national des arts et métiers (CNAM)

En cas de guerre ouverte, la supériorité technologique états-unienne pourrait ne pas suffire face à la flexibilité industrielle, doctrinale et stratégique de la Chine.
Texte intégral (3194 mots)

La supériorité militaire apparente d’une armée peut devenir une faiblesse lorsqu’elle nourrit un excès de confiance et une rigidité organisationnelle. L’exemple de la France vaincue en 1940 par une armée allemande reconstituée de fraîche date met en évidence le rôle décisif de l’adaptation, de l’innovation et de la capacité industrielle. Transposé à la rivalité sino‑américaine, ce précédent montre que la Chine, portée par une base industrielle très puissante et une doctrine centrée sur les drones et les systèmes autonomes, pourrait en cas de conflit ouvert compenser l’avance technologique américaine.


Cet article est la suite d’un article publié en 2020 qui posait déjà la question de la puissance économique de la Chine.

Aujourd’hui, il ne semble faire aucun doute que les États-Unis sont, de très loin, la première puissance militaire mondiale, en raison de l’importance de leurs dépenses annuelles, de leur nombre de bases à l’étranger et de la taille de leur armée. Celle-ci est aussi reconnue pour son expertise opérationnelle et ses performances technologiques. Malgré cela, cette puissance a priori majeure se trouve, dans les faits, en situation d’infériorité industrielle vis-à-vis de la Chine.

Dans l’hypothèse d’un conflit entre Washington à Pékin, il est fréquent d’entendre que, si à court terme la Chine subirait des dommages catastrophiques pour son économie et sa population, à long terme sa victoire serait acquise. L’histoire montre pourtant que les ressorts d’une victoire sont plus subtils que la simple comparaison des capacités militaires des belligérants au début du conflit. Il est même fréquent que la supériorité militaire perçue par un acteur soit à l’origine de sa défaite.

L’étrange défaite de la France en 1940

Juste après la bataille de France, en juin 1940, Marc Bloch, qui a été pendant l’invasion allemande officier de l’armée française, rédige un ouvrage de référence sur cette question. Dans l’Étrange défaite, il donne de précieuses indications sur la manière dont une organisation militaire peut être vaincue lorsqu’elle surestime sa puissance.

Ce n’est pas le seul exemple d’une armée défaite alors qu’elle se croyait toute puissante. Mais la description que fait Bloch des dysfonctionnements de l’état-major et de la société française en 1940 permet de comprendre avec précision les causes de la défaite. On l’attribue aujourd’hui volontiers à une infériorité numérique, en oubliant qu’elle n’était pas perçue comme telle par les généraux français, ce qui les a conduits à de graves erreurs. On oublie aussi que, lors de la Première Guerre mondiale, la supériorité militaire de l’Empire allemand était évidente, ce qui ne l’a pas empêché d’être vaincu.

Table ronde : « L’étrange défaite de 1940 » (14 janvier 2021), Maison Heinrich Heine, avec les historiens Alya Aglan, Robert Frank, Georges-Henri Soutou et Gilbert Merlio.

Marc Bloch montre comment l’excès de confiance de l’armée française a été la cause principale de son échec en 1940. Il décrit un mécanisme social par lequel une armée qui se considère comme puissante peut être vaincue par une armée nouvelle venant de se construire. Si l’on se réfère aux chiffres de l’époque, à l’exception de l’armée de l’air, la situation était plutôt favorable aux forces alliées : l’armée française disposait d’une supériorité en chars de combat et en véhicules, et les bombardements aériens n’étaient pas aussi efficaces que ceux de l’artillerie, même si leur effet psychologique était bien réel.

L’infériorité renforce les armées, la supériorité les affaiblit

Ce paradoxe d’une armée défaite par excès de confiance en sa propre puissance peut être transposé à l’actualité. Si l’on compare aujourd’hui l’état de l’armée américaine et celui de l’armée chinoise, on retrouve un phénomène similaire. Les Américains disposent d’une supériorité en avions de chasse, porte-avions et chars de combat, mais un paramètre nouveau rend ce critère de suprématie beaucoup moins pertinent : la transformation des guerres contemporaines, marquées par l’omniprésence des drones et l’usage croissant de systèmes militaires autonomes.

En 1940, l’armée française restait imprégnée de sa grande victoire de 1918. Elle avait alors été la première armée du monde, par sa performance technologique et organisationnelle. Très efficace, elle avait dirigé les armées alliées et appris aux Américains à mener une guerre de grande envergure avec les premiers chars réellement efficaces, comme les Renault FT.

Vingt-deux ans plus tard, la société et les militaires français n’ont pas compris que les méthodes de la guerre s’étaient complètement transformées. La victoire de 1918 tenait en partie à une certaine flexibilité et à une capacité d’innovation face à une armée allemande alors plus rigide. Paradoxalement, cette armée allemande, contrainte par le traité de Versailles à dissoudre une grande partie de ses effectifs et de son équipement, a dû, après l’avènement du nazisme, se reconstruire avec une grande flexibilité en tirant les enseignements de sa défaite. Lorsqu’une armée a le temps de comprendre les causes d’une défaite, elle en retire souvent des leçons décisives et peut devenir, quelques années plus tard, une force redoutable.

Devenue flexible et innovante sur le plan technologique, développant un nouvel art de la guerre fondé sur la rapidité et un système de communication très performant, l’armée allemande permet à des unités dotées d’une certaine autonomie d’agir avec une grande efficacité. À l’inverse, l’armée française souffre de graves problèmes de communication, aggravés par un management très centralisé. Au lieu de réagir immédiatement à une agression, il lui faut souvent deux ou trois jours pour donner des instructions pertinentes. Tandis que l’armée allemande a réellement innové, l’armée française reste figée dans un schéma hérité de la Première Guerre mondiale.

Si l’on compare aujourd’hui l’armée américaine et l’armée chinoise, on retrouve ces caractéristiques. La première tend à souffrir d’un sentiment de supériorité, persuadée que son expérience des combats lui confère une véritable flexibilité. La seconde se construit sur un sentiment d’infériorité qui l’amène à développer intensément ses capacités industrielles pour compenser ses faiblesses. Lorsque la Chine engage une guerre, en 1979 contre le Vietnam, les combats débutent d’ailleurs par une défaite, alors même que sa supériorité quantitative est avérée et que le Vietnam sort de quinze années de guerre contre les États-Unis.

Copier l’ennemi, puis innover

Cette expérience défavorable a pourtant un effet positif, renforcé par un sentiment d’infériorité à l’égard de la puissance américaine. Elle pousse la Chine à s’inspirer d’abord de l’armée américaine, à copier certains outils et systèmes, puis à se détourner de ce modèle pour construire sa propre logique militaire. Cette logique – copier, puis innover à partir de ce qui est copié – est d’ailleurs fréquente dans l’industrie. Après avoir débuté dans la production de voitures thermiques, la Chine est devenue leader dans la fabrication de voitures électriques.


À lire aussi : Véhicules électriques : la domination chinoise en 10 questions


Si l’on observe la remise en route de l’armée allemande entre 1919 et 1939, on est frappé par la similarité de cette logique. Il faut d’abord comprendre le fonctionnement de l’armée ennemie, puis s’en libérer pour concevoir son propre modèle, qui surprendra l’adversaire.

La Chine a pris grand soin d’étudier la guerre d’Ukraine et de développer des technologies militaires issues de ces observations. Elle a compris la spécificité d’un conflit où l’usage de drones, aujourd’hui automatisés, transforme profondément les logiques militaires. Elle en a tiré la certitude qu’il est nécessaire de disposer d’une industrie militaire innovante et très flexible. Chaque année, son industrie est ainsi en mesure de proposer des modèles d’armes améliorés ou nouveaux.

Comment la supériorité affaiblit la flexibilité managériale

À cette souplesse en matière d’innovation s’ajoute une autre dimension essentielle : l’efficacité de la supervision militaire. Incapable de reconnaître sa faiblesse, l’armée française, marquée par sa victoire de 1918, souffre en 1940 d’une réelle incompétence managériale. Elle illustre un biais récurrent : toute armée qui se perçoit comme très supérieure à son ennemi se fragilise. Elle ne déploie pas d’efforts frénétiques pour le vaincre et ne cherche pas à se transformer en permanence, convaincue de la solidité de son système de commandement.

Or, comme l’avait montré l’armée française en 1914, c’est la capacité à se réorganiser rapidement et à démettre les officiers incompétents qui fonde l’efficacité. Ce syndrome de supériorité affecte ensuite l’armée nazie qui, dès 1942, ne comprend plus la montée en puissance de l’armée soviétique et commet de nombreuses erreurs stratégiques, à commencer par la bataille de Stalingrad.

On manque d’éléments précis pour juger de l’efficacité managériale chinoise, sinon les purges militaires récentes, poursuivies encore en 2025 et 2026, qui témoignent d’une préoccupation réelle pour la discipline et la loyauté de l’armée. Du côté américain, plusieurs indices suggèrent que la supervision des forces reste marquée, comme lors de la guerre du Vietnam, par un fonctionnement administratif rigide et peu flexible.

Faut-il préférer la supériorité technologique à la supériorité industrielle ?

En 1944, l’armée allemande se trouve confrontée à une nouvelle forme d’art militaire conçue par les Américains. S’appuyant sur leurs capacités industrielles, ceux-ci assurent un renouvellement permanent de leur matériel grâce à un développement sans précédent de la logistique. Les ingénieurs allemands sont frappés par l’infériorité technique apparente de l’équipement américain, mais certains comprennent le véritable danger : un véhicule américain peut être réparé en quelques heures, voire remplacé dès le lendemain, alors que la perte d’un engin allemand a des conséquences lourdes.

Avec l’omniprésence d’armes automatisées comme les drones et les missiles, qui obéissent à une logique industrielle quantitative, et la flexibilité industrielle chinoise, c’est aujourd’hui la Chine qui assume ce rôle. Les Américains, comme les Allemands en 1944, misent sur la supériorité technologique et se heurtent à de réelles difficultés de production et donc de remplacement des engins perdus. La guerre d’Ukraine a montré que détruire un drone bon marché avec un missile antiaérien coûteux peut être problématique.

L’idée selon laquelle la Chine pourrait gagner une guerre contre les États-Unis sur le long terme, tout en subissant seule des dommages catastrophiques pour son économie et sa population, apparaît alors illusoire. En cas de conflit ouvert, l’armée et l’économie américaines devraient très probablement, elles aussi, supporter de terribles pertes. Au vu du grand défilé qui a eu lieu à Pékin, le 8 septembre dernier et de la nouvelle logique militaire chinoise, on peut s’interroger sur la capacité de l’armée américaine à résister à une attaque de la part de la RPC.

« La Chine défie-t-elle les États-Unis ? », France 24, 3 septembre 2025.

L’illusion de la supériorité

Si l’on considère l’armée américaine aujourd’hui, elle semble souffrir d’un syndrome de supériorité, nourri par des opérations conduites contre des États du tiers monde et par un fort investissement technologique. L’armée irakienne, qu’elle a aisément vaincue en 1990, était, au-delà de sa faiblesse matérielle, minée par de graves problèmes organisationnels. Plus récemment, des frappes contre des puissances militaires faibles comme l’Iran ou le Yémen peuvent entretenir l’idée qu’elle reste la première armée du monde. Or l’histoire montre que ce type de conflits ne renforce pas durablement une armée ; on peut penser, par exemple, à la déroute de 1870 d’une armée française pourtant aguerrie par de nombreuses campagnes antérieures, le plus souvent victorieuses.

À cela s’ajoute un élément quantitatif : le budget militaire américain est infiniment supérieur à celui des autres nations, tout comme le nombre de chars, d’avions, de navires et d’unités. Pourtant, la guerre d’Ukraine a mis en lumière les limites de certaines technologies américaines, comme les chars Abrams ou les systèmes antiaériens Patriot, qui ne sont pas toujours plus performants que ceux de leurs adversaires, même si l’armée américaine n’a pas été directement engagée.

L’incident militaire survenu au Pakistan en mai 2025 nous révèle que les militaires chinois bénéficient d’une grande variété d’armements et d’une capacité avérée à introduire chaque année des innovations. C’est ainsi que l’on découvre que la supériorité industrielle et la diversité des arsenaux deviennent déterminants pour tenir dans un conflit de haute intensité.

De leur côté, de par leur compréhension rapide des conséquences de la guerre d’Ukraine les Chinois ont développé un système de chars modernes assistés par des véhicules spécialisés dans la lutte anti-drones. L’armée américaine, en revanche, semble moins capable de transformer rapidement son système militaire. La capacité de la Chine à produire massivement des drones et à les intégrer dans sa doctrine laisse entrevoir une supériorité potentielle.

Enfin, les États-Unis restent profondément attachés à la guerre aérienne comme vecteur de supériorité globale et laissent ainsi à l’armée chinoise l’initiative du combat terrestre. Cette confiance excessive dans la puissance aérienne est en soi problématique. La guerre du Vietnam leur avait pourtant montré l’inefficacité d’un contrôle aérien massif pour emporter une victoire politique, tout en entretenant l’illusion de pouvoir infliger des dommages décisifs à l’ennemi. Comme durant la Seconde Guerre mondiale, de nombreux indices suggèrent que cette foi dans la supériorité aérienne ne peut avoir, à terme, que des effets négatifs. La Chine a fait de sérieux efforts pour développer ses systèmes antiaériens et mettre en place des armées de drones capables de contester efficacement l’aviation américaine.

Suivant sa logique stratégique, il apparaît que l’armée chinoise ne montrera sa vraie puissance qu’une fois confrontée à un ennemi ayant perdu sa rationalité. En attendant, elle laisse son adversaire conserver sa supériorité illusoire.

The Conversation

Éric Martel-Porchier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.02.2026 à 16:50

Réseaux sociaux : aider les adolescents à protéger leur santé mentale en revisitant leurs usages numériques

Caroline Rouen-Mallet, Enseignant-chercheur en marketing, Université de Rouen Normandie

Pascale Ezan, professeur des universités - comportements de consommation - alimentation - réseaux sociaux, Université Le Havre Normandie

Stéphane Mallet, Enseignant-chercheur en marketing, IAE Rouen Normandie - Université de Rouen Normandie

Face aux effets néfastes des réseaux sociaux, la clé n’est pas de verser dans les discours moralisateurs, mais de mieux connaître les usages des adolescents pour les aider à repenser leurs pratiques.
Texte intégral (1716 mots)

Le dernier rapport de l’Agence nationale de sécurité sanitaire (Anses) l’a confirmé : les réseaux sociaux peuvent avoir des effets néfastes sur la santé mentale des adolescents et amplifier leurs vulnérabilités. Pour lutter contre cette spirale délétère, l’enjeu n’est pas de verser dans les discours moralisateurs ou de miser seulement sur la réglementation. Le marketing social permet de mieux connaître les motivations et les usages des jeunes pour les inviter à revisiter leurs pratiques. Explications.


Les adolescents sont aujourd’hui présents au quotidien sur les réseaux sociaux. Loin de n’être qu’un lieu d’expression ou de sociabilité, ces espaces numériques représentent un environnement saturé d’images idéalisées, de normes sociales et de mécanismes d’influence puissants.

Le rapport publié en décembre 2025 par l’Anses dresse un constat alarmant que notre projet ALIMNUM, financé par l’ANR, visant à identifier des leviers de prévention, avait déjà clairement identifié : les réseaux sociaux affectent de manière profonde l’image corporelle, l’estime de soi et la santé mentale des adolescentes. Et cette influence est suffisamment robuste pour être considérée comme un risque sanitaire avéré.

Les conclusions de l’Anses reposent sur des centaines d’études internationales. Elles établissent que les plateformes très visuelles (Instagram, Snapchat, TikTok) favorisent des mécanismes bien connus : intériorisation d’idéaux corporels irréalistes, auto-objectification, chute progressive de l’estime de soi…

Les effets apparaissent dès 9–11 ans et s’intensifient durant l’adolescence. Et les filles sont significativement plus touchées que les garçons par ces effets psychologiques délétères.

Une exposition massive à des images corporelles irréalistes

Cette confirmation survient dans un contexte où les usages numériques atteignent un niveau d’intensité sans précédent. Le Baromètre du numérique du Credoc montre que 75 % des internautes utilisent les réseaux sociaux chaque jour, et que cette pratique est particulièrement marquée chez les 12–17 ans, dont 58 % se connectent quotidiennement.

Les jeunes filles sont reconnues comme les utilisatrices les plus assidues : 48 % d’entre elles consultent les réseaux au moins une fois par jour, contre 41 % des garçons. Cette différence n’est pas anodine : elle détermine l’exposition à un environnement visuel et social qui, selon l’Anses, reconfigure durablement la manière dont les adolescentes perçoivent leur corps.


À lire aussi : « Dans la vraie vie aussi, j’aimerais bien porter un filtre » : les réseaux sociaux vus par les 8-12 ans


Cette dynamique expose les jeunes filles à un flot continu de contenus, présentant des corps répondant à des idéaux irréalistes, valorisant la retouche photo et les filtres, mettant en avant l’hypersexualisation, encourageant la comparaison ascendante (se comparer à plus « beau », plus mince, plus parfait), diffusant des conseils nutritionnels non vérifiés et des routines de « transformation » qui mélangent bien-être et injonction à la performance.

Une spirale algorithmique qui amplifie les vulnérabilités adolescentes

L’un des apports les plus importants du rapport Anses est de confirmer les effets des algorithmes dans l’exposition des adolescentes à des risques sanitaires. Celles-ci interagissent avec des contenus liés à la minceur, au fitness ou à l’alimentation restrictive et voient ces contenus se multiplier à l’instar d’un puits sans fond.

La tendance « healthy », omniprésente sur les réseaux sociaux, fabrique ainsi un idéal de discipline corporelle, de performance sportive et d’alimentation contrôlée. Une expérience citée par l’agence montre que d’ailleurs que TikTok recommande des contenus liés aux troubles alimentaires en moins de huit minutes lorsqu’un compte se comporte comme un adolescent de 13 ans.

Cette personnalisation algorithmique crée une spirale dans laquelle les insécurités physiques sont renforcées, parfois jusqu’à la détresse psychologique. Les études longitudinales montrent que ces usages sont liés à une augmentation des symptômes anxieux et dépressifs, à des troubles du sommeil et à une exposition accrue aux cyberviolences.

À cela s’ajoute un paradoxe mis en lumière par le CREDOC : bien que les jeunes soient très exposés aux interactions toxiques, seuls 34 % des 12–17 ans déclarent avoir déjà utilisé un dispositif de signalement. Les adolescentes restent donc vulnérables, sans recourir aux outils censés les protéger.

Comprendre les comportements pour mieux prévenir les risques

Face à ce faisceau de données, le marketing social apparaît comme un champ scientifique particulièrement utile pour identifier des leviers d’action. Il offre un cadre pertinent pour concevoir des stratégies de prévention ancrées dans les pratiques réelles des jeunes.

Contrairement aux discours moralisateurs ou purement réglementaires, le marketing social privilégie une démarche compréhensive fondée sur les motivations qui sous-tendent les comportements de consommation : pourquoi les adolescentes publient-elles des selfies ? Pourquoi recherchent-elles des « likes » ? Pourquoi passent-elles plusieurs heures par jour à se comparer aux autres ? Pourquoi les parents et les éducateurs peinent-ils à intervenir ?

Les travaux en marketing social apportent plusieurs éléments de réponse dans ce domaine. Les adolescents utilisent les réseaux sociaux pour appartenir à un groupe, contrôler leur image et obtenir une reconnaissance sociale qui leur fait parfois défaut dans la vie réelle. Ces motivations, naturelles à cet âge, deviennent problématiques lorsque l’environnement numérique les amplifie.

Face à ces enjeux, le marketing social insiste sur la nécessité de travailler avec – et non contre – ces motivations. En fait, le marketing social recommande d’accompagner plutôt que de contrôler en insistant sur certains leviers : co-construire les règles d’usage numérique, promouvoir l’esprit critique face aux images retouchées.

Il se fonde sur une segmentation fine des publics cibles : adolescentes très actives, utilisatrices passives, parents dépassés, enseignants, professionnels de santé. Chacun de ces publics suppose des messages adaptés et non une prévention uniforme, pour renforcer l’efficacité des actions à mener.

Créer un environnement social propice à l’éducation aux médias

L’approche ci-dessus est mobilisée dans le cadre du projet de sciences participatives MEALS, financé aussi par l’ANR, qui s’intéresse aux effets des réseaux sociaux sur les pratiques alimentaires des jeunes. Les jeunes n’y sont pas seulement des sujets d’étude, ils collaborent eux-mêmes à la recherche pour comprendre ce phénomène.

Avec cette méthode innovante, MEALS ambitionne de créer des outils pour développer un esprit critique face aux contenus numériques et de co-construire des messages de prévention adaptés aux jeunes, pour que les réseaux soient des alliés – et non des pièges – en matière de santé publique. Nous cherchons à identifier des comportements, à segmenter en fonction des motivations pour encourager non pas une déconnexion totale, peu réaliste, mais un usage réflexif des réseaux sociaux.

Dans ce contexte, nos jeunes co-chercheurs sont invités à proposer des activités alternatives offrant les mêmes bénéfices sociaux que les plateformes numériques : des espaces d’expression valorisants, des collectifs sportifs, des ateliers non compétitifs, des projets créatifs où le regard des pairs joue un rôle positif dans la construction identitaire.

Concrétement, au travers de ce projet, nous ne souhaitons pas évacuer les réseaux sociaux du quotidien des jeunes mais à revisiter leurs pratiques, en nous servant des contenus numériques qu’ils fréquentent pour les convertir en moments vecteurs de lien social. Il peut s’agir de réaliser une recette trouvée sur TikTok, de débattre d’une vidéo de TiboInschape ou de Louloukitchen, de créer une pièce de théâtre mettant en scène un influenceur, de rédiger un post dans le cadre d’un séminaire d’écriture…

Plus globalement, face aux risques sanitaires relevés par les publications scientifiques dans le cadre du rapport de l’Anses, l’enjeu est de créer des temps forts propices à une réflexion collective autour de l’utilisation des médias numériques. C’est une démarche à explorer pour éduquer les générations futures.



Les projets Alimentation et numérique – ALIMNUM et Manger avec les réseaux sociaux – MEALS sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Caroline Rouen-Mallet a reçu des financements de l'Agence Nationale de la Recherche (ANR) ) pour le projet ALIMNUM.

Pascale Ezan a reçu des financements de Agence Nationale de la Recherche pour les projets ALIMNUM (Alimentation et Numérique) et MEALS (Manger ensemble avec les réseaux sociaux)

Stéphane Mallet a reçu des financements de l'Agence Nationale de la Recherche (ANR) ) pour le projet ALIMNUM.

PDF

10.02.2026 à 16:49

Du plastique biodégradable pour pailler les sols agricoles : solution ou nouveau problème ?

Jules Bellon, Chargé de projets scientifiques, UniLaSalle

Feriel Bacoup, Chargée de recherche, UniLaSalle

Richard Gattin, Responsable équipe agroalimentaire agro-industrie, UniLaSalle

Le paillage plastique contamine les sols agricoles, et les alternatives biodégradables développées pour répondre au problème ne remplissent pas, à ce stade, leurs promesses.
Texte intégral (1855 mots)
Beaucoup de cultures ont recours à des paillages plastiques pour limiter la prolifération des mauvaises herbes. Freepik

Les films de paillage ont changé le quotidien de nombreux agriculteurs en facilitant la gestion des mauvaises herbes et de l’eau. Mais exposés au soleil, à l’humidité et au travail du sol, ces plastiques se fragmentent progressivement en micro et nanoplastiques qui s’accumulent dans les sols. Que deviennent ces particules invisibles ? Les plastiques biodégradables peuvent-ils réellement limiter cette pollution ?


En maraîchage et en arboriculture fruitière, les films plastiques de paillage sont devenus incontournables dans certains conditions de température, d’humidité et d’aération des sols. Posés à sa surface, ils empêchent les mauvaises herbes de se développer, conservent l’humidité et accélèrent le réchauffement du sol au printemps. Le résultat ? Des cultures plus productives et une moindre dépendance aux herbicides, notamment dans les sols en milieu tempéré soumis à un stress hydrique saisonnier.

Aujourd’hui, l’immense majorité des films de paillage – près de 90 % – sont fabriqués à partir de polyéthylène, un polymère dérivé du pétrole. Solide, bon marché et imperméable, ce matériau s’est imposé dans les champs. Mais il présente un inconvénient majeur : il ne se biodégrade pas et, une fois fragmenté, peut rester dans l’environnement pendant des siècles.

Une fois les cultures récoltées, ces films ne sont pas complètement retirés. Les fragments qui restent dans les sols se dégradent lentement sous l’effet du soleil, de l’humidité et du travail mécanique des terres. Ils se fragmentent progressivement en microplastiques (dont les dimensions vont de un micromètre à cinq millimètres), atteignant dans certaines exploitations plusieurs milliers de particules par kilogramme de sol. Avec le temps, ces fragments deviennent encore plus petits et forment ce que l’on nomme des nanoplastiques (dont la taille est inférieure à un micromètre).

Invisibles et pendant longtemps peu étudiées, ces particules soulèvent aujourd’hui de nombreuses questions. Comment se comportent-elles dans les sols agricoles ? Quels sont leurs effets potentiels sur l’environnement ? Surtout, les alternatives dites « biodégradables » constituent-elles réellement une solution pour limiter cette pollution ?


À lire aussi : Comment le plastique est devenu incontournable dans l’industrie agroalimentaire


L’agriculture européenne consomme 427 000 tonnes de plastique par an

Bien que les nano et microplastiques présents dans les sols agricoles aient des origines multiples, toutes les sources ne contribuent pas dans les mêmes proportions.

Parmi les apports externes figurent notamment les boues issues des stations d’épuration, parfois utilisées comme amendements organiques. Elles peuvent contenir jusqu’à près de 900 particules microplastiques par kilogramme de matière sèche. À l’échelle européenne, leur épandage représenterait chaque année l’introduction de 63 000 à 430 000 tonnes de microplastiques dans les sols agricoles.

Mais la contribution la plus importante se trouve souvent directement au champ. Les films plastiques de paillage constituent aujourd’hui la principale source de micro et nanoplastiques en agriculture. Chaque année, 427 000 tonnes de ces produits sont utilisées en Europe et 300 000 tonnes en Amérique du Nord. La Chine concentre, à elle seule, près de 30 % de la consommation mondiale, avec 2,6 millions de tonnes de films agricoles, dont 1,3 million de tonnes de films de paillage, soit environ les trois quarts de l’usage mondial.


À lire aussi : Peut-on se passer de plastique en agriculture ?


Des plastiques, du champ à l’assiette

Or, dans les sols agricoles, les nano et microplastiques ne se comportent pas comme de simples déchets inertes. Ils peuvent modifier les propriétés physiques, chimiques et biologiques des sols en affectant leur structure, leur porosité, leur capacité à retenir l’eau ou encore les cycles du carbone et de l’azote.

Ces particules peuvent aussi se fixer aux racines, freinant l’absorption de l’eau et la croissance des plantes. Certaines cultures, comme la laitue ou le blé, absorbent même des microplastiques depuis le sol, qui peuvent ensuite migrer vers les parties comestibles que nous mangeons.

Ce n’est pas tout : plus un fragment de plastique est petit, plus sa surface exposée au milieu environnant augmente par rapport à son volume. Or, les interactions entre le plastique et le sol se produisent principalement à sa surface. Ainsi, à quantité de plastique égale, les micro et surtout les nanoplastiques présentent une surface de contact beaucoup plus importante avec leur environnement que les fragments de plus grande taille.

Cette surface élevée les rend particulièrement réactifs : ils interagissent plus fortement avec les molécules présentes dans le sol. De nombreuses substances chimiques peuvent ainsi se fixer à la surface de ces particules, notamment des polluants organiques ou des métaux. En présence de pesticides, les plastiques peuvent alors se comporter comme de véritables « éponges chimiques », captant et concentrant localement des substances indésirables et potentiellement toxiques.


À lire aussi : Microplastiques, nanoplastiques : quels effets sur la santé ?


Plastique biodégradable ? Une promesse à nuancer

Pour répondre à cette problématique, des plastiques dits « biodégradables » ont été développés. Présentés comme une alternative aux films de plastique classiques, ils reposent sur un principe séduisant : après usage, ils seraient transformés par les microorganismes du sol en composés naturels, tels que l’eau et le dioxyde de carbone.

Mais cette promesse dépend fortement des conditions environnementales. En effet, la biodégradabilité est tributaire des conditions environnementales. Un plastique peut se dégrader rapidement dans une installation de compostage industriel, soumise à de fortes chaleurs, mais rester presque intact pendant longtemps dans un sol agricole plus frais.

C’est notamment le cas des polymères couramment utilisés dans les films de paillage biodégradables, comme le polybutylène adipate-co-téréphtalate (PBAT) ou le poly (butylène succinate) (PBS). Dans les conditions réelles des champs agricoles, leur dégradation peut rester incomplète.

Se pose alors la question de leur devenir à long terme et de leur capacité réelle à limiter l’accumulation de nano et microplastiques dans les sols.

Les vers de terre à la rescousse ?

Constatant ces échecs, des chercheurs s’attachent désormais à en comprendre les causes et à identifier les conditions environnementales et biologiques qui permettraient d’améliorer la dégradation de ces plastiques dans les sols agricoles. Il ne s’agit pas seulement de concevoir de nouveaux matériaux, mais aussi d’adapter les pratiques agricoles à leur présence dans les sols, en particulier dans les systèmes où l’usage des films de paillage est intensif.

Les scientifiques s’intéressent ainsi au rôle des amendements organiques, des biostimulants et des extraits microbiens, capables de modifier l’activité biologique des sols. Des études ont ainsi montré que le vermicompost – un compost produit par les vers de terre – peut fortement améliorer les performances de certains plastiques biodégradables en conditions agricoles. Cet effet s’expliquerait à la fois par l’apport de nutriments favorisant les microorganismes du sol et par la présence d’une flore microbienne spécifique, issue du tube digestif des vers de terre.

Pour mieux comprendre ces mécanismes, des expériences en laboratoire suivent la dégradation des plastiques à l’aide de systèmes respirométriques mesurant la transformation du carbone des plastiques en dioxyde de carbone par les microorganismes. Ces dispositifs permettent d’évaluer de manière quantitative dans quelles conditions cette dégradation est accélérée.


À lire aussi : Du slip troué aux sachets de thé, quelques indicateurs pour mesurer la santé des sols


Améliorer les plastiques et les pratiques

Si les plastiques dits biodégradables représentent une piste intéressante contre l’accumulation dans les sols de nano et de microplastiques, leur efficacité dépend étroitement des conditions réelles du milieu agricole et ils ne peuvent pas être considérés comme une solution systématique ou tenue pour acquise.

Les travaux de recherche montrent qu’améliorer leur biodégradation passe à la fois par une meilleure compréhension de l’interaction entre les matériaux, le fonctionnement biologique des sols et les pratiques culturales associées. Amendements organiques spécifiques, apports de souches exogènes et stimulation de l’activité microbienne autochtone constituent autant de leviers potentiels.

À terme, réduire la pollution plastique en agriculture nécessitera une approche globale, combinant innovation technologique, pratiques agronomiques adaptées et cadres réglementaires cohérents, afin de concilier performance agricole et protection durable des sols.

The Conversation

Jules Bellon a reçu des financements de la Région Normandie pour mener ses travaux de recherche.

Feriel Bacoup a reçu des financements de Région Normandie

Richard Gattin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.02.2026 à 16:49

McDonald's : vers un retour des jouets en plastique dans le Happy Meal ?

Sophie Renault, Professeur des Universités en Sciences de Gestion et du Management, Université d’Orléans

Bannis des menus enfants depuis 2022, les jouets en plastique font leur retour chez McDonald’s par l’intermédiaire d’une collaboration avec Playmobil, sous couvert de « plastique végétal ».
Texte intégral (1761 mots)
Dans sa nouvelle campagne (photo), McDonald’s s’est associé à la célèbre marque de figurines Playmobil pour ses fameux Happy Meal. ©McDonald’s – visuel promotionnel de la campagne En avant Playmobil® , Fourni par l'auteur

Bannis des menus enfants depuis 2022, les jouets en plastique font leur retour chez McDonald’s par l’intermédiaire d’une collaboration avec Playmobil. Derrière l’argument du plastique végétal, que dit vraiment ce retour ? Et qu’omet-il de rappeler ?


Novembre 2025 marque, en France, un tournant symbolique chez le géant du fast-food McDonald’s. Après plusieurs années de « diète plastique » dans le menu enfant où il a fallu se contenter de cartes à collectionner, de coloriages ou d’autres livrets d’activité, les jouets en plastique ont fait leur grand retour dans le Happy Meal.

Grâce à une collaboration avec Playmobil, McDonald’s tourne la page du « tout-papier ». L’enseigne semble entonner le refrain d’Elmer Food Beat : « Le plastique, c’est fantastique. » Ce revirement s’appuie sur une mécanique redoutable mêlant nostalgie et vernis écologique.


À lire aussi : La nostalgie, un puissant levier du marketing


Du jouet jetable à l’objet patrimonial : la requalification morale du plastique

En France, depuis le 1er janvier 2022, la loi Agec (anti-gaspillage pour une économie circulaire) interdit, dans son article 81, la distribution de jouets en plastique dans les menus destinés aux enfants. Il s’agit, d’une part, de réduire les déchets à usage unique et, d’autre part, de limiter l’exposition des enfants à des objets à faible durée de vie. En filigrane, cette mesure interroge le rôle des jouets comme leviers d’attractivité des offres de restauration rapide auprès des plus jeunes, dans un contexte de préoccupations croissantes liées à la prévention de l’obésité infantile et à la promotion de pratiques alimentaires plus équilibrées. Pour les enseignes de restauration rapide à l’instar du géant McDonald’s, cette mesure a signé la fin d’un pilier historique du menu enfant, longtemps structuré autour de la promesse d’un jouet en plastique à collectionner.

Durant cette parenthèse, où le jouet enfant était principalement réduit à du papier ou carton, le plastique n’avait pas quitté l’écosystème de McDonald’s. Il s’était simplement déplacé vers la cible adulte. C’est là toute l’habileté de la stratégie du géant du fast-food. Alors que l’enfant apprenait la sobriété écologique, les opérations pour adultes remettaient l’objet en plastique au centre du désir. En France, ce déplacement s’est matérialisé en 2025 autour de deux opérations emblématiques.

Tout a commencé avec les collaborations menées avec des univers culturels fortement chargés en capital affectif à l’occasion d’une part de la sortie du film Minecraft en avril, puis de la nouvelle saison de Mercredi en juillet  2025. Des figurines en plastique à vocation de collection ont été intégrées à des menus et dispositifs promotionnels tournés vers une clientèle adulte.

Du jouet pour enfants à l’artefact pour « kidults »

L’objet change ainsi de statut : de jouet jetable pour enfant, il devient artefact culturel pour kidults. La contrainte environnementale n’a pas fait disparaître le plastique. Elle l’a requalifié, en l’inscrivant dans une économie de la nostalgie et de la collection, socialement plus acceptable.

La subtilité réside dans le changement de statut du jouet en plastique : dans le menu enfant, le plastique était devenu un déchet polluant à bannir ; dans le menu adulte, il est célébré comme un objet de collection. En réhabilitant le plastique auprès des parents, McDonald’s a préparé les esprits. Une fois que le plastique a été « relégitimé » par la culture pop, il devenait plus simple de le réintroduire dans le menu enfant. Encore fallait-il lui trouver une vertu morale.

Pour acter ce retour en arrière, le choix du partenaire était crucial. Il semble, dans ce contexte, que l’association avec Playmobil ait pu agir comme un bouclier. Contrairement aux jouets sous licence de films, séries ou autres dessins animés susceptibles d’être jetés une fois la mode passée, les figurines Playmobil bénéficient d’une aura de respectabilité.

Il s’agit de jouets robustes qui se transmettent de génération en génération. L’argument implicite est fort, il ne s’agit pas d’un déchet plastique mais d’un patrimoine ludique. En outre, la collection de dix figurines d’animaux sauvages s’inscrit dans un imaginaire largement associé à la préservation de la nature et à la protection du vivant, ce qui renforce la portée affective et symbolique de l’opération.

Le « plastique végétal » : fantastique ou cynique ?

Face à l’urgence climatique, pour que ce retour soit socialement acceptable, il fallait un argument technique imparable : le plastique végétal. C’est ici que l’analyse doit se faire critique, car le terme flirte avec le malentendu.

D’une part, dire qu’un plastique est végétal signifie qu’il est fabriqué à partir de biomasse (fibres de canne à sucre, amidon de maïs, etc.) et non de pétrole. S’il s’agit d’un progrès en termes d’empreinte carbone, un polymère végétal a toutefois des similitudes avec son cousin pétrolier. S’il est perdu dans la nature, il mettra des décennies à se désagréger.

D’autre part, fabriquer des millions de figurines en plastique végétal implique d’utiliser des ressources agricoles. La systématisation de cette production pour des objets considérés comme « gratuits » pose la question de l’allocation des terres arables dans un monde aux ressources contraintes.

Enfin, et c’est peut-être la critique fondamentale, le plastique végétal est une solution technologique qui permet de tout changer pour que rien ne change. Il valide la poursuite d’un modèle basé sur la distribution massive de petits objets manufacturés avec un repas, plutôt que de questionner la nécessité même de ce « cadeau » systématique. De là à parler d’habillage éthique, il n’y a qu’un pas…

Archives INA.

Du Happy Meal au Happy Doggy : déplacer l’affect pour légitimer le plastique

Chez McDonald’s, les enjeux environnementaux n’ont pas fait disparaître le plastique. Ils l’ont rendu plus rare, plus scénarisé et de facto plus désirable. Dans le Happy Meal, les jouets en papier et carton demeurent ainsi la norme. Lorsque le jouet en plastique réapparaît, il est présenté comme un collector, pensé pour durer. La circulation de ces objets sur les plates-formes de vente en ligne, comme Vinted ou leboncoin, en témoigne. Le plastique se voit attribuer une seconde vie, socialement valorisée, qui le distingue du jetable.

In fine, le problème ne serait plus la matière, mais l’éphémère. Le jouet en soi n’est pas problématique, en revanche son absence de valeur affective l’est. Quid en ce sens des jouets en papier/carton ayant succédé à l’ère du plastique ? Ne sont-ils pas jetés bien plus rapidement que leurs homologues en plastique ? En requalifiant subtilement le plastique comme support de mémoire et de collection, McDonald’s transforme une pratique de consommation potentiellement dissonante en plaisir légitime.

L’introduction en novembre 2025 de jouets pour chiens (les Happy Doggy) dans le menu Best Of s’inscrit dans cette logique de déplacement symbolique. Le plastique trouve dans l’univers du pet marketing un nouvel espace de légitimation affective, moins exposé aux injonctions de sobriété adressées à la consommation enfantine.

The Conversation

Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.02.2026 à 16:47

Comment deux amnésiques ont révolutionné nos connaissances sur la mémoire

Olivier Després, Professeur de neuropsychologie - laboratoire de neurosciences cognitives et adaptatives (LNCA, CNRS-UNISTRA), Université de Strasbourg

Henry Molaison et Kent Cochrane, tout deux amnésiques, ont permis de lever le voile sur la façon dont notre mémoire et notre identité se construisent. Retour sur deux cas cliniques exceptionnels.
Texte intégral (1529 mots)

Comment nous souvenons-nous des choses ? Paradoxalement, deux des personnes qui ont le plus aidé les neuroscientifiques à répondre à cette question étaient amnésiques. Retour sur les histoires exceptionnelles d’Henry Molaison et de Kent Cochrane, deux patients hors norme.


Et si perdre la mémoire n’était pas seulement une tragédie, mais aussi une clé pour comprendre ce que signifie se souvenir ? Deux patients, Henry Molaison et Kent Cochrane, ont marqué l’histoire des neurosciences au XXᵉ siècle.

Le premier, opéré en 1953 pour traiter une épilepsie sévère, a révélé le rôle crucial d’une structure cérébrale, l’hippocampe, dans la formation des souvenirs. Le second, victime d’un accident de moto en 1981 ayant provoqué une hémorragie cérébrale sévère, a montré que la mémoire du passé et la capacité à se projeter dans l’avenir reposent sur les mêmes réseaux cérébraux.

Leurs destins ont bouleversé notre compréhension de la mémoire humaine et, plus largement, de l’identité elle-même. Voici leurs histoires.

Henry Molaison, plongé à jamais dans l’oubli

Né en 1926, Henry Molaison souffrait depuis l’enfance d’une épilepsie résistante aux traitements médicamenteux. En 1953, le neurochirurgien William Scoville lui proposa une solution radicale : retirer une partie de ses lobes temporaux médians, situés à la base du cerveau et comprenant notamment les deux hippocampes (l’hippocampe est une structure présente de manière symétrique dans les deux hémisphères cérébraux).

L’intervention permit de réduire la fréquence des crises, mais bouleversa la vie du patient à jamais : Henry perdit la capacité de créer de nouveaux souvenirs, une amnésie dite « antérograde ».

La neuropsychologue Brenda Milner, de l’université McGill à Montréal, l’évalua dès 1955 et fit une découverte majeure : l’intelligence et les capacités langagières du patient semblaient intactes, mais toute nouvelle information s’effaçait au bout de quelques minutes. Chaque rencontre, chaque conversation disparaissait presque aussitôt. Henry ne parvint d’ailleurs jamais à se souvenir de ses entrevues répétées avec Brenda Milner, ignorant jusqu’à sa mort, en 2008, qui elle était.

Les observations menées sur Henry Molaison, révélèrent que l’hippocampe était une pièce maîtresse de la mémoire déclarative, celle qui permet de se souvenir des faits et des événements. Brenda Miller réalisa aussi que la mémoire n’est pas un processus global, mais une fonction composée de plusieurs systèmes, chacun reposant sur des structures cérébrales distinctes.

En effet, la neuropsychologue constata que, malgré son incapacité à enregistrer de nouveaux souvenirs, Henry conservait une certaine capacité d’apprentissage : il pouvait encore acquérir de nouveaux gestes moteurs, et par exemple apprendre à tracer une étoile dans un miroir. Ce type d’apprentissage, qui relève de la mémoire implicite, non consciente, dépend d’autres régions du cerveau que l’hippocampe. De ce fait, cette capacité restait, chez lui, préservée.

Les études menées sur le patient désigné par les initiales H. M., qui ont préservé son anonymat dans la littérature scientifique jusqu’à sa mort, ont été décisives pour montrer que la mémoire humaine n’est pas une fonction unique, mais repose en réalité sur des systèmes distincts, qui sont situés dans différentes régions du cerveau.

Elles ont également révélé le rôle central de l’hippocampe et des structures voisines des lobes temporaux médians dans la formation et la consolidation des souvenirs.

À ce jour, Henry Molaison reste l’un des patients les plus étudiés de l’histoire de la neuropsychologie.

Kent Cochrane, privé de passé et de futur

Quelques décennies après l’intervention chirurgicale subie par Henry Molaison, un Canadien allait devenir amnésique et, malgré lui, contribuer à enrichir encore nos connaissances sur le fonctionnement la mémoire.

Kent Cochrane, né en 1951, fut victime en 1981 d’un grave accident de moto. Le choc provoqua une hémorragie cérébrale et détruisit ses lobes temporaux médians. Comme le patient H. M., Kent Cochrane devint incapable d’enregistrer un quelconque nouveau souvenir de sa vie. Pire encore, il oublia de nombreux épisodes de sa vie passée. Cela incluait les moments les plus marquants sur le plan émotionnel, comme le jour où il apprit le décès de l’un de ses frères.

Le neuropsychologue Endel Tulving étudia le cas de Kent Cochrane pendant plus de vingt ans. Il constata que son patient conservait des connaissances sur lui-même et sur le monde, telles que les personnes qu’il côtoyait ou les lieux qu’il fréquentait ou avait visités. En revanche, il était incapable de revivre un souvenir personnel.

À partir de ces observations, Endel Tulving proposa la distinction entre deux formes de mémoire : la mémoire épisodique, qui concerne les événements vécus dans leur contexte spatial, temporel et émotionnel, et la mémoire sémantique, relative aux connaissances générales sans ancrage contextuel.

Par exemple, se souvenir du moment précis où l’on a rencontré la personne avec qui l’on partage sa vie relève de la mémoire épisodique : le lieu exact de cette première rencontre, les circonstances, les personnes présentes, les premiers mots échangés, ainsi que l’émotion ressentie à cet instant. La mémoire sémantique concerne quant à elle des informations plus générales, indépendantes de toute expérience vécue particulière. Elle inclut par exemple nos connaissances sur le monde et la société, le nom des artistes que nous apprécions, le nom des capitales de différents pays, ou encore la date de naissance de nos proches.

Chez Kent Cochrane, la mémoire sémantique demeurait intacte, alors que la mémoire épisodique était détruite. Ce contraste montrait que ces deux systèmes mnésiques reposent sur des réseaux cérébraux différents : les hippocampes pour la mémoire épisodique, et les pôles temporaux pour la mémoire sémantique.

Plus étonnant encore, Endel Tulving constata que la capacité à se projeter dans l’avenir mobilise les mêmes structures cérébrales que celle qui permet de se souvenir du passé. En effet, depuis l’accident qui l’avait privé de ses hippocampes, et donc de ses souvenirs, Kent Cochrane était incapable de s’imaginer dans l’avenir, même proche.

Le cas de ce patient a ainsi mis en lumière le fait que la mémoire ne sert pas seulement à évoquer le passé, mais aussi à anticiper le futur. Une faculté qui se situe au cœur de la conscience de soi, et de notre identité.

Au-delà de la science, une leçon d’humanité

En perdant la capacité de se souvenir des événements de leur propre vie, Henry Molaison et Kent Cochrane ont révélé à quel point la mémoire façonne notre rapport au monde et à nous-mêmes.

Ces deux destins, à la fois tragiques et éclairants, ont fait de la mémoire un miroir de notre identité. Ces deux cas cliniques posent une question essentielle : que reste-t-il de notre humanité lorsque notre mémoire s’efface ?

Au-delà de la reconnaissance de l’immense apport des études sur ces amnésies, les parcours de ces deux hommes nous invitent aussi à réfléchir sur notre empathie face à la vulnérabilité.

Enfin, ces deux histoires profondément humaines traduisent les liens singuliers qui unissent les chercheurs à ceux qui deviennent, souvent malgré eux, des figures majeures de la science.

Après la mort d’Henry Molaison, Brenda Milner confia que celles et ceux qui avaient travaillé auprès de lui avaient été profondément touchés par sa disparition. Elle ajoutait qu’il y a quelque chose de profondément paradoxal à être fortement ému par la mort d’un homme qui, toute sa vie durant, n’a jamais su qui vous étiez.

The Conversation

Olivier Després ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.02.2026 à 16:46

Le mystère de la « Dame à l’éventail », éclairé par une photo de Jeanne Duval

Maria C. Scott, Associate Professor of French Literature and Thought, University of Exeter

On sait très peu de choses au sujet de Jeanne Duval, qui continue de fasciner les spécialistes de la littérature, de la peinture et du féminisme.
Texte intégral (1729 mots)

On sait très peu de choses au sujet de la comédienne haïtienne Jeanne Duval (1818-1868), compagne de Charles Baudelaire peinte par Manet, qui continue de fasciner les spécialistes de la littérature, de la peinture et du féminisme.


En mai 2025, je suis tombée sur une photographie extraordinaire sur le site Wikipedia anglais consacré à Jeanne Duval. Duval, originaire d’Haïti, était la maîtresse et muse de longue date, supposée n’avoir jamais été photographiée, du poète français Charles Baudelaire.

Le portrait, représentant une femme assise vêtue d’habits bourgeois raffinés, avait été publié sur Wikipédia par une étudiante de l’historienne de l’art Justine De Young. De Young évoque ce portrait comme un exemple d’auto-mise en scène dans son dernier ouvrage, The Art of Parisian Chic. Imprimée sur une petite carte (il s’agit d’un portrait-carte de visite, en vogue à l’époque) et datée du 18 août 1862, l’image a été découverte dans les archives françaises par une autre chercheuse, comme je l’ai mentionné dans un récent article publié par le Times Litterary Supplement, et documentée en ligne par elle en 2021.

Une photo redécouverte

Jeanne Duval fascine de nombreuses chercheuses et chercheurs experts du féminisme et du postcolonialisme, en partie parce que l’on sait très peu de choses précises à son sujet. Intriguée, je me suis rendue moi-même aux archives à l’été 2025, juste pour voir la photo. Là, j’ai remarqué une deuxième photo au format carte de visite à côté de la première. Elle portait le même nom, « Jeanne », la même date, et provenait du même studio de photographie, l’atelier Nadar. Les deux cartes avaient été inscrites au registre du dépôt légal sous la mention « idem ».


À lire aussi : Les femmes censurées des « Fleurs du mal »


Cette deuxième Jeanne se tient debout, dans une pose inhabituellement rigide pour une photographie de ce type. Elle porte une robe de soirée à épaules dénudées et ses cheveux tombent en cascade dans son dos, retenus sur le front par un simple bandeau.

Une inspiration pour Manet ?

Une version numérique haute résolution de cette image a révélé de fortes ressemblances avec le modèle de la première photographie, similitudes qui n’étaient pas immédiatement apparentes sur les petites cartes. Les deux photos révèlent une implantation capillaire similaire, une même imperfection sur le front et une bague au même doigt. Il était clair que si la première photographie représentait Duval, celle-ci aussi.

Cependant, le crucifix porté en pendentif sur une chaîne courte et les grandes boucles d’oreilles m’ont semblé particulièrement intéressants. Des bijoux très similaires sont en effet portés par le modèle dans le portrait d’Édouard Manet intitulé Dame à l’éventail (1862), également connu sous le nom de la Maîtresse de Baudelaire allongée. Ce dernier titre avait été inscrit au dos du tableau à un moment donné, soit pendant, soit avant l’inventaire posthume de l’atelier de l’artiste.

La pose maladroite et l’expression faciale impénétrable du modèle ont souvent été interprétées comme faisant référence aux difficultés et à la maladie que Duval endurait à l’époque. Elle se trouvait dans une situation financière désastreuse et souffrait d’une paralysie du côté droit depuis un accident vasculaire cérébral survenu en 1859. Cependant, l’identification du modèle de Manet comme étant Duval est parfois contestée par les chercheurs, pour plusieurs raisons.

Le portrait sur carte de « Jeanne » debout, réalisé la même année que le portrait à l’huile et son étude à l’aquarelle, présente des traits, une expression et des ombres très similaires. Les historiens de l’art Griselda Pollock et Therese Dolan ont émis l’hypothèse que Manet s’était inspiré d’une photographie ou d’une carte de visite de Duval pour réaliser Dame à l’éventail. Les liens entre la photographie de Jeanne debout et les portraits à l’huile et à l’aquarelle de Manet semblent confirmer que Duval est le sujet des deux peintures (aquarelle et huile) et des deux photographies.

Pourquoi ces photographies ont-elles été prises ?

Duval posait-elle donc pour Manet dans ces photographies ? Il convient de noter que Manet, Félix Nadar (le propriétaire du studio de photographie) et Baudelaire étaient tous des amis proches, et que Duval s’était séparée du poète, apparemment de manière définitive, en 1861.

Duval a peut-être proposé de poser, ou a été invitée à poser pour les photographies de Nadar (et indirectement pour Manet, qui travaillait souvent à partir de photographies) en échange d’argent. Nous savons qu’elle avait approché au moins un autre ami de Baudelaire en 1862 pour essayer de lui vendre les biens du poète. Le fait qu’elle tienne une cravache sur la photographie avec le crucifix vient étayer l’hypothèse de la monétisation. Peut-être espérait-elle, ou espéraient-ils, que le portrait sur carte de la muse sadique/angélique du recueil de poèmes de Baudelaire les Fleurs du mal (1857) aurait une valeur marchande.

Photographie en noir et blanc de Charles Baudelaire
Charles Baudelaire, vers 1862. British Library

Il est également possible que Baudelaire ait commandé des portraits de son ancienne maîtresse à des fins personnelles. Malgré sa colère et son ressentiment envers Duval après leur séparation, ses lettres et ses croquis témoignent de sa loyauté et de son affection persistantes.

Ou peut-être Duval souhaitait-elle rétablir la vérité sur qui elle était. Peut-être voulait-elle que le monde sache qu’elle n’était en fait pas la muse diabolique et sexualisée au centre du volume de poésie scandaleux de Baudelaire, mais plutôt quelqu’un qui s’habillait avec des vêtements élégants et respectables (probablement empruntés) comme on le voit sur la première photographie.

Peut-être que le crucifix et la bague visible à l’annulaire des deux photos avaient également pour but de témoigner de ses valeurs morales. Cependant, certains détails de la deuxième image, notamment la cravache, les épaules nues et les grandes boucles d’oreilles, suggèrent que sa volonté n’était pas de se donner une image « respectable ».

Il est probable que les portraits-cartes de visite, s’ils représentent bien Jeanne Duval, aient été motivées par des raisons financières, qu’elles aient été son idée ou celle de Nadar, Manet ou Baudelaire. Il est également possible que la mise en scène de soi ait fait partie de son objectif, mais si tel est le cas, le message qu’elle voulait faire passer n’est pas clair.

Des chercheurs français ont récemment découvert que Duval était morte dans un hospice six ans seulement après la réalisation de ces portraits. Jusqu’alors, personne ne semblait savoir ce qu’elle était devenue. Ces photographies témoignent, du moins à mes yeux, de la résistance de Duval à se laisser cataloguer et de sa dignité tranquille.

The Conversation

Maria C. Scott publiera prochainement un article universitaire sur ce sujet dans la revue French Studies.

PDF

10.02.2026 à 14:11

Les chiens et les chats transportent les vers plats envahissants de jardin à jardin

Jean-Lou Justine, Professeur, UMR ISYEB (Institut de Systématique, Évolution, Biodiversité), Muséum national d’histoire naturelle (MNHN)

Leigh Winsor, Adjunct Senior Research Fellow, James Cook University

Les sciences participatives permettent de découvrir comment les vers plats envahissants sont transportés de jardin en jardin… sur le dos des chiens et des chats !
Texte intégral (1259 mots)

Les chiens et les chats domestiques peuvent transporter les vers plats (plathelminthes) collés sur leur pelage. Sans le vouloir, ils contribuent ainsi à la propagation de ces espèces exotiques envahissantes. Notre travail vient d’être publié dans la revue scientifique PeerJ.

Au niveau mondial, les espèces exotiques intrusives représentent un des dangers majeurs pour la biodiversité. Il est frappant de découvrir que les chiens et les chats, nos compagnons du quotidien, participent de manière involontaire à l’envahissement des jardins par une espèce potentiellement dangereuse pour la biodiversité.

Comment avons-nous fait cette découverte ?

Nous menons un projet de sciences participatives sur les invasions de vers plats.

Nous avons été interpellés par des courriels envoyés par des particuliers signalant la présence de vers collés au pelage de chiens et de chats. Nous avons alors réexaminé plus de 6 000 messages reçus en douze ans et avons constaté que ces observations étaient loin d’être anecdotiques : elles représentaient environ 15 % des signalements.

Fait remarquable, parmi la dizaine d’espèces de vers plats exotiques introduits en France, une seule était concernée : Caenoplana variegata, une espèce venue d’Australie dont le régime alimentaire est composé d’arthropodes (cloportes, insectes, araignées).

Caenoplana variegata, le ver plat qui est transporté par les chats et les chiens. par Jean-Lou Justine, CC BY

En quoi cette découverte est-elle importante ?

On sait depuis longtemps que les plathelminthes (vers plats) exotiques sont transportés de leur pays d’origine vers l’Europe par des moyens liés aux activités humaines : conteneurs de plantes acheminés par bateau, camions livrant ensuite les jardineries, puis transport en voiture jusqu’aux jardins.

Ce qu’on ne comprenait pas bien, c’est comment les vers plats, qui se déplacent très lentement, pouvaient ensuite envahir les jardins aux alentours. Le mécanisme mis en évidence est pourtant simple : un chien (ou un chat) se roule dans l’herbe, un ver se colle sur le pelage, et l’animal va le déposer un peu plus loin. Dans certains cas, il le ramène même chez lui, ce qui permet aux propriétaires de le remarquer.

Par ailleurs, il est surprenant de constater qu’une seule espèce est concernée en France, alors qu’elle n’est pas la plus abondante. C’est Obama nungara qui est l’espèce la plus répandue, tant en nombre de communes envahies qu’en nombre de vers dans un jardin, mais aucun signalement de transport par animal n’a été reçu pour cette espèce.

Cette différence s’explique par leur régime alimentaire. Obama nungara se nourrit de vers de terre et d’escargots, tandis que Caenoplana variegata consomme des arthropodes, produisant un mucus très abondant et collant qui piège ses proies. Ce mucus peut adhérer aux poils des animaux (ou à une chaussure ou un pantalon, d’ailleurs). De plus, Caenoplana variegata se reproduit par clonage et n’a donc pas besoin de partenaire sexuel : un seul ver transporté peut infester un jardin entier.

Nous avons alors tenté d’évaluer quelles distances parcourent les 10 millions de chats et les 16 millions de chiens de France chaque année. À partir des informations existantes sur les trajets quotidiens des chats et des chiens, nous avons abouti à une estimation spectaculaire : des milliards de kilomètres au total par an, ce qui représente plusieurs fois la distance de la Terre au Soleil ! Même si une petite fraction des animaux domestiques transporte des vers, cela représente un nombre énorme d’occasions de transporter ces espèces envahissantes.

Un point à clarifier est qu’il ne s’agit pas de parasitisme, mais d’un phénomène qui s’appelle « phorésie ». C’est un mécanisme bien connu dans la nature, en particulier chez des plantes qui ont des graines collantes ou épineuses, qui s’accrochent aux poils des animaux et tombent un peu plus loin. Mais ici, c’est un animal collant qui utilise ce processus pour se propager rapidement.

Quelles sont les suites de ces travaux ?

Nous espérons que cette découverte va stimuler les observations et nous attendons de nouveaux signalements du même genre. D’autre part, nos résultats publiés concernent la France, pour laquelle les sciences participatives ont fourni énormément d’informations, mais quelques observations suggèrent que le même phénomène existe aussi dans d’autres pays, mais avec d’autres espèces de vers plats.

Il est désormais nécessaire d’étendre ces recherches à l’échelle internationale, afin de mieux comprendre l’ampleur de ce mode de dispersion et les espèces concernées.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

10.02.2026 à 12:55

« Trump est fou » : les effets pervers d’un pseudo-diagnostic

Olivier Fournout, Maître de conférence HDR, département Sciences économiques et sociales, chercheur à l’Institut Interdisciplinaire de l’Innovation (CNRS), Télécom Paris – Institut Mines-Télécom

Se concentrer sur la supposée « folie » de Donald Trump revient à méconnaître la rationalité de son action et, au bout du compte, à faire son jeu.
Texte intégral (3523 mots)

Qualifier Donald Trump de « fou », comme c’est régulièrement le cas ces derniers temps, tend à détourner l’attention de la cohérence de la politique conduite par l’intéressé depuis son retour à la Maison-Blanche et du fait qu’il constitue moins une anomalie individuelle qu’un produit typique d’un système économique, médiatique et culturel qui valorise la domination, la spectacularisation et la marchandisation du monde. Il convient de se détourner de cette psychologisation à outrance pour mieux se concentrer sur les structures sociales qui ont rendu possible l’accession au pouvoir d’un tel individu.


C’est devenu en quelques jours du mois de janvier 2026 la note la plus tenue de l’espace médiatique : Trump est fou. Une élue démocrate au Congrès des États-Unis tire la sonnette d’alarme sur X, le 19 janvier : le président est « mentalement extrêmement malade », affirme-t-elle. Fox News, média proche de Donald Trump sur le long terme, reprend les propos dès le lendemain sur un ton factuel. Le 22 janvier, lendemain du discours de Trump à Davos, durant lequel il a demandé « un bout de glace » (à savoir le Groenland) « en échange de la paix mondiale », l’Humanité fait le titre de sa une avec un magnifique jeu de mots : Trump « Fou allié ».

Une du 22 janvier 2026. L’Humanité

Le 23 janvier, des messageries relayent ce qui déjà se diffuse largement dans la presse : « Déclaration de représentants démocrates au Congrès US : la santé mentale de Donald Trump est altérée ; c’est pire que Joe Biden, c’est un cas de démence ».

Le 24 janvier, la une de l’hebdomadaire The Economist montre un Donald Trump torse nu à califourchon sur un ours polaire – message de folle divagation en escalade mimétique avec Poutine et ses clichés poitrine à l’air, l’animal du Grand Nord soulignant en l’occurrence les prétentions du locataire de la Maison Blanche sur le Groenland.

Une du 24 janvier 2026. The Economist

Même le premier ministre slovaque Robert Fico, pourtant un allié du milliardaire new-yorkais, l’aurait jugé « complètement dérangé » après l’avoir rencontré le 19 janvier à Mar-a-Lago. Le cas Trump est donc désormais régulièrement examiné à l’aune de la folie par des élus, des journalistes, mais aussi des psychiatres.

Il y a pourtant matière à être dubitatif sur les accusations de folie portées contre Trump. Non seulement elles n’ont guère contribué jusqu’ici à le neutraliser, mais elles ont même fait son succès et empêchent de penser le vrai problème. Les arguments en leur défaveur méritent un tour d’horizon.

Quelle légitimité du discours médicalisant ?

Il peut sembler contestable, même quand on est psychiatre et a fortiori quand on ne l’est pas, de déclarer quelqu’un malade mental sans l’avoir examiné selon des protocoles précis.

Quand le 5 mars 2025 le sénateur français Claude Malhuret, qui est médecin, traite Trump de « Néron » et de « bouffon » à la tribune du palais du Luxembourg – une intervention qui deviendra virale aux États-Unis –, le discours est de belle facture rhétorique, mais il n’est pas médical.

Le sénateur ne se réfère d’ailleurs pas à l’Académie. À ce stade, en l’absence d’examen effectué par des professionnels dont les résultats auraient été rendus publics, qualifier Trump de fou relève plus de la tournure politique que médicale.

Une rhétorique inefficace

Les déclarations sur la folie de Trump se succèdent sur le long cours sans avoir montré la moindre efficacité pour le combattre. Dès la première année de son premier mandat, la rumeur bruisse d’une possible destitution pour raison mentale sur la base d’avis d’experts qui n’ont pourtant pas eu d’entretiens avec le principal intéressé. Aucune procédure de destitution ne sera engagée sur ces bases.

Une nouvelle sortie collective de professionnels sur le déclin cognitif de Trump, lui trouvant un « désordre sévère et incurable de la personnalité », eut lieu en octobre 2024. Ce qui ne l’empêcha pas d’être élu assez aisément le mois suivant face à Kamala Harris. Quant à la défaite de 2020, elle arriva en pleine vague Covid et fut moins la conséquence des assertions selon lesquelles le président sortant était fou que de sa gestion désastreuse de la pandémie : sous-estimation de l’ampleur des contagions et de la mortalité, refus ostensible du port du masque.

Un jour, sans doute, Trump quittera-t-il le pouvoir, mais les effets des jugements de maladie mentale sur sa carrière politique – et en particulier sur sa victoire de 2024, qui se produisit alors que les électeurs avaient toute connaissance de son profil personnel – ont été nuls jusqu’à aujourd’hui.

Des attaques qui font le jeu de Trump

Pis encore : ces attaques ne sont pas seulement inefficaces, elles servent Trump. Le cœur de sa technique – qu’il a explicitée dès les années 1980 dans The Art of the Deal – consiste à semer la controverse pour faire parler de lui et de ses projets. Lui répondre sur ce terrain qui est le sien, en le traitant notamment de psychopathe (ou d’aberrant, de monstrueux, de stupide, ou de lunaire – le dernier vocable à la mode), c’est tomber dans le piège : il se pose ensuite en victime et ramasse les suffrages. Le sujet d’étonnement est que, depuis dix ans, aucune leçon n’ait été tirée de ces échecs à répétition dans la lutte contre Trump.

« Je fulmine et m’extasie comme un dément, et plus je suis fou, plus l’audimat grimpe »,

s’autopitchait Trump pour son émission de téléréalité, The Apprentice (source : Think Big and Kick Ass: In Business and Life, D. Trump et B. Zanker, 2007). Folie ? Non. Mise en scène éprouvée qui attire l’attention à son profit.

Mais le bénéfice s’enclenche aussi pour les commentateurs et les chambres d’écho. Et c’est là que le bât blesse : les « coups de folie » de Trump sont en réalité des diversions où les médias, les oppositions, les politiques et, souvent, les experts s’engouffrent pour le buzz.

Trump est à l’image de la société

Au-delà de la télé, les méthodes de Trump sont typiques de conseils de vie qui circulent largement dans la société, émanant de bien d’autres agents que lui. On pense, par exemple, aux classiques Swim With the Sharks Without Being Eaten Alive (1988), de Harvey Mackay, ou The Concise 33 Strategies of War (2006), de Robert Greene.

On pense aussi aux métaphores guerrières qui se glissent dans des ouvrages de management plus pondérés ; « les salles de commandement en temps de guerre » décrivent les réunions des équipes « successful », dans X-Teams (2007) ; donner plus de pouvoir au manager est recommandé pour qu’il ne se retrouve pas « face à dix ennemis avec une seule balle dans son fusil », dans Smart simplicity (2014).

De ce point de vue, Trump est « banal, trop banal ». Il est typique d’une « héroïcomanie hypermoderne », porté par une « trumpisation du monde » qui le dépasse. La conséquence de ce constat sociologique est que le problème est beaucoup plus profond qu’une folie idiosyncrasique, si perturbante soit-elle.

Déclarer Trump fou fait oublier à quel point le mode opératoire trumpiste est, pour une part non négligeable, partagé transversalement par la société. Ainsi, Trump privilégie-t-il les rapports de force. Il a toujours été sans équivoque sur ce point qui lui apporta la réussite dans le business, la télévision, le marché du leadership, et maintenant en politique. Mais cela ne se réalise pas contre la société américaine, comme par accident, mais en miroir d’un vaste spectre de celle-ci.

La négociation le revolver sur la tempe alimente quantité de traités de développement personnel, de management et de communication au travail. Elle est la matrice scénaristique assurant la popularité des films hollywoodiens (non seulement les westerns mais aussi les « propositions qui ne se refusent pas » du film le Parrain). Rien, là, de fou ou d’aberrant. Juste un éthos dominant qui a sa rationalité et qui n’a jamais été soft.

Aussi, aucune surprise si la rencontre d’un pouvoir fort est seule susceptible de faire fléchir Trump. Là encore, il est explicite sur ce point depuis longtemps. Lorsqu’il fut proche de la faillite dans les années 1990, il courbe l’échine devant les banquiers : « Quand vous devez de l’argent à des gens, vous allez les voir dans leur bureau […] Je voulais faire n’importe quoi sauf aller à des dîners avec des banquiers, mais je suis allé dîner avec des banquiers » (in Think big, 2007). Rationalité strictement instrumentale, certes, mais rationalité. L’article de fond « Ice and heat » récemment publié par The Economist sur l’affaire du Groenland relève que la menace européenne de déclencher l’instrument anti-coercition a joué, pour l’instant, dans le recul de Trump.

Révéler la structure pour mieux la combattre

Pour contrer l’Amérique de Trump, il conviendrait d’abord plutôt de se pencher sur la rationalité de ses lignes directrices. Son action, aussi bien en diplomatie qu’en politique intérieure, aussi bien en politique économique qu’en gestion des ressources naturelles, découle d’une stratégie claire et constante, pensée et volontariste. C’est sur ce terrain qu’il faut se battre pour défaire Trump, et non par des coups d’épée dans l’eau qui donnent bonne conscience à bon compte, sont repris en boucle, mais n’apportent rien de consistant face au fulminant showman.

Olivier Fournout a notamment publié : « La trumpisation du monde. Pourquoi le monde adore Trump, y compris ceux qui le détestent. » Éditions Le Bord de l’Eau, 2020

Du discours de Trump à Davos, le 21 janvier 2026, ressortent plusieurs traits qui n’ont rien de mentalement dérangé. D’une part, il apporte un momentum aux extrêmes droites européennes déjà au pouvoir ou aux portes de celui-ci. D’autre part, une Europe qui se réarme et qui reste toujours globalement « alliée » des États-Unis débouche sur une situation stratégique plus favorable du point de vue américain : tel est le résultat, objectif, de la séquence historique actuelle.

Enfin, la demande d’avoir un « titre de propriété » sur le Groenland réussit à installer, même si elle n’aboutit pas, l’horizon indépassable du monde selon Trump : « La terre, comme les esclaves d’Ulysse, reste une propriété », comme l’écrivait Aldo Leopold, pionnier de la protection de la nature aux États-Unis, dans Almanach d’un comté des sables, publié en 1948 (traduction française de 2022 aux éditions Gallmeister). Trump est dans son élément, en parfaite maîtrise du vocabulaire pour fragiliser la transition ou bifurcation écologique. Comme l’exprime Estelle Ferrarese dans sa critique de la consommation éthique, « dans aucun cas la finalité n’est de mettre certaines choses (comme la terre) hors marché ».

Question ouverte pour l’Histoire

En insistant sur la supposée folie de Trump, les commentaires se rabattent sur un prisme psychologisant individuel. Peut-être Trump est-il fou. La sénilité peut le guetter – il en a l’âge. Des centaines de pathologies psychiatriques sont au menu des possibles qui peuvent se combiner.

Mais l’analyse et l’inquiétude ont à se pencher, en parallèle, sur le symptôme structurel de notre temps, sur ce système qui, depuis cinquante ans, propulse Trump au zénith des affaires, des médias, des ventes de conseils pour réussir, et deux fois au sommet du pouvoir exécutif de la première puissance mondiale.

La prise de distance avec l’accusation de folie portée contre Trump ouvre un chantier de réflexion où le problème n’est plus la folie personnelle du leader élu, mais une stratégie dont Trump est, en quelque sorte, un avatar extrême mais emblématique. Le regard se détache de l’événementiel chaotique – trumpiste ou non trumpiste – pour retrouver le fil d’une analyse structurelle. Sans conteste, Trump fragilise l’ONU et l’OMS, mais à l’aune de l’histoire longue, il ressort qu’une « impuissance structurelle » persévère, selon laquelle « dans le cas des États-Unis, c’est un grand classique que de bouder (au mieux) et de torpiller (autant que possible) toutes les démarches multilatérales dont ils n’ont pas pris l’initiative ou qu’ils ne sont pas (ou plus) capables de contrôler » (Alain Bihr, l’Écocide capitaliste, tome 1, 2026, p. 249).

Les psychés peuvent être « débridées », mais ce sont les « structures sociales » qui « sélectionnent les structures psychiques qui leur sont adéquates ». Trump n’est plus alors une anomalie foutraque, sénile, troublée, en rupture avec ce qui a précédé et à côté des structures sociales, mais la poursuite d’une marchandisation du monde à haut risque, dont le diagnostic est à mettre en haut des médiascans, pour discussion publique.

The Conversation

Olivier Fournout ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.02.2026 à 12:22

Pourquoi l’obésité progresse-t-elle depuis trente ans ?

Arnaud Alessandrin, Sociologue, Université de Bordeaux

Thibault Bossy, Maître de conférences en sociologie, Université de Bordeaux

Malgré les politiques publiques et les actions autour de l’activité physique et de la nutrition, la prévalence de l’obésité a augmenté régulièrement en France ces trente dernières années. Pourquoi ?
Texte intégral (1894 mots)

Le ministère de la santé vient de lancer sa feuille de route 2026-2030 pour la prise en charge des personnes en situation d’obésité. Ce cadre stratégique invite à questionner un paradoxe : l’État a déployé dès 2001 un ensemble d’actions autour de l’activité physique et la nutrition en vue de réduire la prévalence de cette maladie, et, pourtant, celle-ci augmente régulièrement depuis une trentaine d’années.


L’obésité est une maladie dont les causes et conséquences sont désormais bien documentées par la littérature médicale comme sociologique. Sa prévalence n’a cessé d’augmenter depuis les années 1990 dans le monde. La France ne fait pas exception. De 8,5 % en 1997, la population adulte en situation d’obésité est passée à 15 % en 2012, puis à 17 % en 2020. Des écarts importants existent entre les personnes suivant leur âge, leur sexe, leur région, leur niveau d’éducation et leur catégorie socioprofessionnelle.

Ces données épidémiologiques et sanitaires ont participé à une prise de conscience (certes, partielle) des pouvoirs publics quant à la nécessité d’agir. Mais les politiques publiques menées contre l’obésité en France sont inefficaces. Comment l’expliquer ? Quelles stratégies sont mises à l’œuvre par les lobbies pour contrer les mesures ? Et comment concilier lutte contre l’obésité et lutte contre la grossophobie ? Faisons le point.

Les années 1990, ou la prise de conscience du lien entre alimentation et santé

La reconnaissance de l’obésité comme une « épidémie » par l’Organisation mondiale de la santé (OMS) en 1997 incite les autorités sanitaires nationales à se saisir de cet enjeu.

En France, il faut attendre la fin des années 1990 pour voir le ministère de la santé s’intéresser à la question. Plusieurs dynamiques politiques et sociales se croisent alors. Le débat sur la « malbouffe » s’impose dans l’espace médiatique à cette période, notamment après le démontage d’un restaurant d’une célèbre chaîne de fast-food à Millau en 1999.

Il s’insère dans une séquence plus large de préoccupations sur le lien entre santé et alimentation, amorcée dès le début de la décennie avec les épisodes liés au variant de la maladie de Creutzfeldt-Jakob, surnommé « maladie de la vache folle ».

Un plan national nutrition santé depuis 2001

Pour que les différentes dynamiques se combinent, il faudra néanmoins attendre l’apparition d’une « fenêtre d’opportunité politique » en 2000.

Le gouvernement cherche alors des thèmes à proposer à ses partenaires européens, en vue de sa présidence de l’Union européenne en 2001. Le ministère de la santé suggère celui de la nutrition santé, et en profite pour lancer un plan national, le Plan national nutrition santé (PNNS). Cette mise à l’agenda discrète, à la croisée de préoccupations nutritionnelles, sanitaires et politiques, constitue sans doute la première inscription de l’obésité comme problème de santé publique en France. La version actuelle du PNNS se décline en dix mesures phares présentées sur le site MangerBouger.

Avec notamment des recommandations en direction des professionnels et du grand public, le PNNS a pour objectif d’améliorer l’état de santé de la population en agissant sur la nutrition, qui est l’un de ses déterminants majeurs. Le plan vise à réduire la prévalence de l’obésité chez les adultes – le même objectif de réduction sera intégré à la loi 2004-806 du 9 août 2004 relative à la politique de santé publique, sans que des moyens supplémentaires soient adoptés.


À lire aussi : Lutte contre l’obésité : deux nouvelles mesures efficaces


Plan obésité, taxe soda et autres mesures

« Problème fluide » par excellence, l’obésité fera l’objet après 2001 de nouvelles inscriptions régulières à l’agenda, sans que cet intérêt entraîne de diminution de la prévalence. Elle fera de nouveau l’objet d’une attention politique et sociale à travers les débats parlementaires sur la loi de santé publique de 2004 et ceux entourant les messages sanitaires dans les publicités alimentaires en 2007.

D’autres mesures seront prises, parmi lesquelles :

Mais le poids des lobbies, et la complexité des actions à mener pour réduire la prévalence de l’obésité en font un problème insoluble – en tout cas sans changements sociaux structurels.

Alors, plus de vingt ans après le lancement du premier PNNS, le constat est sans appel : la prévalence de l’obésité continue de croître. Cet échec relatif s’explique par plusieurs facteurs structurels.

Une approche trop centrée sur la responsabilité individuelle

Tout d’abord, les politiques publiques françaises ont adopté une approche essentiellement comportementale, centrée sur la responsabilité individuelle : mieux manger, bouger davantage, équilibrer son alimentation.

Ce cadrage moral et sanitaire tend à négliger les déterminants sociaux de la santé, alors que les études montrent que l’obésité touche davantage les classes populaires, les femmes et les habitants de certaines régions. En ciblant les comportements sans agir sur les conditions de vie – précarité, urbanisme, accès à des aliments de qualité –, ces politiques ne font qu’effleurer les causes profondes du phénomène.

Ensuite, les politiques de lutte contre l’obésité se caractérisent par une forte dispersion institutionnelle (ministère de la santé, de l’éducation nationale, de la ville…). Les mesures se succèdent sans continuité, souvent diluées dans des programmes plus larges (nutrition, prévention, activité physique). L’obésité n’apparaît que comme un sous-thème, rarement comme une priorité politique autonome. Cette dilution empêche la mise en place d’une stratégie nationale cohérente et dotée de moyens pérennes.

Le poids de l’agro-industrie

Enfin, le poids des industries agroalimentaires constitue un frein structurel à l’effectivité des politiques nutritionnelles. Dotées de ressources économiques, juridiques et communicationnelles considérables, ces industries développent des stratégies d’influence visant à affaiblir, retarder ou contourner les mesures de santé publique adoptées par les pouvoirs publics.

L’un des exemples les plus emblématiques concerne les mobilisations contre le Nutri-Score, portées par des acteurs industriels (secteurs des huiles, des produits laitiers, des produits sucrés) et certains États membres de l’Union européenne, comme l’Italie, qui ont cherché à en contester la scientificité, à en limiter le caractère obligatoire ou à promouvoir des systèmes alternatifs moins contraignants auprès de la Commission européenne. Ces actions s’inscrivent dans une logique classique de lobbying réglementaire, visant à déplacer le débat du terrain de la santé publique vers celui de la liberté économique, du choix du consommateur ou de la protection des « traditions alimentaires ».


À lire aussi : Retour sur les principaux arguments des « anti-Nutri-Score »


Ces logiques se retrouvent également dans les tensions autour de la fiscalité nutritionnelle, en particulier la taxe sur les sodas ou sur la réticence à encadrer strictement la publicité alimentaire, notamment à destination des enfants et des adolescents. Dans ce contexte, les politiques publiques apparaissent souvent prises en étau entre injonctions à la prévention des maladies chroniques et pressions industrielles, ce qui limite la portée transformatrice des réformes engagées.

Ces impasses morales, institutionnelles et économiques contribuent à expliquer la difficulté persistante de la France à enrayer l’augmentation de l’obésité, malgré une mobilisation politique et médiatique récurrente.

Lutter aussi contre la grossophobie

Peut-être pourrions-nous également incriminer les préjugés et stéréotypes à l’égard des personnes grosses. Le relatif désengagement des politiques de santé et l’accent mis sur la responsabilité individuelle ne s’expliquent-ils pas, au moins en partie, par une vision stéréotypée de l’obésité, qui en fait avant tout une affaire de décisions personnelles ?

Dans la lutte contre la grossophobie, les pouvoirs publics demeurent en tous cas frileux, déléguant aux bonnes volontés associatives ou professionnelles la mise en place d’actions dont on peine à deviner les contours. À cet égard, l’absence du terme de « grossophobie » dans la dernière feuille de route obésité présentée par le gouvernement interroge fortement.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

10.02.2026 à 00:05

La fauconnerie comme outil de subversion des normes de genre au Moyen Âge

Rachel Delman, Heritage Partnerships Coordinator, University of Oxford

Au Moyen Âge, les faucons offraient aux femmes des moyens à la fois symboliques et concrets d’affirmer leur genre, leur pouvoir et leur statut dans un monde dominé par les hommes.
Texte intégral (2914 mots)
Agnes Hathaway (Jessie Buckley) et son faucon dans « Hamnet ». Focus Features

Dans deux films récents consacrés à la vie des femmes au Moyen Âge, on observe la présence de faucons, symboles de pouvoir et, au risque d’employer un anachronisme, d’émancipation avant l’heure.


Les faucons prennent leur envol au cinéma. Dans deux adaptations littéraires récentes — Hamnet et H is for Hawk —, ces oiseaux sont intimement liés à la vie et aux émotions de leurs héroïnes respectives : Agnes Shakespeare (née Hathaway) et Helen Macdonald.

La symbolique des rapaces est au cœur de ces deux nouveaux films : Hamnet, l’adaptation par Chloé Zhao du roman de Maggie O’Farrell paru en 2020, et H is for Hawk, tiré des mémoires de Macdonald publiés en 2014 et traduits en français par M pour Mabel. Dans ces films, les faucons deviennent des figures complexes et ambivalentes.

Si Hamnet se déroule à l’époque élisabéthaine, H is for Hawk prend place dans le monde contemporain. Mais une histoire encore plus ancienne retrace la relation entre femmes et oiseaux de proie. Mes recherches montrent qu’au Moyen Âge déjà, cette relation était multiforme. Bien plus qu’un accessoire de mode, les faucons offraient aux femmes un moyen d’affirmer leur genre, leur pouvoir et leur statut social dans un monde largement dominé par les hommes.

Un boîtier de miroir provenant de la collection de la British Library. The Trustees of the British Museum, CC BY-NC

Au Moyen Âge, le dressage des faucons — subtil jeu d’équilibre entre contrôle et liberté — était fréquemment associé à la cour amoureuse entre hommes et femmes.

La dimension romantique de la fauconnerie transparaît dans les œuvres d’art, les objets et la littérature de l’époque. Des scènes d’hommes et de femmes chassant ensemble à l’aide de faucons figurent parmi un large éventail d’artéfacts médiévaux : tapisseries ornant murs de châteaux, étuis décorés servant à protéger les miroirs à main…

La plus grande tapisserie des Devonshire Hunthing Tapestries — un ensemble de quatre tapisseries du XVe siècle — est entièrement consacrée à la fauconnerie. Des amoureux y sont représentés en train de se promener bras dessus bras dessous, pendant que leurs oiseaux chassent le gibier.

Deux étuis à miroir du XIVe siècle, conservés au British Museum et au Metropolitan Museum of Art, représentent des couples à cheval, tenant des faucons. Ces miroirs ont probablement été offerts comme gages d’amour. La littérature médiévale regorge elle aussi de références à des femmes accompagnées de faucons, voire représentées comme tels.

Mais la figure de la femme-faucon qu’il faudrait « dompter et contrôler » ne renvoie toutefois pas à une soumission féminine. Au contraire, la fauconnerie et sa symbolique permettaient aux femmes de l’élite médiévale d’exprimer leur autorité et leur autonomie.

Se définir à travers l’image

Lorsque les femmes de haut rang avaient la possibilité de se représenter à travers la culture visuelle, elles choisissaient souvent d’y inclure des oiseaux de proie. Cela était notamment visible sur les sceaux, cachets officiels souvent utilisés à l’époque médiévale pour authentifier les documents juridiques. Le sceau constituait la marque d’identification de la personne qui l’apposait, et renvoyait à son statut social et à son autorité. L’iconographie des sceaux et les matrices servant à les produire reflétaient la manière dont les femmes de haut rang voulaient être perçues par le monde.

Elizabeth de Rhuddlan, la plus jeune fille du roi Edouard Ier d’Angleterre et d’Eleonore de Castille, a choisi pour la matrice de son sceau personnel, un motif particulièrement répandu chez les femmes du XIIIe siècle : une femme debout, corps légèrement tourné vers un rapace docile posé sur sa main gauche.

Une autre matrice du même siècle montre Elizabeth, dame de Sevorc, à cheval, assise en amazone, tenant un faucon dans une main et la serre d’un aigle dans l’autre.

À travers ces sceaux, les femmes médiévales affirmaient leur maîtrise des rapaces, mais surtout, leur appartenance à un cercle féminin puissant.

Medieval image of a woman and a hawk
Une dame observe son faucon volant en direction d’un canard. Scène tirée du livre d’heures Taymouth Hours. British Library

Des archives montrent par ailleurs que reines et dames ont créé et administré des parcs et domaines de chasse. Elles pratiquaient la fauconnerie ensemble, dressaient les rapaces et les offraient même parfois en cadeau.

Certaines petites espèces, comme le faucon merlin, étaient jugées plus convenables pour les femmes. Dans le film H is for Hawk, Helen (Claire Fory) refuse de se contenter d’un faucon merlin, qu’elle rejette comme « oiseau de dame ». Effectivement, les femmes du Moyen Âge n’acceptaient pas toujours, loin de là, de se plier aux règles prescrites par les manuels de bonne conduite.

Margaret Beaufort, la grand-mère paternelle d’Henry VIII, possédait de nombreux rapaces : faucons merlins, lanerets… mais aussi de grandes espèces comme des autours et des faucons lanier.

Le parc à daims qu’elle fit aménager autour de son palais de Collyweston, dans le Northamptonshire, se prêtait parfaitement à la fauconnerie. Sa belle-fille, la reine Elizabeth de York, qui disposait de ses propres appartements au palais, chassait quant à elle avec des autours.

Dans certains cas, les femmes semblent même avoir été reconnues comme de véritables expertes dans le domaine de la fauconnerie. Les Heures Taymouth, un livre d’heures enluminé du XIVe siècle, probablement destiné à une femme d’origine royale, montre des femmes coiffées de parures, chassant le colvert à l’aide de grands rapaces. Leur posture affirme leur autorité, leur savoir-faire et leur contrôle sur les oiseaux.

Au siècle suivant, Dame Juliana de Berners, prieure du monastère de Sopwell, est considérée comme l’autrice — en partie — du Boke of St Albans, un ouvrage traitant de la chasse et de la fauconnerie.

Dessin médiéval représentant une dame observant son faucon abattre un canard
Une dame observant son faucon abattre un canard dans le manuscrit de Yates Thompson. British Library

Des recherches menées par English Heritage ont par ailleurs révélé que certaines femmes pouvaient gagner leur vie grâce à leur expertise en matière de dressage de faucons. Au milieu du XIIIe siècle, une femme nommée Ymayna était la gardienne des faucons et des chiens du comte de Richmond. En échange de ses services, elle et sa famille obtinrent le droit d’exploiter des terres voisines.

Si Ymayna constitue une figure exceptionnelle dans un milieu largement masculin, son parcours laisse penser que d’autres femmes ont exercé des fonctions similaires, bien que leurs noms soient absents de tout document historique.

Certaines pourraient figurer parmi les propriétaires de couteaux dont les manches sont conservés dans des musées européens. L’un des plus remarquables, sur lequel est sculptée une femme noble serrant contre son cœur un petit rapace, date du XIVe siècle et est exposé à l’Ashmolean Museum d’Oxford.

Les textes littéraires révèlent que la fauconnerie favorisait la socialisation et la solidarité entre femmes. Dans le poème Sir Orfeo, écrit en moyen anglais, Orfeo aperçoit un groupe de soixante femmes à cheval, chacune tenant un faucon.

Illustration médiévale représentant une dame chassant le lièvre à l’aide d’un faucon
Une dame chasse à l’aide d’un faucon, image issue du Yates Thompson manuscript. British Library

Dans Hamnet, Agnes explique à son mari William Shakespeare que son gant de fauconnerie lui a été offert par sa mère. Les femmes du Moyen Âge et du début de l’époque moderne s’offraient des cadeaux entre elles, y compris des gants. Mes recherches suggèrent toutefois que les oiseaux de proie étaient plus fréquemment offerts comme cadeaux entre femmes et hommes.

Margaret Beaufort donnait et recevait des rapaces de la part de parents et de proches masculins, parmi lesquels son jeune petit-fils, le futur Henri VIII. Les rapaces étaient considérés comme étant des cadeaux convenables lors d’occasions et évènements marquants. En 1525, Margaret Pole, comtesse de Salisbury, offrit par exemple trois faucons à son neveu Henry Courtenay pour célébrer son accession au titre de marquis d’Exeter.

Le fait que des femmes puissantes propriétaires de terres aient pris part aux échanges rituels de rapaces avec des hommes montre que la fauconnerie ne relevait pas uniquement d’une expression féminine du pouvoir. En possédant des domaines de chasse et en donnant ou recevant des oiseaux de proie, elles s’inscrivaient dans un univers traditionnellement masculin : celui de la chasse et de la générosité seigneuriale.

The Conversation

Rachel Delman a reçu des financements du Arts and Humanities Research Council (2013-2016) et du Leverhulme Trust (2019-2022).

PDF

10.02.2026 à 00:02

Épées, enfants et mémoire : ce que révèle un cimetière médiéval du Kent

Duncan Sayer, Professor in Archaeology, University of Lancashire

Enterrées avec les morts, parfois même avec des enfants, les armes du VIᵉ siècle apparaissent comme des objets chargés de sens, mêlant chagrin, identité familiale et projection vers l’avenir.
Texte intégral (1893 mots)

Loin d’être de simples symboles guerriers, les épées, lances et boucliers mis au jour témoignent d’une société où les armes exprimaient autant la perte et le deuil que la force et le statut.


Lors d’une récente fouille archéologique à laquelle j’ai pris part, quatre épées anglo-saxonnes anciennes ont été mises au jour. Chacune éclaire la manière dont les armes étaient perçues à l’époque. Plus surprenant encore, un enfant a été retrouvé enterré avec une lance et un bouclier. Faut-il y voir la trace d’un combattant trop jeune pour l’être ? Ou ces objets revêtaient-ils une portée symbolique dépassant largement le seul cadre de la guerre ?

Les armes sont porteuses de valeurs. Les chevaliers Jedi de la franchise Star Wars incarneraient-ils la même noblesse s’ils maniaient des couteaux plutôt que des sabres laser ? Aujourd’hui, les armées modernes font la guerre à distance, à coups de missiles et de drones, ou s’appuient sur des dispositifs mécaniques mêlant armes à feu et blindage. Pourtant, dans de nombreux pays, l’épée demeure un attribut cérémoniel des officiers – au point que la porter de travers peut encore suffire à démasquer un imposteur.

La fouille, que j’ai menée avec l’archéologue Andrew Richardson, portait sur un cimetière du haut Moyen Âge, et les épées ont été découvertes dans des sépultures. Notre équipe, composée de chercheurs de l’Université du Lancashire et d’Isle Heritage, a fouillé au total une quarantaine de tombes. Cette découverte est visible dans l’émission de BBC2 Digging for Britain.

L’une des épées mises au jour se distingue par un pommeau en argent décoré (la partie arrière de la poignée) et par un anneau fixé à la poignée. Il s’agit d’un objet du VIe siècle prestigieux et d’une grande beauté, conservé dans un fourreau doublé de fourrure de castor. L’autre épée présente une petite garde en argent et une large embouchure de fourreau dorée et côtelée – deux éléments de styles artistiques différents, issus de périodes distinctes, réunis sur une même arme.

Ce mélange se retrouve également dans le trésor de Staffordshire, découvert en 2009, qui comprenait 78 pommeaux et 100 collerettes de poignée, datés sur une large période allant du Ve au VIIe siècle de notre ère. Au Moyen Âge, les épées – ou certaines de leurs parties – étaient conservées, transmises et entretenues par leurs propriétaires. Les armes anciennes étaient souvent plus estimées que les neuves.

Le poème en vieil-anglais Beowulf, probablement composé entre le VIIIe et le début du XIe siècle, offre un vocabulaire particulièrement riche pour parler des épées : il y est question de l’« épée ancienne » (ealdsweord), de l’« épée d’autrefois » (gomelswyrd), ou encore d’objets transmis en héritage (yrfelafe). Le texte évoque aussi des « armes durcies par les blessures » (waepen wundum heard), façonnées autant par l’usage que par le temps.

Deux énigmes consacrées à l’épée figurent également dans le Livre d’Exeter, un vaste recueil de poésie mis par écrit au Xe siècle, mais qui renvoie sans doute à des représentations plus anciennes. Dans l’énigme 80, l’arme se définit elle-même comme « a warrior’s shoulder-companion », « la compagne d’épaule du guerrier ». Une formule qui fait écho de manière frappante à nos découvertes du VIe siècle : dans chaque sépulture, la poignée de l’épée était placée contre l’épaule, tandis que le bras du défunt semblait enlacer l’arme.

Un geste comparable a déjà été observé dans des sépultures de Dover Buckland, également dans le Kent. Deux autres cas ont été recensés à Blacknall Field, dans le Wiltshire, et un à West Garth Gardens, dans le Suffolk. Notons qu’il est rare de voir quatre individus enterrés de cette manière au sein d’un même cimetière – d’autant plus qu’ils ont été découverts à très faible distance les uns des autres.

La zone du cimetière que nous avons fouillée comprend plusieurs tombes avec armes, disposées autour d’une sépulture profonde entourée d’un fossé circulaire. Un petit tertre de terre devait à l’origine recouvrir cette tombe, la rendant visible et la distinguant clairement dans le paysage funéraire.

La sépulture la plus ancienne – celle qui a servi de repère pour l’implantation des autres tombes avec armes – contenait un homme dépourvu de tout objet métallique ou armement. Les tombes armées sont surtout attestées dans les générations qui entourent le milieu du VIe siècle : il est donc probable que cet individu ait été enterré avant que ne s’impose l’usage de déposer des armes avec les morts. Peut-être parce que, durant la période troublée de la fin du Ve siècle et des toutes premières années du VIe, les armes étaient jugées trop précieuses pour être soustraites à la défense des vivants.

La découverte d’une tombe d’enfant âgé de 10 à 12 ans, accompagné d’une lance et d’un bouclier, vient renforcer cette interprétation. La courbure de sa colonne vertébrale rend peu probable qu’il ait pu manier ces armes de manière fonctionnelle.

Une seconde sépulture, celle d’un enfant encore plus jeune, contenait une large boucle de ceinture en argent. L’objet était manifestement trop grand pour un garçon de deux à trois ans. Ce type de dépôt est habituellement associé à des hommes adultes : les grandes boucles de ceinture constituaient un symbole de fonction dans les contextes de la fin de l’Antiquité romaine et du haut Moyen Âge, comme en témoignent, par exemple, les spectaculaires exemplaires en or de Sutton Hoo.

La découverte d’une tombe d’enfant âgé de 10 à 12 ans, comprenant une lance et un bouclier, vient compléter ce tableau. La courbure de sa colonne vertébrale rendait peu probable un usage aisé de ces armes.

Une deuxième tombe, celle d’un enfant encore plus jeune, a livré une large boucle de ceinture en argent. L’objet, de toute évidence, était bien trop grand pour un garçon âgé de deux à trois ans. De tels dépôts funéraires sont habituellement réservés à des hommes adultes : dans l’Antiquité tardive et le haut Moyen Âge, les grandes boucles de ceinture faisaient office de marqueurs de rang ou de fonction, comme l’illustrent les spectaculaires exemplaires en or découverts à Sutton Hoo.

Alors pourquoi ces objets ont-ils été déposés dans les tombes ? De récents résultats d’analyses ADN soulignent l’importance de la filiation masculine, en particulier celle transmise par le chromosome Y. À West Heslerton, dans l’est du Yorkshire, des analyses génétiques montrent l’existence de liens biologiques entre des hommes enterrés à proximité les uns des autres. Beaucoup d’entre eux étaient accompagnés d’armes, dont l’un inhumé avec une épée et deux lances. Plusieurs autres sépultures masculines ont été disposées autour de cet ancêtre fortement armé.

Nous n’affirmons pas pour autant que les armes anciennes étaient uniquement cérémonielles. Les entailles visibles sur les boucliers et l’usure des lames témoignent d’un usage réel, lié à l’entraînement comme au combat. Les blessures et les morts précoces observées sur les squelettes attestent de l’usage bien réel des armes dans la société du haut Moyen Âge. De son côté, la poésie anglaise ancienne parle autant de deuil que d’héroïsme.

Comme le montre Beowulf, le sentiment de perte était étroitement lié à la mise en scène des morts masculins et de leurs armes, mais aussi aux inquiétudes face à l’avenir :

The Geat people built a pyre for Beowulf, Beowulf’s funeral

(Le peuple des Goths érigea un bûcher pour Beowulf, pour les funérailles de Beowulf)

stacked and decked it until it stood four-square,

(l’empilant et l’ornant jusqu’à ce qu’il se dresse, solide et parfaitement carré,)

hung with helmets, heavy war-shields

(garni de casques, de lourds boucliers de guerre)

and shining armour, just as he had ordered.

(et d’armures étincelantes, comme il l’avait ordonné.)

Then his warriors laid him in the middle of it,

(Puis ses guerriers le déposèrent en son centre,)

mourning a lord far-famed and beloved.

(pleurant un seigneur illustre et aimé.)

Les armes déposées dans nos tombes relevaient autant de l’expression de la perte et du deuil que d’une affirmation matérielle de la force, de la masculinité et de la lignée masculine. Même des guerriers aguerris, endurcis par les combats et par l’âge, pleuraient leurs morts et les enterraient avec des armes – des épées notamment – porteuses d’histoires.

La lance, le bouclier et les boucles de ceinture découverts dans de petites tombes parlaient des hommes que ces enfants auraient pu devenir.

The Conversation

Duncan Sayer tient à remercier le Dr Andrew Richardson, codirecteur du projet de fouilles de l’est du Kent.

PDF

09.02.2026 à 23:08

En Mésopotamie, le rôle très important des personnes trans

Chaya Kasif, PhD Candidate; Assyriologist, Macquarie University

Dans l’Antiquité, vivre en dehors de la binarité de genre pouvait en Mésopotamie ouvrir les portes du pouvoir : Ištar accordait aux « assinnu » des pouvoirs divins ; les « ša rēši » gouvernaient aux côtés du roi.
Texte intégral (2998 mots)
Ce bas-relief du VIIIᵉ siècle avant notre ère présente, à côté du roi d’Assyrie Sargon II, un « ša rēši » imberbe. Un des témoignages du rôle majeur joué par les hauts courtisans royaux durant l’Antiquité. Daderot/Wikimedia Commons/Oriental Institute Museum, University of Chicago. OIM A7366

Loin d’être marginalisées, certaines personnes de genre atypique jouaient un rôle central dans le culte, la politique et l’armée en Mésopotamie, montrant une forme ancienne de reconnaissance sociale.


Aujourd’hui, les personnes trans font face à une politisation de leur vie et à la diabolisation par des politiciens, certains médias et une partie de la société. Mais dans quelques-unes des premières civilisations de l’histoire, ces personnes étaient reconnues et comprises de manière totalement différente.

Dès 4 500 ans avant notre ère, en Mésopotamie dans le Proche-Orient ancien par exemple, des rôles sociaux importants, avec des titres professionnels majeurs, étaient dévolus aux personnes de genre atypique. Notamment les serviteurs cultuels de la grande divinité Ištar, appelés assinnu, et les hauts courtisans royaux appelés ša rēši. Des preuves antiques montrent que ces personnes occupaient des positions de pouvoir en raison de leur ambiguïté de genre, et non malgré elle.

La Mésopotamie

La Mésopotamie est une région qui correspond aujourd’hui principalement à l’Irak et à des régions de la Syrie, de la Turquie et de l’Iran. Faisant partie du Croissant fertile, le mot « Mésopotamie » vient du grec et signifie littéralement « terre entre deux fleuves », l’Euphrate et le Tigre.

Pendant des milliers d’années, plusieurs grands groupes culturels y ont vécu. Parmi eux, les Sumériens, puis plus tard les groupes sémitiques appelés Akkadiens, Assyriens et Babyloniens.

Les Sumériens ont inventé l’écriture en traçant des coins sur des tablettes d’argile. L’écriture, appelée cunéiforme, a été créée pour transcrire la langue sumérienne, mais les civilisations suivantes l’ont utilisée pour écrire leurs propres dialectes de l’akkadien, la plus ancienne langue sémitique.

Qui étaient les assinnu ?

Les assinnu étaient les serviteurs religieux de la grande déesse mésopotamienne de l’amour et de la guerre, Ištar.

Reine des cieux, Ištar a précédé Aphrodite et Vénus.

Cette tablette en argile néo-assyrienne (VIIᵉ siècle avant notre ère) contient 48 lignes en cunéiforme ; la ligne 31 contient un présage concernant les assinnu. British Museum/Numéro d’inventaire 1197477001, CC BY-NC-SA

Connue des Sumériens sous le nom d’Inanna, cette déesse guerrière détenait le pouvoir politique ultime et conférait leur légitimité aux rois. Elle veillait également sur l’amour, la sexualité et la fertilité. Dans le mythe de son voyage aux Enfers, sa mort entraîne la fin de toute reproduction sur Terre. Pour les Mésopotamiens, Ištar était l’une des plus grandes divinités du panthéon. L’entretien de son culte officiel garantissait la survie de l’humanité.

Ses serviteurs, les assinnu, avaient la responsabilité de la satisfaire et de s’occuper d’elle par le biais de rituels religieux et de l’entretien de son temple. Le titre même d’assinnu est un mot akkadien lié à des termes signifiant « féminin », « homme-femme » ainsi que « héros » et « prêtresse ».

Le vase de Warka (3500–2900 avant notre ère) représente une procession pour Inanna, qui se tient à l’entrée de son temple. Osama Shukir Muhammed Amin/Musée national d’Irak, Bagdad. IM19606/Wikimedia, CC BY-SA

Leur fluidité de genre leur venait directement d’Ištar. Dans un hymne sumérien, la déesse est décrite comme ayant le pouvoir de :

transformer un homme en femme et une femme en homme,
changer l’un en l’autre,
habiller les femmes avec des vêtements d’hommes,
habiller les hommes avec des vêtements de femmes,
mettre des fuseaux dans les mains des hommes,
et donner des armes aux femmes.

Les assinnu ont d’abord été considérés par une partie des historiens comme un type de travailleur·se religieux·se sexuel·le. Une conception qui repose sur des hypothèses anciennes concernant les groupes transgenres et qui n’est pas fortement étayé par les preuves.

Le titre est aussi souvent traduit par « eunuque », bien qu’il n’existe aucune preuve claire qu’il se soit agi d’hommes castrés. Si le titre est principalement masculin, il existe des preuves d’assinnu féminines. En réalité, divers textes montrent une résistance à la binarité de genre.

Leur importance religieuse leur attribuait des pouvoirs magiques et de guérison. Une incantation dit :

Que ton assinnu se tienne à mes côtés et retire ma maladie. Qu’il fasse sortir par la fenêtre la maladie qui m’a saisi.

Un présage néo-assyrien indique également que des relations sexuelles avec un assinnu pouvaient procurer des avantages personnels :

Si un homme s’approche d’un « assinnu » pour avoir des relations sexuelles, les interdits à son égard seront assouplis.

En tant que dévots d’Ištar, ils exerçaient également une forte influence politique. Un almanach néo-babylonien indique :

le [roi] doit toucher la tête d’un « assinnu », il vaincra son ennemi
et son pays obéira à ses ordres.

Ayant vu leur genre transformé par Ištar elle-même, les assinnu pouvaient marcher entre le divin et le mortel tout en veillant au bien-être des dieux et de l’humanité.

Qui étaient les « ša rēši » ?

Généralement décrits comme des eunuques, les ša rēši étaient des serviteurs du roi. Les « eunuques » de cour ont été recensés dans de nombreuses cultures au fil de l’histoire. Cependant, le terme n’existait pas en Mésopotamie, et les ša rēši avaient leur propre titre distinct.

Le terme akkadien ša rēši signifie littéralement « un de la tête » et désigne les courtisans les plus proches du roi. Leurs fonctions au palais étaient variées, et ils pouvaient occuper plusieurs postes de haut rang simultanément.

Cette scène de chasse au lion royal de Ninive (dans l’Irak actuel) montre des courtisans imberbes dans un char royal. British Museum/Numéro d’inventaire 431054001, CC BY-NC-SA

Les preuves de leur ambiguïté de genre sont à la fois textuelles et visuelles. Plusieurs textes les décrivent comme infertiles, comme une incantation qui dit :

Comme un « ša rēši » qui n’engendre pas, que ton sperme se dessèche !

Les ša rēši sont toujours représentés imberbes, en contraste avec un autre type de courtisan appelé ša ziqnī (« celui qui a une barbe »), qui avait des descendants. Dans les cultures mésopotamiennes, la barbe symbolisait la virilité ; un homme imberbe allait donc directement à l’encontre de la norme. Pourtant, des bas-reliefs montrent que les ša rēši portaient les mêmes vêtements que les autres hommes royaux, leur permettant ainsi d’afficher leur autorité aux côtés des autres élites masculines.

Une stèle d’un ša rēši nommé Bēl Harran bēlī ușur, provenant de Tell Abta, à l’ouest de Mossoul, en Irak. Osama Shukir Muhammed Amin/Wikimedia/Musée de l’Ancien Orient, CC BY-SA

L’une de leurs fonctions principales était de superviser les quartiers des femmes dans le palais – un lieu à accès très restreint – où le seul homme autorisé à entrer était le roi lui-même.

Étant si étroitement liés au roi, ils pouvaient non seulement occuper des fonctions martiales comme gardes et conducteurs de char, mais aussi commander leurs propres armées. Après leurs victoires, les ša rēši se voyaient attribuer des biens et la gouvernance de territoires nouvellement conquis, comme en témoigne l’inscription royale en pierre que l’un d’eux s’est fait ériger.

Grâce à leur fluidité de genre, les ša rēši pouvaient transcender non seulement les limites de l’espace genré, mais aussi celles séparant le souverain de ses sujets.

La fluidité de genre comme outil de pouvoir

Alors que les premiers historiens considéraient ces figures comme des « eunuques » ou des « travailleur·ses religieux·ses sexuel·les », les preuves montrent que c’est parce qu’ils vivaient en dehors de la binarité de genre que ces groupes pouvaient occuper des rôles puissants dans la société mésopotamienne.

Reconnaître aujourd’hui l’importance des personnes trans et de genre divers dans nos communautés, est, en quelque sorte, une continuité du respect accordé à ces figures anciennes.

The Conversation

Chaya Kasif ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.02.2026 à 23:08

René Cassin, un héritage moral très actuel

Julien Broch, Maître de Conférences HDR en Histoire du droit et des institutions, Aix-Marseille Université (AMU)

La vie de René Cassin, l’un des principaux auteurs de la Déclaration universelle des droits de l’homme, constitue aujourd’hui encore, cinquante ans après sa mort, un repère pour les générations actuelles.
Texte intégral (2266 mots)
La vie et l’œuvre de René Cassin se confondent en un engagement constant pour les droits humains.

Le juriste et diplomate René Cassin, dont on s’apprête à commémorer le cinquantième anniversaire de la disparition, a consacré sa vie à la défense de la dignité humaine et de la paix, alliant idéalisme et réalisme. Résistant et proche de de Gaulle, il a joué un rôle clé au sein de la France libre puis contribué à la création de l’ONU et à l’élaboration de la Déclaration universelle des droits de l’homme en 1948, ce qui lui vaudra le prix Nobel de la paix, vingt ans plus tard. Sa pensée et son action restent aujourd’hui une source d’inspiration pour relever les défis internationaux et renforcer la solidarité entre les peuples.


Le 20 février prochain, cela fera tout juste cinquante ans que disparaissait le juriste internationaliste René Cassin (1887-1976), prix Nobel de la paix 1968.

Alors que nous sommes confrontés à un monde devenu sans boussole autre que la force pour ce qui est de la conduite des relations internationales, il est rafraîchissant de revenir à la pensée et à l’action de cet universitaire passé par les universités d’Aix-Marseille, Lille et Paris, que François Mitterrand présenta comme un « professeur d’espoir » lors de son entrée au Panthéon le 5 octobre 1987.

Espoir, parce que, résilient, il a fait preuve d’optimisme de la volonté lors du déchaînement de l’hitlérisme. Ce grand blessé de la Première Guerre mondiale, qui a dû porter toute sa vie une ceinture abdominale, a cherché à se rendre utile en se faisant l’avocat à la fois idéaliste et réaliste de la dignité humaine et de la paix.

L’œuvre de celui qui a dirigé plusieurs des éminentes juridictions françaises et internationales (Conseil d’État, Conseil constitutionnel, Cour européenne des droits de l’homme…) rappelle assez qu’il est illusoire de croire en la force du droit. Elle n’est qu’une incantation. Le droit n’est fort que lorsqu’il est juste et qu’il se trouve des bonnes volontés pour le défendre.

La paix, grande affaire de tous

Que dit Cassin à nous autres du XXIe siècle ?

D’abord que quand la valeur « paix » cesse d’être la grammaire du monde, il est crucial de la rendre désirable aux peuples. C’est la raison pour laquelle, à la tête de mouvements d’anciens combattants, il s’est attaqué, d’abord officieusement, puis à partir de 1924 officiellement en tant que membre de la délégation française aux assemblées de la Société des Nations, à la « dernière tranchée », celle des droits sociaux, au sein du Bureau international du travail.

Son idée ? Mettre autour de la table les vétérans des ex-pays belligérants pour les faire travailler sur des problèmes concrets, tels que les emplois réservés pour les estropiés, l’accès aux prothèses et aux soins médicaux, la prise en charge des pupilles de la Nation, etc. C’est dire assez qu’il appartient présentement à la société civile de jeter les ponts au-dessus des océans et des autres frontières pour, en dépit du mauvais vouloir de certains grands de ce monde et de leurs idéologues, sauver ce qui peut l’être et bâtir de nouvelles coopérations.

Ensuite, face aux nouveaux « États-Léviathan », qui sont des concentrations de puissance n’ayant d’autre morale que la leur, et qui s’assoient sur le droit international dès lors qu’il s’agit de déchaîner leur force pour acquérir des ressources et des territoires, ou lorsqu’il leur plaît d’imposer sur un mode agressif leur politique commerciale aux pays tiers, il ne faut jamais renoncer à donner de la voix et à agir. Immédiatement après ce grand renoncement qu’ont été les accords de Munich, signés le 29 septembre 1938, Cassin, tout en reprenant son bâton de pèlerin du multilatéralisme et du droit international, en a appelé à la signature de partenariats stratégiques – y compris avec l’URSS – pour tenir en respect le Reich hitlérien. Et d’écrire, vu la tiédeur de certains partenaires de Paris :

« Le sort de la sécurité française est, en premier lieu, dans les mains des Français eux-mêmes. »

Une affirmation qui fait sens au moment où il est question du rétablissement partiel d’une forme de service militaire dans notre pays.

René Cassin interviewé après l’attribution du prix Nobel en 1968, Archive INA.

Qui plus est, l’expérience de la Société des Nations créée par le traité de Versailles en 1919 et des accords de Locarno, ratifiés le 1er décembre 1925, visant à assurer la sécurité collective en Europe, révèle à Cassin que les organismes et mécanismes internationaux, si audacieux soient-ils, restent lettre morte tant qu’ils n’obtiennent pas l’assentiment des opinions publiques nationales.

Face à des dirigeants ayant perdu le sens de la mesure, les peuples, prenant conscience du développement de la solidarité internationale dans les faits – parfois sous les radars de la politique et du droit –, doivent se prendre en main, mais aussi se tendre la main les uns aux autres. Il faut éduquer justement les peuples à la paix et aux droits de l’homme, leur inculquer ce qu’est la dignité humaine, et que les droits et libertés bénéficient à tous sans exception, donner à chacun le sens de ses responsabilités en tant que citoyen et en tant qu’homme ou femme. On comprend dès lors que René Cassin contribuera activement à la mise en place de l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco), institution onusienne spécialisée créée le 16 novembre 1945. Ce travail pédagogique est plus que jamais utile aujourd’hui. Il est de la responsabilité de tous, médias compris.

Les deux pôles du monde nouveau : la démocratie et les droits de l’homme

Par ailleurs, René Cassin, enfant des « trois frontières » (Pyrénées, Alpes, Rhin), n’a jamais opposé le patriotisme, qu’il avait chevillé au corps, à l’internationalisme (l’« esprit de Genève »).

La mondialisation des échanges commerciaux et des communications lui a fait augurer que dans le futur ce phénomène déboucherait sur une société mondiale fortement intégrée, dotée d’instances de gouvernement et d’une police commune chargées de punir les gouvernements agresseurs. Il a défendu de toutes ses forces la Société des Nations, ainsi que les traités internationaux sur le recours à l’arbitrage et la mise de la guerre hors-la-loi, en dépit de leurs imperfections. La communauté universelle aurait, selon l’universitaire juriste, un droit de regard sur l’application des droits de l’homme en tous points du globe. Mais il ne doutait pas que c’est au premier chef à chaque État qu’il appartient de garantir l’effectivité des droits fondamentaux. Il n’opposait pas, comme on a tendance parfois à le faire, l’État de droit aux droits du peuple, car il considérait que le premier est au service de la sécurité et du bien-être de tous.

Enfin, premier civil ayant rejoint de Gaulle à Londres en 1940, il a été le juriste du général, travaillant avec les armes du droit, la plume et le micro de Radio Londres à ce que la France libre soit reconnue par les Alliés. Le risque était que, compromis du fait du collaborationnisme, le régime de Vichy soit discrédité au point de signer l’effacement de la France et de ses intérêts de la scène internationale. Il s’agissait donc de garantir la restitution intégrale de son indépendance dans l’avenir.

Les accords Churchill-de Gaulle du 7 août 1940, négociés par Cassin, ont fait de la France libre la seule organisation qualifiée pour représenter la France restée au combat. Restait à convaincre les autres interlocuteurs internationaux, et notamment le président américain F. D. Roosevelt. Le professeur s’est employé pour cela à délégitimer le pouvoir maréchaliste au motif que celui-ci s’était asservi aux nazis et avait trahi les valeurs (la liberté, l’égalité, la fraternité, la justice, la démocratie et la République) et la mission historique (protéger les peuples opprimés) de la France.

Le Comité national français, à Londres, observant une minute de silence en l’honneur des otages exécutés à Nantes et à Bordeaux. De gauche à droite : André Diethelm, Émile Muselier, Charles de Gaulle, René Cassin, René Pleven et Philippe Auboyneau. Wikimedia

L’embryon de gouvernement qui a trouvé refuge à Londres, à Brazzaville, puis à Alger a fonctionné dans le respect de ces principes éminents, d’où, par exemple, l’Ordonnance du 9 août 1944, portant rétablissement de la légalité républicaine, dont Cassin a été l’un des principaux artisans.

Chargé du portefeuille de la justice et de l’éducation au sein du cabinet gaulliste durant la guerre, il a convié des savants à réfléchir sur la régénération morale du monde une fois que celui-ci aura été libéré, et notamment sur les droits de l’homme, érigés en but de guerre par les Alliés dans la Déclaration des Nations unies du 1ᵉʳ janvier 1942.

La victoire sur les puissances de l’Axe obtenue, ce sera justement le rôle de l’Organisation des Nations unies d’articuler la paix avec les droits de l’homme ainsi que les progrès politiques et sociaux, toutes choses qui n’ont rien d’un luxe ou d’un élément accessoire. Aux côtés d’Eleanor Roosevelt et d’autres, René Cassin a pris une part très active à l’élaboration de la Déclaration universelle des droits de l’homme, adoptée solennellement à Paris, au Palais de Chaillot, le 10 décembre 1948.

Est ainsi vérifiée la locution qui dit qu’un travail acharné vient à bout de tout. C’est sans doute encore vrai aujourd’hui, quoique les informations qui nous parviennent quotidiennement soient décourageantes. Rendons alors grâce à René Cassin de nous inspirer par toute une vie consacrée aux valeurs de dignité et de solidarité humaines.

The Conversation

Julien Broch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.02.2026 à 23:07

Au Moyen Âge, les femmes prenaient (aussi) la plume

Justine Audebrand, Chercheuse associée au Laboratoire de médiévistique occidentale de Paris (UMR 8589), post-doctorante à l'Institut Historique Allemand, Université Paris 1 Panthéon-Sorbonne

Au Moyen Âge, seule une petite élite maîtrise l’écriture. Mais dans cette élite, il y a des femmes. Retour sur cette réalité méconnue.
Texte intégral (2056 mots)
Miniature extraite de _la Cité des dames_ (1405), de Christine de Pizan (1364-v. 1430). Wikimedia Commons

Au Moyen Âge, l’alphabétisation se décline en une palette de situations : savoir lire ne signifie pas qu’on est capable de composer un texte. Seule une petite élite maîtrise l’écriture. Mais dans cette élite, il y a des femmes. Qui étaient-elles ? Et dans quels types d’écrits se sont-elles illustrées ?


Le Moyen Âge apparaît souvent comme une période sombre pour les femmes : cloîtrées dans d’obscurs monastères ou soumises à leur mari, elles auraient été tenues écartées du pouvoir et de toute forme de culture écrite.

Ce cliché, comme beaucoup d’autres, sur les prétendus temps obscurs, apparaît à la Renaissance et se développe dans l’esprit des Lumières. Or, durant les six siècles qui suivent la fin de l’Empire romain, la condition féminine est très éloignée de cet imaginaire collectif. Dans les sphères du pouvoir ou du savoir, certaines femmes tiennent alors une place éminente, qui n’est pas tout à fait la même que ce que l’on verra entre les XIIᵉ et XVᵉ siècles.

Le Moyen Âge est une longue période et de nombreuses reconfigurations politiques, économiques ou religieuses changent et affectent la condition des femmes : celles de la fin de la période sont plus connues car nous possédons davantage de sources, mais celles du début ont parfois accès à des ressources économiques ou culturelles inattendues.

Les femmes ont aussi pris part à la culture de leur temps, c’est que montrent les recherches mises en avant dans la Vie des femmes au Moyen Âge. Une autre histoire VIᵉ-XIᵉ siècle (Perrin, 2026). À une époque où l’alphabétisation était faible, c’est parfois par les femmes que se transmettait la maîtrise de la lecture et de l’écriture.

Apprendre à écrire

Pour écrire, il faut bien sûr avoir appris le geste technique qui consiste à tracer des lettres sur du parchemin. Aujourd’hui, lecture et écriture s’apprennent ensemble mais, au Moyen Âge, beaucoup de personnes savent lire sans pour autant être capables d’écrire, si ce n’est leur nom.

L’alphabétisation médiévale se pense d’ailleurs comme un spectre : il y a un monde de pratiques entre savoir lire et être capable de composer un texte complexe en latin. De ce fait, la maîtrise complète de l’écriture est réservée à une petite élite, laïque ou ecclésiastique, et de plus en plus à des professionnels de l’écrit comme les notaires qui gagnent en importance à partir du XIIᵉ siècle. Par ailleurs, les laïcs les plus susceptibles d’avoir appris à lire et à écrire disposent aussi de secrétaires : au début du Moyen Âge par exemple, les aristocrates n’écrivent pas eux-mêmes leurs lettres mais les dictent à des secrétaires, voire ne leur donnent que quelques indications.

Les femmes ne sont pas exclues de ces logiques, bien au contraire. Dans l’aristocratie laïque de la première moitié du Moyen Âge, il n’est pas rare qu’elles reçoivent une éducation poussée.

La raison en est simple : elles sont bien souvent elles-mêmes en charge de l’éducation de leurs enfants. La reine Mathilde, épouse du roi de Germanie Henri Ier (919-936), sait par exemple lire et écrire, ce qui n’est pas le cas de son royal époux et, dans la famille ottonienne (du nom de leur fils, le roi puis empereur Otton Ier), ce sont souvent les femmes qui sont les plus lettrées.

Copistes et autrices

Ce n’est pourtant pas chez les laïcs mais au sein des monastères féminins que l’on trouve le plus de femmes qui savent écrire. L’acte le plus courant est la copie de manuscrits : avant l’invention de l’imprimerie, c’est cet inlassable travail qui permet la diffusion des œuvres.

On estime qu’environ 1 % des manuscrits médiévaux ont été copiés par des femmes. Cela peut paraître infime, mais il faut avoir en tête que l’immense majorité des manuscrits ne sont pas signés par leurs copistes et qu’on ne peut donc en réalité que rarement connaître le genre du ou de la copiste. Le travail des moniales est en tout cas loin d’être déconsidéré : à la fin du VIIIᵉ siècle, les nonnes de Chelles sont les principales pourvoyeuses en copies d’Augustin d’Hippone, un des pères de l’Église les plus lus au Moyen Âge. Elles reçoivent notamment des commandes des évêques de Cologne et de Wurtzbourg.

Il est donc logique que ce soit aussi dans les monastères que l’on trouve le plus d’autrices, c’est-à-dire de femmes qui ne se contentent pas de copier des œuvres et en composent de nouvelles. Aucun genre littéraire ne leur est interdit : elles écrivent de l’hagiographie – la vie de saints, hommes et femmes –, des textes annalistiques, des traités, de la poésie et même du théâtre.

La dramaturge et poétesse Hrotsvita, qui vit au monastère de Gandersheim (en Saxe) autour de 960, est ainsi considérée comme la « première poétesse allemande » même si elle écrit, comme la plupart de ses contemporains, en latin.

Une écriture « féminine » ?

Hroswida
Hrotsvita (Xᵉ siècle) Wikimédia

Ces textes de femmes ont été étudiés de diverses manières par les historiens, d’abord avec un brin de suspicion : quand les œuvres de Hrotsvita ont été redécouvertes au XIXᵉ siècle, d’éminents savants ont douté de leur attribution et ont cherché, en vain, à affirmer que la moniale n’avait jamais existé, ou jamais écrit…

Et ce n’est que dans les années 1980 que les spécialistes du Moyen Âge ont véritablement commencé à s’intéresser aux écrits des femmes médiévales d’avant Christine de Pizan. Ces travaux sont marqués par l’idée que l’écriture des hommes serait différente de celle des femmes. Il ne s’agit pas de l’écriture manuscrite, paléographique, puisque la différenciation genrée n’apparaît qu’au XVIIIᵉ siècle, mais du style.

Les femmes, même au Moyen Âge, parleraient plus facilement de leurs émotions et de leur famille. C’est sans doute vrai dans certains textes mais, en réalité, les textes écrits par des femmes montrent plus de similitudes que de différence avec ceux des hommes. Cela est dû, en partie, au poids des modèles anciens dans l’écriture médiévale : quand la moniale Baudonivie écrit la vie de la sainte reine Radegonde vers 600, elle a en tête le modèle par excellence qu’est la Vie de saint Martin, tout comme son contemporain Venance Fortunat qui consacre aussi un texte à la sainte.

Pour autant, en particulier à partir des XIIᵉ et XIIIᵉ siècles, il semble que l’écriture des femmes soit de plus en plus contrainte et que cela les cantonne parfois à certains types d’écrits. La grande réforme de l’Église connue sous le nom de réforme grégorienne cherche à mieux encadrer les pratiques des fidèles et à redéfinir le lien des femmes au sacré. Le développement des universités – réservées aux clercs et donc aux hommes – exclut aussi les femmes de tout un pan du savoir.

C’est dans ce cadre que fleurissent les femmes mystiques, dont les écrits vantent une proximité particulière avec la divinité. Mais là encore, la réalité est complexe : les visions de ces femmes sont souvent mises par écrit par leur confesseur ou un homme qui peut retravailler la matière transmise par la mystique. Même Hildegarde de Bingen, grande savante et abbesse du XIIᵉ siècle, a recours à un secrétaire. Au Moyen Âge, l’idée d’un auteur ou d’une autrice unique fonctionne rarement, et l’écrit des femmes comme celui des hommes fait souvent appel à une multitude d’intervenants ou intervenantes.

The Conversation

Justine Audebrand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓