LePartisan - 1147 vues
MEDIAS REVUES BLOGS
URL du flux RSS

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

26.11.2025 à 16:30

Réduire l’usage des pesticides : quand les agriculteurs s’inspirent de leurs pairs

Rose Deperrois, Doctorante en économie, Inrae; Université Grenoble Alpes (UGA)
Adélaïde Fadhuile, Enseignant-Chercheur, Université Grenoble Alpes
Julie Subervie, Economiste de l'environnement
Quand les injonctions perçues comme « venant d’en haut » ont souvent une efficacité limitée, l’inspiration des pairs mérite, elle, d’être développée.
Texte intégral (1701 mots)

S’inspirer de ses semblables et changer ainsi ses habitudes, c’est quelque chose qui s’observe souvent pour tout type de comportement. C’est aussi un levier d’action non négligeable pour réduire les pesticides, quand les injonctions perçues comme « venant d’en haut » font parfois freiner des quatre fers les premiers concernés.


Qu’il s’agisse de se mettre au vélo pour aller travailler, d’arrêter de fumer ou bien de découvrir un nouveau genre musical, nos vies sont ponctuées de changements inspirés par ceux qui nous entourent. Nos habitudes se transforment rarement seules : elles se propagent, s’imitent, s’apprennent. C’est aussi le cas pour les agriculteurs, qui s’inspirent des expériences de leurs proches pour faire évoluer leurs propres pratiques. Ce processus de diffusion des connaissances et d’influence au sein de réseaux de pairs est désigné par le concept d’apprentissage social.

Prendre en compte ces effets de pairs dans la conception de politiques publiques agricoles offre une piste prometteuse pour la promotion de pratiques économes en pesticides, dont les effets néfastes sur la santé et l’environnement ont été largement documentés par la communauté scientifique.

Plusieurs études se sont déjà penchées sur l’importance de l’apprentissage social dans l’évolution des comportements, et notamment des changements de pratiques des agriculteurs. Les économistes Benyishay et Mobarak montrent ainsi que les agriculteurs sont plus susceptibles d’adopter une nouvelle technologie agricole si celle-ci leur est présentée et expliquée par d’autres agriculteurs qui leur ressemblent.

Cette transmission entre pairs est prometteuse au vu de la difficulté à faire changer les pratiques des agriculteurs. Les programmes agro-environnementaux fondés sur des subventions individuelles censées rémunérer l’effort environnemental des exploitants sont souvent perçus comme des normes arbitraires imposées d’en haut par des acteurs déconnectés des enjeux agricoles réels, et se soldent en effet régulièrement par des échecs.

C’est particulièrement vrai pour les pratiques économes en pesticides, qui cristallisent les tensions entre modèle productiviste et modèle durable, rendant leur adoption complexe à généraliser.

Dans ce contexte, notre travail s’est donc interrogé sur la capacité de l’apprentissage social à générer un bénéfice environnemental. Et s’il était un levier efficace pour diminuer l’usage des pesticides ? C’est ce que nous avons pu démontrer, sur la base d’une étude de cas d’un programme agro-environnemental d’un genre nouveau, fondé sur un réseau d’agriculteurs volontaires : le programme DEPHY.

DEPHY, laboratoire d’un changement de modèle

Cette initiative a été lancée en 2010 au sein du plan Écophyto, un dispositif affichant l’objectif ambitieux d’une réduction de 50 % de l’usage des pesticides avant 2018. Le programme Démonstration, Expérimentation et Production de références sur les systèmes économes en PHYtosanitaires (DEPHY) est un réseau de 3 000 exploitations agricoles engagées dans une démarche volontaire de réduction des pesticides. Celles-ci ont pu bénéficier d’une assistance technique gratuite et de conseillers spécialisés pour repenser leurs utilisations de pesticides. Le but ? Proposer des trajectoires concrètes de changements de pratiques, issues de l’expérience des agriculteurs.

DEPHY permet ainsi d’expérimenter, sur plusieurs années, une combinaison de pratiques alternatives, telles qu’une amélioration des rotations des cultures afin de perturber le cycle des ravageurs, l’optimisation de la densité des semis et l’espacement des rangs pour favoriser la bonne santé des plantes, la production de différentes variétés de cultures pour réduire la pression des maladies, mais aussi la sélection de variétés à maturité précoce.

D’autres techniques sont explorées, comme le remplacement des pesticides par des outils mécaniques ou encore l’usage des méthodes de biocontrôle qui placent les mécanismes naturels et les interactions entre espèces comme instruments phares de la protection des cultures.

Le programme repose également sur le partage de connaissances produites par les expérimentations des fermes DEPHY. Lors d’une journée de démonstration, la ferme engagée dans le programme DEPHY accueille d’autres agriculteurs qui peuvent ensuite tester chez eux les méthodes qu’ils ont découvertes lors de leur visite. Au fil du temps, la pratique peut ainsi se répandre dans tout le secteur : c’est l’effet domino du bouche-à-oreille agricole.

Impacts du programme

Si les actions mises en place n’ont pas permis, pour l’instant, la diminution de moitié qui était visée, les résultats de ce programme démontrent néanmoins une certaine efficacité, avec une baisse de 18 % à 38 % de l’usage des pesticides dans les exploitations participantes entre la période précédant l’implantation de DEPHY et la moyenne 2018-2020.

En France, dix cultures concentrent 90 % des usages de pesticides. Notre étude a choisi de se focaliser sur la filière « grandes cultures, polyculture, élevage », qui a vu l’usage de pesticides baisser de 26 % en moyenne au sein des agriculteurs DEPHY. Cette filière représente approximativement 67 % de l’usage des pesticides en France, elle est donc particulièrement stratégique pour examiner la réduction des pesticides au niveau français.

Dans ce contexte, nous avons ainsi tâché d’évaluer les retombées de ce programme en distinguant ses effets chez les agriculteurs directement impliqués et ceux constatés chez les observateurs actifs. Nous avons ainsi voulu répondre à une question cruciale : comment généraliser les pratiques économes en pesticides au-delà du cercle restreint d’agriculteurs DEPHY ?

Les « agriculteurs observateurs » qui ont pu se rendre à des journées de démonstration étaient environ trois fois plus nombreux que les participants.

Résultat du programme DEPHY ou motivation initiale ?

On pourrait cependant rétorquer que les agriculteurs qui ont participé à DEPHY, ou bien qui sont allés observer ce programme étaient tous volontaires : ils étaient donc sans doute déjà intéressés par l’agroécologie et auraient peut-être modifié leurs pratiques de toute manière. Dans ce cas, les performances observées au sein du réseau refléteraient moins l’efficacité du dispositif lui-même que le profil particulier de ses participants.

Afin d’éviter ce biais, nous avons construit des groupes d’exploitations comparables en tous points – taille, type de production, contexte géographique et économique – ne différant que par la proportion de fermes engagées, directement ou indirectement, dans le programme.

L’analyse statistique de ces groupes, fondée sur les enquêtes du Ministère en charge de l’agriculture et de l’alimentation conduites entre 2006 et 2021, montre que les baisses observées dans l’usage des pesticides ne peuvent être attribuées aux seules caractéristiques initiales des agriculteurs, mais traduisent un effet réel de diffusion des pratiques agroécologiques.

Changer les pratiques, une visite à la fois

Au final, les résultats de notre étude mettent en avant l’impact de l’apprentissage social. Ce dernier, qui se manifeste ici par une baisse de l’usage des pesticides chez les agriculteurs observateurs après leur visite dans des exploitations DEPHY, est quantifiable : une augmentation de 1 % de la proportion d’observateurs dans un groupe d’exploitations agricoles réduit ainsi l’usage moyen de pesticides de ce groupe de 0,05 % à 0,07 % entre la période pré-programme (2006-2011) et la période post-programme (2017-2021). En extrapolant, cela signifierait que doubler la proportion d’observateurs (une augmentation de 100 %) dans un groupe reviendrait à réduire de 5 % à 7 % l’usage moyen de pesticides dans ce groupe, simplement en organisant plus de visites.

Avec de tels résultats, le programme DEPHY présente un rapport coûts-bénéfices particulièrement intéressant pour réduire l’usage des pesticides. Augmenter les visites des exploitations participantes au programme DEPHY semble prometteur au vu de la force des résultats obtenus : un coût supplémentaire minime pour une réduction conséquente de l’usage des pesticides. L’apprentissage social apparaît ainsi comme un levier efficace, que les pouvoirs publics gagneraient certainement à déployer plus largement afin d’accompagner un changement plus global de notre modèle agricole.


Solal Courtois-Thobois et Laurent Garnier ont participé à la rédaction de cet article.

The Conversation

Rose Deperrois a reçu un financement de thèse de l'Office Français de la Biodiversité (OFB).

Adélaïde Fadhuile a reçu un financement de l'ANR pour le projet FAST - Faciliter l'Action publique pour Sortir des pesTicides (référence 20-PCPA-0005) et IDEX UGA (référence 15-IDEX-0002).

Julie Subervie a reçu un financement de l'Agence Nationale de la Recherche pour le projet FAST - Faciliter l'Action publique pour Sortir des pesTicides (référence 20-PCPA-0005).

26.11.2025 à 16:29

Comment les élèves apprennent : faire dialoguer science et société pour mieux les accompagner

Anais Racca, Post-doctorante, Sciences Cognitives Avec et Pour la Société (ANR SCAPS), Université Marie et Louis Pasteur (UMLP)
Laurence Picard, Maître de conférences en psychologie, Université Marie et Louis Pasteur (UMLP)
Marie Mazerolle, Professeure de psychologie, Université Marie et Louis Pasteur (UMLP)
Pour accompagner au mieux les élèves dans leurs apprentissages, il faut tenir compte des savoirs scientifiques, des pratiques enseignantes et des expériences des familles.
Texte intégral (1597 mots)

Comment accompagner un élève durant ses devoirs ? Ce type de problématique éducative nécessite de tenir compte des savoirs scientifiques, des pratiques pédagogiques et des expériences vécues par les élèves et leurs familles. Un programme de recherche croise ces approches pour mieux éclairer les mécanismes d’apprentissage des enfants.


Un mardi soir, à Besançon, familles, enseignantes et enseignants, étudiantes et étudiants, membres du monde de la recherche et simples curieux se retrouvent pour une soirée autour des sciences cognitives.

Pendant que les adultes échangent avec une chercheuse autour des stratégies les plus efficaces pour mémoriser, dans la salle voisine, leurs enfants fabriquent un cerveau en pâte à modeler et découvrent comment les informations circulent du cerveau à la main. À la sortie, les participants repartent avec de nouvelles connaissances sur la manière dont on apprend, et leurs questions nourrissent la réflexion des chercheuses et chercheurs.

Organisées chaque mois dans le cadre du cycle Questions d’éducation, ces rencontres illustrent une manière de faire dialoguer des mondes qui se côtoient sans toujours se comprendre. Le parti pris est clair : l’intelligence collective est essentielle pour affronter les problématiques éducatives, trop complexes pour être résolues sans croiser les regards.

Croiser les regards autour des questions éducatives

Pourquoi certains élèves, pourtant motivés, ont-ils des difficultés à l’école ? Comment accompagner les élèves durant leurs devoirs ? Ce type de problématique éducative est complexe : elle nécessite de tenir compte des savoirs scientifiques, des pratiques pédagogiques et des expériences vécues par les élèves et leurs familles. Croiser ces regards, ceux des chercheurs et chercheuses, du monde enseignant, des parents et des élèves, c’est précisément ce que nous cherchons à faire avec le programme SCAPS – Sciences Cognitives Avec et Pour la Société.

L’hypothèse qui guide ce programme est qu’en confrontant expertises scientifiques, pratiques professionnelles et expériences familiales, il devient possible d’aborder plus finement les questions éducatives et d’y apporter des réponses mieux adaptées.

Une étude récente publiée dans Scientific Reports par Baumann et ses collaborateurs montre que la diversité des compétences et des approches peut certes freiner la coordination lorsqu’une tâche est simple, mais qu’elle devient un atout majeur lorsqu’une tâche est complexe et que les échanges entre membres sont riches et fréquents.

Autrement dit, lorsqu’un problème est difficile, plus les interactions entre les membres d’un groupe sont nombreuses et de qualité, plus la diversité devient un levier d’efficacité collective. Dans ces conditions, les différences de compétences et de perspectives cessent d’être un obstacle pour devenir une ressource, permettant d’éviter les impasses et d’explorer des solutions nouvelles.

Une démarche participative

Si les questions éducatives gagnent à être abordées collectivement, encore faut-il créer des situations où ce dialogue peut réellement se déployer. Concrètement, le programme s’organise autour de deux dynamiques complémentaires, avec l’objectif de comprendre ensemble pour construire ensemble.

Une exposition interactive intitulée « L’expo qui prend la tête » a par exemple été conçue par des chercheuses et des médiatrices du service sciences, arts et culture de l’Université Marie-et-Louis-Pasteur. Familles, groupes scolaires et curieuses et curieux découvrent et testent, avec de réelles mises en situation, comment ils et elles mémorisent.

Comment mieux apprendre, cette question est également posée dans des groupes de pratiques, où des enseignantes et enseignants volontaires analysent leurs démarches pédagogiques à la lumière de la recherche et testent en classe des stratégies – comme la pratique de l’espacement des apprentissages – avant d’en discuter les effets avec des chercheurs et des enseignants formés aux sciences cognitives. Ce dialogue permet de faire un lien direct entre recherche et terrain.

C’est à partir de ces pistes, et parfois de sollicitations directes des familles ou des enseignants, que naissent ensuite des projets de recherches participatives où élèves, parents et/ou enseignants contribuent à formuler les questions, à remonter des observations ou à interpréter les résultats.

Donner la parole aux enfants

Pour comprendre ce qui se joue réellement à l’école, il faut écouter celles et ceux qui y apprennent au quotidien. Dans cette perspective, nous avons mené des ateliers conversationnels avec 127 élèves du CE2 au CM2 afin de recueillir leurs perceptions de l’école, des différentes matières abordées, des évaluations et des devoirs. Leur parole donne accès à un savoir situé, souvent négligé, qui permet d’affiner, et parfois de déplacer, nos hypothèses de recherche.

Des constats saillants émergent de ces échanges.

Par exemple, des consignes d’apprentissage similaires peuvent mobiliser des processus cognitifs très différents. Pour une même consigne – « recopie un mot pour l’apprendre » –, certains élèves recopient avec le modèle sous les yeux, d’autres de mémoire. Du point de vue de la recherche, ce détail change tout : la première pratique relève de la simple répétition, la seconde mobilise la pratique du rappel, deux mécanismes aux effets très différents sur la mémorisation. Ces variations fines, peu visibles depuis l’extérieur, éclairent pourquoi des pratiques a priori similaires produisent des effets différents.

D’autre part, les croyances des élèves sur l’intelligence semblent dépendre des matières scolaires, mais aussi des formes d’évaluation associées. Les arts plastiques et le sport sont jugés moins exigeants intellectuellement par les enfants, parce que généralement, quoi qu’ils ou elles fassent, « c’est toujours bien ! »

Cela suggère une piste rarement explorée : le lien entre les modalités d’évaluation d’une matière et la manière dont les élèves construisent leurs représentations de l’intelligence. Autrement dit, ce n’est peut-être pas la matière elle-même, mais la façon dont elle est évaluée qui façonne ces représentations.

Ces témoignages vont au-delà d’un simple constat. Si certains font directement écho à des phénomènes bien documentés en sciences cognitives, ils permettent également d’ouvrir des questions nouvelles et d’ajuster nos modèles à la réalité scolaire.

Des défis à relever

Ce type de dispositifs illustre la force de l’intelligence collective pour éclairer les questions éducatives. Mais lorsque l’on passe du dialogue à la co-construction de projets de recherche, de nouveaux défis apparaissent.

Co-construire suppose en effet de concilier des temporalités, des objectifs et des contraintes très différentes : celles des enseignantes et enseignants, pris dans les exigences du quotidien scolaire ; celles des familles, qui cherchent des réponses concrètes aux difficultés rencontrées par leurs enfants ; et celles des chercheuses et chercheurs, qui doivent garantir la validité scientifique des protocoles et la qualité des données recueillies.

Les projets collaboratifs menés en éducation montrent cependant que ces différences peuvent être une force lorsque les rôles sont clarifiés dès le départ et que chacun peut apporter son expertise à l’élaboration du projet. Les recherches en sciences participatives soulignent d’ailleurs que ces démarches renforcent l’engagement, la compréhension de la démarche scientifique et parfois même les compétences des participants, à condition de garantir un cadre clair, une accessibilité réelle et un sens partagé.

Ces défis ne sont donc pas des obstacles, mais plutôt les conditions à prendre en compte pour permettre à la co-construction, avec le monde enseignant, les familles et les élèves, de produire des projets à la fois scientifiquement solides et réellement utiles au terrain.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Anais Racca a reçu des financements de l'ANR - ANR-23-SSAI-0021

Laurence Picard a reçu des financements de l'ANR - ANR-23-SSAI-0021

Marie Mazerolle a reçu des financements de l'ANR - ANR-23-SSAI-0021

26.11.2025 à 16:29

Ce que l’univers de la mode nous dit de la Russie en 2025

Polina Talanova, Doctorante en marketing de la mode, IAE Paris – Sorbonne Business School; Institut Français de la Mode (IFM)
Les sanctions ont bouleversé l’univers de la mode et de l’habillement en général en Russie, entre départs de nombreuses marques occidentales et émergence de marques locales ou issues de pays tiers.
Texte intégral (2215 mots)

Le secteur de la mode a été profondément affecté par les sanctions décrétées à l’encontre de la Russie au cours de ces dernières années. La plupart des marques occidentales ont quitté le pays, et les marques locales n’ont plus accès aux marchés occidentaux. Contournement des sanctions via le recours à des importations en passant par des pays tiers, développement des compagnies locales et arrivée sur le marché russe d’acteurs issus de pays qui y étaient auparavant peu présents : à l’instar des autres secteurs économiques, l’univers de la mode se transforme, mais le modèle occidental continue de fasciner en Russie.


En 2022, la maison Valentin Yudashkin a été exclue de la programmation de la semaine de mode parisienne. Ce créateur russe réputé, né en 1963, est décédé l’année suivante, en mai 2023.

En attendant un éventuel retour de la Russie dans la communauté des nations, la vie de la mode continue dans le pays. Avant 2022, la Fashion Week de Moscou était sponsorisée par Mercedes-Benz. Depuis trois ans, le gouvernement de Moscou a repris l’organisation d’une semaine de la mode désormais indépendante des partenaires occidentaux (dernière édition en août 2025). Par ailleurs, une Fédération internationale de la mode des BRICS+ a vu le jour, suite au sommet de Moscou de l’organisation, tenu en octobre 2024. Dans un contexte de fortes tensions, la mode devient un objet politique à part entière – bien au-delà de sa dimension artistique ou économique.

La fin d’une période dorée pour les marques occidentales en Russie

Les enseignes occidentales ont rapidement investi la Russie (auparavant fermée) lors de son ouverture démocratique dans les années 1990. Le nouveau millénaire a été marqué par une certaine forme de glamour et d’extravagance, tant dans les vêtements que dans les attitudes. C’était une époque de nouveaux riches et de paillettes à tout-va. Une époque résumée par le mot russe de perebor (« faire sonner toutes les cloches de l’église en même temps »), autrement dit l’idée d’un style qui n’hésitait pas à « en faire trop » – une esthétique que décrit la journaliste Evelina Khromtchenko en 2008 dans son ouvrage « Russian Style ».

Aujourd’hui, toute cette insouciance est bien loin. Deux exemples parmi d’autres le démontrent. Pendant l’hiver 2023, des jeunes filles en Europe occidentale et aux États-Unis ont lancé une tendance sur TikTok et Instagram, celle de la Slavic Girl, devenue rapidement très populaire. Fourrure, diamants, talons hauts et maquillage flamboyant : ce phénomène a provoqué des remous un peu partout dans le monde. Une partie des internautes y a vu la propagation d’un imaginaire russe honni.

En novembre 2022, la maison Dior a été critiquée pour avoir adopté dans une de ses campagnes une scénographie qui incorporait des éléments d’inspiration russe, présentés dans un décor de type slave avec de la neige et des bouleaux. Ces éléments ont entraîné une série de commentaires négatifs sur Instagram. Peu après, la façade d’une boutique Dior à Kiev a été recouverte de graffitis accusant la marque de soutenir la Russie.

Départs définitifs ou temporaires et contournement des sanctions

En parallèle du recul du soft power de la mode russe, l’écosystème de la mode et de l’habillement en Russie a été profondément modifié par le conflit.

Les sanctions occidentales ont entraîné le départ temporaire ou permanent de nombreuses marques internationales. Uniqlo, Marks & Spencer ou encore H&M ont complètement quitté le marché, résiliant leurs partenariats avec les franchisés et leurs baux commerciaux en Russie.

Beaucoup de marques occidentales ont vendu leurs parts russes à des entreprises locales. Le groupe Inditex (Zara) a revendu ses filiales opérationnelles russes à une société émiratie, Daher Group. Les marques ont changé de nom (Zara est devenue MAAG, Bershka est devenue Ecru, Pull&Bear est devenue DUB). Ces nouvelles boutiques ne vendent plus les produits d’Inditex, mais commercialisent désormais leurs propres lignes de vêtements, fabriquées notamment en Chine et au Pakistan.

Défilé de la marque russe Ushatava en octobre 2024. Capture d’écran YouTube, Fourni par l'auteur

Dans le segment du luxe, le choix des grandes marques occidentales a plutôt été de suivre une stratégie du gel que de partir complètement. Les sanctions européennes contre la Russie interdisent la vente, le transfert et l’exportation d’articles de luxe d’une valeur supérieure à 300 euros vers la Russie. « Nous vous informons que notre boutique est temporairement fermée pour des raisons techniques. Nous vous prions de bien vouloir nous excuser pour la gêne occasionnée et vous remercions de votre compréhension. Nous attendons avec impatience de pouvoir vous accueillir de nouveau et restons toujours à votre disposition », peut-on lire depuis trois ans sur les vitrines des boutiques de luxe à Moscou, dont les grandes maisons européennes continuent à payer le loyer.

En outre, l’enjeu ne se limite pas au marché russe lui-même. En septembre 2025, Brunello Cucinelli a vu son action chuter de 15 % après qu’un fonds activiste spécialisé dans la vente à découvert (Morpheus Research) a publié une enquête affirmant que la marque continuait d’opérer en Russie malgré les sanctions – des allégations immédiatement contestées par la maison.

Les grands acteurs du luxe ne vendent plus rien en Russie, mais conservent leurs emplacements dans les zones commerciales les plus convoitées. La rue Stoletchnikov Pereoulok, équivalent moscovite de la rue du Faubourg Saint-Honoré, est encore remplie de boutiques Chanel, Hermès, Gucci, etc. Le soir, plusieurs s’illuminent. Dans la vitrine d’Hermès, une belle scénographie est même toujours visible.

Les autorités russes favorisent désormais les importations parallèles, permettant de vendre des produits importés sur le territoire russe sans forcément disposer de l’autorisation de la marque. Les entreprises russes s’adressent pour cela à des intermédiaires turcs, chinois, voire d’Europe de l’Est.

Russie : les marques de luxe toujours présentes, TV5 Monde, 23 décembre 2024.

Certaines marques occidentales ont conservé leurs boutiques, ainsi que l’activité commerciale via des partenaires indépendants, sous licence de fabrication. Parmi elles, citons Benetton, Guess, Giorgio Armani… ou encore Cacharel Paris et Lacoste, présents dans une dizaine de boutiques ou points de vente à Moscou.

La nature a horreur du vide

De nouvelles marques arrivent également sur le marché russe. En deux ans et demi, les marques turques sont ainsi devenues les leaders parmi les nouveaux arrivants sur le marché russe, tandis que la Chine et l’Italie se partagent la deuxième place.

La décision de plusieurs grandes maisons européennes de restreindre l’accès à leurs produits pour les citoyens russes a été très mal perçue par la clientèle russe. Chanel, par exemple, a exigé auprès de certaines clientes russes de signer une déclaration attestant qu’elles n’emporteraient pas leurs achats en Russie, condition nécessaire pour finaliser la vente.

Toutefois, les plus aisés peuvent toujours contourner les sanctions grâce à des services de conciergerie. Mais la disparition de l’expérience en boutique, essentielle dans l’univers du luxe, a conduit une partie de la clientèle à se tourner vers les marques locales.

En effet, de nombreuses marques russes tirent parti du vide laissé par les enseignes occidentales. Les premières sanctions, en 2014, ont poussé les entrepreneurs et créateurs russes à prendre conscience de la nécessité de développer la production locale en substitution aux importations. En 2022, avec le départ des géants de la mode étrangère, les entrepreneurs locaux, qui ont l’avantage de bien connaître la demande de la clientèle dans leur propre pays, ont été prêts à prendre le relais. Un exemple marquant : la marque Lime connaît une expansion rapide et occupe la niche laissée par Zara, avec un chiffre d’affaires qui a triplé entre 2021 et 2023. Toutefois, les exemples de succès économiques les plus frappants concernent surtout le segment du mass market.

Quel avenir pour les marques de créateurs ?

La reconfiguration du marché a plutôt favorisé l’essor de labels qualifiés de « niches », tels que Choux, Walk of shame, Rogov, Glumkimberly, Lesyanebo, Monochrome ou Ushatava, entre autres. Avant les événements de 2022, la top-model Bella Hadid portait les ensembles de Lesyanebo, et Monochrome collaborait avec Reebok. Aujourd’hui, ces marques profitent de leur succès en Russie tout en espérant le retour du pays sur la scène mondiale. La véritable question est de savoir si ces labels seront capables de rivaliser avec les grandes maisons européennes si celles-ci reviennent un jour sur le marché russe.

Malgré le contexte actuel, les esprits russes restent tournés vers l’Occident. Les Russes continuent de considérer les diplômes internationaux, du moins dans le domaine des études de mode, comme les plus prestigieux. Et même si les Russes se sont vite adaptés à la consommation locale disponible, ils n’ont pas décidé de tourner le dos à l’Occident ni à sa culture.

The Conversation

Polina Talanova ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.11.2025 à 16:29

Le Timor-Leste rejoint l’Asean : les enjeux d’une intégration régionale

Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l'Institut catholique de Paris, Institut catholique de Paris (ICP)
C’est l’aboutissement d’une procédure évoquée dès l’indépendance du Timor-Leste en 2002 : son adhésion à la grande organisation de l’Asie du Sud-Est.
Texte intégral (2542 mots)

L’adhésion du jeune et petit État à la grande organisation régionale est porteuse de promesses mais aussi d’incertitudes. À l’échelle internationale, le Timor-Leste restera sans doute tiraillé entre l’influence de Pékin et celle de Washington, tandis que d’autres acteurs, notamment la France, cherchent également à y développer leur présence.


Le Timor-Leste, plus jeune État d’Asie, situé à l’extrémité sud-orientale de l’archipel indonésien, à moins de 1 000 kilomètres au nord des côtes australiennes, vient de franchir une étape historique sur la voie de son intégration régionale. Le 26 octobre 2025, ce petit pays de 15 000 km2 et d’à peine 1,3 million d’habitants est devenu le onzième membre de l’Association des nations d’Asie du Sud-Est (Asean) – organisation fondée en 1967 qui promeut la paix, le développement économique et la stabilité régionale –, parachevant un processus d’intégration entamé il y a près de vingt ans.

Colonie portugaise pendant plus de quatre cents ans, le Timor-Leste s’engage sur la voie de l’indépendance à l’issue de la révolution des Œillets au Portugal en 1974. Une déclaration d’indépendance est proclamée le 28 novembre 1975, mais est suivie quelques jours plus tard d’une invasion de l’Indonésie (7 décembre 1975). Cette période d’occupation, qui durera vingt-quatre ans (1975-1999), sera particulièrement sanglante, causant la mort, selon certaines sources, de près de 200 000 personnes, soit environ un quart de la population. Si le pays accède finalement à l’indépendance en 2002, il porte encore les stigmates de cette tragédie et reste l’État le moins développé d’Asie du Sud-Est. Son PIB (1,63 milliard d’euros en 2023, selon la Banque mondiale) représente à peine 15 % de celui du Laos, et 40 % de la population vit sous le seuil de pauvreté.

À Dili (la capitale du Timor-Leste), l’adhésion à l’Asean est donc perçue comme une opportunité inédite de développement et d’intégration régionale. Pour l’Asean, l’arrivée de ce nouveau membre confirme le rôle central que l’association souhaite jouer dans l’architecture régionale, tout en posant de nouveaux défis, notamment économiques. Pour les acteurs de la communauté internationale, en premier lieu la Chine et les États-Unis, l’accession à une organisation régionale clé renforce l’attrait géopolitique du Timor-Leste.

Une intégration régionale gage de développement ?

« Il est plus facile d’entrer au paradis que d’intégrer l’Asean », ironisait le président (2007-2012, et de nouveau depuis 2022) et Prix Nobel de la Paix (1996) José Ramos-Horta, tant le processus d’adhésion fut long et semé d’embûches. Envisagée dès 2002, la candidature fut officiellement soumise en 2011 et mit près de quinze ans à aboutir.

L’accession tant attendue présente pour ce jeune État une opportunité de développement sans précédent, en lui ouvrant un accès préférentiel à un marché régional de près de 700 millions de consommateurs et 4 000 milliards de dollars (soit 3 500 milliards d’euros) de PIB en cumulé. En alignant ses politiques économiques et réglementaires sur les standards de l’Asean, le pays espère stimuler les réformes institutionnelles, diversifier son économie en élargissant les débouchés commerciaux, créer des emplois et faciliter les investissements étrangers.

A contrario, et même si l’Asean est loin d’être un modèle d’ensemble économique intégré (le commerce de bien intra-régional ne représente que 21 % de la totalité des échanges régionaux), l’impact des traités de libre-échange qui lient désormais le Timor-Leste risque d’exposer le secteur agricole du pays à une concurrence étrangère accrue, dans un pays où plus de 60 % de la population dépend encore d’une agriculture de subsistance.

Diplomatiquement, l’adhésion à l’Asean offre au Timor-Leste une plate-forme pour faire entendre sa voix dans les forums régionaux et internationaux, mais implique également de respecter ses règles et cadres institutionnels. Cela peut restreindre certaines prises de positions politiques. Ainsi, Dili, ouvertement critique de la junte birmane, et entretenant des liens avec le NUG (le gouvernement d’unité nationale, actuellement en exil) – ce qui avait conduit, en 2023, à l’expulsion du représentant du Timor-Leste à Naypyidaw –, a finalement rétabli des contacts officiels avec les autorités militaires du Myanmar. Une démarche nécessaire pour accéder formellement à l’Asean, mais peut-être aussi un gage de bonne volonté visant à convaincre ses voisins qu’il ne serait pas un facteur de déséquilibre régional.


À lire aussi : L’Asean face au coup d’État militaire en Birmanie : impuissance ou complicité ?


Asean : un nouveau membre et de nouveaux défis

En 1967, l’Asean réunissait initialement cinq pays fondateurs : l’Indonésie, la Malaisie, les Philippines, Singapour et la Thaïlande. Après Brunei en 1984, ses derniers élargissements remontaient aux années 1990 : Vietnam en 1995, Laos et Myanmar en 1997, Cambodge en 1999.

L’adhésion du Timor-Leste, dernier pays de la région non intégré à l’organisation, démontre la capacité de l’Association à prendre des décisions collectives dans une logique d’intégration et de construction régionale cohérente et unie. Mais le processus d’intégration constitue également, pour l’Asean, un défi complexe.

Micro-nation insulaire, catholique, lusophone et démocratique, le Timor-Leste ajoute une nouvelle strate à l’extrême diversité géographique, culturelle et politique qui caractérise déjà l’organisation. Fondée sur le principe du consensus et de la concertation, l’Asean peine déjà à adopter des positions communes sur des dossiers sensibles tels que la mer de Chine méridionale ou la crise au Myanmar. L’arrivée d’un nouveau membre pourrait encore complexifier l’équation.

À l’échelle bilatérale, si la politique étrangère officielle du pays vise à n’avoir « pas d’alliés, pas d’ennemis, seulement des amis », le passé douloureux de l’occupation indonésienne (1975–1999) a forcément laisse des traces, dont certaines encore visibles. En dépit d’un apaisement progressif et d’un processus de réconciliation perçu comme un modèle dans la région, des tensions entre Dili et Jakarta subsistent notamment autour de l’enclave timoraise d’Oecusse.

Les relations avec l’Australie, principal pourvoyeur d’aide publique au développement au Timor-Leste et partenaire important de l’Asean, sont également marquées par un contentieux frontalier dans la mer de Timor et le partage des revenus du gisement gazier « Greater Sunrise ». Autant de potentiels points de discorde qui pourraient mettre à mal l’harmonie de l’Asean.

Mais c’est surtout sur le plan économique que cette intégration interroge et suscite des réserves.

Le Timor-Leste présente l’un des PIB par habitant les plus faibles de la région (avant-dernier, juste devant le Myanmar), une balance commerciale structurellement déficitaire, la majeure partie des biens devant être importée et une dépendance quasi totale aux exportations d’hydrocarbures (75 % du budget de l’État), désormais en déclin.

L’intégration du petit pays risque d’élargir davantage le fossé économique entre les membres, compliquant la mise en œuvre de projets comme la Communauté économique de l’Asean, qui vise notamment à réduire les disparités. Ainsi, Singapour s’est longtemps prononcée contre l’entrée du Timor-Leste dans l’organisation. Par solidarité régionale et en reconnaissance des progrès significatifs accomplis, la cité-État a depuis changé de posture et se présente désormais comme un soutien actif, prête à accompagner le petit État dans les lourdes obligations administratives et bureaucratiques qu’implique une adhésion à l’Asean (plusieurs centaines de réunions par an).

Perspectives internationales… et françaises

À l’échelle internationale, l’accession du Timor-Leste à l’Asean devrait renforcer l’intérêt des partenaires régionaux pour ce petit pays, situé au carrefour stratégique des couloirs de navigation reliant l’Océanie à l’océan Indien. Si Dili revendique une politique étrangère de neutralité et de non-alignement, le pays n’échappe pas aux tensions régionales croissantes. Ici aussi, la rivalité sino-américaine est à l’œuvre.

La présence chinoise est bien visible, à travers la construction de nombreux édifices publics et d’infrastructures stratégiques (centrale électrique, autoroute, port en eaux profondes). Dans le cadre d’un partenariat stratégique compréhensif signé entre les deux pays en 2023, la coopération militaire a été renforcée. Les passages réguliers de navires chinois dans les détroits de Wetar et d’Ombai témoignent d’un intérêt croissant.

En réponse, Washington a intensifié sa présence diplomatique et militaire, matérialisée par un accord bilatéral signé en 2021. En sus d’une aide au développement conséquente, les efforts états-uniens portent sur la réhabilitation d’infrastructures aéroportuaires et sur une coopération opérationnelle renforcée, avec des exercices conjoints et multilatéraux. D’autres acteurs montrent également un intérêt croissant : le Japon, le Brésil, le Vatican, ainsi que l’Union européenne et plusieurs de ses États membres, dont la France.

Paris n’a certes pas d’ambassade à Dili (l’ambassadeur de France en Indonésie est néanmoins accrédité auprès des autorités est-timoraises), mais dispose d’un bureau de coopération avec un attaché sur place. Certaines entreprises françaises ont investi ou opèrent déjà dans le pays, notamment Bolloré, pour la conception, la réalisation et la maintenance du port en eaux profondes de la Baie de Tibar, ou Alcatel Submarine Network pour l’installation du câble sous-marin Timor-Leste South Submarine Cable (TLSSC).

En 2024, le président José Ramos-Horta a été reçu par Emmanuel Macron à l’Élysée, un signal politique fort au moment où le président français réaffirme ses ambitions en Asie du Sud-Est. Pour la France, le statut de partenaire de développement de l’Asean, ainsi qu’une présence souveraine dans les océans Indien et Pacifique offrent un cadre d’opportunité pour développer des coopérations ciblées : économie portuaire, résilience climatique, gestion de l’eau et de l’agriculture durable. Ces domaines correspondent à des besoins concrets et offrent des pistes de coopération civile et technique.

Enfin, la coopération de défense peut constituer un vecteur d’influence significatif. Si des liens distants existaient depuis la participation française à la Force internationale pour le Timor oriental (INTERFET, 1999-2000), les escales de bâtiments français à Dili en 2019 et en 2024 témoignent d’un intérêt réciproque plus récent. Aussi, l’armée française propose régulièrement des formations à l’armée du Timor-Leste à travers le programme de l’académie militaire du Pacifique.

Les capacités navales est-timoraises restent modestes et insuffisantes pour assurer une surveillance efficace des eaux territoriales, ce qui ouvre un champ d’assistance possible en matière de sécurité maritime, de formation ou d’assistance humanitaire. La participation du Timor-Leste aux principaux forums régionaux de sécurité – tels que l’ADMM+ et le Shangri-La Dialogue – offre à la France de nouvelles occasions de renforcer les liens bilatéraux, et in fine, de consolider sa relation avec l’Asean.

The Conversation

Paco Milhiet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.11.2025 à 16:28

Sans tabac, les campus universitaires respirent mieux, mais les initiatives restent limitées en France

Karine Gallopel-Morvan, professeur santé publique, École des hautes études en santé publique (EHESP)
Les campus universitaires sans tabac sont efficaces pour réduire la consommation des fumeurs, diminuer les mégots de cigarettes qui polluent, etc. Mais ils sont peu développés en France.
Texte intégral (1848 mots)

Parmi les mesures qui ont fait leurs preuves pour réduire le tabagisme, figure la mise en place de lieux où il est interdit de fumer et de vapoter. C’est le cas des campus universitaires sans tabac. Alors que leur efficacité est démontrée à l’international, ils restent peu développés en France. On fait le point à l’occasion du Mois sans tabac.


D’après les chiffres de Santé publique France, en 2024, 25 % des Français âgés de 18 à 75 ans déclaraient fumer occasionnellement ou régulièrement, dont 18,2 % quotidiennement. Chez les plus jeunes, 18 % des 18-29 ans sont fumeurs quotidiens (contre 29 % en 2021).

Bien que la consommation de tabac ait fortement diminué dans notre pays depuis 2016, ces chiffres restent supérieurs à ceux observés dans d’autres pays industrialisés, comme la Grande-Bretagne, le Canada ou les États-Unis (moins de 10 % à 15 % de prévalence tabagique), ou encore la Nouvelle-Zélande qui affiche seulement 6,8 % de fumeurs au quotidien chez les adultes en 2024-2025.

Tabac : des conséquences sur la santé, l’environnement et l’économie

Ce tabagisme encore élevé a des conséquences sanitaires, environnementales et économiques importantes en France. Il est en effet responsable d’environ 75 000 décès par an, soit 13 % de la mortalité totale, et est associé à un tiers des cas de cancer, ce qui en fait la première cause de mortalité évitable en France.

Par ailleurs, les mégots, composés de microplastiques et de substances toxiques, contribuent à la pollution des sols et des eaux, affectant la qualité de l’air et la chaîne alimentaire.

Enfin, le coût social annuel du tabac est estimé à 156 milliards d’euros, ce qui représente une charge importante pour la société.

Pour des lieux sans tabac, notamment des campus universitaires

Pour lutter contre le tabagisme, la Convention-cadre de lutte antitabac (CCLAT), proposée par l’Organisation mondiale de la santé (OMS) en 2003, recommande différentes mesures probantes pour réduire la prévalence : hausses fortes et répétées des prix du tabac, aides à l’arrêt facilement disponibles pour les fumeurs, interdiction de vente de tabac aux mineurs, campagnes médias, paquet neutre, développement des lieux sans tabac, dont les campus et écoles de santé sans tabac proposés dans le Programme national de lutte contre le tabac (PNLT 2023-2027).

Ces derniers se caractérisent par une interdiction totale de fumer et de vapoter sur l’ensemble des lieux d’enseignement supérieur (intérieur et extérieur). Ils s’accompagnent d’aides à l’arrêt du tabac proposées aux usagers sur site, d’actions de communication régulières, d’ambassadeurs qui sillonnent le campus sans tabac pour aider à le faire respecter et informer sur les aides disponibles pour arrêter, d’ateliers de gestion du stress, et d’évaluations du dispositif.

En France, le développement des campus sans tabac reste très limité en comparaison avec les États-Unis, le Canada, l’Australie, la Nouvelle-Zélande où une majorité, voire tous les lieux d’enseignements supérieurs, sont sans tabac et sans vapotage.

Pourtant, une enquête réalisée par l’Observatoire national de la vie étudiante en 2024 indique que, parmi les étudiants ayant répondu au questionnaire, 16 % fument, dont 6 % quotidiennement. Ainsi si les campus sans tabac étaient développés plus massivement en France, cela pourrait contribuer à réduire le tabagisme des étudiants qui fréquentent l’enseignement supérieur.

L’impact positif des campus sans tabac

En effet, de nombreuses recherches menées sur l’effet des campus sans tabac révèlent plusieurs impacts positifs.

  • Pour les fumeurs : ces espaces encouragent les étudiants et les salariés à réduire ou arrêter leur consommation, tout en favorisant le recours aux dispositifs d’aide à l’arrêt disponibles sur place. Ils limitent également l’initiation au tabac et multiplient les tentatives d’arrêt.

  • Pour la communauté : les campus sans tabac sont bien acceptés, y compris par les fumeurs. Ils contribuent à dénormaliser le tabagisme, améliorent la connaissance des risques liés au tabac et réduisent les croyances favorables à son usage.

  • Pour l’environnement : ces dispositifs sont favorables à l’environnement car ils améliorent la pollution liée aux mégots, diminuent l’exposition à la fumée passive (à l’entrée des bâtiments) et réduisent les coûts de nettoyage des lieux dans l’enseignement supérieur. Ils s’inscrivent aussi dans une démarche de développement durable pour les universités.

  • Pour la société : en réduisant la visibilité du tabac, les lieux d’enseignement supérieur deviennent des modèles en matière de promotion de la santé, participant ainsi à changer l’image de ce produit.

Des initiatives limitées dans l’enseignement supérieur français

À notre connaissance, l’École des hautes études en santé publique (EHESP) a été le premier lieu d’enseignement supérieur en France à mettre en place un campus sans tabac le 31 mai 2018. Une vingtaine se sont lancés depuis, en particulier les facultés de médecine/campus santé (Rennes, Reims, Lille, Brest, Bordeaux, Clermond-Ferrand, Dijon entre autres) dont les doyens se sont montrés motivés par l’initiative.

Au-delà des objectifs décrits précédemment, l’EHESP a également développé son campus sans tabac pour sensibiliser et motiver les futurs managers des établissements sanitaires et médico-sociaux que l’école forme à mettre en place, dans leurs futurs lieux d’exercice professionnel, des hôpitaux et des Ehpad sans tabac.

Les évaluations du campus sans tabac de l’EHESP montrent que c’est un dispositif qui fonctionne et qui est bien accueilli par les étudiants. Ainsi un sondage réalisé entre 2018 et 2025 à chaque rentrée universitaire (n = 2 532 étudiants, taux de réponse de près de 57 %) indique que son acceptabilité est très forte : 96,7 % des étudiants y sont favorables, dont 91,4 % de fumeurs (-article en cours de soumission- K. Gallopel-Morvan, E. Gnonlonfin, J. Raude, J. Hoek, N. Sirven, « Breaking new ground in tobacco control : Student reactions to France’s first smoke-Free campus », BMC Public Health).

Les raisons évoquées de ce soutien des usagers apprenants sont la cohérence du campus sans tabac avec les missions d’une école de santé publique, la protection contre la fumée du tabac et l’incitation à arrêter de fumer. Il est intéressant de souligner que ce soutien a augmenté significativement entre 2018 et 2025, certainement un effet de la baisse de la consommation, notamment chez les jeunes, et de la dénormalisation du tabac dans notre société.

Des outils pratiques fondés sur l’évidence scientifique pour accompagner les établissements post-bac

Forte de son expérience des campus sans tabac, l’EHESP a lancé différentes initiatives pour aider à les faire connaître et les déployer en France :

  • Le programme national PRODEVCAMPUS (« Promouvoir et développer les campus universitaires sans tabac en France ») propose, depuis 2023, d’accompagner d’autres lieux d’enseignement supérieur dans cette démarche.

À travers un site Internet dédié (campus-sans-tabac.ehesp.fr), l’école met à disposition des outils pratiques (logos, affiches, brochures) et des formations, afin de faciliter la transition vers des campus sans tabac.

Ces ressources s’appuient sur des données scientifiques, les recommandations de l’Organisation mondiale de la santé et l’expertise de l’EHESP. Le site propose une méthodologie clé en main, permettant aux établissements post-bac de gagner en efficacité et d’encourager une dynamique collective entre les écoles. Il s’adresse aussi à toute personne engagée en santé publique, souhaitant contribuer à des campus plus sains, plus propres et alignés sur le Programme national de lutte contre le tabac 2023-2027.

  • La signature de conventions en 2025 avec la Conférence des grandes écoles et France Universités pour inviter leurs membres à mettre en place des campus sans tabac.

  • L’encadrement de deux doctorats sur ce sujet afin d’asseoir le dispositif sur la recherche, ce qui a donné lieu à deux thèses : celle de Diane Geindreau sur “Le rôle des leaders d’opinion dans la dénormalisation du tabac en France : application aux campus sans tabac et aux hausses de taxes” (financement INCa) et celle d’Étienne Gnonfonlin, dont la soutenance est à venir en décembre 2025, sur l’"Évaluation des politiques de campus sans tabac : analyse de leurs effets et des processus sous-jacents influençant les connaissances, attitudes et comportements des usagers face au tabagisme" (financement Ligue nationale contre le cancer).


Le programme de recherche PRODEVCAMPUS (Promouvoir et développer les campus sans tabac en France) est financé par l’Institut national du cancer (INCa/16312), la Ligue nationale contre le cancer, l’ARS Bretagne et le Fonds de lutte contre les addictions.

The Conversation

Karine Gallopel-Morvan a reçu des financements de l’INCa, l’IRESP, JApreventNCDs, le Fonds de lutte contre les addictions, la Ligue contre le cancer, Ramsay fondation et l’ARS Bretagne.

26.11.2025 à 15:59

Thanksgiving : derrière l’histoire populaire des pèlerins et des « Indiens », de nombreux oubliés…

Thomas Tweed, Professor Emeritus of American Studies and History, University of Notre Dame
Thanksgiving est la tradition qui rassemble le plus d’États-Uniens. Mais l’image classique des pèlerins occulte des pans importants de l’histoire du pays.
Texte intégral (2658 mots)
Le premier Thanksgiving, peint en 1912 par Jean Leon Gerome Ferris (1863-1930). L’imagerie associée au repas renvoie à une version tronquée de l’Histoire. Library of Congress

La fête de Thanksgiving célèbre la générosité et le partage mais l’histoire des pèlerins n’est qu’une partie d’un récit bien plus complexe.


Neuf Américains sur dix se réunissent autour d’une table pour partager un repas à Thanksgiving. À un moment aussi polarisé, toute occasion susceptible de rassembler les Américains mérite qu’on s’y attarde. Mais en tant qu’historien des religions, je me sens tenu de rappeler que les interprétations populaires de Thanksgiving ont aussi contribué à diviser les Américains.

Ce n’est qu’au tournant du XXe siècle que la plupart des habitants des États-Unis ont commencé à associer Thanksgiving aux « pèlerins » de Plymouth et à des « Indiens » génériques partageant un repas présenté comme fondateur mais ces actions de grâce collectives ont une histoire bien plus ancienne en Amérique du Nord. L’accent mis sur le débarquement des pèlerins en 1620 et sur le festin de 1621 a effacé une grande partie de l’histoire religieuse et restreint l’idée de qui appartient à l’Amérique – excluant parfois des groupes comme les populations autochtones, les catholiques ou les juifs.

Croyances agraires et fêtes des récoltes

La représentation habituelle de Thanksgiving passe sous silence les rituels autochtones de gratitude, notamment les fêtes des récoltes. Les Wampanoag, qui partagèrent un repas avec les pèlerins en 1621, continuent de célébrer la récolte de la canneberge. Par ailleurs, des festins similaires existaient bien avant les voyages de Colomb.

Comme je le souligne dans mon ouvrage de 2025, Religion in the Lands That Became America, on se réunissait déjà pour un festin communautaire à la fin du XIe siècle sur l’esplanade de 50 acres de Cahokia. Cette cité autochtone, située de l’autre côté du fleuve, en face de l’actuelle Saint-Louis, était le plus grand centre de population au nord du Mexique avant la révolution américaine.

Les habitants de Cahokia et leurs voisins se rassemblaient à la fin de l’été ou au début de l’automne pour remercier les divinités, fumer du tabac rituel et consommer des mets particuliers – non pas du maïs, leur aliment de base, mais des animaux à forte valeur symbolique comme les cygnes blancs et les cerfs de Virginie. Autrement dit, ces habitants de Cahokia participaient à un festin « d’action de grâce » cinq siècles avant le repas des pèlerins.

Des jours « d’action de grâce »

La représentation habituelle atténue aussi la tradition consistant pour les autorités à proclamer des « Jours d’action de grâce », une pratique bien connue des pèlerins et de leurs descendants. Les pèlerins, qui s’installèrent dans ce qui correspond aujourd’hui à Plymouth, dans le Massachusetts, étaient des puritains séparatistes ayant dénoncé les éléments catholiques subsistant dans l’Église protestante d’Angleterre. Ils cherchèrent d’abord à fonder leur propre Église et communauté « purifiée » en Hollande.

Après une douzaine d’années, beaucoup repartirent, traversant l’Atlantique en 1620. La colonie des pèlerins, au sud-est de Boston, fut progressivement intégrée à la colonie de la baie du Massachusetts, fondée en 1630 par un groupe plus important de puritains qui, eux, ne s’étaient pas séparés de l’Église officielle d’Angleterre.

Comme l’ont souligné des historiens, les ministres puritains de l’Église congrégationaliste, reconnue par l’État du Massachusetts, ne prêchaient pas seulement le dimanche. Ils prononçaient aussi, à l’occasion, des sermons spéciaux d’action de grâce, exprimant leur gratitude pour ce que la communauté considérait comme des interventions divines – qu’il s’agisse d’une victoire militaire ou de la fin d’une épidémie.

La pratique s’est maintenue et étendue. Pendant la révolution américaine, par exemple, le Congrès continental déclara un Jour d’action de grâce pour commémorer la victoire de Saratoga en 1777. Le président James Madison proclama plusieurs jours d’action de grâce pendant la guerre de 1812. Les dirigeants des États-Unis comme ceux des États confédérés firent de même durant la guerre de Sécession.

Cette tradition a influencé des Américains comme Sarah Hale, qui plaida pour l’instauration d’un Thanksgiving national. Rédactrice en chef et poétesse surtout connue pour Mary Had a Little Lamb, elle réussit à convaincre Abraham Lincoln en 1863.

La fête des récoltes de 1621

La vision que beaucoup d’Américains se font du « premier Thanksgiving » ressemble à la scène représentée dans une peinture de J. L. G. Ferris portant ce titre. Réalisée vers 1915, elle est proche d’une autre image très populaire, The First Thanksgiving at Plymouth, peinte à la même époque par Jennie Augusta Brownscombe. Ces deux œuvres déforment le contexte historique et représentent de manière erronée les participants autochtones issus de la confédération Wampanoag toute proche. Les chefs amérindiens y portent des coiffes propres aux tribus des grandes plaines, et le nombre de participants autochtones est nettement sous-estimé.

Le seul témoignage oculaire qui subsiste est une lettre de 1621 du pèlerin Edward Winslow. Il y rapporte que Massasoit, le chef des Wampanoag, était venu avec 90 hommes. Cela signifie, comme le suggèrent certains historiens, que le repas partagé relevait autant d’un événement diplomatique scellant une alliance que d’une fête agricole célébrant une récolte.

La peinture de Ferris laisse aussi entendre que les Anglais avaient fourni la nourriture. Les habitants de Plymouth apportèrent de la « volaille », comme Winslow s’en souvenait – probablement de la dinde sauvage – mais les Wampanoag ajoutèrent cinq daims qu’ils venaient d’abattre. Même la récolte de « maïs indien » dépendit de l’aide autochtone. Tisquantum, dit Squanto, le seul survivant du village, avait prodigué des conseils vitaux en matière de culture comme de diplomatie.

La scène enjouée de l’image masque aussi à quel point la région avait été bouleversée par la mort. Les pèlerins perdirent près de la moitié de leur groupe à cause de la faim ou du froid durant leur premier hiver. Mais, après les premiers contacts avec des Européens, un nombre bien plus important de Wampanoag étaient morts lors d’une épidémie régionale qui ravagea la zone entre 1616 et 1619. C’est pour cela qu’ils trouvèrent le village de Squanto abandonné, et que les deux communautés furent disposées à conclure l’alliance qu’il facilita.

La primauté des pèlerins

Les pèlerins sont arrivés tard dans l’histoire de Thanksgiving. La proclamation de 1863 de Lincoln, publiée dans Harper’s Monthly, évoquait « la bénédiction des champs fertiles », mais ne mentionnait pas les pèlerins. Ils n’apparaissaient pas non plus dans l’illustration du magazine. La page montrait villes et campagnes, ainsi que des esclaves émancipés, célébrant la journée par une prière « à l’autel de l’Union ». Pendant des années avant et après cette proclamation, d’ailleurs, de nombreux Sudistes se sont opposés à Thanksgiving, qu’ils percevaient comme une fête abolitionniste, venue du Nord.

L’absence des pèlerins s’explique, puisqu’ils n’étaient pas les premiers Européens à débarquer sur la côte est de l’Amérique du Nord – ni à y rendre grâce. Des catholiques espagnols avaient ainsi fondé Saint-Augustin en 1565. Selon un témoignage de l’époque, le chef espagnol demanda à un prêtre de célébrer la messe le 8 septembre 1565, à laquelle assistèrent des Amérindiens, et « ordonna que les Indiens soient nourris ».

Deux décennies plus tard, un groupe anglais avait tenté, sans succès, de fonder une colonie sur l’île de Roanoke, en Caroline du Nord – incluant un ingénieur juif. Les Anglais eurent davantage de succès lorsqu’ils s’installèrent à Jamestown, en Virginie en 1607. Un commandant chargé de mener un nouveau groupe en Virginie reçut pour instruction de marquer « un jour d’action de grâce au Dieu tout-puissant » en 1619, deux ans avant le repas de Plymouth.

Mais au fil des ans, les pèlerins de Plymouth ont lentement gagné une place centrale dans ce récit fondateur de l’Amérique. En 1769, les habitants de Plymouth firent la promotion de leur ville en organisant un « Forefathers’ Day » (« Jour des Pères fondateurs »). En 1820, le politicien protestant Daniel Webster prononça un discours à l’occasion du bicentenaire du débarquement à Plymouth Rock, louant l’arrivée des pèlerins comme « les premiers pas de l’homme civilisé » dans la nature sauvage. Puis, dans un ouvrage de 1841, Chronicles of the Pilgrim Fathers, un pasteur de Boston réimprima le témoignage de 1621 et décrivit le repas partagé comme « le premier Thanksgiving ».

L’essor de l’immigration

Entre 1880 et 1920, les pèlerins se sont imposés comme les personnages centraux des récits nationaux sur Thanksgiving et sur les origines des États-Unis. Il n’est pas surprenant que cette période corresponde au pic de l’immigration aux États-Unis, et de nombreux Américains considéraient les nouveaux arrivants comme « inférieurs » à ceux qui avaient débarqué à Plymouth Rock.

Les catholiques irlandais étaient déjà présents à Boston lorsque le volume Pilgrim Fathers parut en 1841, et davantage encore arrivèrent après la famine de la pomme de terre dans les années suivantes. La population étrangère de Boston augmenta lorsque la pauvreté et les troubles politiques poussèrent des catholiques italiens et des juifs russes à chercher une vie meilleure en Amérique.

La même situation se produisait alors dans de nombreuses villes du Nord, et certains protestants étaient inquiets. Dans un best-seller de 1885 intitulé Our Country, un ministre de l’Église congrégationaliste avertissait que « La grandeur de bien des villages de Nouvelle-Angleterre est en train de disparaître, car des hommes, étrangers par leur sang, leur religion et leur culture, s’installent dans des foyers où ont grandi les descendants des pèlerins. »

Lors du 300ᵉ anniversaire du débarquement et du repas, célébré en 1920 et 1921, le gouvernement fédéral émit des timbres commémoratifs et des pièces de monnaie. Des responsables organisèrent des spectacles, et des hommes politiques prononcèrent des discours. Environ 30 000 personnes se rassemblèrent à Plymouth pour entendre le président Warren Harding et le vice-président Calvin Coolidge louer « l’esprit des pèlerins ».

Bientôt, les inquiétudes xénophobes concernant les nouveaux arrivants, en particulier les catholiques et les juifs, amenèrent Coolidge à signer le Immigration Act de 1924, qui allait largement fermer les frontières américaines pendant quatre décennies. Les Américains continuèrent de raconter l’histoire des pèlerins même après que la politique migratoire des États-Unis devint de nouveau plus accueillante en 1965, et beaucoup la relaieront encore l’année prochaine à l’occasion du 250ᵉ anniversaire des États-Unis. Compris dans son contexte complet, c’est un récit qui mérite d’être raconté. Mais il convient de rester prudent, car l’histoire nous rappelle que les histoires sur le passé spirituel du pays peuvent soit nous rassembler, soit nous diviser.

The Conversation

Thomas Tweed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.11.2025 à 15:59

Le crypto-mercantilisme américain ou comment prolonger l’hégémonie du dollar par les stablecoins

Jean-Marc Figuet, Professeur d'économie, Université de Bordeaux
En encadrant les stablecoins adossés au dollar, les États-Unis cherchent à étendre leur puissance monétaire tout en ouvrant un nouveau canal privé de financement de leur dette.
Texte intégral (1782 mots)

Pour les mercantilistes, la puissance d’un État se mesurait à sa capacité à contrôler la monnaie et les flux qu’elle génère. Avec le Genius Act, Donald Trump a semble-t-il trouvé l’occasion d’étendre l’« exorbitant privilège » du dollar à la crypto-économie.


En juillet 2025, le Congrès américain a adopté le Genius Act, première loi fédérale encadrant l’usage des stablecoins, ces crypto-actifs indexés sur le dollar. Contrairement au bitcoin, dont le cours est très volatil, ces « jetons stables » sont conçus pour maintenir en permanence une parité de 1 pour 1 avec le dollar. Le plus important d’entre eux, Tether (USDT), représente aujourd’hui plus de 160 milliards de jetons en circulation, et son principal concurrent, USD Coin (USDC), environ 60 milliards, soit un encours total de stablecoins en dollar de l’ordre de 250 milliards à 260 milliards de dollars (entre 215 milliards et 224,5 milliards d’euros).

Donald Trump a qualifié ce texte de « formidable », car loin d’être un simple ajustement technique, il marque un tournant dans la stratégie monétaire américaine. Après avoir utilisé massivement les droits de douane comme arme économique, Trump lance désormais une nouvelle étape que l’économiste français Éric Monnet qualifie de crypto-mercantilisme : la diffusion de stablecoins adossés au dollar pour renforcer la puissance monétaire américaine.

Du mercantilisme au crypto-mercantilisme

Historiquement, le mercantilisme désigne un ensemble de pratiques économiques visant à enrichir l’État par l’accumulation de métaux précieux et la maîtrise du commerce extérieur. En France, la controverse Bodin–Malestroit au XVIe siècle, illustre ce lien entre monnaie et pouvoir. Malestroit attribuait la hausse des prix à l’altération monétaire, issue de la réduction du poids en métal des pièces. Jean Bodin y voyait surtout la conséquence de l’afflux d’or et d’argent en provenance des Amériques. Pour Bodin, père du mercantilisme et précurseur de la théorie quantitative de la monnaie, l’abondance de liquidités accroît le pouvoir des États qui les contrôlent mais engendre l’inflation.

Aux XVIe et XVIIe siècles, l’Angleterre, la France ou l’Espagne créèrent des compagnies de commerce monopolistiques, imposèrent des barrières douanières et cherchèrent à maximiser leurs exportations pour accumuler métaux et devises. Si le mercantilisme permit le financement des armées, la construction de flottes marchandes, il généra aussi l’expansion coloniale, des tensions commerciales et des guerres…

Le crypto-mercantilisme transpose ce raisonnement dans l’univers numérique par l’émission d’instruments financiers et monétaires digitaux.

Le Genius Act

Le Genius Act définit le stablecoin de paiement comme un jeton numérique adossé au dollar (par exemple, 1 stablecoin pour 1 dollar), intégralement garanti par des actifs liquides (dépôts bancaires, bons du Trésor). Seules des institutions agréées (banques, coopératives de crédit ou entreprises supervisées) peuvent en émettre. Ce cadre légal ouvre la voie à une diffusion massive des stablecoins. Les banques américaines se préparent à lancer leurs propres jetons. Les GAFAM, comme Meta, sont également en première ligne pour intégrer ces instruments sur leurs plates-formes. Mastercard collabore, depuis 2021, avec Circle, l’émetteur de l’USDC. Un premier accord a permis d’utiliser ce stablecoin pour régler certaines transactions sur le réseau Mastercard, coopération qui a depuis été progressivement étendue et continue de monter en puissance.

La stratégie repose sur l’effet réseau. Les flux de stablecoins internationaux se concentrent fortement hors des États-Unis, en particulier en Asie et en Amérique du sud, reflétant une demande globale pour le dollar numérique dans les paiements transfrontaliers. Ces transactions sont souvent plus rapides et moins coûteuses que les circuits bancaires classiques. En encourageant leur expansion, Washington étend la zone d’influence du dollar bien au-delà de son système bancaire national. Cette dynamique pourrait contraindre les grandes plates-formes étrangères à s’aligner sur ce modèle si elles veulent rester compétitives sur les marchés mondiaux des paiements. Lors de l’émission, les émetteurs de stablecoins achètent massivement des bons du Trésor pour garantir leurs réserves. Ainsi, un nouveau canal privé de financement de la dette publique américaine apparaît.

Le crypto-mercantilisme américain s’analyse donc comme un double mouvement. D’une part, la consolidation de la suprématie du dollar dans les échanges mondiaux. D’autre part, la captation de nouveaux flux financiers privés pour soutenir le marché des bons du Trésor.

Les risques internes et externes

Sur le plan interne, l’essor des stablecoins peut affaiblir la transmission de la politique monétaire. Si les agents privilégient les jetons numériques pour leurs paiements et leur épargne, la demande de dépôts bancaires diminue, réduisant ainsi la capacité des banques à financer l’économie réelle. Le risque d’un digital bank run, c’est-à-dire une ruée numérique vers un remboursement en dollar est bien réel. En effet, au moindre doute sur la solvabilité d’un émetteur, des millions d’utilisateurs peuvent, en quelques clics, demander le rachat de leurs stablecoins contre des dollars. L’émetteur doit alors liquider les bons du Trésor en réserve pour faire face aux demandes, ce qui peut transformer une inquiétude ponctuelle en crise de liquidité. Or, la confiance, est au cœur de la stabilité financière. Tirole alerte sur le fait que des renflouements massifs pourraient reposer sur les contribuables. Gorton et Zhang dressent un parallèle avec le free banking du XIXe siècle, où des banques privées émettaient leurs propres billets, souvent au prix d’une instabilité chronique. La Réserve Fédérale américaine, créée en 1913, fut la réponse gouvernementale à cette instabilité.

Sur le plan externe, le risque est la perte de souveraineté monétaire des États, déjà fortement dépendants des infrastructures de paiement américaines (Apple Pay, Google Pay, Mastercard, Visa…). La BCE a exprimé ses inquiétudes. Si les Européens utilisent massivement des stablecoins en dollar, elle perd la totale maîtrise de sa politique monétaire car leur usage rompt le lien de convertibilité directe entre la monnaie scripturale et la monnaie centrale. À ce stade, les tentatives de créer des stablecoins en euro restent marginales. L’EURC, stablecoin en euro émis par Circle, représente aujourd’hui un encours de l’ordre de 170 millions à 200 millions d’euros, quand l’USDC pèse près de 60 milliards de dollars (51,8 milliards d’euros) et l’USDT plus de 160 milliards de dollars (plus de 138 milliards d’euros). L’écart de taille est donc spectaculaire et illustre le risque de « dollarisation numérique » de fait si aucune alternative crédible libellée en euro n’est proposée.

L’euro numérique est présenté comme une réponse pour limiter cette dépendance. La BCE insiste sur la nécessité d’un instrument public capable d’offrir une alternative sûre, liquide et universellement accessible. L’euro numérique contribue à la stabilité monétaire, lutte contre les monopoles privés de paiement et incarne un symbole de l’unité européenne. À la différence d’un stablecoin, l’euro numérique sera une nouvelle forme de monnaie de banque centrale, c’est-à-dire une créance directe sur la puissance publique, au même titre que les billets, et non un jeton géré par des acteurs privés.

Un ordre monétaire international en recomposition

Le mercantilisme classique s’appuie sur les métaux précieux et le commerce maritime. Son avatar numérique combine la réglementation publique et l’innovation privée pour prolonger l’hégémonie du dollar. Mais ce renforcement s’accompagne d’une fragmentation accrue car l’émergence de stablecoins, de monnaies numériques de banque centrale ou d’initiatives concurrentes, ici et ailleurs, dessine un ordre monétaire international plus instable et conflictuel. La révolution monétaire est en marche.

Pour les États-Unis, la stratégie est claire : maintenir l’« exorbitant privilège » du dollar, même au prix d’une désintermédiation du rôle de la Réserve Fédérale. La domination du dollar repose sur un équilibre fragile entre confiance internationale et capacité d’innovation financière. Le crypto-mercantilisme peut prolonger cet avantage, mais en l’exposant à de nouvelles vulnérabilités.

Pour l’Europe, et le reste du monde, le défi est désormais de ne pas subir cette dollarisation numérique, mais d’y répondre. L’euro numérique illustre cette volonté de bâtir un contrepoids crédible, à la fois pour protéger la souveraineté monétaire et pour offrir une alternative de confiance dans les paiements du futur.

The Conversation

Jean-Marc Figuet a reçu des financements publics.

26.11.2025 à 11:26

Les champignons d’Ötzi, l’homme des glaces du Néolithique

Hubert Voiry, Mycologue, Muséum national d’histoire naturelle (MNHN)
Pourquoi le célèbre homme du Néolithique avait-il dans sa besace des polypores du bouleau et des amadous ? À quoi lui servaient donc ces champignons ?
Texte intégral (1976 mots)
Amadouvier, polypore du bouleau et Ötzi (représentation du musée d’archéologie du Sud-Tyrol, Balzano, en Italie). CC BY

On l’oublie trop souvent mais les champignons ont accompagné l’histoire de l’humanité : médecine, géopolitique, psychologie, architecture, gastronomie, ils s’invitent dans de nombreux champs de nos vie depuis le Néolithique.

Dans cet extrait de son ouvrage Dix champignons qui ont changé la vie des hommes (éditions Actes Sud, 2025), le mycologue Hubert Voiry nous parle des deux champignons retrouvés par les archéologues dans la besace d’Ötzi, l’homme préhistorique découvert fortuitement en 1991 à 3 200 mètres d’altitude, dans les Alpes italiennes. Il tâche de comprendre pourquoi cet homme avait, avec lui des amadous et des polypores du bouleau.


Ötzi portait un petit sac en cuir rempli de matière noire. Dans ce sac, il y avait aussi trois outils en silex et un os en forme de poinçon. Au début, on a pensé que la matière noire était de la résine et que ce sac était une sorte de « kit » de réparation d’outils. Or, la substance, une fois séchée, a montré une teinte virant au brun. L’examen microscopique de cet objet a révélé qu’il s’agissait de la chair d’un champignon, l’amadouvier (Fomes fomentarius). Cette chair brune que l’on trouve sous la croûte (la face supérieure) du champignon avait été travaillée manuellement pour obtenir un produit de consistance fibreuse que l’on appelle l’amadou. Mélangées à cette matière, on a détecté aussi des traces de pyrite. Silex, pyrite et amadou ainsi réunis permettent d’allumer le feu et de le conserver.

Ce n’est pas le témoignage le plus ancien de l’usage de l’amadou pour le feu. Celui-ci a en effet été retrouvé en grande quantité associé à des nodules de pyrite sur le site archéologique de Star Carr en Angleterre qui date de près de 10 000 ans. On a fait les mêmes observations dans les fouilles archéologiques de Maglemose au Danemark, site qui remonte à 8 000 ans. Il existe aussi des témoignages plus récents datant de l’âge du bronze en Suisse, dans les sites préhistoriques d’anciens villages lacustres. L’amadou a donc la propriété de produire et de transporter le feu. Contrairement à une idée reçue, les humains de cette époque ne frappaient pas deux silex l’un contre l’autre pour allumer un feu, car les étincelles résultant de leur percussion sont trop éphémères pour enflammer un combustible. Ils avaient recours essentiellement à deux techniques : celle de la friction avec du bois et celle de la percussion, vraisemblablement utilisée par Ötzi. Dans la première, on dispose un morceau de bois à la verticale d’un autre placé au sol. On frotte le morceau de bois sur l’autre en lui donnant un mouvement de rotation avec les mains. Cela produit de la sciure échauffée qui va donner quelques braises. Ensuite, il faudra les mettre en contact avec des brindilles sèches. Ce procédé n’a pas laissé de traces archéologiques. L’autre méthode consiste à utiliser, comme Ötzi, pyrite, silex et amadou. La percussion d’un morceau de disulfure de fer (pyrite ou marcassite) contre une roche dure comme le silex produit des étincelles. L’amadou au contact de l’étincelle est capable de s’embraser facilement du fait de sa structure fibreuse, et le feu peut couver longtemps, ce qui facilite son transport. Il reste à produire des flammes en mettant par exemple en contact l’amadou incandescent avec des herbes très sèches ou des fibres d’écorce.

Pour faciliter l’embrasement, on a perfectionné la technique. L’amadou est débité en tranches fines qui sont amollies à coups de maillet puis qui sont mises à sécher. Au cours des siècles, des traitements au salpêtre ou aux cendres ont été mis au point pour qu’il s’enflamme plus facilement. Le célèbre mycologue Christiaan Hendrik Persoon en donne la description dans son ouvrage Traité sur les champignons comestibles, contenant l’indication des espèces nuisibles paru en 1818. Il précise que les bûcherons des Vosges avaient une technique moins recommandable pour traiter l’amadou : ils enterraient les tranches du “bolet” et les arrosaient pendant un certain temps avec de l’urine.

À partir de l’âge du fer, les morceaux de disulfure sont remplacés par des briquets, petits objets en acier qui au Moyen Âge avaient une forme de crochet aplati. Actuellement, on peut se procurer, dans le commerce, ce type de briquet appelé aussi briquet à silex et ainsi reproduire les gestes de nos ancêtres en frappant l’acier sur un silex aiguisé. On recueille les étincelles avec un morceau d’amadou ou à défaut avec un morceau de coton carbonisé. Les briquets “à amadou” qui apparaissent vers 1840 ne contiennent curieusement pas d’amadou. Le nom a été repris, mais c’est une mèche de coton trempée dans une solution chimique qui joue le rôle de l’amadou.

De nos jours, l’amadou est encore utilisé de façon traditionnelle pour le transport du feu, comme en Autriche lors du Weihfeuertragen, littéralement “le transport de feu consacré”. Le samedi de Pâques, le prêtre catholique réunit les familles de paroissiens autour d’un feu qu’il bénit au cours d’une cérémonie. Ensuite, les enfants récupèrent les braises à l’aide de bidons métalliques et passent dans les maisons du village apporter le feu béni. Pour faciliter le transport, ils ajoutent aux braises des morceaux d’amadou. En plus d’être le polypore le plus efficace pour la fabrication et le transport du feu, grâce à sa chair, l’amadouvier a aussi des vertus médicinales et artisanales, voire spirituelles. Un peuple de l’île d’Hokkaidō au Japon, les Aïnous, procédait, en cas de maladie ou d’épidémie, à un rituel de fumée autour des habitations. Ils faisaient brûler toute la nuit des fructifications de F. fomentarius pour éloigner les démons. Un rite analogue était pratiqué en Sibérie chez les Khantys et en Amérique du Nord dans des tribus amérindiennes.[…]

Le deuxième champignon retrouvé dans les affaires d’Ötzi est le polypore du bouleau, en latin : Fomitopsis betulina. Il se présentait sous forme de deux fragments enfilés sur une lanière de cuir. L’un de forme sphérique et l’autre de forme conique. Le polypore du bouleau, une fois séché, s’enflamme rapidement mais le feu ne couve pas. Ötzi ne l’a pas probablement pas utilisé pour le transport du feu, d’autant qu’il possédait déjà de l’amadou. Quel usage faisait-il donc des morceaux de ce polypore ?

Cette question a naturellement suscité des débats, dont sont ressorties deux grandes hypothèses. La première a été avancée par l’anthropologue italien Luigi Capasso : il suggère que l’Homme des Glaces était conscient de la présence de ses parasites intestinaux et les combattait avec des doses adaptées de Fomitopsis betulina. Ce champignon, qui est comestible – nous en reparlerons plus loin –, était probablement le seul vermifuge disponible à l’époque. L’autre hypothèse est défendue par la biologiste autrichienne Ursula Peintner : elle a fait le rapprochement avec certaines coutumes d’Amérindiens, rapportées par le biologiste américain Robert Blanchette. Ils possédaient des objets décorés avec des morceaux de forme ronde ou ovale d’Haploporus odorus, polypore à l’odeur très suave. Ces fragments étaient enfilés sur des lacets en cuir puis attachés aux tuniques sacrées ou aux colliers des guérisseurs. Ce polypore était aussi considéré comme ayant des vertus médicinales : on le faisait brûler pour produire une fumée agréable pour les personnes malades. Comme souvent dans les traditions, les aspects spirituel et médical sont mêlés. Concernant l’Homme des Glaces, nous avons bien noté que les bouts de F. betulina étaient enfilés sur une lanière de cuir de façon élaborée. S’il s’était agi d’un simple transport, ils auraient été placés sans perforation dans un récipient. On peut donc penser que les morceaux de F. betulina jouaient un rôle spirituel et médicinal. Robert Blanchette évoque aussi l’importance d’un autre champignon, Fomitopsis officinalis, aux propriétés médicinales pour les Amérindiens et leurs chamanes qui l’appellent “le pain des fantômes”. Les chamanes utilisaient des masques sculptés dans ces polypores pour effectuer des rites destinés à guérir certaines maladies. À leur mort, les masques étaient placés à la tête de la tombe et protégeaient l’esprit des chamanes. En Autriche, des fructifications de polypore du bouleau étaient sculptées pour protéger les animaux de ferme de la malchance. Le fragment conique du polypore d’Ötzi pourrait évoquer une sculpture qui n’aurait pas été très bien conservée. On pourrait donc considérer qu’Ötzi était un chamane qui portait sur lui, comme un talisman, ces deux fragments d’un champignon aux vertus médicinales et spirituelles. Rappelons que les affaires d’Ötzi n’ont pas été pillées, ce qui laisse supposer qu’on ne voulait pas s’approprier ses objets : c’était peut-être un personnage important.

The Conversation

Hubert Voiry est l'auteur de l'ouvrage « 10 champignons qui ont changé la vie des hommes », publié aux éditions Actes Sud dont ce texte est tiré.

26.11.2025 à 11:25

L’Univers a-t-il un début ? Le Big Bang contre la théorie de l’état stationnaire

Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris
L’histoire de l’Univers a attisé de nombreux débats parmi les physiciens. Au début du XXᵉ siècle, la bataille fait rage entre Big Bang et état stationnaire.
Texte intégral (2374 mots)

La question de l’évolution de l’Univers a attisé de nombreux débats au cours de l’histoire de la physique. Au début du XXe siècle, deux camps de scientifiques s’affrontèrent : d’un côté, les tenants d’un Univers stable et ayant toujours existé, de l’autre, les physiciens qui adhèrent au modèle d’un atome primitif, ancêtre de notre théorie du Big Bang.


Au cours du XXe siècle, la cosmologie a été bouleversée par deux visions concurrentes du Cosmos. D’un côté, Georges Lemaître proposait l’hypothèse d’un « atome primitif », précurseur du Big Bang, selon laquelle l’Univers a une histoire et un commencement. De l’autre, Fred Hoyle, Thomas Gold et Hermann Bondi défendaient en 1948 une alternative : l’état stationnaire, un modèle où l’Univers, en expansion, reste inchangé à grande échelle grâce à une création continue de matière.

Cette théorie séduisait par son élégance : elle évitait l’idée d’un début absolu et renouait avec de vieilles intuitions philosophiques – puisqu’elles remontent à la Grèce antique – selon lesquelles le Cosmos était éternel et immuable. Mais elle allait bientôt se heurter à l’épreuve des observations. Le déclin de cette théorie fascinante s’inscrit dans une querelle scientifique majeure, au terme de laquelle le modèle de l’atome primitif de Georges Lemaître s’est imposé.

Le modèle de l’état stationnaire : un Univers éternel et immuable

En 1948, Fred Hoyle, Thomas Gold et Hermann Bondi introduisent le modèle cosmologique de l’état stationnaire. Leur approche repose sur deux principes fondamentaux. D’une part, le principe cosmologique parfait : non seulement l’Univers est homogène et isotrope dans l’espace – cela signifie qu’à grande échelle, l’Univers présente les mêmes propriétés en tout point et dans toutes les directions d’observation, aucun lieu ni direction n’est privilégiés – mais il l’est aussi dans le temps – ses propriétés sont globalement les mêmes à toutes les époques. D’autre part, ils postulent la création continue de matière pour compenser l’expansion observée de l’Univers mise en évidence par Hubble, de la matière est continuellement créée à un rythme très faible (de l’ordre d’un atome d’hydrogène par mètre cube tous les milliards d’années).

Ce modèle évite un commencement à l’Univers, et par conséquent la question philosophique et scientifique de la création de quelque chose à partir du néant. Il offre un cadre élégant, statique à grande échelle, dans lequel l’Univers n’a ni origine ni fin. D’un point de vue philosophique, il s’inscrit dans la continuité d’une vision éternelle du Cosmos, une position qui était majoritaire parmi les savants de l’Antiquité jusqu’au XVIIIe siècle, une idée déjà défendue par les stoïciens ou Aristote. À noter qu’Aristote s’interroge sur les limites de l’Univers et rejette l’idée d’un Univers infini, qu’il juge physiquement insoutenable.

Pourquoi le modèle de l’état stationnaire a-t-il séduit ?

Le modèle de l’état stationnaire a longtemps bénéficié d’un certain prestige pour plusieurs raisons. D’abord, sa simplicité philosophique, que l’on vient de décrire, mais aussi sa stabilité mathématique, puisqu’il repose sur des solutions simples des équations cosmologiques formulées par Einstein dans le cadre de sa relativité générale. Enfin, il séduit aussi du fait de son esthétique scientifique : un Univers inchangé dans le temps apparaît comme harmonieux et prévisible.

Le modèle de l’état stationnaire avait donc tout pour plaire. Sûr de sa théorie, c’est Fred Hoyle, en voulant se moquer et tourner en dérision le modèle concurrent de l’atome primitif qu’il considérait comme absurde, qui forge le terme de Big Bang lors d’une émission de radio sur la BBC en 1949. Et pourtant…

Le modèle de l’atome primitif de Lemaître : un précurseur du Big Bang

Avant même la formulation du Big Bang moderne tel que nous le concevons aujourd’hui, le prêtre et physicien belge Georges Lemaître avait développé en 1931 une hypothèse audacieuse : le modèle de l’atome primitif. Selon lui, l’Univers aurait été créé à partir de la désintégration d’un « atome cosmique », un point originel dense et chaud, à l’origine de l’expansion de l’espace. Il complète ainsi un modèle qu’il avait commencé à formuler dès 1927, dans lequel il proposait déjà un Univers en expansion.

Photo d’époque en noir et blanc des trois scientifiques
George Lemaître, au centre, en compagnie d’Albert Einstein, à droite, et de Robert Andrews Millikan à gauche. Wikimedia

Lemaître s’appuie sur les solutions dynamiques des équations d’Einstein et sur les observations de Edwin Hubble, astronome américain ayant découvert que les galaxies s’éloignent des unes des autres. Il conçoit un Univers en expansion, mais doté d’un passé à la fois physique et avec un commencement. Lemaître imaginait l’atome primitif comme un noyau contenant toute la matière de l’Univers dont la fission aurait déclenché l’expansion cosmique. Il interprétait les rayons cosmiques, récemment découverts, comme des résidus de cette désintégration initiale. Cette hypothèse s’est avérée inexacte puisqu’ils proviennent en réalité de phénomènes astrophysiques situés dans notre environnement cosmique proche.

Contrairement à Hoyle, il accepte la notion de début sans lien avec une quelconque création religieuse, qu’il considère en tant qu’ecclésiaste comme une notion philosophique et non pas comme un événement particulier. Le modèle de l’atome primitif est le précurseur direct de ce que l’on appellera par découvertes successives le modèle du Big Bang, qui s’imposera plus tard, notamment grâce à ses prédictions observables.

Les preuves observationnelles contre l’état stationnaire

Malgré son attrait initial, le modèle de l’état stationnaire a commencé à vaciller face à des données de plus en plus précises. Le coup le plus dur arrive en 1964, quand Arno Penzias et Robert Wilson détectent par hasard un signal radio bruité provenant de toutes les directions d’observation. Ce bruit, appelé rayonnement cosmologique, est en fait la lueur fossile laissée par l’Univers très jeune, exactement comme l’avaient prédit les partisans du Big Bang. Le modèle stationnaire, lui, n’a aucun moyen d’expliquer un tel vestige. Le fond diffus cosmologique, découvert en 1965, est le témoin le plus direct du Big Bang. Ses détails ont ensuite été étudiés par les satellites COBE (1992), WMAP (2003) et Planck (2009).

Trois cartes du fond diffus cosmologiques au fil du temps, selon les premières mesures de Penzias et Wilson puis suite aux mesures des missions spatiales COBE et WMAP
Avec les missions spatiales successives, le fond diffus cosmologique a pu être mesuré de plus en plus précisément. Son existence-même est un argument en faveur du modèle du Big Bang. NASA/Wikimedia

D’autres indices vont dans le même sens : les galaxies lointaines – dont l’image qui nous parvient d’elle date du moment où elles étaient encore jeunes – n’ont pas la même apparence que les galaxies actuelles. De plus, les quasars, sortes de noyaux galactiques hyperactifs, étaient bien plus nombreux dans le passé qu’aujourd’hui. Ces différences montrent que l’Univers évolue au fil du temps, contrairement à ce qu’affirmait l’état stationnaire.

Enfin, le Big Bang prédit avec une grande précision les proportions des éléments légers (hélium, deutérium, lithium) formés durant les toutes premières minutes. Les mesures des éléments fossiles qui sont parvenus jusqu’à nous confirment ces valeurs. Le modèle stationnaire, qui n’inclut pas de phase chaude et dense initiale, est incapable de les expliquer.

L’évolution de la cosmologie moderne

Face à ces observations, la communauté scientifique adopte progressivement le modèle du Big Bang comme modèle standard. Pourtant, Fred Hoyle, dans les années 1990, refusant d’abandonner son hypothèse, propose un modèle dit quasi stationnaire, mais il reste marginal.

Aujourd’hui, le modèle ΛCDM (Lambda Cold Dark Matter), une version étendue du Big Bang qui intègre la constante cosmologique, l’idée selon laquelle il existe une minuscule énergie du vide, identique partout, exerçant une pression qui accélère l’expansion de l’Univers, est considéré comme le cadre le plus complet pour décrire l’évolution de l’univers. Introduite par Einstein en 1917 pour contrecarrer l’effet de la gravité dans un Univers qu’il pensait lui-même statique, elle a été réhabilitée sous le nom d’énergie sombre pour expliquer l’accélération observée, est considéré comme le cadre le plus complet pour décrire l’évolution de l’Univers.

Le modèle de l’état stationnaire illustre un cas typique d’élégance théorique confrontée à la rigueur de l’expérimentation. Cette controverse a stimulé les débats, inspiré des développements mathématiques et permis une meilleure compréhension de ce qu’est une bonne théorie scientifique : cohérente, testable, et surtout, réfutable.

Elle rappelle aussi que la science avance non par dogme, mais par confrontation avec la réalité du cosmos. Et si certaines théories comme celle de la simulation ou du multivers flirtent aujourd’hui avec la frontière de ce que l’on est capable de tester, elles perpétuent une tradition millénaire : tenter de comprendre ce qui, depuis toujours, nous dépasse.

The Conversation

Waleed Mouhali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.11.2025 à 11:25

Votre chien ou chat vieillit ? Des gestes simples pour prolonger sa qualité de vie

Sara Hoummady, DMV, PhD, Associate professor in ethology and animal nutrition, UniLaSalle
Comment accompagner chiens et chats dans leur vieillissement ? Les conseils pratiques de spécialistes en sciences vétérinaires (alimentation, aménagement, comportements à surveiller, etc.).
Texte intégral (3179 mots)
En vieillissant, les besoin des animaux de compagnie évoluent. Ginger/The Conversation, CC BY-ND

Déjà, ses premiers poils gris. Votre chien ou votre chat a pris un petit coup de vieux. Comment prendre soin de lui à présent ? Des chercheurs se sont penchés sur la question et prodiguent quelques conseils faciles à mettre en œuvre.


En France, avec une espérance de vie moyenne de 11,3 ans chez les chiens comme chez les chats, la gériatrie animale est devenue indispensable. Les connaissances progressent rapidement pour mieux accompagner ces animaux. On sait désormais que quelques aménagements simples améliorent nettement le confort et la qualité de vie d’un chat ou d’un chien âgé. L’essentiel pour les propriétaires est de ne pas rester observateur passif du vieillissement de leur compagnon à quatre pattes.

À quel âge mon chien ou mon chat peut-il être considéré comme âgé ?

Une recherche portant sur plus de deux millions de chats et plus de quatre millions de chiens a permis de mieux définir leurs différents stades de vie.

Chez le chat, l’entrée dans le « troisième âge » se situe autour de 10 ans. Le « troisième âge » comprend le stade mature, senior et super-senior.

Selon cette même étude, pour le chien, la situation est moins uniforme : la vitesse de vieillissement dépend fortement de la taille.

  • Les chiens de petit format (toy et small, des races dont le poids est inférieur à 9 kg, comme les chihuahas ou les cavalier king charles) entrent dans le troisième âge vers 7 ans, puis deviennent seniors autour de 12 ans.

  • Les chiens de format moyen à grand, de plus de 9 kg, comme les welsh corgis, les golden retrievers ou les bergers australiens par exemple, y accèdent plus tôt : environ 6 ans pour le début du troisième âge, puis 10 ans pour le stade sénior.

Golden retriever âgé allongé
Même super-senior, ce golden retriever peut conserver une bonne qualité de vie. Nhung Le/Unsplash, CC BY

Il est important d’être rassuré : passer dans ce nouveau stade ne signifie absolument pas que “la fin” approche. Cela indique surtout qu’il est temps d’être plus attentif à son compagnon et d’adapter progressivement son suivi, son environnement et ses soins pour l’aider à vieillir dans les meilleures conditions.

Qu’est-ce qu’un vieillissement sain ? Comment l’évaluer chez son animal ?

Avant de parler de « vieillissement sain », il est utile de rappeler ce qu’est le vieillissement : un processus naturel, progressif et inévitable. Avec le temps, les animaux tolèrent moins bien les stress de leur environnement et leurs cellules accumulent des dommages, ce qui entraîne des modifications physiologiques variées.

Qu’entend-on alors par un chien ou un chat vieillissant « en bonne santé » ? Un récent article de consensus auquel j’ai participé propose une définition adaptée à nos animaux de compagnie : un animal âgé en bonne santé est celui qui conserve suffisamment de capacités et de résistance pour répondre à ses besoins physiques, comportementaux, sociaux et émotionnels, tout en maintenant une relation stable et positive avec son humain.

Certains signes sont tout à fait normaux : poils qui grisonnent, léger tartre, peau plus fine, perception sensorielle un peu diminuée mais sans impact notable sur la qualité de vie.

gros plan cocker
Quelques changements physiques sont tout à fait normaux. Ava Tyler/Unsplash, CC BY

En revanche, des difficultés locomotrices entravant l’accès aux ressources (difficulté à se lever, à monter les escaliers ou à interagir facilement avec vous) ne doivent pas être considérées comme de simples manifestations de l’âge. Il en va de même avec les premiers signes de dysfonction cognitive (un syndrome qui présente quelques similitudes avec Alzheimer), lorsqu’un chien ou un chat a du mal à retrouver sa gamelle ou semble perdu dans la maison, par exemple. Ces cas nécessitent un avis vétérinaire.

La qualité de vie devient donc le critère central pour évaluer si un animal suit une trajectoire de vieillissement harmonieuse. Chez le chien et le chat, on utilise désormais la notion de fragilité, issue de la gériatrie humaine (voir tableau ci-dessous).

Comment évaluer la fragilité de son animal ?

Les animaux classés comme fragiles sont plus susceptibles de développer des maladies et doivent faire l’objet d’un suivi plus rapproché.

L’intérêt majeur de cette approche est que, comme chez l’humain, la fragilité repérée tôt pourrait parfois être atténuée. D’où l’importance d’un dépistage régulier et d’un accompagnement précoce pour soutenir au mieux nos compagnons âgés.

Quelques aménagements à mettre en place

La première étape consiste à rendre l’environnement de l’animal plus accessible afin qu’il puisse atteindre facilement toutes ses ressources : nourriture, eau, lieux de repos, espaces de cachette, zones d’interaction… De simples aménagements peuvent déjà faire une vraie différence : petits escaliers pour monter sur le canapé, chauffeuses ou coussins fermes et peu hauts, gamelles surélevées pour les chiens et chats souffrant d’arthrose.

Très beau chat roux sur un coussin rond
L’utilisation de coussins hauts ou chauffeuses permet au chat d’être en hauteur, avec un accès facilité. Ginger/The Conversation, CC BY-ND

Multiplier les points d’accès est également utile : deux ou trois zones d’alimentation, plusieurs endroits pour dormir, et davantage de litières, faciles à enjamber. Certains bacs du commerce sont trop hauts pour des chats arthrosiques ; un plateau large à rebord bas peut être bien plus confortable.

Maintenir une relation apaisée et positive apparaît essentiel. Un comportement jugé « indésirable » doit toujours être investigué avec un vétérinaire et un comportementaliste (ou un vétérinaire comportementaliste) : il peut en effet traduire un besoin, un inconfort ou une difficulté. Un chat qui griffe le tapis plutôt que son arbre à chat, par exemple, peut simplement chercher une position moins douloureuse. Certains animaux deviennent aussi plus anxieux ou plus réactifs avec l’âge ou certaines conditions médicales ; il est alors important d’en comprendre la cause plutôt que de sanctionner, au risque d’abîmer la relation et de ne pas régler la problématique.

La stimulation cognitive et physique doit se poursuivre, mais en s’adaptant aux capacités de l’animal. Les « puzzle feeders »(ou gamelles interactives, des bols où les animaux doivent résoudre des jeux pour avoir leur ration) restent intéressants, à condition d’être choisis en fonction de son état : un tapis de fouille, une gamelle interactive à pousser du nez seront préférables à un système demandant des mouvements complexes des pattes. Les jeux, les apprentissages et les petits entraînements restent bénéfiques ; il suffit parfois de raccourcir les séances et d’utiliser des récompenses très appétentes (petits morceaux de blanc de poulet ou de saucisses…).

Chien dans un sac
L’utilisation d’un sac peut permettre à votre animal de prolonger son accès à l’extérieur. Treddy Chen/Unsplash, CC BY

Les promenades peuvent être adaptées notamment en utilisant des sacs confortables et sécuritaires pour porter le chien lorsqu’il est trop fatigué, que ce soit pour une partie ou l’ensemble de la balade, l’important étant de continuer à ce que l’animal ait accès à l’extérieur.

L’alimentation joue enfin un rôle majeur dans l’accompagnement des animaux âgés. Le vieillissement entraîne une modification de la digestion et une perte progressive de masse musculaire. Il est donc recommandé de privilégier une alimentation facilement digestible, dont l’odeur et le goût attirent votre animal, et formulée spécifiquement pour les besoins des seniors. Les rations de viande crue sont à éviter : elles sont souvent déséquilibrées en minéraux, ce qui peut être délétère pour les animaux âgés, particulièrement sensibles aux excès de phosphore ou aux rapports calcium/phosphore inadaptés. Elles présentent également un risque sanitaire accru alors que leur système immunitaire est moins performant.

En revanche, combiner une alimentation sèche (croquettes) et humide (terrine, mousses…) est souvent bénéfique. Une ration cuite et faite maison (en suivant les conseils d’un vétérinaire) peut aussi aider un animal à retrouver l’appétit. Et pour les plus difficiles, une astuce simple peut suffire : tiédir légèrement l’aliment humide pour en renforcer l’odeur et la rendre plus attirante.

À quel moment faire intervenir le vétérinaire ?

Les visites de suivi chez le vétérinaire restent indispensables, notamment pour maintenir à jour le protocole vaccinal et le déparasitage. Avec l’âge, le système immunitaire perd en efficacité : un animal senior est donc plus vulnérable et nécessite une protection régulière contre les maladies infectieuses et les parasites.

Les consultations de gériatrie ont pour objectif de suivre l’évolution du vieillissement qui est propre à chaque individu. La première est souvent la plus longue : elle permet un échange approfondi et inclut, lorsque nécessaire, des examens complémentaires. Ces premiers éléments serviront de référence pour les visites suivantes. L’idéal est d’entamer ce suivi dès le début du « troisième âge ». La fréquence des consultations dépend ensuite de la trajectoire de l’animal : tous les six mois si des signes de fragilité apparaissent, ou une fois par an si son état reste stable.

L’enjeu n’est plus seulement d’allonger la durée de vie de nos compagnons, mais surtout de prolonger leur vie en bonne santé, en préservant leur qualité de vie le plus longtemps possible – une démarche qui rejoint celle adoptée pour les humains.

The Conversation

Sara Hoummady est membre de l'AFGASP (Association Française de Gériatrie Animale et de Soins Palliatifs). Elle a reçu la bourse de la FVE (Federation Veterinaire Européenne) pour ses travaux sur le vieillissement félin. Elle a fait partie d'un comité de réflexion sur le vieillissement sain chez le chien et le chat organisé par un petfooder.

25.11.2025 à 15:55

Et si l’accent « neutre » n’existait pas ?

Marc Chalier, Maître de conférences en linguistique française, Sorbonne Université
Malgré une crainte récurrente, les accents ne sont pas près de disparaître, et l’accent prétendument « neutre » n’a jamais existé autrement que dans nos représentations fantasmées.
Texte intégral (1848 mots)
Croire que l’on n’a pas d’accent ou que l’on a un accent « neutre » revient bien souvent à ne pas s’apercevoir que l’on en effectivement a un. Pixabay, CC BY

À en croire un sondage récent, les accents régionaux seraient en train de s’effacer. Derrière cette inquiétude largement relayée se cachent deux réalités que nous connaissons tous mais que nous préférons souvent oublier : la prononciation, par nature éphémère, change constamment et le nivellement actuel des accents n’a rien d’exceptionnel. Quant à l’« accent neutre » auquel nous comparons ces accents régionaux, il n’a jamais existé ailleurs que dans nos imaginaires linguistiques.


Chaque année ou presque, un sondage annonce que les accents seraient « en voie de disparition ». La dernière étude en date, publiée en septembre 2025 par la plateforme Preply et largement propagée par le biais des réseaux sociaux, va dans ce sens : plus d’un Français sur deux (55 %) estimerait que les accents régionaux disparaissent. De manière assez remarquable, cette inquiétude serait surtout portée par les jeunes : près de 60 % des participants de 16 à 28 ans disent constater cette disparition. Cette crainte occulte pourtant deux réalités essentielles : un accent n’est jamais figé, et l’idée d’un accent « neutre » relève davantage du mythe que de la réalité.

L’accent « neutre » est une illusion

Dans les représentations de bon nombre de francophones, il existe une prononciation « neutre » sans marque régionale ou sociale que beaucoup considèrent aussi comme la « bonne prononciation ». Mais cette vision ne résiste pas à l’analyse. Tous les modèles de prononciation avancés jusqu’à aujourd’hui (par exemple, le roi et sa cour au XVIIe siècle, plus tard la bourgeoisie parisienne, et récemment les professionnels de la parole publique, notamment dans les médias audiovisuels) ont en commun un ancrage géographique bien précis : Paris et ses environs, et parfois aussi la Touraine où les rois de France avaient leurs résidences d’été.

L’accent dit « neutre » est donc avant tout un accent parisien. Et la plupart des locuteurs non parisiens le reconnaîtront comme tel. Il n’est pas dépourvu de traits caractéristiques qui nous permettent de le reconnaître, mais il est simplement l’accent du groupe social dominant. D’ailleurs, une enquête menée auprès de différentes communautés parisiennes dans les années 2000 le montrait déjà : les représentations de l’accent parisien varient fortement selon la perspective du locuteur, interne ou externe à la communauté parisienne.

Ainsi, hors de la capitale, de nombreux locuteurs associent Paris à un accent non pas « neutre », mais « dominant » et qu’ils associent implicitement au parler des couches sociales favorisées de la capitale. À Paris même, les perceptions du parler parisien sont beaucoup plus hétérogènes. Certains locuteurs affirment ne pas avoir d’accent, d’autres en reconnaissent plusieurs, comme l’« accent du 16e » (arrondissement) associé aux classes favorisées, « l’accent parigot » des anciens quartiers populaires, ou encore l’« accent des banlieues » socialement défavorisées. Cette pluralité confirme donc une chose : même à Paris, il n’existe pas de prononciation uniforme, encore moins neutre.

Les différentes formes de prestige d’un accent

Dans une large enquête sur la perception des accents du français menée avec mes collègues Elissa Pustka (Université de Vienne), Jean-David Bellonie (Université des Antilles) et Luise Jansen (Université de Vienne), nous avons étudié différents types de prestige des accents régionaux en France méridionale, au Québec et dans les Antilles. Nos résultats montrent tout d’abord à quel point cette domination de la région parisienne reste vivace dans nos représentations du « bon usage ». Dans les trois régions francophones, les scores liés à ce que l’on appelle le « prestige manifeste » de la prononciation parisienne sont particulièrement élevés. Il s’agit de ce prestige que l’on attribue implicitement aux positions d’autorité et que les locuteurs interrogés associent souvent à un usage « correct » ou « sérieux ». Mais les résultats montrent également l’existence d’un « prestige latent » tout aussi marqué. Il s’agit là d’un prestige que les accents locaux tirent de leur ancrage identitaire. Ce sont souvent les variétés régionales qui sont ainsi caractérisées comme étant « chaleureuses » ou « agréables à entendre », et elles semblent inspirer la sympathie, la confiance, voire une certaine fierté.

Ces deux axes expliquent aussi qu’on puisse, dans la même conversation, dire d’un accent qu’il « n’est pas très correct » tout en le trouvant « agréable à entendre ». Ce jeu de perceptions montre bien que la prétendue neutralité du français « standard » n’existe pas : elle est simplement le reflet d’un équilibre de pouvoirs symboliques continuellement renégocié au sein de la francophonie.

L’émancipation des accents « périphériques »

Notre étude montre également que cette association de l’accent parisien au prestige manifeste et des accents dits « périphériques » au prestige latent n’est pas fixée à tout jamais. Dans les trois espaces francophones étudiés, les accents autrefois perçus comme des écarts à la norme deviennent peu à peu porteurs d’un prestige plus manifeste. Ils commencent donc à s’imposer comme des modèles légitimes de prononciation dans de plus en plus de contextes institutionnels ou médiatiques autrefois réservés à la prononciation parisienne.

Ce mouvement s’observe notamment dans les médias audiovisuels. Au Québec, par exemple, les journalistes de Radio-Canada assument et revendiquent aujourd’hui une prononciation québécoise, alors qu’elle aurait été perçue comme trop locale il y a encore quelques décennies. Cette prononciation n’imite plus le français utilisé dans les médias audiovisuels parisiens comme elle l’aurait fait dans les années 1960-1970, mais elle intègre désormais ces traits de prononciation propres au français québécois qui étaient autrefois considérés comme des signes de relâchement ou de mauvaise diction.

Ces changements montrent que la hiérarchie traditionnelle des accents du français se redéfinit. L’accent parisien conserve une position largement dominante, mais son monopole symbolique s’effrite. D’autres formes de français acquièrent à leur tour des fonctions de prestige manifeste : elles deviennent acceptables, voire valorisées, dans des usages publics de plus en plus variés. Ce processus relève d’une lente réévaluation collective des modèles de légitimité linguistique.

Une dynamique normale du changement

Revenons à la question des changements perçus dans les accents régionaux évoquée en introduction. La langue est, par nature, en perpétuel mouvement, et la prononciation n’y échappe pas : certains traits s’atténuent, d’autres se diffusent sous l’effet de facteurs notamment sociaux. La mobilité des locuteurs, par exemple, favorise le contact entre des variétés de français autrefois plus isolées les unes des autres. Ce phénomène est particulièrement visible dans des métropoles comme Paris, Marseille ou Montréal, où se côtoient quotidiennement des profils linguistiques hétérogènes. À cela s’ajoute l’influence des médias, amorcée avec la radio et la télévision au début du XXe siècle et aujourd’hui démultipliée par les réseaux sociaux. Ces dynamiques expliquent en partie le nivellement actuel de certains accents, avec la raréfaction de certains traits locaux. Mais cela ne signifie pas pour autant la disparition de toute variation. Des mouvements parallèles de différenciation continuent d’exister et font émerger de nouveaux accents, qu’ils soient liés à l’origine géographique des locuteurs ou à leur appartenance à un groupe social.

À côté de ces changements « internes à la langue », les valeurs sociales que l’on associe à ces variétés évoluent elles aussi. Les frontières de ce qui paraît « correct », « populaire », « légitime » se déplacent avec les représentations collectives. Ainsi, aussi bien les accents que les hiérarchies qui les encadrent se reconfigurent régulièrement. Une observation qui distingue notre époque, cependant, c’est le fait que les normes langagières ne se redéfinissent plus seulement « par le haut » sous l’influence « normative » d’institutions comme l’Académie française, mais aussi « par le bas » sous l’effet des usages de la langue quotidienne qui s’imposent simplement par la pratique.

En somme, même si l’on redoute la disparition des accents, la variation continuera toujours de suivre son cours. Nul ne peut la figer. Et l’accent prétendument « neutre » n’a jamais existé autrement que dans nos représentations fantasmées. Ainsi, la prochaine fois que vous entendez quelqu’un vous dire qu’il ou elle ne pense pas avoir d’accent, souvenez-vous que ce n’est pas qu’il n’en a pas, mais que c’est simplement le sien qui (jusqu’ici) a dominé – pour reprendre les propos de Louis-Jean Calvet – dans la Guerre des langues et les politiques linguistiques (1987).

The Conversation

Marc Chalier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.11.2025 à 15:50

Boissons au cannabis : comment une faille juridique a créé une industrie de plusieurs milliards de dollars que le Congrès veut maintenant interdire

Magalie DUBOIS, Docteur en Economie du vin, Burgundy School of Business
Robin Goldstein, Director, Cannabis Economics Group, University of California, Davis
Une disposition passée inaperçue dans le budget fédéral américain signé par le président Trump pourrait bouleverser l’industrie florissante des boissons au THC.
Texte intégral (1698 mots)

Une disposition passée inaperçue dans le budget fédéral des États-Unis signé par le président Trump pourrait bouleverser une industrie florissante : celle des boissons au THC.


Le 12 novembre 2025, le Congrès américain a voté une loi limitant les produits à base de chanvre à 0,4 mg de delta-9-tétrahydrocannabinol, autrement dit THC, par contenant. Cette mesure, après une période de grâce d’un an, interdit de facto la plupart des nombreuses boissons, gommes et cigarettes électroniques (« vapes ») au THC actuellement vendues dans les stations-service, supermarchés et bars américains. Pour comprendre l’importance de cette nouvelle, il faut d’abord expliquer comment ce marché fonctionne, et pourquoi cette interdiction pourrait être appliquée… ou ignorée.

Cannabis, chanvre et THC : un peu d’histoire

La plante de cannabis contient plus de cent « cannabinoïdes », des composés chimiques qui interagissent avec le système endocannabinoïde humain. Le THC (tétrahydrocannabinol) est considéré principal responsable des effets psychoactifs. Légal aux États-Unis au XIXe siècle, le cannabis est progressivement interdit à partir de 1937, puis classé en 1970 comme narcotique de catégorie I – la plus strictement prohibée.

Depuis 1996, certains États américains ont commencé à légaliser le cannabis, d’abord à usage médical, puis récréatif à partir de 2012. Aujourd’hui, plus de 40 États l’autorisent sous une forme ou une autre, mais il reste illégal au niveau fédéral.

Dans ce contexte de contradictions entre lois fédérales et étatiques, une nouvelle distinction va tout changer : celle entre « cannabis » et « chanvre ».

Une industrie née d’un vide juridique

Vous n’en avez probablement jamais entendu parler, pourtant selon Fortune Business Insight le marché des boissons au THC génère déjà plus de 3 milliards de dollars (plus de 2,6 milliards d’euros) aux États-Unis.

Tout commence en 2018, lorsque le Farm Bill américain légalise le « chanvre » – défini comme du cannabis contenant 0,3 % ou moins de THC. L’objectif initial était de relancer l’industrie du chanvre industriel pour produire des textiles et des matériaux. Mais la loi contient une ambiguïté cruciale : ce seuil de 0,3 % s’applique au poids à sec de la plante, sans préciser de norme pour les produits transformés.

Des industriels américains ont rapidement identifié une opportunité. Pour une gomme typique de 5 grammes contenant 10 milligrammes de THC, soit une dose standard, le THC ne représente que 0,2 % du poids total. Pour une boisson de 355 grammes (12 onces) la même dose, le THC ne représente que 0,003 % du poids total. Techniquement, ces produits sont du « chanvre » légal, même s’ils produisent des effets psychoactifs identiques au cannabis.


À lire aussi : Contre les insomnies, le cannabis thérapeutique présente-t-il un intérêt ?


Résultat : dès 2021, des boissons et gommes au THC psychoactif ont commencé à apparaître dans les magasins et les bars des États où aucune loi sur le cannabis récréatif n’existait.

L’innovation qui change tout

Concernant les boissons, cette faille juridique n’aurait jamais créé une industrie de plusieurs milliards de dollars sans une percée technologique cruciale apparue au début des années 2020, la nano-émulsion.

Le THC est une molécule lipophile qui se sépare naturellement de l’eau. Pendant des années, les fabricants ont tenté de créer des boissons stables au THC. Les émulsions traditionnelles prenaient de soixante à cent vingt minutes pour produire leurs effets : vitesse bien trop lente pour concurrencer ceux de l’alcool.

La nano-émulsion change la donne. En réduisant les gouttelettes de THC à l’échelle nanométrique, cette technologie permet au THC de se dissoudre efficacement dans l’eau et d’être absorbé par l’organisme en vingt minutes environ : un délai comparable à celui d’une bière ou d’un cocktail.

Pour la première fois, les boissons au THC peuvent se positionner comme des substituts fonctionnels aux boissons alcoolisées.

Le paradoxe du marché

L’innovation technologique ne suffit pas à expliquer le succès commercial. Les mêmes boissons au THC affichent des résultats diamétralement opposés selon leur canal de distribution.

Dans les États où le cannabis récréatif est légal (en Californie ou à New York, par exemple), les boissons au THC ne sont vendues que dans des dispensaires (boutiques spécialisées dans la vente de cannabis), où elles représentent moins de 1 % des ventes totales de cannabis. En cause : les consommateurs habitués des dispensaires ne s’y rendent pas pour acheter leurs boissons quotidiennes comme ils achèteraient de la bière, par exemple, mais plutôt pour acquérir des produits plus forts comme la fleur de cannabis et les cigarettes électroniques. Une boisson au THC à 7 dollars (6 euros) offre une dose unique, alors qu’une recharge de cigarette électronique à 15 dollars (près de 13 euros) en fournit entre dix et vingt. De plus, les dispensaires doivent également composer avec des contraintes de réfrigération et d’espace qui pénalisent les produits volumineux comme les canettes.

Dans les États où le cannabis récréatif n’est pas légal comme le Texas, la Floride ou la Caroline du Nord par exemple, la situation est différente. Ces mêmes boissons au THC, étiquetées « chanvre », sont distribuées dans les supermarchés et les bars aux côtés des boissons alcoolisées. Elles sont proposées à un prix inférieur (4 ou 5 dollars, soit 3 ou 4 euros) que dans les dispensaires, en raison d’une réglementation plus souple et plus avantageuse fiscalement. Des enseignes, comme les stations-service Circle K, les grandes surfaces Target ou la chaîne de restaurants Applebee’s, ont intégré ces produits à leur offre. D’après des sources internes, les boissons au THC représenteraient 12 % du chiffre d’affaires texan de Total Wine la plus grande chaîne américaine de distribution de boissons alcoolisées.

Contexte concurrentiel

La différence réside dans le contexte concurrentiel. Dans les supermarchés et les bars, les boissons au THC se placent face à la bière, au vin et aux spiritueux, un marché en déclin aux États-Unis, notamment chez les jeunes consommateurs.

Mais certains acteurs de l’industrie des boissons alcoolisées y voient une opportunité commerciale pour la vente sur place et à emporter. Un client ne consommant pas d’alcool et qui commandait autrefois un verre d’eau au bar peut désormais acheter un cocktail au THC et générer du chiffre d’affaires pour l’établissement.

Slate, 2022.

L’interdiction sera-t-elle appliquée ?

L’interdiction votée le 12 novembre 2025 entrera en vigueur dans un an. Elle rendra illégaux au niveau fédéral la plupart des produits au chanvre psychoactif actuellement commercialisés. Mais le Texas et plusieurs autres États, souvent conservateurs, ont déjà légalisé ces produits en légiférant au niveau étatique.

Cette contradiction entre la loi fédérale et les lois étatiques n’a rien d’inédit. Plus de 40 États américains ont légalisé le cannabis médical ou récréatif alors qu’il reste interdit au niveau fédéral. Dans la pratique, les forces de l’ordre locales appliquent les lois étatiques, non les lois fédérales. Le Texas, dont l’industrie du chanvre pèse 4,5 milliards de dollars (soit 3,8 milliards d’euros), rejoint ainsi les nombreux États dont les législations entrent en conflit avec Washington.

Une distinction juridique technique (le seuil de 0,3 % de THC en poids sec établi par le Farm Bill de 2018) a créé en quelques années une industrie de plusieurs milliards de dollars qui concurrence directement le marché des boissons alcoolisées. Malgré la nouvelle tentative du Congrès pour l’empêcher, cette industrie pourrait suivre la trajectoire du cannabis récréatif : interdite au niveau fédéral, mais florissante dans les États qui choisissent de ne pas appliquer cette nouvelle mesure.

The Conversation

Robin Goldstein a reçu des financements de l'Université de Californie.

Magalie DUBOIS ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.11.2025 à 15:46

Combien de CO₂ votre voyage en avion a-t-il vraiment émis ? Comment vérifier les calculs d’empreinte carbone de l’aérien

Finn McFall, KTP Associate, University of Surrey
Xavier Font, Professor of Sustainability Marketing, University of Surrey
De nombreux calculateurs ignorent une large part de l’impact climatique des vols, ou bien s’appuient sur des hypothèses trop simplifiées, ce qui limite la fiabilité de leurs estimations.
Texte intégral (2362 mots)
La plupart des calculateurs d’empreinte carbone de l’aérien livrent des chiffres largement sous-estimés. Vladimir Sukhachev/Shutterstock

D’un outil à l’autre, l’empreinte carbone évaluée pour un vol en avion peut varier considérablement. Cela tient aux hypothèses de calcul, au périmètre exact de celui-ci et à la source des données, qui peuvent être à l’origine de nombreuses incertitudes. Pour un usage éclairé de ces calculateurs, utiles mais approximatifs, par les voyageurs aériens, il est indispensable de mieux en cerner les limites.


Lorsque deux personnes réservent le même vol, elles peuvent penser avoir une empreinte carbone très différente, si elles sont passées par deux calculateurs en ligne différents. En effet, de nombreux calculateurs d’empreinte carbone passent sous silence une large partie de l’impact climatique du transport aérien – ou encore, s’appuient sur des hypothèses trop simplifiées.

Le point sur leurs limites et pourquoi elles sont importantes. Malgré tout, quelques précautions de bon sens peuvent vous aider à évaluer les estimations fournies.

Le CO₂ ne suffit pas

Si un outil en ligne ne rend compte d’un résultat qu’en kilogramme de dioxyde de carbone (CO2), il omet deux autres groupes d’émissions importants.

En effet, l’équivalent CO2 est une unité de mesure qui convertit l’impact des autres gaz à effet de serre, tels que le méthane, en équivalent dioxyde de carbone à l’aide de données scientifiques qui montrent leur potentiel de réchauffement climatique. Si un calculateur n’affiche que le CO2, il sous-estime donc l’empreinte carbone.

Un calculateur qui fait référence à des émissions équivalent CO2 inclut ainsi le CO2 ainsi que les autres émissions de gaz à effet de serre, ce qui le rend plus complet. Les bonnes pratiques citent le chiffre utilisé et renvoient au tableau des métriques utilisées pour le calcul. (par exemple, la valeur retenue pour le potentiel de réchauffement global du gaz considéré, ou PRG, ndlr).

Les impacts non liés au CO2 doivent également être pris en compte. Concrètement, il s’agit de l’effet sur le climat des oxydes d’azote, de la vapeur d’eau et des traînées de condensation émis par les avions. Ceux-ci emprisonnent la chaleur et agissent comme une couverture qui réfléchit la chaleur de la Terre vers le sol. Des recherches montrent que ces effets non liés au CO2 peuvent être comparables, voire supérieurs à ceux du CO2 seul, sur des horizons temporels moyens.

Cela signifie qu’un calcul basé uniquement sur les émissions de CO2 sous-estime l’impact climatique total du transport aérien, car il ne tient pas compte de l’effet des oxydes d’azote, de la vapeur d’eau et des traînées de condensation. L’ampleur des impacts non liés au CO2 varie en fonction de l’altitude, de la latitude, des conditions météorologiques et de l’heure de la journée, mais elle est trop importante pour être ignorée.

Les calculateurs devraient les quantifier de manière plus transparente, quitte à fournir un résultat avec un niveau d’incertitude chiffré. Les meilleurs calculateurs réalisent à la fois un calcul en équivalent CO2, puis prennent en compte les effets non liés au CO2.


À lire aussi : Impact du transport aérien sur le climat : pourquoi il faut refaire les calculs


Les avions ne volent pas vraiment en ligne droite

Une autre source de sous-estimation de l’empreinte carbone de l’aérien est le calcul des distances. De nombreux outils supposent un trajet dit « orthodromique » (c’est-à-dire, la distance la plus courte entre les aéroports de départ et d’arrivée compte tenu de la courbure de la Terre), auquel s’ajoute une petite distance fixe. Or, les vols réels sont influencés par les vents, les tempêtes, la congestion aérienne, les zones militaires à éviter et les fermetures d’espace aérien qui obligent à faire de longs détours. Même les itinéraires réguliers entre une ville A et une ville B peuvent changer quotidiennement en raison de ces variables.

Des études montrent que ces détours peuvent, en moyenne, atteindre un allongement de plus de 7,5 % de la distance totale, même en temps « normal » et sans parler de la situation géopolitique actuelle dans le monde. Or, une distance plus longue implique une consommation de carburant et des émissions plus importantes. Ainsi, si une calculatrice ne tient pas compte des déviations d’itinéraire, elle sous-estimera la consommation de carburant.

En utilisant les données historiques récentes observées sur un itinéraire donné, on peut ajuster ces estimations. De quoi mieux refléter la façon dont cet itinéraire est vraiment parcouru dans la pratique, et non pas dans des conditions idéales.

Quel périmètre les compagnies aériennes doivent-elles prendre en compte ?

Même lorsque la distance et les émissions de gaz à effet de serre sont correctement prises en compte, de nombreux outils éludent d’indiquer clairement le périmètre du calcul et ses limites, sans préciser ce qui est inclus ou exclus. Ainsi, de nombreux outils ne tiennent pas compte des émissions liées à l’extraction des matériaux pour construire les avions et aux activités pétrolières permettant de produire du carburant.

Une empreinte carbone complète et conforme aux normes en vigueur comprendrait les émissions « du puits au réservoir » (well-to-tank, ce qui intègre les étapes d’extraction, de raffinage et de transport du carburant), les services en vol et le cycle de vie des avions et même des aéroports.

fond jaune, avion miniature blanc et cahier blanc avec stylo
Certains calculateurs d’empreinte carbone pour le transport aérien se basent sur des hypothèses de calcul trop généreuses. EamesBot/Shutterstock

La norme internationale ISO 14083 de 2023, qui porte sur la quantification et la déclaration des émissions de gaz à effet de serre provenant des chaînes de transport, établit pourtant des règles communes. Les bons calculateurs s’alignent sur cette norme afin de rendre leur champ d’application explicite et comparable.

Mais les meilleurs calculateurs vont au-delà de ces exigences et couvrent l’ensemble des émissions liées au vol. Si un calcul d’empreinte carbone exclut les émissions en amont ou celles liées aux infrastructures aériennes, on peut s’attendre à ce que le résultat soit inférieur à celui qu’une analyse complète du cycle de vie livrerait.

L’allocation des émissions de l’appareil au passager

Le calcul des émissions par passager consiste à répartir l’impact climatique de l’avion entre les sièges occupés par les passagers et le fret (transport en soute). Or, la classe de cabine et la densité des sièges modifient l’espace disponible par passager. Les sièges en classe affaires ou en première classe peuvent donc avoir un impact par passager plusieurs fois supérieur à celui de la classe économique dans le même avion.

Les coefficients de remplissage (c’est-à-dire, le taux d’occupation d’un avion) modifient également ce calcul. Les passagers d’un avion à moitié plein devraient se voir attribuer deux fois plus d’émissions.

Les bonnes méthodes de calcul devraient utiliser des coefficients de remplissage et les plans de sièges spécifiques à chaque trajet, en fonction de la compagnie aérienne et de la saison, plutôt que des hypothèses globales généralisées.

Bagages en soute et transport de fret

Du point de vue du voyageur, il semble injuste qu’un passager voyageant uniquement avec un bagage à main bénéficie se voit allouer la même empreinte carbone qu’une personne ayant enregistré 30 kg de bagages. De fait, la plupart des calculateurs se basent sur un poids moyen unique pour les bagages. Le calcul est donc surestimé pour les voyageurs légers et sous-estimé pour les voyageurs lourds.

De meilleures approches permettraient aux utilisateurs de déclarer leurs bagages lors du calcul, ou d’appliquer des facteurs spécifiques à leur itinéraire.

De plus, la plupart des vols passagers transportent également du fret en soute. Si un calculateur attribue toutes les émissions de l’avion aux passagers, il surestime les chiffres par passager. Une pratique plus équitable consisterait à répartir les émissions entre les passagers et le fret aérien.

Comment faire mieux ?

Sur la base de récents travaux de recherche évalués par les pairs, voici une liste de contrôle que vous pouvez appliquer à tout calculateur de vol.

La prochaine fois que vous lirez une estimation de l’empreinte carbone de votre vol, demandez-vous si elle est :

  • complète : inclut-elle uniquement le CO2, un équivalent CO2 et les émissions hors CO2 ? Est-elle conforme à la norme ISO 14083 ou supérieure et couvre-t-elle l’ensemble des émissions générées par un passager aérien ?

  • précise : utilise-t-elle des méthodes modernes basées sur des données réelles régulièrement actualisées pour prédire la trajectoire de vol et la consommation de carburant ? Prend-elle en compte toutes les variables, y compris les facteurs de charge de l’appareil et les configurations des sièges à bord ?

  • transparente : les méthodes et les sources de données utilisées sont-elles indiquées avec leurs limites ? Ont-elles fait l’objet d’une évaluation par des pairs ?

  • communiquée efficacement : fournit-elle une ventilation claire des sources d’émissions de votre vol ? Est-elle facile à comprendre et à utiliser pour prendre des décisions ciblées en matière de climat ?

Lorsque les calculateurs cochent toutes ces cases, on peut faire passer le débat de l’examen d’un seul chiffre à l’action sur les principales causes. C’est à cette condition que le calcul de l’empreinte carbone, plutôt que de simples chiffres sur un écran, peut devenir un outil de changement.


À lire aussi : L’insolent succès des jets privés, entre empreinte carbone et controverses


The Conversation

Finn McFall travaille sur un partenariat de transfert de connaissances entre Therme Group et l'université du Surrey, cofinancé par UKRI via Innovate UK.

Xavier Font travaille pour l'université du Surrey. Il fait partie de l'équipe universitaire qui travaille sur un partenariat de transfert de connaissances entre Therme Group et l'université du Surrey, cofinancé par UKRI via Innovate UK.

25.11.2025 à 15:46

Comment lutter contre le changement climatique sans creuser les inégalités entre Nords et Suds ?

Rihi Yanis, Doctorant en économie politique du développement, Université Paris-Saclay
Une transition peut-elle advenir sans accroitre les inégalités ? Pour répondre à cette question, il faut revenir en arrière et ausculter les différentes dimensions de la justice climatique
Texte intégral (3832 mots)

Alors qu’à Belém, la COP30 a échoué à accélérer la lutte contre le changement climatique, une question demeure, abyssale : peut-on lutter contre le changement climatique sans accroître les inégalités entre populations ? En d’autres termes, peut-on œuvrer à une transition juste ? Pour répondre à cette question, il faut tout à la fois revenir en arrière et ausculter les différentes dimensions de la justice climatique.


Peut-on légitimement demander au Mozambique ou au Sénégal de renoncer à leurs ressources fossiles alors qu’ils remboursent chaque année davantage en dette extérieure qu’ils ne reçoivent d’aide climatique ? Comment construire une transition mondiale juste tandis qu’une partie des pays les plus vulnérables doivent s’endetter pour financer leur propre adaptation ? Et comment imaginer une trajectoire commune alors que les responsabilités historiques liées à l’exploitation des ressources des Suds continuent d’être ignorées ?

Voici quelques-unes des interrogations qui émergent lorsqu’on pense à une réponse globale au changement climatique dans un monde profondément inégal. Elles ont pour toile de fond une tension de plus en plus visible au cœur des politiques climatiques : la transition vers des économies décarbonées peine encore à se déployer sans reproduire les déséquilibres historiques, tant à l’intérieur des pays qu’à l’échelle internationale.

Dans ce contexte, l’idée de « transitions justes » prend de l’ampleur. Elle propose d’articuler l’action climatique autour de principes de justice, d’équité et de responsabilité historique. Pour de nombreux pays, notamment dans les Suds, les récits qui s’y rattachent deviennent un horizon éthique et politique essentiel pour penser les transformations écologiques à partir des réalités locales, des vulnérabilités propres et des capacités d’action inégales.

Des luttes ouvrières à l’agenda climatique mondial

Cette idée d’une transition juste n’est pourtant pas nouvelle. Elle puise ses origines dans les mouvements syndicaux états-uniens des années 1970, au moment où l’écologie politique émerge. À cette époque, Tony Mazzocchi, alors vice-président du syndicat des travailleurs du pétrole, de la chimie et de l’atome (Oil, Chemical and Atomic Workers Union, OCAW) défend un principe simple : les protections environnementales sont nécessaires, certes, mais leurs coûts ne doivent pas être supportés exclusivement par les travailleurs dans les secteurs les plus exposés.

Il propose donc la création du Superfund for Workers, destiné à indemniser les travailleurs affectés par les nouvelles régulations environnementales. Le fonds voit le jour en 1993, puis est rebaptisé Just Transition Fund en 1995, faisant entrer l’expression dans le vocabulaire politique.

Par la suite, dans les années 1990, la Confédération syndicale internationale (CSI) internationalise le concept. En amont de la COP15 de Copenhague (2009), elle mobilise syndicats et ONG pour rappeler que la transition écologique ne peut se faire au détriment des plus vulnérables. La transition juste s’inscrit dès lors au croisement du développement durable et de la lutte contre le changement climatique. Elle vise une reconnaissance claire de la nécessité de garantir la justice sociale dans les processus de transition et les stratégies de résilience climatique.

Mais à mesure qu’il circule entre institutions, gouvernements et organisations internationales, le concept se transforme. Avec son inscription subséquente dans le préambule de l’accord de Paris (2015), il glisse vers des cadres plus technocratiques, au risque de s’éloigner de sa dimension contestataire initiale.

Une même transition pour tous ?

Dans les Nords, les transitions justes sont généralement envisagées comme des mécanismes d’accompagnement social : reconversion professionnelle, soutien aux territoires dépendants des énergies fossiles, garanties sociales. L’enjeu est essentiellement domestique, le concept servant à limiter les effets sociaux de la décarbonation, sans remettre en question les fondements extractivistes et énergivores du modèle économique actuel.

Dans les Suds, la signification tend à être radicalement différente. En Amérique latine, en Afrique ou en Asie du Sud-Est, universitaires, mouvements sociaux et représentants gouvernementaux s’en saississent comme d’un objet de discours critique, parfois explicitement décolonial, pour questionner les règles du jeu global. Ici, les transitions justes incluent les dimensions internationales : les injonctions extérieures, la cohérence des politiques climatiques globales, les impacts socio-économiques transnationaux, les conditionnalités financières et la répartition mondiale des coûts et des opportunités.

Selon cette dynamique, les transitions justes apparaissent alors comme une rupture possible avec le paradigme dominant actuel. Là où depuis les années 1990 le développement durable s’est construit dans des cadres descendants, les propositions issues des Suds s’appuient plutôt sur des démarches ascendantes, portées par des syndicats, des mouvements sociaux ou des collectifs comme la Pan African Climate Justice Alliance ou Climate Strategies. Certaines coalitions comme Just Transition Africa, revendiquent, à titre d’exemple, une réappropriation souveraine des trajectoires de développement, fondée sur les besoins locaux et affranchie des conditionnalités financières internationales.

Ces voix posent, en creux, une interrogation essentielle : à qui profite réellement la transition, et qui en définit les règles ?

Les pays des Suds doivent-ils choisir entre développement et climat ?

Ce débat met également au jour un dilemme d’éthique climatique majeur : comment concilier le droit au développement des pays des Suds avec les contraintes globales de la décarbonation ? Les pays industrialisés ont bâti leur croissance sur l’exploitation massive des ressources naturelles, notamment dans les Suds, au prix d’une importante dette carbone. Les Suds, eux, sont aujourd’hui invités à limiter leur industrialisation, alors même que beaucoup n’ont pas encore atteint des niveaux de développement humain fondamentaux. Une situation inégale qui, encore aujourd’hui, demeure un facteur majeur de sous-développement et d’accroissement des inégalités à l’échelle mondiale.

Cela nous renvoie d’ailleurs au principe des « responsabilités communes mais différenciées », inscrit dans la déclaration de Rio (1992). Mais aussi, plus clairement, au bagage normatif de la notion même de développement. Réduire celui-ci à la seule croissance économique revient en effet à occulter sa dimension sociale, politique et environnementale, et crée des tensions avec d’autres droits essentiels.

Comme le rappelle le philosophe camerounais Thierry Ngosso, un « droit au développement » compris dans une perspective strictement productiviste peut devenir paradoxal dans la mesure où il risque de nuire précisément aux populations qu’il prétend protéger, en sacrifiant leurs conditions de vie ou leur environnement au nom de la croissance.

Or ce sont les groupes les plus pauvres, aux Suds comme aux Nords, qui subissent déjà le plus fortement les impacts du dérèglement climatique. L’enjeu consiste donc à articuler justice sociale et soutenabilité écologique en concevant des trajectoires de développement adaptées à la pluralité de société des Suds, plutôt que de reproduire des modèles hérités et inadaptés.


À lire aussi : Mesurer le bonheur pour mieux penser l’avenir : l’initiative du Bonheur Réunionnais Brut


La finance climatique perpétue-t-elle l’injustice ?

Penser des transitions justes, c’est aussi se pencher sur le financement climatique, qui cristallise une grande partie des tensions internationales. À la COP29, les négociations ont abouti, dans le cadre du New Collective Quantified Goal on Climate Finance à un compromis non contraignant prévoyant de tripler les financements climatiques publics destinés aux pays en développement, pour atteindre 300 milliards de dollars (un peu moins de 260 milliards d’euros) d’ici 2035, par rapport à ceux fixés en 2009.

L’accord prévoit également de mobiliser jusqu’à 1 300 milliards de dollars (soit plus de 1 125 milliards d’euros) par an à la même échéance, en combinant ressources publiques et privées. En outre, l’absence d’engagements fermes, ainsi que l’élusion de la question des modalités d’application et de fonctionnement du Fonds de réponse aux pertes et préjudices (Fund for responding to Loss and Damage), élément pourtant central de la justice climatique, ont suscité de vives critiques, notamment de la part de négociateurs africains et d’organisations de la société civile.

Frise montrant l'évolution du concept de transition juste.
Frise montrant l'évolution du concept de transition juste. Fourni par l'auteur

Mais au-delà des montants, c’est la nature même du financement qui pose problème. La majorité des fonds destinés aux pays en développement prennent la forme de prêts, souvent conditionnés à des projets d'atténuation jugés sur des critères de rentabilité. À l’inverse, l’adaptation, la résilience ou les réparations reçoivent des financements limités.

Cette logique entretient un cercle vicieux : en 2023, les pays en développement ont consacré plus de 1 400 milliards de dollars (soit plus de 1 210 milliards d’euros) au service de leur dette, bien davantage que les fonds reçus pour faire face à la crise climatique. Ainsi, loin de réduire les vulnérabilités, la finance climatique contribue souvent à les renforcer, limitant au passage leur marge de manœuvre pour investir dans des politiques écologiques transformatrices.

Dans la continuité, le Fund for responding to Loss and Damage créé à l’issue de la COP27, et temporairement géré par la Banque mondiale depuis 2024, est lui aussi illustratif de certaines tensions. Peut-on parler de justice climatique lorsque les créanciers, pour la plupart rattachés aux Nords, déterminent les modalités de financement des victimes du changement climatique ? Pour de nombreux acteurs des Suds, ces mécanismes perpétuent ainsi les logiques de dépendance et de domination, donnant lieu à des inégalités reproductives, tout en éludant les questions fondamentales d’équité et de responsabilité.

Penser les transitions à la lumière de quelques principes de justice

Au fil des dernières années, l’idée de transitions justes s’est progressivement élargie. Désormais pensée au pluriel, elle désigne moins un modèle clé en main qu’un ensemble de principes visant à garantir que les politiques climatiques engagent et protègent les personnes et les communautés les plus vulnérables.

Ainsi, mobiliser la notion de justice ne consiste pas à établir une norme singulière de ce que devrait être une « bonne » transition, mais plutôt à ouvrir une grille de lecture critique pour interroger les modalités concrètes du changement : les effets sociaux, économiques, territoriaux et politiques de la transition.

À ce titre, quatre dimensions de la justice permettent d’éclairer la profondeur, ou les limites, des transformations en cours :

  • La justice distributive : elle interroge la répartition équitable des coûts, opportunités et risques liés aux politiques climatiques et à leurs effets. Qui paie, qui bénéfice ? Dans de nombreux cas, les mesures climatiques produisent des impacts très inégaux, renforçant les déséquilibres existants.

  • La justice procédurale : elle concerne la capacité réelle des personnes affectées à participer aux décisions qui les touchent. Qui a voix au chapitre ? Qui décide, et selon quelles règles ? Dans la pratique, les politiques climatiques sont souvent élaborées par des experts ou des institutions éloignées du terrain, laissant de côté les communautés les plus concernées.

  • La justice corrective, restaurative ou réparatrice : elle met l’accent sur la reconnaissance et la réparation des dommages historiques liés au changement climatique et aux modèles de développement à l’origine de la crise écologique. Comment reconnaître et réparer les inégalités issues de l’exploitation, de la pollution, de la dette écologique ou de la dépossession foncière ?

  • La justice de reconnaissance : elle porte sur les formes de domination symbolique et sur la manière dont elles influencent les trajectoires de transition. Quels savoirs, quelles visions du monde sont prises en compte ? Lesquelles sont ignorées, minorées ou rendues invisibles ? Elle vise ainsi à ouvrir la voie à des transformations sociétales réellement inclusives.

Ces dimensions invitent à se pencher sur les conflits de valeurs, les asymétries de pouvoir, et les rapports de domination enracinés dans l’histoire coloniale et postcoloniale du capitalisme. Comme le montre une partie croissante de la recherche issue des Suds, ignorer ces registres de justice revient à passer sous silence les rapports de force qui structurent les transitions, au risque, parfois même, de reproduire des dynamiques extractivistes sous couvert d’écologie.

Plus clairement, appréhender les transitions à l’aune de ces quatre modalités relève moins d’une prescription normative que d’une invitation à questionner les conditions mêmes du changement.

Une transition est-elle possible sans justice ?

Dans les pays des Suds, les transitions justes demeurent largement expérimentales. Si le concept s’est installé dans les discours, il peine encore à se traduire en politiques publiques du fait de certaines réalités structurelles, comme l’informalité des marchés du travail, l’insécurité foncière, la précarité énergétique ou la dépendance aux financements extérieurs.

Des initiatives existent, mais elles rappellent surtout combien la justice reste une condition centrale de toute transformation durable dans l’espace et le temps. Qu’il s’agisse de partenariats Nords-Suds ou de coopérations Sud-Sud, leur réussite dépend moins des montants mobilisés que de leur capacité à renforcer la souveraineté des pays concernés et à inscrire les décisions dans les besoins sociaux et écologiques réels.

En définitive, les transitions justes ouvrent un espace où se confrontent tensions, contradictions et aspiration autour de la justice climatique. D’un côté, elles ont le mérite de mettre au jour les conflits entre impératifs climatiques, justice sociale et rapports de pouvoir internationaux. De l’autre, elles interrogent en profondeur notre conception même du développement, des responsabilités et des éthiques censées orienter les transformations à venir.

Reste alors une question ouverte, celle de savoir si la transition sera un projet réellement collectif, pensé aussi depuis les Suds, ou bien une nouvelle déclinaison des logiques qui ont façonné les inégalités passées ?

The Conversation

Rihi Yanis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.11.2025 à 15:45

Jean Baudrillard, le philosophe qui a prédit l’intelligence artificielle, trente ans avant ChatGPT

Bran Nicol, Professor of English, University of Surrey
Emmanuelle Fantin, Maîtresse de conférences en sciences de l'information et de la communication, Sorbonne Université
À travers les dispositifs médiatiques rudimentaires de son époque, comme le Minitel, Jean Baudrillard a réussi à prédire les usages futurs que la technologie numérique allait engendrer.
Texte intégral (1513 mots)

Visionnaire de la culture numérique, Jean Baudrillard pensait l’intelligence artificielle comme une prothèse mentale capable d’exorciser notre humanité, et un renoncement à notre liberté.


Certains penseurs semblent si précis dans leur compréhension du lieu vers lequel la société et la technique nous emportent qu’ils sont affublés du titre de « prophète ». C’est le cas de J. G. Ballard, Octavia E. Butler, ou encore Donna Haraway.

L’un des membres les plus importants de ce club est le penseur Jean Baudrillard (1929-2007) – bien que sa réputation se soit amoindrie depuis une vingtaine d’années, il est désormais vaguement associé à l’époque révolue où les théoriciens français tels que Roland Barthes et Jacques Derrida régnaient en maîtres.

Lorsque nous l’avons relu pour écrire la nouvelle biographie qui lui est consacrée, nous nous sommes toutefois souvenus à quel point ses prédictions sur la technologie contemporaine et ses effets se révélaient prémonitoires. Sa compréhension de la culture numérique et de l’intelligence artificielle (IA) s’avère particulièrement clairvoyante – d’autant que ses écrits l’ont présentée plus de trente ans avant le lancement de ChatGPT.

Un contexte de préhistoire numérique

Il faut bien se figurer que les technologies de communication de pointe des années 1980 nous paraissent désormais totalement obsolètes : Baudrillard écrit alors que l’entourent des répondeurs téléphoniques, des fax, et bien sûr, le Minitel, prélude médiatique franco-français au réseau Internet. Son génie résidait dans une aptitude à entrevoir au sein de ces dispositifs relativement rudimentaires une projection des usages probables de la technologie dans le futur.

À la fin des années 1970, il avait déjà commencé à développer une théorie originale de l’information et de la communication. Celle-ci s’est encore déployée à partir de la publication de Simulacres et Simulation en 1981 (l’ouvrage qui a influencé les sœurs Wachowski dans l’écriture du film Matrix, sorti en 1999).

Dès 1986, le philosophe observait :

« Aujourd’hui, plus de scène ni de miroir, mais un écran et un réseau. »

Il prédit alors l’usage généralisé du smartphone, en imaginant que chacun d’entre nous serait aux commandes d’une machine qui nous tiendrait isolés « en position de parfaite souveraineté », comme un « cosmonaute dans sa bulle ». Ces réflexions lui ont permis d’élaborer son concept le plus célèbre : la théorie d’après laquelle nous serions entrés dans l’ère de « l’hyperréalité ».

Matrix (1999), partiellement inspiré des travaux de Jean Baudrillard.

Dans les années 1990, Baudrillard a porté son attention sur les effets de l’IA, d’une manière qui nous aide à la fois à mieux comprendre son essor tentaculaire dans le monde contemporain et à mieux concevoir la disparition progressive de la réalité, disparition à laquelle nous faisons face chaque jour avec un peu plus d’acuité.

Les lecteurs avertis de Baudrillard n’ont probablement pas été surpris par l’émergence de l’actrice virtuelle Tilly Norwood, générée par IA. Il s’agit d’une étape tout à fait logique dans le développement des simulations et autres deepfake, qui semble conforme à sa vision du monde hyperréel.

« Le spectacle de la pensée »

Baudrillard envisageait l’IA comme une prothèse, un équivalent mental des membres artificiels, des valves cardiaques, des lentilles de contact ou encore des opérations de chirurgie esthétique. Son rôle serait de nous aider à mieux réfléchir, voire à réfléchir à notre place, ainsi que le conceptualisent ses ouvrages la Transparence du mal (1990) ou le Crime parfait (1995).

Mais il était convaincu qu’au fond, tout cela ne nous permettrait en réalité uniquement de vivre « le spectacle de la pensée », plutôt que nous engager vers la pensée elle-même. Autrement dit, cela signifie que nous pourrions alors repousser indéfiniment l’action de réfléchir. Et d’après Baudrillard, la conséquence était limpide : s’immerger dans l’IA équivaudrait à renoncer à notre liberté.

Voilà pourquoi Baudrillard pensait que la culture numérique précipiterait la « disparition » des êtres humains. Bien entendu, il ne parlait pas de disparition au sens littéral, ni ne supposait que nous serions un jour réduits à la servitude comme dans Matrix. Il envisageait plutôt cette externalisation de notre intelligence au sein de machines comme une manière « d’exorciser » notre humanité.

En définitive, il comprenait toutefois que le danger qui consiste à sacrifier notre humanité au profit d’une machine ne proviendrait pas de la technologie elle-même, mais bien que la manière dont nous nous lions à elle. Et de fait, nous nous reposons désormais prodigieusement sur de vastes modèles linguistiques comme ChatGPT. Nous les sollicitons pour prendre des décisions à notre place, comme si l’interface était un oracle ou bien notre conseiller personnel.

Ce type de dépendance peut mener aux pires conséquences, comme celles de tomber amoureux d’une IA, de développer des psychoses induites par l’IA, ou encore, d’être guidé dans son suicide par un chatbot.

Bien entendu, les représentations anthropomorphiques des chatbots, le choix de prénoms comme Claude ou encore le fait de les désigner comme des « compagnons » n’aide pas. Mais Baudrillard avait pressenti que le problème ne provenait pas de la technologie elle-même, mais plutôt de notre désir de lui céder la réalité.

Le fait de tomber amoureux d’une IA ou de s’en remettre à sa décision est un problème humain, non pas un problème propre à la machine. Encore que, le résultat demeure plus ou moins le même. Le comportement de plus en plus étrange de Grok – porté par Elon Musk – s’explique simplement par son accès en temps réels aux informations (opinions, assertions arbitraires, complots) qui circulent sur X, plateforme dans laquelle il est intégré.

« Suis-je un être humain ou une machine ? »

De la même manière que les êtres humains sont façonnés par leur interaction avec l’IA, l’IA est dressée par ses utilisateurs. D’après Baudrillard, les progrès technologiques des années 1990 rendaient déjà impossible la réponse à la question « Suis-je un être humain ou une machine ? »

Il semblait confiant malgré tout, puisqu’il pensait que la distinction entre l’homme et la machine demeurerait indéfectible. L’IA ne pourrait jamais prendre plaisir à ses propres opérations à la manière dont les humains apprécient leur propre humanité, par exemple en expérimentant l’amour, la musique ou le sport. Mais cette prédiction pourrait bien être contredite par Tilly Norwood qui a déclaré dans le post Facebook qui la révélait au public :

« Je suis peut-être générée par une IA, mais je ressens des émotions bien réelles. »

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

25.11.2025 à 14:33

Syndrome du bébé secoué : seule une mère sur deux en France a reçu le plan de gestion des pleurs du nourrisson

Luc Goethals, Chercheur en santé publique, Inserm; Université Paris Cité
Flora Blangis, Chercheuse, Inserm
Martin Chalumeau, Professeur en pédiatrie, Université Paris Cité
En France, seule une mère sur deux reçoit l’information qui doit lui être communiquée dans le cadre du plan de gestion des pleurs, afin de prévenir le syndrome du bébé secoué.
Texte intégral (2111 mots)

Les plans de gestion des pleurs du nourrisson visent à prévenir les traumatismes crâniens non accidentels, également appelés syndrome du bébé secoué. Une étude nationale, menée par l’Université Paris Cité, l’Inserm, l’AP-HP, Santé publique France et le CHU de Nantes et publiée dans la revue « Child Abuse & Neglect », a révélé que le plan de gestion des pleurs du nourrisson est remis à seulement une mère sur deux en maternité en France.


Chaque année en France, des centaines de nourrissons sont hospitalisés pour des traumatismes crâniens infligés. Ces blessures ne doivent rien à des accidents et sont la conséquence d’un secouement violent du bébé, un geste grave qui peut provoquer des lésions cérébrales irréversibles, des lésions oculaires, voire la mort.

On parle alors de syndrome du bébé secoué ou, plus récemment, de traumatisme crânien non accidentel, car on sait maintenant que le secouement n’est pas le seul mécanisme en cause. Au-delà de la violence du geste et de ses conséquences légales, c’est un problème de santé publique majeur qui révèle la difficulté d’accompagner et de soutenir les parents dans cette période souvent difficile des premiers mois de vie du bébé.

Allo Parents Bébé : 0 800 00 3 4 5 6
Service et appel gratuit : des professionnels de la petite enfance à votre écoute

  • Les lundis, mardis, mercredis et vendredis de 10 heures à 13 heures et de 14 heures à 18 heures.
  • les jeudis : uniquement de 14 heures à 18 heures.

Les pleurs du nourrisson

Depuis une trentaine d’années, les pleurs du nourrisson sont rapportés dans la littérature scientifique comme le principal facteur déclencheur des traumatismes crâniens non accidentels. Il est important de noter que cela ne veut pas dire que les pleurs entraînent le secouement, mais plutôt que l’instant des pleurs du bébé coïncide souvent avec le moment où le secouement se produit.

Les bébés pleurent naturellement et cette activité atteint son pic entre la cinquième et la sixième semaine de leur existence avant de décroître. C’est une forme de communication associée à son développement neurologique et à la gestion de ses émotions.

L’intensité, la répétition et la durée de ces pleurs peuvent déstabiliser certains parents. Par ailleurs, la fatigue et l’exaspération des parents face à ces pleurs peuvent générer un sentiment d’impuissance. Lorsque ce contexte émotionnel spécifique n’est pas accompagné, en particulier par des outils pour le gérer, il peut engendrer des situations à risque de secouement pour les bébés.

Les plans de gestion des pleurs : un levier de prévention

Face à ces constats, plusieurs pays dont la France ont mis en place des recommandations concernant la diffusion des plans de gestions des pleurs, notamment durant la période périnatale et à destination des futurs parents. Ces plans de gestion des pleurs ont pour objectif d’informer tous les parents durant la période périnatale sur la normalité et la temporalité des pleurs, leur donner des stratégies et des outils pour y faire face et rappeler la dangerosité des secouements.

Ainsi, trois messages essentiels sont mis en avant :

  • les pleurs du nourrisson sont normaux, fréquents et transitoires ;

  • il est sûr de poser le bébé, toujours sur le dos, dans son lit et de s’accorder une pause en s’éloignant si la tension devient trop forte ;

  • en cas de détresse, il faut demander de l’aide à un proche ou à un professionnel.


À lire aussi : Prévention de la mort subite du nourrisson : 80 % des photos sur les paquets de couches font fi des recommandations


Une étude réalisée à partir des données de l’Enquête nationale périnatale

Si les recommandations internationales existent, leur diffusion reste inégale. C’est à partir de ce constat que des chercheurs de l’Institut national de la santé et de la recherche médicale (Inserm), de l’Université Paris Cité, de l’Assistance publique–Hôpitaux de Paris (AP-HP), de Santé publique France, du Centre hospitalo-universitaire (CHU) de Nantes (Loire-Atlantique) et d’autres structures partenaires ont voulu évaluer la manière dont ces messages de prévention sont transmis aux parents en France et plus particulièrement aux mères. Ils se sont appuyés sur des données de l’Enquête nationale périnatale (ENP).

L’ENP est réalisée environ tous les cinq ans depuis 1995 afin de décrire les conditions de grossesse, d’accouchement et de naissance en France. L’édition 2021 s’est déroulée pendant une semaine, en mars, dans toutes les maternités de métropole et d’outre-mer. Ont été incluses environ 12 700 femmes, ces dernières ayant été suivies deux mois après la naissance.

Cette enquête est pilotée par l’Inserm et Santé publique France, sous l’égide du ministère de la santé (Direction générale de la santé, Direction générale de l’organisation des soins, Drees), et financée sur fonds publics. L’ENP fournit des données essentielles pour orienter les politiques de santé périnatale et évaluer les pratiques de soins. C’est à partir de ces données qu’a été menée notre étude.

Nous nous sommes intéressés à une question précise posée deux mois après la naissance :

« Durant la grossesse et depuis votre accouchement, avez-vous reçu des conseils pour calmer ou soulager les pleurs répétitifs ou prolongés de votre bébé ? »

Une mère sur deux déclare ne pas avoir eu cette information

Les résultats sont éloquents : parmi les plus de 7 000 mères ayant répondu à cette question, 50 % déclarent n’avoir reçu aucun conseil sur la gestion des pleurs des nourrissons. Parmi celles qui ont été informées, les principales sources citées étaient les médecins généralistes, les sages-femmes et les pédiatres (82 %), les équipes de maternité (63 %) et les services de protection maternelle et infantile (39 %).

L’étude révèle également de fortes disparités territoriales. En Nouvelle-Aquitaine, 44 % des mères n’ont pas reçu d’information, contre 56 % en Provence-Alpes-Côte d’Azur. Ces écarts s’expliquent sans doute par des différences d’organisation des réseaux périnataux plus que par le profil des mères.

Par ailleurs, certains groupes de mères apparaissent particulièrement peu informés :

  • les mères de plus de 30 ans ;

  • celles ayant déjà un ou plusieurs enfants ;

  • celles n’ayant pas suivi de séances de préparation à la naissance ;

  • et celles n’ayant pas bénéficié de visite postnatale à domicile.

Les auteurs interprètent les deux premiers facteurs comme pouvant refléter des biais implicites. Certaines mères plus âgées, ou ayant déjà des enfants, peuvent être perçues comme moins prioritaires par les soignants, ces derniers les considérant comme probablement déjà informées.

Plus généralement, les auteurs suggèrent que le constat de l’absence d’information d’une mère sur deux serait le signe d’un manque de structuration des contenus, lors des séances ou visites pré- et postnatales, qui ne sont pas standardisés au niveau national.

En effet, la France ne dispose pas encore d’un programme national structuré de diffusion des plans de gestion des pleurs disponibles en français. Des recommandations écrites figurent dans le carnet de santé, mais aucun protocole n’impose leur présentation systématique avant la sortie de maternité. Les parents souvent fatigués et parfois débordés après l’accouchement lisent peu les nombreuses documentations qui leur sont remises.

Pourtant, d’autres supports existent, notamment des vidéos en français, très bien faites et gratuites. La question d’une hiérarchisation des messages périnataux de prévention en fonction de la gravité des problèmes de santé ciblés se pose. Les messages les plus importants doivent probablement faire l’objet d’une délivrance à la fois pendant la grossesse, juste après l’accouchement et pendant les premières semaines de vie du nourrisson, pour optimiser leur bonne réception ou leur mémorisation par les deux parents.

Vers une prévention universelle

Les résultats de l’étude soulignent la nécessité d’une action de prévention structurée à l’échelle nationale. Les chercheurs plaident pour la mise en place d’un programme cohérent, reposant sur des outils existants et validés.

Plusieurs leviers d’action peuvent être mobilisés :

  • renforcer la formation des professionnels de santé et de la petite enfance afin qu’ils remettent et expliquent systématiquement les plans de gestion des pleurs aux parents ;

  • impliquer plus largement les réseaux périnataux dans la diffusion de ces messages ;

  • et envisager, à terme, une remise obligatoire ou le visionnage de ces documents et outils avant le retour à domicile.

Prévenir le syndrome du bébé secoué ne se limite pas à transmettre une information ponctuelle. Il s’agit de construire une culture commune de prévention autour du nourrisson, partagée par les professionnels, les institutions et les familles.


Cet article a été rédigé collectivement par Luc Goethals (Inserm), Flora Blangis (Inserm, CHU de Nantes), Sophie Brouard (Inserm, CHU de Nantes), Pauline Scherdel (Inserm, CHU de Nantes), Marianne Jacques (Inserm, CHU de Nantes), Marie Viaud (Inserm), Nolwenn Regnault (Santé publique France), Karine Chevreul (Inserm, Kastafiore), Camille Le Ray (Inserm, Université Paris Cité, AP-HP, Hôpital Cochin), Enora Le Roux (Inserm, Université Paris Cité, AP-HP, Hôpital Universitaire Robert-Debré), Martin Chalumeau (Inserm, Université Paris Cité, AP-HP, Hôpital Necker-Enfants malades) et le Groupe de travail ENP 2021(Inserm).

The Conversation

Flora Blangis a reçu des financements de la fondation Mustela, fondation Université Paris Cité, l'Oréal-UNESCO prix jeunes talents France, Hôpitaux du Grand-Ouest, prix de thèse de la Direction générale de la santé, prix de thèse de la Chancellerie des Universités de Paris

Martin Chalumeau a reçu des financements de : QIM VEAVE, la région Ile-de-France ; FHU VEAVE, APHP-Université Paris Cité- Inserm ; Projets VEAVE - Fondation AXA.

Luc Goethals ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.11.2025 à 12:54

Jeunesse populaire : sur les réseaux, un nouvel art de l’engagement – Exemple en Seine-Saint-Denis, avec Snapchat

Rosa Bortolotti, Docteure en Sciences de l'éducation et de la formation, chercheuse au Laboratoire ÉMA (École, Mutations, Apprentissages), CY Cergy Paris Université
Sur Snapchat et les réseaux sociaux, les jeunes des quartiers populaires développent de nouvelles formes d’engagement : féminisme, solidarité, lutte contre les injustices.
Texte intégral (1972 mots)
Dans les quartiers populaires, la question du racisme mobilise fortement sur les réseaux sociaux. Fethi Benattallah/Unsplash, CC BY

On les dit désengagés, indifférents, repliés sur leurs écrans. Et si les jeunes, notamment ceux des quartiers populaires, inventaient simplement d’autres manières de s’impliquer ? Sur les réseaux sociaux, leurs « likes », partages et prises de parole esquissent une nouvelle forme de citoyenneté, plus diffuse mais bien réelle.


L’engagement est souvent entendu comme une participation pérenne à une organisation syndicale ou partisane. Focalisée sur le capital politique, cette conception ignore les formes d’engagement émergentes dites « par le bas ». Elle se limite à considérer l’habitus politique qui se manifeste à travers l’investissement associatif, la prise de parole publique, le goût du débat, et repose sur une disponibilité matérielle et temporelle au bénévolat.

Mais alors, qu’en est-il de celles et ceux qui ne présentent pas ces dispositions et ces ressources ? Sont-ils dépourvus de toute capacité de réflexion critique et de participation au monde qui les entoure ?

C’est précisément autour de ces interrogations que j’ai centré une partie importante de mon travail doctoral. Si les jeunes de classes populaires s’inscrivent peu dans des collectifs associatifs traditionnels, ils n’en sont pas moins animés de combats et de convictions.

En m’inspirant d’un ensemble de travaux qui étudient les mobilisations juvéniles, je montre qu’ils développent de nouvelles formes d’engagement à travers leurs sociabilités numériques. C’est l’un des enseignements que je tire d’une ethnographie en ligne, menée pendant un an sur les comptes Snapchat de 14 jeunes (8 filles et 6 garçons) de cités de Seine-Saint-Denis, le département le plus pauvre de France hexagonale ?

L’engagement des jeunes aujourd’hui : associations et causes partagées sur les réseaux sociaux

L’engagement se définit comme la capacité d’une personne à s’impliquer volontairement, dans une certaine durée, en faveur d’une cause. Il implique une forme de contrat moral qui unit une personne à ce qu’elle entend défendre. L’engagement ne repose donc pas systématiquement sur la participation à des collectifs associatifs – même si cette dimension demeure essentielle dans certains contextes –, mais sur la défense d’une cause en laquelle on croit, quels qu’en soient les voies et les moyens.

Aujourd’hui, divers chercheurs de la jeunesse s’accordent à dire que les formes d’engagement se sont transformées, non seulement dans les causes qui en sont l’objet, passant de luttes sociales à des enjeux civils, mais aussi dans leurs modes d’expression. Ces travaux montrent que les réseaux sociaux numériques offrent un terrain privilégié de visibilité et de socialisation.

Pour étudier l’engagement des jeunes, il ne suffit plus en effet de mesurer leur taux de participation aux élections politiques ou leur mobilisation associative. Il convient également de prendre en compte des formes d’investissement liées aux loisirs (sport, art, culture) ainsi qu’à d’autres actions moins visibles : être délégué de classe ou signer une pétition en ligne par exemple. En élargissant le spectre, on constate aisément que les jeunes ne se désintéressent pas des causes sociales qui traversent leur quotidien.

Le dernier rapport de l’Institut national de la jeunesse et de l’éducation populaire (Injep), « État d’esprit et engagement des jeunes en 2025 » enseigne que trois jeunes âgés de 15 à 30 ans sur dix déclarent avoir consacré bénévolement du temps à une association au moins une fois par mois au cours des douze derniers mois.

Si l’engagement est plus important chez les jeunes ayant de bonnes conditions matérielles, autrement dit du temps et de l’argent, le rapport souligne la réalité d’un engagement « multidomaines » : éducation, culture ou loisirs, environnement, causes humanitaires ou sociales, etc. La principale forme de participation à la vie citoyenne et politique tient même dans la signature de pétitions ou la défense d’une cause en ligne : une pratique qui concerne 40 % des jeunes de 15 à 30 ans.

L’engagement des jeunes sur les réseaux sociaux : solidarités et dénonciation des injustices

Les jeunes de quartiers populaires développent sur leurs espaces numériques de véritables pratiques engageantes. Différents profils se dégagent : ceux qui dénoncent directement les injustices, ceux qui préfèrent en rester spectateurs, et ceux qui cherchent à élargir leur audience en partageant massivement des informations qui circulent. Parcourant leur quotidien, leurs combats vont du soutien au commerce local à la dénonciation d’inégalités de genre (notamment pour les filles), de violences commises par la police, jusqu’à l’expérience du racisme.

Les jeunes partagent également des informations pour promouvoir des initiatives locales : une mère qui vend des gâteaux, un voisin qui ouvre son restaurant, un nouveau garage de bricolage dans le quartier… En rendant visibles ces activités, ils cherchent à « donner de la force » à ceux qui essaient de s’en sortir. C’est le cas de Zayan (19 ans) :

« Un chanteur du quartier va sortir une musique, il va nous dire de partager, on va partager. Quelqu’un du quartier commence à travailler dans un garage, là il travaille, on va partager son garage. On va donner de la force un peu. On va faire en sorte que son nom soit entendu sur les réseaux. »

Des filles investies dans le féminisme antiraciste

Concernant la thématique des injustices sociales, deux grandes causes ressortent. Les filles, particulièrement les majeures, font en ligne l’apprentissage d’un féminisme antiraciste. Certaines suivent plusieurs pages de collectifs ou de personnalités militantes (par exemple, la page d’Assa Traoré rencontre un grand succès).

Dans leurs échanges, la sémantique rappelle les milieux militants comme l’expression « beauty privilege ». Celle-ci renvoie au combat des femmes noires, longtemps réduites au statut d’objet sexuel et exclues du cercle des « beautés nobles ». Cherchant à renverser les stigmates dont elles sont la cible, elles utilisent les réseaux sociaux pour affirmer leur présence : elles y publient des photos d’elles très maquillées, parfois sexualisées, là où elles se voient opprimées dans un espace public contrôlé par le machisme. Par cette pratique défiant la culture traditionnelle, elles revendiquent une liberté d’existence. Comme le dit Lisa, 18 ans :

« Avant je me sentais pas bien, je publiais rien et je jugeais aussi les filles qui publiaient des photos d’elles. Après j’ai appris qu’elles étaient vraiment jugées de faire ça. Maintenant que je sais qu’est-ce que ça fait, par exemple une personne va me dire que c’est pas bon je vais le faire pour nous soutenir. »

Jade, 18 ans, appuie cette idée d’émancipation :

« Par exemple une fille ronde et qui se dit : “J’ai pas envie de montrer tout ça”, ou comme une fille très mince elle va se dire “Ouais, je suis très mince, je ne me plais pas car j’ai pas de masse, en gros, c’est pas bien.” Mais moi, je montre que je m’en fous, que je suis ronde et je vais me montrer comme une fille mince peut se montrer aussi. Ça ne change rien. »

Une dénonciation des violences policières

Les violences commises par la police à l’encontre des jeunes garçons racisés (noirs ou maghrébins) et l’expérience du racisme forment une autre thématique qui mobilise fortement. La médiatisation massive des faits, relayés aussi bien par les chaînes télévisées que par les réseaux sociaux, contribue à attester leur gravité. Par leurs publications, les jeunes nourrissent l’espoir d’une reconnaissance de ces injustices en même temps qu’ils se construisent une communauté de vécu face à des réalités qui les encouragent à se soutenir les uns entre les autres :

« Eux, les gens riches, ils ne vont pas poster des voitures cramées, des voitures qui brûlent. Eux, ils vont poster des trucs simples, des trucs beaux, de l’art par exemple. Les gens de cités vont publier la police qui est en train de passer, de les insulter, c’est pour ça qu’après, certains adultes vont critiquer les jeunes de cités. » Umar, 17 ans.

Le terreau de luttes émancipatrices ?

Les résultats de ma thèse rejoignent ainsi des conclusions exprimées par diverses recherches : ils démontrent une véritable capacité d’agir des jeunes par rapport à leur vie dans la cité.

Sur les réseaux sociaux, ces jeunes apprennent entre eux, partagent leurs modes d’existence et leurs combats quotidiens, comme autant de prémisses d’une conscientisation des rapports de domination qui les entourent. Le processus s’accompagne parfois d’un esprit de révolte susceptible d’encourager des mouvements de protestation violents.

Il suffit d’observer l’actualité récente – qu’il s’agisse du soulèvement de la génération Z au Népal, au Maroc ou des émeutes en France à l’été 2023. Ces mobilisations urbaines ont été largement orchestrées via les réseaux sociaux numériques.

N’en déplaise à ceux qui jugent de façon péremptoire que la jeunesse « n’est plus ce qu’elle était », ces épisodes démontrent que l’engagement de la jeunesse n’est pas en voie de disparition. Elle se manifeste dans d’autres espaces de socialisation que la recherche, mais, surtout, les acteurs éducatifs devraient plus prendre au sérieux et de façon désensibilisée.

The Conversation

Rosa Bortolotti a reçu des financements du Conseil Départemental de la Seine-Saint-Denis pour la réalisation d'une partie de la recherche doctorale.

25.11.2025 à 12:53

Au Mali, les djihadistes prennent-ils pour modèle leurs homologues syriens ?

Pierre Firode, Professeur agrégé de géographie, membre du Laboratoire interdisciplinaire sur les mutations des espaces économiques et politiques Paris-Saclay (LIMEEP-PS) et du laboratoire Médiations (Sorbonne Université), Sorbonne Université
En Syrie, les djihadistes de HTC ont pris le pouvoir après avoir focalisé leur lutte sur leur seul pays. Au Mali, les djihadistes du JNIM semblent s’inspirer de cet exemple.
Texte intégral (2155 mots)
Bina Diarra, porte-parole du JNIM, s’adresse en bambara aux Maliens dans une vidéo publiée en novembre 2025. Capture d'écran X (anciennement Twitter)

Des années durant, l’organisation islamiste Hayat Tahrir al-Cham, dit HTC, n’a contrôlé qu’un petit bout du territoire de la Syrie, avant de saisir l’occasion, fin 2024, de faire chuter le régime Assad et de s’emparer de l’ensemble du pays. Un développement qui, semble-t-il, n’a pas échappé à un autre groupe djihadiste, à des milliers de kilomètres de là : au Mali, le Groupe de soutien à l’islam et aux musulmans paraît s’inspirer de l’évolution qu’a connue HTC, en recentrant son djihad sur l’échelon national, quitte à délaisser toute ambition globale.


Les visites récentes du président intérimaire syrien Ahmed Al-Charaa à Moscou, le 15 octobre, et à Washington, le 10 novembre, ont particulièrement retenu l’attention de la presse, qui y voit l’acte final d’une lente et progressive métamorphose d’un groupe terroriste en une force politique de gouvernement reconnue par la communauté internationale.

Cette trajectoire de Hayat Tahrir al-Cham (Organisation de libération du Levant, ou HTC, dont Al-Charaa est à la tête), depuis la clandestinité terroriste jusqu’aux chancelleries des grandes puissances, n’échappe évidemment pas à l’attention des différents stratèges de la nébuleuse djihadiste mondiale, comme le montre l’évolution actuelle, au Mali, du Groupe de soutien à l’islam et aux musulmans (Jama’at Nusrat ul-Islam wa al-Muslimin, ou JNIM). Le mouvement terroriste sahélien, filiale d’Al-Qaida dans la région, semble entraîné dans une métamorphose identique que celle qu’a connue le HTC dans la province d’Idlib en Syrie de 2017 à la chute d’Assad.

Comme le HTC, le JNIM abandonne progressivement le djihad global au profit d’une lutte politique purement nationale dans laquelle l’enracinement auprès des populations locales l’emporte sur l’agenda djihadiste. Peut-on parler d’une syrisation des acteurs terroristes au Sahel ?

Un essor de l’islamo-nationalisme sur le modèle syrien

Comme le HTC dans la bande d’Idlib de 2017 à 2024, le JNIM a profondément changé de stratégie depuis le départ des Français en 2022 à la suite de l’échec de l’opération Barkhane. À l’origine force djihadiste – le mouvement Ansar Dine – alliée aux Touaregs du Mouvement national de libération de l’Azawad (MNLA), le JNIM aspire désormais à fédérer autour de lui des représentants des différentes ethnies du pays et à se métamorphoser ainsi en une force politique nationale, voire nationaliste.

Abandonnant progressivement le terrorisme tourné contre les civils au profit d’actions de déstabilisation du régime, le JNIM entend devenir une force d’alternative à la junte militaire en s’implantant durablement auprès des populations civiles. C’est dans cette optique que nous pourrions analyser la politique d’ouverture du JNIM aux ethnies importantes du pays : d’abord adressé aux Touaregs en guerre ouverte contre Bamako depuis 2012, le mouvement s’est ouvert aux Peuls depuis l’ouverture de sa branche méridionale très active au Burkina Faso, la Katibat Macina, puis plus récemment aux Bambaras, l’ethnie majoritaire de la région de Bamako.

Le choix de Bina Diarra, dit Al-Bambari, comme porte-parole du groupe montre le refus du JNIM d’être désormais assimilé aux ethnies minoritaires du nord du Mali, alliées régulières des djihadistes, ainsi que le projet des djihadistes de créer autour d’eux un véritable consensus populaire qui dépasse le clivage habituel entre les ethnies nomades plus arabisées du Nord (comme les Touaregs) et les ethnies sédentaires subsahariennes.

Cette politique n’est pas sans rappeler celle menée par le HTC dans la bande d’Idlib de 2017 à 2024. Comme le JNIM, le groupe HTC avait tenté de s’implanter durablement dans les structures sociales locales en s’attirant le soutien des chefs de tribus arabes (les cheikhs). Que ce soit dans une société tribale comme le nord de la Syrie ou dans un cadre multiethnique comme au Mali, les djihadistes aspirent à construire une forme de consensus national autour d’eux afin de pérenniser leur pouvoir.

L’abandon de la lutte contre les « déviants »

D’autant que le JNIM, comme le HTC dans la province d’Idblib de 2017 à 2024, semble renoncer aux modes d’action classique des djihadistes. Depuis le départ des Français, le JNIM n’a revendiqué aucun attentat en dehors du Sahel et semble même abandonner progressivement l’utilisation du terrorisme envers les populations locales comme a pu le faire le HTC à Idlib pendant la guerre civile syrienne.

Depuis l’été 2025, le JNIM concentre ses attaques sur des cibles militaires et économiques (notamment les convois ravitaillant la capitale en carburant) mais renonce de plus en plus aux massacres de civils éloignés de son rigorisme religieux. À cet égard, il est intéressant de relever l’abandon des persécutions contre les Dogons dont AQMI et Ansar Dine avait autrefois combattu violemment les pratiques animistes, au point d’avoir suscité la mobilisation de l’Unesco.

De plus, les politiques systématiques de destruction du patrimoine malien semblent abandonnées par le JNIM. À l’inverse d’Ansar Dine, qui avait, en 2012, saccagé la mosquée de Sankoré à Tombouctou, vestige d’un islam maraboutique syncrétique à l’antithèse du dogmatisme salafiste, le JNIM renonce aux persécutions envers le patrimoine et les identités locales, de peur de perdre le soutien des populations. Cette politique qui n’est pas sans rappeler celle d’Al-Joulani et du HTC envers les chrétiens et les chiites de la bande d’Idlib de 2017 à 2024 et témoigne, comme en Syrie, d’une volonté de pérenniser l’implantation du JNIM dans le paysage politique local.

En effet, comme le HTC, le JNIM entend substituer au djihad global un djihad populaire tourné contre les régimes tyranniques locaux opprimant les civils. L’agence de propagande Al-Zallaqa met souvent en scène le groupe dans un rôle de protecteur des populations contre la violence des juntes militaires. Le JNIM a particulièrement communiqué sur les massacres de Solenzo en mars 2024, perpétrés par l’armée burkinabée sur les civils peuls, et a mené une action de représailles à Diapaga ciblant une base militaire.

À travers ces actions au Burkina Faso comme au Mali, le JNIM veut abandonner son image de groupe terroriste hors sol pour apparaître comme le bouclier des populations locales face à la brutalité des juntes. On retrouve ici la synthèse, à l’origine du succès du HTC en Syrie, entre un djihad régional non global (idée plutôt empruntée à Daech) et le refus de persécuter les populations locales pour s’enraciner dans le paysage politique local (thème cher à plusieurs penseurs d’Al-Qaida comme Al-Zawahiri, notamment lors de sa querelle avec Al-Zarqawi en 2004).

Le même décalage entre la base et les chefs en Syrie et au Mali

Le parallèle entre la Syrie et le Mali devient encore plus éclairant lorsqu’on envisage les limites, voire les relatifs échecs de l’islamo-nationalisme.

Comme en Syrie, la base du JNIM n’approuve pas forcément le refus du djihad intransigeant et les concessions faites par les chefs du groupe à la réalité sociale locale. C’est peut-être ce que montre l’assassinat de la tiktokeuse Mariam Cissé par les miliciens du JNIM, le 7 novembre 2025. Ce meurtre va à l’encontre de la politique d’implantation du JNIM au sein de la population locale et de la propagande qu’il construit depuis plusieurs années. Si bien que l’on pourrait émettre l’hypothèse (invérifiable pour l’instant) que ce meurtre ne reflète pas une décision prise par le commandement du JNIM mais s’apparente à une initiative locale, assez spontanée.

Ces exactions perpétrées par les djihadistes sont d’ailleurs monnaie courante, comme le montre le développement des milices d’autodéfense appelées dozo. Sachant que le massacre de civils dessert objectivement les intérêts politiques du JNIM et s’oppose à son discours de propagande, on peut légitiment penser que ces massacres sont l’action de combattants qui ne partagent pas forcément les efforts de Realpolitik des chefs. Comme en Syrie avec le HTC, la base du JNIM pourrait refuser l’infléchissement que tentent de lui imposer ses leaders, ce qui déboucherait sur des massacres spontanés, comme ceux dont les alaouites ont été victimes après la chute d’Assad en Syrie.

D’autant qu’au Levant comme au Mali, les groupes affiliés à Al-Qaida, en s’implantant dans le tissu social local, se privent du soutien politique des partisans du djihad global et intransigeant. Ces djihadistes les plus radicaux pourraient ainsi grossir les rangs de l’orgnisation État islamique en Syrie ou de sa filiale au grand Sahara.

Les limites de la comparaison

Pour conclure, le djihad syrien entre en résonance avec la métamorphose actuelle du JNIM. Le groupe sahélien s’emploie à implanter le djihad dans le paysage politique malien et dans ses spécificités régionales, témoignant ainsi d’une syrisation du conflit, pour utiliser un néologisme, au point qu’on pourrait considérer la métamorphose du djihad en Syrie comme un nouveau paradigme pour analyser tous les mouvements djihadistes et leurs relations avec leur environnement politique et social régional.

Néanmoins, cette comparaison ne doit pas conduire à oublier ce qui distingue la Syrie du Mali : le JNIM ne peut s’appuyer ni sur une armée nombreuse comme celle de HTC, ce qui l’empêchera de contrôler le pays à court terme, ni sur une puissance tutélaire capable de le financer comme la Turquie en Syrie. Même si la comparaison entre le HTC et le JNIM ne saurait à elle seule expliquer le nouveau visage de la guerre civile au Mali, elle permet bien de prendre la mesure de la révolution copernicienne que la victoire de Joulani (nom de guerre d’Ahmed Al-Charaa) représente aujourd’hui pour l’ensemble des mouvements se réclamant d’Al-Qaida.

The Conversation

Pierre Firode ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.11.2025 à 11:19

Les plateformes de streaming, repaire d’une génération en quête de repères : le cas Twitch

Lucas Pithon, Maître de conférences en psychologie clinique et psychopathologie, Université d’Angers
Franck Rexand-Galais, Maître de Conférences en Psychologie clinique et Psychopathologie, Université d'Angers
Une analyse récente de Twitch montre comment les plateformes de streaming peuvent participer à la construction identitaire de jeunes adultes si elles sont suffisamment encadrées.
Texte intégral (1923 mots)

Les plateformes de streaming représentent un fait social qui ne se résume pas au drame de la mort en direct du streamer Jean Pormanove sur la plateforme Kick. Une analyse récente de Twitch montre en effet comment ces espaces en ligne peuvent participer à la construction identitaire de jeunes adultes, si la modération, la régulation, l’accompagnement et l’éducation numérique sont au rendez-vous.


La mort en direct du streamer français Jean Pormanove sur la plateforme Kick, après douze jours de diffusion en continu marqués par des humiliations et des violences encouragées par le public, a suscité une vive émotion.


À lire aussi : Décès de Jean Pormanove : pourquoi la régulation de la plateforme Kick a échoué


Si cet épisode tragique révèle une dérive inquiétante quant à la consommation en direct du spectacle de la souffrance, il met aussi en lumière un fait social, le rôle central qu’occupent désormais les plateformes de streaming dans la vie de ses principaux utilisateurs, les jeunes adultes.

Les plateformes de streaming, signe d’un malaise générationnel ?

Au-delà du fait divers, cette affaire semble signer le symptôme d’un malaise générationnel profond, qui plonge ses racines dans les circonvolutions d’un monde particulièrement instable. Les repères traditionnels – travail stable, éducation, couple, famille, trajectoire linéaire – s’effritent et les institutions politiques peinent à suivre le rythme des réalités sociales, dans un climat marqué par la montée des populismes et une incertitude climatique et géopolitique croissante.

Si ces métamorphoses ouvrent de nouvelles possibilités, elles participent aussi au sentiment de flottement qui accompagne l’entrée dans l’âge adulte.

L’individu porte, seul, la responsabilité de construire son avenir.

Dans ce contexte, certaines plateformes numériques prennent une place surprenante. C’est le cas de Twitch, espace en ligne où des vidéastes (streamers) diffusent en direct des parties de jeux, des discussions ou des émissions interactives sur des sujets aussi divers que variés. Des centaines de milliers de jeunes s’y connectent chaque jour. Mais au-delà du divertissement, que viennent-ils y chercher ? Selon nous, leurs usages de Twitch traduisent autant un besoin de lien social et de reconnaissance qu’une manière de se positionner dans un monde fragmenté.

Twitch : un lieu pour se construire

En effet, notre étude le montre : loin d’incarner, comme certains discours tendent à le soutenir, un temple moderne de l’addiction, Twitch apparaît au contraire, pour ses utilisateurs, comme un espace d’expérimentation, de partage et de découverte des différentes facettes de leur personnalité.

La plateforme fonctionne comme un lieu de socialisation et de construction de l’identité. Les jeunes adultes y trouvent un espace dans lequel leurs passions – parfois marginalisées dans la société, comme les jeux vidéo, l’informatique ou la culture Internet – deviennent des sources légitimes de reconnaissance et de valorisation. En outre, l’interactivité, les codes partagés ainsi que les références culturelles et générationnelles communes participent à la création d’un langage collectif et d’un sentiment d’appartenance.

Plus globalement, Twitch permet de s’exposer anonymement à une variété de sujets allant du divertissement aux débats politiques ou scientifiques, en passant par le militantisme, l’art, l’apprentissage, la spiritualité, ainsi que les questions de genre ou de sexualité, qui contribuent au développement personnel et social des utilisateurs.

Un « safe-space » disponible sur demande

Cette possibilité repose sur le fait que Twitch est une plateforme encadrée, à la fois par des règles internes et par des équipes de modération choisies par les streamers. Cela en fait un espace sûr, où l’on ne peut ni tout dire ni tout faire, contrairement à Kick. Ce cadre sécurisant offre un lieu de reconnaissance que les utilisateurs peuvent mobiliser à tout moment, notamment pour partager des moments difficiles avec d’autres.

Certains décrivent Twitch comme une « bulle sociale », où l’on se sent à l’aise, respecté, et parfois mieux compris que dans son entourage réel. La plateforme agit ainsi comme une zone tampon, capable d’apaiser les doutes, émotions et incertitudes du passage à l’âge adulte. Fait notable, le sentiment de connexion persiste même sans communication directe : la simple présence sur un live suffit à éprouver le plaisir d’appartenir à un collectif, d’être et de faire avec les autres.

C’est ce dont témoigne Clémence, 22 ans :

« Il y a un côté euh… rassurant, safe place un peu, un peu cocon rassurant. […] Enfin voilà c’est (le streamer, ndlr) quelqu’un que je connais bien et du coup le fait de pouvoir l’avoir à… à disposition d’un claquement de doigts, boom ! je peux le mettre sur mon écran à gauche là quand je veux pour qu’il… pour qu’il fasse le saltimbanque là… »

Dans la société contemporaine, cette possibilité revêt une importance capitale tant elle participe à briser « l’épidémie de solitude » qui fait rage chez les jeunes adultes. Twitch offre la possibilité de rencontrer (même passivement) un ou des autres, avec lesquels on a le sentiment de partager quelque chose.


À lire aussi : Réseaux sociaux : une hyper-conscience de soi qui amplifie le mal-être des jeunes ?


Cette notion de partage est d’ailleurs capitale pour la plupart des utilisateurs interrogés. Si l’on vient sur la plateforme, c’est d’abord pour investir une communauté dans laquelle on se reconnaît et avec qui on a le sentiment de partager le même univers, le même rapport au monde, qui s’exprime dans les centres d’intérêt, les valeurs, ou même les points de vue politiques convergents.

Le rôle central du diffuseur

Toutefois, cette dynamique collective ne prend sens qu’à travers celui ou celle qui l’incarne et la fédère. En effet, c’est autour du diffuseur que se cristallisent les affinités : sa personnalité, sa manière d’interagir, sa régularité et son authenticité donnent chair au collectif et comptent énormément dans l’attachement que les spectateurs développent à son égard. Pour beaucoup d’adultes en émergence, cette relation, bien qu’asymétrique, prend une dimension affective forte : le streamer devient une présence familière, réconfortante, voire même inspirante.

Dans une société où les figures tutélaires traditionnelles tendent à se raréfier ou à être en décalage avec les modes de vie et aspirations contemporaines, le créateur ou la créatrice incarne alors une figure d’idéal, une version possible de soi, qui encourage à s’épanouir et à oser être soi-même. C’est à la fois quelqu’un dont on a le sentiment qu’il nous ressemble mais c’est aussi, et peut-être surtout, quelqu’un à qui, sous certains aspects, l’on aurait bien envie de ressembler.

C’est ce qu’expliquent des spectateurs que nous avons rencontrés dans nos travaux de recherche :

« J’ai les mêmes délires que lui et tout, il aime bien tel jeu, ben l’avantage c’est que c’est un peu un sceau de validation pour moi. » (Alexandre, 25 ans)

ou encore

« Donc voilà, y a l’idée de pouvoir s’identifier au mec je sais pas… de pouvoir partager quelque chose avec lui au niveau de la personnalité, de pouvoir lui ressembler. » (Léo, 20 ans)

Dès lors, l’on comprend mieux le risque de l’absence de modération dans l’investissement de certains « modèles » : sans garde-fous, l’influence qu’ils exercent peut glisser de l’inspiration bienveillante à la promotion de conduites destructrices, faisant de la communauté non plus un bord protecteur, mais une chambre d’écho dangereuse pour les identités les plus vulnérables.

Au-delà du virtuel, de nouveaux rituels sociaux

Enfin, il nous semble important de situer Twitch au-delà de la sphère numérique du spectacle car la plateforme donne également lieu à des formes inédites de rassemblements collectifs.

Le Zevent, événement caritatif français en est peut être l’exemple le plus éclatant. Pendant tout un week-end, des dizaines de créateurs unissent leurs voix et leurs communautés autour d’une cause commune, récoltant chaque année des millions d’euros pour des associations.

Mais ce qui s’y joue excède de loin la performance financière. Ces rassemblements fonctionnent comme de nouveaux rituels sociaux, où l’exaltation partagée et le sentiment d’unité réintroduisent du commun dans un monde fragmenté.

La participation collective au bien commun rejoue, dans un langage contemporain, les logiques du fonctionnement démocratique : chacun, par sa présence, son don ou même son simple soutien symbolique, contribue à une œuvre qui dépasse ses intérêts individuels.

Twitch devient alors le support d’une réintégration des individus au tissu social, là où une génération parfois décrite comme égocentrée, isolée ou désabusée montre au contraire sa capacité à inventer de nouvelles formes de solidarité et d’appartenance.

L’affaire Jean Pormanove rappelle toutefois combien ces espaces demeurent fragiles, et combien la modération, la régulation, l’accompagnement et l’éducation numérique sont cruciaux pour préserver leur potentiel social. Car au-delà du divertissement, c’est bien une partie de la vie collective qui s’y joue : celle d’une génération qui expérimente, en direct, de nouvelles manières d’être au monde.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

25.11.2025 à 11:19

Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?

José Sánchez Santamaría, Profesor Titular de Equidad Educativa y Aprendizaje a lo Largo de la Vida. Coordinador de GRIOCE - UCLM. Vocal de FEAE-CLM, Universidad de Castilla-La Mancha
Gabriela de la Cruz Flores, Profesora e investigadora en Psicología, Universidad Nacional Autónoma de México (UNAM)
Hilda Paredes Dávila, Académica de la Facultad de Psicología, UNAM, Universidad Nacional Autónoma de México (UNAM)
Jesús Miguel Muñoz Cantero, Catedrático de Didácticas Específicas y Métodos de Investigación y Diagnóstico en Educación, Universidade da Coruña
Les chatbots entraînés par IA séduisent. Mais le « réconfort numérique » ponctuel qu’ils peuvent apporter ne doit pas être confondu avec une relation amicale ou un soutien psychologique.
Texte intégral (2325 mots)
De plus en plus de personnes, notamment des jeunes, ont recours à des chatbots entraînés avec des IA pour gérer leurs émotions. Mais ces outils numériques ne peuvent se substituer à une relation humaine ni, le cas échéant, à une prise en charge par un spécialiste. SeventyFour/Shutterstock

Ils offrent une écoute immédiate, sont toujours disponibles et répondent calmement sans porter de jugement. Les agents conversationnels entraînés par IA (chatbots) séduisent, notamment les adolescents. Mais le « réconfort numérique » ponctuel qu’ils peuvent apporter ne doit pas être confondu avec les relations que l’on peut entretenir avec un ami, ni avec le soutien psychologique proposé par un professionnel.


« Bonjour ! Je vois que tu cherches à être un peu au calme. Tu n’es pas seul(e). Je suis là pour t’aider à respirer, à comprendre ce que tu ressens et à trouver un peu de réconfort. Veux-tu me dire ce qui te préoccupe en ce moment ? »

Ceci est le « texte initial » d’un chatbot (agents conversationnels entraînés par IA, ndlr) de soutien émotionnel. Il y a peu, cela relevait encore de la science-fiction. Mais aujourd’hui, beaucoup de gens attendent de l’IA plus que des réponses rapides : ils veulent de la compréhension, de la compagnie et du réconfort.

Par exemple, Nora, 14 ans, utilise un chatbot lorsqu’elle se dispute avec ses amies, nous a-t-elle confié. Quel que soit notre âge, nous pouvons être tentés d’utiliser cette technologie pour améliorer nos relations professionnelles ou trouver quelqu’un qui est toujours « à l’écoute ».

Une machine peut-elle vraiment être à notre écoute ?

On a l’impression que l’IA peut nous écouter et nous comprendre. Mais l’IA est une machine : elle n’écoute pas au sens humain du terme, mais traite des données. Elle fonctionne comme un système de prédiction statistique qui génère des réponses mot à mot.

Cela soulève des questions importantes : une IA peut-elle être un véritable soutien émotionnel ? Peut-elle remplacer un ami ? Ou même un psychologue ? Et quel est l’impact de tout cela sur notre bien-être ?

C’est quoi un chatbot ?

Un chatbot est un programme informatique avec lequel nous interagissons par le biais de texte, de voix ou d’images. Son fonctionnement est le suivant : il reçoit, interprète, décide, consulte et répond. Imaginez que vous écriviez : « Je souhaite modifier mon vol de samedi ». Il effectue alors les opérations suivantes : « modifier vol » + « vendredi », vérifie votre réservation dans l’ API, vous propose des options et confirme la modification.

Il existe plusieurs catégories de chatbots :

  • Des chatbots avec des réglages fixes : ces chabots donnent des réponses prérédigées. Elles sont courantes dans les services à la citoyenneté ou à la clientèle : ISSA (qui est l’équivalent espagnol d’Amelibot de l’Assurance maladie en France, ndlr) ou Rufus d’Amazon.
  • Des chatbots généralistes alimentés par IA : ils répondent à presque toutes les questions à l’aide de texte, d’images ou de voix, et servent à de nombreuses finalités différentes : ChatGPT, Perplexity ou Deepseek.

  • Des chatbots spécialisés alimentés par IA : ils ressemblent aux précédents, mais sont entrainés sur des thématiques spécifiques comme la santé émotionnelle (Wysa), l’éducation (Tutor AI) ou pour vous tenir compagnie (Replika).

  • Des assistants virtuels alimentés par IA : ils aident dans les tâches quotidiennes. Ils sont capables de suivre des instructions et d’effectuer des actions très concrètes, et proposent des alternatives : Siri (Apple), Alexa (Amazon) ou l’Assistant Google.

  • Des assistants personnalisés alimentés par IA : il s’agit de chatbots personnels et individuels créés par soi-même. Vous pouvez adapter leur style de réponse, leur ton et leurs fonctions pour apprendre une langue, planifier des voyages ou même pour effectuer des recherches ou obtenir des conseils juridiques : Watsonx Assistant, le chat Watson, la fonction GPT de ChatGPT ou le Gem de Gemini.

Des chatbots spécialisés dans la gestion des émotions

Le premier chatbot dédié à la gestion des émotions est apparu en 1966 et s’appelait Eliza. Il simulait une thérapie psychologique « centrée sur la personne », une technique développée par le psychologue Carl Rogers. Il s’agissait d’un chatbot basé sur des règles : si l’utilisateur disait « Je suis triste », Eliza répondait « Pourquoi pensez-vous être triste ? »

Actuellement, une étude américaine indique que la moitié des adultes voient d’un bon œil l’utilisation des chatbots de soutien émotionnel, une tendance que l’on retrouve en Europe.

En Espagne, 24 % de la population interrogée (dans une enquête menée par Axa sur la santé mentale, ndlr) (reconnaît utiliser des chatbots pour obtenir un soutien émotionnel, dont 45 % ont entre 18 et 24 ans.

Une autre enquête montre la même chose et souligne le fait que les filles les utilisent davantage. De notre côté, nous avons pu observer que les adolescents utilisent les chatbots pour exprimer et gérer leurs émotions, aussi pour se sentir accompagnés et compris dans les moments de tristesse ou quand ils rencontrent des difficultés. Voici quelques extraits de ce qu’ils nous ont confié dans notre récente étude :

« Je parle beaucoup avec ChatGPT. Cela me donne l’impression d’être accompagnée, surtout quand je me sens triste et que je ne me comprends pas très bien. »

« Une fois, je me suis disputée avec mon petit ami, je me sentais très mal et j’ai fini par me confier à l’IA. »

Pourquoi sont-ils si attrayants ?

Les chatbots offrent quelque chose que certains jeunes peuvent avoir du mal à obtenir par ailleurs : une écoute immédiate et sans jugement. Ils sont toujours disponibles, répondent calmement et permettent de parler dans un anonymat apparent. Dans les moments de confusion ou de solitude, cela peut générer un sentiment de contrôle et de soulagement, en nous permettant de nous défouler. Leur ton amical et le langage empathique qu’ils utilisent renforcent cette dépendance émotionnelle.

Dans une autre étude que nous avons menée, certains adolescents ont déclaré qu’ils confiaient à l’IA « des choses qu’ils ne diraient à personne » et que cela les aidait « à se calmer lorsqu’ils ont des problèmes », car cela ne les fait pas se sentir « remis en question » ni mal à l’aise par rapport à ce qu’ils partagent.

Peuvent-ils se comporter comme des amis ou des psychologues ?

Mais un chatbot ne remplace pas une amitié ni une thérapie. Il peut servir de « soutien ponctuel » ou d’espace d’expression – avec quelques nuances. Mais il ne substituera jamais à une relation humaine ni au jugement clinique d’un professionnel. Il y a au moins 10 raisons à cela :

  1. Il n’a aucune responsabilité éthique ou légale.

  2. Il ignore notre histoire et notre contexte.

  3. Il offre des réponses logiques, mais il peut se tromper et il est limité.

  4. Il cherche à satisfaire, non à défier. Il peut toujours donner raison, créant ainsi un effet bulle.

  5. Il n’est pas neutre.

  6. Il manque d’empathie.

  7. Il ne sait pas réagir en cas d’urgence.

  8. Il peut créer une dépendance émotionnelle.

  9. Il ne garantit ni la confidentialité ni une transparence totale.

  10. Il ne prévoit aucun suivi thérapeutique. Il ne sait pas interpréter les changements émotionnels.

Comment tirer bénéfice des chatbots pour la santé

Les chatbots spécialisés ne sont ni des psychologues ni des amis. La clé réside dans une utilisation réfléchie et éthique de ces outils :

  1. S’interroger sur les raisons qui nous amènent à les utiliser. Pour se défouler, mieux se comprendre, se distraire, ou alors se sentir accompagné ou soutenu ? Ils ne devraient pas servir à remplacer ou à fournir une solution rapide et facile à des situations émotionnelles complexes.

  2. Se demander pourquoi nous en avons besoin. Ce que dit un chatbot nous aide-t-il à comprendre comment nous nous sentons ou à prendre des décisions ? Que la réponse soit oui ou non, nous devons la remettre en question et ne pas lui accorder une crédibilité absolue. Même si ce que dit le chatbot était correct, cela pourrait avoir des effets psychologiques négatifs à moyen et long terme, que nous ne connaissons pas encore.

  3. S’informer. Il est essentiel de savoir comment fonctionne le chatbot, ce qu’il peut et ne peut pas faire, et quelles sont ses erreurs les plus courantes.

Apprendre à utiliser les chatbots

L’utilisation d’une technologie numérique n’est pas négative. Les chatbots peuvent « accompagner », mais ils ne remplacent pas l’affection, l’amitié ou l’attention psychologique d’ordre professionnel. Même en psychologie, on utilise de plus en plus d’outils entrainés par l’IA, bien que leurs limites fassent encore l’objet d’un débat.

Il convient d’être prudent, car nous ne connaissons pas encore leur impact et les risques associés. Notre bien-être émotionnel dépend également de la sécurité face à l’IA. Il ne faut pas confondre le réconfort numérique et le soutien prodigué par des professionnels ou les relations humaines. C’est l’un des défis que pose la vie numérique actuelle.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.11.2025 à 16:33

La justice restaurative aide-t-elle les femmes victimes de violences sexuelles ?

Delphine Griveaud, Chargée de recherche au Fonds national de la recherche scientifique belge (FNRS), Université catholique de Louvain (UCLouvain)
Emeline Fourment, maîtresse de conférences en science politique et études de genre, Université de Rouen Normandie
La justice restaurative, appliquée aux violences de genre, est-elle un risque pour les victimes ou un espace de reconstruction ? Enquête auprès de celles qui en ont fait l’expérience.
Texte intégral (2479 mots)
Le film _Je verrai toujours vos visages_ (2023), de Jeanne Herry, restitue avec acuité la pratique de la justice restaurative en France. Christophe Brachet/Chifoumi Prod/Trésor Films/StudioCanal/France 3 Cinéma

La justice restaurative consiste à accompagner des victimes et des auteurs d’infractions qui souhaitent dialoguer. Ce type de rencontre ne prétend pas remplacer la justice pénale, mais offrir une option supplémentaire à celles et ceux qui y aspirent. Que sait-on aujourd'hui de ces mesures, de leurs effets, de leurs limites et des expériences de celles qui les vivent ?


Le film Je verrai toujours vos visages (2023), de Jeanne Herry, a permis au grand public de découvrir l’existence des mesures de justice restaurative prévues par le système judiciaire français. Fidèle à la réalité, cette fiction montre notamment le processus par lequel une jeune femme en vient à rencontrer son frère, qui l’a plusieurs fois violée enfant. Elle souhaite convenir avec lui d’une séparation des espaces de la ville dans laquelle elle et lui vont devoir cohabiter alors qu’il vient de sortir de prison. Ce cas a suscité des réactions critiques, soulignant les débats houleux qui entourent la justice restaurative dans le cas de violences de genre.

Peut-on traiter à égalité, dans le processus d’une médiation, les propos et attentes d’une victime d’inceste et de celui qui l’a violée ? Cela revient-il à minimiser les faits ? Ne serait-il pas dangereux, au moins psychiquement, pour une victime de violence sexuelle de rencontrer son agresseur ? Y a-t-il là un trop fort risque d’instrumentalisation du processus de la part de l’auteur des faits ?

Ces questions agitent les discussions sur la justice restaurative en cas de violences de genre, mais à l’aune de nos recherches en sciences sociales auprès des premières personnes concernées, elles tendent à réduire la complexité de la pratique.

Justice restaurative : de quoi parle-t-on ?

Depuis 2014, l’article 10-1 du Code de procédure pénale indique qu’une mesure de justice restaurative peut être proposée

« à l’occasion de toute procédure pénale et à tous les stades de la procédure, y compris lors de l’exécution de la peine, [à] la victime et l’auteur d’une infraction, sous réserve que les faits aient été reconnus ».

Ces mesures sont mises en place si victimes et auteurs le souhaitent. Elles développent une approche différente de la justice pénale : il s’agit moins de punir l’auteur des faits que de créer un dialogue entre victimes et auteurs pour réparer les victimes et responsabiliser les auteurs.

Différentes pratiques restauratives coexistent en France aujourd’hui. Les plus répandues sont les médiations restauratives : des processus, longs, menés par des animateurs et animatrices formées à cet effet, qui offrent un cadre sécurisant à une victime ou un auteur de délit/crime pour revenir sur ce qu’il s’est passé, et se préparer à une rencontre avec l’autre (son auteur, sa victime) s’ils le souhaitent.

Ces mesures reposent sur la libre participation de celles et ceux qui le souhaitent, elles ne peuvent en aucun cas être imposées. Étant donné le peu de moyens alloués et le manque d’information des justiciables, elles sont peu nombreuses. En 2023, l’Institut français pour la justice restaurative, l’association prenant en charge la majorité des mesures de justice restaurative sur le territoire dénombrait 89 mesures terminées et 158 en cours, dont plus de 90 % de médiations restauratives. En agrégeant à cela les mesures restauratives de toutes les autres organisations, à l’activité quantitativement plus restreinte, on ne dépasse pas les 200 mesures terminées sur l’année 2023. Selon les estimations les plus récentes, les deux tiers de ces mesures concernent des violences de genre, cette proportion ayant progressivement augmenté depuis 2014.

La justice restaurative : un danger pour les victimes de violences de genre ?

Parce qu’elle s’appuie sur une approche relationnelle qui tend à (ré)instaurer une communication entre eux par un processus qui propose autant d’écoute et de considération à l’un qu’à l’autre, on peut considérer que la justice restaurative tend à symétriser les positions de victime et d’auteur.

Cette démarche égalitariste peut entrer en conflit avec la perspective des associations de lutte contre les violences sexuelles (et/ou conjugales, incestueuses, etc.) qui mettent l’accent sur le rapport de pouvoir existant entre auteur et victime et sur les risques que cette asymétrie engendre en cas de face-à-face. Elles craignent que cela réinstaure l’« emprise » de l’auteur sur la victime et accroisse le risque de « revictimiser » la victime.

Reposant sur une compréhension individuelle des violences, qui emprunte à des savoirs psychologiques très diffusés actuellement, une telle approche amène à considérer le pouvoir que prennent les auteurs sur les victimes en matière de violences de genre moins comme le produit d’un contexte social inégalitaire que comme une faculté individuelle des auteurs, qui leur permet de prendre l’ascendant psychique sur leur victime pour les déposséder de leur libre arbitre. Dans cette perspective, la source du pouvoir n’est pas un ensemble de mécanismes sociaux mais la personnalité de l’auteur lui-même.

Par ailleurs, certaines associations féministes voient dans les « médiations restauratives » une manière déguisée de contourner l’interdiction pour une autorité publique d’imposer une médiation dans les situations de violences dans le couple ; celle-ci a justement été posée pour couper court aux risques d’emprise des hommes violents sur leurs victimes par la Convention d’Istanbul sur la lutte contre la violence à l’égard des femmes, ratifiée par la France en 2014.

Pourtant, la médiation restaurative n’est pas une médiation obligatoire telle qu’interdite dans la Convention, elle ne peut pas être imposée, elle n’est pas un acte de procédure pénale et n’a pas les mêmes objectifs que celle-ci. Mais ces distinctions semblent floues pour beaucoup, et les pouvoirs publics prennent donc de grandes précautions au sujet de la justice restaurative en cas de violence conjugale.

Ce sont alors d’autres types de pratiques restauratives qui sont privilégiées, des pratiques indirectes, qui accompagnent auteurs et victimes à des rencontres avec d’autres auteurs et victimes qui ont commis ou subi le même type de délit/crime, mais qui ne se connaissent pas au préalable. Ces dispositifs sont appelés « rencontres détenus-victimes ».

Les réticences sont moins grandes du côté des pouvoirs publics dans les cas de violences sexuelles extérieures au couple, mais elles ont pu émerger du côté des associations : en 2022, la Fédération des CIDFF (centres d’information sur les droits des femmes et des familles) s’est ainsi opposée à la justice restaurative au niveau national, tandis que le rapport de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants (Civiise) de 2023 la rejetait catégoriquement dans les cas de violences incestueuses.

Ce que les victimes de violences de genre font de la justice restaurative

Les débats sur la pertinence de la justice restaurative dans les cas de violences de genre sont souvent théoriques, et détachés de l’analyse de ce qu’il se passe réellement quand des mesures de justice restaurative sont mises en place. Surtout, ces débats sont menés au nom du bien-être et de la protection des victimes, sans connaissance réelle de la méthode de travail des associations spécialisées et sans qu’on entende les voix de celles qui ont bénéficié ou sont engagées dans une mesure de justice restaurative.

Entre 2022 et 2023, notre terrain d’enquête nous a amenées à rencontrer 14 d’entre elles : neuf victimes de violences sexuelles et cinq victimes de violences conjugales (dont les violences étaient à la fois psychologiques, physiques et sexuelles). Certaines se sont lancées dans la justice restaurative après une mauvaise expérience avec la justice pénale, au cours de laquelle elles ne s’étaient pas senties écoutées. D’autres sont dans des situations beaucoup plus rares en France, mais qui tendent à se développer : elles ont été prises en charge par des associations qui, contrairement à celles travaillant sous financement du ministère de la justice, acceptent d’accompagner des médiations restauratives hors de toute reconnaissance judiciaire. Elles n’ont donc jamais déposé plainte. Cinq ont fait l’expérience d’une rencontre entre détenus et victimes ; neuf d’une médiation restaurative. Ce nombre de victimes est trop peu élevé pour que nos observations puissent avoir un caractère représentatif, mais il nous donne un aperçu de ce que peut être la justice restaurative en cas de violences de genre.

Tout d’abord, les raisons qui ont amené ces personnes à s’engager dans la justice restaurative sont multiples : souvent, elles saisissent une main tendue et l’opportunité, rare, d’une écoute gratuite et inconditionnelle, elles espèrent que cela leur permettra d’aller mieux, mais elles peuvent aussi vouloir poser des questions à un ou à leur auteur ou espérer que la démarche pourra transformer l’auteur et ainsi protéger d’autres femmes ou enfants. Ensuite, elles s’approprient de manières disparates les dispositifs. À rebours de l’image de passivité prêtée aux victimes, l’une d’entre elles nous a raconté avoir parlé sans discontinuer pendant une heure lors de la rencontre avec son frère qui l’avait violée enfant. Elle lui a dit tout ce qu’elle n’avait jamais pu lui dire dans le cadre familial qui, contrairement au cadre créé par la justice restaurative, ne légitimait pas sa parole.

Enfin, toutes les personnes que nous avons rencontrées ont souligné l’importance d’avoir été reconnues et écoutées par les praticiennes de la justice restaurative, sans remise en cause de leur récit ni injonction à s’expliquer, se justifier.

Témoignages de praticiennes de la justice restaurative.

Cette considération est racontée comme étant en elle-même réparatrice, et ce, aussi parce qu’elle contraste avec le peu d’attention apportée aux victimes par leur entourage. Les personnes rencontrées qui sont, ou ont été, engagées dans une procédure judiciaire opposent par ailleurs une justice pénale froide, technique et pragmatique à une justice restaurative chaleureuse, empathique, et laissant place aux émotions.

En pratique donc, les victimes de violences de genre avec qui nous avons échangé ne se sentent pas vulnérabilisées par les mesures de justice restaurative. Au contraire, elles se disent renforcées par elles. Ces expériences sont produites, selon les cas, à la fois par la considération et la reconnaissance accompagnant l’entrée dans les mesures, par le travail émotionnel des praticiennes, par la resocialisation permise par la mesure (sortie de l’isolement que connaissent de nombreuses victimes à la suite des violences, formation d’amitiés avec d’autres victimes rencontrées pendant le parcours, et même avec des auteurs participant aux cercles de parole) et par la revalorisation de soi qu’elle permet bien souvent également.

Ces résultats indiquent sans doute l’importance du contexte que la justice restaurative produit pour la rencontre entre victime et auteur : considérant auteurs et victimes à parts égales, il peut donner de fait plus de pouvoir aux victimes qu’elles n’en avaient dans les relations violentes qui les liaient à leurs agresseurs, d’autant plus que ce cadre s’éloigne de la figure de passivité attribuée aux victimes pour ouvrir la possibilité d’une prise en main de leur histoire. En revanche, si le cadre créé par la justice restaurative établit une égalité entre auteur et victime au moment de leur rencontre, il ne change pas les inégalités sociales qui ont permis la violence. En cela, selon nous, la justice restaurative ne constitue pas tant un moyen de lutte contre les violences de genre que la rustine d’une société qui tolère, et favorise, ces violences.

The Conversation

Delphine Griveaud a reçu pour cette recherche des financements du Fonds national de la recherche scientifique belge (FNRS), de l'Institut Robert Badinter (CNRS - Ministère de la Justice), de la Direction et l'Ecole nationale de la protection judiciaire de la jeunesse, et du Service d'aide aux victimes et à l'aide juridictionnelle.

Emeline Fourment a reçu pour cette recherche des financements de l'Institut Robert Badinter (CNRS - Ministère de la Justice) et du Centre Rouennais d'Etudes Juridiques (CUREJ).

24.11.2025 à 16:33

« Le discours monotone du dictateur » ou comment Franco a construit un autoritarisme sans charisme

Susana Ridao Rodrigo, Profesora catedrática en el Área de Lengua Española (UAL), Universidad de Almería
Franco n’était pas un orateur charismatique, mais sa communication monotone, rigide et distante remplissait sa fonction : projeter l’autorité et légitimer un pouvoir autoritaire.
Texte intégral (1545 mots)

On associe volontiers les dictateurs aux discours tonitruants et exaltés d’un Hitler ou d’un Mussolini et à une mise en scène exubérante pensée pour galvaniser les foules. Franco, lui, a fait exactement l’inverse : les prises de parole de l’homme qui a verrouillé l’Espagne pendant près de quarante ans se distinguaient par une élocution froide et monotone et un style volontairement très austère.


Francisco Franco (1892-1975) a été le chef de l’État espagnol de la fin de la guerre civile (1936-1939) jusqu’à sa mort. Le régime franquiste a instauré une dictature autoritaire, qui a supprimé les libertés politiques et a établi un contrôle strict sur la société. Pendant près de quarante ans, son leadership a profondément marqué la vie politique, économique et culturelle de l’Espagne, dont l’empreinte durable a souvent fait et fait encore l’objet de controverses.

Mais d’un point de vue communicationnel, peut-on dire que Franco était un grand orateur ?

Cela dépend de la façon dont on définit « grand orateur ». Si l’on entend par éloquence la capacité à émouvoir, persuader ou mobiliser par la parole – comme savaient le faire Churchill ou de Gaulle –, Franco n’était pas un grand orateur. Cependant, si l’on analyse sa communication du point de vue de l’efficacité politique et symbolique, son style remplissait une fonction spécifique : il transmettait une impression d’autorité, de distance et de contrôle.

Son éloquence ne visait pas à séduire le public, mais à légitimer le pouvoir et à renforcer une image de stabilité hiérarchique. En ce sens, Franco a développé un type de communication que l’on pourrait qualifier de « discours de commandement », caractérisé par une faible expressivité et une rigidité formelle, mais qui cadrait avec la culture politique autoritaire du franquisme.

Sur le plan verbal, Franco s’appuyait sur un registre archaïque et protocolaire. Son lexique était limité, avec une abondance de formules rituelles (« tous espagnols », « glorieuse armée », « grâce à Dieu ») qui fonctionnaient davantage comme des marqueurs idéologiques que comme des éléments informatifs.

Du point de vue de l’analyse du discours, sa syntaxe tendait à une subordination excessive, ce qui générait des phrases longues, monotones et peu dynamiques. On observe également une préférence pour le mode passif et les constructions impersonnelles, qui diluent la responsabilité de l’émetteur : « il a été décidé », « il est jugé opportun », « il a été nécessaire ».

Ce choix verbal n’est pas neutre ; il constitue un mécanisme de dépersonnalisation du pouvoir, dans lequel la figure du leader est présentée comme l’incarnation de l’État, et non comme un individu qui prend des décisions. Ainsi, sur le plan verbal, Franco communique davantage en tant qu’institution qu’en tant que personne.

Communication paraverbale : voix, rythme et intonation

C’est un aspect caractéristique de sa communication. Franco avait une intonation monotone, avec peu de variations mélodiques. D’un point de vue prosodique, on pourrait dire que son discours présentait un schéma descendant constant : il commençait une phrase avec une certaine énergie et l’atténuait vers la fin, ce qui donnait une impression de lenteur et d’autorité immuable.

Le rythme était lent, presque liturgique, avec de nombreux silences. Cette lenteur n’était pas fortuite : dans le contexte politique de la dictature, elle contribuait à la ritualisation du discours. La parole du caudillo ne devait pas être spontanée, mais solennelle, presque sacrée.

Son timbre nasal et son articulation fermée rendaient difficile l’expressivité émotionnelle, mais renforçaient la distance. Ce manque de chaleur vocale servait la fonction propagandiste. Le leader n’était pas un orateur charismatique, mais une figure d’autorité, une voix qui émanait du pouvoir lui-même. En substance, sa voix construisait une « éthique du commandement » : rigide, froide et contrôlée.

Contrôle émotionnel

Sa communication non verbale était extrêmement contrôlée. Franco évitait les gestes amples, les déplacements ou les expressions faciales marquées. Il privilégiait une kinésique minimale, c’est-à-dire un langage corporel réduit au strict nécessaire.

Lorsqu’il s’exprimait en public, il adoptait une posture rigide, les bras collés au corps ou appuyés sur le pupitre, sans mouvements superflus. Ce contrôle corporel renforçait l’idée de discipline militaire et de maîtrise émotionnelle, deux valeurs essentielles dans sa représentation du leadership.

Son regard avait tendance à être fixe, sans chercher le contact visuel direct avec l’auditoire. Cela pourrait être interprété comme un manque de communication du point de vue actuel, mais dans le contexte d’un régime autoritaire, cela consistait à instaurer une distance symbolique : le leader ne s’abaissait pas au niveau de ses auditeurs. Même ses vêtements – l’uniforme, le béret ou l’insigne – faisaient partie de sa communication non verbale, car il s’agissait d’éléments qui transmettaient l’idée de la permanence, de la continuité et de la légitimité historique.

Charisme sobre d’après-guerre

Le charisme n’est pas un attribut absolu, mais une construction sociale. Franco ne jouait pas sur une forme de charisme émotionnel, comme Hitler ou Mussolini, mais il avait un charisme bureaucratique et paternaliste. Son pouvoir découlait de la redéfinition du silence et de l’austérité, car dans un pays dévasté par la guerre, son style sobre était interprété comme synonyme d’ordre et de prévisibilité. Son « anti-charisme » finit donc par être, d’une certaine manière, une forme de charisme adaptée au contexte espagnol de l’après-guerre.

Du point de vue de la théorie de la communication, quel impact ce style avait-il sur la réception du message ? Le discours de Franco s’inscrivait dans ce que l’on pourrait appeler un modèle unidirectionnel de communication politique. Il n’y avait pas de rétroaction : le récepteur ne pouvait ni répondre ni remettre en question. L’objectif n’était donc pas de persuader, mais d’imposer un sens.

En appliquant là théorie de la communication du linguiste Roman Jakobson, on constate que les discours solennels de Franco, la froideur de son ton, visaient à forcer l’obéissance de l’auditoire en empêchant toute forme d’esprit critique et en bloquant l’expression des émotions.

Anachronique devant la caméra

Au fil du temps, son art oratoire n’a évolué qu’en apparence. Dans les années 1950 et 1960, avec l’ouverture du régime, on perçoit une légère tentative de modernisation rhétorique, tout particulièrement dans les discours institutionnels diffusés à la télévision. Cependant, les changements étaient superficiels : Franco usait de la même prosodie monotone et du même langage rituel. En réalité, le média télévisuel accentuait sa rigidité. Face aux nouveaux dirigeants européens qui profitaient de la caméra pour s’humaniser, Franco apparaissait anachronique.

L’exemple de Franco démontre que l’efficacité communicative ne dépend pas toujours du charisme ou de l’éloquence, mais plutôt de la cohérence entre le style personnel et le contexte politique. Son art oratoire fonctionnait parce qu’il était en accord avec un système fermé, hiérarchique et ritualisé. Dans l’enseignement de la communication, son exemple sert à illustrer comment les niveaux verbal, paraverbal et non verbal construisent un même récit idéologique. Dans son cas, tous convergent vers un seul message : le pouvoir ne dialogue pas, il dicte.

Aujourd’hui, dans les démocraties médiatiques, ce modèle serait impensable ; néanmoins, son étude aide à comprendre comment le langage façonne les structures du pouvoir, et comment le silence, lorsqu’il est institutionnalisé, peut devenir une forme de communication politique efficace.

The Conversation

Susana Ridao Rodrigo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.11.2025 à 16:32

Minerais critiques : une instabilité qui fragilise les pays émergents et en développement

Paola D'Orazio, Associate Professor, IÉSEG School of Management
Avoir un territoire riche en minerais critiques n’est pas nécessairement un atout économique. Cela peut même mettre en danger la croissance.
Texte intégral (1746 mots)

La hausse de la demande en minerais critiques nécessaires pour mener à bien la transition énergétique n’est pas qu’une bonne nouvelle pour les pays producteurs. Elle les soumet à la volatilité des marchés. D’où l’exigence de mesurer leur exposition à ce risque nouveau.


Voitures électriques, panneaux solaires, éoliennes : la transition énergétique semble être une bonne nouvelle pour la planète. Pourtant, derrière ces technologies se cache une dépendance croissante à une poignée de minerais dits critiques : lithium, cobalt, nickel ou terres rares, entre autres. Ces ressources sont indispensables pour fabriquer des batteries, des moteurs électriques ou encore des turbines. Leur demande pourrait être multipliée par sept d’ici à 2040 selon l’Agence internationale de l’énergie (IEA).

Le changement climatique expose les pays émergents et en développement à deux grands types de risques. Les risques physiques proviennent des catastrophes naturelles – inondations, sécheresses, ouragans – qui détruisent les infrastructures perturbent l’agriculture et pèsent lourdement sur les finances publiques. Les risques de transition d’ordre économique apparaissent lorsque l’économie mondiale s’oriente vers un modèle bas carbone : nouvelles réglementations, innovations technologiques, marchés instables.

Les pays producteurs de minerais critiques se trouvent au premier plan de ces risques, car leur prospérité dépend de ressources de plus en plus demandées mais aux prix très volatiles. Or cette exposition est amplifiée par une autre réalité. La production mondiale de ces matériaux est concentrée dans un petit nombre de pays. La République démocratique du Congo fournit plus de 70 % du cobalt, la Chine domine les terres rares, le Brésil exporte graphite et nickel, tandis que le Pérou est un acteur majeur du cuivre. Cette concentration confère à ces pays un rôle stratégique, mais elle les rend aussi particulièrement vulnérables. Quand un budget national repose trop sur un seul minerai, la moindre variation de prix peut déstabiliser les finances publiques.


À lire aussi : Transition verte : peut-on vraiment comparer les dépendances aux métaux rares et au pétrole ?


Dangereux yo-yo

Les marchés des minerais critiques sont notoirement instables. Le cobalt, par exemple, a vu son prix doubler puis chuter de moitié en quelques années. Pour un État comme la République démocratique du Congo ou la Zambie, dont une grande partie des recettes publiques repose sur ce minerai, ces variations sont un casse-tête. Une année, elles financent écoles et hôpitaux ; l’année suivante, elles doivent couper dans leurs dépenses ou s’endetter davantage. L’Argentine, de son côté, dépend fortement du lithium, tandis que le Pérou repose sur le cuivre, pilier de ses finances publiques. En Indonésie ou au Brésil, le nickel suit les cycles de l’industrie mondiale.

Contrairement au problème classique de la rente pétrolière – et de ses implications fiscales – observées, par exemple, en Algérie ou au Nigéria, il ne s’agit pas ici d’un seul produit mais d’une mosaïque de minerais, chacun avec ses propres dynamiques de prix et de demande. En Afrique, la RDC dépend du cobalt, la Zambie du cuivre et du cobalt, le Mozambique et Madagascar du graphite ou des terres rares. En Amérique latine, l’Argentine mise sur le lithium, le Pérou sur le cuivre, tandis que le Mexique apparaît plus diversifié. En Asie, l’Indonésie est très exposée au nickel, quand le Kazakhstan ou les Philippines présentent des risques plus modérés. Cette diversité de situations rend la vulnérabilité plus diffuse et complique les réponses budgétaires.

Des économies vulnérables

Selon l’Agence internationale de l’énergie (AIE), la demande pour des minerais comme le lithium, le cobalt et le nickel pourrait être fortement multipliée d’ici à 2040. L’avenir dépendra des choix politiques des différents pays en matière de transition climatique. Si ceux-ci poursuivent les politiques actuelles, la croissance de la demande sera progressive, mais les États exportateurs resteront dépendants de leurs recettes minières. Dans un scénario plus ambitieux, où le monde viserait la neutralité carbone, la demande grimperait beaucoup plus vite, ce qui gonflerait les recettes fiscales, mais accentuerait aussi les risques liés à la volatilité des prix.

Or, si plusieurs travaux – par exemple, ceux de l’Agence internationale de l’énergie sur la sécurité d’approvisionnement en minerais critiques, de l’Organisation de coopération et de développement économiques (OCDE) sur les chaînes de valeur et les restrictions à l’exportation, ou encore du Fonds monétaire international (FMI) et de la Banque mondiale sur la vulnérabilité budgétaire des pays riches en ressources – évaluent déjà les risques d’approvisionnement ou les enjeux géopolitiques liés à ces matières premières, il existe encore peu d’outils pour mesurer concrètement ce que cette volatilité implique pour les finances publiques des pays producteurs, alors qu’un tel indice est essentiel pour éclairer les décisions budgétaires et de gestion des risques.

Pour analyser ces dynamiques et mieux mesurer cette exposition, un indice de risque fiscal (Fiscal Revenue Risk Index) a été développé dans une étude récente que j’ai menée. Il prend en compte la dépendance des recettes publiques aux minerais, la volatilité historique des prix et l’évolution de la demande. Les résultats révèlent des contrastes marqués : le Mozambique, le Gabon et la République démocratique du Congo présentent des scores de risque élevés. L’Argentine, grande productrice de lithium, voit son risque croître fortement entre 2030 et 2040, tandis que le Mexique et les Philippines, grâce à des économies plus diversifiées, apparaissent plus stables.

Un impact réel pour les populations

La question n’est pas abstraite. Les recettes fiscales financent les services publics. Si elles s’effondrent à cause d’une chute du prix du cobalt ou du cuivre, les gouvernements risquent de réduire les dépenses sociales, de repousser des investissements en santé ou en éducation, ou encore d’augmenter brutalement les impôts. Autrement dit, la volatilité des minerais peut se traduire directement dans la vie quotidienne des populations.

Trois pistes ressortent des travaux récents sur la vulnérabilité fiscale liée aux minerais critiques :

  • Diversifier les économies : réduire la dépendance aux recettes minières en développant d’autres secteurs comme l’agriculture, l’industrie manufacturière ou les services.

  • Mettre en place des fonds de stabilisation : épargner une partie des revenus tirés des minerais lors des périodes de prix élevés pour amortir les chocs en cas de chute brutale. L’exemple des fonds souverains, comme celui de la Norvège alimenté par le pétrole, illustre ce mécanisme.

  • Renforcer la coopération internationale : les pays consommateurs et producteurs ont intérêt à mieux coordonner leurs politiques. L’Union européenne (UE), avec son Critical Raw Materials Act, cherche à sécuriser ses approvisionnements, mais elle pourrait aussi contribuer à aider les pays producteurs à gérer la volatilité et à investir dans un développement durable.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Une promesse à double tranchant

L’Europe importe presque tous ses minerais critiques. Sa sécurité énergétique et industrielle dépend donc de la stabilité de pays comme la RDC, l’Argentine ou le Mozambique. Une crise budgétaire locale pourrait suffire à perturber la production mondiale de batteries et à ralentir la transition énergétique.

Minerais critiques : une instabilité qui fragilise les pays émergents et en développement

La transition verte est indispensable pour réduire les émissions de gaz à effet de serre, mais elle crée aussi de nouvelles fragilités dans les économies du sud. Pour qu’elle réussisse, il ne suffit pas d’innover technologiquement : il faut aussi garantir que les pays producteurs en tirent des bénéfices durables, sans tomber dans le piège de la dépendance et de la volatilité.

En somme, l’énergie verte n’est pas seulement une affaire d’ingénierie. C’est aussi une question de fiscalité, de solidarité et de gouvernance mondiale.

The Conversation

Paola D'Orazio ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.11.2025 à 16:30

Peut-on réparer ailleurs la nature détruite ici ? Comment libérer la compensation écologique des influences politiques

Stéphanie Barral, Sociologue de l'économie et chargée de recherches, Inrae
Christine Jez, Ingénieur de recherche, Inrae
L’efficacité des mesures de compensation écologique dépend non seulement de leur conception, mais aussi des influences politiques qui les encadrent et parfois les limitent.
Texte intégral (2057 mots)

La compensation écologique, qui consiste à restaurer des écosystèmes ailleurs pour compenser une perte de biodiversité ici, a le vent en poupe auprès des décideurs. Elle n’a pourtant rien d’une solution miracle : son efficacité réelle reste très débattue dans la communauté scientifique. Surtout, elle dépend de rapport de force où s’opèrent des arbitrages entre développement économique et protection de la nature. Une plus grande prise en compte des sciences sociales permettrait une meilleure appropriation de ces influences qui pèsent sur les politiques environnementales.


Depuis les années 1990, la compensation de la biodiversité s’est imposée à travers le monde comme un outil de politique environnementale. Son principe est de contrebalancer les pertes écologiques causées par les projets d’aménagement. L’idée est simple : lorsqu’un projet de construction ou d’aménagement affecte un écosystème, des mesures de compensation doivent être mises en place pour restaurer ou protéger une zone équivalente ailleurs.

Adoptée dans de nombreux pays, l’efficacité de ce mécanisme est toutefois insuffisante. Derrière cette idée comptable d’un équilibre que l’on pourrait restaurer se cache un processus complexe, soumis à de multiples arbitrages, contraintes techniques et enjeux temporels, comme le révèle une étude que nous avons publiée dans Nature Sustainability.

Dans celle-ci, nous avons mené une revue de publications scientifiques et institutionnelles internationales pour répondre à une question : comment les politiques de compensation de la biodiversité sont-elles conçues et influencées ?

Multiples acteurs, multiples influences

Les études en écologie scientifique postulent généralement que de meilleures connaissances scientifiques conduisent à de meilleures politiques environnementales, mais nous montrons la nécessité de prendre en compte les rapports de force structurels qui les affaiblissent.

En effet, la gouvernance de la compensation de la biodiversité, loin de reposer uniquement sur des données scientifiques et des métriques écologiques, est aussi marquée par les interactions entre différents acteurs – États, entreprises, ONG environnementales, institutions scientifiques et citoyens – qui cherchent à façonner les règles du jeu selon leurs intérêts. Parfois au risque de saper les fondements de ces programmes.

La compensation est souvent présentée comme une solution pragmatique conciliant développement économique et conservation de la nature, mais elle suscite en réalité de nombreux débats.

  • D’un côté, les gouvernements, les institutions internationales et les grandes ONG environnementales (comme l’Union internationale pour la conservation de la nature, UICN) la défendent comme un outil pragmatique permettant de concilier conservation et développement économique.

  • De l’autre, les lobbies industriels et les entreprises cherchent à encadrer ce dispositif de manière à maximiser leur flexibilité et à minimiser leurs coûts.

Les débats ne sont pas seulement techniques, ils touchent à des questions politiques sensibles. Par exemple, la compensation doit-elle être une obligation réglementaire ou un engagement volontaire ? Qui doit en assurer le contrôle ? Peut-elle être confiée à des acteurs privés à travers des marchés de crédits environnementaux ?


À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?


Mise à l’agenda, élaboration et mise en œuvre

Les auteurs identifient trois grandes étapes à travers lesquelles tous ces acteurs tentent d’orienter les politiques de compensation écologique.

D’abord la mise à l’agenda, qui est le moment où la compensation devient un enjeu de politique publique. Cette phase est marquée par des discussions sur la nécessité de compenser les dommages causés à la biodiversité et sur les méthodes à adopter.

Différents acteurs y participent, notamment les gouvernements, les institutions internationales, les scientifiques et les ONG qui militent pour des mesures de conservation plus strictes. L’implication croissante d’acteurs privés à cette étape s’accompagne, depuis quelques décennies, d’un recours plus affirmé aux mécanismes de marché plutôt que réglementaires.

La deuxième étape est l’élaboration des politiques en elles-mêmes, lorsque la compensation est traduite en lois et en règlements. Des questions cruciales sont débattues, comme le type d’impacts environnementaux à compenser, les obligations imposées aux entreprises ou encore le mode de financement de ces mesures.

C’est aussi un moment où les lobbyistes interviennent pour orienter la réglementation dans un sens plus ou moins contraignant. Aux États-Unis, par exemple, la National Environmental Banking Association a plaidé pour des règles plus cohérentes afin de réduire l’incertitude pour les entreprises. En France, des représentants d’intérêts comme ceux des carrières participent activement aux discussions sous l’égide du ministère de l’écologie.

Les décisions et orientations des politiques de compensation reposent donc à la fois sur des considérations scientifiques (quels sont les écosystèmes à protéger, quels sont les impacts les plus importants, quels sont les meilleurs indicateurs pour piloter les politiques) et la participation de représentants sectoriels. Cela peut conduire à une politisation de l’écologie scientifique au profit d’intérêts particuliers.

Enfin, cette influence intervient aussi au moment de la mise en œuvre sur le terrain. En effet, l’application des politiques de compensation implique une multitude d’interactions entre les acteurs locaux, les entreprises et les agences environnementales. L’interprétation des règles, la définition des critères écologiques et la surveillance des compensations sont autant de points négociés qui influencent les résultats concrets des programmes.

En Australie, une étude montre que la compensation est appliquée différemment selon les États, certains adoptant une approche plus flexible, ce qui peut limiter les résultats écologiques.


À lire aussi : Objectif ZAN : comment tenir les comptes ?


Les limites à une compensation efficace

Malgré son potentiel, la compensation de la biodiversité suscite donc des interrogations sur son efficacité réelle. Nous avons relevé plusieurs points critiques :

  • Le manque de transparence Les négociations sur la mise à l’agenda et sur la mise en œuvre des compensations se déroulent souvent dans des espaces peu accessibles au public, limitant la possibilité de vérifier leur pertinence et leur inscription dans un débat ouvert.

  • Le déséquilibre des pouvoirs Les entreprises et coalitions d’acteurs économiques privés disposent de ressources importantes pour influencer la conception des politiques, ce qui peut entraîner des compromis moins favorables à la biodiversité.

  • La science peut être un objet d’influence Des connaissances écologiques sont mobilisées dans la décision lors de toutes les étapes de la politique publique, y compris dans les contentieux administratifs. Les études peuvent être produites par des acteurs publics, privés ou encore associatifs, et la multiplicité des critères facilite l’instrumentalisation des connaissances au service d’intérêts particuliers.

  • La fragilité des résultats au plan écologique Certaines études montrent que les compensations ne parviennent pas toujours à restaurer les écosystèmes de manière équivalente, ce qui pose la question de leur efficacité à long terme. En France par exemple, une étude sur des sites restaurés a révélé que leur biodiversité restait inférieure à celle des sites naturels d’origine, malgré les efforts de compensation.

  • La définition du périmètre de la compensation C’est un enjeu majeur mais pourtant peu appréhendé dans les études scientifiques. Quels types d’écosystèmes et d’espèces doivent être protégés ? Certains pays, comme les États-Unis, se concentrent sur les espèces menacées, tandis que d’autres, comme la France, intègrent des approches basées sur les habitats. Ces choix ne sont jamais neutres : ils reflètent des arbitrages entre des exigences écologiques et des impératifs économiques qui ne sont pas uniquement guidés par la science et résultent généralement de négociations entre parties prenantes.

Une gouvernance à améliorer

Pour améliorer la gouvernance de la compensation de la biodiversité, nous suggérons plusieurs pistes et plaidons pour une meilleure intégration des sciences sociales dans l’action publique environnementale.

Il convient d’abord de mener davantage d’études comparatives pour évaluer comment les politiques sont mises en place dans différents pays. Cela permettrait de mieux comprendre les stratégies de contournement et d’obstruction dont elles font l’objet.

Pour renforcer l’indépendance des instances de régulation et assurer une plus grande transparence sur les relations entre entreprises, décideurs publics et experts scientifiques, nous appelons également à mieux encadrer l’influence du secteur privé afin de limiter les conflits d’intérêts.

Enfin, nous estimons qu’il est nécessaire de capitaliser sur les savoirs des sciences sociales. Une meilleure circulation de ces derniers renforcerait l’évaluation des politiques environnementales.

En définitive, la compensation de la biodiversité ne peut pas être considérée comme une solution miracle. Elle repose sur des compromis entre développement économique et préservation de la nature, ce qui en fait un domaine où les enjeux politiques et financiers sont omniprésents. Jusqu’à présent, elle n’a pas témoigné de sa capacité à enrayer l’érosion de la biodiversité et les études en écologie attestant ses limites s’accumulent.

Face à cela, les sciences sociales peuvent apporter une meilleure compréhension des stratégies d’influence d’acteurs engagés dans la protection de leurs intérêts particuliers. Elles ne se substitueront pas à un portage politique ambitieux, mais pourront certainement l’accompagner.

The Conversation

Stéphanie Barral a reçu des financements de l'Agence Nationale de la Recherche et de la Fondation Jefferson pour enquêter sur les politiques de compensation écologique.

Christine Jez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.11.2025 à 16:30

« N’oublions pas le climat ! », ou comment maintenir l’environnement à l’agenda dans un monde en crise

Lucile Maertens, Professeure adjointe en science politique et relations internationales, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)
Adrien Estève, Maître de conférences en science politique, Université Clermont Auvergne (UCA)
Luis Rivera-Vélez, Postdoctoral research fellow at University of Lausanne and research associate at the Center for International Studies CERI, Sciences Po
Zoé Cheli, Project officer and research assistant, Université de Lausanne
L’enjeu écologique est régulièrement relégué au second plan quand surgissent des crises apparemment plus urgentes.
Texte intégral (1790 mots)

Les efforts de lutte contre le changement climatique sont régulièrement mis au second plan quand surviennent des crises immédiates nécessitant la mobilisation de moyens importants. On l’a constaté durant la pandémie de Covid-19 et dernièrement avec la guerre en Ukraine, entre autres. Comment préserver la conscience de l’urgence climatique et maintenir les programmes visant à y faire face dans un contexte où l’urgence change sans cesse de visage ?


Cet article a été co-écrit avec Lorenzo Guadagno, consultant en innovation climatique et mobilité à l’Organisation internationale des migrations (OIM).


La COP30 qui vient de se conclure au Brésil l’a encore une fois mis en évidence : la diplomatie climatique se heurte à un contexte géopolitique saturé par les urgences et l’obstruction politique. Guerres, crises humanitaires et gouvernements hostiles à l’action climatique détournent l’attention politique et médiatique de la cause environnementale et menacent de la reléguer au second plan. Pourtant, des stratégies d’action demeurent possibles pour éviter que la crise écologique ne disparaisse derrière d’autres impératifs internationaux.

L’équipe d’organisation brésilienne a ainsi lancé la campagne mondiale du « mutirão », inspirée des traditions autochtones : elle symbolise le travail collectif, fondé sur l’entraide et la réciprocité, d’une communauté qui s’engage pour une tâche commune, dans un esprit de solidarité et de responsabilité partagée. De son côté, le secrétaire général des Nations unies António Guterres continue de faire du climat sa priorité absolue, rappelant inlassablement que le dépassement de la limite de 1,5 °C constituerait un « échec moral et une négligence mortelle ».

Maintenir la crise écologique à l’agenda

Lorsqu’une crise internationale éclate, les regards s’orientent, à raison, vers les victimes et les solutions possibles pour résoudre rapidement la situation. L’urgence vient bousculer les priorités tandis que les problèmes dont l’échéance paraît plus lointaine perdent en visibilité, au risque de s’aggraver par manque d’action.

C’est pour éviter cette mise entre parenthèses que des organisations internationales, comme l’Organisation des Nations unies (ONU), se lancent dans ce que l’on a appelé le maintien à l’agenda : des efforts visant à maintenir un enjeu à l’ordre du jour alors que tous les regards sont rivés ailleurs.

Pour cela, quatre stratégies sont possibles : associer le défi de long terme à la crise immédiate ; le positionner comme une menace lente mais plus profonde ; garantir un espace politique pour agir sur cette question ; et préserver un sentiment d’urgence malgré la temporalité longue du problème.

Pandémie de Covid-19, guerre en Ukraine, crises humanitaires sont autant d’exemples d’urgences venant rediriger l’attention portée à la crise environnementale durant lesquelles agences onusiennes et autres organisations internationales ont tenté de maintenir cette dernière à l’agenda.

La gouvernance climatique et environnementale à l’épreuve de la crise sanitaire

En 2020, alors que la pandémie de Covid-19 monopolise l’attention politique et médiatique, les organisations internationales tentent d’éviter que la question écologique ne soit éclipsée, notamment en la reformulant à l’aune de la crise sanitaire.

D’emblée, les liens entre la dégradation environnementale, le déclin de la biodiversité et l’émergence de nouveaux pathogènes sont soulignés. On les retrouve tant dans les discours officiels d’institutions onusiennes, qu’à travers la publication de rapports dédiés ou la remise au premier plan One Health, approche intégrée de la santé humaine, animale et environnementale. Rapidement, António Guterres en appelle pour sa part à « reconstruire en mieux » (build back better), un slogan martelé pour encourager l’intégration systématique de mesures en faveur de la transition écologique dans la relance post-Covid.

D’autres s’efforcent de préserver la conscience de l’urgence de la crise climatique, par exemple en exigeant des États qu’ils présentent leur plan d’action malgré le report de la COP26. Rencontres et négociations internationales sont également conduites dans un format hybride, garantissant des espaces (virtuels) de prise de décision en matière d’environnement, malgré la pandémie.

Quand la guerre en Ukraine alerte sur les crimes environnementaux

Depuis le 24 février 2022, une autre crise, cette fois militaire, menace de reléguer les enjeux environnementaux au second plan : la Russie lance son invasion de l’Ukraine et exécute une stratégie consistant à détruire et tuer systématiquement des cibles militaires et civiles.

Alors que l’Europe s’inquiète de ce conflit et de ses effets sur les approvisionnements énergétiques, le gouvernement ukrainien cherche rapidement à sensibiliser l’opinion publique aux écocides commis dans le pays. Le Programme des Nations unies pour l’environnement (PNUE) contribue à ce débat, sa directrice exécutive s’entretenant personnellement avec les autorités ukrainiennes, afin de maintenir l’attention sur la crise écologique.

Dans un rapport, le PNUE présente la guerre en Ukraine comme un problème pour l’environnement et les dégradations environnementales comme un enjeu de sécurité publique. Il propose aussi des solutions communes telles que la « relance verte » qui vise à associer la reconstruction d’après-guerre à un plan d’action environnemental. Le programme onusien va jusqu’à emprunter la rhétorique militaire, pour entretenir un sentiment d’urgence qui justifie l’attention accordée à la crise écologique en temps de guerre.


À lire aussi : Crimes contre l’environnement dans la guerre en Ukraine : que dit le droit ?


Crises humanitaires et crise écologique, même combat

Actuellement, les organisations internationales doivent composer avec un climat politique et budgétaire particulièrement défavorable. Face à une double crise de visibilité, de financement et d’espace opérationnel, affectant tant la crise écologique que le monde humanitaire, elles plaident pour une attention conjointe visant à maintenir les deux causes à l’agenda.

Depuis le début de l’année et l’effondrement du soutien états-unien en matière d’aide internationale, des organisations humanitaires alertent sur les conséquences directes des changements climatiques. À la COP30, la Fédération internationale des sociétés de la Croix-Rouge et du Croissant-Rouge et l’Agence des Nations unies pour les réfugiés ont défendu des politiques environnementales fortes afin de réduire la fréquence et la portée des événements météorologiques extrêmes.

À l’inverse, les organisations environnementales mobilisent les crises humanitaires et cycles de violence, comme l’invasion israélienne de la bande de Gaza, pour quantifier les impacts des conflits armés sur les ressources naturelles, et estimer leurs conséquences à court et à long terme sur la santé et les droits fondamentaux des populations affectées. La boucle est bouclée : les effets dévastateurs des conséquences environnementales des crises humanitaires et violences armées requièrent des approches intégrées où la protection de l’environnement devient une composante essentielle de l’action humanitaire.

Alors que les crises se multiplient et se chevauchent, préserver l’attention politique pour les questions de fond est un véritable défi. C’est aussi à cela que servent les COP : nous rappeler que l’on ne peut pas mettre le changement climatique sur pause, même si d’autres enjeux peuvent sembler plus urgents dans l’immédiat. À l’échelle globale, les organisations internationales telles que l’ONU jouent un rôle central de maintien à l’agenda pour s’assurer que les urgences n’éclipsent pas totalement les problèmes de long terme qui ne peuvent pas, ou plus, attendre que le vent tourne.

The Conversation

Lucile Maertens a reçu des financements du Fonds national suisse de la recherche scientifique dans le cadre du projet « First things first ! How to keep the United Nations environmental agenda in times of crisis » (Subside n°100017_200834).

Adrien Estève a reçu des financements du Fonds national suisse de la recherche scientifique dans le cadre du projet « First things first ! How to keep the United Nations environmental agenda in times of crisis » (Subside n°100017_200834).

Luis Rivera-Vélez a reçu des financements du Fonds national suisse de la recherche scientifique dans le cadre du projet « First things first ! How to keep the United Nations environmental agenda in times of crisis » (Subside n°100017_200834).

Zoé Cheli a reçu des financements du Fonds national suisse de la recherche scientifique dans le cadre du projet « First things first ! How to keep the United Nations environmental agenda in times of crisis » (Subside n°100017_200834).

24.11.2025 à 14:01

COP30 : cinq raisons pour lesquelles la conférence sur le climat a manqué à sa promesse d’être un « sommet des peuples »

Simon Chin-Yee, Lecturer in International Development, UCL
Mark Maslin, UCL Professor of Earth System Science and UNU Lead for Climate, Health and Security, UCL
Priti Parikh, Professor of Infrastructure Engineering and International Development, UCL
La COP30, nouveau rendez-vous manqué ? Certaines coalitions d’États ont tenté d’élever l’ambition, mais le texte final n’évoque pas la sortie des énergies fossiles.
Texte intégral (2555 mots)

À Belém, au Brésil, la COP30 devait réconcilier ambitions climatiques et justice sociale. Elle a finalement exposé la fragilité du processus onusien, pris en étau entre le poids des industries fossiles et les frustrations croissantes des pays les plus vulnérables, sur fond d’urgence climatique. Voici cinq raisons qui illustrent en quoi ce grand sommet tient du rendez-vous manqué.


La promesse d’un « sommet des peuples » s’est éteinte avec les feux de la COP30, samedi 22 novembre 2025. Le dernier sommet des Nations unies sur le climat, organisé dans la ville brésilienne de Belém, s’est déroulé dans le contexte géopolitique habituel, avec en prime le chaos suscité par une inondation et un incendie.

Le sommet a été marqué par des manifestations de communautés de peuples autochtones d’une ampleur sans précédent, mais les négociations finales ont, une fois de plus, été dominées par les intérêts des énergies fossiles et les tactiques pour jouer la montre. Après dix ans d’(in)action climatique depuis l’accord de Paris, le Brésil avait promis que la COP30 serait une « COP de mise en œuvre ». Mais le sommet n’a pas tenu ses promesses, alors même que le monde a enregistré un réchauffement climatique de 1,6 °C l’année dernière.

Voici nos cinq observations principales à porter au bilan de la COP30.


À lire aussi : 1,5 °C en plus au thermomètre en 2024 : quelles leçons en tirer ?


Des peuples autochtones présents mais pas assez impliqués

Le sommet se déroulait en Amazonie, ce qui a permis de présenter cette COP climat comme celle vouée aux populations en première ligne face au changement climatique. De fait, plus de 5 000 autochtones y ont participé et ont fait entendre leur voix.

Cependant, seuls 360 d’entre eux ont obtenu un laissez-passer pour la « zone bleue » ; principale zone consacrée aux négociations. Un chiffre à comparer aux 1 600 délégués de l’industrie des combustibles fossiles qui y ont été admis. À l’intérieur des salles de négociation régnait l’approche traditionnelle visant à privilégie la bonne marche des affaires (« business as usual »).

Les groupes autochtones n’avaient que le statut d’observateurs, privés du droit de voter ou d’assister aux réunions à huis clos.

Le choix du lieu, en Amazonie, était un symbole fort, mais qui s’est révélé délicat au plan logistique. Il a coûté des centaines de millions de dollars dans une région où une large partie de la population n’a toujours pas accès aux infrastructures de base.

Une image frappante de ces inégalités pourrait être la suivante : les chambres d’hôtel étant toutes occupées, le gouvernement brésilien a immobilisé deux bateaux de croisière pour les participants aux négociations. Or, ces derniers peuvent générer huit fois plus d’émissions de gaz à effet de serre qu’une nuitée en hôtel cinq étoiles par personne.


À lire aussi : COP après COP, les peuples autochtones sont de plus en plus visibles mais toujours inaudibles


Des manifestations qui ont permis des avancées locales

Mais il s’agissait du deuxième plus grand sommet des Nations unies sur le climat jamais organisé et le premier depuis la COP26 de Glasgow en 2021 à se dérouler dans un pays autorisant de véritables manifestations publiques.

Cela avait son importance. Des manifestations de toutes dimensions ont eu lieu tous les jours pendant les deux semaines de la conférence, notamment une « grande marche populaire » menée par les peuples autochtones le samedi 15 novembre au milieu de la conférence.

Cette pression, bien visible, a permis d’obtenir la reconnaissance de quatre nouveaux territoires autochtones au Brésil. Cela a montré que lorsque la société civile a voix au chapitre, elle peut remporter des victoires, même en dehors des négociations principales.


À lire aussi : Climat : les jeunes manifestants peuvent-ils encore peser sur les négociations pendant les COP ?


L’absence des États-Unis, à la fois un vide et une opportunité

Lors du premier mandat de Donald Trump, après son retrait de l’accord de Paris, en 2016, les États-Unis avaient malgré tout envoyé une équipe réduite de négociateurs. Cette fois-ci, pour la première fois dans l’histoire, les États-Unis n’ont envoyé aucune délégation officielle.

Donald Trump a récemment qualifié le changement climatique de « plus grande escroquerie jamais perpétrée dans le monde ». Depuis son retour au pouvoir, les États-Unis ont ralenti le développement des énergies renouvelables et relancé celui du pétrole et du gaz. Ils ont même contribué à faire échouer, en octobre 2025, les plans visant à mettre en place un cadre de neutralité carbone pour le transport maritime mondial.


À lire aussi : Les États-Unis torpillent la stratégie de décarbonation du transport maritime


Alors que les États-Unis reviennent sur leurs ambitions passées, ils permettent à d’autres pays producteurs de pétrole, comme l’Arabie saoudite, d’ignorer leurs propres engagements climatiques et de tenter de saper ceux des autres.

La Chine a comblé ce vide et est devenue l’une des voix les plus influentes dans la salle. En tant que premier fournisseur mondial de technologies vertes, Pékin a profité de la COP30 pour promouvoir ses industries solaire, éolienne et électrique et courtiser les pays désireux d’investir.

Mais pour de nombreux délégués, l’absence des États-Unis a été un soulagement. Sans la distraction causée par les États-Unis qui tentaient de « mettre le feu aux poudres » comme ils l’avaient fait lors des négociations sur le transport maritime, la conférence a pu se concentrer sur l’essentiel : négocier des textes et des accords pour limiter l’ampleur du réchauffement climatique.


À lire aussi : Empreinte carbone : les trois thermomètres de l’action climatique


Une mise en œuvre non plus sur la scène principale, mais grâce à des accords parallèles

Qu’est-ce qui a été réellement mis en œuvre lors de la COP30 ? Cette année encore, l’action principale s’est traduite par des engagements volontaires de certains États plutôt que par un accord mondial contraignant.

Le pacte de Belém, soutenu par des pays tels que le Japon, l’Inde et le Brésil, engage ses signataires à quadrupler la production et l’utilisation de carburants durables d’ici 2035.

Le Brésil a également lancé un important fonds mondial pour les forêts, avec environ 6 milliards de dollars (environ 5,2 milliards d’euros) déjà promis aux communautés qui œuvrent pour la protection des forêts tropicales. L’Union européenne (UE) a emboîté le pas en s’engageant à verser de nouveaux fonds pour le bassin du Congo, la deuxième plus grande forêt tropicale du monde.

Il s’agit d’étapes utiles, mais elles montrent que les avancées les plus importantes lors des sommets climatiques de l’ONU se produisent désormais souvent en marge plutôt que dans le cadre des négociations principales.

Le résultat des discussions principales de la COP30 – le « paquet politique de Belém » – est faible et ne nous permettra pas d’atteindre l’objectif de l’accord de Paris visant à limiter le réchauffement climatique à 1,5 °C.

Le plus frappant est l’absence des mots « combustibles fossiles » dans le texte final, alors qu’ils occupaient une place centrale dans l’accord de Glasgow sur le climat (en 2021, à la suite de la COP26, ndlr) et dans le consensus des Émirats arabes unis (en 2023, après la COP28, ndlr)… et qu’ils représentent bien sûr la principale cause du changement climatique.


À lire aussi : Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique


Le texte du « mutirão » mondial, une occasion manquée

Une avancée potentielle avait toutefois vu le jour dans les salles de négociation : le texte du « mutirão (effort collectif, en tupi-guarani, ndlr) mondial », une feuille de route proposée pour sortir des énergies fossiles. Plus de 80 pays l’ont signé, des membres de l’UE aux États insulaires du Pacifique vulnérables au changement climatique.

Tina Stege, envoyée spéciale pour le climat de l’un de ces États vulnérables, les îles Marshall, a pressé les délégués :

« Soutenons l’idée d’une feuille de route pour les combustibles fossiles, travaillons ensemble et transformons-la en un plan d’action. »

Mais l’opposition de l’Arabie saoudite, de l’Inde et d’autres grands producteurs d’énergies fossiles l’a édulcoré. Les négociations se sont prolongées, aggravées par un incendie qui a reporté les discussions d’une journée.

Lorsque l’accord final a été conclu, les références clés à l’élimination progressive des combustibles fossiles avaient disparu. La Colombie, par exemple, a réagi vivement à l’absence de mention de la transition vers l’abandon des combustibles fossiles dans le texte final. Cela a contraint la présidence de la COP à proposer un réexamen dans six mois en guise de geste d’apaisement.

Ce fut une énorme déception car, au début du sommet, l’élan semblait très fort.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Un fossé qui se creuse

Ce sommet sur le climat a donc été une nouvelle fois source de divisions. Le fossé entre les pays producteurs de pétrole (en particulier au Moyen-Orient) et le reste du monde n’a jamais été aussi large.

Le sommet a toutefois eu un aspect positif : il a montré la force des mouvements organisés. Les groupes autochtones et la société civile ont pu faire entendre leur voix, même si leurs revendications n’ont pas été reprises dans le texte final.

Le sommet de l’année prochaine se tiendra en Turquie. Ces sommets annuels sur le climat se déplacent de plus en plus vers des pays autoritaires où les manifestations ne sont pas les bienvenues, voire totalement interdites. Nos dirigeants ne cessent de répéter que le temps presse, mais les négociations elles-mêmes restent enlisées dans un cycle sans fin de reports.

The Conversation

Mark Maslin est vice-recteur adjoint du programme « UCL Climate Crisis Grand Challenge » et directeur fondateur de l'Institut pour l'aviation et l'aéronautique durables de l'UCL. Il a été codirecteur du partenariat de formation doctorale NERC de Londres et est membre du groupe consultatif sur la crise climatique. Il est conseiller auprès de Sheep Included Ltd, Lansons, NetZeroNow et a conseillé le Parlement britannique. Il a reçu des subventions du NERC, de l'EPSRC, de l'ESRC, de la DFG, de la Royal Society, du DIFD, du BEIS, du DECC, du FCO, d'Innovate UK, du Carbon Trust, de l'Agence spatiale britannique, de l'Agence spatiale européenne, de Research England, du Wellcome Trust, du Leverhulme Trust, du CIFF, de Sprint2020 et du British Council. Il a reçu des financements de la BBC, du Lancet, de Laithwaites, de Seventh Generation, de Channel 4, de JLT Re, du WWF, d'Hermes, de CAFOD, de HP, du Royal Institute of Chartered Surveyors, de la John Templeton Foundation, de la Nand & Jeet Khemka Foundation et de la Quadrature Climate Foundation.

La professeur Priti Parikh est directrice de la Bartlett School of Sustainable Construction de l'UCL et vice-doyenne internationale de la Bartlett Faculty of Built Environment. Elle est membre et administratrice de l'Institution of Civil Engineers. Ses recherches sont financées par l'UKRI, la Royal Academy of Engineering, Water Aid, la British Academy, Bboxx Ltd, l'UCL, la Royal Society et le British Council. Son cabinet de conseil a reçu des financements de l'AECOM, du Cambridge Institute for Sustainable Leadership, de Water and Sanitation for the Urban Poor, de l'UNHABITAT, d'Arup, de l'ITAD et de la GTZ.

Simon Chin-Yee ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.11.2025 à 13:43

Dick Cheney, une vie marquée par l’apogée et le crépuscule du néoconservatisme

Gabriel Solans, Doctorant en civilisation américaine, Université Paris Cité
Dick Cheney, sans être à proprement parler un néoconservateur, a été très proche de ce courant, aujourd’hui marginalisé par Donald Trump, pourtant lui aussi républicain.
Texte intégral (3247 mots)

Secrétaire à la défense sous Bush père, vice-président sous Bush fils, grand artisan de l’intervention des États-Unis en Irak en 2003, Dick Cheney restera dans l’histoire comme une figure emblématique de la mise en œuvre des idées néoconservatrices – un mouvement en recul au sein du Parti républicain depuis que Donald Trump en est devenu la tête de pont.


Décédé le 3 novembre 2025 à l’âge de 84 ans, Dick Cheney était l’une des figures les plus controversées de la politique américaine. L’ancien vice-président des États-Unis durant les deux mandats de George W. Bush (2001-2009) est connu à la fois comme le « père » de l’intervention en Irak de 2003 et comme un symbole malgré lui d’un courant intellectuel dont il ne faisait pas partie et qui a traversé la politique du pays après la Seconde Guerre mondiale, le néoconservatisme.

Son décès sonne comme le glas symbolique de ce courant associé au Parti républicain, à une politique étrangère offensive et à la défense d’Israël. Sa carrière, qui a connu tous les honneurs que peut offrir un cursus honorum américain, est le symbole de la trajectoire de toute une droite née dans le sillage de l’arrivée de Ronald Reagan au pouvoir en 1980. Quel est l’héritage de Dick Cheney et son lien avec ce courant ? Que reste-t-il du néoconservatisme aujourd’hui ?

Un début de carrière fulgurant

Quittant le Wyoming de sa jeunesse avec sa future épouse, Lynne Cheney, qu’il a connue au lycée, Richard B. Cheney entame sa carrière par de brillantes études à Yale (Connecticut) et un doctorat inachevé en sciences politiques. À partir de 1969, il rejoint l’administration Nixon où il travaille notamment pour Donald Rumsfeld, qui devient son mentor.

Quand Donald Rumsfeld est nommé secrétaire à la défense en 1975 par Gerald Ford, Dick Cheney passe directeur de cabinet de la Maison Blanche (White House Chief of staff), un poste clé, puis directeur de campagne de Gerald Ford en 1976 contre le démocrate Jimmy Carter. Selon l’anecdote, Dick Cheney était présent avec Donald Rumsfeld lors de la fameuse démonstration de la théorie de l’offre par l’économiste Arthur Laffer sur une serviette, l’affaire de la « serviette de Laffer ». La théorie de l’offre allait être le socle des reaganomics plusieurs années plus tard.

En 1978, il est élu représentant du Wyoming (ouest des États-Unis), siège qu’il conservera jusqu’en 1989. À la Chambre, il est rapidement associé à un autre représentant nouvellement élu en 1978 (en Géorgie), Newt Gingrich. L’ouvrage de Thomas E. Mann et Norman J. Ornstein The Broken Branch (2006), qui propose une généalogie de la crise que traverse depuis plusieurs décennies le Congrès américain, associe Gingrich et Cheney et présente le second comme un soutien actif du premier.

Newt Gingrich, accusé d’être l’homme qui a détruit la politique américaine, joue un rôle clé pour transformer le Parti républicain au Congrès entre 1978 et 1994 afin de le rendre plus offensif et plus homogène, de façon à ce qu’il soit en mesure d’enfin remporter les élections législatives. Le parti est en effet resté minoritaire à la Chambre durant 40 ans sans discontinuité, entre 1954 et 1994.

Le représentant Dick Cheney en 1984.

En 1994, après une ascension au sein du parti, Gingrich mène la campagne du Contrat avec l’Amérique lors des élections de mi-mandat de Bill Clinton. Cette première campagne législative unifiée sous un slogan commun permet au Parti républicain de redevenir majoritaire au Congrès. Le compagnon de route de Gingrich, Mel Steely, confirme dans sa biographie The Gentleman from Georgia (2000) le rôle clé de Dick Cheney, avec Trent Lott (chef de la majorité républicaine au Sénat de 1996 à 2002), pour constituer un relais privilégié de ses stratégies auprès de la Maison Blanche dès 1983. Ces faits sont confirmés par l’étude des archives de Gingrich (les Newt Gingrich Papers, situés à Tulane, en Louisiane).

Qui sont les néoconservateurs ?

Mais Dick Cheney est principalement connu pour deux choses : son rôle direct dans la seconde guerre du Golfe à partir de 2003 en tant que vice-président de George W. Bush et sa proximité avec ceux que l’on appelle les « néoconservateurs ».

« Tous les néoconservateurs sont faucons, mais tous les faucons ne sont pas néoconservateurs », comme l’écrit Justin Vaïsse, auteur d’un livre de référence sur les néoconservateurs, rappelant que Dick Cheney, Donald Rumsfeld ou John Bolton ont été leurs alliés, sans l’être vraiment eux-mêmes.

Ce courant de pensée est accusé d’être derrière les interventions en Afghanistan en 2001 et en Irak en 2003 et de leurs bilans désastreux, incarnant l’impérialisme américain. Né en 1965 au sein de la revue The Public Interest, il voit ses représentants arriver aux manettes sous la première administration Reagan à partir de 1980 et développer leur réflexion dans des think tanks comme l’American Enterprise Institute et l’Hudson Institute. Il finit par se confondre avec le conservatisme classique à partir de l’ère Reagan, intégrant le credo « fusionniste », nom donné à la synthèse conservatrice née en 1955 de l’association des libertariens aux conservateurs sociétaux.

Quelles sont leurs idées ? Si Justin Vaïsse distingue trois grands âges du néoconservatisme, Francis Fukuyama a pour sa part listé quatre de leurs grands principes. Le premier est la conviction, inspirée du philosophe Leo Strauss (1899-1973), que le caractère interne des régimes a de l’importance et que la politique étrangère doit refléter les valeurs les plus profondes des sociétés démocratiques libérales. Le deuxième est la conviction que la puissance américaine a été et doit être utilisée à des fins morales, et que les États-Unis doivent rester engagés dans les affaires internationales. Le troisième est la défiance systématique à l’encontre des ambitieux projets d’ingénierie sociale, une méfiance au cœur du néoconservatisme depuis sa naissance. Enfin, le dernier principe est le scepticisme au sujet de la légitimité et de l’efficacité de la législation et des institutions internationales pour imposer la sécurité ou la justice.

Les néoconservateurs sont arrivés au pouvoir lors de la première administration Reagan, passant du Parti démocrate au Parti républicain. Issus du trotskysme, la révélation des crimes de Staline les fit passer à l’aile droite du Parti démocrate.

C’est l’article de Jeane Kirkpatrick de 1979 dans la revue Commentary au sujet du soutien aux dictatures anticommunistes « Dictatorships and double standards » qui marque un tournant. Ronald Reagan, ayant apprécié cette analyse, voulut rencontrer l’autrice, fin février 1980. Richard V. Allen, qui devint conseiller à la sécurité nationale de Reagan, entre 1981 et 1982, se chargea de faire l’entremetteur et de recruter 26 néoconservateurs pour faire partie des 68 conseillers officiels du président en politique étrangère.

Le rôle de Dick Cheney dans l’évolution post-guerre froide du mouvement

Quand en 1989 George H. W. Bush succède à Reagan, dont il avait été le vice-président au cours de ses deux mandats, il nomme Cheney au poste de secrétaire à la défense. À ce titre, ce dernier joue un rôle déterminant pour façonner la doctrine néoconservatrice post-guerre froide. Ni Dick Cheney ni Donald Rumsfeld ne font partie du mouvement néoconservateur. Ils sont plutôt, comme le formulent Ivo Daalder et James Lindsay, des « nationalistes agressifs » (« assertive nationalists ») souhaitant démontrer la force de l’Amérique au Moyen-Orient. Mais des néoconservateurs se trouvaient dans l’entourage du président.

En 1992, à la sortie de la guerre froide, Dick Cheney et son proche entourage jouent un rôle clé pour façonner la doctrine néoconservatrice post-guerre froide. Pierre Bourgois, auteur d’un ouvrage, en 2023, sur ce courant, narre cet épisode. C’est en février 1992 qu’est publié le document « Defense Planning Guidance », rédigé par Paul Wolfowitz, sous-secrétaire à la politique de défense de Dick Cheney et éminent néoconservateur, entouré de Scooter Libby et de Zalmay Khalilzad, eux aussi membres importants du courant.

Dans ce document, nous voyons poindre les bases de la vision néoconservatrice post-guerre froide dans le cadre du « moment unipolaire américain ». L’objectif est d’assurer le maintien de l’hégémonie de Washington. Le New York Times publie des extraits du brouillon le mois suivant, ce qui provoque une polémique du fait du militarisme et de l’unilatéralisme qui imprègnent le texte. Dick Cheney est alors contraint de le réviser. Il publie une ultime version en janvier 1993 sous le nom de « Defense Strategy for the 1990s : The Regional Defense Strategy », moins polémique mais insistant sur l’accroissement du budget de la défense malgré la chute du bloc soviétique.

Entre 1995 et 2000, entre les administrations Bush père et fils, Dick Cheney administra l’entreprise pétrolière texane Halliburton qui fut au centre de plusieurs polémiques avec les contrats juteux engrangés après la guerre en Irak mais aussi en raison de ses pratiques comptables « agressives » sous le mandat Cheney.

La vice-présidence de 2001 à 2009 et la guerre en Irak

Le point culminant de la carrière de Dick Cheney fut sa vice-présidence durant les deux mandats de George W. Bush.

Bande-annonce du film Vice (2019), consacré à Dick Cheney interprété par Christian Bale.

Les attentats du 11 septembre 2001 ont permis aux néoconservateurs de l’administration Bush, tels que Paul Wolfowitz, Doug Feith, Scooter Libby ou encore Elliott Abrams, de faire prévaloir leur vision, avec leurs alliés bien en place incarnés dans le duo habituel Cheney/Rumsfeld, ce dernier étant cette fois-ci le secrétaire à la défense, avec Paul Wolfowitz pour numéro deux. Les néoconservateurs sont tenus pour responsables des guerres en Afghanistan et en Irak.

Avec la fin de l’URSS, le Moyen-Orient était devenu leur sujet de prédilection. Dick Cheney était très influencé par Bernard Lewis et Fouad Ajami, deux experts du monde islamique issus de ce courant.

Toute l’administration Bush n’est pas néoconservatrice, toutefois. Colin Powell, secrétaire d’État, était un réaliste, fréquemment opposé aux néoconservateurs. Condoleezza Rice, alors conseillère à la sécurité nationale, ne l’était pas non plus, mais restait plus neutre. Donald Rumsfeld était sous le feu de critiques virulentes tant de la part du Parti républicain que des néoconservateurs, Bill Kristol, figure du mouvement depuis les années 1990, allant jusqu’à clamer que l’armée méritait un meilleur secrétaire à la Défense. Rumsfeld avait pourtant été plus proche du mouvement que Dick Cheney, faisant partie du Committee on the Present Danger à partir de 1978 et codirigeant le Committee for the Free World, deux structures néoconservatrices majeures des années 1970.

Le déclin des néoconservateurs

La démission du secrétaire à la Défense Donald Rumsfeld en novembre 2006 marqua le début de leur déclin, suivie de la chute de Scooter Libby, chef de cabinet de Dick Cheney, et de la démission en 2006 du faucon John Bolton, nommé ambassadeur à l’ONU, à la suite des échecs en Irak.

Quid du néoconservatisme dans la droite étatsunienne actuelle ? Le Parti républicain et l’écosystème conservateur qui l’accompagne ont été profondément modifiés par l’arrivée de Donald Trump au pouvoir en 2016, qui a rompu idéologiquement avec l’héritage dit « fusionniste », ce mélange de conservatisme sociétal et de laissez-faire économique né en 1955, nous l’avons dit, avec la National Review, et enrichi plus tard du néoconservatisme en politique étrangère.

Imposant une rupture tant avec son prédécesseur démocrate qu’avec la ligne néoconservatrice de l’ère Bush, Trump a inauguré un nouveau rapport au monde fait de critique de la mondialisation néolibérale, de refus de l’interventionnisme en politique étrangère et de refus de l’immigration, laquelle était acceptée par les néoconservateurs. Dans un Parti républicain noyauté par Trump et ses proches, les derniers néoconservateurs sont partis en 2021, avec Liz Cheney, fille de Dick, représentante du Wyoming comme son père, qui n’a pas supporté l’assaut du Capitole du 6 janvier.

Ce qui reste de ce courant qui fut central durant trente ans dans le parti est rassemblé parmi les « Never Trumpers » avec la création, en 2018, du site The Bulwark soutenu par Bill Kristol, conçu avec les équipes de son Weekly Standard. Bill Kristol lança même en mai 2020 son Republican Accountability Project rassemblant des républicains militant contre Trump pour la présidentielle de 2020 dans le cadre d’une vaste campagne publicitaire à 10 millions de dollars (8,6 milliards d’euros) ciblant les Blancs diplômés des États clés.

Les think tanks historiques du néoconservatisme, l’American Enterprise Institute, qui a tant alimenté les administrations Bush, mais aussi l’Hudson Institute, sont aujourd’hui marginalisés, tandis que l’Heritage Foundation, think tank historique du reaganisme, a fait sa mue idéologique complète sous l’égide de Kevin D. Roberts, travaillant autant à fournir des milliers de curriculum vitæ à l’administration Trump 2 qu’à lui proposer le Projet 2025 clé en main.

Le scandale actuel autour de la fondation Heritage, consécutif à l’entretien du présentateur star de la galaxie MAGA Tucker Carlson, qui est officiellement associé à la fondation, avec l’influenceur antisémite Nick Fuentes, a déclenché un tollé au sein des derniers néoconservateurs, John Podhoretz, fils de Norman Podhoretz, l’un des penseurs clés du courant, accusant Kevin D. Roberts de souiller la mémoire de sa mère Midge Decter, de confession juive, qui fut longtemps présente au bureau du think tank. C’est une époque qui se clôt.

The Conversation

Gabriel Solans ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.11.2025 à 12:08

Pourquoi en France les start-ups dirigées par des femmes lèvent en moyenne 2,5 fois moins de fonds que celles dirigées par des hommes ?

Pauline Gibard, Maîtresse de conférences en entrepreneuriat, Université Jean Moulin Lyon 3
Marie-Christine Chalus, Professeur des Universités - DG IAE Lyon, Université Jean Moulin Lyon 3
L’investisseur est spontanément imaginé comme un homme. L’investisseuse comme bienveillante. Et si ces stéréotypes venaient aussi des entrepreneuses elles-mêmes ?
Texte intégral (1149 mots)
L’investisseuse est souvent perçue comme bienveillante, plus accessible et plus à l’écoute. Un stéréotype ancré chez certaines entrepreneures. Lightspring/Shutterstock

Le financement d’une entreprise n’est pas qu’une affaire d’argent. C’est une relation, une danse à deux où chaque partenaire projette des stéréotypes. Une étude donne la parole à des entrepreneures qui portent elles-mêmes ces représentations.


En France, les start-ups fondées par des femmes lèvent en moyenne 2,5 fois moins de fonds que celles fondées par des hommes. Ce constat illustre à quel point le financement reste l’un des principaux enjeux liés de l’entrepreneuriat féminin, parfois décrit comme un second plafond de verre. Il faut déjà s’imposer comme entrepreneuse, puis encore franchir la barrière de l’accès aux capitaux.

Jusqu’ici, c’est l’offre de financement qui a été principalement étudié : combien d’argent est disponible, comment fonctionnent les banques et les fonds ? Mais pour obtenir un financement, il faut d’abord… en faire la demande. Sur ce point, la recherche est encore rare.

C’est précisément ce que nous avons exploré dans notre étude publiée dans la Revue internationale PME, à travers 29 entretiens narratifs avec des entrepreneures. Leurs récits montrent que la demande de financement est avant tout une relation : une danse à deux entre entrepreneuse et financeurs, imprégnée d’attentes, de craintes et de stéréotypes.

La finance pensée comme un univers masculin

Dans cette danse, l’investisseur est spontanément imaginé comme un homme : « Quand je pense à un investisseur, je pense automatiquement à un homme » raconte une entrepreneure. Cela leur confère une légitimité « naturelle », rationnels, ambitieux, cartésiens.

Certaines entrepreneures y voient même un atout : « Je pense que les hommes investisseurs seraient plus à même de nous pousser dans nos retranchements pour faire avancer notre projet », estime l’une. Mais cette admiration s’accompagne souvent d’un malaise.

Plusieurs redoutent un regard condescendant ou un manque de crédibilité : « Si je demande un financement à un homme, j’aurais tendance à penser qu’il estime que j’ai moins de revenus », observe une autre. D’autres évoquent un sentiment de domination, voire le risque d’abus : « Je ne suis pas une friandise. Avec une femme au moins, on ne risque pas d’attouchement », insiste une fondatrice.

Les investisseuses, trop bienveillantes ?

Quand la partenaire de danse est une investisseuse, le pas change. Elle est souvent perçue comme plus accessible et plus à l’écoute « Je pense que les femmes seraient plus bienveillantes avec moi » estime une entrepreneure. Pour certaines, elles incarnent même un modèle inspirant.

On pourrait croire que les entrepreneures se tournent plus facilement vers des investisseuses. Mais la réalité est plus ambivalente. Certaines redoutent un excès de bienveillance, perçu comme un manque d’exigence :

« C’est très cliché, mais j’aurais peur qu’avec un trop-plein de bienveillance, on ne me “pousse” pas assez. J’ai l’impression qu’entre hommes, on fait plus d’argent, on pousse plus ».

D’autres craignent au contraire une rivalité ou un jugement plus sévère : « On a un peu plus de pression face à une femme, car c’est soit de la compassion, soit du mépris… » explique une autre.

« Pas prévu de faire des enfants ensemble »

Face à ces représentations contrastées, les entrepreneures apprennent à choisir leurs partenaires de danse.

Certaines privilégient les investisseuses pour des projets destinés à un public féminin, ou dans des situations particulières comme une grossesse perçue comme mieux acceptée par une femme. D’autres préfèrent des investisseurs masculins, jugés plus crédibles ou plus susceptibles de « pousser » leur projet.


À lire aussi : Pour la première fois, une étude révèle ce qui se passe dans le cerveau d'un entrepreneur


Notons que toutes ne se laissent pas enfermer dans ce jeu de projections :

« Pour mon financement, je cherche des investisseurs qui font écho à mes valeurs profondes. Fille ou garçon, nous n’avons pas prévu de faire des enfants ensemble donc ce n’est pas un problème » raconte une fondatrice.

Une danse à deux traversée de stéréotypes

Ces témoignages rappellent que le financement entrepreneurial n’est pas qu’une affaire de capitaux ou de business plans. C’est une relation, une danse à deux, où chaque partenaire projette des stéréotypes.

Nos résultats montrent que les entrepreneures elles-mêmes portent et mobilisent des représentations. Voir les hommes comme plus rationnels, ou les femmes comme plus bienveillantes, influe sur la façon dont elles valorisent une relation de financement, et parfois sur leur capacité à s’y engager.

Améliorer l’accès au financement ne peut pas se limiter à féminiser les instances d’investissement. Il faut aussi comprendre comment ces imaginaires se construisent et orientent les relations. Car finalement, lever des fonds, ce n’est pas seulement obtenir un chèque. C’est accepter de danser, et la danse n’a de sens que si les deux partenaires trouvent l’accord.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.11.2025 à 12:08

Non fondée, l’approche par générations renforce surtout les préjugés

Nicolas Raineri, Professeur associé en comportement organisationnel, ICN Business School
L’analyse de nombreuses études suggère que les différences entre générations au travail sont surestimées et que d’autres facteurs expliquent nos attitudes professionnelles.
Texte intégral (1769 mots)

Génération X, Y ou Z, boomers ou alphas… le discours sur les générations est omniprésent chez certains experts du management. Pourtant, il est aussi très critiqué pour son manque de solidité scientifique. Plus grave, en confondant âge et génération, il est la porte ouverte à des pratiques de discriminations condamnées par la loi.


« Les jeunes d’aujourd’hui ne veulent plus travailler », « les millennials manquent de loyauté », « les baby-boomers ne comprennent pas les nouvelles technologies »… l’on retrouve ces poncifs dans les médias, les entreprises et les salles de réunion. Les « chocs de génération » semblent expliquer tous les maux du travail contemporain : désengagement, recul de la place du travail dans la vie, individualisme, rapport à l’autorité….

Mais nous sommes-nous suffisamment interrogés sur l’existence réelle de ces « générations », au sens sociologique ou psychologique du terme. Et si les générations n’existaient pas ? C’est la conclusion certes provocatrice, mais solidement étayée, de la plus vaste méta-analyse jamais menée sur le sujet, publiée dans le Journal of Organizational Behavior par Daniel Ravid et ses collègues.

Celle-ci combine les résultats de plusieurs études indépendantes portant sur une même question de recherche, afin d’obtenir une estimation globale plus précise et fiable de l’effet étudié. Ce massif travail de recherche démontre à partir de plus de 140 études regroupant plus de 158 000 individus que les différences entre générations au travail sont infimes, voire inexistantes.


À lire aussi : Seniors : comment travailler plus longtemps quand personne ne vous recrute plus ?


Fausses évidences

Le concept de génération repose pourtant sur un postulat logique et de prime abord évident et rationnel : les individus nés à la même époque sont façonnés par les mêmes événements historiques, technologiques et culturels, et développent ainsi des valeurs et des comportements relativement homogènes. De plus, le concept apparaît familier, il est largement usité au quotidien et renvoie à nos observations et ressentis à chacun ; l’on se rend bien compte des différentes manières de penser et d’agir entre nos aînés et nos cadets.

De fait, la soi-disant évidence, familiarité et simplicité d’un cadre d’analyse réduisant toute une génération à des archétypes comportementaux – tels que les baby-boomers décrits comme matérialistes et attachés au travail, les générations X jugées sceptiques et individualistes, ou les millennials présentés comme idéalistes mais narcissiques –, en fait un objet très utile pour le storytelling managérial. Il permet de catégoriser les collaborateurs et leurs préférences en un clin d’œil, et alimente un marché florissant : formations, conférences, livres blancs et articles de presse vantent les vertus de la « gestion intergénérationnelle ».

Pourtant, les données ne suivent pas. Ravid et ses collègues arrivent à la conclusion que les différences entre générations sont statistiquement insignifiantes sur tous les indicateurs clés du monde du travail : satisfaction, engagement, motivation, valeurs, équilibre entre la vie professionnelle et personnelle, stress, intention de quitter son emploi. Autrement dit, un millennial n’est pas moins engagé qu’un boomer ni plus stressé qu’un GenX.

Distinguer âge et génération

Il est d’ailleurs essentiel de distinguer l’âge de la génération : l’âge renvoie à une étape du parcours individuel, tandis que la génération suppose une appartenance collective fondée sur une période de naissance commune. En effet, les variations observées semblent surtout relever de l’âge ou du contexte socio-économique au moment où les personnes ont été interrogées, pas d’une appartenance générationnelle.

L’étude rappelle que lorsqu’on compare des groupes d’âge, trois effets se confondent :

  • l’effet d’âge, lié au cycle de vie (on ne pense pas le travail de la même façon à 25 ans et à 55 ans) ;

  • l’effet de période, lié aux conditions économiques et sociales du moment (désengagement ou quête de sens touchent toutes les tranches d’âge après la crise sanitaire de 2020-2021) ;

  • et l’effet de cohorte, celui-là même qui correspond aux potentielles différences générationnelles.

Or, ces trois effets sont indissociables. Quand l’on constate une différence, il est impossible de savoir si elle provient du fait d’avoir grandi dans les années 2000 ou simplement d’avoir 20 ans à une époque donnée.

Mêmes événements, sens différents

Par ailleurs, les événements censés « façonner » les générations (crises économiques, attentats, innovations technologiques) ne touchent pas toute une génération de manière uniforme : ils ne revêtent pas le même sens pour une étudiante française, une étudiante brésilienne ou indienne du même âge, ni même entre deux étudiants français issus de milieux sociaux différents. À cela s’ajoute également des différences individuelles qui ne sont pas l’apanage d’une génération. L’idée de génération tend à négliger le contexte comme la diversité individuelle, et relève d’une vision souvent ethnocentrée et simplificatrice, largement héritée du contexte américain et des modes managériales qui l’accompagnent.

En fonction des études, les sciences de gestion et la psychologie sont plus ou moins prudentes et réservées sur le concept de génération, ou du moins sur l’existence de différences substantielles légitimant une personnalisation des méthodes de communication, de recrutement ou de management en fonction de la génération plutôt qu’en fonction de l’âge, du stade de carrière ou de la période considérée. Cette approche contribue à entretenir le mythe générationnel, alors que les données tendent, au contraire, à montrer l’inverse.

Le principal problème posé par l’approche générationnelle réside dans l’usage de stéréotypes dont les effets peuvent être davantage négatifs que positifs sur la performance, la motivation et l’équité au travail. Lorsqu’un manager suppose qu’un jeune collaborateur « changera vite d’emploi » ou « ne supporte pas la hiérarchie », il modifie son comportement – moins de feedback, moins de confiance –, ce qui finit par confirmer sa croyance. Les stéréotypes deviennent des prophéties autoréalisatrices.

Gare à l’âgisme

Par ailleurs, cette logique alimente aussi l’âgisme : les collaborateurs plus âgés font l’objet de stéréotypes inverses, tels que « les seniors ne comprennent pas les nouvelles technologies » ou « résistent au changement », qui peuvent conduire à leur mise à l’écart ou à une moindre reconnaissance de leurs compétences. Le risque est également juridique : des dispositifs législatifs encadrant la discrimination liée à l’âge existent dans de nombreux pays, y compris en France, où le Code du travail prohibe toutes les formes de discrimination, notamment celle fondée sur l’âge.

Si les générations ne structurent pas nos attitudes au travail, d’autres facteurs le font. Les recherches en sciences de gestion et en psychologie montrent que les différences observées tiennent davantage à l’âge et au stade de carrière, à la personnalité et aux trajectoires de vie, ou encore aux expériences de travail et au contexte organisationnel, bien plus qu’à une appartenance générationnelle.

Repenser le mythe générationnel

Un jeune collaborateur n’est pas « différent » parce qu’il est de la génération Z : il l’est parce qu’il débute, qu’il a moins d’expérience, qu’il se situe à un autre moment de sa trajectoire de vie, dans un contexte socio-économique donné. Par ailleurs, les évolutions du travail (précarité, intensification, numérisation) touchent tout le monde, mais chacun y réagit selon ses ressources personnelles et son environnement professionnel, et non selon son année de naissance.

Fnege media 2024.

Repenser le mythe générationnel ne signifie pas nier la diversité des rapports au travail. Il s’agit de changer de grille de lecture. Plutôt que d’opposer des « jeunes » et des « anciens », on peut s’interroger sur la manière dont les organisations favorisent la coopération interâges, valorisent les apprentissages croisés (mentorat, tutorat, parrainage), et adaptent leurs pratiques non pas à des étiquettes générationnelles, mais à des besoins, des motivations et des parcours individuels.

Comme le soulignent Ravid et ses collègues, il s’agit avant tout de dépasser les lectures parfois trop simplistes pour comprendre la complexité des comportements au travail. Le désengagement ou la quête de sens ne sont pas des symptômes générationnels, mais des réactions humaines à un environnement professionnel en mutation, qui touche toutes les catégories de travailleurs, indépendamment des étiquettes générationnelles qui leur sont attribuées.

The Conversation

Nicolas Raineri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.11.2025 à 12:07

Investir dans la biodiversité, entre conviction(s) et rendement(s)

Imane El Ouadghiri, Professeur de finance, Pôle Léonard de Vinci
Francesco Paolo Appio, Professor, PSB Paris School of Business
Jonathan Peillex, Professeur de finance, ICD Business School
Mohammed Benlemlih, Professeur
Une analyse de dix indices boursiers intégrant des critères liés à la biodiversité conclut à la compatibilité entre rendements financiers et prise en compte de l'environnement.
Texte intégral (1676 mots)
En Europe, les indices de biodiversité enregistrent une surperformance par rapport aux indices boursiers classiques. JhampierGironM/Shutterstock

Une étude a analysé la performance de dix indices boursiers intégrant des critères liés à la biodiversité. La conclusion : il n’y a pas d’arbitrage nécessaire entre rentabilité et responsabilité environnementale.


La perte de biodiversité constitue un défi majeur pour nos sociétés. L’érosion du vivant met en péril la stabilité des écosystèmes, la sécurité alimentaire, la santé humaine et, plus largement, le fonctionnement de l’économie globale. Au cours des cinquante dernières années, les populations d’animaux sauvages suivies par l’indice Planète vivante ont connu un déclin moyen de 73 %.

Dans ce contexte, plusieurs institutions financières comme Euronext ont récemment lancé des produits d’investissement dédiés à la biodiversité, sous la forme d’indices boursiers. Ces derniers sélectionnent les entreprises les plus vertueuses en matière de protection du vivant.

Ces produits, porteurs d’une ambition éthique, soulèvent une question essentielle : sont-ils compatibles avec une exigence de performance financière ? Autrement dit, investir dans la biodiversité implique-t-il de renoncer à une partie de ses rendements ?

Dix indices biodiversité passés au crible

Dans une étude publiée dans le Journal of Environmental Management, nous avons analysé la performance de dix indices boursiers intégrant des critères liés à la biodiversité, élaborés par trois acteurs majeurs du marché : Euronext, Stoxx et S&P Global.


À lire aussi : La biodiversité : pas qu’une affaire d’écologistes, un impératif économique et financier


Ces indices intègrent chacun des filtres spécifiques visant à exclure les entreprises les plus nuisibles à la biodiversité. Ils se basent sur des méthodologies liées notamment sur l’empreinte biodiversité, l’intensité d’impact sur les écosystèmes, la contribution aux Objectifs de développement durable (ODD), ou encore l’exposition à des activités controversées – plastiques, pesticides, huile de palme non durable, etc.

Ces indices couvrent des zones géographiques variées – Europe, Amérique du Nord, Asie-Pacifique, etc. – et sont comparés à leurs indices de référence traditionnels, plus généralistes, afin d’évaluer leurs performances respectives.

Performances financières

Nos résultats s’appuient sur un ensemble de données empiriques : évolution des prix, rendements et volatilités annualisés, ratios de performance (Sharpe, Treynor, Sortino) et modèles économétriques (alphas de Jensen, Fama-French et Carhart).

L’ensemble converge vers une conclusion : les indices biodiversité affichent des performances financières en moyenne très proches de leurs benchmarks traditionnels.

Cours de certains indices boursiers dédiés à la biodiversité. Fourni par l'auteur

Dans certaines zones géographiques, la performance est même légèrement supérieure. En Europe, les indices biodiversité enregistrent une surperformance moyenne de +5,09 points de base par rapport à leur équivalent classique, notamment grâce à la forte représentation d’entreprises engagées dans des stratégies de réduction d’impact (cosmétiques, énergie, infrastructures).

Aux États-Unis, les indices spécialisés affichent également une avance moyenne de +2,17 points de base, portée en particulier par le S&P 500 Biodiversity Index, dont la méthodologie permet de cibler des entreprises déjà pionnières en matière de gestion durable des écosystèmes.

Côté risque, la volatilité est quasiment identique : 14,34 % pour les indices biodiversité, contre 13,57 % pour leurs équivalents classiques, un écart trop faible pour traduire une perte de diversification. Les portefeuilles orientés biodiversité tels que l’Euronext Biodiversity Enablers World Index, l’ISS Stoxx Europe 600 Biodiversity Focus SRI Index ou le S&P Global LargeMidCap Biodiversity Index n’affichent pas de risque accru.

La biodiversité s’intègre sans surcoût

L’absence de coût financier pour les portefeuilles orientés biodiversité s’explique par plusieurs mécanismes.


À lire aussi : Mon épargne contribue-t-elle à la restauration de la biodiversité ?


D’un côté, les entreprises engagées dans la préservation des écosystèmes bénéficient souvent d’une meilleure image de marque comme Unilever avec sa politique de réduction du plastique. Elles peuvent profiter d’une réduction du risque réglementaire en anticipant des interdictions futures, comme L’Oréal et ses filières d’approvisionnement durables.

Ces avantages compensent, voire dépassent, les coûts initiaux de mise en conformité.

À l’inverse, certaines entreprises exclues des indices comme les producteurs intensifs de pesticides, les acteurs du plastique ou de l’extraction minière, affichent parfois de bonnes performances à court terme. Elles sont fortement exposées à des risques de long terme : litiges environnementaux, interdictions de produits, atteinte à la réputation ou transition réglementaire accélérée.

Les investisseurs anticipent de plus en plus ces risques, entraînant une valorisation moins favorable de ces entreprises.

Vers une finance alignée avec les enjeux du vivant

Pour les investisseurs institutionnels, qu’il s’agisse de fonds de pension, d’assureurs, de sociétés de gestion ou de fonds souverains, comme pour les particuliers, nos résultats montrent qu’il est tout à fait possible d’aligner son portefeuille avec ses convictions écologiques sans renoncer à la performance financière.

Pour les entreprises, l’intégration dans un indice biodiversité constitue un signal particulièrement valorisant. Elle peut notamment faciliter l’accès à des financements verts variés. De nombreuses organisations émettent aujourd’hui des obligations vertes, ou green bonds, pour financer des projets liés à la restauration d’habitats ou à la réduction des pollutions. Parallèlement, la montée en puissance de fonds d’investissement thématiques « nature-positive » et l’ouverture de programmes européens tels qu’InvestEU renforcent les opportunités de financement pour les entreprises engagées dans la transition écologique.

Du côté des autorités de régulation, ces résultats confortent l’intérêt de mettre en place des référentiels clairs, transparents et comparables. Plusieurs cadres émergents jouent déjà un rôle structurant :

Pris ensemble, ces dispositifs renforcent la place de la biodiversité dans les décisions financières et orientent progressivement les capitaux vers les entreprises les plus engagées en faveur du vivant.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.11.2025 à 12:06

OnlyFans, MYM, Fansly : quand l’intime et la solitude sont marchandisables

Faouzi Bensebaa, Professeur de sciences de gestion, Université Paris Nanterre
Mokhtar Bouzouina, Docteur en sciences de gestion, Université Paris Nanterre
Derrière la promesse d’intimité se terre un système qui exploite les vulnérabilités humaines. Les offreurs et les demandeurs semblent y trouver leur compte. Un contentement de façade ?
Texte intégral (1914 mots)
L’intimité devient un espace transactionnel où la relation humaine se convertit en service numérique tarifé. MelnikovDmitriy/shutterstock

Les plateformes numériques du sexe sont en pleine croissance. Que dit leur succès de notre société ? Leur modèle reposant sur la promesse d’intimité, la liberté des créateurs et des abonnés est questionnée, tant du côté de la répression que de celui de l’émancipation. Au milieu, les pouvoirs publics tentent de réguler ce marché singulier.


L’économie du sexe accompagne les grandes innovations technologiques : la presse au XIXe et une bonne partie du XXe siècle, le Video Home System (VHS) dans les années 1980 et 1990, les webcams au début des années 2000. Aujourd’hui, une nouvelle génération de plates-formes numériques, comme OnlyFans, MYM ou Fansly, occupe une place centrale dans le paysage numérique.

Leur succès ne repose pas seulement sur la diffusion d’images intimes, mais sur la monétisation de l’interaction personnalisée entre créateurs et abonnés – une forme d’économie de la proximité simulée. Ce positionnement, que d’aucuns qualifient de girlfriend experience transformerait le lien simulé en produit marchandisable. L’attention, le désir et les émotions sont transformés, dans cette perspective, en produits de consommation. Un système qui monétise la solitude, exploite les vulnérabilités et banalise la marchandisation du lien humain.

Ces plateformes posent une question fondamentale sur l’économie de l’intimité : que dit leur succès de notre société ? Loin d’être neutre, leur modèle, qui se veut idiosyncrasique, soit propre à chaque individu, repose essentiellement sur la monétisation de l’intime et de la solitude.

Un marché concentré et florissant

Acteur majeur, OnlyFans, propriété de la société britannique Fenix International ltd, domine largement le marché avec plus de 220 millions d’utilisateurs et plus de 5,7 milliards d’euros de revenus. MYM, en forte croissance, a atteint 150 millions d’euros la même année, essentiellement en Europe. Les autres platesformes – Fansly, Fanvue, Loyalfans – restent pour l’instant marginales.

Modèle d’intermédiaire

S’appuyant sur un modèle économique asset light, où l’entreprise ne possède pas des actifs, les plateformes mettent en relation des créateurs et des abonnés. Elles agissent en intermédiaire technique et financier, se rémunérant via une commission sur les flux générés. Elles prélèvent une commission de 20 à 30 % sur les revenus générés par des créateurs individuels de contenu… sexuel.

Les créateurs sont responsables du contenu qu’ils publient, tandis que la plateforme assure uniquement l’hébergement et le paiement. En Europe, cette logique est encadrée par le Digital Services Act (DSA), entré en vigueur en 2023. Il renforce les obligations de diligence, de modération et de transparence des plateformes, tout en maintenant le principe d’exonération conditionnelle.

Une plateforme n’est pas responsable d’un contenu illicite tant qu’elle n’en a pas connaissance, mais doit agir rapidement après signalement.

Contenu sexuellement explicite

Quelques fragilités sont associées à cette configuration :

  • une dépendance envers une minorité de créateurs stars ;

  • de faibles barrières à l’entrée amenant constamment de nouveaux concurrents ;

  • une volatilité des abonnés, qui peuvent rompre leur contrat à tout moment.

Cette logique rappelle sans doute les analyses classiques sur la structure concurrentielle. En dépit de marges élevées, l’absence de barrières à l’entrée solides rend le secteur vulnérable à la régulation et aux changements d’usages. De surcroît, bien que les plateformes soulignent à l’envi la nécessité de la diversification – coaching, fitness, lifestyle –, la quasi-totalité des revenus provient d’un unique contenu, sexuellement explicite.

Le président-directeur général de OnlyFans, Keily Blair, déclare :

« Notre site héberge du contenu pour adultes, mais également toute une variété d'autres contenus : humour, sports, musique ou encore yoga. »

« Empowerment » ou exploitation ?

Le travail du sexe en ligne des femmes sur OnlyFans peut être interprété ? Peut-il être expliqué à travers les perspectives de l’oppression et de l’émancipation ? C’est que questionne une étude de la sociologue Dilara Cılızoğlu.


À lire aussi : La prostitution en milieu rural : précarité, violences, invisibilité


Sur le plan sociétal, ces plateformes cristallisent le débat. Pour certains créateurs, elles représentent une forme d’« empowerment » : possibilité de choisir son corps, de le mettre en scène et de le monétiser, pratiquement en toute autonomie.

Ce choix serait contingent à une pression économique et sociale liée à la sexualisation, qui conduit à la monétisation, appréhendée comme une nouvelle forme d’exploitation du corps humain.

Ces interrogations se reflètent dans les risques identifiés tant pour les créateurs que les consommateurs. Pour les premiers, l’exposition permanente les rend vulnérables au harcèlement, aux fuites de contenus ou à une dépendance économique à la plateforme. Pour les seconds, consommateurs, le danger réside dans les dépenses impulsives, l’isolement renforcé et la distorsion de la perception des relations intimes.

Réponse marchande à la solitude

Ces plateformes ont le vent en poupe parce qu’elles répondraient à des besoins bien réels : difficulté à établir des relations authentiques, isolement affectif, solitude. Mais en instrumentalisant ces fragilités, elles les aggravent. Les plateformes d’intimité offrent une réponse marchande à la solitude, transformant le manque de lien en source de profit.

S’agissant des consommateurs, la relation est conditionnée au paiement. Cette logique favorise des comportements compulsifs : confusion entre intimité simulée et relation réelle, dépenses répétées, isolement renforcé.

Concernant les créateurs, les risques sont tout autant dommageables. Derrière l’image d’un choix libre et d’un empowerment revendiqué, la réalité est souvent celle d’une dépendance économique substantielle et loin d’être exaltante. L’intimité, autrefois domaine privé, devient un espace transactionnel où la relation humaine se convertit en service numérique tarifé.

Le revenu dépend du maintien d’une exposition sexuelle constante, avec des pressions croissantes pour produire plus et aller plus loin. Le harcèlement en ligne, les fuites de contenus et la stigmatisation sociale sont, de surcroît, des menaces réelles et permanentes. L’argument de l’autonomie serait fallacieux et masquerait alors une réalité d’exploitation, peut-être plus subtile que ce qui est connu. C’est le marché qui imposerait ses règles, faisant fi de la liberté de l’individu et de son bien-être.

La régulation, une épée de Damoclès

Conscientes de ces risques, les autorités publiques ont cherché à asseoir une régulation avisée de ce marché. Dans cette veine, la vérification de l’âge, la lutte contre les contenus non consentis et la protection des mineurs sont devenues des priorités.

En France, MYM a choisi d’anticiper ces changements en adoptant des standards plus stricts, voulant à cet égard se distinguer et faire de la conformité un avantage concurrentiel.

La mise en conformité avec les exigences réglementaires comme le Digital Economy and Society Index (DESI) – notamment en matière de vérification d’âge, de modération des contenus ou de traitement des signalements – reste complexe et coûteuse. Si ces plateformes affichent aujourd’hui des marges élevées, leur développement s’inscrit dans un secteur soumis à une vigilance réglementaire continue, dont l’évolution peut rendre le modèle plus fragile à long terme.

Au final, entre misère affective, faux pouvoir et vraies victimes, le succès de ces plateformes dit moins l’essor de l’innovation numérique, que celui d’une société capable de transformer la solitude et l’intimité en marchandise, avec les risques sociétaux que cela implique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

24.11.2025 à 12:06

Et si le BDSM enseignait aux managers à mieux respecter leurs équipes ?

Nathalie Lugand, Docteure en psychologie sociale, Université d’Angers
Loin des représentations stéréotypées, les communautés BDSM élaborent une éthique du contrat et du « care » qui interroge les formes contemporaines du pouvoir au travail.
Texte intégral (1874 mots)

À l’heure où burn out et harcèlement moral explosent, le terme « sadomasochisme » sert souvent à décrire les relations de travail toxiques. Pourtant, les pratiquants du BDSM – bondage, discipline, domination/soumission et sadomasochisme – ont élaboré une éthique sophistiquée du consentement. Et s’il fallait puiser à cette source pour imaginer un management plus respectueux ?


L’idée m’est venue d’une rencontre inattendue, lors d’une immersion parmi des dominatrices professionnelles pour ma thèse. Un jour, l’une d’elles m’a confié, avec une lucidité qui m’a saisie, qu’elle fixait des limites strictes à ses pratiques pour une raison simple : « Il faut que je puisse encore me regarder dans le miroir le matin. » Cette phrase m’a marquée par sa justesse morale. Aujourd’hui, elle me revient avec force quand j’observe des managers énoncer des valeurs qu’ils ont cessé d’incarner. Comment font-ils, eux, pour se regarder dans le miroir ?

Le tournant néolibéral des années 1980 rime avec privatisation, délocalisation, flexibilisation et baisse des subventions publiques. Ces transformations s’accompagnent d’un tournant gestionnaire – ce que le juriste Alain Supiot a théorisé sous le nom de « gouvernance par les nombres ».

L’introduction de nouvelles méthodes de management a profondément transformé le travail. Parmi les dispositifs les plus délétères pour la santé mentale, l’évaluation individuelle des performances occupe une place centrale. On se souvient de la privatisation de France Télécom et des objectifs inatteignables fixés aux salariés pour mieux justifier leur pseudo « inadaptation ».

Privés de toute négociation et de soutien collectif, ces travailleurs ont cédé sous la pression, beaucoup ont plié, parfois jusqu’à l’anéantissement, sous le regard indifférent de collègues eux-mêmes pétrifiés par la peur. « Les suicides qui se sont produits dans le monde de l’entreprise, c’est la partie émergée de l’iceberg », rappelle Christophe Dejours. Dans ce contexte, la question du consentement devient centrale.

L’acceptation d’un système maltraitant

Pourquoi des individus hautement qualifiés, censés jouir d’une grande autonomie, acceptent-ils un système qui les malmène ? Pourquoi des personnes sensibles à la justice peuvent-elles en venir à exercer leur sadisme – jouir de faire du mal à autrui ? Comment peut-on voir un collègue se faire humilier et détourner le regard ?


À lire aussi : « Babygirl » avec Nicole Kidman : un film sur le sado-masochisme vu par une sexologue


La déstructuration des collectifs, la perte de confiance et d’entraide ont miné les bases de la coopération. La peur et la solitude ont favorisé des stratégies défensives ordinaires, comme le « chacun pour soi », des conduites déloyales, ou du clivage moral – comme lorsqu’un cadre humilie un ou une salariée avant de lui retirer son poste, puis part animer un atelier sur le harcèlement.

La servitude au travail n’est donc pas seulement imposée d’en haut : elle s’enracine aussi dans un processus par lequel nous apprenons à consentir à la souffrance, la nôtre, celle des autres, et parfois même à la reproduire pour nous protéger. Poser la question « À quoi, à qui, pourquoi consentons-nous ? » dépasse la sphère intime : c’est la première étape pour désamorcer l’engrenage de la servitude volontaire.

L’éthique de consentement dans les milieux BDSM

Loin des clichés qui réduisent le BDSM (bondage, discipline, domination/soumission et sadomasochisme) à une simple transgression les communautés kink – c’est-à-dire engagées dans des sexualités non normatives – ont, bien avant #MeToo, inventé une véritable éthique du consentement. Dès les années 1980, elles ont fait du contrat – accord clair, informé et renégociable – un outil central de la sexualité. Le cadre Safe, Sane, Consensual (SSC) visait à distinguer les pratiques consenties des abus.

Mais ces critères ont vite été jugés trop normatifs : que signifie être « sain » ? Et qui en décide ? En 1999, Gary Switch propose alors le modèle Risk-Aware Consensual Kink (RACK), que l’on peut traduire par « kink conscient des risques »). L’idée : aucune pratique humaine n’est totalement « safe », pas davantage le bondage que le ski. Il ne s’agit plus d’éliminer le risque, mais de le reconnaître et de le gérer de manière responsable. Au début des années 2010, le modèle PRICK (Personal Responsibility, Informed, Consensual Kink) pousse plus loin cette logique, en insistant sur la responsabilité individuelle de chaque participant et participante.

Vision libérale du consentement

Ces approches traduisent une vision libérale du consentement : elles font confiance à la capacité de chacun et chacune à décider et à assumer ses choix. Mais, comme le souligne Margot Weiss elles ignorent les inégalités : tout le monde n’a pas le même accès à l’information ni aux ressources. L’autonomie devient alors une exigence abstraite, qui masque les vulnérabilités et les rapports de pouvoir.

Face à ces limites, le modèle des 4C propose une alternative fondée sur quatre piliers :

  • Caring (sollicitude) : la sécurité devient une attention mutuelle et continue

  • Communication : un processus dynamique avant, pendant et après les scènes

  • Consent : un processus évolutif plutôt qu’un contrat figé

  • Caution (prudence) : une vigilance située, attentive aux contextes sociaux

Partager la charge de la vulnérabilité

Le caring, cœur du modèle, rompt avec le mythe libéral d’autonomie rationnelle. Il ne s’agit plus de responsabiliser individuellement face au risque, mais de partager la charge de la vulnérabilité. Ce cadre questionne le concept de responsabilité défini dans des situations de rapports de pouvoir asymétriques.

Les réponses des communautés BDSM ne sont pas définitives, mais elles témoignent d’une réflexion éthique vivante, qui mérite d’être prise au sérieux bien au-delà de ces milieux. Dans un monde où la charge du risque au travail est de plus en plus transférée à l’individu, ces expériences peuvent inspirer de nouvelles façons de travailler et de vivre ensemble.

Quand les règles deviennent des cages

Les créateurs de ces protocoles, tels que Gary Switch, appellent aujourd’hui à les dépasser, car « ils tendent à se substituer à la pensée ». Cette remise en question met en lumière un paradoxe : certains praticiens du BDSM, autrefois engagés pour la liberté sexuelle, défendent désormais une morale rigide, reproduisant sous couvert de « bonnes pratiques » les mêmes mécanismes de contrôle qu’ils cherchaient à contourner.

Cette dérive vers un fétichisme de la règle résonne bien au-delà de la sphère sexuelle ; elle s’incarne aussi, et peut-être surtout, dans les conditions sociales du travail. Les habitudes acquises sous le régime de la prescription professionnelle – ne pas penser, ne pas décider, exécuter mécaniquement ce qui est attendu – ne demeurent pas confinées au lieu de travail. Elle colonise nos vies intimes, formatant nos désirs selon le modèle de la performance et de l’autopromotion. Le profil LinkedIn et le profil Fetlife deviennent alors les deux faces d’une même pièce : celle de l’optimisation de soi à outrance qui, en voulant tout maximiser, finit par évacuer la singularité du sujet désirant.

Conseil économique, social et environnemental (Cese), 2025.

Les protocoles de consentement ne devraient pas servir à imposer des règles aveugles, mais à créer un cadre qui protège et valorise la subjectivité tout en laissant place à la spontanéité de la relation.

Au-delà des procédures et des protocoles

Résister à la pression sociale, dire non, refuser de participer à la violence ou à l’injustice. On y parvient parfois, puis on retombe dans de nouveaux conditionnements. Croire qu’il suffit d’appliquer des principes ou des protocoles pour éviter toute complicité avec l’injustice est illusoire : on peut suivre les procédures et contribuer malgré tout au pire.

L’éthique du BDSM ne se réduit pas à des procédures, aussi « transparentes » soient-elles. Ces cadres restent insuffisants pour saisir le cheminement vers l’émancipation des minorités sexuelles. Une véritable éthique naît de la parole – nourrie à la fois par des idéaux de justice et par des blessures singulières. C’est d’ailleurs une expérience personnelle d’isolement et de stigmatisation qui a conduit David Stein à imaginer le cadre du Safe, Sane, Consensual.

Fragilité des certitudes

C’est cette attention aux vulnérabilités partagées qui fonde un véritable travail éthique. Celui-ci ne repose pas sur des dispositifs sécuritaires nous garantissant contre la faute, mais sur notre capacité à naviguer dans l’incertitude, à switcher – c’est-à-dire à accepter la réversibilité des rôles et la fragilité de nos certitudes.

Cette approche ne nie pas le besoin de sécurité : elle le redéfinit. Il ne s’agit plus d’imposer un cadre rigide, mais de prendre le risque de se laisser transformer par la réponse de l’autre. Le véritable enjeu est là : faire de la règle un tremplin pour explorer l’inconnu, et accepter que la confrontation au réel bouscule sans cesse nos cadres. Le travail éthique commence quand nous osons nous aventurer au-delà du simple respect des procédures. Osons valoriser le courage et la pensée critique plutôt que l’obéissance aveugle.

The Conversation

Nathalie Lugand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.11.2025 à 14:55

Comment l’IA peut nous aider à dresser le portrait de la population parisienne d’il y a 100 ans

Sandra Brée, Chargée de recherche CNRS - LARHRA, Centre national de la recherche scientifique (CNRS)
La création d’une base de données à partir de l’ensemble des listes nominatives de la population parisienne de 1926, de 1931 et de 1936 ouvre de nouvelles perspectives à la recherche.
Texte intégral (2311 mots)
Au Réveil Matin, Maison Bénazet, café restaurant du 113 avenue Jean-Jaurès (XIX<sup>e</sup>), vers 1935. Bibliothèque historique de la Ville de Paris

L’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population », qui se tient actuellement, et jusqu’au 8 février 2026, au musée Carnavalet-Histoire de Paris, s’appuie sur les recensements de la population parisienne de 1926, de 1931 et de 1936, et contribue à renouveler le regard sur le peuple de la capitale dans l’entre-deux-guerres.


En France, des opérations de recensement sont organisées dès 1801, mais ce n’est qu’à partir de 1836 que des instructions spécifiques sont fournies pour procéder de manière uniforme dans toutes les communes du pays. Le recensement de la population est alors organisé tous les cinq ans, les années se terminant en 1 et en 6, jusqu’en 1946, à l’exception de celui de 1871 qui est reporté à l’année suivante en raison de la guerre franco-prussienne, et de ceux de 1916 et de 1941 qui ne sont pas organisés à cause des deux guerres mondiales.

Des données précieuses sur la population parisienne

Le premier but des recensements de la population est de connaître la taille des populations des communes pour l’application d’un certain nombre de lois. Ils permettent également de recueillir des informations sur l’ensemble des individus résidant dans le pays à un instant t pour en connaître la structure. Ces statistiques sont dressées à partir des bulletins individuels et/ou (selon les années) des feuilles de ménage (les feuilles de ménages récapitulent les individus vivant dans le même ménage et leurs liens au chef de ménage) remplies par les individus et publiées dans des publications spécifiques intitulées « résultats statistiques du recensement de la population ».

Liste nominative du recensement de la population de 1936, population de résidence habituelle, quartier Saint-Gervais (IVᵉ arrondissement). Archives de Paris : Cote D2M8 553

En plus de ces statistiques, les maires doivent également dresser une liste nominative de la population de leur commune. Mais Paris avait obtenu le droit de ne pas dresser ces listes. C’est le chef du bureau de la statistique parisienne, M. Lambert, qui décide de revenir sur cette exception dès 1926. Les listes nominatives de 1926, de 1931 et de 1936 sont donc les seules, avec celle de 1946, à exister pour la population parisienne.

Si Paris avait obtenu le droit de ne pas dresser ces listes, c’est en raison du coût d’une telle opération pour une population si vaste. La population parisienne compte, en effet, déjà près de 1,7 million d’habitants en 1861, un million de plus en 1901 et atteint son pic en 1921 avec 2,9 millions d’individus. Les données contenues dans ces listes sont particulièrement intéressantes, car elles permettent d’affiner considérablement les statistiques dressées pendant l’entre-deux-guerres.

Une base de données conçue grâce à l’IA

Ces listes, conservées aux Archives de Paris et numérisées puis mises en ligne depuis une dizaine d’années, ont déjà intéressé des chercheurs qui se sont appuyés dessus, par exemple, pour comprendre l’évolution d’une rue ou d’un quartier, mais elles n’avaient jamais été utilisées dans leur ensemble en raison du volume qui rend impossible leur dépouillement pour un chercheur isolé. Voulant également travailler à partir de ces listes – au départ, pour travailler sur la structure des ménages et notamment sur les divorcés –, j’avais moi aussi débuté le dépouillement à la main de certains quartiers.

Registre d’une liste nominative de recensement conservée aux Archives de Paris et présentée dans l’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population ». Musée Carnavalet/Paris Musées/Pierre Antoine

La rencontre avec les informaticiens du Laboratoire d’informatique, de traitement de l’information et des systèmes (LITIS), Thierry Paquet, Thomas Constum, Pierrick Tranouez et Nicolas Kempf, spécialistes de l’intelligence artificielle, a changé la donne puisque nous avons entrepris de créer une base de données à partir de l’ensemble des listes nominatives de la population parisienne de 1926, de 1931 et de 1936 dans le cadre du projet POPP. Les 50 000 images, qui avaient déjà été numérisées par les Archives de Paris, ont été traitées par les outils d’apprentissage profond et de reconnaissance optique des caractères développés au LITIS pour créer une première base de données.

Les erreurs de cette première base « brute » étaient déjà très faibles, mais nous avons ensuite, avec l’équipe de sciences humaines et sociales – composée de Victor Gay (École d’économie de Toulouse, Université Toulouse Capitole), Marion Leturcq (Ined), Yoann Doignon (CNRS, Idées), Baptiste Coulmont (ENS Paris-Saclay), Mariia Buidze (CNRS, Progedo), Jean-Luc Pinol (ENS Lyon, Larhra) –, tout de même essayé de corriger au maximum les erreurs de lecture de la machine ou les décalages de colonnes. Ces corrections ont été effectuées de manière automatique, c’est-à-dire qu’elles ont été écrites dans un script informatique permettant leur reproductibilité. Ainsi, nous avons par exemple modifié les professions apparaissant comme « benne » en « bonne » ou bien les « fnène » en « frère ».

Adapter la base à l’analyse statistique

Il a ensuite fallu adapter la base à l’analyse statistique. Les listes nominatives n’avaient, en effet, pas pour vocation d’être utilisées pour des traitements statistiques puisque ces derniers avaient été établis directement à partir des bulletins individuels et des feuilles de ménage. Or, l’analyse statistique requiert que les mots signalant la même entité soient inscrits de la même façon. Cette difficulté est exacerbée dans le cas des listes nominatives : les agents avaient peu de place pour écrire, car les colonnes sont étroites. Ils utilisaient donc des abréviations, notamment pour les mots les plus longs comme les départements de naissance ou les professions.

Nous avons dû par conséquent uniformiser la manière d’écrire l’ensemble des professions, des départements ou des pays de naissance, des situations dans le ménage et des prénoms. Pour ce faire, nous nous sommes appuyés sur différents dictionnaires, c’est-à-dire des listes de mots correspondant à la variable traitée provenant de recherches antérieures ou d’autres bases de données. Ainsi, pour corriger les prénoms, Baptiste Coulmont, qui a travaillé sur cette partie de la base a utilisé les bases Insee des prénoms et des personnes décédées. Marion Leturcq et Victor Gay ont, par ailleurs, utilisé les listes des départements français, des colonies et des pays étrangers, tels qu’ils étaient appelés pendant l’entre-deux-guerres, ou encore la nomenclature des professions utilisées par la Statistique générale de la France (SGF).

Enfin, nous avons créé des variables qui manquaient pour l’analyse statistique que nous souhaitions mener, comme la variable « sexe » qui n’existe pas dans les listes nominatives (alors que le renseignement apparaît dans les fiches individuelles), ou encore délimiter les ménages afin d’en comprendre la composition. Ce travail de correction et d’adaptation de la base est encore en cours, car nous travaillons actuellement à l’ajout d’une nomenclature des professions – afin de permettre une analyse par groupes professionnels  –, ou encore à la création du système d’information géographique (SIG) de la base pour réaliser la géolocalisation de chaque immeuble dans la ville.

Retrouver des ancêtres

La base POPP ainsi créée a déjà été utilisée à différentes fins. Une partie de la base (comprenant les noms de famille – qui, eux, n’ont pas été corrigés –, les prénoms et les adresses) a été reversée aux Archives de Paris pour permettre la recherche nominative dans les images numérisées des listes nominatives. Ce nouvel outil mis en place au début du mois d’octobre 2025 – et également proposé en consultation au sein de l’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population » – a déjà permis à de nombreuses personnes de retrouver leurs ancêtres.

Il nous a également été possible de fournir les premiers résultats tirés de la base POPP (confrontés aux résultats statistiques des recensements publiés) pour dresser des données de cadrage apparaissant sous forme d’infographies dans l’exposition (créées par Clara Dealberto et Jules Grandin). Ces résultats apparaissent également avec une perspective plus comparative dans une publication intitulée « Paris il y a 100 ans : une population plus nombreuse qu’aujourd’hui et déjà originaire d’ailleurs » (Ined, septembre 2025).

L’heure est maintenant à l’exploitation scientifique de la base POPP par l’équipe du projet dont le but est de dresser le portrait de la population parisienne à partir des données disponibles dans les listes nominatives des recensements de la population, en explorant les structures par sexe et âge, profession, état matrimonial, origine, ou encore la composition des ménages des différents quartiers de la ville.


L’autrice remercie les deux autres commissaires de l’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population » Valérie Guillaume, directrice du musée Carnavalet – Histoire de Paris, et Hélène Ducaté, chargée de mission scientifique au musée Carnavalet – Histoire de Paris et les Archives de Paris.

The Conversation

Sandra Brée a reçu des financements du CollEx-Persée, de Progedo, de l'humathèque du Campus-Condorcet et du CNRS.

23.11.2025 à 10:47

L’IA fait peser des risques sur la sécurité nationale, la démocratie et notre système de santé… Quelques pistes pour les réduire

David Rios Insua, Member of the ICMAT, AXA-ICMAT Chair in Adversarial Risk Analysis and Member of the Spanish Royal Academy of Sciences, Instituto de Ciencias Matemáticas (ICMAT-CSIC)
L’IA accélère la recherche et l’innovation, mais ouvre aussi la voie à des manipulations politiques, financières, sanitaires et militaires. La solution viendra tout autant des individus que des États…
Texte intégral (1944 mots)

L’essor fulgurant de l’intelligence artificielle offre d’immenses opportunités, mais fait également peser des risques majeurs sur la démocratie, l’économie, la santé et la sécurité, que seuls des usages responsables, des systèmes plus sûrs et une régulation internationale ambitieuse pourront contenir.


L’intelligence artificielle (IA) s’invite désormais dans presque tous les aspects de notre vie. Nous profitons de ses avantages, comme l’accélération de la découverte de nouveaux médicaments ou l’avènement d’une médecine plus personnalisée grâce à la combinaison de données et d’expertise humaine, souvent sans même nous en rendre compte. L’IA générative, qui permet de créer rapidement du contenu et d’automatiser la synthèse ou la traduction via des outils comme ChatGPT, DeepSeek ou Claude, en est la forme la plus populaire. Mais l’IA ne se limite pas à cela : ses techniques, issues principalement de l’apprentissage automatique, des statistiques et de la logique, contribuent à produire des décisions et des prédictions en réponse aux demandes d’utilisateurs.

Si elle permet désormais d’accélérer des travaux de recherche qui exigeaient autrefois des années, elle peut aussi être détournée, par exemple pour identifier des composants utiles à la mise au point d’armes biochimiques. Elle ouvre la voie à des technologies comme les véhicules autonomes, mais en leurrant leur système de vision, on peut aussi transformer ces véhicules en armes… Les risques liés à l’IA sont multiples et spécifiques, et doivent être compris comme tels, ne serait-ce que parce que les systèmes d’IA sont complexes et s’adaptent avec le temps, ce qui les rend plus imprévisibles. Au rayon des menaces, on trouve notamment les données utilisées pour entraîner les modèles sous-jacents, puisque des données biaisées produisent des résultats biaisés.

Globalement, des acteurs malveillants peuvent utiliser l’IA pour automatiser des attaques à grande vitesse et le faire à très grande échelle. Lorsque l’intelligence artificielle contrôle des systèmes critiques, toute attaque peut avoir des conséquences considérables. Et comme les outils d’IA sont largement accessibles, il est relativement facile de les utiliser pour causer des dommages.

Menaces pour la démocratie et la santé

Plus tôt cette année, le Forum économique mondial de Davos a mentionné les « conséquences négatives des technologies d’IA » dans son Global Risks Report, en raison de leur capacité à perturber la stabilité géopolitique, la santé publique et la sécurité nationale.

Les risques géopolitiques tournent majoritairement autour des élections. Avec l’IA, les possibilités de désinformer se sont multipliées : en quelques clics, un utilisateur peut créer de faux profils, produire des fake news et en adapter le langage pour manipuler avec une précision inquiétante. L’élection présidentielle roumaine de 2024 a été suspendue en raison d’une ingérence étrangère manifeste via les réseaux sociaux. À mesure que l’IA progresse, ces risques ne feront que s’intensifier.

Les conséquences financières de l’IA ne peuvent pas non plus être ignorées. Des fausses informations générées par ces outils sont désormais utilisées pour manipuler les marchés, influencer les investisseurs et faire varier les cours des actions. En 2023, par exemple, une image générée par IA montrant une explosion près du Pentagone, diffusée juste après l’ouverture des marchés américains, aurait provoqué une baisse de la valeur de certains titres. Par ailleurs, des attaques « par exemples contradictoires » – qui consistent à tromper un modèle d’apprentissage automatique en modifiant les données d’entrée pour provoquer des sorties erronées – ont montré qu’il était possible de manipuler des systèmes de scoring de crédit fondés sur l’IA. Conséquence : des prêts étaient octroyés à des candidats qui n’auraient pas dû en bénéficier.

L’IA menace également les systèmes de santé. On se souvient, lors de la pandémie de Covid-19, de la vitesse avec laquelle les fake news sur les vaccins ou les confinements se sont propagées, alimentant la méfiance dans certaines communautés. Au-delà, des systèmes de santé fondés sur l’IA et entraînés sur des données biaisées peuvent produire des résultats discriminatoires, refusant des soins à des populations sous-représentées. Une étude récente du Cedars Sinai a ainsi montré que plusieurs grands modèles de langage (LLM) « proposaient souvent des traitements inférieurs » lorsqu’un patient en psychiatrie était « explicitement ou implicitement présenté » comme afro-américain. Enfin, l’IA a élargi la surface d’exposition des hôpitaux, qui deviennent des cibles de choix.

Nous devons également rester attentifs aux enjeux de sécurité nationale posés par l’IA. La guerre en Ukraine en offre une illustration claire. Le rôle militaire accru des drones dans ce conflit, dont beaucoup sont alimentés par des outils d’IA, est un exemple parmi tant d’autres. Des attaques sophistiquées utilisant l’IA ont mis hors service des réseaux électriques et perturbé des infrastructures de transport. De la désinformation appuyée sur l’intelligence artificielle a été diffusée pour tromper l’adversaire, manipuler l’opinion publique et façonner le récit de la guerre. Clairement, l’IA est en train de redéfinir les champs traditionnels de la guerre.

Son impact s’étend au domaine sociétal, du fait de la suprématie technologique acquise par certains pays et certaines entreprises, mais aussi au domaine environnemental, en raison de la consommation énergétique de l’IA générative. Ces dynamiques ajoutent de la complexité à un paysage mondial déjà fragile.

Une voie vers une IA plus sûre

Les risques liés à l’IA sont en constante évolution et, s’ils ne sont pas maîtrisés, ils pourraient avoir des conséquences potentiellement catastrophiques. Pourtant, si nous agissons avec urgence et discernement, nous n’avons pas à craindre l’IA. En tant qu’individus, nous pouvons jouer un rôle déterminant en interagissant de manière sûre avec les systèmes d’IA et en adoptant de bonnes pratiques. Cela commence par le choix d’un fournisseur qui respecte les standards de sécurité en vigueur, les réglementations locales propres à l’IA, ainsi que le principe de protection des données.

Le fournisseur doit chercher à limiter les biais et être résilient face aux attaques. Nous devons également toujours nous interroger face aux informations produites par un système d’IA générative : vérifier les sources, rester attentifs aux tentatives de manipulation et signaler les erreurs et les abus quand nous en repérons. Nous devons nous tenir informés, transmettre cette vigilance autour de nous et contribuer activement à ancrer des usages responsables de l’IA.

Les institutions et les entreprises doivent exiger des développeurs d’IA qu’ils conçoivent des systèmes capables de résister aux attaques adversariales. Ces derniers doivent prendre en compte les risques d’attaques adverses, en créant des mécanismes de détection s’appuyant sur des algorithmes et, lorsque cela est nécessaire, en remettant l’humain dans la boucle.

Les grandes organisations doivent également surveiller l’émergence de nouveaux risques et former des équipes réactives, expertes en analyse du « risque adversarial ». Le secteur de l’assurance développe d’ailleurs désormais des couvertures spécifiquement vouées à l’IA, avec de nouveaux produits destinés à répondre à la montée des attaques adverses.

Enfin, les États ont eux aussi un rôle déterminant à jouer. Beaucoup de citoyens manifestent leur souhait que les IA respectent les droits humains et les accords internationaux, ce qui suppose des cadres législatifs solides. Le récent AI Act européen, première réglementation visant à favoriser un développement responsable de l’IA en fonction des niveaux de risque des systèmes, en est un excellent exemple. Certains y voient une charge excessive, mais je considère qu’il devrait être perçu comme un moteur destiné à encourager une innovation responsable.

Les gouvernements devraient également soutenir la recherche et l’investissement dans des domaines comme l’apprentissage automatique sécurisé, et encourager la coopération internationale en matière de partage de données et de renseignement, afin de mieux comprendre les menaces globales. (L’AI Incident Database, une initiative privée, offre un exemple remarquable de partage de données.) La tâche n’est pas simple, compte tenu du caractère stratégique de l’IA. Mais l’histoire montre que la coopération est possible. De la même manière que les nations se sont accordées sur l’énergie nucléaire et les armes biochimiques, nous devons ouvrir la voie à des efforts similaires en matière de supervision de l’IA.

En suivant ces orientations, nous pourrons tirer le meilleur parti du potentiel immense de l’IA tout en réduisant ses risques.


Créé en 2007 pour aider à accélérer et partager les connaissances scientifiques sur des questions sociétales clés, le Fonds Axa pour la recherche – qui fait désormais partie de la Fondation Axa pour le progrès humain – a soutenu plus de 750 projets à travers le monde sur des risques environnementaux, sanitaires et socio-économiques majeurs. Pour en savoir plus, rendez-vous sur le site web du Fonds Axa pour la recherche ou suivez @AXAResearchFund sur LinkedIn.

The Conversation

David Rios Insua a reçu des financements du ministère espagnol des Sciences, de l'Innovation et des Universités, des programmes H2020 et HE de la Commission européenne, de l'EOARD, du SEDIA espagnol, de la Fondation BBVA et de CaixaBank.

22.11.2025 à 18:08

Effets secondaires des chimiothérapies : une molécule française prometteuse pour lutter contre les neuropathies périphériques, dont souffrent près de 90 % des patients

Laurence Lafanechère, Directrice de recherche CNRS, Université Grenoble Alpes (UGA)
Une nouvelle molécule capable de protéger les neurones des effets toxiques de la chimiothérapie, tout en renforçant l’efficacité de certains traitements anticancéreux, a été découverte.
Texte intégral (1625 mots)

Une nouvelle molécule capable de protéger les neurones des effets toxiques de la chimiothérapie, tout en renforçant l’efficacité de certains traitements anticancéreux, a été découverte et offre des résultats prometteurs chez l’animal. Une start-up a été créée pour continuer son développement et mener des études chez l’humain.


Picotements dans les mains et les pieds, brûlures, douleurs, perte de sensibilité, sensation d’engourdissement… Les neuropathies périphériques figurent parmi les effets secondaires les plus fréquents de la chimiothérapie, touchant jusqu’à 90 % des patients pour certains traitements. Leur sévérité conduit parfois les praticiens à ajuster, voire à réduire les doses de chimiothérapie, ce qui peut en diminuer l’efficacité.

Dans un cas sur quatre, ces atteintes nerveuses persistent des mois, voire des années après la fin du traitement. Elles rappellent alors chaque jour aux patients qu’ils ont eu un cancer – alors même que leurs cheveux ont repoussé et que les nausées ou la fatigue ont disparu. Aucun droit à l’oubli, même une fois la maladie vaincue

À ce jour, hormis le port de gants et de chaussons réfrigérants pendant les séances de chimiothérapie – une méthode pas toujours efficace et souvent désagréable –, aucun traitement préventif n’existe. Quelques médicaments palliatifs sont utilisés, pour atténuer la douleur, avec une efficacité modeste.

Notre équipe, en collaboration avec des chercheurs états-uniens et français, vient de franchir une étape importante avec la découverte d’un composé, baptisé Carba1, capable de protéger les neurones des effets toxiques de la chimiothérapie, tout en renforçant l’efficacité de certains traitements anticancéreux. Ces travaux viennent d’être publiés dans la revue Sciences Advances.

Une molécule, deux cibles

Carba1 appartient à la famille des carbazoles, une classe de molécules développée par les chercheurs du Centre d’études et de recherche sur le médicament de Normandie (CERMN), avec lesquels nous collaborons depuis plus de dix ans.

Nos travaux ont mis en évidence que Carba1 agit sur deux cibles principales.

Premièrement, Carba1 interagit avec la tubuline, la brique de base des microtubules. Selon les besoins de la cellule, ces briques peuvent s’assembler pour former soit des « câbles » capables de tirer et de séparer les chromosomes lors de la division cellulaire, soit des « rails » sur lesquels se déplacent des moteurs moléculaires transportant nutriments et organites comme les mitochondries, assurant ainsi la distribution de l’énergie et des ressources dans toute la cellule.

Ce système de transport est particulièrement essentiel dans les cellules nerveuses, dont les prolongements peuvent atteindre plus d’un mètre de longueur, par exemple les neurones qui partent du ganglion rachidien, près de la moelle épinière et vont innerver la peau des pieds. De nombreux médicaments anticancéreux, tels que le paclitaxel (Taxol) ou le docétaxel (Taxotère), ciblent déjà ces structures afin de bloquer la prolifération des cellules tumorales. Cependant, cette action n’est pas sans conséquence : les neurones, eux aussi dépendants des microtubules pour le transport de leurs constituants, en sont affectés, ce qui constitue l’une des causes majeures des neuropathies.

Nous avons montré que Carba1 modifie subtilement les microtubules : il perturbe leur extrémité, favorisant la liaison du paclitaxel. Cette interaction permet d’utiliser des doses plus faibles du médicament anticancéreux sans perte d’efficacité contre les tumeurs.

Mais ce n’est pas tout.

Des neurones plus résistants

Deuxièmement, en examinant plus en détail les propriétés de Carba1, nous avons découvert qu’il agit également sur un autre front : le métabolisme énergétique. Les neurones figurent parmi les cellules les plus gourmandes en énergie, et la défaillance bioénergétique est considérée comme l’un des principaux facteurs contribuant à la dégénérescence neuronale.

Nos résultats montrent que Carba1 active directement une enzyme clé, la nicotinamide phosphoribosyltransférase (NAMPT), qui relance la production de NAD⁺, molécule cruciale pour la génération d’énergie. Résultat : les neurones deviennent plus résistants au stress métabolique et survivent mieux aux agressions des agents chimiothérapeutiques.

Nous avons confirmé l’effet neuroprotecteur de Carba1 sur des cultures de neurones exposées à trois agents chimiothérapeutiques connus pour induire une neuropathie, via des mécanismes différents : le paclitaxel (ciblant les microtubules), le cisplatine (agent alkylant) et le bortézomib (inhibiteur du protéasome).

Contrairement aux cultures témoins où s’étendent des prolongements neuritiques lisses et vigoureux, dans les cultures traitées par ces médicaments, les prolongements présentent un aspect fragmenté, caractéristique d’un processus de dégénérescence. En revanche, lorsque les neurones sont exposés à ces mêmes traitements en présence de Carba1, leurs prolongements demeurent intacts, indiscernables de ceux des cultures non traitées. Ces observations indiquent que Carba1 protège efficacement les neurones de la dégénérescence induite par ces agents neurotoxiques.

Des résultats encourageants chez l’animal

Pour aller plus loin, nous avons testé Carba1 dans un modèle de neuropathie chez le rat traité au paclitaxel, développé par le Dr David Balayssac à Clermont-Ferrand (unité Neurodol). Ce traitement provoque une hypersensibilité cutanée : les rats réagissent à des pressions très faibles sur leurs pattes, un signe de douleur neuropathique. L’analyse histologique montre également une diminution des terminaisons nerveuses intra-épidermiques, tandis que le sang présente des taux élevés de NfL (chaîne légère de neurofilaments), marqueur de dégénérescence neuronale.

Lorsque Carba1 est administré avant et pendant le traitement, ces altérations disparaissent : les nerfs restent intacts, la concentration de NfL demeure normale et la sensibilité cutanée des animaux reste inchangée. Autrement dit, Carba1 protège les neurones de la dégénérescence induite par le paclitaxel. Signe rassurant, Carba1 n’impacte pas la croissance tumorale.

Comme les neurones, les cellules cancéreuses consomment beaucoup d’énergie. Il était donc essentiel de vérifier que Carba1 n’avait pas d’effet pro-tumoral et qu’il ne diminuait pas l’efficacité du paclitaxel. Pour le savoir, nous avons administré Carba1 seul, ou en association avec une dose thérapeutique de paclitaxel, à des souris porteuses de tumeurs greffées. Les résultats sont clairs : Carba1 n’a provoqué aucun effet toxique, ni altéré la santé générale des animaux, ni stimulé la croissance des tumeurs. Il n’interfère pas non plus avec l’action anticancéreuse du paclitaxel.

Une nouvelle voie vers des traitements mieux tolérés

Cette découverte est particulièrement enthousiasmante, car elle combine deux effets rarement réunis :

  • renforcer l’efficacité des médicaments anticancéreux de la famille du paclitaxel (taxanes) en permettant d’en réduire la dose ;

  • préserver les nerfs et améliorer la qualité de vie des patients pendant et après le traitement.

Avant d’envisager un essai clinique chez l’humain, plusieurs étapes restent indispensables. Il faut d’abord confirmer la sécurité de Carba1 chez l’animal, déterminer la dose minimale efficace et la dose maximale tolérée. Enfin, il sera nécessaire de mettre au point une formulation adaptée à une administration chez l’humain.

Cette mission incombe désormais à la start-up Saxol, issue de cette recherche, dont je suis l’une des cofondatrices. Si ces étapes – qui devraient s’étendre sur cinq ans au moins, selon les défis techniques et les levées de fonds – se déroulent comme prévu, Carba1 pourrait devenir le premier traitement préventif contre la neuropathie induite par la chimiothérapie – une avancée majeure qui pourrait transformer la façon dont les patients vivent leur traitement anticancéreux.

Carba1 incarne une innovation à l’interface de la chimie, de la neurobiologie et de l’oncologie. En associant protection neuronale et renforcement de l’efficacité thérapeutique, cette petite molécule pourrait, à terme, réconcilier traitement du cancer et qualité de vie. Pour les millions de patients confrontés à la double épreuve du cancer et de la douleur neuropathique, elle représente un espoir concret et prometteur.

The Conversation

Laurence Lafanechère est cofondatrice et conseillère scientifique de la Société SAXOL. Pour mener ses recherches elle a reçu des financements de : Société d’Accélération de Transfert de Technologies Linksium Maturation grant CM210005, (L.L) Prématuration CNRS (LL) Ligue contre le Cancer Allier et Isère (LL, C.T, D.B.) Ruban Rose (LL)

22.11.2025 à 08:18

Syndicats : la longue marche des femmes pour se faire entendre

Fanny Gallot, Historienne, Université Paris-Est Créteil Val de Marne (UPEC)
Longtemps dominés par les hommes, les syndicats français ont tardé à intégrer les luttes féministes, explique l’historienne Fanny&nbsp;Gallot dans un chapitre de l’ouvrage collectif «&nbsp;Théories féministes&nbsp;», paru au Seuil.
Texte intégral (2462 mots)

Si deux femmes sont aujourd’hui à la tête de deux des principaux syndicats français, les organisations syndicales ont mis du temps à intégrer les questions féministes. Dans le chapitre « En finir avec un syndicalisme d’hommes » de l’ouvrage collectif « Théories féministes » (Seuil, septembre 2025), l’historienne Fanny Gallot raconte leur difficile mue féministe au sein d’un mouvement ouvrier au départ méfiant envers le travail des femmes.


Si les revendications féministes ont longtemps été perçues par les organisations syndicales comme divisant la classe ouvrière et représentant des intérêts considérés comme bourgeois, elles ont néanmoins servi d’aiguillon, jouant un rôle fondamental dans la prise en compte des droits sociaux et professionnels des femmes. Pour mieux saisir les défis théoriques et militants actuels dans l’articulation entre revendications féministes et orientations syndicales, il importe de revenir sur l’histoire de l’articulation entre ces mouvements.

Pour la période d’avant 1914, l’historienne Marie-Hélène Zylberberg-Hocquard rappelle la méfiance du mouvement ouvrier envers le travail des femmes, perçu comme une menace pour les salaires masculins et l’organisation traditionnelle du travail. « Ménagère ou courtisane », écrivait Pierre-Joseph Proudhon au milieu du XIXe siècle à propos du rôle des femmes dans la société : leur travail professionnel était loin d’être alors une évidence. Au tournant du XXe siècle, ces orientations expliquent leur faible syndicalisation et les tensions entre objectifs féministes et syndicaux, tandis que les femmes ne peuvent se syndiquer sans l’autorisation de leur mari jusqu’en 1920.

Résistance syndicale à l’intégration des femmes

En 1901, l’affaire Berger-Levrault, analysée par l’historien François Chaignaud, est emblématique des tensions entre féminisme et syndicalisme : la direction de l’imprimerie Berger-Levrault (à Nancy, ndlr) fait appel à des ouvrières pour remplacer des grévistes masculins, ce qui provoque un conflit avec le Syndicat des femmes typographes. En 1913, une typographe voit ainsi son adhésion syndicale refusée sous prétexte qu’elle est mariée à un syndiqué (le fond du problème, c’est qu’elle est elle-même typographe et que la Fédération du Livre voyait d’un mauvais œil le travail des femmes, ndlr) : c’est l’affaire Couriau, qui illustre bien la résistance syndicale à l’intégration des femmes et montre comment le travail féminin est perçu comme dévalorisant les conditions salariales globales, limitant la reconnaissance des femmes comme partenaires légitimes dans la lutte sociale.

Les organisations syndicales relèguent ainsi les revendications portant sur l’égalité salariale au second plan, au profit de la lutte des classes considérée comme prioritaire, et ce d’autant plus que le travail des femmes, moins bien rémunéré, tendrait à « tirer les salaires vers le bas ».

Seule photographie connue de Lucie Baud, non datée.

Les femmes sont alors perçues comme des travailleuses temporaires apportant un salaire d’appoint au ménage : c’est le salaire de l’homme gagne-pain qui est censé nourrir l’ensemble de la famille.

Des initiatives pionnières, à l’image de celles de Lucie Baud, syndicaliste et ouvrière en soierie, révèlent néanmoins l’implication des femmes dans les grèves et leur appropriation de l’outil syndical pour lutter contre des conditions de travail inhumaines.

De leur côté, les institutrices s’organisent en amicales puis en syndicats et groupes d’études. […] Les femmes vont ensuite participer massivement aux grèves de mai-juin 1936 dans tous les secteurs et sur l’ensemble du territoire.


À lire aussi : Comprendre le mythe du Front populaire


Tandis que Martha Desrumaux coordonne les grèves du textile dans le Nord, les femmes des grands magasins – où elles composent 80 % de la main-d’œuvre – entrent dans la mobilisation et occupent leurs lieux de travail bien qu’elles n’y soient pas toujours bien accueillies par les hommes, y compris syndicalistes.

Cependant, la plupart du temps, elles ne prennent pas la tête des mobilisations. Malgré leur participation active aux grèves et la montée en puissance de la revendication « à travail égal, salaire égal » depuis les années 1920, l’écart de salaires entre les femmes et les hommes est maintenu, le patronat autant que les syndicats tenant à cette différenciation. Si la revendication est formellement portée par les structures syndicales sous la pression des militantes, elle n’est pas prioritaire et n’est pas reprise par les hommes qui, seuls, participent aux négociations.

La difficile mue féministe des syndicats

Après la Seconde Guerre mondiale, la création de commissions féminines au sein des syndicats, notamment à la CGT, marque un tournant. Ces structures, destinées à intervenir spécifiquement auprès des salariées, restent cependant limitées dans leur portée. Ce n’est qu’à partir des années 1960 que des avancées significatives émergent, bien que l’idée de complémentarité naturalisée des sexes continue de prédominer au sein des syndicats.

Cependant, durant les « années Beauvoir » que l’historienne Sylvie Chaperon a étudiées, l’action des militantes conduit à poser plus largement la question de la syndicalisation des femmes.

Ainsi que l’ont montré les travaux de la sociologue Margaret Maruani, les années 1970 constituent une décennie de rupture marquée par l’émergence de mouvements féministes autonomes et l’intensification des luttes ouvrières. Ces deux dynamiques, bien que distinctes, ont souvent convergé dans leurs revendications. Les luttes pour la légalisation de la contraception et de l’avortement, portées par des collectifs comme le Mouvement pour la liberté de l’avortement et de la contraception (MLAC), exercent une pression importante sur les organisations syndicales, les obligeant à prendre position sur ces enjeux, tandis que les premières théorisations du travail domestique sont discutées.

Face à ces revendications, la CGT et la CFDT adoptent des stratégies distinctes. La CGT crée des secteurs féminins, tandis que la CFDT intègre ces questions de manière transversale. Ces approches reflètent des compréhensions différentes du féminisme, mais également des enjeux internes concernant la répartition des tâches et les rapports de pouvoir au sein des syndicats.

Ainsi, en 1970, la CGT récuse nationalement une conception « féministe de l’égalité », qu’elle considère comme étroite et, en 1973, elle précise cette analyse : « La conception “féministe” selon laquelle la société aurait été construite “par les hommes et pour les hommes” est erronée. » […]

Le mouvement féministe prend de l’importance et la CGT ne peut pas y rester imperméable, d’autant qu’une nouvelle génération de femmes syndicalistes se forge dans la foulée du mouvement de mai-juin 1968. Ces changements provoquent des conflits importants. Ainsi, à l’Union départementale du Rhône, les tensions, voire les heurts, entre le collectif féminin de la CGT et la direction syndicale sont fréquents, soulignant l’incapacité des organisations à concilier pleinement luttes pour les droits des femmes et stratégies syndicales.

Normes viriles de militantisme

C’est dans ce contexte tendu qu’intervient le suicide d’une militante de la CGT, Georgette Vacher. Intensément impliquée dans la construction du collectif féminin, elle déplore les « bâtons dans les roues » permanents et l’opprobre dont elle a fait les frais en interne. La veille du 29e congrès de l’UD du Rhône, tenu du 21 au 23 octobre 1981, Georgette Vacher met fin à ses jours après avoir préalablement laissé des cassettes audio dans lesquelles elle raconte son histoire et explique son geste en mettant en accusation les dirigeants départementaux de la CGT. […]

Au début des années 1980, ces débats sont également portés par des militantes de la CFDT qui aspirent à en finir « avec un syndicalisme d’hommes » :

« La situation vécue par les travailleuses n’est pas celle vécue par les hommes, et il n’est pas suffisant que l’Organisation – c’est-à-dire les hommes qui en sont les responsables – soit à l’écoute, encore faut-il que l’Organisation soit capable à tous les moments de la vie syndicale de traduire les situations vécues par l’ensemble de la classe ouvrière. Comment cela pourrait-il se réaliser si nous ne réussissons pas une politique de présence active des travailleuses dans tous les lieux d’analyse, d’élaboration et de décision ? […] La prédominance du monde des hommes, leur mode de fonctionnement, leur forme de militantisme, leur disponibilité plus grande introduisent, au plus bas niveau de notre structure, un filtre, un système de sélection dont pâtit l’ensemble des autres niveaux de la structure. » (Extrait du rapport mixité au Conseil national (CN) du 21 mai 1981, Archives CFDT, fonds Marcel-Gonin, cité par Fanny Gallot dans « Mobilisées, une histoire féministe des contestations populaires », Seuil, 2024, p.159.)

Y compris localement et dans le cadre de grèves de femmes des classes populaires, des tensions apparaissent entre les normes de militantisme viril et les stratégies mises en œuvre par les femmes pour se faire entendre, comme le montre la sociologue Ève Meuret-Campfort.

De nouveaux défis

Après les années 1980, qualifiées de « décennie silencieuse » par l’économiste Rachel Silvera du point de vue de l’appréhension syndicale des enjeux féministes, les mobilisations sociales de novembre-décembre 1995 marquent un renouveau, tandis que les féminismes se redéploient après la puissante manifestation féministe du 25 novembre 1995.

À la CGT, par exemple, le collectif Femmes mixité est relancé en 1993 et revendique la parité des structures de la confédération, laquelle est actée par le congrès confédéral en 1999. Dans le même temps, la syndicaliste Maryse Dumas, alors élue au bureau confédéral de la CGT, souligne qu’il s’agit de « dépasser la notion de “spécificité” », car, précise-t-elle, « parler de spécificité pour les femmes signifie bien que le centre, le global, le majoritaire est masculin ». Elle ajoute, « notre syndicalisme est féministe parce qu’il agit pour l’émancipation et la liberté des femmes ». Dans cette dynamique, la FSU, la CGT et Solidaires coorganisent les intersyndicales femmes, à partir de 1997.

Cependant, malgré des avancées, de nombreux défis restent à relever. La sous-représentation des femmes dans les postes à responsabilité demeure un problème majeur, comme le montre la sociologue Cécile Guillaume à propos de Solidaires, tandis que les comportements sexistes et de pratiques excluantes persistent, ce qui freine l’ascension des militantes dans les structures syndicales. Des normes de genre implicites valorisant les hommes persistent et conduisent au maintien d’une division sexuée du travail syndical.

Un autre enjeu contemporain se rapporte à la prise en compte des oppressions croisées, ce qui nécessite une refonte des stratégies syndicales pour mieux répondre aux besoins des travailleuses, notamment racisées ou occupant des emplois précaires, comme le montre la sociologue Sophie Béroud. Parmi les enjeux à repenser, on trouve également le « hors-travail », selon le terme de Saphia Doumenc, qui se concentre sur les mobilisations et l’implication syndicale des femmes de chambre à Lyon et à Marseille. Tandis que se déploie la perspective de la grève féministe dans de nombreux pays, l’enjeu du travail reproductif, qu’il soit rémunéré ou non, invite les organisations syndicales à repenser leur intervention dans une approche désandrocentrée du travail et de la contestation.

The Conversation

Fanny Gallot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.11.2025 à 08:16

L’alcool, un facteur de risque majeur dans les violences sexuelles entre étudiants ?

Laurent Bègue-Shankland, Professeur de psychologie sociale, membre honoraire de l’Institut universitaire de France (IUF), directeur de la MSH Alpes (CNRS/UGA), Université Grenoble Alpes (UGA)
Philippe Arvers, Médecin addictologue et tabacologue, Université Grenoble Alpes (UGA)
L’alcool pourrait jouer un rôle majeur dans les violences sexuelles entre étudiants, en augmentant le risque de passage à l’acte chez les auteurs et la vulnérabilité des victimes.
Texte intégral (2019 mots)

Dans l’enseignement supérieur, la consommation d’alcool entre étudiants pourrait jouer un rôle majeur dans la survenue de violences sexuelles. C’est ce que suggère une enquête française menée en 2024 sur plus de 65 000 étudiants. Des recherches doivent être conduites pour mettre au jour les mécanismes à l’œuvre et accompagner les actions de prévention.


Les violences sexuelles touchent aujourd’hui des millions de femmes et d’hommes à travers le monde et leurs conséquences sur la santé physique et psychologique des victimes ne sont plus à démontrer.

3919, le numéro national d’écoute de Violences Femmes Info

  • Anonyme et gratuit, ce numéro est destiné aux femmes victimes de violences, à leur entourage et aux professionnels concernés.
  • Il est accessible depuis un poste fixe et un mobile en France hexagonale et dans les DROM.

Des violences sexuelles dans les universités et les grandes écoles

Dans le sillage de #MeToo, aujourd’hui, ces violences sont dénoncées aussi dans l’enseignement supérieur, notamment entre étudiants.

En France, universités et grandes écoles ont pris conscience de l’importance de ces violences, par exemple avec le mouvement #sciencesporcs (qui met en cause des étudiants mais également des professeurs, ndlr). En plus de leurs conséquences sur la santé mentale des victimes, les violences sexuelles entre étudiants augmentent les risques de désinvestissement du cursus et d’abandon des études.

Dans l’enseignement supérieur comme ailleurs, il existe de nombreuses actions susceptibles de lutter contre ces violences. Au-delà de prises de conscience nécessaires, les campagnes de sensibilisation ne permettent pas toujours de constater des effets. Identifier les facteurs de risques fréquemment présents dans les situations de violence est une piste prometteuse.

Les numéros d’urgence à contacter si vous êtes victime de violences sexistes et sexuelles

  • Le 15 : le numéro des urgences médicales (SAMU).
  • Le 17 : le numéro de la police et de la gendarmerie.
  • Le 18 : le numéro des pompiers.
  • Le 114 : en remplacement du 15, du 17 et du 18 pour les personnes sourdes, malentendantes, aphasiques, dysphasiques.

L’alcool, souvent impliqué dans des situations de violences sexuelles

Pour des raisons qui relèvent de ses propriétés psychopharmacologiques mais aussi du fait de ses significations culturelles, l’alcool fait partie des facteurs de risques de violences et sa place dans des crimes incluant des violences sexuelles a fait l’objet de nombreuses études.

Une enquête irlandaise auprès de 6 000 étudiantes et étudiants indiquait, par exemple, que deux tiers des victimes pensaient que l’agresseur avait bu de l’alcool ou consommé des drogues juste avant les faits. Selon une synthèse de 34 études, l’alcool augmente de manière causale les risques de violences sexuelles indépendamment du profil des consommateurs.

Enfin, dans une enquête plus récente menée en France auprès de 66 767 étudiants dans l’enseignement supérieur, l’auteur était alcoolisé dans 62 % des tentatives d’agression sexuelle et 56 % des agressions sexuelles effectives, selon les estimations des victimes. C’était le cas dans 42 % des tentatives de viol et 43 % des viols. Si l’on prend en compte, pour chaque situation de violence sexuelle, la prise d’alcool cumulée des auteurs et des victimes, l’alcool était présent dans près de la moitié à deux tiers des violences sexuelles.

Vulnérabilité accrue de la victime alcoolisée

L’alcool consommé par une victime potentielle pourrait fonctionner comme un véritable signal de sélection pour les auteurs. Une observation systématique menée dans des bars, pubs et clubs en Amérique du Nord suggérait qu’indépendamment de la consommation des individus qui l’approchaient, plus une femme avait consommé d’alcool, plus les consommateurs masculins se montraient envahissants et sexuellement agressifs par leurs gestes, leurs commentaires, leur refus de la laisser seule ou leur tendance à l’attraper ou à la toucher de manière inappropriée.

Quelques recherches se sont concentrées sur les situations rencontrées par de jeunes femmes lors de leur entrée à l’université. L’alcool pourrait altérer les capacités de jugement et d’autodéfense des victimes. Ces dernières connaîtraient davantage de comportements à risque et subiraient notamment plus d’expériences sexuelles perçues comme négatives quand elles boivent davantage. Et à partir d’un certain seuil d’alcoolisation, le risque semble s’intensifier.

Dans l’enquête française de 2024, les victimes se souvenaient avoir consommé de l’alcool dans 47,5 % des cas de tentative d’agression sexuelle, 44 % des agressions sexuelles, 35 % des cas de viol et 37 % des viols. De plus, les victimes de viol (ou de tentatives de viol) indiquaient dans presque 40 % des cas avoir consommé cinq verres d’alcool ou davantage.

L’analyse du lien entre les habitudes de consommation et la victimation a confirmé l’importance de l’usage chronique d’alcool. Notamment chez les femmes, plus les consommations habituelles étaient élevées, plus les risque de victimation sexuelle augmentait. Par exemple, 15 % de celles qui se situaient dans le premier tiers de la distribution du score du questionnaire AUDIT (soit les femmes ayant les consommations les plus faibles) avaient été victimes de violences sexuelles, contre 26 % de celles qui se situaient dans le tiers intermédiaire et 35 % de celles qui étaient dans le tiers supérieur.

Le questionnaire AUDIT, pour faire le point sur sa consommation d’alcool

  • Le questionnaire AUDIT (« Alcohol Use Disorders Identification Test » ou « Test pour faire l’inventaire des troubles liés à l’usage d’alcool») est un test simple en dix questions. Il a été développé par l’Organisation mondiale de la santé (OMS) pour déterminer si une personne présente un risque d’addiction à l’alcool.


À lire aussi : Alcool : et vous, buvez-vous trop ?


Ces chiffres soulignent aussi le fait que les femmes peuvent être victimes de violences sexuelles, même si elles consomment peu ou pas d’alcool. L’alcool interviendrait comme un facteur qui élève la probabilité de victimation à plusieurs niveaux : la reconnaissance de composantes de risque dans une situation donnée, leur interprétation et la réponse à apporter dans cette situation.

Selon une étude datant de 1999, l’alcool diminuerait notamment la capacité des victimes à réagir en cas d’agression, à se défendre ou à quitter les lieux. Un témoignage suggère qu’après les faits, une victime peut considérer que l’alcool a perturbé son jugement et accru sa vulnérabilité.

Une victime témoignait ainsi :

« Si je n’avais pas bu, je n’aurais jamais quitté le bar avec lui. J’ai essayé d’arrêter, mais j’étais tellement ivre et confuse. »

Quelle consommation d’alcool sur les campus ?

Des travaux de recherche montrent que la consommation d’alcool des étudiants sur un campus universitaire est listée, avec d’autres critères, comme un facteur pouvant favoriser les violences sexuelles. Une étude de 2004 menée sur 119 campus états-uniens indiquait que, par rapport à un campus où la consommation était plus faible, les personnes se trouvant sur des campus où les consommations massives étaient plus importantes avaient un risque de victimation sexuelle supérieur.

Enfin, dans de nombreux cas, l’auteur et la victime d’une agression sexuelle se trouvent dans un lieu fréquenté par d’autres personnes. Ces témoins peuvent exercer une action potentiellement protectrice. Cependant, les témoins qui ont consommé de l’alcool interviennent moins fréquemment dans une situation à risque impliquant des personnes, connues ou non.

En conclusion, il apparaît que l’alcool constitue un facteur majeur de risque de victimation sexuelle dans l’enseignement supérieur. Bien que de nombreux autres facteurs importants soient en jeu, l’alcool est une composante sur laquelle il est plus facile d’intervenir à court terme que les croyances culturelles ou les caractéristiques individuelles des auteurs.

Pour cette raison, les institutions qui accueillent des étudiants ne peuvent négliger les mesures de prévention efficientes, dont certaines sont actuellement en cours d’implémentation dans le contexte universitaire français, sous l’impulsion de la Mission interministérielle de lutte contre les drogues et les conduites addictives (Mildeca).


Faire un signalement en ligne

En cliquant sur le lien de la plateforme gouvernementale « Arrêtons les violences », il est possible de signaler en ligne des violences sexuelles et sexistes et de trouver une association pour se faire accompagner.

The Conversation

Philippe Arvers est administrateur de : la Société francophone de tabacologie, la Fédération française d’addictologie, l’Institut Rhône-Alpes-Auvergne de tabacologie, Promotion Santé Auvergne-Rhône-Alpes, la Mutualité Française de l’Isère (MFI-SSAM)

Laurent Bègue-Shankland ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.11.2025 à 19:30

Uniforme à l’école : enquête au cœur de l’expérimentation

Julien Garric, maître de conférences en sociologie de l'éducation, Aix-Marseille Université (AMU)
Christine Mussard, Professeure des universités en histoire contemporaine, Aix-Marseille Université (AMU)
Une centaine d’établissements scolaires expérimentent le port d’une tenue obligatoire pour tous les élèves. Qu’en pensent les principaux concernés&nbsp;? Et les enseignants&nbsp;?
Texte intégral (1872 mots)

Depuis la rentrée 2024, et jusqu’en 2026, une centaine d’établissements scolaires expérimentent, du primaire au lycée, le port d’une tenue identique obligatoire pour tous les élèves. Comment cette mesure est-elle perçue et vécue au quotidien ? Premiers retours de terrain.


C’est une véritable révolution vestimentaire qui s’invite à l’école. Depuis la rentrée de septembre 2024, une centaine d’établissements – écoles, collèges et lycées – expérimentent le port d’une tenue commune obligatoire pour tous les élèves. Derrière cette initiative portée par le ministère de l’éducation nationale s’affiche l’ambition de renforcer le sentiment d’appartenance, d’atténuer les inégalités sociales, d’améliorer le climat scolaire et de lutter contre le prosélytisme.

L’expérience devait être accompagnée d’un appel à manifestation d’intérêt (AMI) et suivie par un comité d’experts, en lien avec la Direction générale de l’enseignement scolaire (DGESCO) et les services statistiques du ministère (DEPP).

Au terme de deux années, si les résultats sont jugés concluants, le ministère envisage la généralisation du port de l’uniforme dans l’ensemble des écoles et établissements du pays.

Une rupture dans l’histoire de l’école française

Imposer le port d’une tenue réglementée marque une véritable rupture dans l’histoire de l’école française. En effet, malgré l’imaginaire collectif nostalgique d’une école d’antan, ordonnée et protégée des turbulences du monde, la France n’a jamais connu de politique imposant l’uniforme. Seuls quelques rares établissements privés catholiques ont inscrit cette pratique à leurs règlements intérieurs.

Dans le public, les élèves ont pu porter des blouses pour des raisons pratiques, mais sans recherche d’uniformité, et cet usage a peu à peu disparu dans les années 1970.

L’idée d’un uniforme scolaire émerge véritablement au début des années 2000, dans un contexte politique et éducatif centré sur la thématique de la restauration de l’autorité, et nourri par les polémiques à propos des tenues jugées provocantes de certaines adolescentes, ou encore du port du voile. Mais, jusqu’en 2022, le débat reste cantonné au terrain médiatique, sans traduction institutionnelle concrète.

Reportage en 2003 dans un collège où existe une réglementation sur les vêtements (INA Styles).

C’est dans un contexte de crise, à la fois scolaire et institutionnelle, que Gabriel Attal, alors ministre de l’éducation nationale, va lancer cette expérimentation en 2024. Une décision qui rompt avec la tradition scolaire française, mais dont la légitimité scientifique reste contestée.

La littérature existante – principalement anglo-saxonne et asiatique – ne démontre pas d’effet positif clair de l’uniforme sur les résultats académiques. Certaines études pointent même un impact négatif sur la santé physique et psychologique des élèves appartenant à des minorités de genre, ethniques ou religieuses, sans bénéfice notable sur le climat scolaire ou le sentiment d’appartenance.

Éclairer le vécu des élèves et du personnel éducatif

Pour dépasser les logiques propres au politique et les polémiques médiatiques, pour comprendre ce qui se joue réellement dans les établissements et pour contribuer au débat sur des bases plus solides, nous sommes allés sur le terrain, dans trois établissements pionniers de l’académie d’Aix-Marseille : deux collèges et un lycée. Nous avons rencontré les chefs d’établissements, les conseillers principaux d’éducation, assisté aux rentrées scolaires et diffusé des questionnaires auprès des élèves et des parents afin de recueillir leur perception.

Certes, cette recherche ne permettra pas de mesurer l’efficacité du dispositif en termes de résultats scolaires, de climat ou de lutte contre le harcèlement, mais elle apporte un éclairage précieux sur la manière dont cette expérimentation a été vécue au quotidien par les personnels, les élèves et leurs familles au terme d’une première année.

« Uniforme à l’école : problème de financement mais expérimentation toujours en cours en Paca » (France 3 Provence-Alpes-Côte d’Azur, avril 2025).

La personnalité des chefs d’établissement a joué un rôle déterminant dans le choix des établissements pilotes. Les deux principaux et le proviseur accueillant le dispositif sont des hommes qui affirment une forte adhésion aux valeurs républicaines. Pour lancer ce projet, susceptible de susciter des polémiques, les responsables des collectivités territoriales ont en effet préféré se tourner vers des établissements où l’opposition était plus faible, ou moins visible.

En revanche, les établissements présentent des profils très différents : le lycée accueille une population très favorisée, avec des parents « fiers de leur terroir », tandis que les deux collèges scolarisent des publics plus diversifiés, l’un en zone rurale et l’autre en périphérie urbaine. Pour ces personnels de direction, l’expérimentation n’est pas seulement une expérience pédagogique : elle représente aussi un moyen de valoriser leurs établissements et de renforcer leur compétitivité dans le marché scolaire local, notamment face aux établissements privés catholiques.

Certains collèges initialement pressentis ont par ailleurs renoncé à participer à l’expérimentation, face à la mobilisation du personnel, des familles ou des élèves.

Adultes et adolescents, des perceptions clivées

À l’appui des nombreuses réponses collectées (1 200 élèves, 1 100 parents), les parents d’élèves se montrent largement favorables à l’expérimentation, dans un étiage de 75 % à 85 % d’avis positifs selon les établissements, et ce, quel que soit leur profil social.

Ce positionnement reflète avant tout l’adhésion aux valeurs portées par le dispositif. En effet, s’ils estiment que le port d’une tenue unique contribue à restaurer l’autorité de l’école ou à défendre la laïcité, les parents considèrent que les effets concrets restent finalement limités, voire inexistants. Ils s’accordent sur le peu d’effet sur le harcèlement, les résultats scolaires ou la qualité des relations entre élèves. En revanche, l’expérimentation semble renforcer, à leurs yeux, l’image positive des établissements de leurs enfants.

La perception du climat scolaire par les élèves est en revanche plus contrastée. Si celle des collégiens reste proche des moyennes nationales, celle des lycéens apparaît nettement plus négative. Ce sentiment est fortement lié à l’obligation de porter l’uniforme et au contrôle strict de la tenue, perçus comme autoritaristes. En d’autres termes, l’obligation d’une tenue unique participe dans ce lycée à la dégradation de la qualité du climat scolaire.

De manière générale, les élèves interrogés, quel que soit leur âge, rejettent massivement l’initiative : ils ont vécu à 70 % l’annonce de l’expérimentation comme « horrible » et souhaitent majoritairement qu’elle soit abandonnée pour pouvoir à nouveau s’habiller comme ils le souhaitent. Pour eux, le dispositif n’a aucun impact sur les résultats scolaires, n’efface pas les différences sociales – encore visibles à travers les chaussures, les sacs ou autres accessoires – et n’améliore pas le sentiment d’appartenance.

Concernant le harcèlement, la majorité rejette l’idée que le port d’un uniforme puisse réduire le phénomène, et cette affirmation est encore plus marquée chez les élèves se disant victimes de harcèlement, qui considèrent que leur situation n’a pas du tout été améliorée. Le sentiment négatif est identique, quels que soient le milieu social ou l’expérience scolaire passée dans l’enseignement privé.

Dans le cadre de cette étude, les élèves critiquent également l’inadéquation des tenues avec leur vie quotidienne et les conditions climatiques : pas assez chaudes pour l’hiver et trop pour l’été.

Enfin, et surtout, ils conçoivent cette nouvelle règle comme une atteinte inacceptable à leur liberté d’expression. Ce ressentiment est particulièrement fort chez les lycéens, qui estiment que leur scolarité est gâchée par cette impossibilité d’affirmer leur individualité à travers le vêtement.

Au-delà de leurs critiques, ce qui ressort du discours des élèves, c’est le sentiment de ne pas avoir été consultés : l’expérimentation a été décidée sans eux et se déroule sans que leurs préoccupations soient prises en compte. Le contraste est frappant avec le discours des responsables, qui présentent un plébiscite de l’ensemble de la communauté scolaire. À titre d’exemple, des chefs d’établissement affirment que les élèves portent volontairement leur uniforme à l’extérieur de l’école comme marque de fierté et de sentiment d’appartenance, alors que 90 % des élèves déclarent exactement le contraire.

Quelle sera donc la suite donnée à cette expérimentation ? Outre le rejet massif par les élèves, l’adhésion des familles est à relativiser si l’on considère que l’expérimentation, intégralement financée par l’État et les collectivités locales ne leur coûte rien. La généralisation du port d’une tenue unique pose d’importantes questions de financement, plus encore dans un contexte budgétaire sous tension. La conduite de cette expérimentation interroge plus globalement la fabrique de politiques publiques d’éducation, pensées dans des situations de crise ou perçues comme telles.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

21.11.2025 à 18:09

La France est très endettée auprès du reste du monde, mais pourtant bénéficiaire. Explication d’un paradoxe

Vincent Vicard, Économiste, adjoint au directeur, CEPII
Laurence Nayman, Économiste, CEPII
La France a reçu davantage de capitaux de l’étranger qu’elle n’en a investi. Pourtant, les pays étrangers nous paient plus de revenus d’investissement. Pourquoi&nbsp;?
Texte intégral (1589 mots)

La France est endettée vis-à-vis du reste du monde : -670 milliards d’euros en 2024. Pourtant, le reste du monde nous paie plus de revenus d’investissement que nous n’en payons. Pourquoi ce paradoxe ?


Selon le dernier rapport de la Banque de France, la position extérieure nette de la France, soit l’endettement des résidents en France vis-à-vis du reste du monde, affiche -670 milliards d’euros en 2024, soit -22,9 % du PIB. Concrètement, les Français ont reçu davantage de capitaux de l’étranger qu’ils n’y ont investi.

Une position débitrice qui rapporte paradoxalement. Longtemps réservée aux États-Unis, cette situation, qualifiée de privilège exorbitant, se vérifie pour la France. Elle s’explique par la structure des encours de la France – créances et engagements. Les créances résultent majoritairement d’investissements de multinationales françaises à l’étranger, qui affichent des taux de rendement plus rémunérateurs. Les engagements de la France viennent surtout de la détention de la dette publique française par les investisseurs étrangers.

Si la récente hausse des taux d’intérêt sur les titres de dette en a réduit la portée, les revenus d’investissement continuent pourtant à afficher un solde positif, qui contribue à maintenir le solde courant français proche de l’équilibre.

Recours massif à la finance de marché

Ce solde courant de la France dissimule des situations très contrastées selon les types d’investissements (graphique 1).

La position déficitaire tient avant tout à l’acquisition d’obligations ou d’actions rassemblées sous la catégorie d'investissements de portefeuille (-1 073 milliards d’euros), notamment des titres de dette publique détenus par des étrangers. Les titres de créance à court et long terme sur les administrations publiques contribuent pour environ -1 400 milliards d’euros.

À l’inverse, les investissements directs étrangers (IDE) ont une position positive de 568 milliards d’euros. Les entreprises multinationales françaises ont plus investi à l’étranger que les multinationales étrangères en France.

Fourni par l'auteur

Rémunération des investissements

La rémunération des investissements n’est pas la même selon leur nature.

Les investissements en actions, et en particulier les investissements directs étrangers (IDE), sont plus rémunérateurs que les titres de dettes. En 2024, le rendement apparent des IDE français était en moyenne de 6 %, contre seulement 2,4 % pour les investissements de portefeuille (en obligation et en action).

L’actif total de la France, soit l’ensemble des investissements par des résidents français à l’étranger, s’établit à 10 790 milliards d’euros. Il est de 11 460 milliards d’euros pour le passif, à savoir l’ensemble des investissements détenus par des résidents étrangers en France. De facto, la position extérieure nette est de -670 milliards.

Appliquées à de tels montants, même des différences mineures de rendement des investissements entre actif et passif peuvent avoir un impact important sur les revenus d’investissement dus ou payés par la France au reste du monde.

Privilège exorbitant

La combinaison d’un actif biaisé en faveur des actions et d’investissements directs étrangers (IDE) plus rémunérateurs et d’un passif biaisé vers les obligations, dont les intérêts sont moins importants, permet à la France d’afficher des revenus d’investissement positifs depuis deux décennies (graphique 2).


À lire aussi : Les multinationales françaises, de nouveau à l’origine de la dégradation du solde commercial


C’est cette situation, caractéristique des États-Unis (pour ce pays elle est liée au rôle dominant du dollar), que l’on qualifie de privilège exorbitant. La France a pu financer sa consommation en empruntant au reste du monde, mais sans avoir à en payer le coût. La détention par les étrangers de dettes, en particulier de dette publique française, constitue le pendant des investissements directs à l’étranger des multinationales françaises, dont les rendements sont plus importants, et de facto du privilège exorbitant français.

Revenus des investissements

Les entrées nettes de revenus d’investissements persistent aujourd’hui malgré la récente remontée des taux d’intérêt, ces derniers augmentant la rémunération des titres de dette.

Les revenus nets sur les investissements directs étrangers (IDE) restent positifs et importants – de l’ordre de 76 milliards d’euros. Le solde des revenus d'investissement de portefeuille est aujourd’hui négatif de 39 milliards d’euros, soit près de deux fois plus que jusqu’en 2022 (graphique 3).

La hausse des taux d’intérêt est particulièrement frappante pour les autres investissements. Leur rendement apparent est en moyenne de 3,5 % en 2024, contre 0,8 % en moyenne dans les années 2010. De telle sorte que les intérêts sur les autres investissements se sont aussi dégradés (-24 milliards d’euros en 2024). Les rendements sur les titres de dette restent cependant inférieurs à ceux sur les investissements directs étrangers (IDE).

De telle sorte que les revenus d’investissement restent positifs dans leur ensemble, à +0,5 % du PIB.

Amélioration du solde commercial

À rebours des États-Unis, la France affiche une balance courante équilibrée. C’est le cas en 2024, mais aussi en 2021 et en 2019, soit toutes les années hors crise depuis cinq ans (graphique 4). L’accumulation de déficits courants pendant les années 2000 et 2010 a entraîné la dégradation de la position extérieure française, mais cela n’est plus le cas sur la période récente.

Aujourd’hui, le solde commercial est proche de l’équilibre, l’excédent des services compensant le déficit des biens. L’équilibre du compte courant ne tient plus tant au privilège exorbitant français, et aux revenus d’investissements qu’il génère, qu’à l’amélioration du solde des biens et services.

La réduction partielle du privilège exorbitant français, liée à la hausse récente des taux d’intérêt, n’entraîne pas de risque de soutenabilité extérieure lié à la position extérieure nette négative de la France.

La structure de l’actif et du passif des investissements de la France continue à générer des revenus nets positifs, malgré une position négative. Le solde courant est équilibré en 2024 (comme sur les années hors crises depuis 2019).

Pour rappel, à l’aube de la crise de la zone euro en 2010, la position extérieure nette de la Grèce était de -100 % du PIB et son solde courant déficitaire de 10 % du PIB, de -107 % et -10 % respectivement pour le Portugal, et -90 % et -4 % pour l’Espagne. Bien loin des -23 % de position extérieure nette de la France, du quasi équilibre du compte courant et du privilège exorbitant français en 2024.

The Conversation

Vincent Vicard a reçu des financements du Programme Horizon Europe.

Laurence Nayman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.11.2025 à 18:08

La Corée du Nord, la guerre en Ukraine et le théâtre indo-pacifique

Marianne Péron-Doise, Chercheur Indo-Pacifique et Sécurité maritime Internationale, chargé de cours Sécurité maritime, Sciences Po
Des milliers de soldats nord-coréens combattent en Ukraine aux côtés des forces russes, tandis qu’en Asie, la tension ne cesse de croître.
Texte intégral (2568 mots)

En s’impliquant directement dans la guerre que la Russie livre à l’Ukraine, la Corée du Nord renforce l’axe qu’elle forme avec la Russie et la Chine, ce qui suscite l’inquiétude de la Corée du Sud et du Japon. Dès lors, ces deux derniers pays se rapprochent de l’Otan. Les théâtres européen et asiatique sont plus interconnectés que jamais.


En octobre 2024, la révélation de la présence de militaires nord-coréens sur le front russo-ukrainien et de leur engagement aux côtés des forces russes dans la guerre de haute intensité déclenchée par Vladimir Poutine a suscité choc et malaise. Dans les mois suivants, les services de renseignement de Séoul et de Kiev ont évoqué le déploiement de jusqu’à 12 000 soldats nord-coréens dans la région russe de Koursk, où avait alors lieu une incursion ukrainienne.

Cet envoi de troupes combattantes a révélé l’ampleur de la coopération militaire russo-nord-coréenne et la proximité existant entre les deux régimes depuis la visite de Vladimir Poutine en Corée du Nord en juin 2024. Il était déjà établi que Pyongyang livrait des armes et des munitions à Moscou, mais le flou persistait sur le contenu de leur partenariat stratégique et de leur engagement de défense mutuel.

L’analyse la plus courante était qu’en échange de ses livraisons d’armements, Kim Jong‑un escomptait des transferts de technologies et d’expertise pour ses programmes d’armes. Ceci sans négliger une indispensable assistance économique et un approvisionnement dans les domaines de l’énergie et des denrées alimentaires. On sait désormais que ce « deal » inclut également l’envoi de militaires nord-coréens sur le théâtre ukrainien. Un millier d’entre eux auraient été tués et 3 000 sérieusement blessés durant les trois premiers mois de leur déploiement. Ces chiffres élevés s’expliqueraient par leur manque de familiarité avec le combat actif mais aussi par leur exposition en première ligne par le commandement russe

Cinq mille spécialistes du génie et mille démineurs nord-coréens auraient également rejoint la région de Koursk à partir de septembre 2025. Parallèlement, le nombre d’ouvriers nord-coréens envoyés sur les chantiers de construction russes augmente, révélant un peu plus combien les renforts humains que Pyongyang envoie sans s’inquiéter de leur emploi s’avèrent profondément nécessaires pour une Russie qui épuise sa population.

Le retour de Kim Jong‑un au premier plan

On peut estimer qu’un contingent de 12 000 soldats et officiers constitue une quantité dérisoire pour un pays comme la Corée du Nord, qui dispose de plus d’un million d’hommes sous les drapeaux. Cette implication n’a pas changé le cours de la guerre russo-ukrainienne. Mais elle n’a pas non plus incité les États européens à s’engager davantage militairement, par crainte de provoquer une escalade russe. L’année 2025 les aura vu tergiverser alors que les États-Unis entamaient un désengagement stratégique assumé, confortant indirectement la posture russe.

C’est en Asie, à Séoul comme à Tokyo, que cette présence militaire nord-coréenne sur le théâtre européen a suscité le plus d’inquiétudes et a été perçue comme une menace directe et sérieuse. On peut y voir le résultat du fiasco diplomatique de l’administration Trump sur le dossier nord-coréen, amplifié par l’arrivée en 2022 de l’ultra-conservateur Yoon Suk-yeol à la tête de la Corée du Sud. Celui-ci, à peine nommé, avait adopté une ligne particulièrement offensive face à Pyongyang, n’hésitant pas à évoquer l’éventualité que son pays se dote de capacités nucléaires.

Ces dernières années, humilié par l’absence de résultats après ses deux rencontres au sommet avec Donald Trump en 2018 et en 2019, alors qu’il espérait une levée partielle des sanctions, le dictateur nord-coréen Kim Jong‑un n’a eu de cesse de reprendre une stratégie de provocation, notamment vis-à-vis de la Corée du Sud, bouc émissaire tout désigné de sa perte de face.

L’épisode de Covid et la fermeture totale du régime de 2020 à 2021 n’auront fait qu’accentuer ce retour de balancier vers une diplomatie extrême dont la multiplication des tirs de missiles balistiques tout au long de 2022 aura été une manifestation spectaculaire.

Le rapprochement avec la Russie, autre « paria », lui aussi sous embargo et en quête de munitions, aura permis à Kim Jong‑un de raffermir sa stature d’homme d’État et de se poser en allié indispensable de Moscou.

La chaîne de causalités politico-diplomatiques qui aura conduit à cette situation, à bien des égards impensable, ne fait qu’arrimer davantage la sécurité de l’Europe à celle de l’Indo-Pacifique. Une équation qui n’a pas été clairement analysée par l’Union européenne et beaucoup de ses États membres, en dépit des ambitions dans le domaine de la sécurité et de la défense affichées dans les nombreuses stratégies indo-pacifiques publiées à Bruxelles ces dernières années (dont celle de la France, de l’UE, de l’Allemagne et des Pays-Bas).

L’étrange configuration d’une « guerre de Corée » revisitée

L’environnement diplomatico-militaire de ce rapprochement russo-nord-coréen n’est pas sans rappeler la guerre de Corée dans laquelle l’alliance entre Kim Il-sung (le grand-père de l’actuel dirigeant nord-coréen) et Joseph Staline a joué un rôle majeur.

Conflit emblématique de la guerre froide, la guerre de Corée a pérennisé la partition de la péninsule en deux régimes distincts, fortement opposés, tout en redistribuant les équilibres stratégiques régionaux. Les États-Unis se retrouvaient durablement ancrés en Asie de l’Est et leurs deux principaux alliés, le Japon et la Corée du Sud, constituaient un front mobile autour d’un bloc communiste formé par la Corée du Nord, l’Union soviétique et la Chine maoïste. La différence majeure réside dans le fait que pour Washington, à l’époque, l’Asie constituait un théâtre secondaire par rapport à la primauté stratégique du « monde occidental ».

Ce n’est plus le cas aujourd’hui ; les administrations américaines successives n’ont de cesse de réaffirmer l’identité pacifique des États-Unis et l’importance décisive des enjeux indo-pacifiques. Mais si l’administration Trump 2, focalisée sur la Chine – rival systémique – monnaye désormais son assistance à ses alliés européens, le Japon et la Corée du Sud se montrent particulièrement proactifs dans leur soutien multidimensionnel à l’Ukraine.

La question se pose en Corée du Sud de savoir si le voisin du Nord mène en Russie une guerre par procuration et comment y répondre. En se servant de l’Ukraine pour se rapprocher de la Russie, Pyongyang opérationnalise ses moyens conventionnels, peu rodés au combat réel, en envoyant ses troupes s’aguerrir sur le front russe. Conjuguant à terme capacités nucléaires, balistiques et conventionnelles, le régime des Kim gagne en crédibilité face à l’alliance Washington-Séoul-Tokyo. Il démontre ainsi qu’il n’est plus dans une logique de survie mais d’affirmation de puissance aux côtés de ses pairs.

Vers un axe Moscou-Pékin-Pyongyang durable ?

Jusqu’où cette entente militaire entre la Russie et Pyongyang peut-elle aller ? Et quel rôle la Chine entend-elle y jouer ?

Durant des années, Pékin a fait ce qu’il fallait en termes d’assistance humanitaire et économique pour éviter que le régime nord-coréen ne s’effondre et que les États-Unis n’en profitent pour orchestrer avec la Corée du Sud une « réunification » en leur faveur. Désormais, la Chine doit jouer le même rôle vis-à-vis de la Russie et éviter que celle-ci ne s’épuise dans sa guerre d’agression. Le soutien nord-coréen est donc bienvenu, dans la mesure où Pékin ne peut trop ouvertement aider Moscou. En revanche, la Chine s’irrite de ne pas être en position dominante au cœur de cette nouvelle construction triangulaire.

Il n’en reste pas moins que la réalité de cette forte conjonction d’intérêts entre la Chine, la Russie et la Corée du Nord – illustrée notamment par la première rencontre simultanée entre leurs leaders, le 3 septembre dernier à Pékin, à l’occasion d’un défilé commémorant le 80e anniversaire de la fin de la Seconde Guerre mondiale – renvoie à une coalition d’opportunité particulièrement dangereuse pour la sécurité européenne. Ce que ni Bruxelles, ni Washington n’ont su, ou voulu prendre en compte pour le second, pour qui l’aide militaire à Kiev s’est muée en opportunité commerciale.

Plus fondamentalement, le rapprochement entre la Chine, la Russie et la Corée du Nord (auquel les cercles stratégistes américains rajoutent l’Iran sous l’acronyme CRINK, China, Russia, Iran, North Korea) tend à constituer un front anti-occidental face à un ensemble euro-atlantique fragmenté. Il affirme d’ailleurs un certain niveau de cohérence alors que les États-Unis n’entendent plus assumer leur rôle de leader traditionnel du libéralisme international. Aux côtés de la Chine et de la Russie, la Corée du Nord contribue ainsi au narratif d’un Sud prenant sa revanche contre un Nord donneur de leçons et pratiquant les doubles standards quant au respect du droit international.


À lire aussi : Chine, Russie, Iran, Corée du Nord : le nouveau pacte des autocrates ?


Sécurité asiatique versus sécurité euroatlantique

Le phénomène le plus marquant résultant de la constitution de l’axe Russie-Corée du Nord-Chine est la porosité entre les théâtres asiatique et européen, les pays d’Asie s’impliquant désormais davantage dans les questions de sécurité européenne.

L’intérêt grandissant de Séoul et de Tokyo envers l’Organisation du traité de l’Atlantique Nord (Otan) et leur souci d’accroître la coopération avec l’Alliance en élargissant les interactions conjointes à travers le mécanisme de Dialogue Otan-pays partenaires de l’Indo-Pacifique (Australie, Corée du Sud-Japon-Nouvelle-Zélande) en témoigne.

L’ancien président Yoon (il a été destitué en avril 2025) a manifesté son soutien à l’Ukraine dès 2022 par une aide humanitaire et économique massive, y compris en livrant des équipements militaires non létaux de protection.

La Corée du Sud, qui est un acteur industriel très actif en matière d’exportation d’armements, a diversifié son aide militaire en livrant des équipements lourds (munitions, chars, lance-roquettes multiples) à plusieurs pays européens – Norvège, Finlande, Estonie et principalement la Pologne, comme elle fidèle allié des États-Unis au sein de l’Otan. La coopération industrielle en matière d’armement entre Séoul et Varsovie devrait par ailleurs se poursuivre, permettant à la Corée du Sud de participer durablement à la sécurité de l’Europe et, plus largement, à celle de l’Otan.

Prendre en compte la nouvelle réalité

Le Japon et la Corée du Sud peuvent-ils s’impliquer davantage dans la guerre russo-ukrainienne et contribuer à une sortie de crise qui déboucherait sur des négociations équilibrées ? Il est de plus en plus difficile de nier l’impact de la guerre en Ukraine sur les équilibres stratégiques en train de se redéployer en Asie et de maintenir des partenaires comme la Corée du Sud et le Japon en marge de l’Otan, ce qui revient à ne pas prendre en compte leurs capacités à renforcer les efforts européens en faveur de la résistance ukrainienne.

Nier la réalité d’un front commun regroupant Russie, Corée du Nord et Chine serait une erreur d’appréciation stratégique qui peut se retourner contre la sécurité européenne alors que le discours chinois sur la gouvernance mondiale s’impose de plus en plus au sein du « Sud Global ».

The Conversation

Marianne Péron-Doise ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.11.2025 à 12:29

Assassinat de Mehdi Kessaci à Marseille : un tournant dans la guerre des narcos et de l’État ?

Dennis Rodgers, Professeur, Chaire d'excellence A*Midex, Aix-Marseille Université (AMU)
L’assassinat de Mehdi, frère du militant Amine Kessaci, engagé dans la lutte contre le trafic de drogue à Marseille, est-il un crime « politique » ?
Texte intégral (2435 mots)

Depuis l’assassinat, jeudi 13 novembre, de Mehdi Kessaci, frère du militant écologiste Amine Kessaci, engagé dans la lutte contre le trafic de drogue à Marseille, dans les Bouches-du-Rhône, les réactions politiques et médiatiques se multiplient. Ce meurtre signalerait une nouvelle étape de la montée en puissance du narcobanditisme en France, avec un crime ciblant la société civile ou même l’État. Entretien avec le sociologue Dennis Rodgers, auteur d’enquêtes sur les trafiquants de drogue en Amérique latine et à Marseille.


The Conversation : Le meurtre de Mehdi Kessaci peut-il être interprété comme un tournant dans la montée en puissance du narcobanditisme, avec une violence qui touche désormais la société civile ou l’État – certains commentateurs comparant la France à certains pays d’Amérique latine ou à l’Italie ?

Dennis Rodgers : Je ne partage pas cette lecture et je pense qu’il faut faire très attention avec ce genre de représentation. Cet événement est tragique, mais il n’est pas nouveau. À Marseille, il n’y a pas que des règlements de comptes entre trafiquants. D’ailleurs, la notion de règlement de compte en elle-même est une notion problématique. Elle réduit la violence à une violence entre dealers en la décontextualisant : les conflits liés aux drogues sont souvent liés à des conflits plus locaux, parfois intercommunautaires ou familiaux.

J’ai longuement enquêté au sein de la cité Félix-Pyat à Marseille (3ᵉ), et, en 2023, un groupe de dealers locaux avait fait circuler une lettre qui était assez menaçante envers des habitants du quartier. Ce n’est pas aussi violent qu’un assassinat, mais c’est aussi de l’intimidation, et des meurtres d’intimidation ont déjà eu lieu. Je pense aux victimes tuées et brûlées dans le coffre d’une voiture. Ces crimes sont destinés à faire peur et à faire passer un message.

Mais un cap n’est-il pas franchi avec ce meurtre du frère d’un militant politique ?

D. R. : Je ne pense pas qu’on ait assassiné le frère d’Amine Kessaci pour des raisons liées à son militantisme politique, mais probablement plus parce qu’il dénonce le trafic de drogue dans le quartier de Frais-Vallon (13ᵉ arrondissement de Marseille), dont il est issu. Je pense que ce serait une erreur de dire que ceci est un événement exceptionnel qui marque, en France, une transformation dans la confrontation entre des organisations trafiquantes et l’État. Or, c’est le discours mis en avant, sans doute pour que certaines personnes puissent se positionner en vue des prochaines élections ainsi que pour légitimer la mise en œuvre de certaines politiques.

Comment a évolué l’organisation du trafic à Marseille ces dernières années ?

D. R. : Premièrement, il faut dire que le trafic de drogue n’est pas monolithique, et il évolue sans cesse. On a ces images et ces mythes d’un trafic de drogue en tant que business centralisé, d’une entreprise avec des règles fixes, avec des logiques très claires. Mais c’est souvent un assemblage de différents groupes, d’échafaudages bricolés et sans cesse reconstruits. L’image de la mafia tentaculaire qui contrôle tout, de la production à la distribution, n’est pas avérée. Les jeunes qui vendent dans les cités ne sont pas directement liés à ceux qui importent la drogue en France. Ces différents niveaux ont des logiques différentes. Souvent le trafic de drogue local a lieu à travers des liens intimes, familiaux, des liens de voisinage, par exemple, ce qui n’est généralement pas le cas au niveau de l’exportation à grande échelle. Les personnes qui sont dans les cités ne sont pas celles qui amènent la drogue à Marseille, et elles ne le seront probablement jamais.

Cela semble contradictoire avec ce que l’on entend à propos d’organisations notoires, comme la DZ Mafia ou Yoda…

D. R. : Le journaliste Philippe Pujol a très bien décrit l’organisation du trafic à Marseille, expliquant comment, tout en haut, il y a les grossistes à l’échelon international qui font de l’import-export en grandes quantités vers les ports européens, dont Marseille, même si ces gros bonnets ne sont pas à Marseille, puis il y a des semi-grossistes, ceux qui récupèrent de la drogue et la distribuent dans les cités. À Marseille, ces derniers représentent une cinquantaine de personnes, ceux de la DZ Mafia, des Blacks, du Yoda, d’autres encore, avec autour d’eux une armée de peut-être 300 personnes. Mais ils ne s’occupent pas de la vente de terrain qu’ils sous-traitent dans les cités. Le terrain et les cités sont donc gérés par des petits délinquants, pas par les gros caïds du crime.

En vérité, on ne sait pas grand-chose d’organisations comme Yoda ou la DZ Mafia. Cette dernière par exemple communique souvent à travers des vidéos YouTube ou TikTok qui mettent en scène des hommes cagoulés et armés de kalachnikovs debout devant des drapeaux, mais il s’agit clairement de propagande, et on ignore véritablement si cette organisation est très centralisée ou composée de groupes franchisés qui se rallient sous un nom commun. La seule chose dont je suis relativement sûr est qu’en 2023, le nombre de morts à Marseille a explosé en raison d’une guerre entre ces deux groupes. Ceci étant dit, dans la cité Félix-Pyat, leurs noms étaient sur toutes les lèvres à ce moment-là, mais personne n’en parlait en 2022, ce qui montre bien à quel point les choses sont floues…

Mais que disent les autorités à propos de ces deux organisations, DZ Mafia et Yoda ?

D. R. : Il existe peu d’informations publiques concrètes à leur sujet. La police a tendance à communiquer sur des arrestations « spectaculaires » de tel ou tel « chef », ou bien sur le démantèlement d’un point de vente. On entend circuler des noms : cette personne serait le grand chef de Yoda, telle autre de la DZ Mafia, on parle d’arrestations au Maroc ou à Dubaï. Mais s’agit-il des chefs ou des lieutenants ? Comment est-ce que ces personnes basées à l’étranger communiquent avec ceux en France ? Quelle est la division du travail entre différents niveaux de ces groupes ? Il y a un vide de connaissance à propos de la nature de ces organisations, et ça laisse la place pour des interprétations et des discours stéréotypants et stéréotypés qui se construisent sans fondements solides…

Le ministre de l’intérieur Laurent Nuñez a parlé de mafia à la suite du meurtre de Mehdi Kessaci. L’hypothèse d’organisations de type mafieux au sens italien serait fausse ?

D. R. : La mafia italienne tuait régulièrement des juges, des hommes d’État, elle les corrompait massivement aussi. Cela était aussi le cas des cartels en Colombie dans le passé ou au Mexique à présent. Cela n’est pas le cas en France aujourd’hui. Ces mots de « mafia » ou de « cartel » portent un imaginaire puissant et permettent de mettre en scène une action de reprise en main, et à des hommes politiques de se positionner comme « hommes forts ». Mais ils ne sont pas forcément adaptés à la réalité.

Les politiques mises en œuvre à Marseille sont-elles efficaces ?

D. R. : Dans les cités à Marseille, le gouvernement envoie des CRS qui peuvent interrompre le trafic quelque temps, et qui arrêtent le plus souvent des petites mains, mais, à moins de camper dans les cités toute l’année, cela ne sert à rien : le trafic reprend après leur départ. Cette stratégie de « pillonage » épisodique ne s’attaque pas à la racine du problème, qui est bien évidemment social.

Sans coordination entre politiques sociales et politiques sécuritaires, on ne pourra pas résoudre le problème du trafic de drogue. En Suisse, où j’ai travaillé, il y a beaucoup plus de coordination entre services sociaux, éducatifs, et la police par exemple. Ces services échangent des informations pour comprendre quelles sont les personnes à risque et pourquoi, afin de faire de la prévention plutôt que de la répression…

La politique française est essentiellement fondée sur une notion très régalienne de l’État qui doit avoir le contrôle. Il est évidemment nécessaire de réprimer, mais il faudrait surtout concentrer l’attention sur les plus grands trafiquants, ceux qui amènent la drogue dans la ville, pour interrompre la chaîne du trafic dès le départ. Par ailleurs, il faut trouver des moyens de casser les marchés illégaux. Sans prôner une légalisation tous azimuts, on peut apprendre de l’expérience du Québec, par exemple, où l’on peut acheter la marijuana à des fins ludiques dans des dispensaires officiels depuis 2018. Cela a permis de fortement réduire les trafics locaux tout en générant des revenus pour l’État.

En 2023, il y a eu 49 homicides à Marseille, 18 en 2024, puis 9 en 2025. On constate une baisse, comment l’expliquez-vous ?

D. R. : En fait, les chiffres actuels reviennent aux proportions qu’on a connues avant 2023, qui oscillaient entre 15 et 30 meurtres par an. Comme je l’ai déjà mentionné, en 2023, il y a eu un conflit entre la DZ Mafia et Yoda pour reprendre le contrôle de points de vente dans différentes cités. Les origines de ce conflit sont assez obscures. On m’a rapporté à plusieurs reprises que les chefs de ces deux organisations étaient des amis d’enfance qui s’étaient réparti les points de vente. Puis il y aurait eu un conflit entre ces deux hommes dans une boîte de nuit à Bangkok, en Thaïlande, à cause d’une histoire de glaçons jetés à la figure… J’ignore si tout cela est vrai, mais c’est la rumeur qui circule, et il n’y a pas de doute qu’il y ait eu une guerre, finalement perdue par Yoda.

La conséquence de la victoire de la DZ Mafia est que les homicides baissent. Il faut comprendre que les trafiquants ne cherchent pas nécessairement à utiliser la violence, car elle attire l’attention et gêne le commerce. Même si le trafic de drogue est souvent associé à des menaces ou à de l’intimidation, les actes de violence sont souvent déclenchés par des incidents mineurs – mais ils peuvent ensuite devenir incontrôlables.

Vous avez enquêté sur le terrain et rencontré de nombreux jeunes des cités marseillaises, y compris engagés dans le trafic. Quel regard portez-vous sur leurs parcours ?

D. R. : Le choix de s’engager dans le trafic est lié à une situation de violence structurelle, d’inégalités, de discrimination. Les jeunes hommes et femmes qui font ce choix n’ont pas un bon accès au marché du travail formel. Faire la petite main, même si ce n’est pas très bien payé, représente une opportunité concrète. Pour ces jeunes, cela permet de rêver d’obtenir mieux un jour.

J’insiste sur le fait que le contexte structurel ne doit jamais être ignoré dans cette question des trafics. J’ai constaté qu’à l’école primaire de la cité Félix-Pyat, qui bénéficie du programme de soutien aux quartiers prioritaires REP+, les jeunes bénéficient d’opportunités fabuleuses : ils voyagent, peuvent faire de la musique, de la cuisine, les professeurs sont très disponibles. C’est pour ainsi dire une véritable expérience des valeurs républicaines de liberté, d’égalité et de fraternité. Mais dès le collège, ces jeunes sont le plus souvent orientés vers des filières professionnelles ou découragés de poursuivre des études. Ensuite, ils se retrouvent au chômage pour des raisons qui dépassent le cadre éducatif. Un jeune avec lequel j’ai fait un entretien en 2022 m’a raconté qu’après une centaine de CV envoyés, il n’avait rien obtenu. Un jour, il a changé l’adresse sur son CV et a trouvé du travail très vite…

Les discriminations vis-à-vis des habitants des cités, des origines ou de la religion sont profondes, et restent un angle mort de la politique française. Si on veut vraiment agir contre des trafics, il faut prendre au sérieux ces problématiques.


Propos recueillis par David Bornstein.

The Conversation

Les recherches de Dennis Rodgers bénéficient d’une aide du gouvernement français au titre de France 2030, dans le cadre de l’initiative d’Excellence d’Aix-Marseille Université – AMIDEX (Chaire d'Excellence AMX-23-CEI-117).

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌞