08.04.2026 à 17:45
Vera Moerbeek, Doctorante en physique, Centre national de la recherche scientifique (CNRS); Université de Perpignan Via Domitia
L’énergie solaire est associée à des problèmes d’intermittence, car elle ne génère d’électricité que quand le soleil brille. Certains dispositifs photovoltaïques pourraient permettre de stocker le rayonnement solaire sous forme de chaleur, puis de récupérer l’énergie sous forme d’électricité.
Il est devenu courant de voir des panneaux solaires sur les toits des maisons et des hangars, grâce à la baisse du prix des cellules en silicium et à leur taille compacte. Cependant, l’énergie solaire est intermittente, comme beaucoup d’autres types d’énergie renouvelable. Lors des périodes de production maximale, comme les journées estivales ensoleillées, le réseau d’électricité sature d’énergie, tandis que lors des périodes de faible production, comme le soir et en hiver, l’offre diminue alors même que la demande est la plus élevée. C’est pourquoi, afin de garantir la disponibilité de l’énergie à la demande, des solutions de stockage doivent être intégrées au réseau.
La technologie la plus utilisée pour le stockage à l’échelle du réseau électrique est le stockage hydroélectrique par pompage, mais le nombre de sites favorables en France est limité et déjà largement exploité, du fait des contraintes géographiques.
Une autre technologie courante est la batterie électrochimique : l’exemple le plus commun est celui des batteries lithium-ion des téléphones portables et des voitures. À plus grande échelle, des entreprises, par exemple Enedis, commencent à investir dans de grands parcs de batteries pour soutenir le réseau électrique. La technologie dominante pour ces très grandes batteries est la technologie lithium-fer-phosphate.
En grande partie pour cette raison, l’Agence internationale de l’énergie (IEA) dans un report récent prévoit une croissance de 42 % de la demande de lithium en 2040 par rapport à 2020. Or, l’extraction du lithium soulève des enjeux géopolitiques et humanitaires. Récemment, la possibilité d’ouvrir d’une mine dans l’Allier a intensifié le débat en France : si ces mines ont des impacts négatifs sur l’eau potable, la biodiversité et les sols, peut-on réellement soutenir qu’elles nous aideraient vers un futur durable ?
Peut-on stocker l’énergie autrement et assurer la stabilité du réseau électrique ?
Les barrages hydroélectriques et les batteries électrochimiques ne constituent pas la seule solution pour le stockage de l’énergie. Une alternative est le stockage thermique, où l’énergie est stockée sous forme de chaleur.
C’est par exemple le principe des chauffe-eau solaires. À plus grande échelle, le stockage thermique est surtout appliqué en combinaison avec des centrales solaires à concentration (CSP), comme le Crescent Dunes Solar Energy Project aux États-Unis ou l’Andasol Solar Power Station en Espagne. Cependant, le CSP reste une technologie marginale, car ces grandes centrales nécessitent un investissement initial très important et les coûts de maintenance sont élevés.
Dans ce type d’installations, la première étape est la conversion d’énergie solaire en chaleur au moyen de grands miroirs – soit paraboliques, soit petits, plats et suivant le soleil – qui concentrent le rayonnement solaire pour chauffer un fluide (conventionnellement du sel fondu). La chaleur est convertie en électricité lors de la deuxième étape, où la chaleur stockée dans le fluide entraîne une turbine.
Malheureusement, la conversion de la chaleur en énergie utile, comme l’électricité, est particulièrement difficile : l’efficacité de la conversion est limitée fondamentalement par ce qu’on appelle « la loi de Carnot ». Par exemple : à 300 °C, le maximum théorique de l’efficacité est environ 50 %, ce qui signifie que l’efficacité réelle est encore plus basse. En comparaison, l’efficacité des batteries lithium-ion, qui ne passent pas par la case « chaleur », peut surpasser 90 %.
Mais il existe une autre façon de convertir la chaleur en électricité : en utilisant le rayonnement émis par tout objet chaud (qui dépend de la température).
Tandis que les cellules photovoltaïques traditionnelles que l’on voit sur les toits et dans les fermes solaires convertissent le rayonnement solaire lui-même, l’idée de ce qu’on appelle les systèmes thermophotovoltaïques (abréviés TPV) est de récupérer le rayonnement infrarouge émis par n’importe quel objet chauffé – et qui stocke donc l’énergie sous forme de chaleur – et de la convertir en électricité.
Par exemple, le silicium fond à 1 414 °C et le graphite peut être chauffé jusqu’à plus de 2 000 °C. Ces matériaux émettent alors un rayonnement infrarouge, que l’on peut collecter grâce à des cellules photovoltaïques spéciales (comme des cellules en indium-gallium-arséniure). À de telles températures, la limite de Carnot est repoussée jusqu’à 83 % et 87 % respectivement. En pratique, les expériences réalisées au MIT, aux États-Unis, ont démontré une efficacité de plus de 40 %.
Le dispositif le plus mature à ce jour n’utilise pas le rayonnement solaire pour chauffer le milieu de stockage, mais simplement l’électricité. Il est donc similaire à une batterie lithium-ion, mais effectue des conversions d’énergie successives « électricité → chaleur → électricité » au lieu de « électricité → énergie chimique → électricité ». De tels dispositifs promettent d’être compétitifs en raison de leurs coûts relativement faibles et aujourd’hui commencent à être commercialisés à l’échelle industrielle.
Il serait encore plus intéressant de chauffer le milieu de stockage directement avec le rayonnement solaire, comme pour le CSP conventionnel, afin que le système devienne une source d’énergie renouvelable non intermittente.
Pour cette raison, nous avons réalisé le premier prototype expérimental de ce dispositif, dont le milieu de stockage est chauffé à l’aide d’un rayonnement solaire concentré, et suit donc une conversion « solaire → chaleur → électricité ». Un avantage important de notre dispositif est qu’il pourrait être rentable à une échelle beaucoup plus réduite que les systèmes CSP actuels, du fait du remplacement de la turbine par les cellules thermophotovoltaïques (TPV).
Cependant, l’efficacité globale de ce nouveau type de batterie thermique (soleil → chaleur → électricité) — et notamment l’efficacité des cellules thermophotovoltaïques elles-mêmes (pour la conversion finale de chaleur en électricité) — doit encore être améliorée au laboratoire, afin que cette technologie devienne plus compétitive.
Vera Moerbeek a reçu des financements de l'École doctorale "énergie et environnement" (ED305).
08.04.2026 à 17:44
Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine
Adam Wilson, Maître de conférences en Linguistique (LEA), Université de Lorraine
La deuxième édition du Festival des accents se tiendra du 9 au 11 avril 2026 à Marseille, dans les Bouches-du-Rhône. L’occasion de s’intéresser à la question de la politisation des accents, souvent utilisés comme un marqueur de légitimité.
On garde à l’esprit les discussions autour du « for shhure » d’Emmanuel Macron, de Jean-Luc Mélenchon se demandant si on dit « Troump » ou « Trümp », ou de l’anglais de Melania Trump au Conseil de sécurité de l’ONU. Dans un monde globalisé, les débats sur les identités nationales s’intensifient et l’accent devient un marqueur politique clé. Entre légitimité contestée et mécanismes de rejet, la prononciation révèle combien la langue demeure politique.
En étudiant le cas du conseil municipal de Montreuil (Seine-Saint-Denis), la phonéticienne Charlotte Kouklia a montré comment l’expression vocale permettait de révéler dominance, hostilité et expressivité dans le débat politique. L’accent peut ainsi devenir le centre de phénomènes de domination.
En France, l’accent des politiques est scruté par la sphère publique participant à ces phénomènes de domination. L’envergure internationale d’Anne Hidalgo, ancienne maire de Paris, a souvent été remise en question du fait de son accent dit « français » lorsqu’elle s’exprime en anglais. Cela a notamment été le cas lors des Jeux olympiques 2024. En cela, elle rejoint une liste conséquente de figures politiques françaises qui ont reçu des critiques, ou des compliments, sur leur accent en anglais.
Le cas d’Emmanuel Macron est intéressant dans le sens où certains commentateurs peuvent lui reprocher de vouloir faire trop international et pas assez français, ou le contraire, selon son degré d’accent du moment. Dans le même temps, en 2021 à Marseille, on l’entendait prononcer quelques mots de son discours avec un accent dit « du sud » qui témoignerait d’une volonté de proximité régionale. L’accent « atypique » des personnalités publiques est souvent repris par les journalistes au sein de récits : celui de Jean Castex, par exemple, a été présenté comme un rapprochement politique du gouvernement d’Emmanuel Macron avec « les régions ».
Il convient de rappeler que les individus disposent d’une pluriphonie – la capacité des individus à avoir un éventail de sons dans son répertoire – ou peuvent convoquer une convergence phonologique – la capacité à s’adapter en contexte à d’autres façons de prononcer. Aussi, les manières de parler ne sont pas stables. Or, avoir des accents en politique n’est pas neutre.
Lors des élections présidentielles de 2012, l’accent d’Eva Joly, alors candidate franco-norvégienne des écologistes, a été attaqué par l’écrivain Patrick Besson dans un pamphlet. Il y remettait en question sa crédibilité à la plus haute élection nationale en imitant à l’écrit son accent et en questionnant sa maîtrise du français. La candidate y a répondu dans une vidéo promouvant la diversité, mais la polarisation sur ses compétences linguistiques liées à sa légitimité aux élections avait déjà contaminé le débat public.
Certains hommes politiques aiment imiter les accents des autres. C’est le cas de Donald Trump, qui a plusieurs fois adopté un accent « français » quand il rapportait des propos d’Emmanuel Macron lors de conférences de presse, et de Boris Johnson, qui emploie dans ses mémoires une orthographe déformée de l’anglais afin de représenter son accent jugé « étranger ».
Parfois, l’accent peut aussi devenir un prétexte pour ne pas répondre à une question dérangeante. Donald Trump mentionne ainsi régulièrement l’accent de journalistes comme posant un problème de compréhension – que l’accent soit afghan ou français. Jean-Luc Mélenchon avait présenté une stratégie similaire face à une journaliste d’une antenne toulousaine de France 3. Donald Trump fait même appel à un interprète pour répéter ce que dit le premier ministre indien, pourtant anglophone.
Donald Trump n’est, en tout cas, pas gêné par l’accent de sa First Lady, Melania Trump, avec son accent dit « slovène ». Ce « deux poids, deux mesures » n’est pas passé inaperçu auprès des internautes, qui soulignent que tous les accents dits « étrangers » n’ont pas la même valeur en politique. Ce même président des États-Unis prétend d’ailleurs qu’il aurait plus facilement été élu président s’il avait eu un accent britannique, renvoyant au prestige supposé de cette variété.
Pourtant, lors d’une conférence de presse en 2025, l’élue républicaine pro-Trump Marjorie Taylor Greene a qualifié une question d’illégitime en raison de la nationalité britannique de la journaliste, nationalité identifiée par le biais de l’accent. La politicienne a expliqué par la suite qu’elle voulait bien répondre à la question si elle était posée par un journaliste américain, avec un accent américain donc.
Plus récemment, un citoyen américain a été arrêté par ICE, la police contestée de l’immigration états-unienne, car un officier avait développé des soupçons relatifs à sa nationalité basés uniquement sur sa façon de parler, donc son accent.
L’accent est donc impliqué dans la construction et la destruction de la légitimité dans la sphère publique.
L’accent est mobilisé pour questionner la légitimité d’un individu, que ce soit celle à poser une question à une élue ou celle d’être sur le sol américain. L’accent fonctionne donc comme une arme d’altérisation, permettant de souligner une différence chez un individu, pour le positionner comme illégitime mais aussi comme un ennemi. Identifier des ennemis potentiels de l’État à travers l’accent de cette manière n’est pas sans rappeler d’autres périodes sombres de l’histoire.
L’accent – ou plutôt les façons de parler – c’est une trace, une trace des histoires de vie ou des parcours. Il raconte les contacts avec d’autres langues, d’autres cultures, et plus généralement la diversité et le multiculturalisme dans un monde globalisé. L’accent peut aussi devenir un stigmate pour rappeler à l’autre qu’il est un étranger et lui faire entendre son illégitimité à avoir une place dans la société.
Alors que des discours, parfois réactionnaires ou nationalistes, opposent des récits concurrents, l’accent joue un rôle clé : il permet de définir qui appartient à une communauté ou, au contraire, de marquer son exclusion. Comme le montre l’exemple du schibboleth (une phrase qui ne peut être prononcée « correctement » que par les membres d’un groupe), la prononciation peut révéler l’appartenance à un groupe social. Ainsi, un simple accent ou une prononciation peut devenir un marqueur d’exclusion. Reconnaître ces mécanismes permet d’éviter que la langue ne serve à discriminer plutôt qu’à unir.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.04.2026 à 17:43
Rebecca Payne, Clinical Senior Lecturer, Bangor University; University of Oxford
De plus en plus de gens consultent les agents conversationnels dopés à l’intelligence artificielle pour répondre aux questions du quotidien. Ces nouveaux outils sont également sollicités pour fournir des informations en lien avec la santé. Pourtant, ils sont encore très loin de pouvoir remplacer les médecins, comme le révèle une nouvelle étude.
Désormais, pour obtenir des conseils sur des sujets aussi variés que la cuisine ou la façon de remplir leur déclaration d’impôts, des millions de personnes se tournent vers des agents conversationnels (chatbots, en anglais) basés sur l’intelligence artificielle (IA). Un nombre croissant d’individus leur pose également des questions concernant leur santé. Or, comme le rappelait récemment le médecin-chef du Royaume-Uni, lorsqu’il s’agit de prendre des décisions médicales, une telle démarche peut s’avérer risquée.
Dans une étude récente, mes collègues et moi-même avons évalué dans quelle mesure les chatbots reposant sur des grands modèles de langage (LLM) sont réellement capables d’aider le grand public à faire face à certains problèmes de santé courants. Nos résultats, frappants, démontrent que les chatbots que nous avons testés ne sont pas encore en mesure d’endosser le rôle de médecin.
Avant tout, soulignons qu’une objection fréquente face à des recherches telles que celles que nous avons menées est d’affirmer que l’IA évolue plus vite que le cycle de publication académique : au moment où un article paraît, les modèles étudiés ont souvent déjà été mis à jour, rendant ses conclusions obsolètes. Pourtant, des études menées dans le contexte du triage médical (processus visant à déterminer à la phase initiale de la prise en charge d’un patient, la filière adaptée à son état en matière de délai et de type de soins, ndlr) et portant sur des versions plus récentes de ces systèmes suggèrent que les mêmes problèmes persistent.
Nos travaux ont consisté à soumettre à des participants de brèves descriptions de situations médicales courantes. Les volontaires ont été répartis de manière aléatoire en deux groupes. Les membres du premier groupe devaient interagir avec l’un des trois chatbots que nous avions sélectionnés (des chatbots courants, facilement accessibles pour le grand public), tandis que ceux de l’autre groupe pouvaient recourir aux sources qu’ils avaient l’habitude de consulter ordinairement, chez eux. À l’issue de l’interaction, nous leur posions deux questions : quelle affection était la plus compatible avec les symptômes décrits ? Et, en conséquence, vers quelle structure de soins valait-il mieux se tourner ?
Les utilisateurs de chatbots se sont révélés moins aptes à identifier la bonne affection que ceux qui n’en avaient pas utilisé. Ils ne se montraient pas non plus meilleurs que le groupe témoin pour déterminer la bonne modalité de recours aux soins. En d’autres termes, interagir avec un chatbot n’a pas permis aux participants de prendre de meilleures décisions en matière de santé.
Ces résultats ne signifient pas que les connaissances médicales des modèles de chatbots testés sont lacunaires : les LLM sont, en effet, capables de passer facilement des examens de certification médicale. D’ailleurs, une fois que nous avons mis de côté l’élément humain, en soumettant directement les mêmes scénarios aux chatbots, leurs performances se sont sensiblement améliorées.
Sans intermédiaire humain, les modèles ont identifié les affections pertinentes dans la grande majorité des cas et suggéré le plus souvent des modalités de recours aux soins appropriées.
Pourquoi, alors, les résultats se dégradent-ils dès lors que des utilisateurs réels entrent en jeu ? L’analyse des échanges a mis en lumière plusieurs écueils. Il arrivait fréquemment que les chatbots mentionnent la bonne hypothèse diagnostique au fil de la conversation, sans que les participants ne la retiennent ou ne la restituent dans leur réponse finale.
Dans d’autres cas, les utilisateurs transmettaient des informations parcellaires, ou bien le chatbot interprétait mal des détails essentiels. L’échec ne relevait donc pas d’un simple manque de connaissances médicales. Il tenait à un problème de communication entre l’être humain et la machine.
Cette étude démontre qu’avant de déployer de nouvelles technologies dans des environnements où les enjeux sont importants, les décideurs politiques doivent impérativement avoir des données collectées « en condition réelles » pour estimer les véritables performances des outils concernés. C’est évidemment le cas dans le secteur de la santé.
Nos résultats mettent en évidence que bon nombre des évaluations actuellement menées pour déterminer l’intérêt de l’IA en médecine présentent d’importantes lacunes. En effet, les modèles de langage obtiennent souvent d’excellents résultats lorsqu’il s’agit de répondre à des questions d’examen structurées, ou durant des interactions simulées entre différents modèles.
Mais l’usage réel de ces outils est bien plus complexe que cela. Dans la réalité, les patients décrivent leurs symptômes de façon vague ou incomplète. Ils peuvent aussi mal comprendre les explications qui leur sont données, ou poser leurs questions selon un ordre imprévisible. Un système dont les résultats lors des tests d’évaluations s’avèrent impressionnants peut se comporter très différemment une fois confronté à de véritables utilisateurs.
Cette étude souligne également un point fondamental sur la nature même de la pratique clinique. En tant que médecin généraliste, mon travail ne se limite pas à mobiliser des faits mémorisés antérieurement. La médecine est souvent décrite comme un art autant qu’une science. Une consultation n’a pas pour seul objet d’établir le bon diagnostic : elle consiste à interpréter le récit du patient, à sonder l’incertitude et à prendre des décisions qui sont le résultat d’une négociation.
Cette complexité du colloque singulier entre le médecin et son patient est depuis longtemps reconnu par les enseignants en médecine. Pendant des décennies, les futurs médecins ont été formés selon le modèle de Calgary-Cambridge. Celui-ci implique d’instaurer une relation de confiance avec le patient, de recueillir les informations en le questionnant et en l’écoutant avec la plus grande attention, de comprendre ses préoccupations et ses attentes, de lui expliquer clairement les conclusions et de s’accorder avec lui sur un plan de prise en charge.
Ces processus reposent sur l’établissement d’une connexion humaine, rendue possible grâce à une communication sur mesure, faite d’exploration précautionneuse, afin d’aboutir à l’établissement d’un jugement façonné par le contexte et la confiance. Toutes ces qualités ne peuvent pas être facilement appréhendées par des techniques de reconnaissance de formes (techniques à la base des modèles d’IA, qui permettent à l’ordinateur de détecter, à partir de données brutes ou prétraitées, la présence de formes ou de régularités, ndlr)
Nos travaux ne démontrent pas que l’IA n’a pas sa place dans le secteur de la santé – loin de là. La leçon à retenir est qu’il est crucial de comprendre ce que ces systèmes savent faire à l’heure actuelle, et où se situent leurs limites.
Les chatbots actuels doivent être davantage considérés comme des assistants que comme des médecins. Ils excellent dans l’organisation de l’information, la synthèse de textes et la structuration de documents complexes. Des tâches qui sont précisément celles pour lesquelles les modèles de langage s’avèrent déjà utiles au sein des systèmes de santé, qu’il s’agisse de rédiger des comptes rendus cliniques, de synthétiser des dossiers médicaux ou de générer des lettres d’adressage, par exemple.
Les promesses de l’IA en médecine demeurent réelles, mais à court terme, son rôle sera vraisemblablement plus un rôle de soutien qu’une véritable révolution. On ne peut pas attendre des chatbots qu’ils soient la porte d’entrée dans le système de soins. Ils ne sont pas encore en mesure de poser des diagnostics ni d’orienter les patients vers les prises en charge pertinentes.
Certes, l’IA est déjà capable de réussir des examens de médecine. Mais de même que réussir un examen du Code de la route ne fait pas de vous un conducteur compétent, exercer la médecine ne se limite pas à répondre correctement à des questions.
Retrouver son chemin au cœur de la complexité qui se dissimule derrière chaque rencontre clinique requiert de savoir faire preuve d’empathie et de discernement. Cela reste encore l’apanage des humains. Pour l’heure, du moins.
Rebecca Payne travaille sur le projet REMEDY, financé par Health and Care Research Wales, et bénéficie également d'une bourse Clarendon-Reuben de l'université d'Oxford. Elle est membre du Royal College of General Practitioners et membre senior de la Faculty of Medical Leadership and Management.
08.04.2026 à 17:42
Marie-Hélène Bacqué, Sociologue, urbaniste, Université Paris Nanterre
Claudette Lafaye, Maitresse de conférence en sociologie, Université Paris 8 – Vincennes Saint-Denis
Une nouvelle génération de maires appartenant aux minorités visibles s’est imposée lors des élections municipales de mars 2026. Leur présence s’inscrit dans un mouvement très lent, lié au travail de longue haleine des militants des quartiers populaires. Les charges racistes contre ces élus, et en particulier contre Bally Bagayoko, maire de Saint-Denis, en Seine-Saint-Denis, sont particulièrement violentes. Certains élus témoignent : relents colonialistes, climat islamophobe, soupçons de sorcellerie…
Un ensemble de réactions racistes émanant de médias d’extrême droite, repris par plusieurs chaînes nationales (Cnews, RMC, France 5) et par des responsables politiques ont accueilli, lors du dernier scrutin municipal, l’élection de maires racisé·es et les manifestations de joie qui se sont exprimées dans leurs villes. Les réactions officielles se sont fait attendre. Sofienne Karroumi à Aubervilliers, Aly Diouara à La Courneuve, Demba Traoré au Blanc-Mesnil, Mélissa Youssouf à Villepinte (Seine-Saint-Denis), Imène Souid-Ben Cheikh à Orly (Val-de-Marne), Bassi Konaté à Sarcelles (Val-d’Oise), Adama Gaye à Mantes-la-Jolie (Yvelines), Kadir Mebarek à Melun (Seine-et-Marne), mais aussi au-delà de l’Île-de-France : Omar Yaqoob à Creil (Oise), Abdel-Kader Guerza à Dreux (Eure-et-Loir), Idir Boumertit à Vénissieux (Rhône)… Ils, plus souvent qu’elles, sont aujourd’hui premiers magistrats de leurs villes respectives. Ils et elles ont en commun d’appartenir à des minorités ethnoraciales et de représenter des territoires populaires.
Que disent ces réactions de la représentation en politique, de son évolution et de ses inerties ?
« La politique est un univers d’hommes privilégiés, âgés, diplômés et issus des catégories supérieures de la société », constatait le politiste Rémi Lefebvre – il faudrait préciser d’hommes blancs. L’élection de ces nouveaux et nouvelles maires vient bousculer, partiellement, cet ordre établi et les représentations qui l’accompagnent.
Leur arrivée en responsabilité n’est pas, pour autant, soudaine. Elle renvoie à un lent mouvement et une difficile reconnaissance du travail de militant·es des quartiers populaires. Dans une enquête portant sur la Seine Saint-Denis, département populaire, historiquement marqué par le communisme municipal et par l’histoire de l’immigration, nous montrions au niveau local une progression significative de la part des élus racisé·es entre les élections de 2001 (9 %) et celles de 2020 (36 %).
Il aura, néanmoins, fallu attendre 2014 pour qu’une commune de Seine-Saint-Denis, Stains, élise son premier maire racisé, Azzedine Taïbi. Le plafond de verre pour l’accès à la fonction de premier magistrat venait de se craqueler. Le mouvement s’est poursuivi avec l’élection de sept maires racisés en 2000 puis de 13, dont deux femmes, lors du dernier scrutin – les sept sortants ayant tous été réélus. Cette dynamique d’ouverture est donc bien confirmée en Seine Saint-Denis comme, plus largement, dans les banlieues populaires. Elle reflète, encore bien timidement, la diversité ethnoraciale de leurs populations.
Cette ouverture ne se traduit cependant pas par une meilleure représentation des femmes qui restent largement sous-représentées : 4 femmes maires sur les 39 villes du département, dont deux racisées. Les classes populaires demeurent par ailleurs largement exclues de la représentation politique.
Contrairement aux préjugés qui assimilent personne racisée et personne sans diplôme, appartenant aux classes populaires, ces maires racisé·es sont à l’image de l’ensemble des maires des villes de plus de 30 000 habitants que la profession initiale rattache majoritairement aux catégories supérieures et intermédiaires. Ils et elles sont néanmoins le plus souvent issus de familles populaires, ont grandi et habitent dans les territoires qui les ont socialisés politiquement.
À rebours des représentations médiatiques qui font de ces nouvelles et nouveaux maires, vu·es du seul critère racial, un ensemble homogène, c’est aussi la diversité de leurs trajectoires qui est confirmée. Leur élection est souvent associée à La France insoumise (LFI) et présentée comme une irruption soudaine dans la vie politique alors que leurs parcours renvoient à un ancrage et à un engagement de long terme dans leurs quartiers et leurs villes.
Leurs affiliations politiques sont plurielles, et ils et elles entretiennent des relations complexes avec les partis politiques souvent prêts à les instrumentaliser mais plus réticents à les reconnaître. Plusieurs ont conduit des « listes citoyennes » ou « diverses » réunissant l’appui de plusieurs partis.
Dans la seule ville de La Courneuve par exemple, s’affrontaient trois candidat·es racisé·es, tous trois issu·es de la Cité des 4 000 : Aly Dioura, Nadia Chahboune, Oumarou Doucouré. Le premier a construit son implantation dans le tissu associatif local : amicale de locataires, aide aux devoirs dans une association de quartier. Très critique vis-à-vis des partis politiques, il a investi la politique représentative en marquant d’emblée son indépendance, participant à la création du mouvement citoyen La Seine Saint-Denis au cœur. Il s’est présenté sous cette bannière aux élections départementales de 2021 et législatives de 2022. Deux ans plus tard, en 2024, il est investi par LFI et élu député. C’est aussi une liste LFI qu’il conduit pour les municipales de 2026 qui lui permet de devenir maire.
Nadia Chahboune, de son côté, conduit la liste soutenue par le maire communiste qui ne se représente pas. Elle est aussi issue du milieu associatif ; elle a créé et présidé deux associations sportives en direction des femmes avant d’être sollicitée par le maire communiste pour les élections de 2020. Elle occupe alors un poste de maire adjointe pendant un mandat. Contrairement à Aly Diouara, elle souhaite garder son indépendance vis-à-vis des partis politiques. Quant à Oumarou Doucouré, il est membre du Parti socialiste, conseiller technique au cabinet du président du Conseil départemental et présente une trajectoire partisane plus classique qui le conduit au poste de premier adjoint au cours du mandat 2020-2026 puis à mener une liste investie par le PS aux dernières municipales. Ces trois parcours illustrent des relations différentes avec le champ partisan, faites d’oppositions, de collaborations et de tentatives d’émancipation.
Les sept maires racisé·es élu·es en 2020 et réélu·es en 2026 témoignaient également d’une relation complexe aux partis politiques. Parmi les cinq qui s’affirment de gauche, on relève un compagnon de route, Abdel Saadi, et un membre du Parti communiste français (PCF) ayant rendu sa carte en 2022, Azzedine Taïbi (Stains), un membre du PS ayant fait ses classes au PCF, Karim Bouamrane (Saint-Ouen), et deux maires ayant conduit des listes citoyennes. L’un, Mohamed Gnabaly (L’Île-Saint-Denis), a depuis rejoint Les Écologistes (ex-EELV) tandis que l’autre, Dieunor Excellent (Villetaneuse), avait préalablement flirté avec le Parti radical de gauche (PRG) et le PS et continue de collaborer avec les élu·es de ces partis au sein de l’intercommunalité. Les deux maires de droite racisés élus en 2020 avaient été investis par Les Républicains (LR) où ils avaient fait leurs classes. Pour autant, l’un, Rolin Cranoly (Gagny), a quitté ce parti en 2024 ne se reconnaissant pas dans l’alliance avec le Rassemblement national (RN) préconisée par son président d’alors, tandis que l’autre, Zartoshte Bakhtiary (Neuilly-sur-Marne), a conduit au dernier scrutin municipal une liste d’union du centre.
La charge raciste contre Bally Bakayoko, maire de Saint-Denis, a été particulièrement violente ; elle est couplée avec un mépris de classe et une stigmatisation des banlieues populaires. Azzedine Taïbi faisait déjà état du climat islamophobe qui avait marqué sa campagne en 2014. Dieunor Excellent racontait que des bruits courraient sur son usage de la sorcellerie lors de son élection en 2020. Tous deux ont reçu plusieurs fois menaces et insultes qui les ont conduits à porter plainte. Meriem Derkaoui, qui a succédé au maire communiste d’Aubervilliers en cours de mandat en 2016, a été confrontée au doute instillé par les médias, quand le Parisien, par exemple, titre « Madame la Maire franco-algérienne… réintégrée », à propos d’une procédure qui s’est déroulée vingt ans auparavant.
Le scénario se reproduit et se durcit au fur et à mesure que des personnes racisées arrivent en responsabilité. À cela s’ajoutent toutes les expressions d’un racisme ordinaire que rencontrent nombre d’élu·es à l’instar de cette maire adjointe :
« Ah, c’est subtil, c’est très subtil. Au début, on doute en [se] disant que ce n’est pas possible. Au début, on écorche votre nom, puis on vous demande de le répéter ; quand vous dites une phrase, on vous demande de la répéter deux ou trois fois ; c’est de venir vous voir et vous demander si vous faites le ramadan. »
Ou de cette autre élue :
« J’arrive dans des services où des [personnes] ont fait des bacs plus dix, ou plus sept, la petite Noire qui arrive, qui est leur cheffe, parfois peut-être c’était compliqué pour certains d’accepter. »
L’élection de ces nouvelles et nouveaux maires représente un pas important vers une représentation politique dans laquelle les habitant·es des quartiers populaires puissent se reconnaître.
Mais le déferlement de réactions racistes aux relents colonialistes témoigne aussi à rebours de la prégnance des discriminations raciales, de classe et de genre, des rapports de domination qui structurent la représentation politique et, au-delà, la société française. Ces nouveaux et nouvelles maires ont contribué à ouvrir la porte de la représentation, à ouvrir de nouveaux imaginaires et possibles politiques. Les laissera-t-on remplir la charge qui leur a été confiée par les électeurs et électrices ?
La pression médiatique et politique à laquelle ils et elles sont confronté·es, les procès en légitimité et en communautarisme, les inévitables rapports de force à venir quand ils voudront appliquer leurs programmes représentent un véritable défi démocratique auquel certain·es de leurs prédécesseurs élu·es en 2020 ont déjà dû faire face. Cette dynamique d’ouverture et de reconnaissance, pour se consolider, restera à confirmer et à amplifier au cours des prochaines échéances électorales, locales, mais aussi nationales.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.04.2026 à 17:41
Fatima-Zahra Aklalouch, Associate Professor, Université Paris Cité
Le 9 septembre 2025, Robert F. Kennedy Jr, ministre de la santé de Donald Trump, publiait la stratégie MAHA (Make America Healty Again) : « Rendre sa santé à l’Amérique. » Pourtant, sa rhétorique semble exprimer autre chose : celle du maintien d’un doute permanent.
Robert F. Kennedy Jr n’est pas seulement un homme politique controversé. C’est une personnalité qui a su transformer le scepticisme en véritable identité politique et qui a appris à se servir du discours de la transparence comme arme de doute envers la santé publique elle-même.
Son ascension jusqu’au poste élevé qu’il occupe aujourd’hui n’est pas qu’une histoire de dénonciation du principe de la vaccination. Elle est celle d’une production du doute : phrase après phrase, métaphore après métaphore, jusqu’à ce que l’incertitude s’immisce dans le quotidien.
La biographie de Kennedy commence par une autorité héritée. Né en 1954, il est le neveu de John F. Kennedy et le fils de Robert F. Kennedy. Aujourd’hui, il porte un nom qui résonne encore avec l’idéalisme américain. Pourtant, comme le souligne le Monde, son nom à lui est progressivement devenu associé à un activisme teinté de théories complotistes et au vaccinoscepticisme – une fusion délicate entre dynastie et dissidence.
Pendant des décennies, la carrière publique de Kennedy ne s’est pas centrée sur la médecine mais sur l’environnement. C’est en exerçant les fonctions d’avocat et de militant écologiste qu’il s’est forgé une crédibilité, luttant contre les entreprises polluantes et poursuivant en justice des entreprises industrielles accusées d’empoisonner les rivières et les communautés.
Cette période de sa vie est importante aujourd’hui car elle fournit le cadre moral qui continue aujourd’hui de façonner son discours : les industries puissantes oppressent les innocents, les autorités de régulation échouent, et le justicier, seul, expose la vérité.
Problème : Kennedy semble avoir repris ce modèle – propre à l’environnement – pour l’appliquer au domaine de la santé publique. Selon lui, les vaccins sont moins des outils médicaux que des symboles d’une corruption institutionnelle.
C’est au milieu des années 2000 que Kennedy commence à promouvoir des idées remettant en cause l’innocuité des vaccins. En 2016, il cofonde l’une des organisations antivax les plus influentes du pays : le World Mercury Project, devenu en septembre 2018 Children’s Health Defense, dont il sera ensuite le « chairman » (président du conseil).
Certains fact-checkers relèvent par ailleurs qu’il établit souvent des liens entre l’autisme et les vaccins, alors même que l’inexistence de ces liens a été démontrée scientifiquement.
Mais ce qui singularise Kennedy est avant tout sa méthode rhétorique. En effet, il se présente rarement comme un antivax. Au contraire, il modère ses discours par des mots bien choisis, qui lui offrent une sorte de « bouclier linguistique ».
« Je suis pour la sécurité sanitaire. Je ne suis pas anti-vaccin… tous mes enfants sont vaccinés. »
Cette affirmation n’est pas fortuite. Elle est stratégique. En rejetant cette étiquette tout en entretenant le soupçon, Kennedy donne l’impression que le doute est raisonnable, voire responsable. Il en résulte une banalisation de la méfiance sans qu’il n’ait jamais à en assumer les conséquences.
Lors de la pandémie de Covid-19, cette rhétorique s’est significativement intensifiée. La revue scientifique Nature a qualifié Kennedy d’un des principaux diffuseurs de fausses informations concernant les vaccins, aux États-Unis. De même, le média NPR a analysé la façon dont il a attisé la méfiance envers les institutions de santé publique pendant la crise.
Lors de cette période, son discours se caractérise par une rhétorique populiste constante, opposant les citoyens ordinaires aux élites corrompues. La vaccination n’est plus présentée comme une intervention médicale, mais comme un symbole de coercition. « Soumettez-vous au gouvernement, faites ce qu’on vous dit », dénonce-t-il, déplorant qu’il n’y ait « aucun débat possible ».
Ce discours est politiquement efficace, précisément parce qu’il change la donne. Le débat ne porte plus sur des aspects épidémiologiques, mais sur des concepts comme la liberté, la trahison et l’intégrité morale. La science est présentée non pas comme une méthode mais comme une institution dont il faut se méfier.
Le propos de Kennedy repose sur un minutieux entretien du doute.
« Il n’y a pas de preuve », concède-t-il, avant de faire volte-face : « Nous ne savons pas encore ce qui en est la cause, alors ne devrions-nous pas garder l’esprit ouvert ? » La manœuvre est subtile : le consensus est présenté comme une conclusion hâtive, le scepticisme comme une vertu intellectuelle.
Kennedy va plus loin en redéfinissant la science elle-même. « La science ne dit rien », déclare-t-il. « La science est un débat. » Cette posture épistémique a des conséquences graves : si la science n’est qu’une dispute sans fin, alors aucune preuve ne pourra jamais trancher définitivement un désaccord. Le doute devient, dès lors, structurel.
Pour légitimer sa méfiance, Kennedy s’appuie davantage sur des récits moraux que sur une méthodologie rigoureuse. Il invoque volontiers Francis Kelsey (1914-2015), la scientifique de l’US Food and Drug Administration (FDA) qui s’était opposée à l’autorisation de la thalidomide, et la salue car elle « remettait la science en question ». La suggestion implicite est claire : la voix discordante d’aujourd’hui pourrait être le héros de demain. Mais l’analogie est trompeuse. Remettre en question la négligence réglementaire n’équivaut en aucun cas à remettre en cause des décennies de données sur les vaccins.
Lorsqu’on le contredit directement, Kennedy oppose au consensus scientifique des études « alternatives », promettant que s’il a tort, il « présentera des excuses publiques », insistant sur le fait qu’« il existe également d’autres études encore ». La conclusion est ainsi sans cesse repoussée et la discussion est conçue pour ne jamais aboutir.
Plus significatif encore, la rhétorique de Kennedy a commencé à remodeler les institutions elles-mêmes après son arrivée au ministère de la Santé. Des législateurs l’ont accusé de déstabiliser la gouvernance vaccinale après qu’il eut limogé les 17 membres d’un important comité consultatif, qualifiant cette décision d’inédite et d’irresponsable.
L’Association états-unienne de santé publique a averti que ses antécédents témoignaient d’un net penchant pour la désinformation et d’un manque de rigueur scientifique. La revue médicale The Lancet est allée plus loin, affirmant que son influence pourrait accroître la réticence mondiale à la vaccination, citant l’épidémie de rougeole aux îles Samoa comme un exemple tragique d’une méfiance amplifiée jusqu’à la catastrophe.
Kennedy n’agit pas seul. Il est porté par tout un écosystème qui le présente comme un défenseur persécuté de la vérité. Le rapport que lui a consacré la sénatrice démocrate Elizabeth Warren décrit par ailleurs son leadership comme la mise en œuvre d’une stratégie de déstabilisation anti-vaccinale. Ce qui en ressort n’est pas simplement un scepticisme individuel, mais un mouvement dont la méfiance est le fondement et où l’exigence de transparence devient une arme politique.
La vraie question que RFK Jr impose à la vie publique n’est pas de savoir si les vaccins sont sûrs – une question maintes fois tranchée par des preuves scientifiques – mais si les sociétés démocratiques peuvent survivre à l’érosion délibérée d’une réalité commune.
À un certain point, le sujet dépasse la simple personne du ministre de la santé, et interroge la culture qui permet à de telles affirmations de prospérer.
Comment le doute devient-il une identité ? Comment la remise en question se transforme-t-elle en une forme de pouvoir ?
Et que se passe-t-il lorsque le langage de la science devient un champ de bataille plutôt qu’une méthode ?
Dans un tel monde, la science cesse de fonctionner comme un outil commun d’établissement des faits. Elle devient au contraire un terrain de joute rhétorique : des acteurs rivaux revendiquent l’autorité de la science, chacun présentant sa propre version de celle-ci. Il en résulte non pas de la clarté, mais un conflit permanent, où le mot lui-même devient une arme dans la lutte pour savoir qui a le droit de définir la réalité.
Si Kennedy a commencé sa carrière comme militant écologiste, il est devenu un dissident de la santé publique. Désormais, il est quelque chose de plus inquiétant : un acteur politique dont l’influence ne réside pas dans la résolution de l’incertitude, mais dans son maintien.
La question la plus urgente n’est peut-être pas ce que croit Robert F. Kennedy Jr C’est ce que sa rhétorique rend possible.
Fatima-Zahra Aklalouch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:41
Julie Chiron, Chef de projet évaluation des risques liés à la santé, l'alimentation et au bien-être des animaux, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

Substance clé de la ruche, la cire agit aussi comme piège à polluants, ce qui pourrait menacer la santé des abeilles. Une expertise de l’Agence nationale de sécurité sanitaire, ou Anses, montre que la quasi-totalité des cires présente des contaminations chimiques, avec des niveaux plus élevés dans les circuits commerciaux que chez les apiculteurs qui recyclent leur propre cire d’une année à l’autre.
On le sait : la pérennité des écosystèmes dépend de la santé des pollinisateurs. Les abeilles en sont les représentantes emblématiques, leur déclin suscite l’inquiétude de la société et de la communauté scientifique. En cause, l’évolution des paysages, l’usage de produits chimiques en agriculture et en apiculture, notamment antiparasitaires pour lutter contre l’acarien Varroa destructor.
Or, la cire produite par les abeilles, substance de nature lipophile (c’est-à-dire présentant une affinité chimique pour les graisses), fixe et diffuse les substances chimiques contaminantes. En ce sens, elle peut constituer un biomarqueur de la contamination environnementale de la colonie d’abeilles.
Les jeunes abeilles produisent naturellement de la cire, mais le coût énergétique de sa fabrication peut diminuer la quantité de miel produit. L’ajout de cire dans la ruche leur donne un coup de pouce précieux pour édifier les alvéoles. Pour cela, les apiculteurs disposent chaque année sur les cadres de la ruche des feuilles de cire gaufrée, qui servent alors de base aux abeilles ouvrières.
Pour des raisons économiques, ces feuilles sont généralement produites à partir de cire recyclée : les cires sont collectées en même temps que la récolte de miel, fondues puis réutilisées. Ce recyclage peut entraîner l’accumulation progressive de contaminants chimiques susceptibles d’être nocifs pour les abeilles.
Les bonnes pratiques apicoles de l’Institut de l’abeille et de la pollinisation (Itsap) préconisent que seuls les opercules de cire (les pellicules de cire utilisées pour fermer les alvéoles) produits dans l’année par les abeilles soient recyclés, mais la cire étant un produit rare, certains apiculteurs s’approvisionnent auprès de fournisseurs tiers.
Pour mieux comprendre l’ampleur du problème, l’Agence nationale de sécurité sanitaire (Anses) a récemment mené une expertise pour dresser l’état des lieux des contaminants chimiques présents dans les cires utilisées en apiculture, en France hexagonale.
La France importe ainsi environ 1 000 tonnes de cire par an, essentiellement de Chine. Or, en raison de l’absence de définition réglementaire de la cire d’abeille à usage apicole, il n’existe pas de contrôle spécifique pour ce produit, en dehors des contrôles documentaires classiques (portant sur l’exactitude, l’exhaustivité et la validité des déclarations en douane) effectués en postes frontières.
L’exposition chronique, par la cire, du couvain et des abeilles aux contaminants qu’elle contient, est susceptible d’avoir un impact sur leur développement, leur santé et leur survie. Et cela, à tous les stades de développement (larves, nymphes et adultes), ce qui peut menacer la santé de la colonie entière.
Il n’existait, jusqu’alors, aucun état des lieux de la contamination des cires en France ni d’évaluation chiffrée du risque posé pour la santé des abeilles.
À lire aussi : Pourquoi l’abeille est-elle devenue le symbole de la lutte contre les pesticides ?
Dans le but de mieux connaître l’état des contaminations des différents types de cires en France, deux études de terrain successives ont été conduites, en plus d’une revue de la bibliographie.
La première a été menée auprès des apiculteurs professionnels (étude CIMEQA) et la seconde (une convention de recherche-développement, ou CRD, cosignée par l’Itsap et l’Anses), auprès des apiculteurs de loisir.
En effet, ces deux groupes n’ont pas les mêmes pratiques :
Les apiculteurs professionnels (possédant plus de 150 ruches) sont majoritairement autosuffisants en cire : leur rucher leur en procure suffisamment pour qu’ils puissent la recycler et fournir la quantité nécessaire au renouvellement des cadres de leurs ruches. En apportant leur production annuelle au cirier (industriel ou artisan préparant la cire ou des produits en cire), ils peuvent récupérer les feuilles de cire gaufrée issues du recyclage de leur propre cire.
Les apiculteurs de loisir (possédant moins de 150 ruches) ne sont généralement pas autosuffisants. Différents circuits de recyclage et d’achats de cire s’offrent à eux : les ciriers, les collectifs d’apiculteurs, les enseignes spécialisées en apiculture et, enfin, les enseignes non spécialisées (type magasin de jardinage-bricolage).
Il en ressort que la quasi-totalité des échantillons analysés est contaminée, quelle que soit la population d’apiculteurs étudiée.
En comparaison des cires qu’emploient les apiculteurs professionnels, les cires distribuées dans le commerce présentent des niveaux de contamination supérieurs. Il apparaît toutefois que les contaminants les plus fréquemment retrouvés dans ces deux catégories de cires sont globalement les mêmes : le tau-fluvalinate, le coumaphos, le propargite et le piperonyl butoxide (PBO).
Il s’agit de résidus de produits phytopharmaceutiques, de médicaments vétérinaires, de biocides et d’éléments traces métalliques, qui sont d’origine environnementale ou apicole. Dans le second cas, ils sont souvent liés à la lutte contre l’acarien Varroa destructor.
Ces analyses confirment des fréquences d’occurrence importantes des médicaments vétérinaires, actuellement ou auparavant autorisés (tau-fluvalinate, coumaphos, thymol pour la seule étude l’ayant recherché, métabolites de l’amitraze, fluméthrine).
D’autres résultats étaient moins prévisibles, comme la présence de pyréthrinoïdes (utilisés comme insecticides, notamment en agriculture), des composés organophosphorés ou organochlorés, qui sont des polluants organiques persistants. Parmi les substances les plus préoccupantes, des pyréthrinoïdes ont été retrouvés dans plus de 40 % des échantillons des cires gaufrées commercialisées.
L’Anses a ensuite calculé le risque pour les abeilles à partir des DL50 (c’est-à-dire une dose provoquant 50 % de mortalité pour les populations d’abeilles) de chacune des substances chimiques identifiées dans les échantillons et dans les concentrations où elles y ont été retrouvées. Plus la DL50 est faible, plus la substance est toxique.
L’outil en ligne BeeToxWax, développé par l’Université de Liège, a été utilisé. Il permet de calculer instantanément un quotient de risque (QR) qualifiant la toxicité de la cire et sa possible réutilisation en apiculture en fonction de seuils définis dans la littérature scientifique.
Les seuils étaient les suivants :
QR < 250 : risque chimique jugé acceptable, cire considérée comme étant de bonne qualité pour l’apiculture ;
250 < QR < 5 000 : toxicité significative, la cire est classée comme étant de qualité intermédiaire pour l’apiculture ;
QR > 5 000 : toxicité élevée, la cire est considérée comme étant de mauvaise qualité pour l’apiculture.
Verdict ? Les résultats obtenus sont plus favorables pour les cires issues de l’autorenouvellement des apiculteurs professionnels. Seuls 4,5 % des échantillons issus de cet autorenouvellement présentaient un score de QR supérieur à 5 000.En revanche, les cires du commerce dépassent ce seuil pour 38,8 % des échantillons étudiés.
Au final, les cires les moins contaminées sont retrouvées essentiellement parmi les cires des apiculteurs professionnels : dans ce groupe, 81 % des cires ont un score de QR inférieur à 250, contre 30 % des cires provenant de l’étude CRD (apiculeurs de loisir).
Pour les différentes voies d’approvisionnement, enfin, les meilleurs résultats ont été obtenus pour les cires provenant des groupements d’apiculteurs, puis des ciriers. Les cires issues des enseignes spécialisées et surtout celles des généralistes obtiennent le moins bon score.
À lire aussi : Abeilles à miel : comment les humains ont bouleversé leur histoire et leur diversité
Ainsi, la qualité toxicologique d’une cire est en partie liée à son circuit d’approvisionnement et à son origine géographique.
La cire utilisée par les apiculteurs autosuffisants est de bien meilleure qualité que celle du commerce. De même, les cires labellisées AB présentent une meilleure qualité que les cires conventionnelles. Enfin, les feuilles de cire gaufrées confectionnées exclusivement à partir d’opercules sont de meilleure qualité que les feuilles confectionnées à partir de mélanges contenant toutes les cires de cadres et/ou d’origines diverses.
La part de risque attribuable aux médicaments apicoles rappelle l’importance du respect des bonnes pratiques en termes d’application et de posologie. La fluméthrine (pyréthrinoïde), acaricide autorisé pour lutter contre le varroa qui parasite les abeilles, doit faire l’objet d’une attention particulière quant aux doses d’application. En cas de dépassement, une dégradation exponentielle de la qualité de la cire s’ensuit, et cela d’autant plus en association avec le PBO, qui augmente l’activité insecticide de cette molécule, que l’on retrouve dans 77,6 % des échantillons analysés chez les apiculteurs de loisir.
Même en retirant la part de risque liée aux médicaments vétérinaires, la qualité toxicologique des cires reste dégradée. Les substances présentant les parts de risque le plus élevé sont, pour les deux études, des pyréthrinoïdes. Là aussi, la présence du PBO augmente leur activité insecticide et augmente le risque chimique. Or, les connaissances et les outils disponibles aujourd’hui ne permettent pas d’évaluer de telles synergies.
De nombreux contaminants sont présents dans les cires alors qu’ils ne sont plus – ou n’ont jamais été autorisés – en Europe. Le maintien de leurs usages dans certains pays tiers, voire leurs usages détournés et mésusages en France ou ailleurs dans le monde, rappelle la nécessité de contrôler efficacement la provenance et la qualité des cires disponibles sur le marché français. Les enquêtes conduites ont démontré la meilleure qualité des cires d’origine française contre celles d’origine UE ou hors UE.
La conservation des molécules dans la cire recyclée nécessite de remettre dans le circuit des cires de la meilleure qualité possible. Pour cela, l’apiculteur est le premier intervenant à agir par l’application des bonnes pratiques apicoles et la surveillance régulière et attentive de ses colonies. Le rapport d’expertise de l’Anses compte de nombreuses recommandations à destination de tous les acteurs de la filière apicole, et en premier lieu des apiculteurs.
L’autrice de ce texte adresse ses remerciements au groupe de travail Cires de l’Anses : Carole Peroz (présidente du groupe de travail), Lionel Grisot (vice-président), Frédéric Delbac, Yves Le Conte, Monique L’Hostis, Anne-Claire Martel, Freddie-Jeanne Richard, Christophe Roy, Claude Saegerman et Cyril Vidau ainsi qu’à Caroline Boudergue (adjointe à la cheffe d’unité Anses).
Julie Chiron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:40
Adam Stanaland, Assistant Professor of Psychology, University of Richmond
Andrea Vial, Assistant Professor of Psychology, New York University Abu Dhabi
Très tôt sensibles aux normes de genre, les enfants ne se contentent pas d’en être des observateurs, ils les intériorisent. Comment cela se manifeste-t-il ? Et comment cela évolue-t-il avec l’âge ?
Beaucoup de personnes ont déjà ressenti cette pression subtile qui les pousse à vouloir paraître « assez viriles » ou « assez féminines » aux yeux des autres. Des études ont démontré que cette pression peut avoir des conséquences tant sur le plan personnel que social.
Lorsque les hommes ont le sentiment que leur virilité est mise en question, ils peuvent réagir par des comportements agressifs et nuisibles. Lorsque les femmes s’écartent des stéréotypes de la féminité – ou même lorsqu’elles envisagent simplement de le faire –, elles subissent souvent des réactions négatives.
En tant que chercheurs étudiant la manière dont les stéréotypes et les normes de genre affectent les individus, de façon souvent inattendue, nous nous sommes interrogés sur les processus qui poussent les enfants à se conformer à ces normes stéréotypées. Quand cela commence-t-il, et de quelle manière cela peut-il se manifester ?
Dans une étude récemment publiée, menée avec notre collègue Andrei Cimpian, nous avons constaté que, lorsque les enfants perçoivent que leur sentiment d’appartenance en tant que « membre à part entière » d’un groupe de genre est menacé, ils se sentent poussés à se conformer à des rôles de genre, avec des conséquences durables.
En nous inspirant de recherches menées auprès d’adultes, nous avons estimé que la meilleure façon d’évaluer la motivation des enfants à se conformer aux normes de genre consistait à remettre en question leur statut de membre « représentatif » de leur groupe de genre.
Pour ce faire, nous avons demandé à 147 enfants, âgés de 5 à 10 ans, à New York, de jouer à deux jeux, un « jeu de questions pour filles » et un « jeu de questions pour garçons ». Chacun comportait des questions difficiles sur des sujets stéréotypés selon le genre, telles que « Laquelle de ces fleurs est un coquelicot ? » (Jeu des questions pour filles) et « Laquelle de ces équipes de football a été championne en 2016 ? » (Jeu des questions pour garçons).
Nous avons réparti les enfants de manière aléatoire pour qu’ils reçoivent des commentaires suggérant que leurs performances étaient soit conformes aux stéréotypes de genre, soit atypiques par rapport à ceux-ci, cette dernière catégorie constituant notre version d’une menace pesant sur leur conformité de genre. Par exemple, un garçon placé dans cette condition de menace recevait un commentaire indiquant qu’il avait brillé au « Jeu des questions pour filles », mais qu’il avait échoué au « Jeu des questions pour garçons ».
Nous avons ensuite évalué comment ils réagissaient à ce retour d’information. Le garçon allait-il partager publiquement ou cacher sa réussite dans un « Livre des gagnants du Jeu des questions pour filles » ? Allait-il porter fièrement un autocollant « Gagnant du Jeu des questions pour filles », ou préférait-il changer d’autocollant ? Allait-il s’inquiéter de ce que ses camarades allaient penser ?
Nous avons identifié trois façons distinctes dont les enfants réagissaient face à des menaces pesant sur leur conformité de genre.
Tout d’abord, les filles et les garçons de tous âges sont particulièrement préoccupés par le fait de ne pas s’intégrer à leur groupe de genre. Cela signifie qu’ils s’attendent à davantage de rejet de la part de leurs pairs et manifestent une faible estime de soi.
Deuxièmement, certains enfants s’efforcent de montrer activement qu’ils s’intègrent dans leur groupe de genre. Les plus jeunes filles accentuent leur féminité, tandis que les garçons plus âgés accentuent leur masculinité. Par exemple, les garçons plus âgés nous ont dit qu’ils préféraient les figurines d’action aux poupées, ou qu’ils voulaient rejouer au « jeu des questions pour garçons » plutôt qu’au « jeu des questions pour filles ».
Cela va dans le sens de recherches antérieures montrant que de nombreuses jeunes filles sont plongées dans une « culture des princesses » et particulièrement soucieuses de prouver leur féminité, même si cette tendance s’estompe avec l’âge. À l’inverse, les garçons plus âgés apprennent de plus en plus, à mesure qu’ils grandissent, que la masculinité est un statut social précaire qui se gagne difficilement et doit être activement prouvé.
Troisièmement, les garçons de tous âges évitaient de paraître atypiques par rapport à leur groupe de genre, en se distanciant activement de tout ce qui était féminin. Nous n’avons pas observé chez les filles une tendance similaire à se distancier de tout ce qui était masculin.
Cette réaction reflète un double standard culturel aux États-Unis : on encourage souvent les filles à être sportives, à s’affirmer ou à ressembler à des « garçons manqués », alors que les garçons ne disposent pas d’équivalent socialement acceptable ; il n’existe pas de version masculine positive du terme « garçon manqué ». L’expression qui s’en rapproche le plus est « poule mouillée », qui n’est généralement pas considérée comme un compliment.
Nos résultats montrent que les fondements de cette recherche de conformité de genre à l’âge adulte – y compris certaines de ses manifestations les plus néfastes, telles que certaines formes d’agressivité masculine et certaines angoisses féminines sur les poursuites de carrière dans les domaines dominés par les hommes – se mettent en place dès le plus jeune âge.
Dès l’âge de 5 ans, les garçons repèrent qu’il est préférable pour eux d’éviter les comportements vus comme « féminins ». Vers 7 ans, ils semblent comprendre que la masculinité est un statut qu’il faut activement prouver et défendre, et cette mentalité peut se manifester par de l’agressivité, des violences sexuelles et une réticence à demander de l’aide à l’âge adulte.
Pour les filles, nos résultats suggèrent qu’elles sont motivées à prouver leur féminité de manière stéréotypée dès le plus jeune âge, mais que cela peut s’estomper ensuite. Cela s’explique peut-être par le fait que les filles sont parfois encouragées à se lancer dans des domaines historiquement vus comme « masculins », tels que le sport et les sciences et technologies. Ou bien elles se rendent compte que la masculinité permet aux hommes – et aux garçons – de réussir dans ces domaines, et cherchent donc à s’en rapprocher en s’éloignant de la féminité.
Il est toutefois possible que, dans d’autres contextes, les filles subissent davantage de pression pour incarner la féminité et éviter la masculinité – c’est-à-dire pour se conformer aux stéréotypes féminins – d’une façon que nous n’avons pas pu mettre en évidence dans notre étude. Nous ne comprenons pas non plus pourquoi les réactions des filles face à la perception de menaces sur la conformité de genre pourraient s’atténuer avec l’âge, étant donné que les femmes adultes sont elles aussi affectées par ces menaces. Notre prochain objectif est d’étudier plus en détail comment la conformité de genre se développe dans des contextes géographiques et culturels plus diversifiés, ainsi que chez des enfants aux identités de genre plus variées.
En somme, nous pensons que l’enfance pourrait constituer une période critique pour intervenir. Les programmes qui aident les enfants, en particulier les garçons, à se forger une identité solide qui ne repose pas sur la conformité aux normes pourraient les aider à entretenir une relation plus saine avec les normes de genre. De cette manière, les enfants pourraient être moins enclins à réagir aux menaces perçues envers leur conformité de genre d’une manière qui leur serait préjudiciable à l’âge adulte.
Néanmoins, ce qui est clair, c’est que les enfants ne se contentent pas d’observer les normes de genre : ils les intériorisent, les défendent activement et commencent à le faire plus tôt que ce que l’on pense.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.04.2026 à 17:40
Hélène Gorge, Maître de conférences, LUMEN (ULR 4999), Université de Lille, Université de Lille
Melvin Grefils, Docteur en sciences de gestion, Université de Lille
Nil Özçaglar-Toulouse, Professeure des universités, LUMEN (ULR 4999), Université de Lille
Les récentes élections municipales ont montré comment les investissements culturels pouvaient être instrumentalisés dans un débat politique ; comme à Lens, dans le Pas-de-Calais. Le Louvre local a été accusé de ne pas profiter suffisamment aux habitants de la ville. Cela pose la question de l’utilité des équipements culturels. Faut-il la mesurer en fonction de considérations économiques, sociales ou culturelles ?
Dans un contexte d’élections municipales tendues, en particulier dans la ville de Lens (Pas-de-Calais), l’offre culturelle proposée dans cette ville a été l’objet de questions. Un article de Télérama interroge notamment la réussite de la revitalisation culturelle annoncée avec l’implantation du musée du Louvre-Lens.
Comme le montre cet article, l’opposition au conseil municipal ne se prive pas de pointer des résultats en demi-teinte pour le Louvre-Lens, en particulier lorsque l’on regarde les chiffres des entrées au musée et la part du public international, moins importante qu’annoncé.
Cependant, il est peu aisé – voire dangereux – de quantifier des résultats d’une offre culturelle, telle qu’un musée, dans une localisation où la population, principalement issue des classes populaires, n’est que peu, voire n’est pas, familière des institutions muséales. Ce phénomène de quantification menace directement un champ culturel déjà en tension et soumis à de nombreuses coupes budgétaires ces dernières années. Cela pourrait encourager une hiérarchisation des acteurs culturels et une potentielle instrumentalisation de la culture.
À lire aussi : Le Centre Pompidou, le musée superstar en équilibre précaire, avant fermeture pour travaux
Notre travail sur le processus de légitimation du Louvre-Lens dans la ville de Lens et la région du bassin minier, publié en 2024, montre justement les dynamiques économiques et culturelles de l’implantation du musée. Depuis 2004, début de la médiatisation du projet d’implantation de ce musée, le contexte local exerce une forte influence sur les deux types de légitimation du Louvre-Lens, développés en parallèle par les acteurs médiatiques, politiques, socio-économiques et culturels : une légitimation économique et une légitimation culturelle.
La stratégie de légitimation économique est souvent au cœur des discours, en particulier des acteurs politiques, pour défendre – ou critiquer – un projet d’offre culturelle. Présenté comme un levier de revitalisation économique pour le bassin minier et ses habitants, le musée allait assurer « la survie économique » de la région au début des années 2000 (La Voix du Nord, 21 juillet 2004). Cette stratégie et sa réception sont alors fortement influencées par le contexte local. Les difficultés socio-économiques des habitants accentuent les attentes autour du Louvre-Lens mais également les tensions, avec la crainte d’un investissement trop lourd pour une région qui connaît déjà des difficultés.
Quelques années après l’ouverture du musée, à partir du milieu des années 2010, le bilan économique n’a pas tenu toutes ses promesses, ce qui déclenche des critiques dans la sphère médiatique qui pointe « un impact limité sur l’économie locale » (Le Monde, 21 août 2016) et le décalage perçu entre les promesses des acteurs publics et le développement économique réel.
Pour mieux comprendre l’importance de l’argument économique dans les discours sur le Louvre-Lens, les apports du marketing culturel peuvent s’avérer utiles. Dans les années 1990-2000, des travaux sur le concept de la « ville créative » ou sur la théorie de la « classe créative » émergent. Ces travaux supposent que le développement d’activités créatives et culturelles dans une ville génère un développement économique, favorise l’inclusion sociale et améliore les conditions de vie des habitants.
Si ces concepts ont séduit les décideurs politiques, de nombreux travaux scientifiques les ont critiqués, en particulier pour le flou relatif à leur application concrète. De plus, une grande majorité des [travaux] supportant l’argument économique se base toujours sur le même exemple de revitalisation culturelle, celui du musée Guggenheim à Bilbao, grandement médiatisé et repris dans les discours politiques comme un modèle à suivre.
Mais ce modèle ne s’exporte pas facilement, tant les spécificités propres à chaque territoire, leurs contextes historique, politique, social, économique, spatial ou encore culturel sont cruciaux pour mieux appréhender le développement d’une offre culturelle locale.
En parallèle de ce processus de légitimation économique particulièrement mobilisé par des acteurs politiques, économiques et médiatiques, la légitimation culturelle s’inscrit plutôt dans un objectif de démocratisation culturelle, afin d’encourager l’appropriation du Louvre-Lens par les habitants. Dès le début du projet de développement du musée, le Louvre-Lens est représenté comme une compensation pour une ville et une région souvent délaissée par les pouvoirs publics depuis la désindustrialisation. Ainsi, Guy Delcourt, maire socialiste de la ville et vice-président du conseil général du Pas-de-Calais, estimait que le choix du gouvernement annoncé le 29 novembre par le premier ministre lors d’une visite dans la ville n’est que justice pour un département qui a « toujours été oublié sur le bord de la route, y compris par nos amis du Nord ».
La dimension symbolique de cette implantation, en lien avec le passé minier du territoire, est renforcée par sa dimension spatiale. Qu’il s’agisse de son lieu d’implantation (un ancien carreau de fosse) ou des traces matérielles préservées et valorisées (signalisation de l’ancien puits de mine, conservation de la trace des anciens rails qui servaient au transport du charbon).
La dimension spatiale d’un musée influence significativement ses représentations et sa fréquentation. Dans ce cadre, les travaux en marketing culturel et en urbanisme décrivent souvent une architecture de musée qui serait conçue et pensée par des acteurs publics et des architectes à des fins de développement touristique sans réelles considérations ou implication des habitants, freinant ainsi leur fréquentation et les efforts de démocratisation culturelle. Cependant, dans le cas du Louvre-Lens, sa dimension spatiale a contribué à inscrire le musée dans une histoire et une identité commune, celle du bassin minier.
À la suite de l’ouverture du musée, sa légitimation culturelle s’est renforcée grâce aux différentes actions développées par le Louvre-Lens, telles que des expositions sur le RC Lens, le club de football local, sur la Pologne faisant écho à l’importante communauté polonaise sur le territoire, ou encore à travers la mise en place de cartels conçus avec plus de 200 habitants pour encourager la démarche collaborative.
Ces actions favorisent la collaboration des habitants et des associations locales, répondant à l’objectif d’ancrage territorial du Louvre-Lens. Cette légitimation culturelle est finalement assez peu remise en cause dans les discours médiatiques et par les habitants, qui sont de plus en plus nombreux à visiter le Louvre-Lens chaque année. En 2024, selon le rapport d’activité du Louvre-Lens, 74 % des visiteurs viennent des Hauts-de-France et 30 % résident aux alentours du musée, une proportion en augmentation ces dernières années (28 % en 2023 et 25 % en 2022). À titre de comparaison, selon le rapport d’activité du Mucem en 2024, 39 % de leurs visiteurs viennent de la région Sud, et 28 % résident à Marseille.
Dans le processus de légitimation du Louvre-Lens, si la légitimation culturelle a tendance à être reléguée au second plan par certains acteurs : médiatiques, politiques en particulier, elle s’avère être en réalité au cœur de la réussite actuelle du musée auprès de la population locale, et donc du développement du territoire.
En effet, l’analyse des discours médiatiques autour du Louvre-Lens montre que sa légitimation économique a été plus fortement discutée au commencement du projet dans les années 2000, puis à l’inauguration du musée en 2012. Elle est ensuite de moins en moins questionnée au fil des années, au profit de discours représentant le Louvre-Lens comme une réussite culturelle, acceptée et légitime. Cependant, l’argument économique ressurgit régulièrement, à des moments de forts enjeux politiques, comme en témoigne récemment le contexte actuel des municipales.
Les discours médiatiques et politiques contribuent à alimenter les tensions en omettant des éléments essentiels à la pleine compréhension des retombées économiques, rendant l’argument économique peu clair. Le Louvre-Lens a fêté ses 13 ans en fin d’année 2025 ; si cela représente une durée relativement courte à l’échelle d’un musée, il n’en va pas de même à l’échelle des habitants. La temporalité des retombées économiques doit être prise en compte et communiquée à la population locale afin d’éviter toute ambiguïté sur le temps nécessaire au développement économique.
La revitalisation des territoires doit être approchée de manière nuancée, car les enjeux économiques et sociaux n’affectent pas tous les acteurs de la même manière. Les acteurs privés et les investisseurs immobiliers sont les premiers à bénéficier des retombées économiques, puis, dans une moindre mesure, les habitants. Il est donc essentiel de clarifier comment l’ensemble des acteurs bénéficie du développement économique du territoire, qu’il s’agisse de la population locale, du tissu associatif ou encore des entreprises privées.
La même approche s’applique aux espaces géographiques. Par exemple, les infrastructures développées autour du Louvre-Lens, telles que le parc du musée, la Louvre-Lens Vallée ou la rénovation des accès routiers, ont un impact beaucoup plus direct sur les quartiers aux alentours du musée que sur les quartiers les plus éloignés, pouvant créer des tensions au sein de la population ou une forme d’incompréhension envers ce type d’investissements.
La thèse de Melvin Grefils a été cofinancée par l'université de Lille (50%) et le conseil régional Hauts-de-France (50%). Ce travail a également bénéficié d'une convention de collaboration avec le musée du Louvre-Lens.
Hélène Gorge et Nil Özçaglar-Toulouse ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
08.04.2026 à 17:37
Damien Chaney, Professor, EM Normandie
Déborah Philippe, Professeure de stratégie et durabilité, Université de Lausanne

Signer une pétition, relayer un message, partager une image : ces gestes ordinaires peuvent-ils infléchir le destin d’une institution culturelle menacée de fermeture ? À l’heure des réseaux sociaux, certaines mobilisations dépassent leur ancrage local pour toucher des publics inattendus. Mais qu’est-ce qui transforme une indignation diffuse en véritable levier d’action collective ?
En 2015, un musée prestigieux situé au cœur de Lyon (Rhône) est menacé de fermeture. Le Musée des tissus et des arts décoratifs, qui abrite l’une des plus importantes collections textiles du monde, risque de disparaître faute de financements. Deux ans plus tard, il est finalement sauvé. Entre-temps, une mobilisation citoyenne inattendue s’est développée, largement portée par Internet.
Cet épisode illustre une transformation des formes d’engagement autour du patrimoine. Comment une mobilisation née en ligne peut-elle contribuer à préserver un site culturel ? Et que révèle ce cas sur les nouvelles dynamiques de militantisme dans le domaine du patrimoine ? Nous avons mené une étude pour tenter de répondre à ces questions.
Le Musée des tissus est intimement lié à l’histoire économique et culturelle de Lyon. Au XVIIIᵉ siècle, la ville devient l’un des principaux centres mondiaux de la production de soie. Les célèbres canuts, les ouvriers tisserands lyonnais, jouent alors un rôle central dans cette industrie. Créé au XIXᵉ siècle, le musée conserve et met en valeur le patrimoine textile, en retraçant l’histoire des savoir-faire liés aux étoffes.
Ses collections rassemblent aujourd’hui plus de deux millions de pièces textiles couvrant près de 4 500 ans d’histoire, provenant de nombreuses régions du monde. Tissus anciens, vêtements, échantillons industriels ou créations contemporaines témoignent de l’évolution des techniques et des styles à travers les siècles. Grâce à cette richesse patrimoniale, le musée attire à la fois des chercheurs, des professionnels du textile et des visiteurs intéressés par l’histoire des arts décoratifs.
Au début des années 2010, l’équilibre financier du musée devient fragile. L’institution est gérée par la chambre de commerce et d’industrie de Lyon, qui subit alors une baisse importante de ses ressources. Cette situation conduit l’organisme à envisager l’arrêt du financement du musée. Plusieurs scénarios sont étudiés pour assurer la pérennité du site : transfert de la gestion à la Ville de Lyon, au ministère de la culture ou encore à d’autres institutions culturelles. Mais aucune solution ne se concrétise rapidement. Progressivement, l’hypothèse d’une fermeture devient de plus en plus probable.
C’est dans ce contexte qu’une pétition est lancée sur Internet par Daniel Fruman, collectionneur de textiles, pour demander le maintien du musée. Au départ, l’initiative est modeste. Mais la mobilisation se diffuse rapidement via les réseaux sociaux. Des associations locales, des historiens de l’art, des professionnels du textile et d’autres citoyens relaient la pétition et publient leurs propres messages pour défendre le musée. Les médias s’emparent progressivement du sujet, contribuant à élargir la visibilité du mouvement. Au fil des mois, la mobilisation dépasse largement le cadre local. Plus de 130 000 personnes signent finalement la pétition, avec des soutiens provenant de plus de 130 pays.
Quelques manifestations physiques sont également organisées à Lyon, toutefois elles rassemblent seulement quelques centaines de participants. Une campagne de communication plus visuelle est aussi menée dans l’espace urbain, notamment à travers des affiches dessinées par l’artiste Alex Beretta avec le slogan « Yes We CANut ». Celle-ci est ensuite largement relayé sur les réseaux sociaux. L’essentiel de l’engagement pour sauver le musée des tissus se structure ainsi en ligne.
Ainsi, après près de deux ans de mobilisation et de négociations de la direction avec les pouvoirs publics, une solution est finalement trouvée : la Région Auvergne-Rhône-Alpes, la chambre de commerce et plusieurs acteurs du secteur textile s’engagent à soutenir financièrement la poursuite des activités du musée.
Le succès de cette mobilisation tient d’abord aux formes de discours qui ont été mobilisées. Notre étude met en évidence quatre grandes manières de défendre la cause : expliquer l’importance du musée (éduquer), désigner des responsables (dénoncer), invoquer des valeurs collectives (moraliser) et projeter un avenir possible (projeter).
Ces stratégies reposent elles-mêmes sur trois registres d’interprétation : le patrimoine (mettre en avant la richesse des collections ou leur valeur historique), l’identité (souligner le lien avec Lyon ou l’histoire des canuts) et une critique des logiques économiques (dénoncer des décisions guidées par la rentabilité plutôt que par la culture).
Ces catégories ne sont pas propres à ce cas. On les retrouve dans d’autres mobilisations, mais, ici, leur combinaison est particulièrement efficace, car elle permet de toucher des publics très différents.
Une première catégorie de participants est composée de personnes directement attachées au Musée des tissus : visiteurs, amateurs d’art, historiens ou professionnels du textile. Leur engagement repose souvent sur une expérience personnelle du lieu et une proximité avec ses collections.
Mais la mobilisation dépasse largement ce cercle. D’autres participants, parfois éloignés géographiquement ou n’ayant jamais visité le musée, s’approprient également la cause. Leur implication illustre un élargissement du mouvement au-delà de ses publics initiaux, avec des formes d’engagement moins liées à une expérience directe du musée.
Au final, le mouvement développe des discours qui ne sont pas homogènes. Ils forment une véritable polyphonie. Contrairement aux mouvements sociaux traditionnels, souvent structurés autour d’un leadership et d’un message centralisé, le discours a ici partiellement échappé au fondateur de la pétition. Cette décentralisation, loin d’affaiblir le mouvement, a permis d’élargir la base de soutien et donc de rendre le mouvement de plus en plus visible dans l’espace public et médiatique.
De plus, cette diversité fonctionne parce qu’elle s’ancre dans la nature même de l’objet défendu. Le musée constitue un patrimoine riche de significations multiples : chacun peut y projeter ses propres valeurs, qu’il s’agisse d’histoire, d’identité ou de défense de la culture. Cette capacité d’appropriation explique en grande partie l’ampleur prise par la mobilisation.
Mais beaucoup de campagnes échouent : des pétitions pour sauver des cinémas de quartier ou des éléments de petit patrimoine rural restent souvent sans effet. Leur mobilisation demeure largement locale, portée par des publics déjà convaincus, et peine à toucher des audiences plus larges. Surtout, ces causes n’entrent pas suffisamment en résonance avec des publics éloignés, qui ne s’y reconnaissent pas ou n’y projettent pas de signification particulière. Faute de circulation au-delà du territoire concerné, ces initiatives restent peu visibles et ne parviennent pas à exercer une pression suffisante sur les décideurs publics.
Enfin, il faut nuancer : la mobilisation numérique crée un bruit médiatique et politique, mais sans financement ou engagement public concret, elle reste insuffisante. Les coupes budgétaires récentes dans les Pays de la Loire montrent que, malgré l’émotion et le partage en ligne, l’Internet seul ne sauve pas un patrimoine.
Déborah Philippe a reçu des financements du Fonds National Suisse (FNS) pour des projets de recherche passés. Les fonds obtenus sont sans rapport avec l'article soumis à The Conversation ou l'étude académique sur lequel il se base.
Damien Chaney ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 11:30
Tao Wang, Professor of Strategy, EM Lyon Business School
The potent emerald-green blend of wormwood, green anise and fennel, known as “the Green Fairy,” was once celebrated by the French society, including artists from Baudelaire to Van Gogh. By the early 1900s, France consumed more absinthe than the rest of the world put together. Yet within decades, it was banned and deemed a “national poison.”
What happened? Our analysis (recently published in Organization Studies of historical archives, newspapers, medical publications, and propaganda materials spanning 1870 to 1915, reveals a systematic scapegoating process which unfolds throughout three escalating cycles.
The process began with genuine social concerns surrounding the beverage, against a backdrop of alarming alcoholism rates, military defeat against Prussia, and anxieties about national decline.
Scientists, though their research was inconclusive, coined “absinthism” as a distinct pathology, claiming absinthe caused unique symptoms, including epilepsy and madness.
Here is where the dynamics become fascinating. Faced with growing anti-alcohol sentiment, producers of similar beverages – aperitifs made from nearly identical ingredients, such as anis, pastis and anisette, strategically distanced themselves from absinthe.
Advertising posters from the 1880s explicitly contrasted “healthy” tonics with “deadly” absinthe, showing death lurking behind absinthe drinkers, while beautiful women accompanied those choosing competing products. Wine producers joined the attack for economic reasons. After a devastating vine disease – phylloxera – had destroyed French vineyards, they needed to reclaim market share. Framing their struggle as patriotic – wine as French heritage versus absinthe as foreign poison – they allied with temperance movements and politicians.
Finally, even absinthe producers turned on each other. Producers from Pontarlier, the traditional production region, attacked “bad absinthe” from Paris, hoping to save themselves by sacrificing others. This internal fracturing sealed absinthe’s fate. When World War I broke out, the ban came swiftly, presented as a victory for French civilisation.
Our research identifies a recurring pattern. First, genuine social anxieties emerge, about health, national identity, public security. Then, a convenient target is identified, one similar enough to the “acceptable” actors to bear their sins, yet different enough to be expelled.
Crucially, potential scapegoats actively reposition themselves, joining the accusers to escape blame. This creates escalating momentum as the target group shrinks and attacks intensify. We term the pattern “stigma opportunity structures” – conditions that open windows for further targeting. France’s military defeat, the vineyard disease, and, eventually, war each facilitated the process.
While the prohibition of absinthe in France in 1915 seems to be a distant historical episode, these dynamics remain disturbingly active today. Scapegoating operates as a powerful social mechanism. It often turns uncertainty, fear or political conflict into social blaming directed at certain persons or groups, based on thin, selective or simply false stories being told or repeated as if they were true. First and foremost, the effectiveness of scapegoating lies in that evidence is often beside the point for pointing fingers, creating moral panic, and potentially producing social harm.
The Covid-19 pandemic provided a stark contemporary demonstration. Fears of infection led, in many cases, to verbal or physical attacks on people of Asian descent, whom some people came to fear as spreaders of the coronavirus. Rumours, fear and false beliefs about transmission fuelled discrimination against patients and marginalised groups, driven less by evidence than by anxiety and misinformation. Crucially, this stigmatisation was not corrected by subsequent scientific clarification or political authority about how the virus actually spread.
People of Asian descent continued to face hostility long after epidemiological consensus had been established. The absinthe case shows the same pattern: once a scapegoat is identified, the ongoing momentum shapes how evidence is perceived, rather than being corrected by it.
An unfolding case in real time is instructive – the debate over social media and youth mental health.
Rates of anxiety, depression, and self-harm among adolescents have risen sharply in many Western countries since around 2012.
The question is: what caused this? An obvious answer is: social media. Among parents who are at least somewhat concerned about teenage mental health, 44% say social media have the biggest negative impact on teens today. The US Surgeon General has issued advisories warning of potential harms, and legislators have rushed to propose bans and restrictions. Jonathan Haidt’s bestselling book, The Anxious Generation, has become a manifesto for this view, arguing that the great rewiring of childhood through smartphones is causing an epidemic of mental illness. Yet the scientific picture is far murkier than the public consensus suggests.
Studies show social media use is associated with higher rates of depression, anxiety and suicidal behaviour among teens, but side effects are often modest and scientists continue to debate how much of the youth mental health crisis can be directly attributed to social media.
This is not to say that social media is harmless. There are legitimate concerns about algorithmic amplification, sleep disruption, and the vulnerabilities of youth. But the rush to assign blame may have outpaced the evidence. What makes this case revealing is the gap between conviction and proof. The belief that social media is destroying a generation has taken on the quality of common sense, repeated so often that questioning it feels contrarian or even irresponsible.
Blaming social media allows us to avoid harder questions about economic precarity, educational pressure, the decline of community institutions, and the failures of mental health systems.
The pattern is recognisable: genuine anxiety, a convenient target, actors distancing themselves from the most criticised ones, and political actors seeking visible solutions. This does not mean we should ignore concerns about technology’s effects on young people. But it does mean we should be suspicious of our own certainty and impulses.
When a society is anxious and looking for explanations, the most visible target tends to attract the most hostility, regardless of whether it deserves it.
The desire to identify clear culprits for complex problems is deeply human. But the absinthe case and its many contemporary echoes remind us that certainty about who is to blame often reflects the social dynamics of scapegoating rather than careful attention to evidence.
In a world awash with anxieties about health, immigration, identity, and inequality, caution is necessary now more than ever.
The Green Fairy’s fate reminds us that blaming feels righteous in the moment. A century later, absinthe is legal again in France, its dangers largely mythological.
What will we think, looking back, about today’s convenient culprits?
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Tao Wang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 10:31
Victor Gysembergh, Directeur de recherches au CNRS, Sorbonne Université

On la pensait perdue à jamais : une page du palimpseste d’Archimède vient d’être retrouvée au Musée des beaux-arts de Blois, dans le Loir-et-Cher. Le chercheur qui a identifié ce feuillet issu du manuscrit du Xᵉ siècle rassemblant les traités du géomètre raconte sa découverte par un hasard fécond (mâtiné d’une bonne mémoire) et propose des pistes pour retrouver deux autres feuillets encore manquants.
Le 9 mars 2026, le CNRS a annoncé que j’avais identifié, dans les réserves du Musée des beaux-arts de Blois, un feuillet du palimpseste d’Archimède considéré comme perdu. Je voudrais revenir ici sur cette histoire et sur ce qu’elle révèle : dans le silence des collections publiques et privées, avec la numérisation massive, combien de trésors restent encore invisibles, faute d’avoir été cherchés ?
Le palimpseste d’Archimède est un manuscrit du Xᵉ siècle qui rassemble sept traités du géomètre de Syracuse – dont la Méthode des théorèmes mécaniques, seul texte où il explique comment il a trouvé ses résultats avant de les démontrer. Héritier, comme beaucoup de textes antiques, d’une chaîne inconnue de recopies remontant aux originaux perdus d’Archimède (IIIᵉ siècle avant notre ère), il est le plus ancien exemplaire conservé de ses textes et, pour certains, le seul témoin. En 1229, des moines ont effacé ce trésor – probablement à l’aide d’une pierre ponce – pour y réécrire un livre de prières. Le parchemin, fabriqué dans ce cas à partir de peau de chèvre ou de mouton, valait cher (ce seul codex contenait l’équivalent d’une cinquantaine de bêtes). C’est ainsi que naissent les palimpsestes, du grec palimpsêstos (« gratté de nouveau »).
C’est le philologue danois Johan Ludvig Heiberg qui redécouvrit le texte d’Archimède à Constantinople en 1906 en déchiffrant à l’œil nu le texte effacé, puis qui fit photographier le manuscrit à la lumière blanche et ultraviolette. La découverte fit la première page du New York Times. Ses photographies, conservées aujourd’hui à la Bibliothèque royale du Danemark, ainsi que leur déchiffrement par Heiberg, restèrent longtemps la seule trace documentaire du codex, car le palimpseste disparut peu de temps après.
Il ne refit surface que plusieurs décennies plus tard, dans une collection privée française, avant d’être vendu aux enchères chez Christie’s en 1998 pour deux millions de dollars.
Le nouveau propriétaire le confia au Walters Art Museum de Baltimore, aux États-Unis, où, au début des années 2000, des expériences d’imagerie multispectrale – consistant à photographier le manuscrit sous différentes longueurs d’onde de lumière (visible, ultraviolette, infrarouge, puis rayons X) pour en tirer des informations complémentaires invisibles à l’œil nu – permirent de lire beaucoup mieux les traités d’Archimède, et de découvrir des textes qu’aucun œil humain n’avait lus depuis des siècles – dont un commentaire aux Catégories d’Aristote et un discours de l’orateur Hypéride. Mais trois feuillets parmi les 177 recensés par Heiberg avaient disparu entre-temps. Depuis lors, ils étaient considérés comme perdus à jamais.
En octobre 2025, je discutais avec des collègues du fait que Blois avait longtemps abrité une partie des bibliothèques royales de France. Par jeu, je lançai : « Tiens, cherchons s’il y a un palimpseste à Blois. » Je saisis les mots dans Arca, la bibliothèque numérique de l’Institut de recherche et d’histoire des textes. Une notice apparut : un parchemin au Musée des beaux-arts de Blois, inventaire 73.7.52.
En regardant les images numérisées, quelque chose dans l’écriture me frappa. C’est une déformation professionnelle : les années passées à fréquenter les manuscrits anciens développent une sorte de mémoire visuelle involontaire, comme on peut reconnaître une chanson à partir des premières secondes. De surcroît, l’une des faces portait une figure géométrique. Je déchiffrai le texte lisible : un passage du De la sphère et du cylindre. Je sortis les photographies de Heiberg. La comparaison fut sans appel. L’écriture, les figures, le texte lui-même : tout concordait. J’avais devant moi le feuillet 123 du palimpseste d’Archimède.
Le feuillet contient les propositions 39 à 41 du premier livre du traité. Une face est lisible ; l’autre est recouverte d’une enluminure représentant le prophète Daniel entre deux lions. Celle-ci fut vraisemblablement exécutée vers 1942 à l’instigation de son propriétaire Salomon Guerson, dans une tentative désespérée d’en augmenter la valeur pour la vendre afin d’échapper aux persécutions antisémites.
La science moderne sait regarder à travers ces obstacles. Dans les prochains mois, j’espère mener une campagne d’imagerie multispectrale puis de cartographie par fluorescence de rayons X – une technique qui détecte les résidus métalliques de l’encre ancienne sous des couches opaques, sans endommager le parchemin. Ces méthodes, bien plus performantes qu’au début des années 2000, pourraient aussi permettre de relire des passages du palimpseste restés illisibles lors de la campagne de Baltimore.
Les trois feuillets disparus ont probablement été découpés en France vers 1942. Si l’un d’eux a survécu dans les réserves d’un musée et a pu être identifié en quelques secondes de recherche numérique, les deux autres peuvent très bien avoir suivi des trajectoires comparables.
Le feuillet que j’ai reconnu avait été légué au musée en 1973 par le collectionneur André Frank (on ignore comment il l’avait acquis) et n’avait pas été identifié pour ce qu’il était. Les deux autres feuillets se trouvent peut-être dans une bibliothèque, un musée, une collection privée – en France ou dans les pays voisins. Des parchemins grecs avec, d’un côté, plusieurs couches de texte et peut-être aussi des figures géométriques et des enluminures, de l’autre. Peut-être exactement ce que vous possédez ?
Les manuscrits anciens, en particulier les palimpsestes, sont rares et précieux. Mais la numérisation ne les endommage pas, et augmente au contraire leur valeur en révélant leurs contenus. Elle permet qu’une reproduction soit déposée dans une base de données accessible.
Le feuillet de Blois a été retrouvé parce qu’André Frank l’avait légué au musée, et parce que l’institution l’avait catalogué et numérisé – sans même savoir ce qu’elle possédait. Sans cette infrastructure de partage, ma recherche dans Arca n’aurait rien donné.
Les parchemins sont aussi fragiles : humidité, variations de température, matériaux acides peuvent en quelques décennies effacer ce que vingt siècles ont préservé. L’IRHT-CNRS, la BNF, les Archives nationales ou l’équipe du projet ERC PALAI, dont je suis responsable, peuvent conseiller gratuitement tout collectionneur souhaitant protéger ses biens.
Il serait injuste de faire reposer sur les seuls collectionneurs la responsabilité des trésors qui dorment. Des milliers d’établissements (bibliothèques municipales, musées de province, fonds d’archives ecclésiastiques, collections universitaires) conservent des manuscrits que personne n’a regardés depuis trop longtemps. Les raisons de cette sous-exploration sont compréhensibles : pression à la publication, spécialisation croissante, difficulté à financer des recherches exploratoires. On ne dépose pas un projet ANR sur une recherche d’aiguille dans une botte de foin.
Et pourtant, c’est précisément ce type de recherche – patiente, buissonnière, fondée sur une curiosité sans objet défini – qui produit les découvertes les plus inattendues. Consacrer quelques heures par semaine à explorer des catalogues numériques et à écrire aux conservateurs de fonds peu consultés n’est pas du temps perdu.
Nous ne savons pas ce que nous avons. La numérisation des collections publiques est une révolution silencieuse (mais elle s’arrête aux portes des collections privées). L’œuvre d’Archimède a survécu par une série d’accidents heureux : des copistes minutieux, un philologue danois attentif, un musée qui a conservé sans le savoir un fragment de génie. À chaque maillon, quelqu’un a fait le bon choix – ou le hasard a bien fait les choses. Aujourd’hui, nous n’avons plus besoin du hasard. Il ne manque que la volonté. Et parfois, un coup de fil.
Pour signaler un palimpseste ou demander un conseil en conservation, écrire à : cnrs-palai@cnrs.fr.
Victor Gysembergh a reçu des financements de Sorbonne Université, la Mairie de Paris et l'Union européenne (ERC grant PALAI, n° 101170952).
08.04.2026 à 10:30
Jean Lacroix, Associate Professor, Université Paris-Saclay
Ricardo Pique, Visiting Assistant Professor of Finance, Texas A&M University

Pendant un peu moins d’un an, entre l’automne 1939 et l’été 1940, de très nombreux Alsaciens du Bas-Rhin, ont vécu en Haute-Vienne après avoir quitté leur région devenue zone de guerre. Une étude récente s’intéresse à cette cohabitation forcée et à l’effet qu’elle a pu avoir sur le comportement électoral des hôtes après le conflit.
À l’automne 1939, la France entre en guerre contre l’Allemagne, mais le conflit ne se déclenche pas seulement sur le front. Il débute aussi dans les gares, les mairies et les villages de l’intérieur du pays. En effet, dès 1933, l’État avait préparé l’évacuation des populations frontalières en cas de conflit avec l’Allemagne. Des centaines de milliers de civils quittent alors le nord-est de la France dès le début du conflit.
Cette évacuation repose sur une organisation rigoureuse. Les civils sont autorisés à emporter 30 kg de bagages et doivent laisser derrière eux les biens non essentiels. Le plan d’évacuation prévoit depuis plusieurs années un itinéraire précis, guidant les évacués du nord-est de la France de leurs municipalités d’origine vers leur municipalité d’accueil. Dans les départements évacués, l’évacuation de la « zone avant », zone située entre la ligne Maginot et la frontière allemande, doit précéder celle de la « zone arrière », située juste après la ligne Maginot.
Des habitants du Bas-Rhin sont envoyés à plus de 700 kilomètres de chez eux, en Haute-Vienne. Les services de la préfecture de Haute-Vienne avait prévu de répartir de manière équitable les réfugiés alsaciens dans son département, afin que chacune des municipalités le composant accueille une quantité de réfugiés équivalant à environ un tiers de sa population. Cependant, certaines municipalités doivent accueillir des réfugiés de la zone avant, tandis que d’autres doivent accueillir des réfugiés de la zone arrière. Or, la seule évacuation de la zone avant amène déjà environ 60 000 réfugiés en Haute-Vienne.
Dès lors, le préfet haut-viennois proteste et le vice-président du Conseil des ministres Camille Chautemps consent à arrêter l’évacuation vers la Haute-Vienne. Cette modification du plan initial contredit la volonté du préfet haut-viennois de répartir équitablement les réfugiés entre les municipalités de son administration.
Notre étude montre que les communes désignées pour accueillir des réfugiés issus de la zone avant ont finalement reçu, en moyenne, une population supplémentaire équivalant à 22,8 % de leur population initiale par rapport aux autres communes. Certaines communes haut-viennoises ont même accueilli plus de 85 % de leur population en réfugiés. Dans ce contexte, la répartition inégale de l’afflux de réfugiés entre les municipalités n’était que le fruit du hasard et n’était pas due, comme dans d’autres cas, aux caractéristiques des communes hôtes.
Cette différence importante de flux de réfugiés, et ces différences de flux aléatoires, permettent d’étudier précisément l’impact de ces réfugiés sur leurs hôtes.
Comment analyser ce contact entre les hôtes et les réfugiés bas-rhinois ? La théorie du contact élaborée par le psychologue américain Gordon W. Allport (1954) mentionne quatre dimensions favorisant un contact positif entre groupes. Les contacts entre groupes sont facilités si les deux groupes (1) partagent un statut social équivalent ; (2) partagent un objectif commun ; (3) coopèrent sur différentes tâches ; et (4) le contact est validé par les autorités. Le contact entre réfugiés alsaciens et leurs hôtes haut-viennois semble répondre à l’ensemble de ces critères.
Les autorités s’empressent de demander aux populations locales de réserver le meilleur accueil possible aux réfugiés alsaciens. Le contexte, et l’unité nationale qu’il requiert, offrent toutes les garanties pour que les hôtes accueillent les réfugiés alsaciens à bras ouverts. La logistique de l’accueil mobilise les populations locales. Plusieurs témoignages attestent d’échanges positifs entre les hôtes et les réfugiés alsaciens. C’est le cas lors de la fête de Noël 1939, quand les Haut-Viennois invitent les réfugiés alsaciens à partager un moment avec eux.
Malgré ces signes de contacts positifs, l’arrivée des Alsaciens met en exergue les différences entre les hôtes, « Français de l’intérieur » et leurs invités. Les réfugiés alsaciens, majoritairement, parlent un dialecte local proche de l’allemand, ce qui leur vaut le surnom de « ya-ya ».
Les différences entre réfugiés et hôtes vont bien au-delà de la seule barrière de la langue. Historiquement, le Limousin est séculaire, tandis que le Bas-Rhin est plutôt religieux, en particulier protestant. La Haute-Vienne est également un territoire rural, ce qui tranche avec le développement urbain du Bas-Rhin. Toutes ces différences se manifestent dans les comportements électoraux d’avant-guerre : selon les statistiques électorales, la Haute-Vienne se situe, entre 1928 et 1936, parmi les territoires les plus à gauche du pays. Ce n’est pas le cas du Bas-Rhin, qui se situe plutôt en milieu de tableau.
Au final, le contact entre Haut-Viennois et Bas-Rhinois sera de courte durée. À la suite de la défaite militaire française, l’armistice de Rethondes signé le 22 juin 1940 exige le rapatriement des populations évacuées. Une grande majorité des Alsaciens évacués effectue donc, dès l’été 1940, le chemin inverse de celui de l’automne 1939. Même si le contact entre ces deux France a été court, il a été une expérience poignante pour les réfugiés comme pour les hôtes.
Afin de mieux comprendre comment l’hébergement de réfugiés alsaciens a marqué leurs hôtes, notre étude s’intéresse à une spécificité locale : le vote de gauche. Si le contact avec les réfugiés a marqué les habitants, cela peut influencer le vote de trois manières. Premièrement, le contact peut influer sur le vote des hôtes directement exposés aux conséquences de la guerre, notamment sur le plan économique. Deuxièmement, le contact peut permettre un échange de valeurs entre les hôtes et les réfugiés, en moyenne plus à droite ; la part de vote de la gauche peut donc diminuer dans les municipalités ayant accueilli le plus de réfugiés. Troisièmement, le contact, en révélant les différences avec les électeurs alsaciens plus à droite, peut avoir accru le succès de la gauche localement.
Il semble que ce troisième mécanisme ait prévalu après-guerre. Les municipalités qui ont reçu le plus de réfugiés ont voté plus à gauche que les autres après le conflit. Une hausse de 10 points de pourcentage de la part des évacués a accru, en moyenne, la part du vote en faveur de la gauche à la fin des années 1940 de 2 points. L’effet culmine dans l’immédiat après-guerre, puis s’atténue dans les années 1950. Cette redistribution des votes à gauche provient en partie d’un désaveu du Mouvement républicain populaire (MRP), un parti souvent associé à ses dirigeants d’origine alsacienne. Ces résultats ne suggèrent pas un déplacement électoral diffus, mais une reconfiguration du rapport au local et au national dans les urnes.
Nous observons également que les municipalités qui ont accueilli le plus de réfugiés alsaciens se sont, après la guerre, concentrées sur le tissu social local, notamment en créant des associations à cet effet. Finalement, nous observons que ce renforcement de la gauche a eu lieu là où les réfugiés alsaciens différaient le plus de leurs hôtes. Ce fut le cas lorsque des réfugiés venaient de municipalités où la part des protestants était plus importante, ou lorsque des Haut-Viennois ruraux accueillaient des Bas-Rhinois urbains, ou au contraire lorsque des Haut-Viennois urbains accueillaient des Bas-Rhinois ruraux.
Le contact entre ces deux France pendant la guerre a donc renforcé les particularismes régionaux en matière de comportements électoraux. Le contact entre différents groupes n’homogénéise pas forcément les comportements. Dans des sociétés post-conflit, ces particularismes constituent l’un des défis à relever pour rebâtir le pays. L’hébergement des réfugiés alsaciens et mosellans est désormais souvent célébré dans les anciennes communes d’accueil. Il semble donc que cette histoire commune, qui a pu autrefois accentuer les différences politiques, constitue désormais un pont entre des municipalités éloignées de plus de 700 kilomètres l’une de l’autre.
Jean Lacroix a reçu des financements de l'Agence Nationale de la Recherche (ANR).
Ricardo Pique ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 10:29
Shannon Fogg, Professor of History, Missouri University of Science and Technology

Des dizaines de milliers d’appartements de juifs parisiens ont été pillés et réattribués pendant l’Occupation. Après la guerre, les survivants de la Shoah doivent affronter une nouvelle épreuve : récupérer leur logement et leurs biens au milieu d’obstacles juridiques et administratifs.
En 1945, une foule en colère se retrouve face à Aba Mizreh et à quatre de ses fils devant leur ancien domicile parisien. La famille juive s’était réfugiée à Lyon pendant la Seconde Guerre mondiale, pour découvrir à son retour que son appartement avait été pillé puis reloué en son absence. Malgré un avis d’expulsion, les nouveaux occupants refusaient de partir, et l’affaire dégénéra en bagarre. Après cet affrontement violent, Mizreh écrivit au gouvernement français :
« Ne suis-je pas en droit, après avoir tant souffert, de retrouver mon bien ? N’ai-je donc vraiment pas assez payé pour cette guerre ? »
Aba Mizreh, alors âgé de 68 ans, était un des 160 000 survivants de la Shoah à Paris qui tentaient de reconstruire leur vie après les ravages de l’occupation nazie. De ses 11 enfants, cinq fils avaient combattu pour la France et six avaient été déportés ; au moins deux ont été assassinés à Auschwitz.
Il souhaitait alors simplement retrouver l’appartement de trois pièces qui lui servait à la fois de logement et d’atelier de fourreur, afin de subvenir aux besoins de sa femme et de ses petits-enfants devenus orphelins.
Dans mes recherches sur la spoliation et la restitution des logements juifs à Paris, j’ai constaté que les questions de propriété sont souvent négligées dans les études sur la Shoah. Pourtant, pour les juifs en France, récupérer leur logement et leur mobilier était essentiel pour reconstruire leur vie. Ces questions sont également cruciales pour comprendre l’impact financier et émotionnel durable de la Shoah.
Ces situations révèlent également les limites des tentatives de l’État pour réparer le passé. Les lois françaises concernant la récupération des appartements, des biens pillés et l’indemnisation des dommages liés à la guerre promettaient l’égalité entre toutes les victimes du conflit. En réalité, elles ont créé des obstacles bureaucratiques et favorisé les victimes non juives de la guerre. Pour beaucoup de ceux qui ont tenté de récupérer leurs biens, la réponse à la question d’Aba Mizreh était négative : ils continueraient à « payer » la guerre pendant des années encore.
Paris était la plus grande ville sous occupation allemande et abritait la plus importante population juive d’Europe occidentale. Tragiquement, environ 75 000 juifs vivant en France ont été assassinés pendant la Shoah. Pour les 75 % de la population juive de France qui ont survécu, reconstruire leur vie fut un processus long et difficile.
Avec la collaboration de citoyens français, les nazis ont pillé plus de 38 000 appartements privés dans la capitale, et jusqu’à 25 000 appartements laissés vides après le départ de familles juives ont été loués à des locataires non juifs. Des assistants sociaux ont estimé que près de 100 000 Parisiens de confession juive avaient été expulsés de leur logement pendant la guerre. Or, pour de nombreux juifs survivants, rentrer chez eux constituait la priorité absolue.
Les mémoires et les témoignages oraux racontent ces premiers moments du retour. Enfant, Rachel Jedinak survécut à la guerre en vivant cachée sous une fausse identité après l’arrestation de ses parents. Elle se souvenait de son retour dans le foyer familial :
« Nous avons arraché les scellés de la porte et nous sommes entrés. Il ne restait plus rien – rien du tout. Cet appartement vide – sans meubles, sans affaires, sans photos qui nous auraient permis de nous souvenir de ceux qui avaient disparu, de nous relier à nos parents – nous a fait pleurer. La perte de nos souvenirs était encore plus douloureuse que celle de nos biens matériels. »
Récupérer puis réaménager ces appartements était à la fois une nécessité pratique et une démarche profondément émotionnelle. Leur logement offrait un lit où dormir, mais constituait aussi l’un des derniers liens avec les membres de la famille disparus pendant la Shoah. L’ampleur des pertes signifiait que la reconstruction ne pouvait se faire sans un effort coordonné du gouvernement français.
Deux ordonnances publiées le 14 novembre 1944 traitaient du droit des locataires à réintégrer leur logement. Une autre ordonnance, publiée le 11 avril 1945, visait à restituer à leurs propriétaires d’origine les meubles retrouvés.
Ces mesures ont toutefois largement échoué à répondre aux besoins des juifs rescapés. Les lois sur le logement comportaient des exceptions qui favorisaient les nouveaux locataires non juifs, comme les victimes des bombardements alliés ou les anciens prisonniers de guerre. De plus, seuls quelque 2 000 meubles ont été restitués aux survivants ou à leurs héritiers.
En conséquence, de nombreux survivants ont dû compter sur une indemnisation pour compenser leurs pertes. Les juifs dont les appartements avaient été pillés pouvaient déposer une demande au titre de la loi du 28 octobre 1946 sur les dommages de guerre. Mais cette loi tant attendue s’est révélée être une nouvelle déception.
Adoptée deux ans après la libération de Paris, la loi sur les dommages de guerre ne prévoyait que des indemnités limitées pour les biens personnels. Les victimes éligibles pouvaient recevoir 90 000 (anciens) francs – soit moins de 9 000 euros aujourd’hui – par foyer en cas de perte totale du mobilier, ou la moitié de la valeur assurée des biens volés.
Les demandeurs devaient remplir un formulaire de quatre pages et fournir des documents prouvant leur nationalité, leur situation familiale, leur qualité juridique et leurs droits de propriété ainsi que des témoignages attestant des pertes subies.
Si le ministère de la reconstruction et de l’urbanisme approuvait la demande d’un survivant, le versement n’était pas immédiat. Un échantillon des 2 750 dossiers conservés aux Archives de Paris révèle que plus de 85 % des demandeurs ont écrit au gouvernement pour réclamer un paiement plus rapide.
Un survivant écrivant aux autorités en 1948 résumait le sentiment de nombreuses victimes des pillages :
« Je crois que nous avons assez payé notre tribut et assez souffert pour que vous nous remboursiez au moins une partie de ce que les Allemands nous ont volé il y a bientôt six ans. »
Mais pour beaucoup, le processus d’indemnisation lié à la loi sur les dommages de guerre s’est prolongé jusqu’aux années 1960, soulignant l’impact économique durable des pillages commis pendant la guerre.
Seuls les citoyens français ou les étrangers ayant combattu pour la France pouvaient bénéficier d’une indemnisation au titre de la loi sur les dommages de guerre. Or plus de la moitié des juifs vivant en France pendant la Shoah étaient des étrangers – parmi lesquels près de 100 000 réfugiés ayant récemment fui les violences nazies.
Arthur Deutsch est né à Vienne de parents polonais et s’est installé à Paris en 1922, où il s’est marié et a eu cinq enfants. En 1938, il a déposé une demande de naturalisation, mais celle-ci n’a pas été finalisée avant le déclenchement de la guerre. Il a tenté de se porter volontaire pour le service militaire, mais n’a pas été mobilisé.
Sa famille a fui Paris pendant l’Exode et s’est retrouvée à Limoges (Haute-Vienne), où elle a été arrêtée en décembre 1940. Elle a ensuite été transférée au camp d’internement de Rivesaltes (Pyrénées-Orientales), où Arthur Deutsch a été affecté dans un Groupement de travailleurs étrangers à des travaux forcés. Lorsque la famille est revenue à Paris après la Libération, elle a découvert son appartement entièrement vide.
Arthur Deutsch a déposé une demande d’indemnisation pour dommages de guerre, qui a été rejetée en 1952 en raison de sa nationalité. Il a contesté cette exclusion en écrivant :
« Si je ne suis pas français par les papiers je le suis quand même par mes pensées, car on ne passe pas trente ans à Paris sans être assimilé, et ce ne sont pas les quatre années d’internement ni l’éventuel refus de ma demande d’indemnité mobilière qui me feront changer d’idées. »
Comme le souligne l’anthropologue Damiana Oțoiu, « les dommages psychologiques causés par les déplacements forcés, la confiscation des biens et la perte de capital social et culturel ne peuvent être compensés par la simple restitution de biens des années ou des décennies après les crimes ».
Mais pour les survivants de la Shoah à Paris, récupérer ou remplacer les biens volés représentait la possibilité de vivre avec dignité et sécurité. La lutte pour l’indemnisation et pour la reconnaissance des persécutions qu’ils avaient subies s’est poursuivie pendant des décennies après la fin de la guerre et, dans certains cas, se poursuit encore aujourd’hui.
Le financement de cette recherche a été assuré par une Seed Grant destinée aux sciences humaines et sociales, accordée par l’Office of the Vice Chancellor for Research and Innovation de la Missouri University of Science and Technology.
08.04.2026 à 10:28
Sophie Cras, Maîtresse de conférences en histoire des mondes modernes, histoire du monde contemporain, de l'art et de la musique, Université Paris 1 Panthéon-Sorbonne

À la fin du XIXᵉ siècle, alors que le commerce se mondialise, une nouvelle forme d’institution fait son apparition : le musée commercial. À Paris, la Bourse de commerce – aujourd’hui transformée en musée d’art contemporain – exposait autrefois des matières premières et des produits manufacturés. Dans son ouvrage, l’Œil capitaliste, qui vient de paraître aux éditions Flammarion, Sophie Cras, maîtresse de conférences en histoire de l’art contemporain à l’Université Paris 1 Panthéon-Sorbonne, revient sur le rôle du musée comme instrument de politique commerciale et coloniale.
Tel un immense œil de fonte et de verre, le dôme filtre la lumière qui baigne le hall circulaire de la Bourse de commerce de Paris. Il anime d’un faisceau d’ombres la grande peinture murale qui orne la partie inférieure de la coupole, et d’un jeu de reflets les vitrines, elles aussi d’origine, qui scandent le pourtour du hall.
Depuis que l’entrepreneur François Pinault a repris et restauré l’édifice des XVIIIᵉ et XIXᵉ siècles pour y exposer sa collection d’art contemporain, un cylindre en béton dessiné par Tadao Ando redouble la rotondité de l’espace, soulignant d’un geste contemporain la coupole vitrée historique. Cet œil architectural nous rappelle que, bien avant que ces lieux ne deviennent un musée, bien avant que le commerce de gros et les ventes aux enchères de produits agricoles ne les désertent pour laisser place à des œuvres d’art, la Bourse de commerce était, déjà, consacrée au regard. Elle hébergeait même un musée. Un musée comme il n’en existe plus : un musée commercial.
Un musée commercial. L’expression sonne presque comme un oxymore aux oreilles d’aujourd’hui. Il n’en était pourtant pas ainsi à la fin du XIXᵉ siècle : le musée commercial était alors, dans la terminologie muséographique, une catégorie bien établie – et très en vogue. Dans ses Principles of Museum Administration, parus en 1885, le muséologue George Brown Goode distinguait ainsi six types de musées : « A. les musées d’art ; B. les musées historiques ; C. les musées anthropologiques ; D. les musées d’histoire naturelle ; E. les musées technologiques ; F. les musées commerciaux. » Il poursuivait avec une définition pour le moins intrigante :
« Le musée commercial se consacre aux matières premières et aux articles manufacturés susceptibles d’être vendus ; aux marchés, aux modes de distribution commerciale, aux prix, ainsi qu’à l’offre et la demande de marchandises. »
Que pouvaient bien avoir à faire au musée des phénomènes économiques tels que les prix, l’offre et la demande ou la distribution commerciale ? Répondre à cette question suppose de remonter dans le temps, de renouer avec une époque où ni le « musée » ni l’« économie » n’avaient exactement le sens qu’on leur prête aujourd’hui. Alors, l’économie n’était pas encore synonyme d’abstraction et de formalisation mathématique, mais pouvait être conçue comme une science « à collection », dont les savoirs, fondés sur l’observation des objets, trouvaient au musée le lieu idéal d’élaboration, de diffusion, voire de mise en pratique. Alors, le musée n’était pas nécessairement compris sous un prisme esthétique et patrimonial, mais apparaissait volontiers comme une technologie économique, un instrument de politique commerciale. Les pratiques productives, marchandes et financières du capitalisme s’adossaient à des pratiques particulières du regard, exercées au musée et cultivées dans la vie professionnelle quotidienne. C’est ce que j’appelle l’« œil capitaliste ».
Parler d’« œil capitaliste », c’est s’exposer à trois malentendus que j’aimerais d’emblée lever. Le premier serait de réduire à la vue un processus qui mobilisait en réalité bien d’autres sens, en particulier le toucher et le goût, mais aussi une pluralité d’actions réalisées au musée : non seulement voir, mais lire et discuter, manipuler, expérimenter, calculer. Le deuxième serait de comprendre cette expression comme une personnification du capitalisme, qui, tel un être tout-puissant, serait susceptible de « voir ».
Mon intention est à l’opposé : dans les termes de l’historien Pierre Rosanvallon, je considère que « le capitalisme n’est que la résultante de pratiques économiques et sociales concrètes ». Empruntant au period eye cher à Michael Baxandall, l’œil capitaliste désigne en réalité l’œil des capitalistes, les compétences et habitudes visuelles des acteurs qui furent au cœur du système socio-économique capitaliste.
Le troisième malentendu serait d’essentialiser et de déshistoriciser le capitalisme et la forme de regard qui l’accompagne. Or, bien au contraire, l’œil que je décris correspond à une phase relativement restreinte et historiquement bien déterminée du capitalisme, qui a commencé avant lui et se poursuit après sa disparition. Cette phase s’inscrit à la toute fin de ce que Pierre François et Claire Lemercier, dans leur périodisation du capitalisme, appellent l’« âge du commerce », qui selon eux s’étend de la fin du XVIIᵉ siècle aux années 1880 environ. Loin des conceptions aujourd’hui dépassées d’une « révolution industrielle » fondée sur la production mécanisée en usine, ce premier âge du capitalisme s’incarne, jusqu’à la fin du XIXᵉ siècle, dans la figure puissante du négociant, qui tire profit de l’organisation du commerce au loin, fait crédit et passe commande aux fabricants à travers des chaînes complexes de sous-traitance.
La production est encore peu standardisée ; la connaissance des marchandises et des débouchés est alors clé : ce sont précisément ces compétences visuelles du négociant que les musées commerciaux entendent rationaliser. Parce qu’ils sont créés au moment où le monde bascule progressivement dans l’« âge de l’usine », une nouvelle phase du capitalisme marquée par la standardisation et la massification de la production dans de grosses unités fondées sur des canaux de distribution différents, ces musées se trouveront rapidement obsolètes. L’intitulé de ce livre, l’Œil capitaliste, doit donc être compris comme la version abrégée de ce qu’on pourrait appeler, pour paraphraser Fredric Jameson, « la logique sensorielle des capitalistes à l’âge du commerce tardif ».
Le musée me semble, comme l’écrit Benoît de L’Estoile, un observatoire privilégié pour comprendre « la façon dont nous voyons le monde où nous vivons », car, en son sein, l’ordonnancement du rapport visuel aux objets est délibérément et explicitement épistémique. En mobilisant des sources textuelles et iconographiques lacunaires et dispersées, ce livre s’efforce de restituer une pratique du regard liée à une manière de vivre le monde – un regard, je l’ai dit, intimement mêlé au toucher, au goût, à l’expérimentation en laboratoire, à la lecture de textes et de chiffres, au calcul.
C’est dans l’épaisseur matérielle des dispositifs d’exposition, à l’intersection de considérations scientifiques, esthétiques et pratiques, que se loge la capacité du musée à produire et transmettre des savoirs pour les visiteurs et visiteuses, dans une rencontre qui n’est pas seulement visuelle, mais qui mobilise tous les sens d’un corps en mouvement. Le musée, écrit Charlotte Klonk, est un « espace d’expérience ». Cette enquête, menée au plus près des objets et de leurs modes d’apparition, cherche ainsi à offrir une histoire plus située et concrète du capitalisme.
En écrivant ce livre, j’espère réinscrire cette bizarrerie – les musées commerciaux – dans l’histoire des musées, de l’économie et de la colonisation, dont ils sont triplement absents. J’aimerais montrer qu’à l’époque qui m’occupe, le musée était volontiers conçu comme un instrument politique et économique à part entière ; qu’il pouvait être tourné vers le futur et l’action, plutôt que vers la contemplation du passé ; que les collections muséales ne tiraient pas nécessairement leur valeur de la beauté, de la préciosité, de la rareté ou du témoignage historique, mais plutôt du potentiel commercial qu’elles représentaient ; qu’elles étaient parfois constituées non pour être conservées, mais pour être manipulées, détruites et constamment renouvelées.
Je souhaiterais aussi nuancer une histoire de la pensée économique souvent écrite comme le triomphe d’une économie néo-classique abstraite et mathématiquement formalisée. Mon approche s’inscrit dans la lignée des chercheuses et chercheurs qui, comme Marion Fourcade, refusent de prendre pour acquises a priori les catégories d’« économie » et « économistes », et se donnent au contraire pour objectif d’« examiner les conditions historiques qui ont contribué à cristalliser l’idée même de ce qu’est l’économie », en prêtant attention aux pratiques autant qu’aux textes, aux praticiens aussi bien qu’aux universitaires.
Les musées commerciaux étaient en effet, à l’instar des chambres de commerce auxquels ils étaient souvent associés, des espaces de rencontre entre savants et publicistes, négociants et manufacturiers, élus et administrateurs. À cette intersection, ils permettent de cerner des courants de pensée alternatifs à la discipline économique dominante, et diversement articulés avec elle, esquissant un panorama des savoirs économiques plus complexe et hétérogène, moins téléologique aussi.
Les sciences commerciales pratiquées au musée s’offrent comme un chaînon manquant entre la « science du commerce » du XVIIIe siècle redécouverte par Arnaud Orain, et les « sciences coloniales » dont Pierre Singaravélou a étudié le développement et l’institutionnalisation à partir de la fin du XIXᵉ siècle. Elles aident à comprendre la centralité des économistes dans la constitution et la promotion des savoirs de l’impérialisme et de la colonisation, à rebours de la conception longtemps soutenue selon laquelle le libéralisme des économistes aurait fait d’eux des anti-colonialistes.
De fait, les musées commerciaux ont leur place dans l’histoire de l’impérialisme et de la colonisation, dont ils ont été des outils. Les historiens économiques ont relevé le faible poids des importations et exportations coloniales dans la balance commerciale des nations métropolitaines jusqu’à la Première Guerre mondiale au moins. C’est fort conscients de ces statistiques (qu’ils étaient souvent chargés eux-mêmes de produire) et dans l’espoir de les inverser que les responsables des musées commerciaux œuvraient. Le caractère inabouti et en partie illusoire de l’entreprise d’exploitation commerciale des colonies n’entame pas la réalité des instruments qui furent concrètement mis en œuvre pour la servir – les musées commerciaux coloniaux furent de ceux-là.
Leur muséographie économique expose, sans fard, le programme implacable de domination économique que s’étaient donné les métropoles impériales. Les musées commerciaux s’inscrivent sans rupture à l’intersection de l’histoire de la colonisation, puisqu’ils concouraient très concrètement à l’entreprise économique coloniale, et du colonialisme, au sens où ils promouvaient et légitimaient l’idéologie coloniale. Ce livre suggère qu’ils ont progressivement glissé de l’une vers l’autre, de l’économique vers le symbolique, sans présumer, du reste, qu’ils aient été plus efficaces comme outils de propagande coloniale qu’en tant qu’instruments de développement du commerce.
L’histoire des musées commerciaux s’écrit sous un double horizon d’échec : l’échec d’un projet muséal qui, en dépit des ambitions et des moyens déployés, déçoit systématiquement les attentes et finit par être totalement abandonné ; l’échec d’un projet économique, celui de la « mise en valeur » des colonies, qui se traduit par un profond décalage entre des discours tapageurs et les faits, et s’appuie sur des pratiques de la science devenues rapidement obsolètes. Pour autant, il s’agit de ne pas laisser notre conscience de l’échec décrédibiliser par avance le phénomène historique, ou en faire une erreur à démystifier.
Efforçons-nous au contraire de prendre au sérieux les projets et les savoirs qui animaient les acteurs, aussi absurdes, vains et néfastes nous semblent-ils. Oublions que nous connaissons la fin de l’histoire, et plongeons dans la pratique de ce que furent les musées de l’œil capitaliste.
Sophie Cras a reçu des financements de la politique scientifique de l'Université Paris 1 et de la Humboldt Stiftung.
08.04.2026 à 10:27
Catherine Pélage, Professeure de littératures et cultures d'Amérique latine, Directrice de la Chaire d'études culturelles dominicaines Sœurs Mirabal, Université d’Orléans

En 1930, Rafael Leónidas Trujillo s’empare du pouvoir en République dominicaine. Il y instaure un régime brutal qui durera plus de trente ans. Face à cette violence, des mouvements d’opposition se forment. Parmi ces figures, on trouve les sœurs Mirabal : Patria, Minerva et María Teresa. Le 25 novembre 1960, alors qu’elles reviennent de Puerto Plata où elles avaient rendu visite à leurs maris emprisonnés, les trois sœurs sont assassinées. Les Sœurs Mirabal, l’éternel envol des papillons, de Catherine Pélage, professeure de littératures et cultures d’Amérique latine à l’Université d’Orléans et directrice de la Chaire d’études culturelles dominicaines Sœurs Mirabal, qui vient de paraître aux éditions Regain de lecture, est la première biographie en français qui leur est consacrée. Extraits.
Concerts, spectacles, conférences, débats, projections de films, colloques : tous les ans, en France, le 25 novembre est marqué avec conviction. La Journée est placée sous le signe de la lutte contre les violences sexistes et sexuelles. La date est solidement ancrée, les établissements scolaires, les villes, les régions, se mobilisent, s’inscrivant dans une dynamique impulsée par l’Organisation des Nations unies qui a proclamé en 1999 le 25 novembre comme Journée internationale pour l’élimination de la violence à l’égard des femmes. Si le jour est bien identifié, son origine l’est beaucoup moins. Sur les sites officiels, il est parfois mentionné que la date a été choisie en l’honneur des sœurs Mirabal. Mais qui sont-elles ?
Une rapide consultation sur Internet nous conduit dans les Caraïbes, en République dominicaine, et fait apparaître trois magnifiques visages : Patria, Minerva et María Teresa nous regardent avec détermination. Quelques lignes précisent parfois qu’elles ont été assassinées le 25 novembre 1960 sur ordre du dictateur Rafael Leónidas Trujillo. Si l’on continue les recherches, de nombreuses photos apparaissent, tirées des albums de leur famille : Patria, vêtue d’une robe blanche, sourit, elle se trouve dans un très beau jardin. Minerva, au volant d’une voiture et accompagnée d’une amie, salue joyeusement le photographe. La toute jeune María Teresa fixe d’un air radieux l’objectif, son visage est orné de deux très longues nattes.
Les photos se succèdent ; elles sont rétrospectivement bouleversantes. Des clichés de leur mariage : Patria épouse Pedrito, la petite fille accroupie devant eux n’est autre que María Teresa, leur demoiselle d’honneur. Minerva et Manolo se regardent avec amour. María Teresa et Leandro échangent leurs coupes de champagne. D’autres photos révèlent la fierté de Minerva recevant son diplôme d’avocate ou la solennité de María Teresa qui vient d’obtenir son baccalauréat. Nous découvrons aussi les sœurs avec leurs enfants, leurs parents, leurs amis. Toutes ces images sont d’une rare intensité. Les trois sœurs incarnent la beauté, la jeunesse, l’élégance, l’amour, l’union familiale.
Le contraste est frappant entre ces portraits qui marquent des événements heureux de vies apparemment sans problème et ce que l’on déduit : un engagement politique, une persécution, un assassinat d’une brutalité indicible. Dès lors, la question devient plus pressante : qui étaient les sœurs Mirabal ?
L’étude plus attentive de l’album de famille qui s’offre à nous révèle la présence d’une quatrième sœur, Adela, dite Dedé. Nous l’observons avec ses sœurs, heureuse aux côtés de son fils aîné. Puis nous la voyons prendre de l’âge : c’est la seule des sœurs qui ait survécu à l’atrocité de la dictature de Trujillo. Sur d’autres photos plus tardives, elle se tient fermement au milieu de nombreux jeunes gens : ses trois enfants et les six enfants de ses sœurs. Grâce à elle, nous gardons de ses trois sœurs une mémoire vive à travers les portraits qu’elle esquissait. Grâce à ses paroles, nous entrevoyons les parcours engagés de ses trois sœurs assassinées.
En poursuivant l’investigation, arrivent jusqu’à nous, depuis la République dominicaine ou, dans une moindre mesure, les États-Unis, des tableaux, des fresques, des poèmes, des chansons, des films, des reportages, des témoignages : un foisonnement de représentations, de mots, d’écrits qui traduisent une volonté collective de leur rendre hommage. En revanche, les livres consacrés à la dictature de Trujillo ont tendance à évoquer les trois sœurs en quelques lignes qui rappellent : qu’elles étaient des opposantes politiques, qu’elles ont été assassinées sur ordre du dictateur, que ce crime a précipité la chute de Trujillo.
Les grandes idées sont là, en revanche on peine à trouver les informations permettant de déterminer leur importance historique et ce qui fait qu’elles sont considérées actuellement comme des héroïnes nationales. D’autres ouvrages, pour beaucoup des témoignages de leurs proches, sont très riches et porteurs d’une charge émotionnelle extrêmement forte si bien qu’on ressort des lectures avec l’impression troublante de connaître les trois sœurs. On trouve paradoxalement très peu de travaux universitaires.
En dehors de la République dominicaine il est difficile de se procurer des ouvrages les concernant. Pourtant, dès qu’on a l’occasion en France de raconter leur histoire, elle suscite l’admiration, une profonde empathie et toujours la même question : comment est-il possible que nous ne connaissions pas ici l’Histoire des sœurs Mirabal ? C’est cette question, que je me suis moi-même posée la première fois que j’ai entendu parler des sœurs, qui est à l’origine du livre que nous proposons.
Lors de mon premier voyage à Saint-Domingue, je me trouvais dans la librairie La Trinitaria, située dans le quartier historique de la ville. Alors que je demandais des conseils de lecture en précisant que j’avais un intérêt particulier pour les écrivaines et les femmes dans l’Histoire, Virtudes Uribe, spécialiste des livres dominicains, m’a offert un café, m’a invitée à m’asseoir dans l’un des rocking chairs où prennent place les visiteurs puis m’a parlé des sœurs Mirabal et du roman Au temps des papillons que l’écrivaine dominicano-étatsunienne Julia Álvarez leur avait consacré. La libraire évoquait avec émotion ces résistantes au régime sanglant de Rafael Leónidas Trujillo. J’ai été bouleversée par les grandes lignes de l’histoire que je découvrais. Je me suis immédiatement demandé pourquoi, alors que je travaillais depuis longtemps sur les femmes en Amérique Latine, je n’avais jamais entendu parler de Minerva, Patria et María Teresa.
Pourquoi, alors qu’en 1999 l’ONU avait fixé en leur honneur la date du 25 novembre comme Journée internationale pour l’élimination de la violence à l’égard des femmes, ces héroïnes de l’histoire récente de République dominicaine n’étaient-elles pas plus connues par-delà des frontières ? Comment était-il possible qu’on leur rende hommage tous les 25 novembre sans le savoir ? Dès cet instant est née la volonté de reconstituer leur trajectoire, de comprendre leur dimension politique et historique, de savoir comment leur histoire a circulé depuis la demi-île d’où elles sont originaires jusqu’à l’ONU.
S’est imposée, comme une évidence et une nécessité, l’écriture d’un livre qui reconstituerait leur histoire dans sa dimension historique et humaine, faisant émerger ce que je découvrais au fil de mes recherches : leur résistance et l’héroïsme au féminin qui caractérise, de façon différente, chacune des quatre sœurs. Adela n’a pas été assassinée, ne s’est pas engagée politiquement certes, mais elle a survécu à l’atrocité, consacré sa vie aux enfants et à la mémoire de ses sœurs. C’est en grande partie grâce à elle que la mémoire de Minerva, Patria et María Teresa est si forte. Nous ne parlerons donc pas, comme c’est souvent le cas, des trois mais des quatre sœurs Mirabal unies par une indestructible sororité.
À lire aussi : L’assassinat des sœurs Mirabal : aux origines de la Journée internationale contre les violences faites aux femmes
Ce livre est le fruit de relations très fortes tissées durant des séjours de recherche en République dominicaine qui m’ont permis de nouer des collaborations fructueuses avec des chercheurs, artistes, médiateurs culturels, de recueillir des témoignages, de découvrir les lieux de mémoire consacrés aux sœurs Mirabal, de consulter des documents et ouvrages introuvables en Europe. L’un des plus beaux cadeaux que m’a offerts cette recherche a été le privilège de nouer des liens avec les descendants des sœurs Mirabal. Leur accueil, leur transmission, leur philosophie de la vie directement inspirée des luttes de leurs mères, tantes et grands-mères, m’ont permis de comprendre l’immensité de l’héritage qu’ont laissé, que nous ont laissé, celles qui étaient si justement surnommées, dans la clandestinité, les Papillons.
Ce livre s’est également nourri du dynamisme de la Chaire d’études culturelles dominicaines Sœurs Mirabal que je dirige à l’Université d’Orléans. Cette Chaire a vu le jour grâce au soutien de l’Université d’Orléans et de l’ambassade de République dominicaine en France que je remercie chaleureusement. Un nouveau pont entre nos deux pays s’est ainsi créé au cœur duquel se trouvent les sœurs Mirabal.
Cette réflexion s’est aussi construite dans les interactions avec mes étudiants du département d’études hispanophones de l’Université d’Orléans. Durant les cours ou séminaires consacrés aux sœurs, leur émotion, leurs interrogations, leurs observations ont été précieuses.
Cet ouvrage a été composé avec une participation à la recherche documentaire de Sandrine Lucas qui a elle-même été mon étudiante. Elle est passionnée par la République dominicaine et a été la première, dans notre département d’espagnol, à rédiger un mémoire de master consacré aux sœurs Mirabal. Son écrit, très novateur, portait sur leurs représentations littéraires. Devenue enseignante d’espagnol, elle n’a jamais cessé de faire des recherches sur ce sujet, qui l’ont menée en République dominicaine sur les pas des héroïnes. Chaque année elle réalise des projets ambitieux avec ses élèves. Associer Sandrine à ce travail était une évidence tant elle est animée, tout comme moi, d’un désir de transmission de l’histoire des sœurs Mirabal.
Julia Álvarez a accepté d’écrire le prologue de notre livre. C’est un grand honneur et une immense joie. Nous admirons autant son talent de romancière que sa volonté de faire connaître la culture de son pays d’origine et sa détermination à porter avec force l’histoire des sœurs Mirabal. Son roman In the Time of the Butterflies (Au temps des papillons) publié en 1994 a eu un rôle fondamental dans la diffusion, sur le plan international, de l’Histoire des sœurs Mirabal. C’est bien souvent le premier conseil de lecture que l’on reçoit dès qu’il est question de Minerva, Patria, María Teresa et Adela. Comme Julia Álvarez l’écrit si bien, dans notre ouvrage, « las Mariposas » deviennent les Papillons.
Avec ce beau « marrainage », nous vous invitons à suivre les pas des sœurs Mirabal. L’hypothèse que nous formulons ici est que leur Histoire est à penser en croisant deux types de violence propres à la société dans laquelle elles vivaient : celle que subissaient les femmes et celle qui s’abattait sur les opposants politiques. Tant dans leur trajectoire que dans la réception de leur histoire, les questions de genre et de politique sont indissolublement liées. Notre cheminement se centrera d’abord sur ces « Quatre femmes puissantes ». Cette formulation, inspirée par le roman de Marie Ndiaye dans son hymne au courage et à la résilience, nous conduira à nous plonger dans l’horreur de la dictature de Trujillo pour comprendre la destinée des sœurs qui s’inscrit tragiquement dans l’Histoire de leur pays.
Nous verrons ensuite comment leurs qualités humaines rendaient inévitable une confrontation avec le dictateur, d’où leur lutte et une affirmation croissante de leur opposition face à la tyrannie. Leur assassinat a été lourd de conséquences : son impact national et la circulation de leur histoire en Amérique fait que, comme l’écrit la poétesse Carmen Natalia, « elles sont tombées pour devenir éternelles. ». C’est donc la naissance, l’envol et la persistance des Papillons que nous allons repenser ici.
Catherine Pélage ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.04.2026 à 17:39
Adam Kadlac, Teaching Professor of Philosophy, Wake Forest University

Si vous avez un jour laissé entendre que vous aviez envie d’aller (ou de retourner) à Disneyland Paris sans enfants, vous avez peut-être vu des amis hausser les sourcils, pousser des soupirs ou même vous lancer des regards méprisants… Le sujet paraît léger, mais on peut l’analyser sous un angle philosophique, autour de la question de l’authenticité.
Les critiques visant les adultes fans des parcs d’attraction Disney ne vient pas seulement du fait qu’ils pensent que Disney est réservé aux enfants, ou que c’est trop cher. Cette critique repose surtout sur ce que j’appelle « l’objection d’authenticité » : la conviction qu’il y a quelque chose de fondamentalement méprisable dans les visites de parcs à thème, car elles se déroulent dans un environnement entièrement « faux ». Les montagnes et les rivières artificielles, les manèges qui n’offrent rien de plus qu’une distraction, les gens déguisés en personnages fictifs…
Si certains expriment parfois ce point de vue sur le ton de la plaisanterie, d’autres estiment que cet environnement factice frôle l’abomination culturelle. Un forum en ligne américain cite explicitement le caractère artificiel des parcs Disney comme une raison de ne pas y aller, soulignant que « le personnel souriant, la musique d’ambiance, l’aménagement paysager parfait » peuvent donner une impression « inquiétante et excessivement contrôlée ».
La journaliste E. J. Dickson, elle-même fan de Disney, admet que les visiteurs des parcs Disney « dépensent volontiers des milliers de dollars (ou d’euros, à Paris, ndlr) pour une expérience émotionnelle authentique dont ils savent, au moins à un certain niveau, qu’elle n’est pas authentique du tout ». Et un avis représentatif de ce courant critique sur Trip Advisor qualifie Disneyworld d’« expérience fausse, commerciale et étouffante ». Si vous êtes un adepte de la décroissance et que vous n’aimez pas la chaleur, cette critique du parc est tout à fait justifiée : oui, Disney cherche clairement à gagner de l’argent, et il fait chaud en Floride.
Mais en tant que philosophe ayant récemment publié un livre, The Magic Kingdom and the Meaning of Life (non traduit en français), j’ai un peu plus de mal à comprendre les critiques qualifiant les parcs de faux.
Les professeurs de marketing George Newman et Rosanna Smith soulignent que les philosophes ont généralement abordé la question de l’authenticité en se demandant si « les choses sont bien ce qu’elles prétendent être ».
Appliquons ce critère aux parcs Disney : se présentent-t-ils comme autre chose que des parcs d’attractions sur le thème de Disney ?
Il existe des raisons légitimes de se plaindre de l’authenticité de certaines expériences. Si vous achetez un billet pour une exposition Van Gogh, vous pourriez légitimement vous plaindre si vous découvriez que seules des reproductions étaient exposées. Le fait que vous n’ayez pas pu faire la différence en regardant les tableaux n’aurait aucune importance : vous n’auriez pas vécu l’expérience authentique de voir les œuvres originales de Van Gogh.
En revanche, les attractions Disney ne prétendent pas être autre chose que ce qu’elles sont.
Lorsque les visiteurs des Disney’s Hollywood Studios montent à bord de l’attraction Mickey and Minnie’s Runaway Railway, ils savent qu’ils ne se trouvent pas réellement dans un train fou conduit de manière incompétente par un chien doué de parole nommé Goofy. Si Disney avait commercialisé l’attraction comme étant autre chose – disons, un voyage en train à grande vitesse pour enfants –, il y aurait peut-être lieu de se plaindre de son caractère factice.
Ce n’est clairement pas ce à quoi s’attendent ceux qui font la queue pour vivre cette expérience. Monter à bord du Runaway Railway n’est peut-être pas votre façon préférée de passer le temps, mais il n’y a rien de factice dans ce qu’il prétend être.
Si la forme initiale de l’objection relative à l’authenticité est relativement facile à déconstruire, une autre préoccupation se cache dans cette critique : l’idée que les fans de Disney seraient en quelque sorte faux eux-mêmes, en raison de leur goût pour ce monde artificiel.
La nature précise de cette critique est un peu difficile à caractériser. Mais elle implique la conviction que les personnes qui passent beaucoup de temps dans des environnements artificiels ont tendance à se bercer d’illusions d’une manière qui les empêche de comprendre et d’entrer en contact avec leur véritable moi. Des termes tels que « authenticité existentielle » ou « moi authentique » semblent saisir ce qui est en jeu.
La spécialiste des médias Idil Galip a souligné le fait que les parcs sont « conçus et testés auprès de groupes cibles ; il y a énormément de travail pour vendre ce genre d’expérience ». Il s’agit de provoquer « une rupture avec la société ordinaire ou la vie réelle ».
Ce lien supposé entre le monde factice de Disney et la corruption de son moi authentique est clairement mis en évidence dans les descriptions des soi-disant « adultes Disney ».
Dickson détaille ce point de vue dans son article de Rolling Stone, « Disney Adults » :
« Être fan de Disney à l’âge adulte, c’est se déclarer rien de moins qu’un idiot sans esprit critique, confortablement lové dans ses privilèges, figé dans un état d’adolescence permanente… refusant de reconnaître la triste réalité : les rêves ne se réalisent pas vraiment. »
Mais je m’inscris en faux contre l’idée selon laquelle l’amour de Disneyworld rendrait les gens faux ou inauthentiques.
Comme l’affirme la journaliste et blogueuse A. J. Wolfe dans son livre publié en 2025, Disney Adults, même les plus fervents adeptes de Disney échappent à toute catégorisation simpliste. Aucun d’entre eux, explique-t-elle, ne semble fuir sa véritable personnalité ni même essayer le moins du monde de vivre dans un monde imaginaire.
Par exemple, Wolfe dresse le portrait de Lady Chappelle, une tatoueuse britannique qui s’est installée à San Diego, où elle réalise exclusivement des tatouages sur le thème de Disney. Il y a aussi Brandon, une drag queen d’Hollywood qui a conçu une cuisine sur le thème du Carousel of Progress en l’honneur de l’attraction qui se trouve désormais au Magic Kingdom de Disney à Orlando, en Floride.
Ces personnes sont représentatives de la quasi-totalité des « Disney Adults » : ils sont passionnés par Disney, mais ils sont également passionnés par le tatouage, le drag et une myriade d’autres activités.
Pour les « Disney Adults », écrit Wolfe, l’affection pour Disney ajoute surtout « une touche de couleur et d’éclat – peut-être un sens, une motivation ou une inspiration si vous avez de la chance – au chef-d’œuvre complexe et en constante évolution qu’est [leur] vie ».
Et si cette complexité s’applique aux plus fervents fans de Disney, il est d’autant plus problématique de présenter les visiteurs occasionnels sous un jour aussi négatif.
Si les parcs à thème ne sont pas votre tasse de thé, ce n’est pas grave. Vous pouvez mener une vie merveilleuse sans jamais mettre les pieds à Epcot ou à Animal Kingdom.
Mais comme je le souligne dans le Royaume enchanté et le sens de la vie, Disneyworld possède un certain nombre de qualités que ses détracteurs ont souvent tendance à ignorer.
Je pense que c’est un endroit aussi bien qu’un autre pour que des personnes de tous âges, de tous horizons et de toutes capacités se réunissent et se créent de précieux souvenirs. Lorsque je fais le manège Tiana’s Bayou Adventure avec ma femme et notre fille atteinte d’un handicap intellectuel, chacun y trouve son compte : juste ce qu’il faut de sensations fortes et d’histoire pour les adultes, sans que cela soit trop intense pour ma fille. C’est une combinaison difficile à trouver ailleurs.
De plus, comme nous sommes transportés loin de notre routine quotidienne, les parcs peuvent également offrir des occasions surprenantes de réflexion. Par exemple, j’ai beaucoup réfléchi aux attentes culturelles liées au bonheur pendant mes séjours à Disney. Dois-je essayer de maximiser mon plaisir pendant ce court séjour ? Ou simplement prendre chaque jour comme il vient ? J’ai appris à adopter cette dernière approche.
J’ai également appris à apprécier la valeur du plaisir anticipé, ce sentiment positif que l’on éprouve en attendant avec impatience quelque chose avant qu’il ne se produise. Cela m’est venu en réfléchissant à tout le temps que les gens passent à faire la queue dans les parcs d’attractions.
Oui, nombreux sont ceux qui souhaitent simplement utiliser l’univers de Disney – parcs d’attractions, films ou autres – pour échapper au train-train quotidien. Mais la recherche d’une telle évasion constitue-t-elle une plus grande menace pour l’authenticité que de s’évader en jouant à des jeux vidéo, en regardant du sport, en lisant des romans érotiques ou en consommant de la drogue et de l’alcool ?
Est-il possible de se perdre dans la fantaisie ? Bien sûr – tout comme il est possible de se perdre dans sa carrière, ses relations ou ses loisirs. Mais à l’ère des comptes de réseaux sociaux soigneusement orchestrés, du marketing d’influence et du double langage politique, les mondes artificiels de Disney pourraient bien offrir plus d’authenticité qu’on ne le pense.
Adam Kadlac ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.04.2026 à 17:39
Benyamin Shajari, Professeur de management de la chaîne d'approvisionnement, Excelia

Quand le détroit d’Ormuz se ferme, tout le monde regarde le prix du baril. C’est compréhensible, mais c’est passer à côté de l’essentiel. Ce qui se fissure aujourd’hui dans le golfe Persique, c’est toute l’architecture commerciale d’une région et, cette fois, ça ne ressemble pas à une parenthèse. L’Arabie saoudite en sortira-t-elle la grande gagnante ?
Quand on parle du blocage du détroit d’Ormuz, on pense d’abord au pétrole et à la crise énergétique. Le vrai basculement est ailleurs.
La guerre montre surtout qu’une grande route commerciale peut devenir inutilisable presque du jour au lendemain. Lorsqu’une route se ferme, il ne suffit pas toujours d’en choisir une autre. Il faut parfois repenser toute l’organisation des échanges, depuis les ports jusqu’aux routes terrestres, en passant par les entrepôts, les douanes et les délais de livraison.
Dans une perturbation classique, les entreprises savent souvent improviser. Mais ces ajustements supposent un minimum de visibilité. Cette crise ne laisse plus le temps de s’adapter à la marge. Les solutions de dépannage adaptées aux crises courtes ou locales ne suffisent plus quand l’incertitude devient permanente. Il ne s’agit plus seulement de résister à un choc, mais de changer radicalement de routes commerciales.
Qui seront les perdants et les gagnants de ces nouvelles routes du golfe Persique ?
Le port de Salalah à Oman illustre bien la situation. Situé hors du détroit d’Ormuz, il pouvait servir de repli pour des navires en attente dans le golfe d’Oman.
Les attaques iraniennes fin mars 2026 ont montré qu’un port jugé sûr peut aussi devenir une cible. Le blocage d’Ormuz bouleverse la logique économique. Les entreprises cherchent non seulement la route la plus rapide ou la moins chère, mais aussi la plus durable. Une solution peut être efficace quelques jours puis devenir inutilisable. Les entreprises doivent donc s’adapter en permanence face à une instabilité continue.
Dans ce contexte, l’Arabie saoudite apparaît comme un acteur central. Depuis plusieurs années, le royaume veut devenir une grande plateforme logistique entre l’Asie, l’Europe et l’Afrique. Cette ambition figure au cœur de sa stratégie nationale de transport et de logistique et de Vision 2030.
En temps normal, ce type de projet relève du temps long. En temps de guerre, il prend une valeur immédiate.
Si le golfe Persique devient trop risqué, l’idée est de pouvoir faire passer davantage de flux par la mer Rouge, puis de les redistribuer vers l’intérieur de la péninsule grâce à la route, aux zones logistiques et, demain peut-être, au rail. Le projet de Landbridge saoudien à 7 milliards d’euros, qui doit relier le port de Djeddah (à l’ouest) au port de Dammam (à l’est) en passant par Riyad sur une distance de 1 500 kilomètres, prend ici une importance nouvelle.
Comme ces infrastructures ne se construisent pas rapidement, les acteurs privés ont déjà déployé des solutions transitoires. CMA-CGM utilise un pont terrestre sous douane depuis Djeddah puis le transport routier vers plusieurs pays du golfe Persique. MSC décharge dans le port sûr le plus proche et applique un surcoût de 800 dollars (693,98 euros) par conteneur. La réorganisation est donc déjà en cours.
Le vrai enjeu est là. Le pays qui comptera demain ne sera pas seulement celui qui possède de bons ports, mais celui qui saura relier rapidement ses ports, ses routes, ses entrepôts et ses procédures. Dans une crise telle que la fermeture du détroit d’Ormuz, la performance logistique dépend moins d’une infrastructure isolée que de la capacité à faire tenir ensemble tout un système.
L’importance des infrastructures saoudiennes s’explique dans ce contexte. Le projet Landbridge reliant la mer Rouge au golfe Persique y contribue, mais l’atout du royaume repose déjà sur sa taille, sa position et son réseau terrestre. L’axe entre Djeddah et Dammam, structuré par la Highway 40 et connecté à la Highway 95, offre une profondeur logistique rare. Alors que plusieurs pays du golfe Persique voient leur accès maritime fragilisé, cette continuité terrestre devient stratégique et peut faire de l’Arabie saoudite un pivot de contournement régional.
Ce basculement vers de nouvelles routes impose une modernisation technologique accélérée. Gérer des corridors multimodaux mêlant fret maritime de substitution et transport terrestre sur de longues distances, comme entre Djeddah et Riyad, exige des capacités logistiques adaptées. Cela inclut des plateformes de transbordement, des axes routiers capables d’absorber un fort trafic de camions, des entrepôts frigorifiques, des zones de stockage sec ou encore des stations de ravitaillement. Les acteurs saoudiens ne sont pas encore tous à ce niveau, malgré les efforts liés à Vision 2030.
La digitalisation devient centrale avec des douanes dématérialisées, le suivi en temps réel des flux, l’usage de l’intelligence artificielle et de l’internet des objets, ainsi qu’une coordination étroite entre ports, transporteurs et entrepôts répartis sur plusieurs pays. Tout cela se développe dans l’urgence. Cette contrainte accélère l’innovation en réduisant les délais de décision et en favorisant les coopérations. Les acteurs saoudiens qui investissent dans ces capacités n’en sortiront pas simplement soulagés d’avoir survécu à la crise. Ils en sortiront structurellement plus compétitifs, dotés d’un savoir-faire logistique rare dans un environnement aride et désertique et d’infrastructures calibrées pour des volumes que leurs rivaux ne peuvent pas encore absorber.
Le conflit entraîne une redistribution des avantages compétitifs dans la région. L’Arabie saoudite ne se limite plus à ses hydrocarbures et pourrait devenir l’architecte d’un réseau logistique dont elle contrôle les nœuds clés. Cette transformation n’était pas planifiée. Elle est le produit direct d’une crise qui a forcé une reconfiguration trop profonde pour être réversible. La recomposition reste toutefois fragile. Plus le royaume devient un corridor essentiel, plus ses routes, ports et hubs deviennent des cibles.
La guerre renforce donc sa centralité tout en l’exposant. Dans un contexte où même Oman, l’allié de longue date de l’Iran, n’a pas été épargné, un retour à la situation d’avant semble peu probable. L’enjeu est désormais d’identifier des corridors logistiques capables de rester ouverts assez longtemps pour devenir durables.
Benyamin Shajari ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.04.2026 à 17:38
Frédéric Fréry, Professeur de stratégie, CentraleSupélec, ESCP Business School

L’entreprise OpenAI, créatrice de ChatGPT, pourrait bientôt entrer en Bourse. Derrière cette opération financière se joue bien plus qu’une levée de fonds : le basculement d’un projet conçu pour l’intérêt général vers une logique de marché. À l’heure où l’intelligence artificielle devient une infrastructure critique, une question s’impose : peut-on en confier son développement aux seuls marchés financiers ?
OpenAI est née en 2015 dans un contexte d’inquiétude croissante autour de l’intelligence artificielle (IA). Fondée notamment par Sam Altman et Elon Musk, elle a adopté une structure à but non lucratif. Son objectif explicite était de développer une IA « bénéfique envers l’humanité » et d’éviter qu’elle ne soit capturée par quelques acteurs dominants. Cette ambition la distinguait des grandes entreprises technologiques, comme Google, Microsoft, Meta ou Amazon, construites sur des modèles propriétaires et des effets de rente.
Par contraste, OpenAI entendait défendre l’intérêt général en mettant l’accent sur la recherche ouverte et la diffusion des connaissances. Or, cette orientation, symbolisée par son nom, OpenAI (« IA ouverte »), s’est rapidement heurtée à une contrainte structurelle, le coût astronomique de l’intelligence artificielle générative.
Contrairement aux logiciels traditionnels, dont le coût marginal tend vers zéro (la millionième copie de Windows ne coûte rien à Microsoft, par exemple), l’IA générative requiert des infrastructures massives. Chaque interaction mobilise des ressources de calcul, de l’énergie et des équipements spécialisés. Une requête standard sur ChatGPT, comprenant une question et une réponse, coûte ainsi de l’ordre de 0,1 à 1 centime de dollar. De même, la génération d’une image en haute définition peut coûter entre 10 et 20 centimes. Pris isolément, ces montants semblent négligeables, mais, à l’échelle de plusieurs milliards de requêtes quotidiennes en 2026, ils deviennent considérables.
Cela s’explique par l’infrastructure sous-jacente, en particulier les processeurs graphiques (GPU), fournis par des acteurs comme Nvidia. Ces puces peuvent coûter plusieurs dizaines de milliers de dollars à l’achat et plusieurs dollars de l’heure en accès cloud. OpenAI, comme ses concurrents, dépend de dizaines de milliers de ces GPU fonctionnant en continu dans de gigantesques centres de données. Selon certaines estimations, les investissements nécessaires se chiffrent en centaines de milliards d’ici à la fin de cette décennie.
À lire aussi : Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne
Dès la fin des années 2010, il était devenu évident qu’un modèle purement non lucratif ne pouvait répondre à une telle intensité capitalistique. C’est pourquoi OpenAI a adopté, en 2019, un statut hybride lui permettant de lever des fonds tout en maintenant un contrôle par une fondation. Il s’agissait d’une première incursion dans l’économie de marché, mais tempérée par l’ambition de résister aux exigences des investisseurs.
Cependant, fin 2022, l’agent conversationnel ChatGPT a transformé radicalement la donne en attirant 100 millions d’utilisateurs en seulement deux mois, avant de dépasser les 900 millions d’utilisateurs hebdomadaires, début 2026. Le chiffre d’affaires d’OpenAI est passé ainsi d’environ 200 millions de dollars (173,15 millions d’euros) en 2022 à plus de 10 milliards (8,65 milliards d’euros) en 2025, soit une multiplication par soixante en trois ans !
Cette croissance exponentielle s’est accompagnée de la mise en place d’un modèle économique incluant plusieurs sources de revenus. Pour les particuliers, OpenAI propose des abonnements payants (allant de 20 à 200 dollars, soit de 17 euros environ à 173 euros, par mois). L’essentiel du chiffre d’affaires provient cependant des entreprises, via des abonnements proposés entre 25 et 60 dollars (de 21,6 à 52 euros) par utilisateur et par mois. Une entreprise de 10 000 salariés représente ainsi un revenu annuel de plusieurs millions de dollars.
De plus, OpenAI facture l’usage de ses modèles à des entreprises qui les intègrent directement dans leurs propres solutions. Chaque utilisation est alors facturée, souvent à très grande échelle. Une application traitant un million de requêtes par jour peut ainsi générer plusieurs dizaines de milliers de dollars de facturation mensuelle.
Enfin, une part croissante des revenus provient d’accords stratégiques, notamment avec Microsoft, qui intègre les technologies d’OpenAI dans ses produits sous la dénomination Copilot.
C’est l’ensemble de ces flux (abonnements, licences, usage par des entreprises tierces et partenariats) qui a permis à OpenAI d’atteindre environ un milliard de dollars (plus ou moins 865,85 millions d’euros) de revenus mensuels en 2025. Pourtant, cette montée en puissance commerciale masque une fragilité économique intrinsèque.
Or, malgré des revenus en forte progression, OpenAI reste structurellement déficitaire. Sur le premier semestre 2025, l’entreprise aurait réalisé un chiffre d’affaires d’environ 4,3 milliards de dollars, tout en enregistrant des pertes comprises entre 7 et 13 milliards, soit plus de 2 milliards de pertes chaque mois. Au total, ses pertes cumulées pourraient dépasser les 140 milliards de dollars (121,19 milliards d’euros) entre 2024 et 2029.
Cette dérive s’explique par la nature même du modèle économique d’OpenAI, où chaque interaction génère un coût, avec des investissements nécessaires gargantuesques. Outre l’infrastructure, la recherche et développement (R&D) constitue un poste majeur. Afin de rester dans la course technologique face à un environnement de plus en plus concurrentiel, OpenAI aurait ainsi investi près de 16 milliards de dollars (plus de 13,8 milliards d’euros) en recherche et développement rien qu’en 2025.
À cela s’ajoute le coût des ressources humaines, parfois hors norme. Si les salaires de base des experts en intelligence artificielle les plus demandés se situent déjà entre 250 000 et 700 000 dollars (entre 216 000 et 605 000 euros) par an, leur rémunération – incluant actions et bonus – dépasse fréquemment le million de dollars. Dans certains cas, la rémunération annuelle excède même les 10 millions de dollars (8,65 millions d’euros). Là encore, la surenchère des concurrents, comme Meta, oblige OpenAI à s’aligner, par crainte de voir ses compétences clés disparaître.
Au total, l’activité d’OpenAI ne suffit pas à couvrir ses coûts, au point que certains analystes évoquent que, à ce rythme, elle pourrait être contrainte de déposer le bilan dès 2027. Un recours aux financements extérieurs est donc indispensable pour couvrir ces pertes.
Afin de soutenir sa croissance, OpenAI a déjà levé environ 58 milliards de dollars (plus de 50 milliards d’euros) depuis sa création, dont plus de 13 milliards de dollars auprès de Microsoft. En 2025, un tour de table exceptionnel aurait permis de lever jusqu’à 40 milliards de dollars supplémentaires, portant ainsi sa valorisation à plusieurs centaines de milliards de dollars. Fin mars 2026, une nouvelle levée de fonds de 122 milliards de dollars (plus de 105,6 milliards d’euros), notamment auprès d'Amazon (50 milliards de dollars), Nvidia et SoftBank (30 milliards de dollars chacun), a permis d'atteindre une valorisation à 852 milliards de dollars (soit 737,6 milliards d’euros). Pourtant, ces montants restent insuffisants au regard des besoins.
La dépendance à l’égard des partenaires industriels apparaît comme particulièrement problématique. Microsoft fournit à OpenAI son infrastructure cloud via Azure, tandis que Nvidia joue un rôle clé en amont en fournissant les GPU. Tout comme à l’époque de la ruée vers l’or, ce sont les vendeurs de pelles qui se sont enrichis aux dépens des prospecteurs, dans la filière de l’intelligence artificielle, ce sont les fournisseurs d’infrastructure qui font fortune, pas les concepteurs de modèles.
En pratique, chaque requête d’intelligence artificielle génère des revenus pour les fournisseurs d’infrastructure, ce qui revient à une forme de « taxe invisible » captée en amont. En 2025, Nvidia a ainsi dégagé près de 73 milliards de dollars de bénéfices nets pour un chiffre d’affaires d’environ 130 milliards (soit 112,5 milliards d’euros), et sa valorisation en Bourse est 1,5 fois supérieure à celle de l’ensemble du CAC 40 !
Les tensions économiques d’OpenAI se sont répercutées sur son gouvernement d’entreprise. L’hybridation entre une mission d’intérêt général et des mécanismes de financement privés s’est traduite par une structure complexe. Une fondation à but non lucratif contrôle ainsi une entreprise commerciale de type public benefit corporation (une version américaine et moins contraignante de la société à mission française), financée par des investisseurs et chargée de lever des capitaux et de développer les activités, tout en restant théoriquement subordonnée à la mission d’intérêt général de la fondation. Cette construction, pensée pour éviter une logique purement financière, a rapidement attisé des tensions entre différentes parties prenantes.
Le départ d’Elon Musk en 2018 a constitué un premier signal de désaccord stratégique. En 2020, plusieurs chercheurs ont quitté OpenAI pour fonder Anthropic, en mettant en avant des divergences sur la sécurité et la gouvernance. Cependant, c’est surtout la crise de novembre 2023 qui a pleinement révélé les fragilités du système, lorsque le conseil d’administration a annoncé de manière soudaine le renvoi de Sam Altman, invoquant un manque de transparence dans ses communications.
En quelques heures, la situation s’est transformée en crise ouverte. La quasi-totalité des salariés a menacé de quitter l’entreprise si Altman n’était pas réintégré. Microsoft, principal partenaire et investisseur, a publiquement apporté son soutien à Altman et a même évoqué la possibilité de le recruter avec ses équipes. Face à cette pression, le conseil d’administration a été contraint de revenir sur sa décision en quelques jours. Sam Altman a été réintégré, et la composition du conseil a été profondément remaniée.
Cet épisode a mis en lumière les tensions internes, et notamment la difficulté à faire coexister des logiques divergentes au sein d’une même organisation, entre posture éthique, impératifs industriels et exigences des investisseurs.
À ces contraintes internes s’ajoute une intensité concurrentielle particulièrement vive. Google, l’inventeur de l’IA générative, réalise des progrès rapides avec Gemini. Anthropic, avec Claude, s’est imposé sur certains segments, notamment la programmation, tout en mettant l’accent sur la sécurité. Le Chinois DeepSeek a affirmé utiliser des processeurs moins coûteux. Le Français Mistral AI défend une approche frugale et la souveraineté numérique de l’Europe. Signe de ce retournement, Apple, initialement partenaire d’OpenAI pour inclure ChatGPT pour certaines fonctionnalités liées à Siri, a choisi de le remplacer par Gemini.
Dans ce contexte de recomposition de l’écosystème, la position d’OpenAI, bien que toujours centrale, est contestée. L’intensification de la concurrence renforce la nécessité de disposer de ressources financières toujours plus conséquentes.
L’introduction en Bourse d’OpenAI est présentée comme une réponse à ces contraintes : financer des investissements massifs et consolider une position concurrentielle fragilisée. La Bourse pourrait permettre de lever entre 50 et 100 milliards de dollars, en cédant entre 10 et 20 % du capital. Une telle opération constituerait l’une des plus importantes de l’histoire des marchés financiers.
Cependant, cette transformation implique des arbitrages délicats. Une entreprise cotée est soumise à des exigences de rentabilité et de transparence qui peuvent entrer en tension avec la nature expérimentale de l’intelligence artificielle. À cela s’ajoute la dépendance persistante à Microsoft et à Nvidia, qui limite l’autonomie stratégique de l’entreprise.
Surtout, rien n’indique que l’introduction en Bourse suffirait à résoudre les problèmes structurels d’OpenAI. Au mieux, sans évolution significative du modèle économique, elle permettrait de reculer sa faillite de quelques années. Le modèle économique de l’intelligence artificielle générative reste aujourd’hui fondamentalement non stabilisé.
Au-delà du cas d’OpenAI, on peut légitimement s’interroger sur le fonctionnement actuel de l’économie dominée par les géants de la technologie. L’intelligence artificielle s’impose comme une infrastructure essentielle, dont les effets dépassent largement le cadre économique. Pour certains analystes, le contrôle de l’IA revêt désormais la même importance géostratégique que la possession de l’arme nucléaire.
Dès lors, une question civilisationnelle se pose : peut-on confier le développement et l’orientation d’une telle technologie aux seuls marchés financiers ? Imagine-t-on qu’Elon Musk ou Mark Zuckerberg puisse posséder personnellement l’équivalent d’une ou plusieurs bombes atomiques ? L’introduction en Bourse d’OpenAI ne fournira pas à elle seule la réponse. Cependant, elle en constituera l’un des premiers tests à grande échelle.
Frédéric Fréry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.04.2026 à 17:37
Prescillia Micollet, Doctorante en Sciences de l'Éducation et de la Formation , Université Lumière Lyon 2
Pour prévenir les violences sexistes et sexuelles et protéger les enfants, il faut très tôt les initier à la notion de consentement. Comment leur apprendre à exprimer leurs émotions et leurs limites et à respecter celles des autres ? Regard sur la façon dont l’école pose les bases de cette éducation affective et relationnelle à partir de la maternelle.
Le consentement est une notion largement mobilisée dans les débats publics contemporains, mais sa définition reste souvent floue. Selon le champ dans lequel il est abordé (juridique, philosophique ou éducatif), il ne renvoie pas aux mêmes réalités. Il s’agit d’un concept polysémique dont les significations varient selon les contextes.
Intéressons-nous à la manière dont cette notion est mobilisée dans le cadre scolaire, plus précisément dans l’éducation à la vie affective, relationnelle et à la sexualité (EVARS) en France. Les travaux des chercheuses Béatrice de Montigny et Marie-Hélène Brunet montrent que, dans le champ éducatif, le consentement dépasse la seule dimension sexuelle : il renvoie à l’apprentissage du respect de soi et d’autrui, à la capacité d’exprimer ses limites et à reconnaître celles des autres.
À lire aussi : L’éducation à la vie affective : quels enjeux en CM2 ?
Dans les programmes EVARS, cette notion est introduite dès la maternelle et déclinée progressivement tout au long de la scolarité. Elle recouvre plusieurs apprentissages : respecter le refus de l’autre, savoir dire non, comprendre que son refus doit être respecté, ne pas se sentir obligé d’accepter un geste d’affection, demander la permission avant de toucher quelqu’un ou identifier des adultes de confiance. Les élèves sont également invités à reconnaître leurs émotions et à exprimer leurs préférences dans les interactions du quotidien.
Ces apprentissages s’inscrivent dans une logique de prévention des violences sexistes et sexuelles et de protection des enfants au vu des statistiques sur la connaissance et le niveau d’information des Français sur le sujet. Depuis la généralisation du programme EVARS à la rentrée 2025 (rappelé dans le Bulletin officiel n°6 du 6 février 2025), la question se pose toutefois de savoir comment cette notion est concrètement abordée dans les classes et comment les enseignants l’adaptent aux différents âges des élèves.
Les exemples présentés ici s’appuient sur un travail de recherche mené dans le cadre de mon doctorat, fondé sur plus de 130 observations de séances en classe et 55 entretiens avec des enseignants et personnels éducatifs, qui permettent d’illustrer la manière dont le consentement est travaillé à l’école primaire même si ce n’est pas exhaustif.
Au cycle 1, c’est-à-dire en maternelle, l’apprentissage du consentement passe d’abord par la connaissance du corps et l’idée que « mon corps m’appartient ». Cette étape est essentielle pour permettre aux enfants d’identifier leurs limites corporelles et, le cas échéant, de signaler des situations de violence. Comme le souligne Lolita Rivé dans le podcast C’est quoi l’amour, maîtresse ?, un enfant ne peut dénoncer une violence sexuelle s’il ne possède pas les mots pour nommer son corps.
Les enseignants utilisent pour cela des supports pédagogiques comme des puzzles du corps ou des images anatomiques afin d’apprendre aux élèves à identifier les différentes parties du corps et à utiliser les termes appropriés, y compris pour les organes génitaux (« pénis », « vulve »). Des outils ludopédagogiques, comme le loto du consentement, permettent également d’aborder les limites corporelles, les émotions et le respect d’autrui.
Ces activités visent surtout à construire les premières bases du consentement : comprendre que certaines parties du corps sont intimes et que chacun a le droit de refuser un contact physique.
Au cycle 2, du CP au CE2, ces apprentissages se poursuivent et s’enrichissent. Les enseignants s’appuient davantage sur les représentations des élèves pour construire la notion. Certains commencent par demander ce que signifie « consentement ». Les élèves évoquent par exemple l’idée de « demander avant de faire quelque chose », comme toucher les cheveux d’un camarade. Cette représentation rejoint la définition proposée par la philosophe Anne-Lyse Chabert, pour qui le consentement repose sur une relation de confiance : d’une part, la confiance de celui qui prend l’initiative de demander et s’assure que l’autre a compris et, d’autre part, celle de la personne qui accepte et autorise l’accès à son espace personnel ou à son intimité.
Le consentement est également relié aux émotions et aux ressentis. Les élèves réfléchissent à ce qu’une personne peut éprouver lorsque ses limites ne sont pas respectées : tristesse, colère ou sentiment d’être ignoré. Cette réflexion permet d’introduire la notion d’empathie, c’est-à-dire la capacité à se mettre à la place d’autrui et à prendre en compte son ressenti.
Des supports pédagogiques peuvent accompagner ces discussions, notamment des vidéos explicatives, comme celles de Maître Lucas, qui illustrent concrètement les situations où il est nécessaire de demander l’accord de l’autre dans les interactions quotidiennes.
En cycle 3, l’éducation au consentement prend une dimension plus explicite de prévention. Les enseignants et les infirmières scolaires abordent davantage les violences sexistes et sexuelles afin de donner aux élèves des repères avant leur entrée au collège.
Des supports vidéo permettent d’analyser collectivement certaines situations. Dans une première saynète, un entraîneur demande à un élève de lui faire un massage alors qu’ils se retrouvent seuls dans les vestiaires. Les élèves identifient plusieurs signaux d’alerte : l’isolement, l’insistance d’un adulte et la demande de contact physique.
Une autre vidéo, Un tonton pas si gentil, aborde les violences sexuelles intrafamiliales. Les élèves y observent une fillette contrainte d’accompagner son oncle malgré son refus et évoquant un « secret ». L’analyse de la scène permet d’expliquer qu’un adulte n’a pas le droit d’imposer un geste intime à un enfant et que ces actes sont interdits et punis par la loi.
Ces discussions nécessitent toutefois des précautions pédagogiques, car tous les élèves n’ont pas le même niveau de compréhension. Les enseignants reformulent donc avec des mots adaptés afin d’expliquer la situation sans heurter certains enfants.
L’éducation au consentement est ainsi abordée progressivement de la maternelle au CM2 et se poursuit ensuite au collège et au lycée dans le cadre des programmes EVARS, avec des contenus adaptés à l’âge des élèves. Les discussions peuvent alors porter sur des situations plus complexes, comme le consentement dans les relations amoureuses ou dans les échanges en ligne avec les « nudes ».
Au-delà de l’école, plusieurs associations participent également à cette sensibilisation. L’association les papillons intervient dans les établissements grâce à des boîtes aux lettres permettant aux enfants de signaler anonymement des violences. L’institut EgaliGone propose des conférences de sensibilisation, tandis que l’outil « les clés du consentement », développé par L’Effet Papillon, accompagne les professionnels de l’éducation dans l’abord de ces questions.
Enfin, le consentement ne se limite pas aux questions sexuelles. Il s’apprend aussi dans des gestes du quotidien : demander avant de toucher quelqu’un, respecter un refus ou accepter qu’un camarade ne souhaite pas faire la bise ou un câlin. Ces apprentissages ordinaires constituent souvent les premières bases d’une culture du respect et du consentement.
Prescillia Micollet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.04.2026 à 17:37
Patrick Criqui, Directeur de recherche émérite au CNRS, Université Grenoble Alpes (UGA)
Carine Sebi, Professeure associée et coordinatrice de la chaire « Energy for Society », GEM
Manfred Hafner, Professeur, Sciences Po ; Johns Hopkins University
Alors que la guerre et les tensions géopolitiques s’intensifient au Moyen-Orient et que les cargos pétroliers ne circulent désormais qu’au compte goutte dans le détroit d’Ormuz, le spectre d’un choc énergétique global ressurgit, dans le sillage d’une histoire déjà longue de crises pétrolières successives. Dans un monde où les marchés des hydrocarbures sont plus que jamais interconnectés, la crise actuelle met à l’épreuve l’économie mondiale et, en particulier, celle des pays importateurs. Des risques qui renforcent l’impératif d’une accélération de la transition énergétique.
Après la période de la « mondialisation heureuse », la crise du Covid-19, l’invasion de l’Ukraine, l’attaque d’Israël puis sa réplique sur le territoire de Gaza et, aujourd’hui, la guerre contre l’Iran, une suite de crises marque le retour du monde dans une zone de hautes turbulences.
Ce dernier événement est particulièrement déstabilisant car il touche le golfe Arabo-Persique. Si la transition énergétique a commencé dans cette région, elle demeure une zone hypersensible pour l’approvisionnement d’un monde encore largement dépendant des hydrocarbures. Pour Fatih Birol, directeur exécutif de l’Agence internationale de l’énergie, il s’agit déjà du plus important choc d’approvisionnement en énergies fossiles – pétrole et gaz – de ces dernières décennies.
Au-delà de la menace pour nos économies, ce choc permettra-t-il d’accélérer leur décarbonation ? Afin d’apprécier son importance et son pouvoir transformateur, il faut le resituer dans l’histoire longue des marchés internationaux de l’énergie, une histoire déjà riche en accidents.
À lire aussi : Comment la révolution iranienne engendra le second choc pétrolier de 1979
La survenue d’une nouvelle crise internationale majeure au Moyen-Orient et les menaces qu’elle fait peser sur l’approvisionnement énergétique et l’économie mondiale conduisent à s’interroger sur les conditions de déclenchement des chocs pétroliers. On peut définir un choc pétrolier comme une hausse forte (un doublement, voire un triplement) et durable des prix du pétrole. Inversement, un contre-choc correspond à une baisse forte et durable.
L’histoire des prix du pétrole sur les soixante dernières années peut être analysée comme la succession de quatre grandes périodes, comme le montre la figure ci-dessous.
1965-1973, la montée des tensions : dans les années soixante, on assiste à une augmentation très rapide de la production du Moyen-Orient (une multiplication par trois entre 1965 et 1973), avec des prix très bas, de l’ordre de 20 dollars le baril, en dollars d’aujourd’hui (soit 17,30 euros). Cela a fait exploser la demande, à laquelle les producteurs ont eu du mal à répondre.
1973-1998, le temps des chocs et du contre-choc : la guerre du Kippour entre Israël et les pays arabes a permis à ceux-ci de prendre la main et d’augmenter unilatéralement les prix, ce qui donnera lieu au choc pétrolier de 1973-1974. Quelques années après, la révolution islamique en Iran entraîne une nouvelle flambée des cours sur des marchés spot naissants : c’est le deuxième choc de 1979-1980. S’annonce ensuite une décrue de la production du Moyen-Orient (principalement de l’Arabie saoudite), avant le contre-choc de 1985-1986 et le retour à un niveau de prix modéré, malgré l’invasion du Koweït par l’Irak en 1990.
1998-2015, un retour progressif des tensions qui se solde par un troisième choc, cette fois de demande : dans les premières années du XXIᵉ siècle, les tensions se reconstituent, alimentées par la forte croissance mondiale et la flambée des matières premières avant les Jeux olympiques d’été de Pékin (2008). La crise des subprimes en 2008 marque un coup d’arrêt. Le prix plonge, mais se rétablit rapidement à des niveaux élevés, comparables à ceux d’après le deuxième choc (de l’ordre de 150 dollars, un peu moins de 130 euros, le baril).
2015-2025, un nouvel équilibre : dans la dernière période s’instaure un nouvel équilibre. Malgré un niveau de production élevé, notamment au Moyen-Orient (une fois et demie celui du début des années 2000), et en raison notamment de l’arrivée des pétroles et gaz de schistes aux États-Unis, le prix reste dans une fourchette de 60 à 100 dollars (de plus de 51 euros à 86,50 euros) le baril.
Les événements géopolitiques et les chocs énergétiques se sont donc enchaînés au Moyen-Orient dans les dernières décennies. Ils ne sont pas toujours synchrones, mais en 2026 les conditions semblent bien réunies pour une « tempête parfaite » sur les marchés énergétiques : un événement géopolitique majeur est survenu dans un contexte de niveau de production de pétrole élevé. Et cela d’autant plus qu’il affecte un autre marché devenu stratégique : celui du gaz naturel liquéfié (GNL).
À lire aussi : Pourquoi les frappes sur l’Iran nous rappellent qu’il est urgent d’abandonner le pétrole
L’histoire du gaz naturel, moins spectaculaire que celle du pétrole, révèle pourtant une transformation profonde du système énergétique mondial. En cinquante ans, le gaz est passé d’un système de marchés régionaux (Amérique du Nord, Europe, Asie), régis essentiellement par des contrats de long terme, à un marché largement mondialisé, lieu d’arbitrages permanents et aujourd’hui exposé à des risques systémiques majeurs.
Son évolution peut se lire en trois grandes séquences, chacune marquée par une géographie d’approvisionnement, une logique de prix et un degré de vulnérabilité spécifiques.
1970–1986, l’ère des marchés cloisonnés : jusqu’au milieu des années 1980, il n’existe pas encore de marché mondial du gaz. Le gaz naturel est un produit régional, contraint par des infrastructures rigides et des contrats de long terme. Aux États-Unis, les prix sont bas car c’est un marché continental, approvisionné par gazoducs et encadré par des régulations fédérales. En Europe, les prix sont plus élevés car les approvisionnements reposent sur un mix de gazoducs venant d’URSS/de Russie, de Norvège et d’Algérie, auxquels s’ajoute une part limitée de GNL importé. Au Japon, le GNL est coûteux et les prix asiatiques sont les plus élevés du monde. Ces trois marchés communiquent peu entre eux : pas de flux transcontinental, pas de connexion entre marchés, pas de transmission internationale des tensions locales. S’il peut y avoir un choc pétrolier mondial, il n’existe pas encore de choc gazier mondial.
1986–2008, une convergence relative : à partir de 1986, la structure des marchés évolue. Le contre-choc pétrolier entraîne une révision des modes de contractualisation, la montée progressive du commerce de GNL, l’ouverture des premières places de marché spot (c’est-à-dire, des marchés sur lesquels les prix sont fixés au jour le jour) et l’assouplissement des conditions d’échange dans certaines régions. Les prix américains, européens et asiatiques demeurent différents, mais leurs évolutions convergent. Cela découle du développement du commerce international de GNL, de la standardisation progressive des infrastructures et des effets d’entraînement d’un marché pétrolier devenu plus volatil. La période n’est toutefois pas homogène. Aux États-Unis, les marchés spot connaissent des pics très prononcés, dus aux contraintes de transport et aux limites régionales des capacités de stockage ou de production. En dépit de ces épisodes régionaux, les prix du gaz reflètent une plus grande cohérence à l’international.
2008-2025, malgré l’essor du GNL, un retour des divergences : La troisième période débute avec un choc structurel, celui de la révolution du gaz de schiste aux États-Unis. En quelques années, l’abondance de gaz non conventionnel fait s’effondrer les prix américains. Et les États-Unis deviennent, à partir de 2016, un exportateur majeur de GNL. Dans le même temps, l’Asie connaît un moment de tension après la catastrophe de Fukushima en 2011 : le Japon ferme ses réacteurs nucléaires et déclenche une demande massive de GNL, les prix s’envolent et restent durablement élevés. L’Europe, quant à elle, reste dépendante des gazoducs russes jusqu’en 2021. La situation bascule brutalement avec l’invasion de l’Ukraine en 2022, qui entraîne un pic historique des prix européens. Le continent se tourne alors vers le marché mondial du GNL, se plaçant directement en concurrence avec les acheteurs asiatiques auprès des fournisseurs états-unien ou qatari.
Paradoxalement, la situation actuelle consacre la naissance d’un véritable marché mondial du GNL. Non parce que les prix se rapprochent, mais parce que les cargaisons se déplacent vers la région la mieux-disante. Cette transférabilité, d’une région à l’autre, des cargaisons de GNL crée de fait un marché mondial, mais dont les prix restent pour l’instant divergents.
C’est précisément ce mécanisme qui explique pourquoi, dans la crise actuelle, le blocage du détroit d’Ormuz pourrait déclencher une nouvelle envolée mondiale des prix du gaz. Près de 20 % du GNL mondial, en particulier qatari, transite par cette zone. La fermeture d’Ormuz n’est donc pas un risque local : c’est un choc global en puissance.
À lire aussi : Du détroit d’Ormuz à l’Europe : comprendre la rapidité de la propagation de l’insécurité énergétique
La crise actuelle se distingue des précédentes par sa double nature : elle touche simultanément le pétrole et le gaz. Dans un système énergétique où les deux marchés sont interdépendants, cette simultanéité agit comme un multiplicateur de risques.
À court terme, une hausse des prix du gaz déclenche immédiatement des arbitrages dans les systèmes électriques : en Europe comme en Asie, certaines centrales reviennent vers le charbon.
Ce phénomène, déjà observé en 2022 lors de l’invasion de l’Ukraine, rappelle une réalité essentielle : en période de crise, la sécurité d’approvisionnement prime sur les objectifs climatiques. Cependant, en Europe comme en Asie, les pays les moins affectés sont ceux qui sont moins dépendants du gaz naturel pour leur production d’électricité parce qu’ils disposent de sources décarbonées renouvelables ou nucléaires. C’est notamment le cas de la Chine.
Mais la spécificité de la crise de 2026 tient à l’addition des vulnérabilités. Le pétrole reste exposé à la géopolitique du Moyen-Orient tandis que le gaz, lui, dépend désormais des routes maritimes mondiales, des équilibres asiatiques, des politiques américaines d’exportation, et des capacités de l’Europe à enchérir face à l’Asie.
Autrement dit, un choc local dans le Golfe devient aujourd’hui un « stress test » (test de résilience) global, révélateur de la fragilité d’un marché désormais unifié, mais difficilement sécurisable.
La réaction initiale des marchés illustre cette nouvelle donne : la fermeture du détroit d’Ormuz n’a pas (encore) provoqué une flambée massive des prix, mais une prime de risque en Europe, un rapprochement des prix asiatiques et une hausse marquée de la volatilité spot. Les traders parient sur un blocage court : c’est cette anticipation, davantage que la réalité des flux, qui stabilise encore les prix.
Et donc, l’ampleur des impacts dépendra de la durée du blocage. Au-delà des ajustements immédiats, l’enjeu devient rapidement macroéconomique : si les perturbations se prolongent, les marchés ne s’équilibrent plus seulement par l’offre, mais aussi par la demande, via des prix durablement élevés qui agissent comme un véritable impôt énergétique mondial, pesant sur la croissance, le pouvoir d’achat et la compétitivité industrielle. Mais aussi, et c’est le côté positif, cela pourrait encourager les efforts de décarbonation.
Pour un blocage de moins de trois mois, l’impact sur les prix resterait limité, les flux mondiaux seraient être réalloués et la plupart des importateurs asiatiques absorberaient le choc en recourant à leurs stocks saisonniers.
Avec un blocage de six mois, la tension deviendrait structurelle, avec des hausses de prix plus durables en Europe et en Asie, et des marchés spot sous forte pression.
Dans le cas d’un blocage d’environ une année, les effets se rapprocheraient de la crise de 2022–2023 : l’Asie entrerait en concurrence frontale avec l’Europe, les prix pourraient atteindre des niveaux extrêmes et certains pays émergents pourraient connaître des rationnements ou des coupures massives d’électricité.
Dans un système énergétique désormais interconnecté, le facteur déterminant n’est plus seulement l’ampleur du choc, mais sa durée. Plus la crise se prolonge, plus elle s’apparente à un choc pétrolier et gazier global.
C’est cette combinaison – pétrole, gaz, routes maritimes, arbitrages asiatiques – qui crée la possibilité d’une véritable « tempête parfaite ». Et c’est aussi une raison supplémentaire pour accélérer la sortie des hydrocarbures, dont la vulnérabilité géopolitique apparaît plus clairement que jamais.
À lire aussi : Des États-Unis ébranlés par leur offensive de « domination énergétique » ?
Manfred Hafner est président de la société de conseil en stratégie énergeéique HEAS SA
Carine Sebi et Patrick Criqui ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
07.04.2026 à 17:36
Vivek Soundararajan, Professor of Work and Equality, University of Bath
Des millions de spécialistes indiens travaillant pour des entreprises étrangères exercent leur profession depuis leur domicile, ce qui est synonyme de très nombreuses contraintes : logements de petite taille souvent partagés avec de nombreux proches, coupures d’Internet, effacement de la vie personnelle face aux charges professionnelles… Une enquête récente offre un tableau complet de cet aspect méconnu de l’économie mondiale.
Les informaticiens indiens assurent une grande partie du bon fonctionnement des services des technologies de l’information dans le monde. Il est très possible que ce soit eux qui gèrent, par exemple, le service d’assistance technique de votre entreprise ou répondent aux questions que vous adressez à des chats techniques concernant le dernier gadget que vous avez acheté.
Ces informaticiens travaillent souvent depuis leur domicile. Dans les grands pôles technologiques d’Inde, tels que Bangalore, Chennai ou Hyderabad, de nombreux professionnels travaillent dans des appartements exigus, remplis de systèmes d’alimentation de secours qu’ils ont dû financer eux-mêmes.
Bien que la plupart des salariés soient employés par certaines des plus grandes entreprises du monde, les recherches que j’ai menées avec mes collègues montrent que leurs conditions de travail sont souvent loin d’être satisfaisantes.
Depuis la pandémie de Covid-19, le monde entier a découvert les avantages et les inconvénients du télétravail. Pour certaines personnes, le passage à un mode de travail hybride, voire entièrement à distance, peut représenter une forme d’autonomie et de liberté. Mais ce n’est pas le cas pour tout le monde. Alors, à quoi ressemble réellement le travail à domicile pour les cinq millions d’informaticiens en Inde qui assurent le fonctionnement des infrastructures technologiques des grandes entreprises occidentales ?
L’un des principaux défis concerne l’espace. En Inde, plus de la moitié de la population vit avec sa famille élargie. Parmi les 51 salariés que nous avons interrogés, beaucoup partagent leur logement avec leurs enfants, parents, grands-parents ou encore beaux-parents – tous réunis dans de petits appartements qui font désormais office de bureau.
Pour eux, le télétravail consiste à devoir réorganiser la cohabitation familiale dans un espace réduit, afin qu’ils puissent disposer d’un endroit calme pour travailler.
Lors des visioconférences, maintenir un cadre professionnel devient une gageure dans ces logements qui ne comptent souvent que deux chambres, où des bébés en pleurs et grands-parents malades cohabitent dans la même pièce.
Certaines personnes que nous avons interrogées remplissent également le rôle d’aidant auprès de leurs proches : la conciliation est alors particulièrement complexe. Elles décrivent des répercussions importantes sur la vie familiale, avec des repas désorganisés et des soirées régulièrement perturbées par des appels professionnels.
Mais le plus grand défi concerne sans doute les infrastructures de base. Les coupures Internet sont fréquentes dans les villes indiennes. La connexion Internet, partagée entre plusieurs membres du foyer qui travaillent ou étudient depuis chez eux, est souvent instable.
Nous avons rencontré de nombreux informaticiens, qui effectuent le même travail que leurs homologues à Londres ou à San Francisco. Pour rester connectés, ils ont dû investir eux-mêmes dans des systèmes d’alimentation de secours. Lors de visites à domicile, nous avons pu voir des batteries installées sur leurs balcons, dans les couloirs ou à l’entrée de leurs logements. Un dispositif adapté – permettant d’alimenter un ordinateur portable, un routeur ou un ventilateur pendant les coupures – peut coûter jusqu’à 460 euros, soit environ l’équivalent d’un mois de salaire net pour un jeune professionnel du secteur.
Dans le même temps, l’utilisation personnelle d’Internet est limitée. Les horaires de télévision sont réorganisés en fonction des appels professionnels. La plupart des réunions se font uniquement en audio, la vidéo étant réservée à des occasions particulières.
À ces contraintes matérielles s’ajoute parfois une surveillance professionnelle qui s’immisce jusque dans le domicile. Un employé de 33 ans nous a expliqué que le système informatique de son entreprise « calcule le nombre d’heures travaillées et les sites Internet consultés », et que toute anomalie « déclenche automatiquement un message adressé à son supérieur ».
Cette surveillance peut parfois se révéler absurde. Lors de coupures de courant – pourtant fréquentes – certains employés doivent en apporter la preuve. « Mon chef m’a dit : Sors et prends des photos de chez toi pour me les envoyer. Il voulait une preuve », nous raconte un ingénieur de 28 ans.
Ces frustrations ne restent pas sans écho. En 2025, des centaines de salariés du secteur informatique sont descendus dans les rues de Bangalore, brandissant des pancartes où l’on pouvait lire « Nous ne sommes pas vos esclaves », afin de revendiquer un droit légal à la déconnexion.
Lorsque le gouvernement a annoncé vouloir allonger la durée maximale de la journée de travail de dix à douze heures, de nouvelles manifestations ont éclaté. À ce jour, le secteur informatique en Inde reste encore largement exclu de certaines protections du droit du travail, et aucun droit à la déconnexion n’a encore été inscrit dans la loi.
Un aspect central de ces mobilisations concerne les inégalités des lieux de travail, qui se sont simplement déplacées des bureaux aux domiciles. En réduisant leurs dépenses liées aux bureaux, aux charges et aux matériels, les entreprises font des économies. Mais ces coûts ne disparaissent pas pour autant : désormais, ce sont les salariés et leurs familles qui les paient à leur place.
Dans certains pays, cela peut se limiter à l’achat d’un bureau. Mais pour beaucoup de professionnels indiens que nous avons rencontrés, cela signifie investir dans des solutions de secours pour l’électricité, rationner l’usage d’Internet, réorganiser entièrement la vie à la maison et faire ainsi face à une charge mentale accrue, liée à un travail sans véritable frontière – le tout dans un contexte d’infrastructures souvent défaillantes.
Un développeur basé à Bangalore, doté des mêmes compétences qu’un autre à Boston, ne vit pas du tout la même réalité du télétravail. Si le travail à distance veut tenir ses promesses, les entreprises et les décideurs publics doivent reconnaître que « travailler depuis chez soi » recouvre des réalités profondément différentes selon l’endroit où l’on vit – et selon qui assume les coûts invisibles qui permettent à ce système de fonctionner.
Vivek Soundararajan a reçu des financements de l'Agence britannique pour la recherche et l'innovation (UKRI).
07.04.2026 à 17:35
Georges El Hajal, Senior Lecturer & Researcher, NHL Stenden University of Applied Sciences
Luc Béal, Directeur, Tourism Management Institute, Excelia
Face à la multiplication des crises mondiales, l’hospitalité ne peut plus être pensée uniquement comme un service commercial, mais devient une pratique essentielle de survie, fondée sur l’éthique et la dignité humaine. D’où la nécessité de développer la notion d’« hospitalité humanitaire », exercée par les acteurs de terrain, qui exige des compétences spécifiques (résilience, sens éthique, adaptabilité) et de mettre en place un nouveau modèle éducatif intégrant une « double focale » : prendre soin des populations tout en protégeant la santé mentale et la résilience des aidants.
Nous vivons une époque de ruptures géopolitiques majeures. Avec plus de 120 conflits armés actifs touchant 60 pays, plus de 300 millions de personnes dépendent désormais de l’assistance humanitaire.
Pourtant, les modèles éducatifs en hospitalité — entendus ici comme l’ensemble des approches pédagogiques, des référentiels de compétences et des dispositifs de formation qui structurent l’enseignement de l’hospitalité — restent largement ancrés dans des contextes stables et commerciaux, principalement orientés vers la préparation aux métiers du tourisme, de l’hôtellerie et de la restauration, où l’activité s’inscrit dans des environnements relativement prévisibles et régis par des logiques de service, de satisfaction client et de rentabilité.
Face aux bouleversements en cours, il devient impératif de réviser nos grilles de lecture : dans les zones de crise, l’hospitalité n’est plus un loisir, mais un mécanisme de survie, un acte éthique profond et une forme de solidarité humaine essentielle. Ce déplacement de sens ne relève pas uniquement d’un changement de contexte. Il révèle une limite structurelle dans notre manière de concevoir et d’enseigner l’hospitalité. Cette réflexion s’adresse principalement aux acteurs de la formation en hospitalité et en tourisme, tout en proposant un cadre analytique permettant également d’éclairer les pratiques des acteurs humanitaires et, plus largement, de toute personne amenée à accueillir en contexte de crise.
Ce changement de paradigme définit ce que El Hajal, Westerlaken, et Losekoot (2026) appellent « l’hospitalité humanitaire » (humanitarian hospitality). Contrairement au secteur marchand, basé sur un échange transactionnel (confort contre rémunération), cette forme d’accueil s’ancre dans le soin éthique et la préservation de la dignité humaine. Elle est prodiguée par des secouristes et bénévoles, comme ceux de la Croix-Rouge et du Croissant-Rouge, opérant dans des environnements marqués par le danger et la pénurie.
Accueillir en situation extrême est un défi complexe, et repenser l’hospitalité sous ce prisme exige d’aller au-delà de la simple logistique de distribution de vivres ou de tentes. Cela suppose, pour les acteurs directement engagés dans l’accueil en contexte de crise — notamment les travailleurs humanitaires, les bénévoles et, plus largement, toute personne amenée à endosser un rôle d’« hôte » dans ces environnements —, le développement de compétences spécifiques : capacité à gérer le stress et l’incertitude, prise de décision éthique sous pression, sensibilité interculturelle et aptitude à maintenir une présence relationnelle dans des environnements instables.
Il s’agit de répondre aux besoins matériels et émotionnels des populations déplacées, tout en protégeant la santé psychologique et la résilience de ceux qui fournissent cet accompagnement sous une pression considérable. L’hospitalité commerciale classique repose fondamentalement sur un échange transactionnel et réciproque : un abri, de la nourriture et des services en l’échange d’une rémunération, avec pour objectif le confort et la satisfaction du client. Dans les zones frappées par la guerre ou les catastrophes, cette logique s’effondre. L’hospitalité y devient non réciproque et s’ancre non plus dans le confort, mais dans la survie, le soin éthique et la préservation de la dignité humaine.
Le philosophe Jacques Derrida soulignait déjà la tension entre l’idéal d’un accueil « inconditionnel » et la réalité d’une hospitalité « conditionnelle », dictée par les lois et les ressources. Sur le terrain, les humanitaires déploient une « éthique du care » (sollicitude) pour naviguer entre leur désir d’offrir un refuge absolu et les contraintes de sécurité ou de manque de moyens, et pour privilégier responsabilité relationnelle, empathie et réactivité.
Cette approche n’est pas que théorique ; elle transforme déjà la pédagogie. Le projet « Hospitality in Uniform », porté par le corps professoral en International Hospitality Education à l’université NHL Stenden (Pays-Bas), intègre ces dimensions via des simulations où les étudiants affrontent des dilemmes mêlant logistique et éthique. Ces dispositifs s’appuient sur des partenariats avec des organisations telles que la Croix-Rouge, des institutions de défense et des programmes de résilience nationale, afin de rapprocher formation académique et réalités opérationnelles.
Le cas du Liban illustre de manière particulièrement éclairante ces dynamiques dans un contexte de crise prolongée. Dans un environnement marqué par des tensions récurrentes et des situations de conflit, l’action des bénévoles de la Croix-Rouge libanaise dépasse largement la seule prestation technique de soins d’urgence. Elle inclut, par exemple, la réunification de familles séparées, l’accompagnement de personnes déplacées, ainsi que la fourniture d’un soutien psychosocial auprès de populations exposées à des situations de violence et d’incertitude.
Dans ce cadre, les bénévoles n’agissent pas comme des « hôtes » au sens matériel ou infrastructurel du terme, puisqu’ils ne disposent pas nécessairement de lieux d’accueil dédiés. Leur rôle s’inscrit plutôt dans une forme d’hospitalité relationnelle, fondée sur la présence, l’écoute et la reconnaissance de la dignité des personnes accompagnées. En ce sens, ils incarnent la figure de l’« hôte éthique » : non pas en offrant un espace physique d’hébergement, mais en créant, à travers leurs interactions, des conditions d’accueil symboliques et émotionnelles essentielles dans des environnements instables.
Ainsi, l’hospitalité ne se limite plus à une infrastructure matérielle, mais devient une infrastructure relationnelle, reposant sur la confiance, la continuité du lien et la capacité à maintenir une présence humaine dans des contextes où les repères sociaux sont fragilisés.
Dans ces contextes de rupture, l’hospitalité en uniforme se révèle donc être une infrastructure relationnelle vitale, une présence émotionnelle exigeante qui transforme le travailleur logistique en un hôte porteur d’espoir. Des contextes que les approches éducatives traditionnelles peinent pour l’heure à intégrer de manière structurée.
L’un des apports majeurs de ce cadre est la notion de « double focale » (dual focus). Si l’aide humanitaire a longtemps été évaluée sur des critères comptables, l’éthique de la sollicitude rappelle que la qualité du soin dépend intrinsèquement de la résilience de celui qui le donne.
Le tribut psychologique pour ces « hôtes » sous pression est en effet lourd : épuisement professionnel, fatigue compassionnelle et dilemmes éthiques entre neutralité institutionnelle et empathie personnelle. Il est donc impossible de garantir la dignité des populations déplacées sans prioriser, simultanément, la santé mentale des travailleurs.
Afin de situer cette réflexion dans le champ des études en hospitalité et en tourisme, il est utile de proposer une comparaison analytique entre les formes d’accueil en contexte commercial et celles observées en contexte de crise. Cette mise en regard ne vise pas à assimiler ces contextes, mais à montrer comment les cadres théoriques de l’hospitalité, historiquement développés dans des environnements touristiques, peuvent être mobilisés et repensés pour analyser des situations extrêmes où l’accueil devient un acte éthique plutôt qu’un service. Dans l’industrie touristique, l’hôte évolue dans un cadre sécurisé, régi par des standards de service et des protocoles organisationnels visant la satisfaction du client.
En contexte de crise, ces repères s’effondrent : l’accueil ne relève plus d’un échange structuré et réciproque, mais d’une relation asymétrique, marquée par l’urgence, la vulnérabilité et une responsabilité éthique accrue. Cette comparaison permet ainsi de mettre en évidence un déplacement fondamental, où l’hospitalité passe d’une logique de service à une pratique relationnelle centrée sur la dignité, le soin et la présence.
Dans les contextes de crise et de déplacement forcé, l’hospitalité ne peut être réduite à une logique de service commercial et s’inscrit davantage comme une pratique sociale stabilisatrice, centrée sur la dignité et le maintien du lien humain. Dans cette perspective, la responsabilité des institutions de formation en hospitalité et en tourisme ne se limite plus à l’excellence de service, mais appelle une évolution autour de trois piliers :
La résilience relationnelle : comprendre que la qualité de la prise en charge de l’Autre dépend de sa propre solidité émotionnelle.
La réflexivité éthique : savoir naviguer entre l’urgence d’assister et les contraintes institutionnelles.
L’adaptabilité opérationnelle : allier précision logistique et soin centré sur l’humain.
Repenser l’hospitalité à travers le prisme de l’hospitalité humanitaire ne constitue donc pas uniquement une évolution conceptuelle. Il s’agit d’une transformation des compétences attendues, des responsabilités professionnelles et du rôle sociétal de l’hospitalité. Cela appelle à une reconfiguration des formations, mais aussi à un rapprochement entre secteurs éducatif, humanitaire et institutionnel, afin d’agir avec discernement dans un monde où tout vacille.
Pour un développement théorique et empirique détaillé de ce concept, ainsi que sa validation exploratoire auprès de travailleurs humanitaires, voir El Hajal, Westerlaken et Losekoot (2026).
Georges El Hajal est membre de CIPD - Chartered Institute of Personnel and Development.
Luc Béal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.04.2026 à 17:35
Albane Buriel, Associate lecturer, Université Rennes 2
La guerre en Iran provoque une crise humanitaire majeure, aggravant des vulnérabilités déjà existantes dans plusieurs pays. Les perturbations des chaînes d’approvisionnement et la hausse des coûts rendent l’acheminement de l’aide plus difficile, tandis que les déplacements massifs, les destructions d’infrastructures et l’insécurité alimentaire s’intensifient dans toute la région. La crise a des répercussions mondiales, fragilise davantage le système humanitaire et souligne la nécessité d’une solution diplomatique plutôt que militaire.
Un mois après le début de l’attaque conjointe des États-Unis et d’Israël contre l’Iran, le conflit dépasse largement le champ militaire. Il transforme une crise régionale en choc humanitaire interconnecté, perturbant l’acheminement de l’aide, les marchés alimentaires et les conditions de vie de millions de civils. Dans un contexte de contraintes d’accès persistantes et de financements limités, les opérations humanitaires sont mises à rude épreuve, tandis que les violences s’intensifient et s’étendent sur plusieurs fronts.
La région est déjà marquée par des crises prolongées, des économies fragiles et une forte dépendance aux importations. Ce que l’on observe n’est pas tant l’émergence d’une crise nouvelle, mais l’accélération de vulnérabilités existantes.
Le Yémen dépend massivement des importations alimentaires : toute hausse du coût du carburant se répercute immédiatement sur les prix. Oxfam alerte sur la situation : environ 18 millions de personnes souffrent d’insécurité alimentaire, dans un contexte où le plan humanitaire n’était financé qu’à 28 % en 2025. Dans ce contexte déjà critique, l’implication des Houthis dans le conflit pourrait contribuer à aggraver encore la situation humanitaire.
En Afghanistan, 17,4 millions de personnes sont en insécurité alimentaire aiguë, selon le Programme alimentaire mondial. Au Soudan, les violences et déplacements massifs se poursuivent, dans l’une des crises humanitaires les plus graves au monde. Les niveaux de faim atteignent, dans certaines zones, des seuils proches de la famine.
Dans ces contextes, les systèmes de santé et d’approvisionnement fonctionnent déjà sous tension. La guerre actuelle agit comme un multiplicateur de vulnérabilités. Dans des économies fortement dépendantes des importations, toute perturbation régionale peut avoir des effets immédiats sur les marchés et l’accès à l’alimentation.
L’acheminement de l’aide humanitaire repose sur des chaînes logistiques complexes, dépendantes des routes commerciales, du coût de l’énergie et de la stabilité régionale. Or, ces équilibres sont aujourd’hui profondément bouleversés. Les perturbations des chaînes d’approvisionnement autour du détroit d’Ormuz, par lequel transitent environ 20 % du pétrole mondial, accentuent cette hausse des prix de l’énergie, et, par ricochet, celles des denrées alimentaires. La Fédération internationale de la Croix-Rouge alerte sur la hausse des coûts du carburant, du transport et du fret, sur la fermeture de certaines voies et sur l’allongement des délais.
Les acteurs humanitaires doivent donc contourner certaines zones, recourir à des itinéraires plus longs et gérer une incertitude croissante sur les délais de livraison. Concrètement, acheminer de la nourriture, des médicaments ou du matériel de première nécessité devient plus long, plus coûteux et parfois plus risqué, ce qui oblige les organisations à arbitrer, à réduire certaines distributions ou à prioriser les situations les plus critiques.
Les effets de la guerre se diffusent à l’échelle régionale. Des millions de personnes ont fui leur foyer en Iran et au Liban, tandis que les attaques contre les infrastructures civiles, énergétiques, sanitaires ou hydrauliques, privent des populations déjà vulnérables d’électricité, d’eau, de soins et de chauffage. Dans plus d’une douzaine de pays, les populations restent exposées à des menaces directes ou indirectes liées à l’escalade.
Les besoins augmentent très rapidement, alors même que la capacité à y répondre diminue. Derrière ces dynamiques, il y a des réalités très concrètes : des familles déplacées, des enfants déscolarisés, des patients qui n’accèdent pas aux soins, des ménages qui peinent à se nourrir.
Au Liban, la situation est particulièrement critique. Plus d’un million de personnes ont été déplacées, soit 1 habitant sur 5. Les abris sont saturés, les écoles réquisitionnées et au moins 54 centres de santé et 5 hôpitaux ont fermé.
Dans certains abris, plusieurs familles partagent une même salle, avec un accès limité à l’eau, à l’électricité et à des installations sanitaires adaptées. Les pénuries de carburant affectent également le fonctionnement des hôpitaux et des services essentiels. Selon l’UNRWA, les réfugiés palestiniens, déjà en situation de grande précarité, voient leur dépendance à l’aide s’accroître dans un contexte où son acheminement devient de plus en plus difficile.
En Iran, entre 600 000 et 1 million de ménages, soit jusqu’à 3,2 millions de personnes, ont été déplacés à l’intérieur du pays. Ces déplacements massifs désorganisent les conditions de vie et accentuent la pression sur les zones d’accueil. Les destructions d’infrastructures, notamment énergétiques, entraînent des coupures d’électricité, des difficultés d’accès à l’eau et aux soins, ainsi que des risques sanitaires accrus, liés notamment à la pollution et à la dégradation des services. Les réfugiés déjà présents, en particulier les Afghans, sont encore plus exposés.
En Syrie, l’arrivée de plus de 190 000 personnes fuyant le Liban, dont près de la moitié sont des enfants, met sous tension un système déjà fragilisé par plus d’une décennie de conflit et une reprise économique fragile. Ces crises ne s’additionnent plus : elles se renforcent. Les populations fuient autant la guerre que l’effondrement de leurs conditions de vie.
Dans les territoires palestiniens, l’accès humanitaire reste fortement contraint. À Gaza, la dépendance à un nombre très limité de points de passage, comme Kerem Shalom, rend l’acheminement de l’aide particulièrement difficile. En Cisjordanie, de nouvelles restrictions de circulation, les opérations militaires et l’intensification des violences, en particulier de la part des colons, entravent l’accès aux soins, au travail et à l’éducation, aggravant une situation déjà extrêmement fragile.
Selon l’ONG Save the children, plus de 52 millions d’enfants au Moyen-Orient voient leur scolarité perturbée tandis que l’exposition à la violence et aux déplacements répétés engendre des effets durables sur leur santé mentale.
Les effets de cette escalade dépassent largement le Moyen-Orient Ce qui se dessine, c’est une crise globale des vulnérabilités humanitaires, dont les répercussions s’étendent bien au-delà des zones de conflit. Les pays en développement d’Asie et du continent africain, particulièrement dépendants des importations et déjà exposés à des chocs économiques et climatiques, risquent d’être les plus durement touchés.
À cela s’ajoutent des perturbations sur les marchés des engrais, essentiels à la production agricole, qui pourraient affecter durablement les rendements et renforcer les risques d’insécurité alimentaire dans de nombreuses régions du monde, notamment en Afrique de l’Est et dans le Sahel.
Selon le Programme alimentaire mondial, jusqu’à 45 millions de personnes supplémentaires pourraient basculer dans l’insécurité alimentaire aiguë si l’escalade se poursuit.
Cette crise intervient alors que le système humanitaire est déjà sous forte tension. Les besoins augmentent, tandis que les financements diminuent, obligeant les organisations à réduire leurs activités. Le désengagement, même partiel, de certains bailleurs, notamment les États-Unis, accentue encore l’écart entre besoins et capacités de réponse.
Dans le même temps, les modalités des conflits contribuent à aggraver la situation. Les attaques contre les civils, les infrastructures et les acteurs humanitaires ainsi que les restrictions d’accès humanitaire traduisent une érosion concrète du droit international humanitaire. Ce double mouvement – raréfaction des ressources et affaiblissement des normes – produit une forme de violence structurelle, où la capacité même à protéger les populations est mise en échec.
Dans ce contexte, une approche centrée sur l’établissement de la paix apparaît essentielle. Ni l’escalade militaire ni la seule gestion humanitaire de l’urgence ne permettent de répondre durablement à la crise. Cette approche repose sur la désescalade, la protection des civils et la reconstruction de cadres politiques durables. Comme l’a rappelé le porte-parole des Nations unies, Stéphane Dujarric, « il n’existe tout simplement aucune solution militaire à ce conflit » et toutes les parties doivent privilégier les voies diplomatiques à leur disposition. Loin d’être naïve, cette orientation constitue aujourd’hui une nécessité.
Plus d’un mois après le début de l’escalade, la crise humanitaire n’est plus une conséquence indirecte du conflit : elle en constitue désormais l’un des principaux fronts.
Albane Buriel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.04.2026 à 17:33
Tristan Boursier, Docteur en Science politique, Sciences Po ; Université du Québec en Outaouais (UQO)
Océane Corbin, PhD Student and research coordinator, Université du Québec à Montréal (UQAM)
Le rapport annuel du Haut Conseil à l’égalité entre les femmes et les hommes, publié récemment, identifie une « menace masculiniste ». Mais que recouvre précisément ce phénomène ? Comment ces discours politiquement structurés peuvent-ils servir de porte d’entrée à des positions plus radicales, voire à des mouvances d’extrême droite ?
Selon l’historienne Christine Bard, le masculinisme désigne un mouvement qui prétend défendre les intérêts des hommes au sein d’une société qui serait devenue gynocentrée, soit dirigée et dominée par des femmes.
Il ne s’agit donc pas d’une simple critique du féminisme, mais d’une remise en cause de la recherche d’égalité elle-même, perçue comme une menace. Les résultats du sondage, publiés par le Haut Conseil à l’égalité entre les femmes et les hommes (HCE), sont sans équivoques : 60 % des hommes considèrent que les féministes ont des demandes exagérées et souhaiteraient avoir plus de pouvoir que leurs concitoyens. Ces discours se fondent sur les rhétoriques de victimisation masculines : les hommes seraient en « crise » à cause des mouvements d’émancipation des femmes – un argument que l’on retrouve dans la majorité des espaces antiféministes, en ligne comme hors-ligne.
Selon ce rapport, la montée des discours masculinistes constituerait une nouvelle forme d’antiféminisme contemporain, particulièrement prégnante sur les réseaux sociaux.
Alors que le sexisme valorise les comportements conformes aux rôles de genre traditionnels, la misogynie se traduit par une hostilité explicite envers les femmes qui ne respectent pas ces attentes. Elle fonctionne comme le bras répressif du patriarcat et se manifeste sous forme d’insultes, d’actions ou par toute volonté de maintenir les femmes dans une position subalterne.
L’antiféminisme, lui, politise cette hostilité : il s’agit d’un contre-mouvement politique qui s’oppose ouvertement aux avancées des droits des femmes.
Les idées antiféministes s’appuient généralement sur des arguments déterministes biologiques. Par exemple, certaines rhétoriques masculinistes recourent à un sexisme dit « bienveillant », présentant les femmes comme faibles et devant être protégées. A contrario, d’autres communautés comme les incels (contraction d’involuntary celibates, en anglais, ou célibataires involontaires) sont des hommes qui attribuent leur absence de relations sexuelles ou affectives au caractère diabolique, vénal et manipulateur des femmes.
Sur les plateformes numériques, le terme « manosphère » est utilisé comme une catégorie parapluie qui désigne une diversité d’acteurs antiféministes : les incels, les Pick-Up Artists (coachs en séduction) qui promettaient aux hommes des techniques pour conquérir les femmes, Les MGTOW (Men Going Their Own Way, hommes suivant leur propre chemin) qui veulent faire sécession des femmes, etc.
Actuellement, nous nous trouverions dans une néo-manosphère où les groupes qui la composaient originellement se radicalisent de plus et en plus. Une méta-analyse de 430 publications scientifiques récentes montre que, depuis la fin des années 2010, la « manosphère » a connu plusieurs transformations majeures : migration vers de nouvelles plateformes, comme TikTok et Telegram, montée en puissance d’influenceurs très visibles (manfluencers), intensification de la monétisation, et chevauchement accru avec d’autres idéologies extrémistes.
En interne, la composition des groupes a également évolué. Les communautés plus anciennes, comme les Pick-Up Artists, ont vu leur influence décliner au profit des incels. Des études quantitatives fondées sur l’analyse de forums et des plateformes Reddit et Telegram montrent que, entre 2016 et 2022, les « espaces incels » ont gagné en centralité après la fermeture de certains forums, mais aussi en virulence dans les propos exprimés (davantage d’appels à la violence, de rhétorique nihiliste et de passerelles vers des contenus d’extrême droite). La « manopshère » ne se contente donc pas de gagner des adeptes, ses discours se radicalisent également.
La diffusion des discours masculinistes est massive depuis la fin des années 2010 grâce à la viralisation de certains contenus numériques, comme ceux produits par l’influenceur britannique Andrew Tate qui cumulait 12 milliards de vues avant la fermeture de son compte TikTok.
En France, les influenceurs les plus populaires (comme Alex Hitchens ou Stéphane Édouard) plafonnent à 1,5 million de vues sur leurs vidéos YouTube les plus populaires. Cette massification s’inscrit aujourd’hui dans un écosystème numérique structuré par les logiques propres aux plateformes.
En 2024, une étude révélait qu’il ne fallait que 26 minutes à un utilisateur pour se voir suggérer des contenus masculinistes sur TikTok et YouTube Shorts. Cette exposition rapide n’est pas fortuite : elle résulte de systèmes algorithmiques qui favorisent les contenus générant le plus d’engagements (via les clics, partages et commentaires).
Les plus jeunes sont particulièrement concernés. Selon le baromètre du numérique 2026, 90 % des 13–17 ans utilisent régulièrement les réseaux sociaux et y passent en moyenne près de trois heures par jour. Or, le dernier rapport du HCE établit un lien entre l’usage de certaines plateformes – notamment TikTok et X – et des niveaux plus élevés de sexisme hostile. Les jeunes hommes, explicitement ciblés par ces contenus, figurent ainsi parmi les publics les plus réceptifs aux discours antiféministes.
Ces discours reposent sur des ressorts émotionnels particulièrement performants dans l’économie de l’attention : colère, ressentiment, peur du déclassement, sentiment d’injustice. Les contenus les plus polarisants, agressifs et provocateurs sont ceux qui circulent le mieux. La violence verbale n’est donc pas un excès marginal mais une ressource qui capte l’attention, renforce la visibilité des créateurs et alimente, en retour, les modèles économiques des plateformes fondés sur la collecte de données et la monétisation de l’engagement.
En affirmant que les hommes seraient en difficulté dans une société devenue hostile, certains influenceurs créent une demande à laquelle ils proposent ensuite des réponses monayables : contenus, formations, coaching. Cette dimension économique, bien que secondaire, contribue à la pérennisation et à la professionnalisation de ces discours. L’exemple le plus emblématique est celui d’Andrew Tate qui, avant son bannissement en 2022, revendiquait plus de 100 000 abonnés à sa plateforme « Hustler’s University », facturés 99 dollars par mois – un modèle susceptible de générer plusieurs millions de dollars mensuels selon les estimations relayées par la BBC.
Les discours masculinistes débordent largement la « manosphère ». Ils semblent constituer des portes d’entrée vers d’autres discours radicaux, comme le suprémacisme blanc, et ont été associés à des passages à l’acte, violents dans certains cas. L’attentat de Toronto en 2018, revendiqué au nom d’une « rébellion incel » ou encore la fusillade d’Isla Vista en 2014 aux États-Unis, ont mis en lumière le lien entre misogynie radicalisée et violence politique. La misogynie constitue un leitmotiv récurrent dans plusieurs manifestes extrémistes contemporains.
Les masculinistes jouent également un rôle fédérateur : en présentant le féminisme comme un adversaire commun, ils permettent à des groupes très différents (nationalistes, identitaires, conservateurs religieux ou libertariens) de se retrouver autour d’un même combat, même s’ils ne partagent pas le reste de leur programme. Le masculinisme agit ainsi comme un langage politique minimal fondé sur le ressentiment, qui facilite la formation de coalitions réactionnaires et offre à l’extrême droite un moyen d’intervenir de façon renouvelée sur des enjeux sociaux sur lesquels elle était peu convaincante (éducation, famille, sexualité, crimes sexuels, politiques d’égalité).
Plutôt que de rejeter frontalement le féminisme, certains acteurs se réapproprient désormais son vocabulaire pour le retourner contre lui, à l’instar du collectif Némésis qui se revendique d’un « féminisme identitaire ». Un retournement impensable au début des années 2000, quand l’extrême droite se contentait de disqualifier les revendications féministes ; et qui illustre la capacité du masculinisme à servir de point de convergence au sein de coalitions réactionnaires hétérogènes.
La montée des discours masculinistes n’est pas un phénomène isolé, mais le symptôme d’une transformation plus large qui reconfigure les espaces politiques et numériques, en déplaçant les frontières du publiquement acceptable. Comme le souligne le rapport du HCE, le problème ne se limite pas à une question technique : il implique à la fois une meilleure régulation des plateformes, des actions de prévention et un renforcement de l’éducation au numérique.
Tristan Boursier a reçu des financements du Centre de recherche interdisciplinaire sur la diversité et la démocratie (CRIDAQ).
Océane Corbin est membre du Laboratoire sur la communication et le numérique (LabCMO), ainsi que du chantier de recherche sur l'antiféminisme. Elle est financée par les fonds de recherche du Québec (FRQ).