09.10.2025 à 15:33
Thibault Jaubert, Chercheur post-doctoral en psychologie sociale et de la santé, Université Savoie Mont Blanc; Université Paris Cité
Annique Smeding, Professeure des universités en psychologie sociale, Université Savoie Mont Blanc
Arnaud Carre, Professeur des Universités, Psychologue, Université Savoie Mont Blanc
Les personnes concernées par la dépression, la schizophrénie ou d’autres troubles liés à l’altération de la santé mentale sont victimes de stéréotypes et comportements discriminatoires en raison de leur maladie. La Journée mondiale de la santé mentale du 10 octobre, sous l’égide de l’Organisation mondiale de la santé, est l’occasion de décrypter les causes de cette stigmatisation et de présenter des pistes explorées par la recherche pour la combattre.
Les troubles mentaux correspondent à des altérations de la santé mentale affectant le fonctionnement émotionnel, cognitif et social. Alors qu’on estime que près de la moitié de la population mondiale sera concernée au cours de sa vie dans la prochaine décennie, il faut faire face à un fardeau supplémentaire : la stigmatisation liée aux troubles mentaux.
À lire aussi : Troubles mentaux : quand la stigmatisation d’aujourd’hui reflète les conceptions d’hier
Être la cible de stigmatisations, c’est faire face à des stéréotypes négatifs, des préjugés et des comportements discriminatoires. Ce sont des freins majeurs à l’accès aux soins et au rétablissement.
Comment expliquer cette stigmatisation ? Et surtout, comment y remédier ? Des pistes concrètes existent.
La stigmatisation des troubles mentaux pousse de nombreuses personnes concernées à minimiser ou à dissimuler leur condition, par crainte d’être jugées ou rejetées.
Contrairement à d’autres formes de handicap qualifiées de visibles, les troubles mentaux sont souvent peu apparents, ce qui les rend faciles à dissimuler. En parallèle, cette stigmatisation peut s’intérioriser, et les personnes ayant un trouble mental peuvent parfois intégrer les stéréotypes qui les visent.
Connu sous le terme d’« auto-stigmatisation », cet effet « Why try » (« À quoi bon essayer ») amène les personnes à se sentir incapables de changer leur condition. Ses conséquences ont un coût important pour les personnes concernées en retardant le recours aux soins, le rétablissement, mais aussi en favorisant l’isolement social.
Lutter contre la stigmatisation des personnes ayant un trouble mental représente un levier stratégique pour la mise en œuvre d’interventions à large échelle. Ce combat participe donc d’un défi en santé publique, au même titre que l’amélioration des parcours de soins, l’innovation thérapeutique (non médicamenteuse comme pharmacologique) et la mise en place d’actions de promotion et de prévention (comme préconisée par la « Feuille de route Santé mentale et psychiatrie, 2018 »).
Cela s’inscrit dans un contexte où les coûts – autant humains (personnels et familiaux), sociaux qu’économiques – sont considérables. En France, le coût annuel direct et indirect des troubles mentaux avait ainsi été estimé à 163 milliards d’euros pour l’année 2018.
Une première cause de stigmatisation réside dans l’ensemble des croyances que les individus entretiennent vis-à-vis des troubles mentaux. Deux prédominent dans l’opinion publique : l’idée selon laquelle les individus ayant un trouble mental seraient responsables de leur trouble ; et le fait que les troubles mentaux sont perçus comme plus dangereux.
Par exemple, les personnes concernées par des troubles de l’humeur comme la dépression sont perçues comme ne parvenant pas ou ne faisant pas suffisamment d’efforts pour contrôler leurs pensées, leurs émotions ou leurs actions. Les troubles psychotiques, tels que la schizophrénie, sont associés à un risque perçu de violence ou de comportement imprévisible.
Ces croyances favorisent des émotions négatives, comme la peur ou la colère, ce qui encourage les comportements discriminatoires à l’égard des personnes ayant un trouble mental.
Les interventions qui promeuvent une compréhension de la complexité des troubles – incluant des causes biologiques, psychologiques et sociales – peuvent contribuer à remettre en question ces croyances.
Ce levier permet de déconstruire le stéréotype selon lequel les individus seraient responsables de leur état de santé mentale ou pourraient en sortir par un simple effort de volonté. Sensibiliser sur le rôle des facteurs, tels que les traumatismes précoces, les vulnérabilités économiques et sociales et les causes génétiques, aide à déconstruire les idées erronées d’autoresponsabilité et de dangerosité.
Au-delà des croyances, une seconde cause de stigmatisation tient aux compétences socioaffectives. Entre autres, le fait de ressentir de l’anxiété, de ne pas percevoir suffisamment de similarité et d’empathie envers les personnes ayant des troubles mentaux sont des facteurs favorisant la stigmatisation. Cela traduit souvent une difficulté à se représenter l’expérience vécue par les personnes concernées, à reconnaître leurs émotions et leurs besoins.
Les interventions encourageant le contact direct ou indirect avec des personnes ayant un trouble mental s’avèrent efficaces à court et moyen terme pour diminuer la stigmatisation. Leur potentiel s’explique par le fait qu’elles favorisent le développement de ces compétences. Cependant, des recherches sont nécessaires pour en évaluer les effets à long terme.
Enfin, la réalité virtuelle s’affiche comme un autre levier d’action innovant. Elle permet aux individus de s’immerger dans des simulations interactives qui reproduisent des expériences associées à certains troubles mentaux (hallucinations auditives, épisodes anxieux).
Des recherches sont encore nécessaires. Mais si ses atouts étaient confirmés, la réalité virtuelle pourrait renforcer la compréhension de ce que signifie vivre avec un trouble mental au quotidien. Ces environnements immersifs semblent en effet réduire la stigmatisation sans nécessiter un contact direct réel.
Il est important de préciser que l’efficacité des interventions de lutte contre la stigmatisation dépend évidemment de plusieurs facteurs, dont leur adéquation au contexte et aux publics visés. Les programmes de sensibilisation combinant connaissances et savoirs sont adaptés aux plus jeunes puisqu’ils sont peu coûteux, facilement intégrables en contexte scolaire, et semblent produire des effets chez les 10-19 ans.
Pour assurer leur efficacité, ces initiatives doivent être menées par des professionnels de santé, ou bien des enseignants ou personnes concernées expertes dûment formées. Auprès des adultes en revanche, les approches fondées sur le contact direct et mobilisant l’empathie apparaissent plus pertinentes.
Alors que certaines représentations, notamment dans les œuvres de science-fiction ou les faits divers médiatisés, véhiculent des messages caricaturaux et alarmistes qui renforcent certaines croyances, les ressources numériques et culturelles peuvent jouer un rôle dans la diffusion de représentations plus nuancées et inclusives des troubles.
De plus, la prise de parole de personnalités participe à la normalisation du sujet dans l’espace public au travers d’initiatives, telles que Pop & Psy. Des plateformes d’information, comme Psycom ou Santé mentale-Info service, facilitent l’accès à des contenus informatifs et de premières ressources accessibles au plus grand nombre.
La stigmatisation de la santé mentale soulève des enjeux relatifs à l’inclusion des personnes confrontées à diverses formes de vulnérabilité, et interroge plus largement les conditions de notre vivre-ensemble. En ce sens, déstigmatiser les troubles mentaux ne relève pas d’une simple sensibilisation individuelle, mais constitue un enjeu d’inclusion sociale et de santé publique.
Pour être efficaces, les politiques de lutte contre la stigmatisation doivent adopter une approche combinant la diffusion de connaissances sur les déterminants de la santé mentale, les initiatives fondées sur l’expérience (comme le contact direct ou la réalité virtuelle), tout en impliquant l’action coordonnée des acteurs éducatifs, médiatiques, et ceux de la santé.
Nicolas Rainteau, psychiatre au Centre hospitalier spécialisé de la Savoie, spécialiste de la réhabilitation psycho-sociale, membre associé à l’Université Savoie-Mont-Blanc, est coauteur de cet article.
Thibault Jaubert a reçu des financements de Fondation ARHM et Chaire BEST Santé Mentale.
Arnaud Carre a reçu des financements de la Fondation Université Savoie Mont Blanc.
Annique Smeding ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:33
Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama
Gabriel A. Pinto, Postdoctoral Researcher, Université Libre de Bruxelles (ULB)
Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ? Une étude vient apporter une quantification de cette problématique dans la zone de la Puna sèche et du désert d’Atacama, en Amérique latine.
Tout travail de recherche scientifique implique, initialement, une revue bibliographique. Le but de ce travail préliminaire est de parcourir la littérature afin de compiler les informations susceptibles d’étayer la question principale à laquelle une équipe scientifique souhaite répondre.
C’est au cours de cette recherche bibliographique que notre équipe, travaillant sur la caractérisation environnementale de la Puna sèche et du désert d’Atacama, en Amérique du Sud, a eu l’impression que la plupart des travaux publiés jusqu’alors avaient été réalisés par des équipes étrangères, sans aucune implication de chercheurs appartenant à une institution locale.
Pour ramener la situation à la France, serait-il possible et acceptable que les Puys d’Auvergne ou la Mer de Glace soient étudiés exclusivement par des équipes issues d’organismes de recherche argentins, chiliens, péruviens ou boliviens sans participation de chercheurs appartenant à des institutions françaises ?
La Puna sèche et le désert d’Atacama sont des régions du globe à cheval sur quatre pays (Argentine, Bolivie, Chili et Pérou). Ces zones géographiques particulières ont pour caractéristique principale une aridité extrême qui façonne des paysages que beaucoup qualifierait spontanément de « lunaires » ou de « martiens ». Ces deux régions correspondent en effet à ce que l’on appelle, dans le jargon scientifique, des analogues planétaires : des lieux géographiques présents sur Terre mais qui peuvent s’apparenter à des environnements extraterrestres.
La Puna sèche et le désert d’Atacama sont ainsi considérés comme de bons analogues terrestres de Mars et pourraient présenter, à l’heure actuelle, des conditions physico-chimiques proches de ce que la planète rouge aurait pu connaître au cours de son histoire géologique. Ce sont donc de formidables laboratoires naturels pour les domaines des sciences planétaires et de l’astrobiologie. Leur rareté suscite également l’intérêt des scientifiques du monde entier.
Comment passer d’une vague impression à une certitude de la prépondérance de travaux étrangers sur la zone géographique concernée ? Notre équipe francochilienne composée de géologues, de géophysiciens, d’astrophysiciens et de biologistes a mis en place une méthode systématique de comparaison des articles basés, d’une manière ou d’une autre, sur les caractéristiques exceptionnelles de la Puna sèche et du désert d’Atacama, dans les domaines des sciences planétaires et de l’astrobiologie.
Les résultats de cette étude ont été publiés en 2023 dans la revue Meteoritics and Planetary Science et notre impression a été confirmée : plus de 60 % des articles l’ont été sans impliquer un chercheur appartenant à une institution nationale d’un des pays abritant la Puna sèche et/ou le désert d’Atacama (5 369 articles analysés sur la sélection générale en sciences de la Terre, 161 pour les sciences planétaires et l’astrobiologie). Le déséquilibre mis en évidence est similaire à d’autres disciplines scientifiques et ne se limite pas à cette région.
La valorisation scientifique du patrimoine naturel de certains pays, sans contribution majeure des chercheurs locaux, suscite de plus en plus d’inquiétudes dans une partie de la communauté scientifique. Au cours de ce travail, nous avons découvert les termes relativement récents (depuis les années 2000) de sciences hélicoptères, sciences parachutes, sciences safari ou sciences néocoloniales (terme privilégié dans la suite de cet article) qui permettent de mettre des noms sur ces pratiques caractérisées par la mise en œuvre de projets de recherches scientifiques menées par des équipes de pays développés (Nord global) dans des pays en développement ou sous-développés (Sud global) sans aucune implication des chercheurs locaux.
Ces pratiques tendent à être considérées comme contraires à l’éthique et le sujet devient un thème de discussions et de publications au sein des sciences dures : le plus souvent sous forme de diagnostic général, mais aussi en termes de quantification.
Certaines revues scientifiques, dont Geoderma (référence du domaine en science du sol) a été l’un des pionniers à partir de 2020, ont pris l’initiative d’un positionnement sans équivoque contre les pratiques de sciences néocoloniales ouvrant la voie à la modification des lignes éditoriales afin de prendre en compte la nécessité d’impliquer les chercheurs locaux dans les publications scientifiques.
C’est le cas par exemple de l’ensemble des journaux PLOS qui exigent, depuis 2021, le remplissage d’un questionnaire d’inclusion de chercheurs locaux pour une recherche menée dans un pays tiers, exigence qui a depuis fait des émules au sein du monde de l’édition scientifique.
L’exigence éthique vis-à-vis des recherches menées dans des pays étrangers devient donc un standard éditorial important mais pas encore majeur. D’autres leviers pourraient cependant être activés comme des cadres législatifs nationaux ou internationaux restrictifs imposant la participation de chercheurs locaux dans des travaux de terrain menés par des scientifiques étrangers.
En France par exemple, la mise en place de programmes de recherche dans des territoires exceptionnels comme les îles Kerguelen (territoire subantarctique français de l’océan Indien) ou la terre Adélie en Antarctique nécessite que le projet soit porté par un scientifique, agent titulaire d’un organisme de recherche public français. Des modèles permettant d’éviter cette problématique d’appropriation culturelle d’un patrimoine naturel scientifique par des chercheurs appartenant à des institutions étrangères existent donc déjà et constituent autant de ressources sur lesquelles se fonder afin de limiter ces pratiques de sciences néocoloniales. Il nous semblerait cependant nécessaire que la communauté scientifique procède à une introspection de ces pratiques.
C’est tout l’enjeu de l’étude que nous avons menée et des travaux similaires qui se généralisent depuis quelques années : rendre ces pratiques de sciences néocoloniales visibles, notamment en quantifiant le phénomène, afin que cette problématique soit débattue au sein de la communauté. Cela a notamment permis à notre équipe de se poser des questions fondamentales sur ses pratiques scientifiques et de (re)découvrir les apports conséquents menés, depuis plus de 60 ans, par les sociologues et les épistémologues sur les racines profondes et historiques pouvant lier colonialisme, impérialisme et science et plus généralement des relations entre centre et périphérie (par exemple les déséquilibres, au sein d’un même pays, entre institutions métropolitaines ou centrales vis-à-vis des institutions régionales).
L’exemple des analogues terrestres de la Puna sèche et du désert d’Atacama illustre ainsi les écarts économique, scientifique et technologique creusés progressivement entre le Nord et le Sud global. Les sciences planétaires et l’astrobiologie, ont été historiquement liées au développement technologique de programmes spatiaux ambitieux et extrêmement coûteux dont souvent les principales ambitions n’étaient pas scientifiques. Les pays du Sud global n’ont ainsi pas eu l’opportunité de profiter de la conquête spatiale de la seconde moitié du XXe siècle pour développer une communauté scientifique locale en sciences planétaires et en astrobiologie.
Des efforts sont actuellement menés au sein du continent sud-américain afin de pallier cette situation et ainsi faciliter l’identification d’interlocuteurs scientifiques locaux par des chercheurs d’institutions étrangères souhaitant mener des recherches en sciences planétaires ou en astrobiologie en Amérique du Sud. Des démarches vertueuses entre certains chercheurs sud-américains et leurs homologues du Nord global ont aussi été menées afin de développer ex nihilo des initiatives de recherche locales dans des domaines spécifiques des sciences planétaires et de l’astrobiologie (par exemple, vis-à-vis d’un cas que notre équipe connaît bien, la recherche sur les météorites au Chili).
Dans le domaine de l’astronomie, à la marge donc des sciences planétaires et de l’astrobiologie, la mise en place des grands observatoires internationaux sur le sol chilien a permis la structuration d’une communauté locale d’astronomes et représente ainsi un bon exemple de début de coopération fructueuse entre le Nord et le Sud global. N’oublions pas de citer aussi le développement remarquable et exemplaire de l’astrobiologie au Mexique, dans les pas des scientifiques mexicains Antonio Lazcano et Rafael Navarro-González, qui démontre qu’une structuration locale indépendante reste possible et peut induire une dynamique positive pour l’ensemble du continent sud-américain.
Toutes ces initiatives restent cependant trop rares ou encore trop déséquilibrées au profit d’un leadership du Nord global et ne peuvent, selon nous, se substituer à une introspection profonde des pratiques de recherche scientifique. Dans un contexte où la légitimité des sciences est contestée, cet effort d’autocritique émanant de la communauté scientifique ne nous semblerait pas superflu.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.10.2025 à 15:32
Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)
Après des décennies passées à cueillir les « dividendes de la paix », les Européens réarment à grande vitesse, mais de façon désorganisée, voire confuse. Or, la sécurité du continent dépend de la mise en œuvre d’une politique militaire pensée de façon collective et fondée sur une industrie de défense qui deviendrait nettement moins dépendante des États-Unis.
Face à la rhétorique agressive de la Russie, à ses provocations verbales et à ses opérations d’intimidation de plus en plus fréquentes, les États européens réarment. L’attitude illisible de l’administration Trump les incite encore davantage à prendre leur destin en main en matière de défense.
Mais les achats d’armements se font en ordre dispersé. Les Européens (membres de l’UE ou non) continuent de largement dépendre des États-Unis dans ce domaine ; et leur industrie de défense se développe avec une grande lenteur, malgré de progrès récents.
La guerre en Ukraine a été un révélateur pour les Européens. Après plus de trois décennies de désarmement prononcé pour toucher les fameux « dividendes de la paix » post-guerre froide, les budgets augmentent, accompagnés d’annonces sur des commandes de chars, d’avions de combat, de missiles.
La réactivation des réserves est mise en avant, tout comme la relance des industries d’armement. Ce mouvement, bien que tardif, illustre un gros progrès. L’Europe ne se considère plus comme un continent riche, trop heureux de confier sa protection (notamment nucléaire) aux États-Unis, sans avoir à livrer de véritables efforts propres. En cela, les critiques venues de Washington relatives au manque d’investissements des pays européens dans leur défense étaient parfaitement justifiées.
Mais ce réarmement, aussi nécessaire soit-il, se fait dans le désordre et dans la précipitation, car il est plus guidé par la peur ou par la prise de conscience que par la planification. L’UE, certes, dépense davantage, mais ne réussit pas à définir une vision d’ensemble pour bâtir une défense, sinon intégrée, tout au moins organisée.
Selon l’Institut international de recherche sur la paix de Stockholm (SIPRI), les dépenses militaires européennes ont augmenté de manière historique de 17 % en 2024, atteignant 693 milliards de dollars. La totalité des pays de l’UE, à l’exception de Malte, ont accru leurs budgets militaires. L’Allemagne, longtemps à la traîne en matière de dépenses militaires, a bondi de 28 %, à 88,5 milliards, devenant le quatrième investisseur militaire mondial, ce qui aurait été absolument inimaginable il y a seulement quelques années.
La Pologne est le pays qui consacre le plus gros pourcentage de son PIB à la défense : 4,2 % aujourd’hui contre 2 % en 2021, ce qui marque un effort colossal. L’objectif est d’atteindre 5 % en 2026. En moyenne, même si le chiffre paraît moins spectaculaire, les pays de l’UE ont progressé de 0,2 % en termes de pourcentage du PIB, passant à une moyenne de 1,3 % à 1,5 % en deux ans.
Les fameux dividendes de la paix sont désormais bien derrière nous. La sécurité extérieure redevient centrale, comme au temps de la guerre froide, mais dans un désordre qui fragilise notre souveraineté collective.
Sur la carte du réarmement européen, on distingue autant de stratégies que d’États. L’Allemagne investit son Zeitenwende (changement d’ère) dans des achats auprès des États-Unis : avions F-35, missiles Patriot, hélicoptères CH-47 Chinook…
La France, avec une loi de programmation militaire 2024-2030 de 413 milliards d’euros, mise sur l’autonomie et la dissuasion nucléaire, et reste tournée vers son industrie nationale, particulièrement complète.
L’Italie et l’Espagne modernisent leur marine et leur aéronautique (programmes FREMM, Eurofighter), tout en demeurant très liées à l’Oraganisation du traité de l’Atlantique Nord (Otan). Les pays baltes et scandinaves se concentrent sur la défense territoriale (fortification des frontières) et les infrastructures d’accueil de troupes alliées.
L’Europe se réarme de manière anarchique : les Tchèques achètent des boucliers antimissiles, les Allemands lancent des satellites, la Lituanie achète des drones turcs ou israéliens, sans qu’un effort de coordination et de rationalisation des achats n’apparaisse.
Certes, cette diversité reflète des besoins réels et pressants, car les différents pays n’éprouvent pas le même sentiment d’urgence, du fait de la géographie mais également des menaces perçues comme directes ou plus lointaines, ou en raison des traditions militaires. Mais l’absence de coordination produit une fragmentation industrielle et opérationnelle. Les armées européennes utilisent aujourd’hui près de 180 systèmes d’armes différents, contre une trentaine aux États-Unis. Cette hétérogénéité augmente les coûts, complexifie la logistique – avec d’innombrables pièces détachées différentes et les compétences multiples qu’il est nécessaire d’entretenir – et, in fine, rend très délicate l’interopérabilité, c’est-à-dire la capacité des systèmes d’armes et donc des armées à travailler ensemble.
La Pologne illustre les contradictions qu’engendrent les besoins immédiats de sécurité et l’incohérence stratégique. Ce grand pays, encore en avance sur l’Allemagne en matière de dépenses militaires, est devenu la locomotive militaire de l’Europe, au moins de l’Est, mais au prix d’une dépendance massive à des fournisseurs non européens.
À lire aussi : Le réarmement massif de la Pologne : causes, conséquences et controverses
En août 2025, Varsovie a signé avec la Corée du Sud un contrat portant sur la livraison de 180 chars K2 Black Panther, pour environ 6,5 milliards de dollars, après un premier contrat d’également 180 chars en 2022 ; 61 chars seront assemblés localement sous licence. En parallèle, Varsovie achète à Séoul des obusiers K9 et des avions FA-50, mais n’oublie pas ses alliés américains en acquérant des chars Abrams.
La Pologne s’est donc tournée vers des fournisseurs capables de livrer rapidement des armes de qualité lui permettant une montée en puissance réelle. Ces avantages sont malheureusement accompagnés pour ce pays d’inconvénients réels. La Pologne dépend de la logistique étrangère, et la maintenance de matériels variés se complexifie tant en termes de pièces détachées que de compétences diverses sur des matériels différents.
Mais Varsovie n’est pas seule dans cette situation. Nous le savons déjà : via l’Otan, les États-Unis sont dominants dans la sécurité européenne. Leur parapluie nucléaire en est une forte illustration. De plus, les États-Unis sont, sur le plan industriel, le principal fournisseur des pays européens. Les avions F-35, expression de cette domination, sont désormais l’avion standard de plusieurs forces aériennes européennes. L’Allemagne a prévu 35 appareils, dont les premières livraisons interviendront en 2026, la Belgique en a commandé 34, la Pologne 32 et le Danemark 27, déjà en cours de réception. La Finlande a signé pour 64 exemplaires, livrés progressivement jusqu’en 2030, tandis que la Grèce prévoit jusqu’à 40 avions. La Norvège et les Pays-Bas ont chacun acquis 52 appareils, déjà pour la plupart opérationnels. L’Italie dispose d’environ 90 F-35, le Royaume-Uni en a prévu 138, dont une soixantaine déjà livrés. Enfin, la Suisse en a commandé 36 exemplaires, livrables à partir de 2027, et la République tchèque 24, dont les premières livraisons sont attendues vers 2031.
On le voit, de nombreux pays européens ont préféré privilégier la relation avec les États-Unis, quitte à acheter un système d’armes verrouillé. En effet, les F-35 lient leurs utilisateurs au réseau logistique américain en termes de maintenance, de formation et de mise à jour logicielle.
Cette dépendance technologique pose un problème stratégique majeur, a fortiori lorsque les États-Unis sont dirigés par une administration chaotique et imprévisible et dont l’engagement au sein de l’Otan semble plus que fragile : l’Europe ne contrôle ni ses codes sources, ni sa maintenance, ni ses calendriers d’évolution. En cas de crise transatlantique, cette vulnérabilité pourrait, en quelques semaines, dégrader très fortement les performances de sa flotte de F-35.
Ainsi, l’Europe, incapable de se détacher de la tutelle de Washington, achète sa sécurité en quelque sorte à crédit politique, sans garantie solide. Emmanuel Macron l’a souligné à la Sorbonne, en avril 2024 : « Le moment est venu pour l’Europe de devenir puissance. » Parole précieuse, mais sans grande portée tant que l’Europe se contente d’être une cliente, vulnérable aux intentions de Washington.
La dépendance vis-à-vis des États-Unis pourrait être pleinement justifiée si nous ne disposions pas de la base technique et industrielle pour posséder une véritable autonomie stratégique en matière de défense. La réalité est tout autre ; Airbus, Dassault, Thales, Leonardo, Safran, MBDA, Rheinmetall, Nexter sont autant de champions mondiaux. L’Europe dispose du savoir-faire en quantité, mais manque de coordination et de volonté politique.
Les programmes Scaf (Système de combat aérien du futur) et MGCS (char européen) symbolisent ces lenteurs. Le premier devait incarner l’avenir de la supériorité aérienne européenne. Pourtant, ce projet cumule retards et tensions entre industriels et États membres. Le second, censé succéder au Leopard 2 et au Leclerc, connaît également de grandes difficultés. L’incapacité des Européens à s’entendre profite de manière quasi automatique à leurs concurrents. Les prototypes de chars et de chasseurs des États-Unis et de la Corée du Sud pourraient être opérationnels autour des années 2030. Dans ce cadre, l’ironie est lourde : l’Europe risque de devenir acheteuse de technologies qu’elle aurait pu inventer.
L’UE tente de réagir en mettant sur pied le Fonds européen de défense (Fedef) et l’Agence européenne de défense (AED). Cependant, leurs moyens sont dérisoires (environ 8 milliards d’euros sur la période 2021-2027) et ils sont dénués de véritable gouvernance politique et budgétaire.
Nous le comprenons, la question n’est pas industrielle. L’Europe a la base technique et industrielle. Le problème est politique : les pays européens acceptent-ils de partager entre eux leur souveraineté ? Ils en sont capables, le passé l’a montré, mais la situation géopolitique actuelle nous empêche de tergiverser plus longtemps.
L’autre question essentielle est relative aux États-Unis : l’Europe peut-elle, tout en restant leur alliée, s’affranchir, au moins partiellement, de leur tutelle ? Aucun pays n’apporte de réponse identique à cette question centrale.
Plusieurs axes s’imposent pour construire une industrie de défense européenne qui entraînera un esprit de défense européen : harmoniser les normes ; mutualiser les achats ; conditionner les contrats étrangers ; créer un « Buy European Act » (équivalent du Buy American Act, une loi américaine de 1933), qui obligerait l’Europe à privilégier les entreprises et produits fabriqués en Europe dans ses marchés publics, et notamment dans la défense ; renforcer le Fedef et élaborer une doctrine commune.
Compte tenu des rapports très différents que les pays entretiennent avec Washington, il est important de montrer à toutes les parties prenantes que ces mesures ne visent pas à se découpler des États-Unis, mais seulement à rééquilibrer la relation transatlantique. Une alliance forte repose sur des partenaires autonomes et libres.
Réarmer est nécessaire. Il ne s’agit pas seulement d’aider l’Ukraine, même si cette dimension demeure. Il s’agit de tenir à distance la Russie, dont on peut parier de la permanence de l’agressivité pendant des décennies.
Réarmer ne couvre pas tout le champ de la défense. Cette dernière engage aussi la diplomatie, la technologie, l’énergie, la résilience des sociétés. Or, malgré les appels et le début de certaines réalisations, l’Europe reste très dépendante en matière d’énergie (gaz américain), de semi-conducteurs (Taïwan et Corée du Sud), du numérique (Gafam)… Une entité politique sans souveraineté ne peut être une puissance. Une souveraineté militaire – ce qui constitue déjà un véritable défi – sans souveraineté industrielle, énergétique et numérique est une illusion.
Pour autant, le réarmement européen met fin à la naïveté stratégique née des années 1990 et, probablement, à l’opportunisme économique dégagé des contraintes de défense. Mais il ne sera durable que s’il s’accompagne d’un sursaut collectif. Un sursaut collectif qui impose de penser l’Europe non plus seulement comme un marché, mais également comme une source de puissance.
L’Europe est une puissance économique avec des moyens et des cerveaux. Elle peut acquérir une souveraineté en matière de défense tout en continuant de coopérer avec les États-Unis, à considérer désormais non plus comme des amis mais comme des alliés. Les États-Unis demeurent un partenaire essentiel, mais n’ont pas à mettre l’Europe sous tutelle. L’Europe-puissance que nous appelons de nos vœux aura pour conséquence de ne plus accepter ce type de relations.
L’Europe est riche et capable. Mais il lui manque la cohésion, la volonté d’agir et la compréhension de la notion de puissance. Elle réarme. Cette évolution est satisfaisante. Mais elle doit réarmer ensemble dans le cadre d’un projet, au risque, sinon, de demeurer un géant économique, sous parapluie américain, parapluie de plus en plus troué d’ailleurs.
Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:32
Sylvain Kahn, Professeur agrégé d'histoire, docteur en géographie, européaniste au Centre d'histoire de Sciences Po, Sciences Po
For 80 years, Europe maintained an asymmetric yet cooperative relationship with the United States. This imbalance, long accepted as the price of stability and protection, has shifted dramatically under US President Donald Trump. What was once a strategically uneven interdependence has become an unbreakable grip, which is used to exert pressure while being denied by its victims.
In my book, l’Atlantisme est mort ? Vive l’Europe ! (Is Atlanticism Dead? Long Live Europe!), I describe this shift by introducing the concept of “emprisme”: a permitted grip in which Europeans, believing themselves to be partners, become dependent on a power that dominates them without their full awareness.
Emprisme does not merely refer to influence or soft power, but an internalised strategic subordination. Europeans justify this dependence in the name of realism, security, or economic stability, without recognising that it structurally weakens them.
In Trump’s worldview, Europeans are no longer allies but freeloaders. The common market enabled them to become the world’s largest consumer zone and strengthen their companies’ competitiveness, including in the US market. Meanwhile, through NATO, they let Washington bear the costs of collective defence.
The result? According to Trump, the US – because it is strong, generous, and noble – is being “taken advantage of” by its allies. This narrative justifies a shift: allies become resources to exploit. It is no longer cooperation, but extraction.
The war in Ukraine perfectly illustrates this logic. While the EU mobilized to support Kyiv, this solidarity became a vulnerability exploited by Washington. When the Trump administration temporarily suspended Ukrainian access to US intelligence, the Ukrainian army became blind. Europeans, also dependent on this data, were left half-blind.
The administration’s move was not a mere tactical adjustment, but a strategic signal: European autonomy is conditional.
In July 2025, the EU accepted a deeply unbalanced trade agreement imposing 15% tariffs on its products, without reciprocity. The Turnberry agreement was negotiated at Trump’s private estate in Scotland – a strong symbol of the personalization and brutalization of international relations.
At the same time, the US stopped delivering weapons directly to Ukraine. Europeans now buy American-made arms and deliver them themselves to Kyiv. This is no longer partnership, but forced delegation.
In the logic of the MAGA movement, which is dominant within the Republican Party, Europe is no longer a partner. At best, it is a client; at worst, a tributary.
In this situation, Europeans accept their subordination without naming it. This consent rests on two illusions: the idea that this dependence is the least bad option, and the belief that it is temporary.
Yet many European actors – political leaders, entrepreneurs, and industrialists – supported the Turnberry agreement and the intensification of US arms purchases. In 2025, Europe accepted a perverse deal: paying for its political, commercial and budgetary alignment in exchange for uncertain protection.
It is a quasi-mafia logic of international relations, based on intimidation, brutalization and the subordination of “partners”. Like Don Corleone in Frances Ford Coppola’s The Godfather, Trump seeks to impose an unpredictable American protection in exchange for an arbitrary price set unilaterally by the US.
It is essential to distinguish emprisme from other forms of domination. Unlike President Vladimir Putin’s Russia, whose imperialism relies on military violence, Trump’s US does not use direct force. When Trump threatens to annex Greenland, he exerts pressure but does not mobilize troops. He acts through economic coercion, trade blackmail, and political pressure.
Because Europeans are partially aware of this and debate the acceptable degree of pressure, this grip is all the more insidious. It is systemic, normalized, and thus hard to contest.
Putin’s regime, by contrast, relies on violence as a principle of government – against its own society and its neighbours. The invasion of Ukraine is its culmination. Both systems exercise domination, but through different logics: Russian imperialism is brutal and direct; US emprisme is accepted, constraining, and denied.
What makes emprisme particularly dangerous is the denial that accompanies it. Europeans continue to speak of the transatlantic partnership, shared values, and strategic alignment. But the reality is one of accepted coercion.
This denial is not only rhetorical: it shapes policies. European leaders justify trade concessions, arms purchases, and diplomatic alignments as reasonable compromises. They hope Trump will pass, that the old balance will return.
But emprisme is not a minor development. It is a structural transformation of the transatlantic relationship. And as long as Europe does not name it, it will keep weakening – strategically, economically and politically.
Europe must open its eyes. The transatlantic link, once protective, has become an instrument of domination. The concept of emprisme allows us to name this reality – and naming is already resisting.
The question is now clear: does Europe want to remain a passive subject of US strategy, or become a strategic actor again? The answer will determine its place in tomorrow’s world.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Sylvain Kahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:32
Romuald Blanc, MCU-Psychologue clinicien, Université de Tours
Qu’est-ce que l’intelligence ? Comment la définir, et l’évaluer ? Il n’existe pas de réponse simple à ces questions, qui ont fait l’objet de nombreux travaux de recherche. Voici quelques pistes de réflexion.
L’intelligence est un concept complexe, qui englobe plusieurs sortes de capacités cognitives, comme la résolution de problèmes, la pensée abstraite, l’apprentissage et l’adaptation.
Elle ne se limite pas aux performances scolaires, mais inclut aussi des dimensions émotionnelles (l’ajustement émotionnel aux autres, la capacité à agir sur ses propres émotions ou « autorégulation émotionnelle »), sociales (l’adaptation sociale et prise en compte des règles et des conventions sociales qui régissent les relations humaines) et pratiques (l’adaptation au quotidien).
Pour cette raison, définir l’intelligence et l’évaluer est une tâche ardue. Les experts eux-mêmes peinent encore à s’accorder sur sa nature (unique ou multiple), son origine (innée ou acquise) ou ses mécanismes (concernant les processus cognitifs sous-jacents).
Si de nombreux modèles d’intelligence ont été proposés, jusqu’à présent, aucun consensus scientifique incontesté n’a émergé. Globalement, 3 grandes façons de définir l’intelligence se dessinent : les modèles factoriels, les approches dites « multiples » et les modèles neurocognitifs. Voici ce qu’il faut en retenir.
Parmi les modèles factoriels, citons le modèle mis au point par Charles Edward Spearman, psychologue britannique. Développé en 1904, il repose sur le calcul d’un facteur général d’intelligence (appelé « facteur g »). Celui-ci serait commun à toutes les tâches cognitives, tandis que pour chaque activité il existerait des facteurs spécifiques : un facteur verbal pour le langage, un facteur spatial, etc. Ces « facteurs mentaux » sont déterminés grâce à une méthode mathématique appelée analyse factorielle.
Le modèle de Spearman implique que toutes les performances intellectuelles sont corrélées. L’intelligence serait donc une capacité unique. Bien que critiqué pour son caractère réducteur, il reste une référence dans la psychométrie et la conception des tests de quotient intellectuel.
Dans les années 1930, Louis Leon Thurstone, un psychologue américain, conteste cette vision. Il affirme que l’intelligence n’est pas une capacité unique, mais un ensemble de compétences mentales primaires indépendantes. En se basant sur des analyses factorielles de tests d’intelligence qu’il a fait passer à des étudiants, il détermine qu’il existerait 7 aptitudes mentales primaires : la compréhension verbale, la fluidité verbale, les aptitudes numériques, la visualisation spatiale, la mémoire, la vitesse perceptive et le raisonnement inductif.
En 1963, dans la lignée de ces travaux, le psychologue anglo-américain Raymond Bernard Cattell défend l’idée que l’intelligence générale se divise en deux catégories principales : l’intelligence fluide, qui correspond à notre capacité à traiter de nouvelles informations, à apprendre et à résoudre des problèmes ; et l’intelligence cristallisée, qui s’apparente à nos connaissances stockées, accumulées au fil des ans.
Ce dernier modèle a influencé de nombreux tests d’intelligence modernes, comme les échelles d’intelligence de Wechsler. Il explique pourquoi certaines personnes âgées peuvent exceller dans des domaines nécessitant des connaissances établies, malgré une baisse de leurs capacités de raisonnement abstrait. Il est utilisé en psychologie cognitive et en neurosciences pour étudier le vieillissement cognitif.
En se positionnant face aux modèles antérieurs, jugés réducteurs, le psychologue états-unien Howard Gardner a développé, au début des années 1980, un autre modèle de l’intelligence, intégrant les composantes sociales et culturelles. Son intérêt pour des populations atypiques telles que les enfants dits « prodiges », les « idiots-savants », ou encore les personnes avec autisme lui ont permis de prendre en considération des différentes facettes de l’activité cognitive, en respectant des différences de chacun selon ses forces, ses faiblesses et ses styles cognitifs.
Il définit ainsi huit grandes facettes de l’intelligence : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle et naturaliste. Gardner propose que chacun peut développer ces intelligences à différents niveaux et qu’il existe de nombreuses façons d’être intelligent dans chacune de ces catégories.
Bien que novateur, ce modèle est critiqué pour son manque de fondement scientifique et la subjectivité de ses catégories. Certains chercheurs y voient plutôt des talents que de véritables formes d’intelligences, et son efficacité pédagogique reste à démontrer. Des critiques suggèrent que la théorie des intelligences multiples manque de fondements scientifiques solides et repose sur des catégories subjectives, souvent perçues davantage comme des talents ou des traits de personnalité que comme des formes distinctes d’intelligence.
En 1985, le psychologue américain Robert Sternberg propose un modèle triarchique de l’intelligence, intégrant des aspects cognitifs, créatifs et pratiques. Il distingue trois formes d’intelligence : analytique (résolution de problèmes logiques), créative (pensée originale et adaptation à la nouveauté) et pratique (adaptation au quotidien, intelligence sociale).
Contrairement à Spearman et Thurstone, qui envisagent l’intelligence comme un ensemble de capacités cognitives mesurables (facteur g ou aptitudes primaires), Sternberg la conçoit comme un processus adaptatif. Être intelligent, c’est savoir s’adapter à de nouvelles situations, choisir des environnements favorables et les modifier si nécessaire.
Réussir à s’intégrer dans un nouvel environnement culturel illustre par exemple cette intelligence pratique et contextuelle. Là où Spearman ou Thurstone y verraient l’expression d’aptitudes générales (raisonnement, compréhension), Sternberg y voit surtout la mise en œuvre de stratégies d’adaptation à un contexte changeant.
La théorie de Sternberg est plus étayée empiriquement que celle de Gardner, car ses composantes (analytique, créative, pratique) peuvent être testées et appliquées en éducation ou en milieu professionnel, pour mieux évaluer les compétences individuelles. La typologie proposée par Gardner, séduisante, est en revanche moins validée scientifiquement.
Si Sternberg reste plus opérationnel et crédible sur le plan scientifique, les deux approches complètent les modèles psychométriques, en mettant l’accent sur l’adaptation et le contexte.
Les modèles les plus récents d’intelligence s’appuient sur les connaissances acquises notamment grâce aux progrès effectués en neuro-imagerie (notamment grâce à l’IRM fonctionnelle, qui permet d’observer le fonctionnement cérébral lors de la réalisation d’une tâche donnée).
Ces modèles mettent en avant le rôle des réseaux cérébraux et des fonctions cognitives. Parmi les principaux, on peut citer :
la théorie de l’intégration fronto-pariétale : selon cette théorie, l’intelligence serait basée sur l’intégration, c’est-à-dire le traitement coordonné et harmonieux des informations entre différentes régions du cerveau, notamment entre le cortex pariétal (impliqué dans le raisonnement et le traitement spatial) et le cortex préfrontal (impliqué dans le contrôle exécutif, c’est-à-dire la régulation et la coordination des pensées, des actions et des émotions pour atteindre un but) ;
le modèle des fonctions exécutives : ce modèle souligne le rôle clé de la mémoire de travail (capacité à maintenir et manipuler temporairement des informations), de la flexibilité cognitive (capacité à changer de stratégie ou de point de vue) et de l’inhibition (capacité à résister à des automatismes ou distractions). Ces fonctions, essentielles pour la planification et l’adaptation, sont fortement associées au cortex préfrontal ;
les approches bayésiennes : elles mettent en avant l’idée que le cerveau agit comme un système prédictif, c’est-à-dire qu’il formule en permanence des hypothèses sur le monde à partir de ses expériences passées, puis les ajuste en fonction des nouvelles informations sensorielles (par exemple, lorsque nous marchons dans une rue et que nous entendons un bruit de moteur derrière nous, notre cerveau prévoit qu’une voiture approche. Si le bruit s’éloigne au lieu de se rapprocher, il met à jour son modèle interne pour ajuster sa prédiction) ;
le modèle des réseaux en petits mondes : ce modèle repose sur l’idée que l’intelligence dépend de l’efficacité des connexions neuronales et de la plasticité cérébrale. Le cerveau humain est organisé selon une architecture dite en petit monde, c’est-à-dire un réseau dans lequel les neurones (ou régions cérébrales) sont à la fois fortement connectés localement (favorisant la spécialisation) et efficacement reliés à distance (favorisant l’intégration globale de l’information). Cela signifie qu’il existe des différences interindividuelles : certaines personnes présentent des réseaux cérébraux plus efficaces, caractérisés par un équilibre optimal entre connectivité locale et connectivité globale, ce qui serait associé à de meilleures performances cognitives et à un quotient intellectuel plus élevé. Cependant, cette efficacité n’est pas figée : elle peut être modifiée par l’expérience, l’apprentissage, l’entraînement cognitif ou encore par des changements développementaux (enfance, adolescence) et neurobiologiques (plasticité synaptique, myélinisation). En d’autres termes, le cerveau peut réorganiser ses connexions pour améliorer la circulation de l’information.
Tous ces modèles postulent que l’intelligence est distribuée : elle reposerait sur l’interaction entre différentes régions du cerveau.
La théorie de l’intégration fronto-pariétale et le modèle des fonctions exécutives sont bien étayés empiriquement, grâce à des données de neuro-imagerie et des tâches expérimentales standardisées. Les approches bayésiennes offrent un cadre explicatif puissant, mais plus théorique et difficile à tester directement. Enfin, le modèle des réseaux en petits mondes est empiriquement mesurable, mais surtout corrélationnel.
Ces modèles ne s’opposent pas aux approches développementales classiques, ils les complètent en proposant une explication cérébrale et fonctionnelle des mécanismes qui sous-tendent le développement de l’intelligence
À la fois universelle et plurielle, l’intelligence est un concept complexe, polymorphe et multidimensionnel. L’évaluer n’est pas chose aisée. Sa richesse ne peut être appréhendée à la seule aune de tests standardisés tels que le quotient intellectuel, car celui-ci ne prend pas en compte toutes les formes d’intelligence, ignorant notamment l’intelligence émotionnelle ou créative.
Une compréhension complète de l’intelligence exige de ce fait une approche globale et nuancée. À ce titre, les divers modèles de l’intelligence offrent une vision enrichissante de la complexité de ce concept, en proposant de reconnaître et de valoriser les différentes compétences et talents que chaque individu possède.
En nous incitant à adopter une perspective plus large sur l’intelligence, ils nous aident à mieux comprendre et à soutenir le développement des capacités des individus dans toute leur diversité.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Romuald Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Hélène Bourdeloie, Sociologue, maîtresse de conférences en sciences de l’information et de la communication, Université Sorbonne Paris Nord; Centre national de la recherche scientifique (CNRS)
Au-delà de ses effets délétères sur la santé mentale des jeunes, le récent rapport de la commission parlementaire sur TikTok montre que la plateforme laisse proliférer des contenus sexistes, valorisant le masculin et dénigrant le féminin. Une occasion de s’interroger sur les mécanismes qui, au cœur des plateformes numériques, amplifient les stéréotypes de genre, bien loin des promesses émancipatrices portées par l’essor de l’Internet grand public des années 1990.
Alex Hitchens est un influenceur masculiniste, coach en séduction, actuellement fort de 719 000 abonnés sur TikTok. Son effarant succès est emblématique du rôle des algorithmes de recommandation dans l’amplification des discours réactionnaires. La récente commission d’enquête parlementaire sur les effets psychologiques de TikTok a donc logiquement convoqué l’influenceur star – parmi plusieurs autres aux discours tout aussi douteux – pour l’entendre en audition. Et le 11 septembre 2025, elle a rendu son rapport. Celui-ci met clairement en cause la responsabilité des algorithmes des plateformes dans la diffusion de contenus problématiques aggravant les stéréotypes de genre
À lire aussi : TikTok et les jeunes : rentabilité et fabrique du mal-être
Cette réalité s’inscrit dans un contexte plus large renvoyant à l’état du sexisme et des inégalités entre les hommes et les femmes dans toutes les sphères de la société. Ainsi, le Baromètre sexisme 2023 du Haut conseil à l’égalité (HCE) signale la présence d’une nouvelle vague d’antiféminisme. On y apprend que 33 % des hommes considèrent que le féminisme menace leur place et rôle dans la société, et 29 % d’entre eux estiment être en train de perdre leur pouvoir.
De telles données ne sont pas sans interroger la promesse émancipatrice des débuts de l’Internet. Loin d’être un espace neutre, à l’intersection du technique et du social, l’Internet est en effet sans cesse modelé par des décisions humaines, des choix politiques et des logiques économiques. Celles-ci influencent nos usages et nos comportements, qu’il s’agisse de nos manières de construire notre identité de genre (selfies, filtres, mise en scène de la féminité/masculinité), de nos pratiques relationnelles et amoureuses (applications de rencontre, codes de séduction numérique), ou encore de notre rapport au corps et à l’intimité.
Alors qu’il était censé nous libérer de normes contraignantes, l’Internet semble finalement renforcer l’ordre patriarcal en laissant proliférer des stéréotypes qui valorisent le masculin et dénigrent le féminin. En favorisant la circulation de discours qui présentent des caractéristiques prétendument féminines comme biologiques, l’Internet peut contribuer à confondre sexe et genre, à naturaliser les différences de genre, et par conséquent à essentialiser les femmes et à les inférioriser.
Les chiffres du rapport du HCE sur l’invisibilité des femmes dans le numérique sont à ce titre plus qu’éloquents. A partir de l’analyse des 100 contenus les plus vus sur YouTube, TikTok et Instagram, il établit que sur Instagram, plus des deux tiers de ces contenus (68 %) véhiculent des stéréotypes de genre, tandis qu’un quart (27 %) comprend des propos à caractère sexuel et près d’un cinquième (22 %) des propos sexistes. TikTok n’échappe pas à cette tendance avec 61 % de vidéos exposant des comportements masculins stéréotypés et 42,5 % des contenus humoristiques et de divertissement proposant des représentations dégradantes des femmes.
Aux débuts de l’Internet grand public des années 1990, héritier de l’utopie technoculturelle des années 1960-1970, on pouvait penser que cette technologie redistribuerait les cartes en matière de genre, classe ou race. Le numérique promettait plus d’horizontalité, de fluidité, d’anonymat et d’émancipation.
Dans une perspective cyberféministe, ces espaces numériques étaient vus comme des moyens de dépasser les normes établies et d’expérimenter des identités plus libres, l’anonymat permettant de se dissocier du sexe assigné à la naissance.
Si plusieurs travaux ont confirmé cette vision émancipatrice de l’Internet – visibilité des minorités, expression des paroles dominées, levier de mobilisation – une autre face de l’Internet est venue ternir sa promesse rédemptrice.
Dans les années 2000, avec la montée en puissance des logiques marchandes, les Big Tech de la Silicon Valley – et en particulier les Gafam (Google, Apple, Facebook/Meta, Amazon, Microsoft) – ont pris le contrôle du réseau et cet espace décentralisé, ouvert et commun, est devenu la propriété économique de quelques entreprises. L’Internet a pris une autre forme : oligopolistique, verticale et néolibérale.
Aujourd’hui, les plateformes numériques, à commencer par les réseaux sociaux, cherchent à capter et retenir l’attention des internautes pour la convertir en revenus publicitaires ciblés. Cette logique est notamment poussée par des plateformes, comme TikTok, qui, en personnalisant les fils d’actualité des utilisateurs, tendent à valoriser les contenus sensationnalistes ou viraux, qui suscitent un temps de visionnage accru, à l’exemple des contenus hypersexualisés.
Dès lors, si le sexisme n’est pas né avec le numérique, les algorithmes des plateformes offrent néanmoins un terreau favorable à sa prolifération.
Les plateformes (avec leurs filtres, formats courts, mécanismes de partage, systèmes de recommandation… – à l’exemple du filtre « Bold Glamour » de TikTok, censé embellir les visages sur la base de standards irréalistes et genrés) contribuent à perpétuer et amplifier les biais de genre et sexistes, voire à favoriser la haine et la misogynie chez les jeunes.
Une étude universitaire de 2024 illustre bien la manière dont les utilisateurs de TikTok sont surexposés aux contenus sexistes. Pour observer cela, des chercheuses et chercheurs ont créé des profils fictifs de garçons adolescents. Après seulement cinq jours, ils ont constaté que le niveau de contenus misogynes présentés sur les fils « Pour toi » de ces profils avait été multiplié par quatre, révélant un biais structurel dans le système de recommandation de TikTok.
La plateforme n’est dès lors pas seulement le miroir de clivages de sexe, mais aussi le symptôme du pullulement et de la banalisation des discours sexistes. Cette idéologie, enracinée dans les sous-cultures numériques phallocrates rassemblée sous le nom de « manosphère » et passant désormais des écrans aux cours de récréation, n’a pas de frontière.
À lire aussi : « Manosphère » : ce que les parents doivent savoir pour en parler avec leurs enfants
Concernant TikTok, le rapport de 2023 du HCE sur l’invisibilité des femmes dans le numérique est on ne peut plus clair. Il montre que la plateforme privilégie structurellement les contenus correspondant aux attentes genrées les plus convenues. Les corps féminins normés, les performances de genre ou représentations stéréotypées, comme celle de la femme réservée, hystérique ou séductrice, y sont ainsi surreprésentées. En fait, les grandes plateformes les représentent sous un angle qui les disqualifie. Cantonnées à l’espace domestique ou intime, elles incarnent des rôles stéréotypés et passifs liés à la maternité ou l’apparence. Leurs contenus sont perçus comme superficiels face à ceux des hommes jugés plus légitimes, établissant une hiérarchie qui reproduit celle des sexes.
On se souvient ainsi du compte TikTok « @abregefrere ». Sous couvert de dénoncer le temps perdu sur les réseaux sociaux, ce compte s’amusait à résumer en une phrase le propos de créateurs et créatrices de contenus, le plus souvent issus de femmes. Créant la polémique, son succès a entraîné une vague de cyberharcèlement sexiste, révélateur d’une certaine emprise du masculinisme.
À lire aussi : #SkinnyTok, la tendance TikTok qui fait l’apologie de la maigreur et menace la santé des adolescentes
De telles représentations exacerbent les divisions genrées et les clivages entre communautés en ligne. Sur TikTok, est ainsi né Tanaland, un espace virtuel exclusivement féminin, pensé comme un renversement du stigmate associé à l’insulte misogyne « tana » (contraction de l’espagnol « putana »), et destiné à se protéger du cybersexisme. En miroir, a été créé Charoland, pays virtuel peuplé de femmes nues destinées à satisfaire le désir masculin ; une polarisation qui opère non seulement au détriment des femmes, mais aussi des hommes qui contestent le patriarcat.
Comme en témoigne le rapport 2025 du HCE, ce contexte peut conduire à polariser les enjeux d’égalité de genre et, ce faisant, à renforcer les inégalités et violences.
Ce sont ainsi les femmes et les minorités qui restent les plus exposées à la cyberviolence et au cyberharcèlement. Selon l’ONU, 73 % des femmes dans le monde ont déjà été confrontées à des formes de violence en ligne. Et selon l’enquête « Cyberviolence et cyberharcèlement », de 2022, en cours de renouvellement, les cyberviolences visent surtout les personnes les plus vulnérables comme les jeunes (87 % des 18-24 ans en ont ainsi subi), les personnes LGBTQI+ (85 %), les personnes racisées (71 %) et les femmes de moins de 35 ans (65 %).
Ces violences affectent particulièrement la santé mentale et l’image de soi des jeunes filles, soumises à une pression permanente à la performance esthétique et constamment enjointes à réfléchir à leur exposition en ligne. De fait, leurs corps et leurs sexualités sont plus strictement régulés par un ordre moral – contrairement aux hommes souvent perçus comme naturellement prédatoires. En conséquence, elles subissent davantage le body-shaming (« humiliation du corps »), le slut-shaming ou le revenge porn, stigmatisations fondées sur des comportements sexuels prétendus déviants.
À lire aussi : Que fait l’Europe face aux géants du numérique ?
Reflet de la société, le numérique n’a certes pas créé la misogynie mais il en constitue une caisse de résonance. Pharmakon, le numérique est donc remède et poison. Remède car il a ouvert la voie à l’expression de paroles minoritaires et contestatrices, et poison car il favorise l’exclusion et fortifie les mécanismes de domination, en particulier lorsqu’il est sous le joug de logiques capitalistes.
Un grand merci à Charline Zeitoun pour les précieux commentaires apportés à ce texte.
Hélène Bourdeloie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Elodie Gentina, Professeur à IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille, IÉSEG School of Management
À l’automne 2025, face à la censure numérique imposée par un régime népotique, des milliers de jeunes manifestants ont investi les rues de Katmandou, capitale du Népal. La répression a été brutale : au moins 72 morts, des dizaines de blessés. Porté par les réseaux sociaux, ce soulèvement s’inscrit dans une vague mondiale où les jeunesses connectées – du Maroc à Madagascar – réinventent la démocratie hors des cadres traditionnels et exigent d’être entendues.
Au Népal, l’histoire politique pourrait bien prendre un nouveau tournant. Dans ce pays de quelque 30 millions d’habitants accroché aux flancs de l’Himalaya, encore marqué par les cicatrices d’une guerre civile (1996-2006) qui a abouti à la mise en place d’une démocratie imparfaite et instable, une génération née après les combats s’affirme aujourd’hui.
Elle ne se range sous aucune bannière partisane, n’attend l’aval d’aucun chef et refuse les mots d’ordre venus d’en haut. Elle trace sa propre voie, connectée, autonome, soudée autour de ses codes et de ses écrans. Et cet automne 2025, cette jeunesse – la fameuse génération Z (personnes nées entre la fin des années 1990 et le début des années 2010) – a investi les rues, prenant tout le monde de court, à commencer par les dirigeants.
Pour mesurer ce qui se joue aujourd’hui, il faut d’abord se tourner vers le passé. Entre 1996 et 2006, le Népal a traversé une décennie de guerre civile d’une rare intensité, opposant les insurgés maoïstes au pouvoir monarchique. Ce conflit, qui a coûté la vie à plus de 13 000 personnes, s’est soldé par l’effondrement de la royauté et la naissance d’une République en 2008. Beaucoup y ont vu l’aube d’un nouvel avenir, fondé sur la justice, la stabilité et le développement.
Mais la réalité fut bien plus chaotique. En quinze ans, le pays a connu une succession de gouvernements sans lendemain, des institutions toujours fragiles et un pouvoir resté entre les mains des mêmes familles. La corruption, le favoritisme et l’absence d’horizons économiques ont peu à peu creusé un profond sentiment de désillusion. Jusque-là, la contestation prenait des formes attendues : syndicats, mouvements étudiants affiliés aux partis, mobilisations rurales ou actions maoïstes. Rien ne laissait imaginer l’irruption d’un soulèvement d’un tout autre visage.
Environ 500 000 jeunes rejoignent chaque année la population active, bien plus que le nombre d’emplois disponibles. Le chômage des jeunes âgés de 15 à 24 ans au Népal est évalué à 20,8 %. Dans ces conditions, les opportunités sont rares, et des centaines de milliers de Népalais sont contraints de s’expatrier pour trouver du travail en Inde ou dans les pays du Moyen-Orient. L’idée d’un avenir meilleur dans leur propre pays leur semble de plus en plus inaccessible.
À lire aussi : Ce que la migration au Qatar signifie pour les travailleurs népalais
Quelques jours avant que les rues ne s’embrasent, un flot d’images a envahi les réseaux sociaux népalais : on y voyait les enfants de responsables politiques exhiber voitures de luxe, séjours à l’étranger et train de vie fastueux. Ces publications, largement partagées sous les hashtags #NepoKid ou #NepoBaby, ont fait l’effet d’une étincelle dans un pays déjà traversé par une profonde frustration. Elles mettaient crûment en lumière le fossé qui sépare les élites de la population, révélant un système où privilèges et passe-droits semblent se transmettre de génération en génération.
Dans un contexte de chômage massif et d’exil forcé pour une grande partie de la jeunesse, ces images sont vite devenues le symbole d’un pouvoir déconnecté et d’une injustice profondément enracinée. Le mouvement né sur les écrans s’est alors transformé en colère dans les rues, accélérant l’éclatement d’un soulèvement populaire. Le mouvement au Népal a souvent été présenté comme une révolte de la Gen Z contre les « nepo-babies » qui s’est intensifiée à la suite de l’interdiction des réseaux sociaux et d’une répression sanglante.
La vague de vidéos dénonçant les « nepo-kids » a exprimé une colère populaire face à des décennies de népotisme enraciné au Népal. Héritage de la dynastie autoritaire des Rana (1846-1951), ce système s’est perpétué malgré la démocratisation amorcée en 1990 : les partis n’ont pas su instaurer des institutions équitables ni représentatives. Le pouvoir reste ainsi concentré entre quelques familles influentes et alliances claniques (la famille Koirala, la dynastie Rala et les dynasties « claniques »), qui continuent de contrôler partis, ressources et postes clés.
Les jeunes citoyens exigent la fin de la corruption, une gouvernance plus juste et une véritable équité économique. Fait inédit dans l’histoire politique du pays : le 9 septembre 2025, le premier ministre Khadga Prasad Sharma Oli a présenté sa démission, avant d’être remplacé par Sushila Karki, ancienne présidente de la Cour suprême, à l’issue d’un vote… organisé sur la plateforme Discord. Elle est à la tête d’une équipe transitoire chargée de préparer les élections prévues pour mars 2026.
Cette révolte est horizontale, spontanée, mouvante, en l’absence de leaders reconnus ou autoproclamés. Les messages circulent en ligne, les décisions se construisent collectivement, presque en temps réel. La culture de cette génération imprègne aussi le mouvement. Sur les pancartes, on voit des mèmes, des clins d’œil à des séries ou à des mangas. Le drapeau des Straw Hat Pirates de One Piece, symbole de liberté et de résistance, flotte parmi les manifestants. La colère s’exprime avec humour, ironie et inventivité. Loin des discours idéologiques d’antan, cette jeunesse parle un langage qui lui ressemble.
Ce symbole One Piece n’a rien d’anodin : dans l’univers du célèbre manga, Luffy incarne la lutte contre l’oppression et le rêve d’un monde plus juste. Hors des pages de fiction, ce drapeau est devenu un véritable marqueur générationnel à travers toute l’Asie. Il suffit d’y inscrire quelques mots d’ordre pour qu’il se transforme en cri de ralliement. « La génération Z ne se taira pas » ou encore « Votre luxe, notre misère », pouvaient ainsi se lire sur les banderoles brandies par des milliers de jeunes Népalais début septembre 2025, après la suspension de plates-formes comme Facebook, X ou YouTube.
Mais les revendications de la génération Z au Népal vont bien au-delà de la seule question de la censure. Elles s’attaquent à un système politique verrouillé, gangrené par les privilèges héréditaires et incapable d’offrir un avenir. Elles réclament des emplois, de la transparence, une démocratie réelle et vivante. Elles exigent surtout une chose : que leur voix compte enfin.
La jeunesse népalaise a provoqué un séisme politique. Et cela, sans chef, sans parti, sans programme détaillé.
Reste à savoir ce que ce soulèvement va devenir. Au Népal, le gouvernement en place a même été contraint de céder, remplacé par une équipe transitoire chargée de préparer les élections prévues pour mars 2026. L’histoire montre que les mouvements sans organisation claire peuvent vite s’essouffler ou être récupérés. Reste à savoir si la jeunesse mobilisée choisira d’entrer dans l’arène électorale en présentant ses propres candidats – une perspective qui pourrait marquer un tournant majeur dans la vie politique du pays.
La nouvelle génération a pris conscience de sa force collective. Elle sait désormais qu’elle peut se mobiliser rapidement, en dehors des cadres traditionnels, et obliger le pouvoir à réagir. Elle a aussi redéfini le vocabulaire de la contestation : culture numérique, humour, pop culture, créativité… autant d’armes nouvelles pour faire passer des messages politiques.
Ce qui se joue au Népal n’est d’ailleurs pas un cas isolé. De l’Indonésie au Chili, de l’Iran aux États-Unis, ces jeunes « digital natives », nés pendant l’ère d’Internet, contestent les structures établies avec les mêmes outils et les mêmes réflexes. Le Népal s’inscrit dans ce vaste mouvement mondial d’une génération qui ne veut plus attendre et qui contribue à réinventer la démocratie à l’ère du numérique. La politique telle que nous la connaissions – organisée autour de partis, de leaders et de structures hiérarchiques – est de moins en moins adaptée aux formes d’engagement des nouvelles générations. Pour elles, la politique est une pratique fluide, horizontale, souvent ludique, toujours connectée.
Elodie Gentina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Frédéric Jallat, Professor of Marketing and Academic Director of MSc. in Biopharmaceutical Management, ESCP Business School
Les pharmacies françaises se trouvent aujourd’hui au cœur d’un paradoxe : dernier maillon de proximité d’un système de santé sous tension, elles subissent de plein fouet les choix budgétaires et politiques liés au prix des médicaments. Entre fermetures accélérées, marges érodées, pénuries répétées, leur fragilité dit beaucoup des difficultés que traverse la politique de santé au plan national.
Au cœur de l’hiver 2024, de nombreux patients ont eu la désagréable surprise de se voir refuser à l’officine un antibiotique pourtant banal, l’amoxicilline. « Rupture de stock », expliquaient alors les pharmaciens, contraints de trouver des alternatives ou de renvoyer les malades vers leur médecin. Ces incidents, fréquemment répétés au niveau national, illustrent une réalité mal connue : les pharmacies, maillon de proximité du système de santé, se trouvent aujourd’hui aux prises avec un mouvement combinant politiques de prix, stratégies industrielles et arbitrages budgétaires dont elles ne maîtrisent pas les évolutions.
Derrière le comptoir, c’est un acteur économique et social qui subit directement les choix de l’État, les complexités de l’Assurance-maladie et certaines des contraintes auxquelles les laboratoires pharmaceutiques sont désormais confrontés. La pharmacie n’est pas seulement un commerce : elle est devenue le miroir des tensions qui traversent la politique du médicament en France.
Contrairement à d’autres produits, le prix des médicaments en France ne relève pas du marché, mais d’un arbitrage centralisé. C’est en effet le Comité économique des produits de santé (Ceps) qui fixe les tarifs, à l’issue de négociations complexes avec les laboratoires pharmaceutiques.
Cette régulation poursuit, en réalité, plusieurs objectifs contradictoires :
garantir l’accès aux traitements des patients par un remboursement de l’Assurance-maladie ;
maîtriser les dépenses publiques de santé, dans un contexte de déficit chronique de la Sécurité sociale ;
soutenir l’innovation des laboratoires, grâce au développement de thérapies coûteuses issues de la biotechnologie notamment.
L’équilibre est difficile à tenir. Favoriser l’innovation implique d’accepter des prix élevés pour certains médicaments, tout en imposant des baisses régulières sur les molécules plus anciennes ou les génériques. Ce mécanisme place les officines dans une position de dépendance totale : leur rentabilité est directement conditionnée par ces décisions politiques qu’elles ne contrôlent aucunement.
À lire aussi : Médicaments innovants : la France face à la guerre des prix lancée par Trump
La politique du médicament ne se joue donc pas seulement dans les antichambres du ministère de la santé ou dans les couloirs du Parlement, mais au cœur d’un rapport de forces permanent et plus ample entre acteurs :
l’État cherche à contenir le coût du médicament, en incitant la substitution des produits princeps par les génériques, notamment ;
les laboratoires mènent un lobbying intense pour préserver leurs marges, tout en menaçant parfois de délocaliser ou de réduire la production sur le territoire – plus encore dans un climat international délétère où le président Trump utilise les droits de douane comme une arme de déstabilisation massive des politiques de développement régional des laboratoires au profit des États-Unis ;
l’Assurance-maladie pousse à rationaliser la consommation, à réduire les volumes et à encadrer les prescriptions ;
les syndicats de pharmaciens défendent la survie du réseau officinal, dénonçant l’érosion continue des marges de la profession ;
les patients-citoyens, enfin, se retrouvent au centre de ce jeu d’influence : leurs perceptions des prix, du reste à charge et des génériques est régulièrement mobilisée comme argument par les uns et par les autres.
Chaque décision de baisse de prix ou de modification des taux de remboursement devient ainsi l’objet de conflits où se croisent intérêts économiques, enjeux budgétaires et considérations politiques que les pharmaciens ne maîtrisent nullement.
Dans ce contexte complexe et perturbé, les pharmacies apparaissent donc comme des victimes collatérales de la politique du médicament, et ce, d’un triple point de vue.
1. Des marges sous pression
Leur modèle économique est extrêmement encadré. Les marges sur les médicaments remboursables sont fixées par décision politique, non par une libre concurrence. Les baisses décidées par le Ceps se répercutent immédiatement sur la trésorerie des pharmaciens.
2. Une difficile gestion des pénuries
À cette contrainte financière s’ajoute la multiplication des ruptures de stock. Les pénuries ont été multipliées par 30 en dix ans, au point de devenir un phénomène structurel, selon la feuille de route ministérielle 2024–2027.
En 2023, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) recensait près de 5 000 ruptures de stock ou risques de rupture, soit un tiers de plus qu’en 2022 et six fois plus qu’en 2018.
À chaque fois, les pharmaciens sont contraints d’expliquer aux patients pourquoi certains produits sont indisponibles, et doivent improviser dans l’urgence en ayant parfois à gérer des situations psychologiquement difficiles. Une mission chronophage, source de frustration voire d’agressivité de la part de leurs patients-clients.
3. Une diversification insuffisante
Pour compenser ce manque à gagner, les pharmacies ont développé de nouvelles activités : vaccination, tests, conseils en prévention, vente de parapharmacie. Mais ces relais de croissance ne suffisent pas à stabiliser un modèle économique fragilisé par la régulation.
En France, en effet, le réseau officinal se délite d’année en année : au 1ᵉʳ janvier 2025, on comptait 20 242 pharmacies, soit 260 de moins qu’en 2024 et 1 349 de moins qu’en 2015. En une décennie, plus de 6 % des officines ont disparu…
Les territoires ruraux, déjà fragilisés par un ample phénomène de désertification médicale, sont les plus touchés. Faute de repreneur, de nombreuses officines ferment, accentuant les inégalités d’accès aux soins. Dans certains villages, la pharmacie peut souvent représenter le dernier service de santé disponible. Comme le bureau de poste ou l’épicerie locale, la fermeture d’une pharmacie est aussi un lieu de vie sociale qui disparaît.
La pharmacie n’est pas un commerce comme les autres. Elle incarne un service de santé de proximité, accessible (car encore sans rendez-vous) présent dans de nombreux quartiers. Et c’est précisément cette valeur symbolique et sociale qui rend le débat explosif.
Chaque ajustement tarifaire est scruté par les syndicats, repris par les médias et discuté au Parlement. La récente décision du gouvernement de réduire le taux de remboursement des médicaments courants de 65 % à 60 % a suscité une vive inquiétude. Derrière ces chiffres, ce sont à la fois les patients (qui voient leur reste à charge augmenter) et les officines (qui anticipent une nouvelle pression sur leurs marges) qui sont concernés.
En 2024, la marge brute moyenne est passée sous les 30 % du chiffre d’affaires, un seuil historiquement bas, alors même qu’elle se situait encore à 32 % quelques années plus tôt. Si le chiffre d’affaires moyen des officines s’est élevé à plus de 2,5 millions d’euros, en hausse de 5 % par rapport à 2023, cette progression a surtout été portée par des médicaments coûteux à faible marge, représentant déjà 42 % des ventes remboursables. Dans le même temps, les charges ont bondi de près de 12 %.
Une enquête syndicale affirme que 75 % des pharmacies ont vu leurs disponibilités baisser en 2024, et qu’une sur cinq fonctionne désormais en déficit de trésorerie. Selon Philippe Besset, président de la Fédération des syndicats pharmaceutiques de France (FSPF), « les officines ne peuvent pas survivre si les pouvoirs publics continuent de rogner [les] marges [de celles-ci] tout en [leur] confiant de nouvelles missions ».
En mai 2024, les pharmaciens ont décidé de faire entendre leur voix. Près de 90 % des pharmacies (de France hexagonale et ultramarine, ndlr) ont baissé le rideau le temps d’une journée, dans une mobilisation massive et inédite destinée à alerter les pouvoirs publics sur la dégradation de leurs conditions économiques.
Leur message était clair : dénoncer des marges insuffisantes, une explosion des charges et une gestion des pénuries devenue insupportable. Au-delà, s’exprimait aussi la peur d’une dérégulation accrue – via la vente en ligne ou l’arrivée de nouveaux acteurs de la distribution.
Plusieurs collectifs de pharmaciens ont exprimé l’idée de ne pas être relégués au rang de simples intermédiaires, mais bien d’être reconnus comme des acteurs de santé publique indispensables et spécifiques. Plusieurs actions ont été menées l’été dernier qui ont fait suite à la première mobilisation professionnelle inédite de 2024. À l’initiative de l’appel de l’Union des syndicats de pharmaciens d’officine (USPO) du 23 juin 2025, trois actions majeures ont été entreprises :
une manifestation devant le ministère de la santé, le 1er juillet 2025 ;
la fermeture des officines relayée par une campagne médiatique massive le 16 août dernier ;
une manifestation d’ampleur menée le 18 septembre au cours de laquelle 75 % des officines ont été fermées et 52 cortèges organisés, rassemblant 15 000 manifestants sur tout le territoire.
Grâce à cette mobilisation professionnelle sans précédent, les pharmaciens ont remporté une victoire symbolique importante. Le premier ministre d’alors, François Bayrou, a choisi de les écouter et a suspendu, pour un minimum de trois mois, l’arrêté sur le plafond des remises génériques, malgré l’opposition de Bercy.
Les officines françaises incarnent à elles seules le dilemme du système de santé national : concilier innovation pharmaceutique, maîtrise des dépenses publiques et équité d’accès aux soins. Elles sont à la fois le dernier commerce de proximité dans bien des territoires et le révélateur des contradictions d’une politique du médicament soumise à de multiples pressions, parfois contradictoires.
Leur fragilité croissante – marges érodées, fermetures multipliées en zone rurale, gestion quotidienne des pénuries – n’est pas une question marginale, mais un enjeu politique et social majeur. Comme l’a montré la mobilisation historique de mai 2024 et de l’été 2025, les pharmaciens refusent d’être réduits à de simples distributeurs. Leur avenir dépend désormais de la capacité des pouvoirs publics à inventer un compromis durable entre logiques économiques et exigences de santé publique.
On peut donc, à bon escient, se poser la question de savoir si la survie des officines n’est pas devenue le véritable baromètre de la santé démocratique de notre système de soins.
Frédéric Jallat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:30
Darius von Guttner Sporzynski, Historian, Australian Catholic University
Née dans l’Empire byzantin, adoptée en Italie puis diffusée en Europe grâce à des mariages royaux et à l’influence de grandes reines, comme Bonne Sforza (1494-1557) ou Catherine de Médicis (1519-1589), la fourchette est devenue au fil des siècles un symbole de propreté, de civilité et de raffinement.
Aujourd’hui, on prend à peine conscience de saisir une fourchette. Elle fait partie d’un service de couverts standard, aussi indispensable que l’assiette elle-même. Mais il n’y a pas si longtemps, cet ustensile désormais bien banal était accueilli avec méfiance et moquerie, allant jusqu’à causer un scandale.
Il a fallu des siècles, des mariages royaux et une pointe de rébellion culturelle pour que la fourchette passe des cuisines de Constantinople (l’actuelle Istanbul) aux tables d’Europe.
Les premières versions de la fourchette ont été retrouvées dans la Chine de l’âge du bronze et dans l’Égypte antique, bien qu’elles aient probablement servi surtout à la cuisson et au service des aliments. Les Romains disposaient de fourchettes élégantes en bronze et en argent, mais là encore principalement pour la préparation des repas.
Manger avec une fourchette – surtout une petite fourchette personnelle – restait rare. Au Xe siècle, les élites byzantines l’utilisaient librement, choquant leurs invités venus d’Europe occidentale. Et vers le XIe siècle, la fourchette de table commença à faire son apparition lors des repas à travers l’Empire byzantin.
En 1004, Maria Argyropoulina (985–1007), sœur de l’empereur Romanos III Argyros, épousa le fils du Doge de Venise et provoqua un scandale en refusant de manger avec ses doigts. Elle se servait d’une fourchette en or. Plus tard, le théologien Pierre Damien (1007–1072) déclara que la vanité de Maria, qui utilisait des « fourchettes en métal artificiel » au lieu des doigts donnés par Dieu, avait provoqué le châtiment divin de sa mort prématurée, survenue dans sa vingtaine.
Pourtant, au XIVe siècle, la fourchette était devenue courante en Italie, en partie grâce à l’essor des pâtes. Il était beaucoup plus facile de manger des filaments glissants avec un instrument à dents qu’avec une cuillère ou un couteau. L’étiquette italienne adopta rapidement la fourchette, surtout parmi les riches marchands. Et c’est par cette classe aisée que la fourchette fut introduite dans le reste de l’Europe au XVIe siècle, grâce à deux femmes.
Née dans les puissantes familles Sforza de Milan et d’Aragon de Naples, Bonne Sforza (1494–1557) grandit dans un monde où les fourchettes étaient utilisées et, mieux encore, à la mode. Sa famille était rompue aux raffinements de l’Italie de la Renaissance : l’étiquette de cour, le mécénat artistique, l’habillement ostentatoire pour hommes et femmes, et les repas élégants.
Lorsqu’elle épousa Sigismond Iᵉʳ, roi de Pologne et grand-duc de Lituanie en 1518, devenant reine, elle arriva dans une région où les usages à table étaient différents. L’usage des fourchettes y était largement inconnu.
Dans les cours de Lituanie et de Pologne, l’usage des couverts restait limité. Cuillères et couteaux servaient pour les soupes, les ragoûts et la découpe de la viande, mais la plupart des aliments étaient consommés avec les mains, aidés de pain ou de « tranchoirs » – de grosses tranches de pain rassis servant à absorber les jus des plats.
Cette méthode, à la fois économique et profondément ancrée dans les traditions culinaires de la noblesse, reflétait une étiquette sociale où les plats communs et le repas partagé étaient la norme. La cour de Bonne introduisit les manières italiennes dans la région, apportant davantage de légumes, du vin italien et, surtout, la fourchette de table.
Si son usage était probablement limité au départ aux occasions formelles ou aux cérémonies de cour, il fit forte impression. Au fil du temps, et surtout à partir du XVIIe siècle, la fourchette se généralisa parmi la noblesse de Lituanie et de Pologne.
Catherine de Médicis (1519–1589) naquit au sein de la puissante famille florentine des Médicis, nièce du pape Clément VII. En 1533, à l’âge de 14 ans, elle épousa le futur Henri II de France dans le cadre d’une alliance politique entre la France et la papauté, quittant ainsi l’Italie pour rejoindre la cour de France.
Catherine de Médicis introduisit les fourchettes en argent et les usages culinaires italiens à la cour.
Comme pour Bonne Sforza, ces nouveautés faisaient partie de son trousseau. Elle arriva d’Italie avec des cuisiniers, des pâtissiers, des parfumeurs, mais aussi des artichauts, des truffes et une vaisselle raffinée. Son sens culinaire contribua à transformer les repas de cour en véritables spectacles.
Si la légende a sans doute amplifié son influence, de nombreux plats aujourd’hui considérés comme emblématiques de la cuisine française trouvent en réalité leur origine dans sa table italienne : la soupe à l’oignon, le canard à l’orange ou encore le sorbet.
Voyageur insatiable, Thomas Coryate (1577–1617) rapporta au début du XVIIe siècle des récits d’Italiens utilisant des fourchettes, une pratique qui paraissait encore ridiculement affectée dans son pays.
En Angleterre, l’usage de la fourchette au début du XVIIe siècle passait pour un signe de prétention. Même au XVIIIe siècle, on considérait qu’il était plus viril et plus honnête de manger avec un couteau et les doigts.
Mais à travers l’Europe, le changement était en marche. La fourchette commença à être perçue non seulement comme un ustensile pratique, mais aussi comme un symbole de propreté et de raffinement.
En France, elle devint un reflet de la civilité de cour. En Allemagne, les fourchettes spécialisées se multiplièrent aux XVIIIe et XIXe siècles : pour le pain, les cornichons, la glace ou le poisson.
En Angleterre, son usage finit par devenir un marqueur social : la « bonne façon » de la tenir distinguait les gens polis des malappris.
Avec l’essor de la production de masse au XIXe siècle, l’acier rendit les couverts abordables et la fourchette devint omniprésente. À cette époque, le débat ne portait plus sur la question d’en utiliser une, mais sur la manière correcte de s’en servir. Les manuels de savoir-vivre dictaient désormais les règles : pas question de ramasser les aliments comme avec une cuillère, ni de les piquer sauvagement, et toujours tenir la fourchette dents vers le bas.
Il fallut des scandales, des toquades royales et des siècles de résistance pour que la fourchette s’impose à table. Aujourd’hui, il est presque impossible d’imaginer manger sans elle.
Darius von Guttner Sporzynski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:30
Anne Parizot, Professeur des universités en sciences de l'information et de la communication émérite, Université Bourgogne Europe
Une tablette de chocolat artisanal, née à Dubaï et popularisée sur TikTok, est devenue en quelques mois un phénomène mondial. Entre marketing viral, copies industrielles, le « chocolat de Dubaï » illustre les tensions contemporaines entre authenticité, imitation et contrefaçon dans l’alimentation mondialisée. Plus encore qu’un produit, c’est un nom qui fait vendre.
Chocolat de Dubaï ? Si vous n’en n’avez jamais entendu parler, peut-être n’êtes-vous ni gourmand ni accro aux réseaux sociaux. Pourtant, il fait le buzz depuis 2024.
Le « Dubai chocolate », créé par l’entrepreneuse anglo-égyptienne Sarah Hamouda, associe chocolat au lait, crème pistache-tahini et cheveux d’ange (kadayif). Ce qui frappe : son goût, sa texture onctueuse et croustillante, mais surtout la rapidité avec laquelle il s’est imposé comme un symbole culinaire de Dubaï. Baptisé « Can’t get knafeh of It » signifiant « On ne peut plus s’en passer », il a explosé en popularité après une vidéo TikTok devenue virale, de Maria Vehera (2023).
Sur les réseaux sociaux, le chocolat de Dubaï est conçu comme un spectacle visuel relevant du « food porn ». Gros plans, ralentis et zooms exaltent textures, couleurs et gestes rituels : ouverture de l’emballage, cassure de la tablette, coulants et craquants. L’esthétisation extrême transforme la dégustation en scène sensuelle, associée à l’exotisme d’une expérience rare, presque interdite.
Face à l’engouement de ce produit à l’origine artisanal, les marques se sont emparées du concept : en France, Lindt, la célèbre marque de chocolat suisse, Lidl propose sa propre version à prix bas, relayée sur TikTok ou Jeff de Bruges développe des déclinaisons de la tablette classique.
Une trajectoire typique : un produit culinaire innovant, viral et artisanal bascule vers une industrialisation massive, avec ses imitations et risques de contrefaçon. Si certains s’attachent à ces saveurs, d’autres ont senti un autre goût. « Ça a le goût de l’argent », a plaisanté le présentateur Al Roker dans l’émission « Today » après l’avoir goûté en direct. Plaisantait-il vraiment ?
L’importance des mots du chocolat a été soulignée par les chercheurs Laurent Gautier, Angelica Leticia Cahuana Velasteguí et Olivier Méric, et ici c’est le nom de ce chocolat qui suscite le débat. « Chocolat de Dubaï » peut laisser croire que les tablettes sont produites aux Émirats. Or, beaucoup viennent en réalité de Turquie ou d’Europe et peuvent donc induire le consommateur en erreur.
La justice allemande a rendu deux jugements contradictoires. À Cologne, l’appellation « Dubai Chocolate » sur des tablettes turques a été jugée trompeuse. À Francfort, au contraire, les juges ont estimé qu’il renvoyait à une recette culinaire plus qu’à une origine géographique. En France, le Code de la consommation est clair : une pratique commerciale trompeuse est interdite si l’emballage suggère une origine fausse ou ambiguë. Pour éviter ce risque, certaines marques comme Lindt utilisent la formule prudente « Dubaï Style ».
Le buzz a engendré une économie parallèle avec des versions contrefaites ; les douanes autrichiennes saisissent plus de 2 500 tablettes lors de contrôles frontaliers. Ces copies exposent les consommateurs à des risques sanitaires que souligne la revue UFC-Que choisir. Le succès du produit repose plus sur le marketing viral des réseaux sociaux que sur ses qualités gustatives.
Au-delà des saveurs, c’est le nom qui alimente le succès – et parfois la confusion. « Dubaï » agit comme une marque imaginaire, synonyme de luxe, de prestige et d’exotisme. Le produit original mise sur un storytelling sophistiqué : mélange gourmand, raffiné, savoir-faire, texture fondante, masse de cacao… Chocolat Dubaï c’est partager un peu de la magie de Dubaï, une saveur nouvelle, expérience gustative.
Trois formulations circulent aujourd’hui, porteuses d’un sens implicite différent. Le jeu sur les prépositions et sur les adjectifs est au cœur du storytelling culinaire. Comme l’a montré le sémiologue Roland Barthes, la nourriture est aussi un discours.
« Dubaï » fonctionne comme une marque imaginaire :
« Chocolat de Dubaï » : la préposition « de » suggère une origine géographique et une authenticité. Comme pour « vin de Bordeaux », le consommateur attend un produit provenant effectivement des Émirats. Cette formulation pose des problèmes juridiques lorsque le chocolat est fabriqué ailleurs. Les marques doivent donc être déposées pour être protégées et l’indication géographique (IG) est essentielle.
« Chocolat Dubaï » (sans préposition) fonctionne comme un raccourci puissant associant un toponyme immédiatement reconnaissable à une catégorie universelle – chocolat. Le nom n’est pas une marque déposée, mais un surnom collectif, facile à retenir et à partager. On est dans l’onomastique – ou étude des noms propres – marketing, où la référence territoriale glisse vers l’imaginaire. La juxtaposition franco-anglaise – « Dubai chocolate » ↔ « Chocolat Dubaï » – crée un effet de résonance interlinguistique qui facilite la viralité.
« Chocolat Dubaï Style » insiste sur l’inspiration culinaire sans revendiquer l’origine. D’un point de vue linguistique, l’ajout de « style » signale l’inspiration culinaire et protège le fabricant du risque de tromperie, en signalant une imitation assumée. Mais le consommateur en est-il toujours conscient ?
Ces variations linguistiques révèlent un glissement métonymique : de la référence au lieu réel à un imaginaire global du luxe et de l’excès.
L’onomastique alimentaire, ou étude des noms propres devient un instrument de storytelling, mais aussi un champ de bataille juridique et économique. Une entreprise joue clairement sur le nom sur un registre humoristique : la marque française Klaus et son « Doubs by Chocolate » détourne l’imaginaire du Golfe pour l’ancrer dans le terroir du Haut-Doubs.
L’entreprise franc-comtoise a bien compris le rôle essentiel de l’onomastique. Ce « Doubs by Chocolate » surfe sur la vague, mais le nom identifie clairement le chocolat comme un produit régional. L’origine signalée ne crée pas de risque juridique, tout en conservant une homophonie parfaite avec le fameux « Dubai chocolate ». En référence directe à Dubaï et à l’imaginaire idyllique de luxe et de volupté, avec toutes les précautions prises pour qu’il n’y ait pas mégarde, l’entreprise Klaus met en place un marketing déroutant évoquant le décalage.
Traditionnellement, les produits alimentaires deviennent patrimoine à travers le temps, consolidés par des générations d’usage, protégés par des labels (AOP, IGP). Le Dubai chocolate inverse la logique. Son patrimoine n’est pas hérité, mais produit par la viralité. Les millions de vues et de partages jouent le rôle de validation. Ce n’est pas l’État ni l’Unesco qui consacrent le produit, mais l’algorithme et les réseaux sociaux. Ce phénomène illustre une tendance nouvelle : la patrimonialisation accélérée.
Autre singularité : le Dubai chocolate n’est pas lié à un terroir rural, comme le vin de Bordeaux. Il est rattaché à une « ville-monde ». Il devient l’équivalent culinaire d’un gratte-ciel ou d’un centre commercial : un symbole urbain. Cette urbanisation du patrimoine alimentaire montre que les métropoles ne sont plus seulement consommatrices de traditions, mais aussi créatrices d’icônes gastronomiques.
Mais peut-on parler de patrimoine pour un produit si récent ?
Oui, si l’on considère le patrimoine comme un ensemble de signes partagés et valorisés par une communauté. Dans ce cas, TikTok joue le rôle de confrérie culinaire mondiale. Mais ce patrimoine est fragile. Ce qui est consacré par la viralité peut être supplanté demain par une nouvelle mode.
Le chocolat de Dubaï illustre parfaitement les dilemmes contemporains : entre innovation culinaire et marketing viral, entre authenticité et imitation, entre inspiration et contrefaçon.
Anne Parizot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 14:16
María del Valle Varo García, Research assistant professor, Universidad de Deusto
Le cerveau a ses propres règles, tout comme notre façon d’apprendre et de mémoriser. Les réseaux neuronaux sont plus actifs quand on écrit à la main que quand on tape au clavier, et les pauses réelles aident à consolider les connaissances.
Arrêtons-nous un instant et observons le doux flux de ces mots sous nos yeux, ce va-et-vient silencieux et la voix qui les lit dans notre tête. Combien d’entre eux resteront gravés dans votre mémoire dans cinq minutes ? Et combien resteront, sans effort, dans notre mémoire demain ? La question n’est pas anodine. Nous vivons à une époque où la vitesse domine notre façon d’apprendre et, paradoxalement, aussi d’oublier.
Tous les mots ne sont pas traités au même rythme. Vous avez peut-être entendu dire qu’une personne peut lire entre 200 et 300 mots par minute, en écouter environ 150 ou en lire encore moins au toucher en braille. Mais cette vitesse n’est pas synonyme de compréhension : en fait, au-delà de 500 mots par minute, l’assimilation chute de manière drastique. Et ce qui est absorbé est-il vraiment conservé ? Pas nécessairement. Dévorer avidement des mots n’est pas la même chose que s’imprégner de leur essence.
Pour que les mots prennent tout leur sens et se transforment en idées ou en concepts durables, ils doivent d’abord traverser l’espace fragile et éphémère de la mémoire opérationnelle, également appelée mémoire à court terme, chargée de maintenir l’information active pendant que le cerveau la traite. Mais cela ne suffit pas.
Pour que ce qui est retenu se stabilise, l’information doit être stockée dans un type de mémoire sémantique, affective, spatiale ou temporelle. Se souvenir de vacances implique une mémoire épisodique, teintée d’émotion et de lieu ; en revanche, savoir que la capitale de l’Italie est Rome renvoie à une mémoire sémantique, dépourvue de contexte personnel.
Il est difficile aujourd’hui de trouver un espace où le clavier n’a pas presque entièrement remplacé l’encre ou le graphite. Cependant, il convient de rappeler que l’écriture manuscrite reste un outil puissant pour le développement cognitif : écrire à la main active un réseau plus large de régions cérébrales (motrices, sensorielles, affectives et cognitives) que la dactylographie. Cette dernière, plus efficace en termes de vitesse, exige moins de ressources neuronales et favorise une participation passive de la mémoire de travail.
En revanche, l’utilisation active de la mémoire à court terme (à l’aide d’outils non numériques) s’avère plus bénéfique tant en classe que dans les contextes cliniques liés à la détérioration cognitive.
Le rythme et les pauses sont également déterminants dans ce passage de la mémoire de travail à la mémoire à long terme. Les pauses actives, ces brefs moments où nous interrompons notre étude pour nous étirer, marcher ou contempler quelque chose sans but immédiat, permettent au cerveau de réorganiser ce qui a été appris et de le consolider plus solidement.
Cependant, aujourd’hui, ces pauses sont souvent associées à des activités impliquant l’utilisation d’écrans : téléphones portables, télévision, tablettes. Si l’on pouvait faire une comparaison avec l’exercice physique, on pourrait s’imaginer dans une salle de sport où l’on court à 12 km/h pendant les pauses entre les séries. Il se passe quelque chose de très similaire lorsque nous utilisons nos pauses pour regarder des vidéos rapides, lire des titres ou naviguer sans but sur les réseaux sociaux : l’esprit ne se repose pas, ne se consolide pas, et l’attention se fragmente.
Les neurosciences soulignent également le rôle crucial du sommeil dans la consolidation de la mémoire. Pendant le sommeil à ondes lentes, le cerveau entre dans un état de synchronisation neuronale caractérisé par la prédominance des ondes delta (0,5-4 Hz), qui favorisent la réactivation des traces mnésiques – traces qui restent dans l’esprit après une expérience et qui servent de base à la mémoire et à la possibilité de se souvenir.
Ces oscillations lentes créent un environnement à faible interférence sensorielle qui facilite le dialogue entre l’hippocampe et le néocortex. On a notamment observé que les ondes thêta (4-8 Hz), plus fréquentes pendant la phase REM (Rapid Eye Movement) et également présentes dans les phases NREM (Non-Rapid Eye Movement) légères, interviennent dans ce transfert. Plus précisément, elles permettent le passage des souvenirs de leur stockage temporaire dans l’hippocampe vers les régions corticales de stockage à long terme.
De même, les fuseaux du sommeil, brefs schémas d’activité cérébrale qui se produisent pendant le sommeil léger, générés principalement par le thalamus, sont associés au renforcement des connexions neuronales pertinentes.
Diverses études utilisant la polysomnographie et la neuro-imagerie ont montré des corrélations entre la densité de ces fuseaux de sommeil et les performances dans les tâches de mémoire épisodique.
Il a été suggéré que ces oscillations agissent comme une sorte de « marqueur de pertinence » qui sélectionne les informations méritant d’être consolidées.
Ainsi, pendant notre sommeil, le cerveau exécute automatiquement un processus de réorganisation et de renforcement de la mémoire. Il donne la priorité à ce qui est significatif et élimine ce qui est non pertinent. Ce n’est pas un hasard si, au réveil, une mélodie ou une phrase apparemment insignifiante nous revient sans effort à l’esprit : ce sont les échos de ce travail nocturne minutieux qui écrit la mémoire.
Comprendre comment nous apprenons nous révèle également comment nous devrions vivre. Il ne s’agit pas seulement de réduire l’utilisation des écrans, mais aussi de retrouver un rythme plus humain. Écrire à la main aide à activer les réseaux neuronaux en profondeur ; pensons, par exemple, aux notes prises en classe et à la façon dont, en les relisant, les idées resurgissent plus clairement.
D’autre part, il est recommandé de reprendre l’habitude de faire de véritables pauses, loin des appareils : observer le vol d’un oiseau, sentir sa respiration, étirer son corps.
Il est également utile de renforcer ce que l’on a appris par de brefs exercices de récupération active.
De plus, il ne faut pas sous-estimer le rôle du sommeil profond : c’est là que la mémoire mûrit et fixe ce qui a été appris. Ce n’est que lorsque nous lui accordons le temps nécessaire pour se reposer et assimiler que la connaissance s’enracine véritablement. Ainsi, les mots qu’il lit aujourd’hui pourront devenir des souvenirs vivants, capables de l’accompagner au-delà des cinq prochaines minutes, peut-être même toute sa vie.
María del Valle Varo García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 10:23
Marie-France Dignac, Directrice de recherches sur la biologie des sols, INRAE, Inrae
Jean-François Ghiglione, Directeur de recherche, Ecotoxicologue, Centre national de la recherche scientifique (CNRS)
Issus à 99 % du pétrole, les plastiques alimentent la crise écologique et climatique tout au long de leur cycle de vie. Derrière l’image trop familière des déchets qui polluent les rivières puis les océans, la production et le recyclage des plastiques sont aussi source d’émissions considérables de gaz à effet de serre, de quoi compromettre les efforts mondiaux de réduction des émissions. Surtout, les plastiques, un débouché du pétrole, entretiennent la dépendance de l’économie aux énergies fossiles. Le risque serait qu’ils deviennent la planche de salut des industriels de la pétrochimie à l’occasion de la COP30 sur le climat, qui se déroulera du 10 au 21 novembre 2025, à Belem, au Brésil.
À partir du 10 novembre 2025, la COP30 sur le climat réunira les États membres de l’Organisation des Nations unies (ONU) au cœur de la forêt amazonienne, au Brésil. Il s’agit d’un rendez-vous majeur du multilatéralisme, où l’on espère que les ambitions régulièrement formulées par les États vont enfin se concrétiser.
Le contexte international n’est pas forcément au beau fixe pour cela. Face à des pays qui nient la science, ou qui se soucient peu de l’environnement et de la santé humaine et refusent de comprendre que leurs propres économies en paieront le prix à long terme, les pays engagés dans la transition vers une économie moins polluante et moins dépendante des énergies fossiles peinent à se faire entendre. Les négociations en vue d’un traité contre la pollution plastique, qui n'ont toujours pas abouti à un texte, en fournissent un exemple éloquent.
Les preuves scientifiques sont pourtant très claires quant aux impacts de la production de plastiques sur la perte de biodiversité et la pollution à l’échelle planétaire. D’autant plus que ces impacts sont en réalité bien plus larges : les plastiques impactent la santé humaine et exacerbent le dépassement de toutes les autres limites planétaires. En cela, ils aggravent la crise écologique et climatique déjà en cours.
À lire aussi : Jusqu’à quand pourrons-nous dépasser les limites planétaires ?
L’impact climatique du secteur de la pétrochimie est moins souvent mis en avant que celui des secteurs de l’énergie et des transports, plus proches des consommateurs. Il fait pourtant figure d’éléphant dans la pièce : entre 4 et 8 % de la production de pétrole est aujourd’hui utilisée pour fabriquer des produits plastique. Près de 99 % de ces produits sont fabriqués à partir de pétrole.
Depuis l’extraction et le transport des combustibles fossiles, jusqu’à la fabrication, l’utilisation et l’élimination des plastiques, ces matériaux génèrent des émissions qui contribuent au réchauffement climatique. Les plastiques sont ainsi directement responsables de 3,5 % des émissions globales de gaz à effet de serre, dont la plupart sont générées lors de leur production.
Le recyclage des plastiques, souvent mis en avant par ces industriels, n’a rien d’une solution miracle. Toutes les technologies de traitement des déchets plastiques sont émettrices de gaz à effet de serre :
leur incinération libère le carbone qui les constitue sous forme de CO2,
leur mise en décharge entraîne des émissions de méthane (Bauer et coll., 2022)
de façon générale, recycler les plastiques nécessite de grandes quantités d’énergie.
Dans un scénario de statu quo, si la production et l’utilisation de plastiques continuent d’augmenter au rythme actuel (soit un doublement de la quantité de plastiques produits tous les 20 ans), les émissions de gaz à effet de serre provenant des plastiques pourraient représenter de 10 à 13 % du budget carbone total (c’est-à-dire, la quantité de gaz à effet de serre que l’on peut encore se permettre d’émettre tout en restant sous la barre d’une hausse de +1,5 °C à l’horizon 2050).
Et encore, les chiffres qui précèdent ne tiennent pas compte du fait que les plastiques participent directement à la mondialisation de l’économie. Ils permettent de transporter les biens et denrées sur de très longues distances et de ce fait favorisent une économie basée sur une production loin des zones de consommation, fortement émettrice de gaz à effet de serre.
La pollution plastique se retrouve dans les rivières, les océans ou sur terre, sous différentes tailles (macro, micro ou nanoplastiques), et peut persister pendant des siècles. Selon l’OCDE, environ 22 % des déchets plastiques finissent dans l’environnement, dont une grande partie dans l’océan, nuisant à la vie marine.
Les aliments, l’eau et l’air sont ainsi contaminés et les microplastiques finissent, à travers la chaîne alimentaire, également dans notre corps. Les preuves scientifiques de l’impact des plastiques sur la santé humaine sont de plus en plus solides.
Mais ce n’est pas tout. Les plastiques agissent également indirectement sur le réchauffement climatique. En effet, les débris plastiques en mer modifient les cycles du carbone et des nutriments. En agissant sur les processus microbiens, ils diminuent la productivité en nutriments à la surface de l’océan. Résultat : les « pompes à carbone » de l’océan, qui ont permis de piéger environ 31 % des émissions anthropiques de CO2 entre 1994 et 2007, fonctionnent moins bien.
Par ailleurs, une méta-analyse récente a montré que la présence de microplastiques dans l’eau ou dans les sols pourrait diminuer la photosynthèse, et donc limiter la production de biomasse carbonée. Avec des impacts sur la sécurité alimentaire, mais aussi sur les puits de carbone naturels et le climat.
À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?
Reconnaissant tous ces dangers des plastiques pour la santé humaine et la santé de l’environnement, un comité intergouvernemental de négociation (CIN) a été créé en mars 2022 afin d’élaborer un instrument international juridiquement contraignant pour mettre fin à la pollution plastique dans tous les environnements. Et ceci, en tenant compte de l’ensemble du cycle de vie des plastiques.
La deuxième partie de la cinquième réunion de ce comité (CIN-5.2) s’est tenue à Genève, du 5 au 14 août 2025. Les négociations étaient basées sur le projet de texte du président du CIN proposé à la fin de la première partie du CIN-5 à Busan, en 2024.
Plusieurs éléments de ce projet de texte peuvent avoir une réelle efficacité pour mettre fin à la pollution plastique. Il s’agit notamment :
de réduire la production de plastique (article 6),
d’interdire les produits plastique et les substances chimiques dangereuses pour les humains ou pour l’environnement (article 3),
de concevoir des produits en plastique moins polluants (article 5),
de limiter les fuites vers l’environnement (article 7)
et enfin de protéger la santé humaine (article 19).
Mais de nombreux pays font pression pour que ces mesures soient rejetées : les mêmes désaccords politiques qui avaient bloqué les négociations précédentes se sont reproduits à Genève.
Presque tous les plastiques sont fabriqués à partir de combustibles fossiles, c’est pourquoi les pays qui refusent de prendre des mesures ambitieuses – notamment l’Arabie saoudite, la Russie et l’Iran – sont essentiellement des pays producteurs de pétrole ou dotés d’industries pétrochimiques puissantes.
Les intérêts économiques en jeu sont donc importants. Ce groupe de pays partage les mêmes idées – nommé pour cela le « like-minded group » – et refuse d’inclure de tels objectifs. Ils privilégient un accord visant à gérer les déchets, sans réduire leur production.
À lire aussi : Comment échapper à la malédiction de la rente fossile ?
Mais ce faisant, ils dénigrent tous les modèles scientifiques sur l’évolution de la pollution plastique, qui montrent qu’il est nécessaire de réduire la quantité de plastique produite chaque année afin de réduire la pollution par les plastiques tout au long de leur cycle de vie. On a également pu noter la forte présence des lobbies des entreprises pétrolières et des fabricants de plastiques, qui ne cesse d’augmenter au fil des négociations.
Le manque de consensus à la fin des négociations du CIN-5.2 peut être vu comme un échec des négociations.
Toutefois, le rejet massif du texte faible proposé le 13 août a aussi montré qu’une grande majorité de pays ne sont pas prêts à accepter un traité vidé de sa substance.
De nombreux pays ont souligné que ce texte ne permettrait pas d’atteindre les objectifs pourtant fixés dans le mandat à l’origine de ces négociations, et ont appelé à des mesures ambitieuses en accord avec la science, notamment une réduction de la production de plastique et une régulation des produits et substances chimiques dangereux, pour protéger la santé humaine et de l’environnement. La majorité des pays s’est aussi déclarée favorable à la poursuite des discussions.
Le multilatéralisme a montré à Genève la capacité des pays à construire une coalition forte et ambitieuse, rassemblant près de 120 pays (les 75 pays de la Coalition de haute ambition (HAC) et leurs alliés) et basant ses positions sur les faits scientifiques.
Espérons que ces avancées se concrétisent avec la poursuite des discussions sur le traité contre la pollution plastique, et qu’elles soient prises en compte dans les négociations climatiques lors de la COP30. La production de plastique ne doit pas menacer les efforts réalisés par les États pour limiter le recours aux énergies fossiles dans les autres secteurs.
Comme il a été reconnu lors des dernières COP sur le climat, notamment la COP28 en 2023, le monde doit s’organiser pour sortir progressivement des énergies fossiles.
D’importants efforts de recherche ont été consacrés à cette transition dans les secteurs de l’énergie et des transports, qui utilisent la majeure partie des ressources fossiles pour produire de la chaleur, de l’électricité et des carburants. Les énergies renouvelables remplacent ainsi peu à peu les produits pétroliers dans le mix électrique, ainsi que dans le secteur des transports.
D’autres secteurs, par exemple l’industrie lourde, doivent se réinventer : en effet, ils sont davantage dépendants aux produits pétroliers dans leurs processus industriels mêmes.
À cet égard, la pétrochimie souffre d’un problème de fond : elle contribue à maintenir à un niveau élevé la demande en pétrole, qui constitue un intrant de ses procédés industriels. Les produits pétrochimiques devraient ainsi représenter plus d’un tiers de la croissance de la demande mondiale de pétrole d’ici 2030, et près de la moitié de celle-ci d’ici 2050.
Les plastiques ne doivent pas devenir le radeau de secours de l’industrie pétrolière. En plus de contribuer aux émissions globales de gaz à effet de serre, ils détruisent les sols, empoisonnent les eaux et nuisent aux organismes vivants, y compris les humains. Sur les sept milliards de tonnes de déchets plastiques générés dans le monde depuis l’invention de ce matériau, moins de 10 % ont été recyclés, et cinq milliards de tonnes se sont accumulés dans la nature.
Les industriels de la pétrochimie, de l’extraction des énergies fossiles et leurs alliés cherchent une fois de plus à déplacer le problème : la production de plastiques pose un problème sanitaire, écologique, et climatique majeur. Réduire la production de plastiques constitue un levier incontournable pour maîtriser leurs impacts sur la planète.
Marie-France Dignac a reçu des financements de l'Agence de la Transition Ecologique (ADEME) et de l'Agence Nationale de la Recherche (ANR).
Jean-François Ghiglione a reçu des financements de l'Agence nationale de la recherche (ANR), de l'ADEME, de l'OFB et de l'Agence de l'eau
09.10.2025 à 10:23
Mathieu Baudrin,, Sociologue sciences et des technologies, Direction Sciences sociales, économie et société, Anses, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Baptiste Monsaingeon, Maître de conférence en sociologie, Université de Reims Champagne-Ardenne (URCA)
Bernadette Bensaude-Vincent, Philosophe, Université Paris 1 Panthéon-Sorbonne
Des serres agricoles aux bouteilles d’eau, en passant par la recette du pain de mie, le plastique a transformé en profondeur toute l’industrie agroalimentaire. Face au problème grandissant de la pollution plastique, on peut s’inspirer, à travers l’approche des « métabolismes urbains », de ce qui était fait au début du XXe siècle.
La production massive de plastiques est devenue un marqueur de la seconde moitié du XXe siècle, souvent dénommée « l’âge des plastiques ». Leur introduction dans les chaînes de valeur de l’agroalimentaire date des années 1930. Elle procédait de deux dynamiques.
La première est l’essor de l’industrie pétrolière et de l’automobile : les plastiques étant un co-produit du craquage du pétrole, les compagnies pétrochimiques recherchent activement à étendre le marché des plastiques, qui se prêtent à tous les usages comme leur nom l’indique.
La seconde est l’intensification de l’agriculture, au lendemain de la Deuxième Guerre mondiale, pour faire face à une démographie galopante.
Le recours aux matières plastiques, progressif mais massif, a profondément modifié les pratiques alimentaires et agricoles, sans parler des aliments eux-mêmes.
Aujourd’hui, les impacts sanitaires et environnementaux des plastiques, en particulier sous leur forme micro et nanoparticulaires, sont avérés. La gestion (dont notamment le recyclage) des déchets plastiques n’est pas la seule en cause : c’est bien l’existence même des plastiques qui est en jeu.
Mais les mesures de réduction ou d’interdiction de l’usage de matières plastiques dans l’industrie agroalimentaire, du champ jusqu’au domicile des consommateurs, ne sauraient être appliquées sans une réflexion globale sur les pratiques actuelles de production, de distribution et de consommation des denrées alimentaires.
L’emballage des aliments fut le premier et reste le principal usage des plastiques dans l’agroalimentaire. Il correspond à un moment historique de changement dans la façon de stocker et de transporter les aliments, notamment grâce à la réfrigération.
C’est également un moment de reconfiguration des circuits de distribution avec le développement des supermarchés. Les plastiques deviennent alors incontournables et contribuent à structurer le marché alimentaire mondial tel que nous le connaissons aujourd’hui.
En effet, les emballages permettent d’allonger la durée de conservation des aliments et, surtout, facilitent la consommation nomade d’aliments et de boissons.
Si la bouteille en verre a permis la marchandisation de l’eau en lui attribuant une marque et des qualités, c’est bien l’invention de la bouteille d’eau en polyethylene terephthalate (PET) qui, à la fin des années 1970, a répandu son usage à l’échelle mondiale.
Les plastiques modifient jusqu’aux aliments eux-mêmes. C’est le cas du pain de mie commercialisé en sachets plastiques. Dès 1937, la firme Dupont lance un projet de recherche et développement (R&D) qui débouche sur l’ajout de « mycoban », un antifongique, à la farine utilisée pour réduire le risque de moisissure.
Les plastiques ont donc profondément changé nos manières de manger et même la nature de ce que l’on mange. Ils ont favorisé les aliments transformés par une foule d’intermédiaires et contribué à creuser le fossé entre les producteurs et les consommateurs de viande ou poisson conditionnés, surgelés, ou emballés.
En amont des supermarchés, les pratiques agricoles ont, à leur tour, été transformées par les plastiques. D’abord introduits dans les années 1950 comme substituts au verre dans les serres horticoles, ils se sont généralisés depuis les années 1970 pour les cultures maraîchères sous tunnels et l’ensilage du foin.
En Europe, l’expansion des plastiques a été facilitée par la politique agricole commune (PAC). Lancée en 1962 par la Communauté économique européenne (CEE), celle-ci était au départ destinée à encourager l’agriculture intensive et productiviste.
Or, les tunnels de plastique permettent justement de cultiver et de produire des fruits ou légumes dans des terrains peu propices et d’étendre les saisons de production. Depuis, les surfaces recouvertes par des serres ou tunnels en plastique en Espagne et en France n’ont cessé d’augmenter.
Mais cette plastification de certaines cultures s’accompagne aussi de mutations socioprofessionnelles. Dans les vastes plaines recouvertes de tunnels plastifiés abritant des cultures de fraises (ou autres) à haute valeur ajoutée, on fait appel à une main-d’œuvre souvent étrangère, saisonnière et bon marché. Celle-ci travaille dans des conditions difficiles.
Les plastiques ont ainsi envahi les pratiques de production et les circuits de distribution des denrées alimentaires. Le mot « agriplastique » témoigne de l’enchevêtrement d’éléments humains, économiques et techniques, dont la dynamique tend à se renforcer avec le temps. Cela aboutit, après plusieurs décennies, à ce que nous pourrions qualifier de verrou sociotechnique.
Que faire pour se libérer de cette omniprésence des plastiques dans l’agroalimentaire ? Les plastiques étant constitutifs des chaînes de valeurs décrites, il serait naïf de penser qu’on pourrait conserver cette organisation marchande tout en éliminant les matières plastiques.
Ce constat ne doit pas pour autant pousser les décideurs à l’inaction. Il invite plutôt à une réflexion d’envergure sur une possible réorganisation des chaînes de valeur agroalimentaires. Afin d’initier cette réflexion, nous proposons de revenir sur quelques leçons de l’histoire.
Au début du XXe siècle, l’économie des flux de denrées alimentaires entre populations rurales et urbaines fonctionnait en boucles quasi fermées. Les matières rejetées par les uns étaient utilisées, par exemple sous forme d’engrais, par les autres.
Dans ce contexte, la notion même de déchets n’existe pas encore, puisque rien n’est ni mis au rebut ni traité comme déchet ultime (c’est-à-dire, un déchet qui ne peut plus être traité davantage dans les conditions technicoéconomiques du moment).
Les fèces humaines sont alors vues comme des engrais agricoles, les chiffons peuvent devenir du papier, les carcasses d’animaux de travail sont réutilisées pour fabriquer des colles et autres produits du quotidien.
À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet
La rupture de ces « métabolismes urbains », tels que décrits par Sabine Barles, correspond historiquement à l’avènement de la chimie de synthèse. Se met alors en place un complexe industriel qui produit à la fois des engrais, des produits phytopharmaceutiques et des plastiques, trois catégories de produits constitutifs des chaînes de valeurs agricoles actuelles.
Il n’est certes ni envisageable – ni même souhaitable – de reproduire à l’identique les métabolismes urbains du début du XXe siècle. Ils reposaient largement sur la mobilisation d’une main-d’œuvre nombreuse sous-payée vivant dans la misère, par exemple les chiffonniers.
En revanche, on peut retenir l’idée d’une approche systémique, globale et métabolique au lieu de se contenter de chercher un matériau de substitution aux plastiques qui soulèvera, à son tour, des difficultés similaires. Il s’agit donc de repenser, avec les acteurs concernés, l’ensemble des filières agroalimentaires pour viser la sobriété plastique.
Cet article s’appuie sur le rapport d’expertise « Plastiques utilisés en agriculture et pour l'alimentation » Inrae/CNRS, publié en mai 2025.
Baptiste Monsaingeon a reçu des financements de l'ANR pour divers projets de recherche publique liés aux déchets et aux plastiques.
Bernadette Bensaude-Vincent et Mathieu Baudrin, ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
08.10.2025 à 16:33
Nicolas Picard, Chercheur associé au centre d'histoire du XIXème siècle, Université Paris 1 Panthéon-Sorbonne
Robert Badinter entre au Panthéon ce 9 octobre. Il fut la grande figure du combat contre la peine de mort au moment de son abolition en 1981. À l’époque, 62 % des Français y étaient pourtant favorables. Quel rôle l’opinion publique a-t-elle joué dans les débats relatifs à la peine capitale au cours du XXe siècle ? Quels ont été les déterminants – notamment médiatiques – de son évolution en faveur ou contre l’abolition ?
Ce jeudi 9 octobre, Robert Badinter entre au Panthéon, en hommage à son rôle dans l’abolition de la peine de mort, et, en juin 2026, Paris accueillera le 9e Congrès mondial contre la peine de mort. Cette abolition est inscrite dans la Constitution depuis 2007, après un vote quasi unanime des parlementaires (828 pour, 26 contre). Tout concourt à en faire aujourd’hui l’une des « valeurs de la République » les plus consensuelles, enseignée dans les manuels scolaires et défendue par la diplomatie française. L’abolition n’apparaît guère menacée, y compris à l’extrême droite : les partis politiques ne font plus figurer le rétablissement de la peine capitale dans leur programme, malgré les déclarations de certaines personnalités.
Pourtant, la peine de mort a suscité des débats particulièrement vifs dans notre pays. Indépendamment des arguments philosophiques et scientifiques sur sa légitimité et sur son efficacité dissuasive, ses partisans ont longtemps pu s’appuyer sur le « sentiment public » de la population, auquel la répression pénale devait nécessairement s’accorder. Les opposants ont, à l’inverse, souligné à quel point ce sentiment était versatile, superficiel, et difficilement évaluable. La question de l’adhésion populaire à la peine capitale s’est ainsi reconfigurée à plusieurs reprises au cours du siècle dernier.
L’idée qu’une écrasante majorité de citoyens serait en faveur de la peine de mort est largement répandue au début du XXe siècle, ce qui pourtant n’allait pas de soi au XIXe. Victor Hugo, lors de son discours à l’Assemblée nationale en 1848, affirme que, lors de la révolution de février, « le peuple […] voulut brûler l’échafaud » et regrette que l’on n’ait pas été « à la hauteur de son grand cœur ».
En 1871, la guillotine est d’ailleurs effectivement incendiée par un groupe de gardes nationaux pendant la Commune. Ce sont des partis progressistes, se présentant comme des défenseurs des intérêts populaires, qui poussent le thème de l’abolition dans leurs programmes, des socialistes aux radicaux. Ces derniers mettent l’abolition à l’ordre du jour parlementaire en 1906. Le président Fallières commence alors à gracier systématiquement les condamnés à mort en attendant l’examen du projet.
L’échec des [abolitionnistes] en 1908, témoigne d’un revirement spectaculaire, dans lequel l’évocation, ou la fabrication, de l’opinion publique joue le rôle principal. En pleine crise sécuritaire, alors que la presse déborde de faits divers sanglants et s’inquiète de la menace croissante des « apaches », ces jeunes voyous des faubourgs prêts à tous les crimes, l’abolition et les grâces présidentielles sont prises pour cible. De grands titres de la presse populaire n’hésitent pas à susciter l’engagement de leurs lecteurs, selon une logique réclamiste (visant à créer un évènement destiné à attirer l’attention du plus grand nombre).
À l’occasion d’une sordide affaire de meurtre d’enfant, l’affaire Soleilland, le Petit Parisien organise un « référendum »-concours rassemblant 1 412 347 réponses, avec un résultat sans appel : 77 % sont contre l’abolition. La mobilisation « populaire » s’observe également dans les pétitions des jurys s’élevant contre l’abolition, et dans la recrudescence des condamnations capitales. Dans l’Hémicycle, les députés opposés au projet évoquent cet état d’esprit d’une population inquiète. Cette popularité de la peine de mort semble vérifiée par les « retrouvailles » enthousiastes du public avec le bourreau, lors de la quadruple exécution de Béthune (Pas-de-Calais), en 1909, qui met un terme au « moratoire » décidé par Fallières.
Ces campagnes de presse et de pétitions des jurys reflètent-elles bien l’état de l’opinion publique ? Les principaux quotidiens sont ici juges et parties, prenant fait et cause pour la peine de mort et appelant leurs lecteurs à appuyer leur démarche. Le choix de faire campagne sur ce thème est un moyen pour les patrons conservateurs de ces titres, comme Jean Dupuy, de mettre en difficulté le gouvernement Clemenceau. De même, les pétitions des jurys sont en grande partie inspirées par une magistrature traditionnellement conservatrice. Il est certain que l’« opinion publique » a été influencée, mais l’écho rencontré par ces entreprises dans la population suppose une certaine réceptivité de celle-ci. En tous les cas, cette crainte de l’opinion a suffi à modifier les positions de nombreux députés radicaux, ralliés aux « morticoles ».
La période s’étendant de l’échec abolitionniste de 1908 à l’après-Seconde Guerre mondiale, marquée par les violences de masse, n’est guère propice à une reprise du débat. La Libération et l’épuration représentent sans doute le point d’acmé dans l’adhésion de la population au principe de la mise à mort. La haine contre les collaborateurs conduit, dans les premiers mois, à des lynchages et à une sévérité extrême des tribunaux chargés de l’épuration, mais aussi des cours d’assises ordinaires.
Néanmoins, passée cette vague vindicative, la peine de mort perd rapidement du terrain (du moins en France hexagonale). Au début des années 1950, le nombre de condamnations capitales s’effondre, passant de plusieurs dizaines à quelques unités par an, des propositions de loi en faveur de l’abolition sont régulièrement déposées, à gauche comme à droite, des comités militants se forment. Surtout, les Français ne semblent plus aussi réceptifs aux campagnes de presse prônant la sévérité. Alors que le journal Combat s’engage en avril 1950 pour élargir la peine capitale aux parents dont les maltraitances ont entraîné la mort de leurs enfants, les courriers des lecteurs poussent le quotidien à réorienter son propos pour dénoncer les « causes profondes du mal » : taudis, misère et alcoolisme.
C’est à cette époque que les sondages, nouvel outil venu des États-Unis, permettent d’objectiver l’opinion publique et posent régulièrement la question de la peine de mort. La courbe du soutien à l’abolition s’élève à partir du milieu des années 1950 : de 19 % en 1956, elle passe à 58 % en 1969, à la faveur de la prospérité économique retrouvée et de la contestation croissante des valeurs autoritaires. Nombre d’intellectuels s’engagent et influencent l’opinion par leurs œuvres, qu’il s’agisse des écrivains Albert Camus ou Marcel Aymé, du cinéaste André Cayatte ou de l’avocat Albert Naud. Avec le concile Vatican II (1962-1965), la diffusion d’un christianisme plus social et réformateur permet de rallier une partie des catholiques.
C’est à partir du début des années 1970, notamment après l’affaire de Clairvaux, pour laquelle Claude Buffet et Roger Bontems sont guillotinés, après trois ans sans exécution capitale, que la peine de mort regagne des partisans : 53 % sont en sa faveur en 1972, 62 % en septembre 1981, à la veille du vote de la loi d’abolition. Cette poussée s’observe alors même que de plus en plus d’autorités religieuses, d’associations et de personnalités publiques s’engagent contre la peine de mort.
Paradoxalement, l’abolition est ainsi votée dans un contexte de remontée des préoccupations sécuritaires. Mais que valent vraiment ces sondages ? Outre les traditionnelles critiques adressées à cet outil, les abolitionnistes soulignent l’écart existant entre ces chiffres et les réticences certaines des jurés à condamner à mort. Les condamnations capitales restent en effet exceptionnelles. Comme l’affirme Robert Badinter, la véritable abolition serait déjà en large partie à l’œuvre dans les prétoires : 16 condamnations pour l’ensemble des années 1970, et « seulement » 6 exécutions, alors que le thème de l’insécurité prospère dans les médias.
L’abolition est aussi tacitement acceptée par les électeurs, qui portent au pouvoir en 1981 un homme, François Mitterrand, et une majorité politique, qui n’ont pas fait mystère de leurs intentions en la matière. Certes, la peine de mort n’a sans doute pas été le déterminant majeur du vote, mais lors de l’émission télévisée « Cartes sur table », le candidat socialiste ne s’est pas dérobé, en affirmant clairement sa position. Durant la campagne des législatives de 1981 consécutive à la dissolution, le ministre de la justice Maurice Faure présente l’abolition comme un chantier prioritaire, ce qui ne nuit en rien à l’écrasante victoire socialiste. Fort de cette onction démocratique, son successeur, Robert Badinter, a cependant conscience qu’il faut saisir le moment. L’Assemblée nationale, et de manière plus étonnante le Sénat pourtant acquis à la droite, votent l’abolition à la fin du mois de septembre 1981.
Il faudra attendre 1998 pour voir, dans les sondages, la courbe du soutien à la peine de mort croiser celle du soutien à l’abolition. Dans le même temps, cependant, le thème du rétablissement de la peine capitale ne fait plus recette chez les parlementaires, malgré le dépôt de quelques propositions de loi. Sur le long terme, les bénéfices politiques d’une prise de position abolitionniste semblent largement l’emporter sur un engagement inverse. Les associations abolitionnistes mobilisent bien davantage et sont plus structurées que les partisans de la peine de mort. Ce paradoxe est-il la preuve de la superficialité de l’adhésion à la peine capitale, voire de la dissonance cognitive de citoyens qui affirment la soutenir mais qui admirent les responsables qui s’y opposent ?
Dans les dernières enquêtes, le soutien à la peine capitale progresse, passant d’un minimum de 32 % en 2009 à 49 % lors de la dernière mesure de ce type, en février 2025. Comparer les sondages de 1981, alors que des exécutions étaient encore possibles, et ceux de 2025, alors que la peine de mort s’enfonce dans un passé de plus en plus lointain et que la probabilité d’un rétablissement apparaît illusoire, n’a cependant guère de sens. On peut y voir surtout un corollaire du succès actuel des thèses sécuritaires, qui trouvent à s’épanouir dans d’autres dispositifs.
Nicolas Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:32
Jean Viviès, Professeur de littérature britannique, Aix-Marseille Université (AMU)
Que sait-on vraiment de ce tueur en série ? Pas grand-chose : même son nom est une invention. Aujourd’hui, l’enquête se poursuit au travers des recherches de la science forensique – l’ensemble des méthodes d’analyse fondées sur les sciences afin de servir au travail d’investigation –, mais aussi du côté de la stylométrie – un domaine de la linguistique qui utilise la statistique pour décrire les propriétés stylistiques d’un texte. Sans compter le travail des historiennes et historiens qui se penchent aussi sur les victimes du tueur, largement invisibilisées, et réduites non sans misogynie à un statut de « femmes de mauvaise vie ».
Jack l’Éventreur (« Jack the Ripper ») fascine toujours, à en juger par le nombre de livres et de films qui lui sont consacrés. Il y a eu depuis, malheureusement, bien d’autres tueurs en série, mais dans l’imaginaire il reste le premier à être qualifié ainsi, et le plus célèbre. La raison principale est sans doute qu’il n’a jamais été identifié. Une centaine de noms de suspects ont été évoqués, à l’époque des enquêtes puis au fil des décennies : immigrés, médecins, aristocrates, et certains un peu plus vraisemblables que d’autres, Aaron Kosminski – un barbier polonais –, Montague Druitt, un avocat, ou encore le peintre Walter Sickert, mais aucune certitude n’a pu être établie. L’auteur de Sherlock Holmes, Conan Doyle, s’amusa même à imaginer un assassin féminin : « Jill the Ripper ».
Certaines pistes de recherche actuelles s’appuient sur des travaux scientifiques et proposent des angles nouveaux.
Parmi les matériaux à exploiter se trouve la masse de lettres signées Jack l’Éventreur. La première de ces lettres est célèbre, adressée à « Dear Boss », le 25 septembre 1888. Sur un ton provocateur et théâtral, l’auteur y nargue la police et annonce d’autres meurtres. Depuis quelques années, la linguistique « forensique », discipline nouvelle, s’est penchée sur cette lettre et sur celles qui suivirent, notamment sur les trois qui semblent à l’analyse émaner de la même plume, « Saucy Jacky », le 1er octobre, et « From Hell », le 15 octobre.
Ces trois lettres ont été reçues avant que l’affaire ne soit rendue publique et sont donc les plus intéressantes. Les linguistes ont néanmoins étudié tous les textes prétendument écrits par « Jack l’Éventreur » afin de déterminer s’ils avaient été rédigés par la même personne. Un corpus Jack the Ripper a été compilé à partir des 209 textes comportant au total 17 643 mots. Andrea Nini de l’Université de Manchester a notamment fait progresser la question avec les outils numériques de la stylométrie.
On rappellera ici que, en fait, Jack l’Éventreur n’est pas le nom de l’assassin, mais celui de l’auteur de la première lettre, très probablement écrite par un journaliste au moment des faits et envoyée, non pas à la police mais, élément révélateur, à une agence de presse londonienne, la Central News Agency.
Toujours dans le domaine de la science forensique, les progrès en matière de recherche d’ADN ont semblé un temps de nature à élucider l’affaire. L’étude d’un ADN, prélevé sur le châle taché retrouvé près du corps d’une victime (Catherine Eddowes) et récupéré par un inspecteur de police de l’époque, a été confiée à Jari Louhelainen, biochimiste de l’Université John-Moores de Liverpool en collaboration avec David Miller, spécialiste de la reproduction à l’Université de Leeds. Ils ont extrait du châle de l’ADN mitochondrial et ont décelé une correspondance (« match ») entre une descendante de la victime et celle d’un suspect déjà bien repéré, un immigré polonais (Kosminski).
Russell Edwards, le commanditaire de ces recherches et actuel propriétaire du châle, a présenté cette découverte dans son livre Naming Jack the Ripper, paru en 2014. Mais d’autres spécialistes soulignent la provenance plutôt douteuse du morceau de tissu (a-t-il réellement été récupéré sur le lieu du crime ?) et le fait qu’il ait été beaucoup manipulé pendant plus d’un siècle. Aucune certitude ne peut en fait être tirée de ces analyses ADN.
D’autres tentatives, telles celle de la romancière Patricia Cornwell, à partir d’échantillons d’ADN prélevés sur un timbre et sur des enveloppes, et mettant en cause le peintre Walter Sickert, ont été largement diffusées dans deux de ses livres dont Ripper : The Secret Life of Walter Sickert (2017), mais elles n’ont pas convaincu la plupart des experts.
La nouveauté la plus importante se trouve du côté des études historiques proprement dites où une recherche récente a changé la focale, en s’intéressant non plus à la galaxie des suspects mais aux victimes, notamment aux cinq femmes des meurtres dits « canoniques ». Ces cinq femmes ont été jusqu’ici trop vite assimilées à des prostituées en raison de leur pauvreté. Pour trois d’entre elles, il n’existe pas d’élément avéré qui confirme leur condition de prostituées. Mary Ann Nichols, Annie Chapman, Elizabeth Stride, Catherine Eddowes et Mary Jane Kelly, puisque tels sont leurs noms, n’étaient pas véritablement des prostituées. Cette idée très répandue a été déconstruite, notamment par Hallie Rubenhold dans son livre The Five : The Untold Lives of the Women Killed by Jack the Ripper (2019).
L’historienne montre que c’est à propos de deux des victimes seulement, Mary Ann Nichols et la plus jeune, Mary Jane Kelly, que des preuves attestent qu’elles ont exercé de manière régulière la prostitution. Pour les trois autres, rien ne permet de l’affirmer. Il s’agissait avant tout de femmes pauvres, sans logement fixe, qui affrontaient une situation économique et sociale des plus difficile dans l’East End londonien des années 1880. Les registres de la police du temps de même que les différents témoignages ne confirment pas leur état de prostituées. Cette représentation s’est installée, inspirée de récits à sensation et de préjugés et stéréotypes assimilant pauvreté et immoralité. Leurs vies sont davantage marquées par la misère, l’alcoolisme, la violence domestique et l’instabilité sociale.
La majeure partie de la littérature consacrée à Jack l’Éventreur s’est fixée sur le tueur sans visage et au nom fictionnel au détriment de ses victimes. Un contre-récit des meurtres est néanmoins possible, rendant leur place à des victimes sans défense, accablées par l’extrême pauvreté dans le Londres victorien. Y voir, au-delà d’une fascinante énigme criminelle, qui demeure, une série de féminicides à resituer dans le cadre d’une histoire sociale et non dans les faits divers criminels change la perspective : on s’intéresse dès lors moins à la manière dont ces victimes sont mortes qu’à la manière dont elles ont vécu.
Certains écrivains avaient anticipé les travaux des historiens. Ainsi, Jack London, dans son livre quasi contemporain des événements The People of the Abyss (le Peuple de l’abîme, 1903), a décrit la misère extrême du quartier de Whitechapel après s’y être lui-même plongé et a dénoncé les conditions économiques qui exposaient les femmes à la violence.
Avant lui, George Bernard Shaw avait écrit au journal The Star dès les premiers meurtres en soulignant qu’ils avaient au moins le mérite de mettre en lumière les conditions de vie misérables de l’East End, que la bonne société victorienne ignorait. Ces crimes, qui se caractérisaient par des mutilations sexuelles, s’inscrivaient par ailleurs dans une époque où la sexualité était un enjeu essentiel de contrôle social.
Les travaux des chercheurs continuent dans leur registre propre de s’inscrire dans cette fascination de l’« underworld », un monde sous le monde. En parallèle la postérité du personnage de Jack l’Éventreur conserve depuis près de cent trente ans sa place dans l’imaginaire occidental. La littérature et le cinéma s’étaient vite emparés du personnage.
Reprenant l’intrigue imaginée, en 1913, par la romancière Marie Belloc, Alfred Hitchcock réalisa en 1927 The Lodger, dans lequel un mystérieux locataire assassine des jeunes femmes dans Londres. Certains films restent dans les mémoires comme From Hell (2001), d’Albert et Allen Hughes, ou Time After Time (C’était demain, 1979), de Nicholas Meyer. On y suit Jack l’Éventreur dans un San Francisco moderne, pourchassé par H. G. Wells auquel il a volé la machine à voyager dans le temps. Les téléfilms et séries, bandes dessinées ou jeux vidéo abondent. C’est donc à la fiction, qui a rivalisé d’emblée avec la science et à qui il revint aussi d’incarner l’Éventreur, de lui donner un visage et une identité qui ont échappé encore à ce jour aux multiples enquêtes, nourries de techniques et de perspectives nouvelles.
Les recherches des historiens, des linguistes, des biochimistes et des spécialistes de « ripperology » (terme dû à l’écrivain anglais Colin Wilson) se poursuivent ou se réorientent, modifiant au fil des décennies notre vision de la célèbre affaire. Pour autant, l’icône culturelle qu’est devenu Jack l’Éventreur, presque un personnage conceptuel, n’y fait pas obstacle en offrant à nombre de travaux novateurs la visibilité qu’ils méritent. Jack l’Éventreur au nom inventé est comme devenu l’inventeur de toute une nouvelle sphère de savoirs.
Jean Viviès ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:28
Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon
Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.
Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.
Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).
Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.
Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.
Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.
Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).
Heureusement, des solutions existent pour recycler la chaleur fatale.
L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.
Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.
Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.
Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.
Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.
Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.
Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.
À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir
Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :
Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).
La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.
On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.
Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.
Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.
Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».
Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.
Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.
Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)
08.10.2025 à 16:27
Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay
Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)
Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1
Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA
Marina Labalette, Cheffe de projet, IRT Saint Exupéry
Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA
C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?
L’un des leviers de la transition énergétique et de la décarbonation de l’économie  est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.
L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).
Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.
Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.
L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.
Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.
Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.
En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :
pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,
pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,
jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.
La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.
Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.
En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.
Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.
À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau
On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.
Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.
Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.
La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.
La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.
En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.
En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.
Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.
Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.
Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.
À lire aussi : Comment rendre l’électronique plus soutenable ?
Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.
Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.
Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
08.10.2025 à 16:27
Roman Stadnicki, Maître de conférences HDR en géographie, membre de l'Equipe Monde Arabe et Méditerranée (Laboratoire CITERES) & chercheur associé au Centre Français de Recherche de la Péninsule Arabique (CEFREPA, Koweït), Université de Tours
Gratte-ciel le plus haut du monde, pistes de ski dans des centres commerciaux en plein désert… Les Émirats arabes unis sont connus pour leurs projets urbains hors norme et leur goût pour la démesure. Sharjah, troisième ville la plus peuplée du pays après Dubaï et Abu Dhabi, a opté pour un chemin différent.
Sharjah, avec ses presque deux millions d’habitants, est-elle un « anti-Dubaï », comme le suggère Marc Lavergne, l’un des rares géographes français à s’y être intéressé ?
Agglomérée à la capitale économique des Émirats arabes unis, mais séparée d’elle par une frontière administrative – Sharjah est l’un des sept émirats de la fédération des Émirats arabes unis, dirigé par Sultan bin Mohamed Al-Qasimi depuis 1972 – et surtout symbolique, elle semble en effet, selon Marc Lavergne, explorer une autre voie « qui ne s’exprime pas tant dans l’urbanisme, l’architecture ou la banalisation du luxe que dans les attitudes sociales, elles-mêmes encouragées par le souverain, en phase avec l’héritage culturel et social ainsi qu’avec la condition matérielle de son émirat ».
Cité portuaire et industrielle (sans pétrole), modeste aujourd’hui, mais capitale déchue d’un empire maritime hier (soit avant l’essor de Dubaï et d’Abu Dhabi au XXe siècle), Sharjah fait de la culture et de l’éducation les axes forts de sa politique depuis plusieurs décennies, c’est-à-dire bien avant l’implantation d’universités étrangères et de musées internationaux ailleurs dans le Golfe.
Les politiques urbaines qui s’appliquent aujourd’hui largement dans cette région, et qui visent à resserrer les liens communautaires et identitaires face au multiculturalisme et à la mondialisation, autour du développement de « musées-racines » ou de projets de Heritage villages dédiés aux histoires nationales, ne sont-elles pas aussi le fait d’une inspiration portée plus discrètement mais depuis plus longtemps par Sharjah ? La ville a par exemple organisé en mars 2025 la 22ᵉ édition des Heritage Days, un événement populaire qui vise à promouvoir ses traditions pré-pétrolières.
Les villes secondaires n’exercent-elles pas une influence propre sur les métropoles, à l’encontre des idées reçues relatives à un prétendu « modèle Dubaï », qui fonctionnerait comme une grille explicative de toutes les configurations urbaines de la région et qui se reproduirait à l’envi dans le Golfe et même au-delà, au fur et à mesure que s’étend le rayonnement de ses promoteurs et investisseurs et que se développe la ville-spectacle ?
Mais sommes-nous, dans le cas de Sharjah, réellement dans l’anti-modèle, ou bien dans l’expression d’une modernisation prudente, marquée par un rapport ambivalent au modèle métropolitain de Dubaï ? Trois stratégies de singularisation sont à relever : une forme de conservatisme ; la mise en valeur de l’art ; et le renouveau institutionnel-urbain.
En premier lieu, l’attitude conservatrice se retrouve dans un respect des traditions islamiques plus marqué que dans les émirats voisins (nombre important de mosquées, fermeture de la plupart des restaurants pendant le ramadan, conservation du vendredi comme jour chômé, consommation d’alcool interdite), mais aussi dans la volonté des acteurs politiques locaux de protéger la ville des excès de la mondialisation, afin d’éviter qu’elle soit « noyée dans la culture globale », comme le craignait un conseiller de l’Émir interrogé en 2022 par l’auteur de ces lignes.
« Trop de globalisation » tend inévitablement vers la superficialité et la perte d’identité, d’après ce dernier, qui s’est dit inquiet de la tendance actuelle des Émirats consistant à vouloir faire tenir ensemble, dans un même projet de territoire national, « la culture, le patrimoine, l’entertainment et la modernité ». Il prônait alors une forme de patriotisme local ainsi que des « relations culturelles profondes », comme celles qu’a nouées l’Émirat de Sharjah avec le continent africain, via l’Africa Institute notamment. Là sont les clés pour que Sharjah demeure, selon ses vœux, « une ville arabo-islamique cosmopolite ».
En deuxième lieu, l’Émirat investit dans l’art et la culture depuis le début des années 1980, notamment à travers la Sharjah Art Foundation qui organise la Biennale d’art contemporain. À cet événement culturel majeur s’ajoutent la Foire internationale du livre organisée chaque année depuis 1982 et, depuis 2013, le Festival international du cinéma pour la jeunesse, ainsi que l’ouverture d’une douzaine de musées et galeries dans la ville qui participent à l’animation du secteur Heart of Sharjah. La Sharjah Art Foundation implique directement la famille régnante et est dirigée par Hoor Al-Qasimi, fille de l’Émir. Sharjah se positionne ainsi sur une scène mondialisée tout en attirant des flux d’acteurs et d’amateurs à fort capital culturel.
Sharjah laisse à Dubaï, arrivée plus tardivement sur le « marché de l’art » (Art Dubai Fair depuis 2007, inauguration du quartier artistique Alserkal Avenue dans d’anciens entrepôts industriels d’Al-Quoz en 2008), la partie strictement commerciale.
En troisième lieu, un renouveau institutionnel est à relever en matière d’urbanisme. Ce phénomène se manifeste notamment par l’augmentation de parts de marché acquises ces dernières années par l’entreprise publique Shurooq, fondée au début des années 2010 et dirigée par une autre fille de l’Émir, Bodour Al-Qasimi. À travers l’élargissement de son champ d’action, qui va désormais de la réhabilitation du centre-ville aux nouveaux projets de gated communities périurbaines, en passant par le développement d’espaces publics (parcs Al-Muntaza et Al-Rahmaniyah, promenades Al-Majaz et Qasba) et de resorts touristiques sur la côte Est de l’Émirat (grâce à ses exclaves Kalba et Khor Fakkan, Sharjah est le seul des sept Émirats de la Fédération à regarder à la fois le golfe Persique et le golfe d’Oman), Shurooq assume le redéploiement de l’État dans toutes les sphères de l’aménagement du territoire.
La montée en puissance de l’entreprise est justifiée, d’après une cadre dirigeante que nous avons interrogée en 2023, par la nécessité de réguler le secteur de l’immobilier, jusque-là aux mains d’acteurs privés, d’installer un intermédiaire entre la population et l’État pour toutes les questions d’aménagement et d’urbanisme, ou encore de renforcer les liens avec toutes les autres institutions publiques en charge du territoire. Shurooq cherche donc à se placer au cœur du système institutionnel, à incarner autant la vision de l’Émir – ne pas basculer dans le « tout-commercial » et « garder ses racines » ainsi que le souci du « bien commun » et de la « croissance progressive », dans les termes de la cadre dirigeante – que les besoins de la population.
La démolition de l’urbanisme moderniste passablement délabré, pourtant déjà bien engagée à Sharjah, au profit d’un « master plan romantique et authentique » promis généralement par les promoteurs, n’est ainsi « pas souhaitable » selon cette femme qui reconnaît un attachement de la population à ce patrimoine récent, ainsi que le déploiement d’une « vie organique » en ces lieux ; « tout ne peut pas être planifié », insiste-t-elle à rebours des « visions stratégiques » descendantes de l’aménagement s’appliquant en général dans le pays.
L’entreprise Shurooq est malgré tout amenée à faire des compromis en s’associant, sous la forme de joint-ventures, à des promoteurs privés performants des Émirats arabes unis (Eagles Hills pour le projet d’aménagement de l’île Maryam et Diamond pour le nouveau quartier Sharjah Sustainable City, par exemple). Mais alors que la responsable rencontrée reconnaissait que Shurooq pouvait manquer d’expertise à ses débuts, ce qui justifiait ces partenariats, elle estime que son entreprise est désormais pleinement compétente et légitime pour porter seule des projets urbains sur le territoire de l’Émirat, sans toutefois réprouver ces partenariats public/privé en cours.
Cette triple stratégie, conservatrice, artistique et institutionnelle, a tendance à distinguer Sharjah du reste des villes émiriennes, et même parfois à susciter l’admiration de certains acteurs urbains du pays. Un fonctionnaire du Département des Municipalités et des Transports d’Abu Dhabi nous exprimait ainsi en 2023 son intérêt pour le modèle de développement de Sharjah, soutenu par un Émir « lumineux », où « tout n’est pas régi par l’argent ».
Mais cette distinction s’estompe sur d’autres aspects du développement actuel de Sharjah. Frontalière de Dubaï, elle constitue un débouché naturel de la poussée métropolitaine dubaïote. Alors que la ville a longtemps tiré ses revenus de l’hébergement des travailleurs expatriés (employés à Dubaï mais aussi sur le port industriel de Hamriyah situé entre Sharjah et Ajman), ressource « peu valorisante », elle peut désormais doper son économie immobilière, sur un segment à plus forte valeur ajoutée : en 2023, l’Émirat de Sharjah a connu un essor remarquable de ses activités immobilières. Le total des transactions a dépassé les 19 milliards de dirhams émiratis (AED) (soit 4,8 milliards d’euros environ), marquant une augmentation significative de 14,6 % par rapport à l’année précédente. Des investisseurs de 97 nationalités différentes ont en outre participé au marché immobilier de l’Émirat au cours de la même année.
Les citoyens émiriens, en particulier, ont investi 11,1 milliards d’AED (2,8 milliards d’euros) dans 15 857 propriétés.
Non seulement les derniers produits livrés à Sharjah ressemblent de plus en plus à ceux de Dubaï – le cas de Sharjah Sustainable City, duplication de Dubai Sustainable City par le promoteur Diamond (associé à Shurooq pour le cas de Sharjah), en est un bon exemple –, mais les promoteurs de Sharjah viennent aussi pénétrer l’espace dubaïote.
Ainsi, en mars 2022, les deux promoteurs privés Arada et Alef ont occupé l’entrée principale du mall de Dubaï Festival City avec des maquettes géantes et des petits espaces de vente. La clientèle de Sharjah, coutumière de ces lieux, est principalement visée et, avec elle, les investisseurs refroidis par la flambée des prix à Dubaï, ainsi que, de plus en plus, la clientèle internationale qui pourrait supporter un léger décentrement par rapport à l’axe Dubaï/Abu Dhabi à condition de pouvoir accéder à des produits immobiliers offrant les mêmes standards à des tarifs inférieurs.
C’est à cette dernière clientèle que s’adressait prioritairement la chargée de communication du projet Hayyan (Alef), une gated community en construction à l’extrême sud de Sharjah, rappelant aux clients du mall qu’elle interceptait la possibilité offerte par la loi émirienne de revendre un bien acheté sur plan avant livraison du projet. Son homologue d’Arada, quant à lui, vantait les mérites de la nouvelle centralité urbaine Aljada, dont le slogan est « The new downtown of Sharjah » (voir ci-dessous), auprès des étudiants de Sharjah à qui leurs parents pourraient offrir un appartement dans ce nouveau quartier situé à proximité de l’Université américaine de Sharjah, la première des institutions académiques fondées sur le modèle américain dans le Golfe, ouverte depuis 1997.
Ces logiques de développement immobilier qui s’imposent aujourd’hui à Sharjah sous l’effet de la proximité de Dubaï remettront-elles en question, à terme, les velléités de distinction de cette ville secondaire des Émirats arabes unis ayant fait le choix revendiqué de la modernité prudente ? Sharjah connaîtra-t-elle elle-même cet effet de mimétisme puis de saturation ?
Ces interrogations, suscitées par la rapidité de la poussée urbaine dans le nord du pays ainsi que par les rapports complexes entre les métropoles Abu Dhabi et Dubaï et les villes secondaires satellisées et parfois même inféodées, justifient de poursuivre l’investigation de Sharjah.
Seule la mise en perspective de toutes les échelles territoriales permettra d’éclairer le fonctionnement des systèmes urbains dans le Golfe et d’en mettre au jour les différenciations socio-spatiales, au-delà d’une apparente homogénéité dans l’application locale des normes de la mondialisation économique.
En raisonnant à la manière de Jennifer Robinson, qui incite à varier les référents géographiques de la recherche urbaine internationale, Sharjah incarnerait un certain « ordinaire » golfien – divers, connecté et même contesté – qui a trop peu retenu l’attention des chercheurs, dont l’une des missions est pourtant de combler le vide représentationnel et la faible historicité.
L’importance des rapports transnationaux « Sud-Sud » qui caractérisent la ville depuis sa formation ; les contradictions générées par la cohabitation des attitudes conservatrices et des volontés d’ouverture ; l’organicité de la vie urbaine dans des territoires quotidiens cosmopolites assez faiblement contrôlés apparus en marge d’un urbanisme par projet plus fortement encadré ; tout cela invite non seulement à désexceptionnaliser le Golfe urbain, mais aussi à voir en Sharjah un archétype possible de la confrontation des modernités urbaines contemporaines.
Ouvrage de Roman Stadnicki à paraître en 2026 : Au-delà de Dubaï. Projeter et produire la ville moderne dans le monde arabe, Éditions de l’Aube, collection « Bibliothèque des territoires ».
Roman Stadnicki a reçu des financements du programme ANR Spacepol : https://spacepol.hypotheses.org/.
08.10.2025 à 16:26
Jérome Bourdon, Hstorien des médias, chercheur associé au CARISM, Université Paris-Panthéon-Assas; Tel Aviv University
La majeure partie des Juifs israéliens paraît indifférente à l’égard des destructions colossales infligées par Tsahal aux Gazaouis, quand elle ne conteste pas en bloc le bilan humain avancé par les organisations internationales. Cinq principaux facteurs explicatifs permettent de mieux comprendre les ressorts de cette attitude.
L’interrogation court dans de nombreux médias, surtout européens : pourquoi l’opinion publique israélienne ne réagit-elle pas à la situation dramatique de Gaza, à la famine (internationalement reconnue depuis août 2025) et au massacre de dizaines de milliers de personnes, dont une grande majorité de civils fait qu’on ne prend plus guère la peine de réfuter en Israël mais qu’on justifie plutôt comme résultant d’une stratégie du Hamas consistant à s’abriter derrière la population gazaouie.
Cette question est délicate car elle touche non seulement à la critique du gouvernement ou de l’État, mais de la société israélienne même, à un moment où « Israël » (quoi qu’on désigne par le nom du pays) n’a jamais été autant critiqué, dans un débat hyperpolarisé. Les agissements de l’armée, du gouvernement, des colons, ont rendu pertinentes des analogies qui furent contestables, ou purement polémiques, comme « apartheid » bien sûr et, désormais, le terme « génocide », accepté de façon croissante tant par des historiens que par des juristes. Nous traiterons ici du cas d’Israël, mais il faut rappeler que les interrogations sur des opinions publiques confrontées à un massacre de masse perpétré par leur pays ont une longue histoire, qu’Israël vient aujourd’hui illustrer d’une façon particulière.
Dans la dernière semaine de juillet, selon le quotidien Maariv, 47 % des Israéliens considèrent l’affirmation selon laquelle Gaza est en proie à la famine comme un mensonge et le fruit de la propagande du Hamas ; 23 % reconnaissent la réalité de la famine et disent s’en soucier ; 18 % reconnaissent l’existence de la famine et disent ne pas s’en soucier ; et 12 % sont sans opinion. Selon l’Institut israélien pour la démocratie, 79 % des Israéliens juifs se disent peu ou pas troublés par les informations relatives à une famine à Gaza : mais y croient-ils ou pas ? La question est trop vague. Dans le même sondage, 79 % se disent persuadés qu’Israël fait des efforts substantiels pour atténuer les souffrances des Palestiniens, ce qui est aussi une façon de réduire la portée de ces souffrances, et du massacre. Ces chiffres ne concernent pas les citoyens palestiniens d’Israël, qui sont selon le même Institut, 86 % à se dire « troublés ou très troublés » par la catastrophe humanitaire à Gaza.
À lire aussi : Ce que masque l’expression « Arabes israéliens »
Ces sondages sont susceptibles d’interprétations diverses, mais ils montrent une société qui ne reconnaît que très partiellement la famine et y voit parfois une campagne de propagande du Hamas dont les médias étrangers sont perçus comme complices. Même s’ils reconnaissent la famine et le massacre, les Israéliens s’en déresponsabilisent de plusieurs façons. De surcroît, ils sont massivement partisans de ce qu’on appelle en hébreu le « transfert » des Gazaouis dans d’autres pays, c’est-à-dire d’un nettoyage ethnique.
De multiples facteurs permettent de comprendre la façon dont les Israéliens justifient de telles opinions et se dédouanent de toute culpabilité ou responsabilité pour le sort des Palestiniens – processus qu’un chercheur israélien analysa dès la seconde intifada (2000-2005). Certains de ces facteurs sont anciens mais ont été très amplifiés par le 7-Octobre. Ils sont plus ou moins spécifiques au pays.
Le premier facteur, le ralliement autour du drapeau (Rally round the flag), n’est pas un phénomène propre à Israël ; en général, une guerre jugée comme étant juste confère un surcroît de légitimité et de popularité aux gouvernants, y compris parmi certains opposants ou indifférents. Étudié surtout aux États-Unis, ce ralliement génère ainsi des surcroîts de popularité remarquables autour de la figure du président.
En Israël, il s’est manifesté de façon puissante à deux moments.
D’abord, dans les mois qui suivent le 7-Octobre. Le soutien à la guerre est alors massif. Mais le cas israélien illustre aussi le caractère souvent peu durable de ce ralliement, qui a commencé à s’effriter, par paliers, lorsque la population comprend que le gouvernement donne la priorité à la poursuite de la guerre au détriment du retour des otages, ce qui est devenu tout à fait évident le 9 septembre 2025 avec le bombardement de Doha au Qatar, où siègent les négociateurs du Hamas.
À lire aussi : Israël peut-il invoquer la légitime défense pour justifier sa frappe au Qatar ?
L’autre moment est l’attaque de l’Iran par Israël, appuyé par les États-Unis (13-25 juin 2025). Quelles que soient les intentions déclarées (détruire Israël) et les capacités réelles de la République islamique, la diabolisation de ce régime – et de ses alliés (le Hezbollah au Liban, les Houthis au Yémen), traités comme de purs agents aux ordres de Téhéran – est ancienne dans les médias israéliens, qui ici ont reflété le point de vue martelé par Nétanyahou de longue date.
La popularité du premier ministre a connu un pic quand Tsahal a bombardé l’Iran, et l’opposition à l’attaque est demeurée tout à fait marginale, y compris chez beaucoup d’opposants à la guerre à Gaza.
Enfin, ce ralliement autour du drapeau concerne aussi la fidélité à une armée encore dépendante des citoyens et des réservistes : les Israéliens sont ici pris au piège de leur fidélité à Tsahal, refusant de voir à quel point leur armée a été pénétrée par un courant national-religieux ouvertement xénophobe et annexionniste, voire génocidaire, processus déjà analysé il y a dix ans et qui s’est accéléré depuis. Il est difficile de renoncer à cette fidélité, qui a été, et demeure, un ciment d’une société très fragilisée.
À lire aussi : Les guerres d’Israël et la question de la morale
Le deuxième facteur est plus spécifique au pays : entretenue par l’appareil d’État, les médias et le système éducatif, l’obsession victimaire, autour de la mémoire de la Shoah, a été réveillée et renforcée par le 7-Octobre, vite devenu en Israël une date saillante qui n’a plus besoin que l’année soit précisée (comme le 11 Septembre aux États-Unis).
Depuis, les visages et noms des otages, rejoints par ceux des centaines de soldats tombés à Gaza, sont omniprésents dans l’espace public israélien, aussi bien analogique (sur les arbres des villes, les vitrines des magasins) que numérique.
La plupart des Israéliens (et des pro-Israéliens en dehors d’Israël) traitent le 7-Octobre comme le point de départ de la guerre, voire comme un commencement absolu, comme s’il n’y avait pas eu, avant, toutes les guerres avec Gaza, la longue occupation, le décompte macabre des blessés et morts palestiniens de longues années durant.
Les actes d’extrême violence perpétrés ce jour-là par le Hamas envers les civils, le nombre élevé de morts et la mise en évidence de la vulnérabilité de l’armée ont tétanisé l’opinion.
En troisième lieu, le 7-Octobre et la guerre ont accéléré le processus de droitisation d’une société qui fut un temps (au moins pour une moitié), disposée à une paix fondée sur un compromis avec les Palestiniens après les accords d’Oslo de 1993, compromis auquel même l’armée se rallia.
Après l’échec du processus en 2000, et la deuxième intifada, s’est installée l’idée qu’« il n’y a pas de partenaire » pour la paix – mot d’Ehud Barak, alors premier ministre, massivement repris depuis.
Cela a préparé le terrain à une déresponsabilisation israélienne par rapport aux Palestiniens. Aujourd’hui encore, on peut se dire « de gauche », mais si les Palestiniens veulent la guerre, alors… De surcroît, le 7-Octobre entraîne aussi une relecture de l’histoire, ravive le trauma des anciens combattants, contribue à ternir un peu plus l’image des Palestiniens, voire à revaloriser celle des colons.
Quatrième facteur : les médias israéliens jouent un rôle majeur dans l’invisibilisation des Palestiniens de Gaza en tant qu’êtres humains auxquels on pourrait s’identifier, et dans leur assimilation à des « terroristes », terme plus employé que jamais (même si ce fut déjà le cas lors de la guerre du Liban de 1982).
Les grands médias ignorent les crimes de guerre que des soldats eux-mêmes ont rapportés, ainsi que les bombardements massifs des populations et des infrastructures. Les journalistes israéliens « embarqués » auprès des militaires (embedded) ne décrivent la guerre que du point de vue des difficultés et souffrances des soldats.
Les victimes civiles palestiniennes sont largement effacées de l’actualité. Dans ce contexte, la famine devient un problème de « hasbara », de « diplomatie publique » mal conduite. La droite et l’extrême droite israéliennes dénoncent une « campagne de la faim » organisée, à base de fakes, avec la « complicité » de l’ONU. On parle d’un « Gazawood », d’images largement mises en scène – un processus de déni des images de souffrance qui remonte à la deuxième intifada, quand avait été forgé le terme « Pallywood ».
Depuis le 7-Octobre, l’usage même du mot de « palestinien » a reculé. Dans les nombreux discours prononcés lors des manifestations contre Nétanyahou, ou pour le retour des otages, on ne l’entend pratiquement pas. Dans des déclarations génocidaires, des responsables israéliens ont utilisé des formules comme « animaux humains » (Yoav Gallant, alors ministre de la défense) ou « monstres » (Nétanyahou). En janvier 2024, le ministre du patrimoine Amichai Eliyahu a proposé de lancer une bombe atomique sur Gaza et, en août 2024, Bezalel Smotrich, ministre des finances, a souhaité aux Gazouis de mourir de faim.
Fin juillet 2025, on a pu croire à un tournant, à une reconnaissance de l’humanité palestinienne souffrante, autour d’un reportage où la présentatrice vedette du pays, Yonit Levi, a évoqué une « responsabilité morale » de son pays et montré des photos d’enfants faméliques à la Une de médias occidentaux.
Le 23 juillet, Ron Ben Ishai, célèbre correspondant de guerre écrit : « Il y a des enfants qui ont faim à Gaza », mais en conclut qu’il faut seulement changer la méthode de distribution de nourriture par le Gaza Humanitarian Fund (GHF), fondation américaine mise en place avec l’aide des Israéliens, et que les humanitaires internationaux avaient dénoncée dès sa mise en place en mai. Comme on sait, chaque distribution s’est accompagnée de la mort de Palestiniens sous les balles de l’armée.
À l’été, des centaines de manifestants commencent à brandir des photos d’enfants de Gaza, morts ou affamés, soit lors de grands rassemblements, soit lors de manifestations modestes.
À lire aussi : Israël-Gaza : des associations israéliennes militant pour la paix offrent une lueur d’espoir
Mais la prise de conscience est demeurée modeste. Si la majorité des Israéliens veulent aujourd’hui la fin de la guerre, c’est avant tout parce qu’ils espèrent que celle-ci signifiera le retour des otages survivants.
Les véritables critiques de la guerre savent de longue date qu’ils ont plus de chance d’être entendus en dehors d’Israël qu’au-dedans, alors même que ce sont d’abord les Israéliens qu’ils voudraient atteindre. Bien avant le 7-Octobre, l’ONG « Breaking the Silence » (fondée en 2004), qui collectait des témoignages de soldats sur les exactions commises dans les territoires occupés, s’est retrouvée plus sollicitée et citée à l’extérieur d’Israël qu’à l’intérieur.
En juillet, deux ONG israéliennes – B’tselem, qui recense les violations des droits de l’homme dans les territoires, et Physicians for Human Rights – ont reconnu ce qu’ils ont appelé « notre génocide ». Cette formulation a eu beaucoup plus d’écho dans les grands médias européens et américains que dans les médias israéliens.
À lire aussi : Israël-Hamas : le mouvement pour la paix a-t-il été assassiné le 7 octobre ?
Cinquième facteur, ancien lui aussi : la société israélienne est plus que jamais obsédée par la critique extérieure. Les médias israéliens négligent les soutiens médiatique et politiques qu’Israël reçoit, surtout à droite ou à l’extrême droite, ou n’en parlent qu’au moment où ce soutien apparaît perdu, contribuant à accentuer un sentiment qui confine à la paranoïa.
Les incidents antisémites et/ou anti-israéliens sont couverts en détail. Le spectre est large. Sont dénoncés aussi bien des actes manifestement antisémites comme des agressions de Juifs à Milan en juillet ou à Montréal en août, que des appels au boycott d’institutions, d’artistes ou d’intellectuels israéliens. Ainsi, le refus de certains chercheurs français de participer, en septembre, à un colloque au Musée d’Art juif de Paris en raison de la présence d’universitaires israéliens dont la venue est financée par leurs institutions qui apparaissent comme partenaires de l’événement a fait beaucoup de bruit.
Enfin, la presse israélienne est à peu près seule à couvrir le mauvais accueil ou le refus de servir des touristes israéliens, et les Israéliens voyageant beaucoup… Haaretz, journal devenu radicalement critique de la guerre, et très singulier dans le paysage médiatique israélien, couvre lui aussi ces incidents ou agressions, dès le printemps 2024.
Si l’écart entre les couvertures israélienne et internationale du conflit a toujours été grand, il s’agit aujourd’hui d’un gouffre. Les Israéliens et la plupart des Occidentaux (sauf ceux qui ne s’informent qu’à la droite et l’extrême droite) ne vivent simplement pas dans le même monde.
Ce fossé pourra-t-il être comblé ? En tout état de cause, il faudra bien, le jour venu, rendre des comptes, comme le dit Sarit Michaeli, secrétaire générale de Beit Tselem, au terme de ce reportage « micro-trottoir » du Guardian à Tel-Aviv.
En dernier lieu, malgré son coût économique et moral, les élites de l’armée, ainsi que des partis et personnalités politiques prêts à s’allier à Nétanyahou, ont un intérêt à la poursuite de la guerre – ce qui est bien sûr aussi le cas du chef du gouvernement, qui fuit ses procès en cours et rêve de réélection, dans une course folle et criminelle. Dans la guerre, l’armée n’en finit pas de se laver de son aveuglement face aux préparatifs du 7-Octobre par le Hamas, et fait reculer l’établissement d’une véritable commission d’enquête sur le massacre, maintes fois réclamée.
Ralliement autour du drapeau et de l’uniforme, obsession victimaire, droitisation de la société, effacement du peuple attaqué réduit à un groupe de terroristes actuels ou potentiels, obsession de la critique extérieure, intérêt des élites à la poursuite de la guerre qui peut aussi unir, au moins un temps, une nation en crise : isolés et parfois conjugués, ces facteurs se sont retrouvés dans d’autres moments génocidaires.
Ce qui est singulier, c’est moins le processus lui-même que la croissante attention internationale qu’il reçoit. Bien connue des spécialistes du génocide, l’impuissance des « bystanders », y compris ceux qui s’indignent, n’en est que plus remarquable, et non moins tragique que l’aveuglement de l’opinion israélienne.
Jérome Bourdon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:25
Marina Ferreira Da Silva, Enseignant-chercheur en Sciences de Gestion, Université de Rouen Normandie
Emilie Hoëllard, Maître de conférences en sciences de gestion, Université Le Havre Normandie
TikTok s’appuie sur un modèle économique conçu pour capter l’attention et renforcer la dépendance de son audience. Le format des lives favorise en particulier une logique de dons impulsifs. Il importe d’identifier ces stratégies pour mieux en protéger les adolescents.
Jeudi 11 septembre 2025, la commission d’enquête parlementaire sur les effets psychologiques de TikTok chez les mineurs a rendu son rapport, alertant sur l’un « des pires réseaux à l’assaut de la jeunesse ». Plateforme la plus prisée par les jeunes, qui y passent en moyenne cent dix minutes par jour, TikTok s’appuie sur un modèle économique conçu pour capter l’attention et renforcer la dépendance de son audience, afin de maximiser ses revenus.
Si plus de 75 % de ses recettes proviennent encore de la publicité, les achats intégrés sur TikTok s’affichent désormais comme un levier de croissance majeur pour le réseau social : en France, ils ont représenté près de 80 millions d’euros en 2023, contre 52 millions en 2022. Ces achats in-app permettent notamment aux jeunes d’acheter des cadeaux virtuels pour les offrir à leurs créateurs de contenus favoris pendant les lives. Roses, donuts, lions, ou encore ballons de rugby : les cadeaux seront ensuite convertis en diamants, puis en argent réel, moyennant une commission de la plateforme.
À lire aussi : TikTok et les jeunes : rentabilité et fabrique du mal-être
Ce système particulièrement lucratif tant pour TikTok que pour les streamers transforme les directs en véritables courses aux cadeaux, où les jeunes spectateurs sont sans cesse poussés à la dépense. Quelles stratégies sont déployées pour attirer leur attention et stimuler les dons ?
Nos recherches, menées à partir de l’observation de 40 lives TikTok de créateurs français pendant une période de trois mois, montrent que la plateforme intègre dans ses fonctionnalités de nombreux leviers issus de l’univers des jeux en ligne.
À l’image des V-Bucks (sur Fortnite) ou des Gemmes (sur Brawl Stars), TikTok propose à ses utilisateurs d’acheter des « pièces », brouillant la perception du coût réel des cadeaux envoyés. En effet, l’utilisation d’une monnaie virtuelle crée une distance cognitive entre l’utilisateur et la valeur réelle de son don, et la mise en place de systèmes de packs accentue cette opacité. Il est donc difficile pour les jeunes d’évaluer en temps réel la valeur exacte des cadeaux envoyés.
Ce flou peut encourager les dons impulsifs, d’autant qu’il suffit d’un simple tapotement de doigt sur l’écran pour commencer le jeu avec un premier envoi (gratuit) de cœurs. C’est à la fois simple et valorisant, mais ce passage représente également un premier engagement qui augmente la probabilité d’accepter ensuite un engagement plus coûteux.
Les lives ont intégré de nombreux autres codes propres aux jeux en ligne, tels que les systèmes de classements, points et scores, barres de progression, ou encore défis à accomplir dans un temps limité. Ces mécaniques exploitent l’attrait des jeunes pour la compétition et la gratification immédiate, tout en transformant l’interaction en une expérience immersive et stimulante. L’interface joue un rôle central : animations colorées, pluie de cœurs, ou couleurs vives renforcent la dimension sensorielle et gratifiante de chaque don, rappelant l’univers des jeux de hasard. La facilité d’envoi des cadeaux, réduite à un simple tap, génère un réflexe quasi automatique, incitant le jeune à agir rapidement.
Les battles sont fréquemment mobilisées par les streamers pour gamifier l’expérience proposée. Elles reposent sur une mise en compétition en temps réel entre deux créateurs ou équipes, dont l’issue dépend directement des dons des spectateurs, convertibles en points, visibles sur une barre de progression ou un classement. La possibilité pour les spectateurs d’influencer directement le résultat renforce leur sentiment d’implication active, tout en générant une pression sociale.
La structure même des lives accentue ce phénomène : la durée limitée des sessions impose une pression temporelle, semblable à celle d’un jeu vidéo, où il faut atteindre un objectif dans un temps restreint. Aussi, en combinant interface immersive, gamification, pression des créateurs et contraintes temporelles, TikTok transforme les directs en environnements dans lesquels l’attention des jeunes est maximisée et les comportements de dépense sont fortement encouragés. Comme pour les jeux mobiles, il s’agit ainsi d’utiliser différentes techniques pour influencer le comportement des joueurs : ressources mises à disposition, répartition des récompenses offertes, fonctionnalités sociales ou encore offres à durée limitée.
La valorisation publique des donateurs permet d’encourager la communauté à envoyer des dons. En effet, lorsqu’un spectateur envoie un cadeau, son pseudonyme est affiché ou mentionné par le streamer (voire crié pour les « gros » cadeaux), des animations visuelles sont déclenchées, et il peut même bénéficier de remerciements personnalisés ou d’interactions privilégiées avec le créateur.
Cette reconnaissance immédiate incite le donateur à réitérer son geste pour retrouver ce moment d’attention et de visibilité. Offrir un cadeau devient un moyen de projeter une image idéalisée de soi sur le réseau social.
Cette dynamique prend une résonance particulière chez les adolescents, dont la construction identitaire est fortement conditionnée par le regard des pairs et par la recherche de reconnaissance sociale. Les créateurs s’attachent à répondre quasiment systématiquement aux questions ou commentaires formulés par les meilleurs donateurs, renforçant le sentiment de proximité et la valorisation sociale. Les spectateurs qui offrent des cadeaux de manière répétée apparaissent dans la liste des Top fans, ce qui peut accroître la fréquence des dons, et créer une compétition motivée par le besoin de reconnaissance et par la volonté de maintenir un lien privilégié avec le créateur de contenu.
Par ailleurs, lors des lives, le créateur organise et structure l’expérience de manière à mobiliser l’esprit d’équipe de sa communauté. En lançant des challenges, des battles, ou encore des défis, il encourage ses spectateurs à se regrouper pour atteindre un objectif commun, transformant l’interaction en un jeu collectif. Les stickers « rejoint mon fan club » proposés par les créateurs sont particulièrement significatifs de la leur volonté de structurer leur communauté autour d’un esprit collectif : il s’agit, moyennant une participation financière, de faire en sorte que le spectateur dépasse le simple statut de suiveur pour devenir un membre officiel de la communauté. La pression sociale est ainsi implicite, puisque pour se distinguer d’un membre « basique », il faut « monter en gamme » et offrir plus à son tiktokeur préféré.
Ainsi, les lives deviennent des espaces où la pression sociale et la dynamique de groupe sont exploitées pour maximiser l’engagement, et où les adolescents, par désir d’inclusion et de reconnaissance, sont particulièrement enclins à participer activement et à investir financièrement dans cette expérience collective.
Si TikTok indique qu’il est obligatoire d’avoir au moins 18 ans pour envoyer des cadeaux, la règle peut facilement être contournée par les jeunes, qui peuvent mentir sur leur âge lors de l’inscription.
Face à l’insuffisance des mesures de protection offertes par TikTok, le rapport parlementaire préconise d’aller plus loin en interdisant la plateforme aux mineurs de moins de 15 ans. La commission d’enquête souligne à juste titre la nécessité d’une régulation renforcée pour les protéger des risques liés à une exposition précoce aux mécanismes de monétisation et aux pressions sociales en ligne. Ce questionnement est d’autant plus nécessaire pour le cas des lives, puisque l’interaction sociale semble ici se réduire au don, rendant « normal » de payer pour être vu et apprécié.
Cependant, au-delà des aspects règlementaires, se pose la question de la responsabilité éducative. Dans un environnement numérique où les adolescents passent plusieurs heures par jour – bien souvent en dehors de toute supervision parentale ou institutionnelle – sur les réseaux sociaux, il apparaît essentiel qu’ils comprennent les mécanismes mobilisés pour les inciter à dépenser.
Cela passe notamment par une information claire sur les coûts réels des transactions réalisées, ainsi que par une sensibilisation aux logiques de manipulation comportementale propres aux systèmes de gamification et aux dynamiques de récompense sociale. Dans cette optique, la sensibilisation des adultes référents (parents, enseignants, éducateurs) apparaît également essentielle, afin que chaque acteur soit capable de décrypter ces mécaniques et d’accompagner les adolescents dans leur rapport aux plates-formes numériques.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.10.2025 à 16:25
Guillaume Allègre, Économiste au département des études de l'OFCE, Sciences Po
Étudier serait devenu un problème. Alors qu’aux États-Unis, des conservateurs proches de Donald Trump accusent l’université de retarder la fondation des familles, certains proposent en France de raccourcir la durée des études pour relancer l’activité et la natalité. Mais la durée des études a-t-elle vraiment augmenté ? Pour quels bénéfices économiques et sociaux ?
L’enseignement supérieur fait l’objet d’attaques nouvelles et plurielles. Il ne s’agit pas seulement d’une attaque concernant les libertés académiques ou la place respective du public et du privé. Il s’agit aujourd’hui de remettre en cause l’utilité même de l’enseignement supérieur.
Aux États-Unis, selon The Heritage Foundation, think tank conservateur proche de Donald Trump, l’État ne devrait pas financer l’enseignement supérieur dans la mesure où sa durée pousse à différer la fondation d’une famille (« Government subsidies for higher education and credentialism are exacerbating the decline by providing incentives to delay or forego family formation » [2024]).
Dans un billet paru dans les Échos, le chroniqueur Julien Damon propose de « réduire l’enseignement supérieur » et reprend une partie de l’argument contre l’enseignement supérieur, y ajoutant un argument économique en termes d’activité :
« Diminuer le nombre d’années passées à l’université aurait des impacts évidents sur l’activité et de possibles effets sur la fécondité. […] Pourquoi se priver d’une idée favorable aux finances publiques, à l’activité et, potentiellement, à la fécondité ? »
Cette proposition fait écho à celle du parti politique Renaissance, dans un document programmatique nommé « Le camp de l’espoir », consistant à « réduire la durée moyenne de la formation initiale » (p. 41).
L’enseignement supérieur fait l’objet d’attaques venues de plusieurs fronts, mais qui se rejoignent idéologiquement : il est critiqué, car il éloignerait les jeunes de l’indépendance, de l’entreprise, de la société et du modèle familial traditionnel.
Le caractère idéologique de ce discours apparaît d’autant plus nettement à la lumière du graphique suivant, qui montre la distribution de l’âge de fin d’études selon les générations (Cf. direction de l’animation de la recherche, des études et des statistiques [Dares] du ministère du travail). Les données sont parlantes : l’âge moyen de fin d’études a cessé de croître à partir de la génération née en 1975. Il diminue même légèrement dans la période récente, notamment chez ceux qui suivent des cursus longs. Aujourd’hui, la proportion d’étudiants qui achèvent leurs études à 25 ans ou plus est inférieure à celle de 1975. Autrement dit, si problème il y a, il ne date pas d’hier mais remonte à plus de trente ans.
Pourquoi les critiques donnent-elles l’impression que les jeunes feraient des études de plus en plus longues ? En réalité, il ne faut pas confondre l’âge de fin d’études et l’accès aux diplômes. C’est là que s’inscrit le débat sur « l’inflation des diplômes », porté bien au-delà des clivages partisans, notamment par Marie Duru-Bellat dans cet entretien :
« La massification scolaire débouche sur une inflation des diplômes, qui tendent à perdre de leur valeur. C’est comme pour la monnaie : si le nombre de diplômes augmente, mécaniquement ces derniers n’assurent plus l’accès à des emplois qualifiés dont tout le monde rêve, bien payés et avec de bonnes conditions de travail, qui restent en nombre limité. Donc les diplômes perdent de la valeur. Mais cette notion est mal perçue dans notre pays, et plutôt taboue. Car pour certains progressistes, on ne peut jamais être trop éduqué. »
L’argument est connu : l’augmentation du nombre de diplômés réduirait la valeur relative des titres scolaires, générant une frustration, en particulier chez les « nouveaux diplômés » issus des milieux les moins favorisés scolairement. La massification scolaire serait ainsi un piège.
Mais les données contredisent cette idée : en durée, les jeunes ne font pas plus d’études qu’avant. L’inflation des diplômes s’explique presque entièrement par la baisse des redoublements. Autrement dit, les étudiants obtiennent davantage de diplômes non pas parce qu’ils étudient plus longtemps, mais parce qu’ils redoublent moins et progressent plus régulièrement dans le système éducatif. La valeur relative des diplômes diminue donc mécaniquement.
Dès lors, au-delà des questions idéologiques, les deux vraies questions qui se posent sont : la politique volontariste de non-redoublement était-elle justifiée ? Et la durée actuelle des études est-elle socialement et individuellement légitime ?
La question du redoublement a été traitée de manière extensive dans le champ de la sociologie et des sciences de l’éducation. Le consensus est large, des sociologues de l’éducation à l’OCDE (sur la base des résultats Pisa) : la réduction du redoublement a eu des effets positifs sur la réussite Marie Duru-Bellat. On ne peut donc être à la fois favorable au non-redoublement et regretter l’inflation des diplômes.
Cela ne veut pas dire que l’importance que l’on donne actuellement aux diplômes ne pose pas problème. Les études peuvent à la fois être plus longue et plus égalitaires, et prendre moins de place dans la détermination du mérite individuel. L’objectif d’enseignement doit primer sur celui de sélection des élites. Le système éducatif ne doit pas être un mécanisme de reproduction du mérite où le « mérite éducatif » serait transmis de parents à enfants afin de légitimer la hiérarchie sociale.
Reste la question des rendements de l’éducation. La littérature est abondante. Les diplômés ont des salaires bien supérieurs aux non-diplômés. Selon la théorie du capital humain, ces salaires sont dus à une productivité supérieure acquise grâce à l’éducation. Selon la théorie du signal, le diplôme ne sert qu’à donner un signal à l’employeur que le ou la diplômée est talentueuse (Spence, 1973). Les salaires plus élevés des diplômés ne seraient pas le résultat de leur formation, mais du signal donné par leurs diplômes quant à leurs prédispositions.
Qu’en est-il ? Pour différencier ce qui est dû aux compétences acquises grâce à la formation de l’effet du signal d’un diplôme, les économistes ont exploité des « expériences naturelles ». Un exemple est celui d’Éric Maurin dans un article fameux article sur Mai-68. Cette année-là, le bac a été massivement distribué, permettant à une cohorte entière de prolonger ses études. Ces élèves, plus nombreux à avoir rejoint les bancs de l’université que les cohortes immédiatement précédentes et suivantes, ont fait des études en moyenne plus longues. Résultat : ces élèves ont connu des trajectoires professionnelles plus favorables, avec des revenus durablement plus élevés, et même un effet positif transmis à leurs enfants. Il vaut mieux être né d’un parent qui était en Terminale en 1968 qu’en 1966 ou 1970 ! Difficile de n’y voir qu’un simple signal.
D’autres travaux, comme ceux de David Card, 2001,confirment ce résultat. Le consensus actuel, fondé sur de nombreuses « expériences naturelles », est que les rendements de l’éducation sont élevés. Pour un individu donné, les rendements privés de l’éducation sont de l’ordre de 8 % de salaire supplémentaire par année d’études, dont environ deux tiers relèvent d’un gain réel de productivité et un tiers d’un effet de signal (Aryal, Bhullere et Lange, 2019). Autrement dit, l’éducation reste un investissement rentable, à la fois pour les individus et pour la société.
Le vrai problème est ailleurs. Depuis la génération née en 1975, l’investissement dans l’éducation stagne. Cela pourrait contribuer à expliquer la faible croissance française actuelle. Pour reprendre les termes de Thomas Melonio et Xavier Timbeau, le capital humain est « l’immatérielle richesse des nations » (2006) :
« Nous constatons une forte augmentation du capital éducatif français depuis le début des années 1970, d’environ 60 points de PIB, pour culminer autour de 140 points de PIB au début des années 2000. […] En projection, nous estimons que ce stock a atteint un plafond, et devrait progresser modestement dans les vingt prochaines années avant de décliner sous l’effet du rétrécissement de la taille des cohortes et de la stagnation observée du niveau des diplômes. »
Réduire l’enseignement supérieur aujourd’hui reviendrait, pour les futures générations d’étudiant, à scier la branche sur laquelle nous sommes tous assis et se priver d’une source de financement des retraites des quinquagénaires actuels.
Quid de l’indépendance des jeunes ? Le recul de l’accès des jeunes à une vie autonome n’est pas dû à l’allongement des études initiales, mais à la période de transition entre la fin des d’études et l’obtention d’un emploi stable : stage, chômage, CDD, voire contrats d’occupation divers (COD). C’est dans cet entre-deux que se joue la difficulté.
Le graphique suivant retrace l’évolution du taux d’activité des 15-24 ans entre 1975 et 2023. Non seulement le taux d’activité des jeunes ne baisse plus, mais il repart même à la hausse dans la période récente.
Sur le temps long, le vrai problème est celui de la montée de l’emploi précaire. Cela apparaît nettement si l’on suit la trajectoire professionnelle des jeunes sortis de formation initiale en 2017, au cours de leurs six premières années de vie « active ». L’emploi à durée indéterminée (EDI) ne devient majoritaire (>50 %) qu’au bout de quatre ans environ après la sortie des études initiales ! L’obstacle, en termes d’autonomie, semble moins être l’enseignement supérieur que l’entrée dans la vie active. Ironie de l’histoire : en voulant rapprocher les jeunes des entreprises (multiplication des césures, stages, apprentissages), on les a éloignés du CDI.
Il est vrai que suivre des études supérieures retarde en moyenne l’âge du premier enfant. Mais cela n’entraîne pas une baisse de la fécondité. En 2009, l’indice conjoncturel de fécondité (ICF) était de 1,8 pour les diplômées du baccalauréat, et… exactement le même chiffre pour les diplômées du supérieur (INED.
Alors, que faire ? Pour renforcer à la fois l’autonomie et l’égalité des chances, je proposais déjà, dans un rapport Terra Nova de 2010, de donner aux jeunes les ressources nécessaires, notamment en termes de revenu étudiant (« L’autonomie des jeunes au service de l’égalité »). Ce dispositif de capital formation-insertion serait éventuellement financé par les étudiants eux-mêmes, une fois insérés dans la vie active (sous forme de prêts à remboursement contingents).
Plutôt que la coercition technocratique, c’est en renforçant leur autonomie que l’on permettra aux jeunes d’avoir le nombre d’enfants qu’ils souhaitent réellement. Le programme pour l’autonomie et l’égalité des jeunes demeure, hélas, d’une brûlante actualité.
Guillaume Allègre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:14
Aurore Bardey, Professeur Associé en Marketing, Burgundy School of Business
Le fabricant d’ultrafast-fashion Shein, qui jusque-là vendait en ligne, arrive dans plusieurs grands magasins. Quel impact cela aura-t-il sur les consommateurs ? À qui profitera cette nouvelle association ? Au géant chinois ? ou aux enseignes tricolores ?
Le 1er octobre 2025, la Société des grands magasins (SGM) a officialisé son partenariat avec Shein : un premier « shop-in-shop » Shein ouvrira au BHV Marais et dans cinq Galeries Lafayette de province. Le groupe Galeries Lafayette s’est immédiatement désolidarisé de cette décision, évoquant un désaccord « contractuel et de valeurs » avec ces magasins franchisés.
Cette annonce a aussitôt déclenché un tollé : militants écologistes et universitaires dénoncent une mésalliance entre l’ultrafast-fashion et le temple du luxe que sont les Galeries Lafayette mais aussi le BHV. Ils ne sont pas les seuls : plusieurs fournisseurs ont quitté ou s'apprêtent à quitter le BHV en raison de cette alliance entre le magasin et Shein qu'ils jugent contraires à leurs valeurs. Par ailleurs, la Caisse des Dépôts a indiqué mettre fin aux négociations qu'elle menait, via sa filale la banque des territoires, avec le groupe propriétaire de ces six magasins (BHV et franchises des Galeries Lafayette).
Ce rapprochement soulève des enjeux majeurs pour les consommateurs, pour les enseignes et pour la planète. Afin de les comprendre, il faut d’abord revenir à ce qu’est l’ultrafast-fashion.
L’ultrafast-fashion représente l’aboutissement extrême d’un modèle déjà décrié. Elle repose sur une accélération inédite des cycles de production : des milliers de nouveaux modèles mis en ligne chaque jour, conçus et écoulés à une vitesse record. En 2023, Shein proposait jusqu’à 10 000 références quotidiennes. Derrière ce chiffre vertigineux se cache un système profondément délétère.
À lire aussi : Comment fait Temu pour proposer des prix aussi bas ?
Car l’industrie de la mode figure parmi les secteurs les plus polluants au monde. Elle contribue massivement au changement climatique, à la surexploitation des ressources naturelles et à la pollution globale. Elle serait responsable de 8 % à 10 % des émissions mondiales de CO2 et de près de 20 % des eaux usées industrielles. Sa production textile consomme environ 93 milliards de mètres cubes d’eau par an, soit 4 % des prélèvements mondiaux en eau douce. À l’autre bout de la chaîne, chaque année, environ 92 millions de tonnes de déchets textiles sont générés, dont moins de 1 % est recyclé en nouveaux vêtements.
Pourtant, le marketing de ces enseignes se moque de ces impacts. L’objectif de ces dernières est clair : non pas répondre à un besoin réel, mais créer de nouveaux besoins pour pousser les consommateurs à acheter toujours plus, toujours plus vite. Or, si l’on interroge les motivations d’achat, le constat est sans appel : le prix reste le critère numéro un. Dans un contexte d’inflation et de budgets contraints, l’enjeu pour beaucoup est d’être stylé sans se ruiner. Les études montrent que cette sensibilité au prix dépasse de loin les considérations éthiques ou environnementales, même chez les consommateurs qui se disent préoccupés par la durabilité.
Cette logique séduit particulièrement les jeunes générations, qui veulent accéder immédiatement à des vêtements tendance pour un faible coût. De plus, l’ultrafast-fashion s’appuie sur des outils numériques puissants pour stimuler la consommation : promotions éclair, notifications permanentes, mises en scène de la rareté… autant d’incitations qui encouragent l’achat impulsif. Ces pratiques, aujourd’hui dénoncées par les régulateurs européens, ne sont pas sans conséquence : elles alimentent la compulsion d’achat et fragilisent notre santé mentale.
Porter des vêtements associés à la pollution ou au travail forcé ne relève pas d’un geste anodin : cela peut provoquer une tension psychologique définie comme la théorie de la dissonance cognitive. Beaucoup de consommateurs affirment vouloir adopter une consommation responsable, mais continuent malgré tout d’acheter des vêtements de fast-fashion. Ce décalage, génère souvent culpabilité, insatisfaction et même regret post-consommation.
Des recherches expérimentales confirment ce mécanisme. Porter un T-shirt présenté comme durable entraîne un meilleur bien-être psychologique. À l’inverse, la quête compulsive de nouveaux vêtements, alimentée par la fast-fashion, entretient un cycle d’insatisfaction chronique. Les recherches sur le matérialisme soulignent que ce rapport consumériste est négativement corrélé au bien-être.
Mais il existe une autre voie. Les travaux récents sur le minimalisme vestimentaire montrent qu’une réduction volontaire de la consommation améliore le bien-être. Nous avons par exemple observé que la création d’une garde-robe capsule réduit la charge cognitive des choix quotidiens et augmente la satisfaction de vie. Ces résultats rejoignent d’autres études sur le détachement matériel et la simplicité volontaire, qui mettent en évidence une association positive avec la satisfaction de vie.
En clair, consommer moins, et surtout réduire l’accumulation de vêtements, n’est pas une privation. C’est, au contraire, une source de liberté et de mieux-être. Ainsi, l’ultrafast-fashion se révèle doublement néfaste puisqu’à la fois elle nuit à la planète et fragilise aussi notre santé psychologique.
Au-delà de ses effets psychologiques sur les consommateurs, l’alliance de Shein et de SGM menace également l’identité des enseignes concernées. Car le luxe ne se réduit pas à un prix élevé. Il repose sur un univers de valeurs et de symboles, combinant la rareté (offres limitées et exclusives), la qualité exceptionnelle (savoir-faire, matériaux nobles) et une forte valeur symbolique (statut social, identité). Acheter du luxe, ce n’est pas seulement acquérir un objet, c’est accéder à un monde de significations et d’émotions.
Ainsi, lorsqu’un consommateur entre aux Galeries Lafayette, il n’attend pas seulement un produit, mais une expérience : élégance, distinction, voire un instant de rêve. Alors que le groupe Galeries Lafayette parisien revendique une identité haut de gamme, son partenaire SGM choisit d’accueillir une enseigne d’ultrafast-fashion, introduisant une contradiction d’image au cœur même du réseau. Celui qui entre pour vivre une expérience de rareté et d’exception se retrouve face à la banalité d’une offre associée à la surconsommation et aux controverses environnementales et sociales.
Cela peut provoquer trois réactions principales :
de la déception (l’expérience ne correspond plus à l’image attendue) ;
de la culpabilité (acheter chez Shein dans un lieu prestigieux accentue la contradiction entre valeurs et comportements) ;
une perte de confiance : l’enseigne accueillante est perçue comme ayant sacrifié son identité pour des raisons économiques.
En somme, cette alliance ne fragilise pas seulement les marques au plan marketing. Elle transforme aussi profondément l’expérience vécue par les consommateurs, au risque de briser le contrat symbolique qui faisait la force du luxe français.
À première vue, l’arrivée de Shein dans des lieux aussi emblématiques que les Galeries Lafayette pourrait sembler une bonne nouvelle pour de nombreux consommateurs. La marque incarnerait ainsi ce que beaucoup de consommateurs recherchent : être stylé sans se ruiner. Mais les achats répétés, souvent impulsifs, finissent par gonfler le budget mode global.
Plutôt que d’alimenter cette spirale de surconsommation, deux options offrent une réponse à la fois économique, écologique et psychologique : la seconde main et acheter moins mais mieux.
Ces comportements alternatifs rétablissent la cohérence entre valeurs et consommation, un facteur clé de bien-être. À l’inverse, céder à l’ultrafast-fashion entretient une contradiction douloureuse : se dire préoccupé par l’avenir de la planète tout en soutenant un modèle destructeur.
Choisir la seconde main ou le minimalisme vestimentaire, c’est donc à la fois alléger son empreinte écologique et retrouver du sens dans ses choix de vie. À l’inverse, l’alliance Shein-SGM cristallise les dérives d’un modèle, qui cherche à vendre toujours plus vite, au prix de la valeur symbolique des grands magasins, mais aussi de notre bien-être individuel et collectif.
Aurore Bardey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 12:03
Anne-Sarah Bouglé-Moalic, Chercheuse associée au laboratoire HISTEME (Histoire, Territoires, Mémoires), Université de Caen Normandie
En octobre 1945, en France, 33 femmes font leur entrée sur les bancs de l’Assemblée nationale. Qui sont-elles ? Dans quelle mesure leur entrée au Parlement bouscule-t-elle un imaginaire républicain très masculin ? Retour sur le parcours de ces pionnières alors qu’on célèbre également les 25 ans de la loi pour la parité politique.
Le 21 octobre 1945, des élections législatives sont organisées en France. Elles doivent permettre de nommer une assemblée constituante pour la IVe République. La France n’a plus connu d’élections législatives depuis neuf ans – les dernières avaient amené le Front populaire au pouvoir, en 1936.
Mais ce n’est pas la seule particularité de cette échéance de l’immédiat après-guerre. Pour la première fois dans son histoire, l’Assemblée nationale peut accueillir des femmes, non plus dans les balcons, mais bien au cœur de l’hémicycle. La réforme du 21 avril 1944, accordant aux femmes les mêmes droits politiques qu’aux hommes, leur permet en effet non seulement de devenir électrices, mais aussi de se porter candidates aux suffrages de leurs concitoyens.
C’est la deuxième fois, en 1945, que les Françaises peuvent prendre part au jeu politique, après les élections municipales des 29 avril et 13 mai. Mais l’enjeu est différent. Le mandat municipal est celui de la proximité, de la bonne gestion familiale que l’on associe sans trop de difficulté à l’image des femmes. Le mandat parlementaire incarne lui le peuple, la République ; il est aussi réputé plus violent.
Le Parlement est un monde d’hommes. Comment les femmes y ont-elles fait leur entrée ? Qui étaient-elles, ces grandes inconnues qui ont été les premières à représenter une démocratie enfin posée sur ses deux pieds ?
En 1945, la question de l’éligibilité des femmes n’est pas nouvelle dans la société française. Nombreuses sont les féministes à avoir utilisé leur candidature à diverses élections pour populariser la cause suffragiste. La première d’entre elles est Jeanne Deroin, en 1849 ! Le processus a été repris ensuite à de multiples reprises, comme par Louise Barberousse ou Eliska Vincent, dans les années 1880 et 1890, et très régulièrement au XXe siècle. On se souvient particulièrement de la candidature de la journaliste Jeanne Laloë, aux élections municipales de 1908 à Paris, ou de la campagne de Louise Weiss et de l’association la Femme nouvelle en 1935.
Des femmes ont d’ailleurs été élues à plusieurs reprises. Aux élections municipales de 1925, les communistes positionnent des femmes en haut de liste, rendant presque automatique leur élection en cas de succès. Elles sont une dizaine à être élues, et plusieurs à siéger plusieurs mois, jusqu’à l’invalidation de leurs élections. On peut citer Joséphine Pencalet, sardinière de Douarnenez (Finistère), Émilie Joly et Adèle Métivier à Saint-Pierre-des-Corps (Indre-et-Loire), Mme Tesson à Bobigny (alors dans le département de la Seine)…
D’autres expériences sont menées par des maires sensibles au suffragisme et souhaitant contourner la loi, tout en restant dans la légalité : ils nomment de conseillères municipales officieuses, siégeant au Conseil mais avec des droits restreints. Trois villes – Villeurbanne (Rhône), Dax (Landes) et Louviers (Eure) – organisent même des élections pour donner davantage de légitimité à ces conseillères.
Les préjugés sur l’immixtion des femmes en politique étaient encore tenaces, à la fin de la IIIe République. Certains, notamment des sénateurs, avancent que les hommes perdront leur énergie virile au contact des femmes dans l’hémicycle, tandis que d’autres estiment que la nature faible, nerveuse, impressionnable des femmes est trop risquée. Soit les femmes en pâtiraient gravement, soit elles se transformeraient en hommes, soit elles provoqueraient un coup d’État en se laissant emporter par le plus fort.
Malgré tout, à l’automne 1945, les femmes sont bien appelées à devenir députées : un changement majeur pour permettre à la démocratie française de se déployer pleinement, mais dont les conséquences restent minimes.
Les élections municipales de 1945 sont difficiles à décrypter. Les mauvaises conditions administratives font qu’on ignore le nombre de candidates tout comme le nombre d’élues réelles. Tout au plus pouvons-nous proposer des estimations : moins de 1 % de femmes maires et sans doute environ 3 % de conseillères municipales.
Il est plus facile d’observer l’élection du 21 octobre 1945. Elle est organisée au scrutin de liste, car il s’agit d’une élection à la proportionnelle. 310 femmes sont officiellement candidates. Au soir de l’élection, 33 d’entre elles sont élues. Elles représentent alors 5,6 % de l’Assemblée nationale : un chiffre bas, mais qui reste indépassé jusqu’en 1986.
La plupart de ces femmes ont été oubliées. Seuls quelques noms sont encore familiers, comme ceux de Germaine Poinso-Chapuis et de Marie-Madeleine Dienesch, toutes deux ministres, ou de Jeannette Vermeersch-Thorez, compagne du secrétaire général des communistes.
Les profils des élues sont très variés. Beaucoup ont une profession à une époque où être femme au foyer n’est pas rare. Elles sont ouvrières, avocates, institutrices, agrégées, employées, journalistes, infirmières… Elles ont entre 29 ans (Denise Bastide) et 56 ans (Marie Texier-Lahoulle). Elles sont élues dans toute la France, de la Guadeloupe à la Nièvre, même si elles sont relativement plus nombreuses à être élues dans la Seine.
Leurs appartenances politiques sont bien représentatives du spectre politique qui se dessine au début de cette nouvelle république : elles sont 17 communistes, 6 socialistes, 9 MRP et une de droite. Il est intéressant de constater que, alors que les opposants du vote agitaient le cléricalisme féminin et leur conservatisme, la majorité des femmes élues sont de gauche. C’est le fruit d’une politique de ces partis longtemps en faveur de l’émancipation des femmes. L’Union des femmes françaises (UFF), association émanant du Parti communiste français, créée en 1943, rassemble environ 600 000 adhérentes en 1945 : un vivier d’électrices autant que de candidates.
Le point commun qui unit la majorité de ces élues est leur rôle dans la Résistance. Femmes engagées pendant la guerre, elles se sont créées une aura politique qui a pu encourager certaines à se présenter… ou à être repérées par les partis en place lors de la constitution des listes de candidats. Ainsi, 27 d’entre elles ont mené des actions diverses de renseignement, de sabotage, d’accueil… Quelques-unes ont d’ailleurs été déportées. Plusieurs sont décorées de la Croix de guerre ou de la médaille française de la Résistance.
À lire aussi : Adolescentes et résistantes pendant la Seconde Guerre mondiale : naissance d’un engagement
On trouve parmi ces 33 députées quelques épouses d’hommes politiques ou de résistants. Il faut noter que cela n’est pas l’unique raison pour laquelle elles se sont présentées. Leur mérite personnel ne doit pas être diminué du fait de leurs connexions.
D’ailleurs, la plupart des élues de 1945 sont actives au Parlement. Ni potiches ni marionnettes, elles agissent avec les moyens qui sont les leurs sur des sujets qui leur tiennent à cœur. Par exemple, Émilienne Galicier, communiste résistante, est l’autrice de propositions de loi pour l’amélioration de la condition ouvrière, pour l’égalité des salaires femmes/hommes, la semaine de travail à quarante heures ou encore deux jours consécutifs de repos pour les femmes.
Francine Lefebvre, résistante catholique et membre du Mouvement républicain populaire (MRP), travaille au statut des délégués du personnel au sein des entreprises, elle réussit à obtenir les congés payés pour les femmes de vieux travailleurs, deux jours de congés payés supplémentaires pour les vendeuses des grands magasins condamnées à la station debout, ainsi que le relogement de familles nombreuses entassées dans des taudis.
Si les premières élections de 1945 sont plutôt favorables aux femmes (elles font une entrée timide, mais remarquée), leur nombre décroît dans toutes les instances représentatives dès les années 1950, amorçant une rapide décrue et une stagnation au plus bas pendant les quinze premières années de la Ve République. Ainsi, 25 des 33 élues de 1945 siègent ainsi pendant les deux assemblées constituantes, de 1945 à 1946. Et 11 d’entre elles siègent pendant toute la IVe République, de 1946 à 1958 – un nombre important quand on sait que la deuxième législature, de juin 1951 à janvier 1956, ne comprend que 22 députées.
Seules trois siègent pendant au moins un mandat de la Ve République, démontrant une vraie longévité politique. Germaine Poinso-Chapuis marque l’histoire en étant la première femme ministre de plein exercice. Elle est nommée par Robert Schuman, ministre de la santé publique et de la population en 1947. Marie-Madeleine Dienesch est la deuxième femme occupant un poste gouvernemental sous la Ve République, entre 1968 et 1974, en tant que secrétaire d’État à l’éducation nationale, puis aux affaires sociales, puis à l’action sociale et à la réadaptation.
Elles étaient 33 en 1945, elles sont 208 en 2025. En quatre-vingts ans, l’accession des femmes aux fonctions électives a beaucoup progressé, en particulier depuis la loi sur la parité qui célèbre, en 2025, son quart de siècle. Alors que l’histoire des femmes a elle aussi vivement avancé ces dernières années, il semble important de redonner à ces 33 pionnières toute leur place dans l’imaginaire républicain, alors que celui-ci peut encore être considéré comme teinté de masculinité.
Peu connues, ces femmes devraient faire l’objet de davantage de recherches pour mieux connaître leur parcours et approfondir, peut-être, les difficultés auxquelles elles ont pu être confrontées. Leur rendre cette justice serait aussi une manière de compléter notre connaissance de l’histoire de la République, tout en célébrant leur audace.
Anne-Sarah Moalic Bouglé est membre de Démocrates et Progressistes.
08.10.2025 à 12:02
Daniele Curci, PhD Candidate in International and American History, University of Florence
Sorti cet été, l’album posthume de Woody Guthrie, figure emblématique de la musique folk des années 1940-1960, résonne puissamment avec la situation actuelle des États-Unis : plusieurs des titres qu’il contient, consacrés à l’expulsion de migrants mexicains, à une justice raciste ou encore aux injustices économiques, auraient pu être écrits ces derniers mois…
Le 14 août est sorti Woody at Home, Vol.1 & 2, le nouvel album de Woody Guthrie (1912-1967), probablement l’artiste folk américain le plus influent, auteur de la célèbre « This Land Is Your Land » (1940), qui dans cet album est proposée avec de nouveaux vers.
L’album contient des chansons – certaines déjà connues, d’autres inédites – que Guthrie enregistra avec un magnétophone offert par Howie Richmond, son éditeur, entre 1951 et 1952 et qui sont désormais publiées grâce à une nouvelle technologie qui a permis d’en améliorer la qualité sonore.
La parution de l’album a été précédée par celle du single « Deportee (Plane Wreck at Los Gatos) », une chanson dont on ne connaissait jusqu’ici que le texte, que Guthrie écrivit en référence à un épisode survenu le 28 janvier 1948, lorsqu’un avion transportant des travailleurs saisonniers mexicains, de retour au Mexique, s’écrasa dans le canyon de Los Gatos (Californie), provoquant la mort de tous les passagers.
Un choix qui n’est pas anodin, comme l’a expliqué Nora Guthrie – l’une des filles du folk singer, cofondatrice des Woody Guthrie Archives et longtemps conservatrice de l’héritage politico-artistique de son père – lors d’un entretien au Smithsonian Magazine, dans lequel elle a souligné combien le message de son père reste actuel, au vu des expulsions opérées par l’administration de Donald Trump et, plus généralement, de ses tendances autoritaires, un thème déjà présent dans « Biggest Thing That Man Has Ever Done », écrite pendant la guerre contre l’Allemagne nazie.
Tout cela montre la vitalité de Woody Guthrie aux États-Unis. On assiste à un processus constant d’actualisation et de redéfinition de la figure de Guthrie et de son héritage artistique, qui ne prend pas toujours en compte le radicalisme du chanteur, mais qui en accentue parfois le patriotisme.
Un exemple en est l’histoire de « This Land Is Your Land » : de la chanson existent des versions comportant des vers critiques de la propriété privée, et d’autres sans ces vers. Dans sa première version, « This Land » est devenue presque un hymne non officiel des États-Unis et, au fil des années, a été utilisée dans des contextes politiques différents, donnant parfois lieu à des appropriations et des réinterprétations politiques, comme en 1960, lorsqu’elle fut jouée à la convention républicaine qui investit Richard Nixon comme candidat à la présidence ou, en 1988, lorsque George H. W. Bush utilisa la même chanson pour sa campagne électorale.
Guthrie lut le compte rendu de la tragédie du 28 janvier 1948 dans un journal, horrifié de constater que les travailleurs n’étaient pas appelés par leur nom, mais par le terme péjoratif de « deportees ».
Dans leur histoire, Guthrie vit des parallèles avec les expériences vécues dans les années 1930 par les « Oakies », originaires de l’Oklahoma, appauvris par les tempêtes de sable (dust bowls) et par des années de crise socio-économique, qui se déplaçaient vers la Californie en quête d’un avenir meilleur. C’était un « Goin’ Down The Road », selon le titre d’une chanson de Guthrie, où ce « down » signifiait aussi la tristesse de devoir prendre la route, avec toutes les incertitudes et les difficultés qui s’annonçaient, parce qu’il n’y avait pas d’alternative – et, en effet, le titre complet se terminait par « Feeling Bad ».
Parmi les difficultés rencontrées par les Oakies et les Mexicains, il y avait aussi le racisme et la pauvreté face à l’abondance des champs de fruits, comme lorsque les Mexicains se retrouvaient à cueillir des fruits qui pourrissaient sur les arbres (« The crops are all in and the peaches are rotting ») pour des salaires qui leur permettaient à peine de survivre (« To pay all their money to wade back again »).
Et, en effet, dans « Deportee », d’où sont extraites ces deux citations, Guthrie demandait avec provocation :
« Is this the best way we can grow our big orchards ?
Is this the best way we can grow our good fruit ?
To fall like dry leaves to rot on my topsoil
And be called by no name except “deportees” ? »Est-ce la meilleure façon de cultiver nos grands vergers ?
Est-ce la meilleure façon de cultiver nos bons fruits ?
Tomber comme des feuilles mortes pour pourrir sur ma terre arable
Et n’être appelés que par le nom de « déportés » ?
« We come with the dust and we go with the wind », chantait Guthrie dans « Pastures of Plenty » (1941, également présente dans Woody at Home), l’hymne qu’il écrivit pour les migrants du Sud-Ouest, dénonçant l’indifférence et l’invisibilité qui permettaient l’exploitation des travailleurs.
Guthrie, de cette manière, mesurait l’écart qui séparait la réalité du pays de la réalisation de ses promesses et de ses aspirations. Dans le langage politique des États-Unis, le terme « America » désigne la projection mythique, de rêve, de projet de vie qui entrelace l’histoire de l’individu avec celle de la Nation. En ce sens, pour Guthrie, les tragédies étaient aussi une question collective permettant de dénoncer la façon dont une minorité (les riches capitalistes) privait la majorité (les travailleurs) de ses droits et de son bien-être.
La vision politique de Guthrie devait beaucoup au fait qu’il avait grandi dans l’Oklahoma des années 1920 et 1930, où l’influence du populisme agraire de type jeffersonien – la vision d’une république agraire inspirée par Thomas Jefferson, fondée sur la possession équitable de la terre entre ses citoyens – restait très ancrée, et proche du Populist Party, un parti de la dernière décennie du XIXe siècle qui critiquait ceux qui gouvernaient les institutions et défendait les intérêts du monde agricole.
C’est également dans ce cadre qu’il faut situer le radicalisme guthrien qui prit forme dans les années 1930 et 1940, périodes où les discussions sur l’état de santé de la démocratie américaine étaient nombreuses et où le New Deal de Franklin Delano Roosevelt cherchait à revitaliser le concept de peuple, érodé par des années de crise économique et de profonds changements sociaux.
Guthrie apporta sa contribution en soutenant le Parti communiste et, à différentes étapes, le New Deal, dans la lignée du syndicat anarcho-communiste des Industrial Workers of the World (IWW) dont il avait repris l’idée selon laquelle la musique pouvait être un outil important de la militance. Dans le Parti, Guthrie voyait le ciment idéologique ; dans le syndicat, l’outil d’organisation des masses, car ce n’est qu’à travers l’union – un terme disposant d’un double sens dont Guthrie a joué à plusieurs reprises : syndicat et union des opprimés – qu’on parviendrait à un monde socialisant et syndicalisé.
L’engagement de Guthrie visait également à surmonter les discriminations raciales. Ce n’était pas chose acquise pour le fils d’un homme que l’on dit avoir été membre du Ku Klux Klan et fervent anticommuniste, qui avait probablement participé à un lynchage en 1911.
D’ailleurs, le même Woody, à son arrivée en Californie dans la seconde moitié des années 1930, portait avec lui un héritage raciste que l’on retrouve dans certaines chansons comme dans la version raciste de « Run, Nigger Run », une chanson populaire dans le Sud que Guthrie chanta à la radio, dans le cadre de sa propre émission, en 1937. Après cela, Guthrie reçut une lettre d’une auditrice noire exprimant tout son ressentiment quant à l’utilisation du terme « nigger » par le chanteur. Guthrie fut tellement touché qu’il lut la lettre à la radio en s’excusant.
Il entreprit alors un processus de remise en question de lui-même et de ce qu’il croyait être les États-Unis, allant jusqu’à dénoncer la ségrégation et les distorsions du système judiciaire qui protégeaient les Blancs et emprisonnaient volontiers les Noirs. Ces thèmes se retrouvent dans « Buoy Bells from Trenton », également présente dans « Woody at Home », qui se réfère à l’affaire des Trenton Six : en 1948, six Noirs de Trenton (New Jersey) furent condamnés pour le meurtre d’un Blanc, par un jury composé uniquement de Blancs, malgré le témoignage de certaines personnes ayant vu d’autres individus sur les lieux du crime.
« Buoy Bells from Trenton » a probablement été incluse dans l’album pour la lecture qu’on peut en faire sur les abus de pouvoir et sur les « New Jim Crow », expression qui fait écho aux lois Jim Crow (fin XIXe–1965). Celles-ci imposaient dans les États du Sud la ségrégation raciale, légitimée par l’arrêt Plessy v. Ferguson (1896) de la Cour suprême, qui consacrait le principe « séparés mais égaux », avant d’être abolies par l’arrêt Brown v. Board of Education (1954), le Civil Rights Act (1964) et le Voting Rights Act (1965).
Popularisée par Michelle Alexander dans le livre The New Jim Crow (2010), la formule désigne le système contemporain de contrôle racial à travers les politiques pénales et l’incarcération de masse : en 2022, les Afro-Américains représentaient 32 % des détenus d’État et fédéraux condamnés, alors qu’ils ne constituent que 12 % de la population états-unienne, chiffre sur lequel plusieurs études récentes insistent. Cette chanson peut ainsi être relue, comme le suggère Nora Guthrie, comme une critique du racisme persistant, sous des formes institutionnelles mais aussi plus diffuses. Un exemple, là encore, de la vitalité de Guthrie et de la manière dont l’art ne s’arrête pas au moment de sa publication, mais devient un phénomène historique de long terme.
Daniele Curci ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.10.2025 à 17:34
Rémi Lefebvre, Professeur de science politique université Lille 2, Université de Lille
France has been experiencing an unprecedented political crisis since President Emmanuel Macron dissolved parliament in June 2024. For political scientist Rémi Lefebvre, this deadlock is not only institutional: it reveals a crisis of representative governance fuelled by mistrust, social fragmentation and the erosion of majority rule.
Following the dissolution and the legislative elections that followed it, the governments of prime ministers Michel Barnier, François Bayrou and Sébastien Lecornu have all been unable to govern. Many commentators have suggested that this deadlock could be linked to a lack of compromise among political parties, or to unhelpful institutional rules. On the contrary, it seems that the disruption runs much deeper. The relationship with politics in France has changed in recent decades, and the current crisis is merely a symptom of the erosion and breakdown of the link between voter and representative itself.
In France, particularly since the 1970s, we have become accustomed to the “majority system”: the president was elected by direct universal suffrage and needed a majority in parliament, which he generally obtained. Political life had a routine rhythm of alternating majorities. Then this system gradually broke down.
The lack of alternatives to this rhythm has led to a proliferation of political parties, creating chronic disillusionment in each political camp. The rise of the far right, which claims to embody a new path, is associated with the blurring of the left-right divide. In 2017, the arrival of Macron was seen as the result of the exhaustion of this divide and a response to the democratic crisis, driven by a rhetoric of “transcendence”.
But the president has exacerbated the crisis by pushing the margins to extremes and, ultimately, polarising political life while shifting his own position to the right. Macron has fuelled the far right, and he has weakened the left. While there are strong calls for compromise, on the left, the Socialist Party (PS) is under the thumb of La France Insoumise (France Unbowed or LFI) and constantly exposed to accusations of “treason”. The difficulty in building majorities, linked to the tripartite nature of political life, is exacerbated by internal fragmentation within each bloc.
However, this crisis cannot be understood solely in terms of political manoeuvring. We must also take into account changes in the relationship between voters and politics. Since the early 2000s, the very mechanism of elections has been called into question. The legitimacy given to those in power by elections is increasingly weak, as explained by historian Pierre Rosanvallon. This is reinforced by the widespread development of strategic voting: people are increasingly voting “usefully” in order to eliminate candidates, but voters are no longer really expressing their preferences, which weakens their commitment to the appointment of a representative and the legitimacy of that representative. Thus, the electoral process is fundamentally flawed: this is referred to as “negative” democracy. We eliminate more than we choose.
Furthermore, the fragmentation of political identities partly reflects the fragmentation of society itself. The crisis of governance or governability is linked to a more individualised and fragmented society, exacerbated by inequalities and a form of separatism. Identities and divisions are more complex and less structured by homogeneous class identities, as explained by sociologist Gérard Mauger.
If political parties are unwilling to compromise, it is also because they do not want to disappoint the divided social groups that still support them and because they fear “betraying” distrustful voters and increasingly volatile and narrow electoral constituencies. Society is more polarised (the emotional polarisation caused by social media is undeniable), which also makes political compromises more difficult. We could add that the fragmentation and splintering of voters’ political identities is exacerbated by the weakness of the parties and their large number – there are now 11 parliamentary groups in the National Assembly, which is a record. One of the major consequences is that political parties are no longer able to organise public debate around a few coherent and simple visions.
Could the current political impasse be resolved by dissolution, negotiations, new parliamentary elections or even a presidential election? It is doubtful. Ultimately, it is possible that the carte blanche given to a French president, which comes via legislative elections that follow presidential polls, will no longer exist in the future. Political majorities are nowhere to be found, but perhaps neither are social and electoral majorities (ie alliances of social groups large enough to support political majorities).
The economic crisis we have been experiencing for the past year is part of an even broader trend, namely a considerable increase in mistrust of politics.
According to the 2025 barometer of political trust published by the Centre of Political Research at Sciences Po (CEVIPOF), around 20% of French people trust politicians. The French therefore consider the political class incapable of solving problems. They even consider it unworthy. It must be said that the spectacle on offer is rather unattractive, and it can be argued that the calibre of politicians is declining. Political scientist Luc Rouban has shown that this phenomenon fuels a desire to retreat into the private sphere along the lines of “leave us alone, we don’t care about politics”. The current crisis is therefore the product of this mistrust, and the political class’s inability to resolve it reinforces the phenomenon.
Disappointment and disillusionment have been building up for decades. The weakening of the left-right alternation that used to punctuate political life runs deep. Former president Nicolas Sarkozy served only one term, as did his successor François Hollande: both campaigned on volontarisme (the idea that the human will is capable of imposing change), but quickly disappointed. They pursued liberal economic policies that undermined the idea that politics could change things. Macron, who was re-elected, also disappointed. He fuelled the anti-elite sentiment that manifested itself powerfully during the “yellow vest” protests.
Ultimately, each camp is marked by disenchantment and produces mechanisms of polarisation. Thus, the Socialists produced LFI, which was the result of disappointment with the left in power. The far right is also, to a large extent, the result of political disillusionment. These two forces, LFI and Rassemblement National (the far-right National Rally), are hostile to any compromise.
This mistrust of politics is not specific to France, as political scientist Pierre Martin has shown in his analysis of the crisis facing governing parties. These mechanisms are present everywhere, in Europe and the US. Since the work of Colin Crouch, political scientists have even begun to talk about “post-democratic” regimes, where decisions are increasingly beyond the control of political power.
Globalisation, Europeanisation, and the power of large financial groups and lobbies have devalued political power and reduced its room for manoeuvre. However, politics raises expectations, and politicians attempt to re-enchant the electoral process by making promises at every election.
This situation is particularly difficult to accept in France, where there is a culture of very high expectations of the state. This crisis of volontarisme politique (which sees political leaders saying they will be capable of imposing change, but then failing to do so) is causing repeated disappointment. The latest CEVIPOF survey shows that mistrust is growing and is associated with a feeling of governmental and electoral impotence. The French believe that politics no longer serves any purpose: the sterile game of politics is spinning its wheels, with no impact on reality.
The current situation plays into the hands of the far right, as mistrust of politics fuels anti-parliamentarianism and also reinforces the idea that a political force that has not held office can be a solution.
In addition, a part of society finds itself aligned with right-wing issues: immigration, security, rejection of environmentalism, etc. In this context, the victory of the far right may seem inevitable. It has happened in the US, and it is difficult to imagine France escaping it, given the great fragmentation of the left, its pitfalls and its dead ends. However, if the far right comes to power – which would be a dramatic turn of events – it will also face the test of power and will certainly disappoint, without resolving the political crisis we are currently experiencing. Its electorate, which is very interclass (working class in the north, more middle class in the southeast), has contradictory expectations and it will be difficult to satisfy them.
It would be naïve to believe in an “institutional solutionism” that would resolve this political crisis. Democracy cannot be reduced to electoral rules and institutional mechanisms. It is underpinned by values, culture, practices and behaviours.
Given this, a change to proportional representation would encourage voters to vote according to their convictions and marginalise “tactical voting”. The aim would be to better reflect voters’ political preferences through the voting system and to re-legitimise the electoral process.
A Sixth Republic would certainly help to regenerate institutions linked to an exhausted presidential system, as demonstrated by political scientist Bastien François. Nowadays, the verticality of power no longer works in a society shaped by horizontal dynamics. The image associated with the French president accentuates disappointment by creating a providential figure who cannot keep his promises. While the French are not in favour of abolishing direct universal suffrage for presidential elections, it is possible to limit the powers of the president – just as it is possible to reverse the calendar with legislative elections preceding presidential ones.
Many works, such as those by political scientist Loïc Blondiaux, also propose ways of thinking about a new balance between representative democracy and participatory democracy, a more continuous democracy that is less focused on elections. For a long time, elections were sufficient to ensure democracy, but that cycle is now over. This means tinkering and experimenting – with referendums, citizens’ conventions, etc. – in order to find a new balance between participation and representation. However, these solutions are complex to implement, whereas democracy through voting alone was very simple. Finally, democracy is a culture, and it is necessary to encourage participation at all levels by promoting a more inclusive, less competitive society, particularly in schools and businesses.
Another issue is that of political parties: citizens no longer join them because they are perceived as unattractive. Some studies suggest that they should be reformed and that their public funding, for example, should be rethought, with funding being made conditional on the diversity of elected representatives.
Finally, a major democratic challenge is to regain control over the economic sphere. The debate on the Zucman tax highlights the political barrier that needs to be broken down: the power of the financial oligarchy. As long as political power has to bow down to finance, the deceptive logic of post-democracy will continue. However, inequalities have increased to such an extent that societies could demand a rebalancing. In this sense, post-democracy is not inevitable.
Economic forces will attempt to protect their positions and power, but, as political sociologist Vincent Tibérj shows, there is a very strong commitment to social justice and redistribution in France, even among the far right. Under pressure, the elites could therefore be forced to give in.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Rémi Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.10.2025 à 16:25
Timothée Duverger, Responsable de la Chaire TerrESS de Sciences Po Bordeaux, Sciences Po Bordeaux
Samedi 11 octobre 2025, les associations seront dans la rue pour dénoncer les violentes coupes budgétaires qui les menacent. C'est le résultat d'une lente dégradation des rapports entre le monde associatif et l’État. Par ailleurs, depuis la loi de 2021 instaurant un contrat d’engagement républicain (CER), certaines associations citoyennes sont sanctionnées par l’État, au détriment des libertés publiques.
Les associations battront le pavé lors d’une manifestation inédite, le 11 octobre 2025, pour défendre le fait associatif lui-même, et non une cause particulière. Cette mobilisation témoigne d’une crise profonde touchant à leur modèle économique mais aussi à la liberté associative, face à un État plus répressif. Elle en dit long sur la crise de l’État social comme sur l’état des libertés publiques en France. Comme si le tournant néolibéral des politiques publiques des années 1980 avait fini de saper l’alliance nouée après-guerre entre l’État et le monde associatif. Avec quelles conséquences ?
Le débat sur la réduction des déficits publics, mis à l’agenda en 2024, a révélé les mutations des aides publiques. Les associations ont longtemps été considérées comme une économie subventionnée. Or, non seulement la part des subventions publiques dans les ressources budgétaires des associations a baissé de 34 % à 20 % entre 2005 et 2020 au profit des recettes d’activité (vente de produits ou de services), mais en plus l’État préfère soutenir les entreprises que les associations au nom de la compétitivité.
L’économie sociale et solidaire (ESS), au sein de laquelle les associations concentrent la grande majorité des emplois et des ressources publiques, ne reçoit que 7 % des aides publiques aux entreprises alors qu’elle représente 13,7 % des emplois privés.
Ces orientations sont, de plus, porteuses d’iniquités de traitement. Le crédit d’impôt recherche (CIR), qui a financé à hauteur de 7,6 milliards d’euros la recherche et développement en 2024, exclut l’innovation sociale et, avec elle, les associations. Pour y remédier, on pourrait, par exemple, imaginer que les entreprises bénéficiaires en reversent 20 % à un fonds d’innovation sociale.
Dans le même sens, alors que la cotisation sur la valeur ajoutée des entreprises (CVAE) est en voie de disparition, la taxe sur les salaires pour les associations continue de s’appliquer, ce qui introduit une distorsion de concurrence avec des effets contreproductifs sur les conditions de rémunération et sur l’attractivité des emplois associatifs.
Cette régulation marchande aboutit à modifier en profondeur le modèle socioéconomique des associations, ce qui a deux conséquences majeures. D’une part, elle transforme les associations en prestataires de services publics. Entre 2005 et 2020, la part des commandes publiques dans leurs ressources budgétaires est ainsi passée de 17 % à 29 %, soit une inversion par rapport à l’évolution du poids des subventions.
Cela change également le rapport des associations avec les pouvoirs publics. Elles sont mises en concurrence avec des entreprises privées lucratives – ce qui a, par exemple, été à l’origine du scandale d’Orpea – et doivent, en plus, exécuter un marché plutôt que proposer des projets. D’autre part, la marchandisation de leurs ressources leur fait courir le risque de perdre leur caractère d’intérêt général, en étant soumises aux impôts commerciaux et en n’accédant plus aux dons défiscalisables, au détriment de leurs missions sociales.
Aujourd’hui, l’État impose donc un véritable plan social au monde associatif. Dans le contexte de réduction des déficits publics, pour lesquels les gouvernements successifs portent une lourde responsabilité, les coupes budgétaires s’appliquent d’abord aux associations. L’Union des employeurs de l’économie sociale et solidaire (Udes) a chiffré à 8,26 milliards d’euros les économies budgétaires impactant l’ESS lors du projet de loi de finances 2025.
Les effets de ces décisions sont immédiats. Selon une enquête réalisée auprès de 5 557 dirigeants associatifs, près d’un tiers des associations ont une trésorerie inférieure à trois mois et 45 % des subventions sont en baisse. Près d’un tiers des associations envisagent de réduire leurs effectifs et de diminuer leurs activités.
Alors que les associations représentent 1,8 million de salariés et que l’emploi associatif se caractérise par une prévalence du temps partiel et des contrats précaires ainsi que par des salaires plus bas, ces informations qui remontent du terrain inquiètent. Elles le sont d’autant plus que la baisse tendancielle des participations bénévoles est plus marquée dans les associations employeuses de l’humanitaire, du social et de la santé, qui concentrent la majorité des emplois.
À ces politiques d’austérité, il faut ajouter des atteintes aux libertés publiques. Elles s’inscrivent dans un contexte de défiance, illustré par la loi du 24 août 2021 confortant le respect des principes de la République, qui a instauré le contrat d’engagement républicain (CER) auquel doivent souscrire les associations qui veulent obtenir un agrément de l’État ou une subvention publique, ou encore accueillir un jeune en service civique.
Certes, les cas sont rares, mais ils témoignent d’une atmosphère répressive qui touche particulièrement les associations citoyennes. Le préfet de la Vienne a, par exemple, contesté l’attribution d’une subvention de la mairie de Poitiers à Alternatiba, en raison de l’organisation par cette association d’un atelier de formation à la désobéissance civile, tandis que le ministre de l’intérieur Gérald Darmanin a remis en cause le soutien public à la Ligue des droits de l’homme à la suite de ses critiques de l’action des forces de l’ordre lors des manifestations contre les bassines agricoles à Sainte-Soline (Deux-Sèvres).
Une enquête de l’Observatoire des libertés associatives fait état de sanctions institutionnelles, souvent liées à l’exercice de la liberté d’expression (prise de position, pétition, rencontre, manifestation, etc.). Ainsi, 9,6 % des répondants – et même 17,1 % des associations citoyennes – déclarent des sanctions matérielles (subventions, locaux, etc.) ou symboliques (participation à des événements, conventions, etc.). Des collectivités locales arrêtent brutalement certains programmes pour des raisons autant budgétaires qu’idéologiques, comme l’a illustré le cas médiatisé de la Région Pays de la Loire qui a supprimé 4,7 millions d’euros pour la culture, le sport et la vie associative.
À ce tableau, s’ajoute désormais la crainte d’une extrême droite accédant au pouvoir, extrême droite dont le programme de gouvernement prévoit de réserver les aides sociales aux Français en appliquant la « priorité nationale » pour l’accès au logement et à l’emploi. Autant de domaines dans lesquels les associations, très présentes, seraient sommées de « collaborer ». Les quelques expériences du RN à la tête d’exécutifs locaux comme les discours tenus dans les hémicycles des collectivités ou au Parlement laissent par ailleurs craindre une répression des associations environnementales, féministes ou de défense des droits ainsi qu’une instrumentalisation des politiques culturelles.
Il y a cinquante ans, une circulaire du premier ministre de l’époque, Jacques Chirac, stipulait que « l’État et les collectivités publiques n’ont pas le monopole du bien public ». Elle rappelait le rôle de l’initiative associative pour répondre à des tâches d’intérêt général pour soutenir les personnes vulnérables (personnes âgées, personnes en situation de handicap, lutte contre la pauvreté, lutte pour l’insertion, etc.), pour réduire les inégalités et pour préserver le lien social (éducation populaire, culture, sport, etc.).
C’est là tout l’héritage légué par la régulation tutélaire de l’État, mise en place après-guerre en s’appuyant sur les initiatives associatives pour répondre aux besoins des populations. Le développement de l’État social est allé de pair avec celui des associations gestionnaires, que la loi de 1975 sur les institutions sociales et médico-sociales est venue moderniser.
Il faudrait ajouter que la loi de 1901 sur les associations est avant tout une loi relative aux libertés publiques. Elle fut conquise après un siècle de luttes afin de permettre à des personnes de s’associer sans autorisation ni déclaration préalable. Rappelons qu’auparavant, la loi Le Chapelier de 1791 interdisait les corporations, l’État ayant développé une longue tradition de répression des associations, particulièrement marquée lors des périodes de reflux républicain (sous la Restauration et le Second Empire notamment).
Défendre les associations, c’est défendre nos droits fondamentaux, comme la République qui s’enracine dans le corps social et qui permet la vitalité démocratique. Comme l’écrivait Alexis de Tocqueville, « dans les pays démocratiques, la science de l’association est la science mère ; le progrès de toutes les autres dépend des progrès de celle-là ».
Timothée Duverger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.10.2025 à 16:25
Pierre-Christophe Pantz, Enseignant-chercheur à l'Université de la Nouvelle-Calédonie (UNC), Université de Nouvelle Calédonie
Le 54e Forum des îles du Pacifique, qui rassemble dix-huit États et territoires de cette zone – à savoir l’Australie, la Nouvelle-Zélande et l’essentiel de l’Océanie insulaire – a été le théâtre d’une nouvelle passe d’armes entre Pékin et Taipei. La République populaire de Chine y progresse, mais Taïwan parvient encore à y conserver des positions, trois de ces pays la reconnaissant officiellement (ce qui n’est le cas que de douze pays dans le monde au total).
Si la confrontation entre la Chine et les États-Unis se joue en mer de Chine méridionale, elle s’étend désormais jusque dans les petites îles du Pacifique, qui deviennent un baromètre des équilibres mondiaux entre coopération et confrontation.
Tandis que la pression militaire et stratégique exercée par la République populaire de Chine (RPC) s’intensifie autour de Taïwan (ou République de Chine), les autorités taïwanaises considèrent désormais l’année 2027 comme une échéance plausible pour une éventuelle invasion de l’île par Pékin. Une crainte partagée par Washington qui a estimé lors du Shangri-La Dialogue (mai 2025) que la Chine se prépare à « potentiellement utiliser la force militaire » et « s’entraîne tous les jours » en vue d’une invasion de Taïwan, avec une multiplication des manœuvres navales et aériennes autour de l’île.
Si ce face-à-face sino-américain se joue en mer de Chine méridionale, il a également des répercussions à plusieurs milliers de kilomètres de là, dans le Pacifique insulaire, où l’influence chinoise s’accentue depuis une quinzaine d’années. Pékin y mène une bataille plus discrète mais tout aussi stratégique : isoler diplomatiquement Taïwan et imposer sa « One-China Policy » (politique d’une seule Chine).
Réuni à Honiara (Îles Salomon) du 8 au 12 septembre 2025, le 54ᵉ Forum des Îles du Pacifique (FIP), qui regroupe 18 pays et territoires de cette vaste région, a été marqué par une décision inédite : à l’initiative des îles Salomon, pays hôte et allié indéfectible de Pékin, l’ensemble des « partenaires du dialogue » – dont Taïwan, les États-Unis et la Chine – ont été exclus du sommet.
Depuis 1992, Taïwan bénéficie pourtant de ce statut qui lui permet de rencontrer ses alliés du Pacifique en marge des réunions annuelles du Forum. Ce droit est inscrit dans le « communiqué d’Honiara » adopté par les dirigeants du Pacifique en 1992. Un statut que Pékin s’emploie depuis plusieurs années à remettre en cause, comme en témoigne le Forum organisé aux Tonga en 2024 où une mention du partenariat avec Taïwan avait même été supprimée du communiqué final après l’intervention de l’ambassadeur chinois Qian Bo – un succès diplomatique pour Pékin.
Le sommet de 2025 marque donc une nouvelle étape : certes, l’exclusion prive Taïwan de visibilité, mais les dirigeants du Forum ont finalement réaffirmé la décision de 1992, confirmant le statu quo.
Ce compromis illustre l’équilibre précaire entre pressions extérieures et cohésion régionale. Dans une région où l’aide publique au développement est particulièrement nécessaire, cette décision d’exclure les principaux partenaires et bailleurs de fonds de la principale institution régionale interroge, car elle fragilise le multilatéralisme du Forum et le menace de scission.
Depuis la résolution 2758 de l’ONU (1971), qui a attribué le siège de la Chine à la RPC, Taïwan a perdu la quasi-totalité de ses soutiens diplomatiques. De plus de 60 États qui le reconnaissaient à la fin des années 1960, puis une trentaine dans les années 1990, il n’en reste que 12 en 2025, dont trois dans le Pacifique : Tuvalu, les îles Marshall et Palau.
Les défections récentes – Îles Salomon et Kiribati en 2019, Nauru en 2024 – montrent l’efficacité de la stratégie chinoise, qui combine incitations économiques, rétorsions politiques et actions d’influence.
Le Pacifique reste cependant un espace singulier : il concentre encore 25 % des derniers soutiens mondiaux à Taïwan, malgré sa forte dépendance aux aides extérieures.
Depuis les années 2010, la Chine s’impose comme un acteur économique et diplomatique incontournable dans le Pacifique, la consacrant comme une puissance régionale de premier plan et mettant au défi les puissances occidentales qui considéraient cette région comme leur traditionnel pré carré.
Ses Nouvelles Routes et ceinture de la soie (Belt and Road Initiative, BRI) se traduisent par des investissements massifs dans des infrastructures essentielles : routes, hôpitaux, stades, télécommunications. Ces projets, souvent financés par des prêts, renforcent la dépendance économique des petites îles, ouvrant à Pékin de nouveaux leviers d’influence.
Sur le plan géostratégique, la Chine trace ainsi une cartographie où elle s’ouvre de vastes sections de l’océan Pacifique et s’en sert comme de relais pour projeter sa puissance et sécuriser ses intérêts dans la région. L’accord de sécurité signé en 2022 avec les Îles Salomon – autorisant le déploiement de personnel de sécurité chinois et l’accès de navires de guerre – illustre justement la progression de cette stratégie. Un pas qui alarme l’Australie et les États-Unis, qui redoutent l’établissement d’une base militaire chinoise dans une zone stratégique proche de leurs côtes.
Les puissances occidentales voient dans cette percée un défi à leur propre sphère d’influence et tentent de réinvestir la région du Pacifique Sud afin de contrer l’hégémonie chinoise. Sous la présidence de Joe Biden (2021-2025), les États-Unis ont relancé leur présence diplomatique, organisé des sommets avec les îles du Pacifique et multiplié les annonces d’aides via l’initiative Partners in the Blue Pacific.
L’Australie et la Nouvelle-Zélande renforcent leurs programmes de coopération, tandis que le Japon et la France accroissent leurs investissements.
Parallèlement, les dispositifs de sécurité se multiplient : pacte AUKUS (Australie, Royaume-Uni, États-Unis), stratégie indo-pacifique française, QUAD (Quadrilateral security dialogue) et partenariats bilatéraux visent à contenir l’expansion chinoise.
Le Pacifique insulaire, longtemps périphérique, s’apparente désormais à un espace central de rivalité géopolitique.
Pour les petits États insulaires (PEI), cette compétition représente à la fois une menace et une opportunité.
Conscients de l’effet de levier dont ils disposent en jouant sur la concurrence entre les grandes puissances, ils tentent néanmoins de préserver leur marge d’autonomie. Leur stratégie, résumée par la formule « amis de tous, ennemis de personne », cherche à éviter la polarisation et à maintenir la coopération régionale malgré des risques graduels : instrumentalisation du Forum, perte d’unité entre États insulaires, et surtout militarisation croissante d’un océan que les pays de la région souhaitent… pacifique, comme l’affirme la Stratégie 2050 pour le Pacifique bleu adoptée en 2022.
L’avenir du statut de Taïwan dans le Pacifique illustre parfaitement cette tension. Si Pékin compte poursuivre ses efforts pour réduire à peau de chagrin les irréductibles soutiens diplomatiques de Taipei, la réaffirmation du partenariat de développement par le FIP en 2025 montre que les États insulaires tentent de maintenir le cadre régional existant.
Si pour l’heure, le Pacifique insulaire reste encore un bastion – au moins symbolique – pour Taïwan et un terrain d’affrontement stratégique pour la Chine et les puissances occidentales, le défi pour les PEI sera de continuer à tirer parti de cette rivalité sans y perdre leur unité ni leur souveraineté. Leur capacité à préserver un Pacifique réellement « bleu » – à la fois ouvert, stable et pacifique – sera le véritable test des prochaines années de leur diplomatie régionale face aux rivalités des grandes puissances.
Pierre-Christophe Pantz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.