29.03.2026 à 16:41
Xavier Carpentier-Tanguy, Indopacifique, Géopolitique des mondes marins, réseaux et acteurs de l'influence, diplomatie publique, Sciences Po
Les mers et les océans du monde entier sont avant tout des lieux de passage pour navires commerciaux et militaires, et à ce titre deviennent des lieux de conflictualité dont le contrôle est essentiel du point de vue stratégique comme économique.
Alors que l’Iran a restreint l’accès au détroit d’Ormuz, provoquant une envolée des primes d’assurance et un ralentissement brutal des flux de pétrole et de gaz, la vulnérabilité de l’économie-monde apparaît au grand jour. Les frappes croisées, les menaces d’« escortes armées » et la militarisation accélérée du golfe Persique font de ce passage un laboratoire des conflits du XXIᵉ siècle.
Cette crise ne surgit pas ex nihilo : elle prolonge une longue histoire de bras de fer autour des détroits, canaux et mers intérieures. De Panama à Ormuz, en passant par la mer Rouge et l’espace arctique, ce sont les mêmes logiques de contrôle des flux qui sont à l’œuvre.
Depuis 2025, les États-Unis ont intensifié leur engagement stratégique pour le contrôle des espaces maritimes et des points de transit critiques, à travers une série d’opérations militaires et diplomatiques ciblées. En Amérique latine, cette posture s’est traduite par une intervention directe au Venezuela en janvier 2026, où une « attaque de grande envergure » a visé les infrastructures militaires et portuaires, notamment la base aérienne Generalissimo Francisco de Miranda et le port de La Guaira, principal accès maritime de Caracas. Cette opération, baptisée Absolute Resolve, a permis la capture du président Nicolás Maduro, accusé de trafic de drogue et de déstabilisation régionale, et a confirmé la volonté américaine de sécuriser les routes des Caraïbes et de contrer l’influence chinoise et russe dans la région.
Dès les années 1980, les États-Unis avaient déjà affirmé leur présence en Amérique centrale, avec des opérations comme Urgent Fury à Grenade en 1983, visant à protéger les ressortissants américains et à limiter l’influence cubaine. En décembre 1989, l’opération Just Cause au Panama a marqué un tournant : près de 27 000 soldats américains ont été déployés pour renverser le général Manuel Noriega, ancien allié devenu un obstacle à la stabilité régionale et à la maîtrise du canal de Panama, un point de passage stratégique pour le commerce mondial.
Plus récemment, les ambitions américaines se sont étendues à l’Arctique. Rappelons que l’administration Trump évoquait déjà sa volonté d’acquérir le Groenland en 2019, volonté réaffirmée avec force depuis un an. Cette initiative est révélatrice de l’importance croissante des routes maritimes polaires dans un contexte de fonte des glaces. Cette volonté de contrôle s’est poursuivie en 2025-2026 avec le renforcement des patrouilles et des infrastructures militaires dans la région, visant à sécuriser les accès au passage du Nord-Ouest et à contrer les ambitions russes et chinoises.
En février 2026, les États-Unis ont lancé l’opération « Epic Fury » contre l’Iran, une campagne militaire d’ampleur visant à neutraliser les capacités balistiques et navales iraniennes, ainsi qu’à empêcher toute reconstitution rapide de ces forces. Déclenchée le 28 février 2026, cette opération a mobilisé des frappes aériennes massives, des drones et une coordination interarmées, confirmant la volonté américaine de contrôler les espaces stratégiques du Moyen-Orient et de sécuriser les flux énergétiques et commerciaux — une volonté qu’a encore accrue la fermeture par Téhéran du détroit d’Ormuz.
Face à cette escalade, l’Europe a réagi avec détermination. Plusieurs États membres de l’UE ont déployé des moyens navals significatifs pour sécuriser Chypre et les axes maritimes stratégiques vers Suez et Ormuz. L’Italie a déployé la frégate Martinengo près de Chypre aux côtés de la frégate espagnole Cristobal Colon, tandis que les Pays-Bas ont préparé la frégate HNLMS Evertsen pour des opérations régionales. L’Allemagne a envoyé la frégate FGS Nordrhein-Westfalen dans la zone de Chypre, et la Grèce a mobilisé sa nouvelle frégate Kimon, équipée d’un système de défense aérienne longue portée, ainsi que la frégate de classe Hydra Psara. Le Royaume-Uni a annoncé l’envoi du destroyer de défense aérienne HMS Dragon à Chypre, équipé du système de missiles Sea Viper, ainsi que des hélicoptères dotés de capacités anti-drones. La France, enfin, a ordonné le déploiement de son porte-avions Charles-de-Gaulle, qui était encore en Baltique, ses moyens aériens embarqués et son escorte de frégates vers la Méditerranée.
À lire aussi : Le déploiement français au large de la guerre en Iran : cadre juridique et modalités d’action
Cette mobilisation européenne coordonnée vise à protéger les bases britanniques à Chypre, frappées par des drones iraniens, et à sécuriser les routes énergétiques vitales alors que la circulation dans le détroit d’Ormuz demeure un enjeu capital, perturbant l’approvisionnement mondial en pétrole et gaz.
En mars 2026, la pression exercée sur l’Iran s’inscrit dans cette continuité stratégique : elle illustre une doctrine de sécurisation des flux énergétiques, commerciaux et numériques, désormais concentrés dans des zones pivots comme le golfe Persique, la mer Rouge, la Méditerranée occidentale et le Haut-Nord.
Le détroit d’Ormuz, par lequel transitent entre 20 et 25 % du pétrole et du gaz naturel liquéfié mondiaux, reste le goulot d’étranglement central de l’économie globale. Sa géographie offre à Téhéran un levier structurel pour perturber la liberté de navigation. Les analyses de renseignement maritime de 2024 montrent que la contraction du trafic dans cette zone résulte de la dissuasion indirecte iranienne et de l’impact des primes d’assurance, même en l’absence de minage massif. Contrairement à Gibraltar ou à Suez, les navires traversant Ormuz atteignent directement les côtes du Golfe, où se concentrent des infrastructures pétrochimiques, des terminaux de GNL et des unités de dessalement, devenues des cibles stratégiques.
À lire aussi : Du détroit d’Ormuz à l’Europe : comprendre la rapidité de la propagation de l’insécurité énergétique
L’opération américaine « Praying Mantis » en 1988, déclenchée après le minage du USS Samuel B. Roberts, a marqué un tournant dans les tensions maritimes entre Washington et Téhéran.
Dans La confrontation en mer, Nicolas Mazzucchi démontre que l’océan est dorénavant autant un théâtre de confrontation qu’un simple espace de circulation. En réponse, l’Iran a développé des capacités asymétriques, déployant une « poussière navale » de centaines d’embarcations rapides, soutenues par des missiles côtiers et des drones. Cette architecture garantit une menace permanente sur les routes maritimes et assure une résilience face aux frappes conventionnelles, tout en permettant des ripostes ciblées ou massives contre les infrastructures régionales.
L’amiral Nicolas Vaujour, dans ses analyses sur la supériorité technologique – présentées dans son livre les Guerres en mer –, insiste sur l’impératif pour les marines modernes de s’adapter à ces nouvelles menaces. L’industrie européenne répond à ce défi avec des solutions souveraines, comme la solution Orange Drone Guardian lancée en 2026, qui renforce la détection des drones intrusifs et la protection des sites sensibles.
La vulnérabilité des routes alternatives confirme que l’évitement n’est pas une solution viable. L’attaque par drone contre le port saoudien de Yanbu et la campagne houthie en mer Rouge à l’automne 2023 ont démontré qu’un acteur lié à Téhéran peut paralyser jusqu’à 15 % du commerce mondial.
À lire aussi : Le retour des blocus navals en mer Noire et en mer Rouge : vers le démembrement d’un espace commun ?
Dans [Vaincre en mer], Thibault Lavernhe et François-Olivier Corman décrivent l’ère actuelle comme le « cinquième âge » du combat naval, où la saturation des senseurs et la coordination des attaques en temps réel redéfinissent les conditions de survie des navires. La suspension des attaques des houthis en 2026 suggère une « patience stratégique » : les milices conservent ce levier pour une escalade future, en fonction des rapports de force régionaux.
Car Téhéran étend désormais ses cibles aux infrastructures numériques, avec des frappes signalées contre des centres de données aux Émirats arabes unis et à Bahreïn. Cette guerre hybride vise à paralyser l’économie numérique mondiale. Le flux, quelle que soit sa nature, possède une valeur stratégique. L’empêcher ou le réduire, c’est affaiblir l’opposant et peser sur des négociations possibles.
En Méditerranée occidentale, l’Algérie a renforcé sa flotte de sous-marins Kilo armés de missiles Kalibr, adressant le signal capacitaire d’un possible verrouillage du détroit de Gibraltar sous une bulle de déni d’accès (A2/AD). Cette diffusion des stratégies de contestation des espaces maritimes se confirme aussi dans le Haut-Nord, où l’exercice Cold Response 2026 de l’OTAN met l’accent sur la maîtrise du spectre électromagnétique pour neutraliser les capteurs adverses avant tout engagement cinétique.
Les stratégies de déni d’accès (A2/AD) et les bulles de souveraineté redéfinissent les équilibres géopolitiques en mer, mais soulèvent des questions juridiques majeures au regard de la Convention des Nations unies sur le droit de la mer (UNCLOS, 1982). Ce traité, ratifié par 169 États, consacre la liberté de navigation en haute mer (article 87) et encadre strictement les droits des États côtiers dans leurs eaux territoriales (article 2) et zones économiques exclusives (article 56).
À lire aussi : La ZEE française, levier de puissance pour Paris dans le duel Washington-Pékin
Pourtant, les pratiques A2/AD, comme celles déployées par Pékin en mer de Chine méridionale ou par l’Iran dans le golfe Persique, exploitent les zones grises du droit international pour restreindre l’accès à des espaces stratégiques.
La Cour permanente d’arbitrage (CPA), dans l’affaire Philippines c. Chine (2016), a rappelé que les revendications maritimes doivent respecter les limites fixées par UNCLOS, notamment en matière de délimitation des ZEE et de passage inoffensif (articles 19 et 24). Les bulles A2/AD, en combinant missiles sol-mer, drones et guerre électronique, testent ces principes : elles peuvent être interprétées comme une violation du droit coutumier si elles restreignent arbitrairement la liberté de navigation, sauf en cas de menace avérée et proportionnée. Des juristes comme Myron H. Nordquist et Yu Minyou (Wuhan University) soulignent que ces stratégies révèlent les lacunes de UNCLOS face aux nouvelles technologies (drones, cyberattaques) et aux actions unilatérales, appelant à un renforcement des mécanismes de règlement des différends (Partie XV de UNCLOS) et à l’élaboration de normes coutumières complémentaires.
Dans ce contexte, où les flux maritimes – énergétiques, commerciaux et numériques – deviennent à la fois des enjeux et des armes, la capacité des États à garantir leur maîtrise continue s’impose comme un impératif stratégique. C’est cette exigence de maîtrise et de résilience des flux face aux perturbations qui trouve son écho dans la devise adaptée Fluxuat nec mergitur (qui pourrait se traduire par « Traversé par les flux, mais jamais entravé ») : nous sommes entrés de plain-pied dans l’ère de la polémorrhée – de polémos (la guerre) et rhéos (le flux).
Xavier Carpentier-Tanguy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 16:40
Ikram Chraibi Kaadoud, Chercheuse XAI & sciences cognitives, Inria
Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.
Un système d’IA doit toujours être supervisé par un humain, mais encore faut-il que cette personne soit en mesure de distinguer quand elle comprend ce que propose la machine et quand elle peut être influencée.
Les cadres contemporains de gouvernance de l’intelligence artificielle (IA) reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il doit être en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent transparence, explicabilité et supervision humaine.
Sont explicitement visés les systèmes utilisés dans le recrutement et l’évaluation des travailleurs, l’accès aux prestations sociales, les décisions d’octroi de crédit, le contrôle aux frontières, l’administration de la justice, et les soins de santé critiques.
Le plan d’action des États-Unis sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.
Ces engagements sont nécessaires mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.
Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle, et techniquement opaques – précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.
Par exemple, l’infirmier aux urgences en charge du triage aux urgences qui reçoit un score de triage produit par un système IA ne dispose pas systématiquement des explications qui l’ont généré. Le conseiller bancaire qui doit décider en quelques minutes de bloquer un compte sur la base d’une alerte de fraude automatisée travaille potentiellement avec un modèle propriétaire qu’il ne peut pas interroger. L’agent administratif qui valide l’attribution d’un logement social ou d’une prestation algorithmiquement priorisée ne peut généralement pas expliquer pourquoi un dossier a été classé avant un autre. L’enseignant qui contresigne une notation automatisée d’examen n’a pas accès aux critères qui ont produit le score. Dans chacun de ces cas, la supervision humaine est formellement présente – et substantiellement impossible.
La métacognition – la capacité à monitorer et réguler ses propres processus cognitifs – est le substrat psychologique d’une supervision efficace. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.
La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation – la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement – est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, les chercheurs Parasuraman et Riley ont montré en 1997 que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique – deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information. Par exemple, dans des expériences en simulateur de vol citées par ces auteurs, des pilotes équipés d’un système d’alerte automatique ont éteint un moteur en réponse à une fausse alerte – une décision qu’ils avaient eux-mêmes déclaré, avant l’expérience, ne jamais prendre sur la seule foi d’une alerte automatisée.
Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Les travaux de Kahneman sur une cognition à double processus – connu aussi sous le nom de Système 1/Système 2, les deux vitesses de pensées – éclairent ce mécanisme. Face à un système IA qui produit un output avec fluidité et assurance, l’esprit humain tend à activer un traitement rapide et intuitif (celui qu’on mobilise pour des tâches familières et peu risquées), plutôt que de réaliser une analyse profonde de la situation, plus longue, plus réfléchi, plus logique, et donc plus gourmande cognitivement.
Plus concrètement, une explication qui paraît plausible déclenche des réponses cognitives différentes d’une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative.
Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Une équipe de recherche, dans une étude expérimentale rigoureuse, a constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions – notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements.
Plus concrètement, sur la tâche d’analyse de sentiment, l’IA expliquait son jugement en surlignant les mots qu’elle avait identifiés comme positifs ou négatifs. Or les participants humains évaluaient le ton d’un texte de manière globale, en tenant compte du contexte et de la cohérence d’ensemble – un processus que la mise en évidence de mots individuels ne peut pas restituer. Ici, l’IA et l’humain n’arrivent pas à leur jugement par le même chemin : L’IA identifie des élements locaux (un mot, une phrase), là ou l’humain construit un jugement holiste (l’ensemble du texte, le contexte, la cohérence interne). Quand l’explication fournie reflète la logique de la machine plutôt que celle du raisonnement humain, elle ne donne pas à l’opérateur les outils pour évaluer si la recommandation est fiable – elle le convainc simplement de la suivre.
L’explicabilité est ainsi une condition nécessaire mais insuffisante d’une supervision efficace. Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.
Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique – parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales –, trois implications peuvent être énoncées :
La transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans impliquer les individus dans les processus de conception de ces explications et de cette documentation et prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que « trop d’explications » peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.
La qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé.
Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie – et en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à questionner la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». La métacognition n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.
Ikram Chraibi Kaadoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 16:39
Catherine Maia, Professeure de droit international à l’Université Lusófona (Portugal) et professeure invitée à Sciences Po Paris (France), Sciences Po
At a time when military tensions in the Middle East have further intensified in recent weeks, in the context of operations conducted by the United States and Israel and renewed concerns surrounding Iran’s nuclear programme, a recurring question has re-emerged in public debate: why does Israel possess nuclear weapons while Iran is legally prohibited from acquiring them?
Often framed in terms of unequal treatment or “double standards,” this question actually relates to the very structure of the international legal regime governing nuclear weapons.
International law is a legal order created by states and for states. As such, it is grounded in the consent of states, which derives from their sovereignty. This fundamental principle also applies to the legal regime governing nuclear weapons: the possession of nuclear weapons – or the decision to renounce them – is a matter of sovereign choice. In other words, only a state may consent to limiting its military capabilities by renouncing possession of such weapons of mass destruction.
This state voluntarism is clearly reflected in the 1968 Treaty on the Non-Proliferation of Nuclear Weapons (NPT).
This treaty constitutes one of the pillars of collective security in international law. Its purpose is to prevent the proliferation of nuclear weapons – in particular to additional states – in order to promote nuclear disarmament, and encourage safe and peaceful use of nuclear energy.
The NPT distinguishes between nuclear-weapon states (United States, Russia, the United Kingdom, France, and China) and non-nuclear-weapon states. More specifically, it defines nuclear-weapon states as those that had manufactured and exploded a nuclear weapon or other nuclear explosive device before 1 January 1967, while the other parties are classified as non-nuclear-weapon states and have agreed to forswear the possession of nuclear weapons.
This fundamental distinction structures the entire legal regime of the treaty and entails differentiated but complementary obligations among the 191 States parties. While non-nuclear-weapon states agree not to acquire nuclear weapons, nuclear-weapon states agree not to transfer such weapons or assist other states in acquiring them. The treaty also stipulates an obligation to pursue negotiations in good faith towards nuclear disarmament.
In a context marked by Cold War tensions and fears of an uncontrolled proliferation of nuclear powers, the spread of nuclear weapons to an increasing number of states was perceived in 1968 as a major factor of international instability and a heightened risk of nuclear conflict. Against this backdrop, the compromise at the heart of the NPT was accepted, based on a differentiated allocation of obligations between nuclear-weapon states and non-nuclear-weapon states.
Although this asymmetrical compromise may, at first glance, appear unequal, it was designed as an instrument of strategic stability and collective security, while also constituting a direct expression of state sovereignty. A state may indeed decide to limit its own prerogatives. In return, breaches of these commitments entail legal consequences. This is where the debate over the different treatment of Iran and Israel arises.
Iran has been a party to the NPT since 1970 and is legally bound, as a non-nuclear-weapon state, not to acquire nuclear weapons, while also being subject to the safeguards mechanisms of the International Atomic Energy Agency (IAEA). Its nuclear programme is therefore assessed within a treaty framework that imposes specific legal obligations and international verification requirements.
By contrast, Israel is not a party to the NPT. Under the principle of the relative effect of treaties, Israel, not being a party to the NPT, cannot be legally bound by obligations arising from that treaty.
The difference in treatment between the two countries thus stems less from a legal inconsistency than from the very logic of international law. It illustrates the coexistence within the international order of de jure nuclear-weapon states and de facto nuclear-weapon states, such as Israel.
Several states currently possess nuclear weapons outside the framework of the NPT. In addition to Israel, this is also the case for India, Pakistan and North Korea (since its withdrawal from the treaty in 2003). Their situation does not, in itself, constitute a violation of the NPT, since they are not (or are no longer) parties to it. They therefore operate within a legal framework distinct from that applicable to states bound by the treaty.
This situation reflects a fundamental feature of the international legal order: the coexistence of treaty regimes to which not all states necessarily adhere. One example is the 2017 Treaty on the Prohibition of Nuclear Weapons (TPNW), to which 74 states are currently parties, and which prohibits the acquisition, possession and use of such weapons. This legal regime coexists alongside that of the NPT.
Accordingly, the question of why Israel possesses nuclear weapons, while Iran is denied that possibility is less a reflection of a contradiction in international law than a consequence of its structure.
In the absence of a treaty commitment, general international law does not currently establish a comprehensive and absolute prohibition on the possession of nuclear weapons as such. Only those states that have consented to specific obligations – notably within the framework of the NPT or the TPNW – are legally bound.
This analysis is supported by the jurisprudence of the International Court of Justice. In its 1986 judgement in Military and Paramilitary Activities in and against Nicaragua, the Court stated:
“In international law there are no rules, other than such rules as may be accepted by the state concerned, by treaty or otherwise, whereby the level of armaments of a sovereign state can be limited, and this principle is valid for all states without exception.”
Thus, in accordance with the principle of sovereign equality, limitations on military capabilities derive solely from state consent. In the absence of such a commitment, no state may legally impose on another an obligation of renunciation.
International law governing nuclear weapons therefore does not establish any general right to possess such weapons.
Rather, it reflects the existence of sovereign commitments through which some states have chosen to renounce them, while others have decided not to subject themselves to such constraints.
This article was co-authored with Débora Surreco Carrilho, PhD candidate in international law, University of Orléans (France).
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Catherine Maia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 16:28
Rob Nicholls, Senior Research Associate in Media and Communications, University of Sydney

Le verdict rendu dans l’affaire KGM pourrait marquer un moment charnière pour l’industrie des réseaux sociaux. En reconnaissant l’addiction comme un dommage possible, la justice américaine ouvre la porte à de nombreuses autres poursuites.
Instagram et YouTube présentent un défaut de conception qui rend ces réseaux sociaux addictifs, a jugé un jury aux États-Unis. Le jury de Los Angeles a mis près de neuf jours à rendre son verdict dans cette affaire historique intentée par une femme identifiée sous les initiales KGM contre les plateformes de réseaux sociaux. Il a accordé 3 millions de dollars (2,6 millions d'euros) de dommages et intérêts, Meta (propriétaire d’Instagram) étant jugé responsable à 70 % et Google (propriétaire de YouTube) à 30 %. Le jury a ensuite accordé 3 millions de dollars supplémentaires de dommages punitifs.
TikTok et Snap ont tous deux conclu un accord à l’amiable, dont les termes restent confidentiels, avant le début du procès de six semaines. Il s’agit de la deuxième lourde défaite de Meta devant les tribunaux américains la même semaine. Le 24 mars, un jury du Nouveau-Mexique a en effet jugé l’entreprise coupable d’avoir dissimulé des informations sur les risques d’exploitation sexuelle des enfants et sur les effets néfastes de ses plateformes sur la santé mentale des mineurs.
L’affaire portée par KGM est la première du genre, mais elle ne sera pas la dernière. Elle fait partie de plus de vingt procès dits « bellwether » qui doivent bientôt être jugés. Il s’agit en quelque sorte de procès tests, destinés à mesurer la réaction des jurys et à établir un précédent juridique.
Le verdict pourrait donc avoir des répercussions considérables. Il pourrait marquer pour la tech un moment comparable à celui qu’a connu l’industrie du tabac, avec des milliers d’affaires similaires prêtes à être portées devant les tribunaux.
KGM — aujourd’hui âgée de 20 ans — affirme avoir commencé à utiliser YouTube à l’âge de six ans et Instagram à neuf ans, développant selon elle des usages compulsifs, pouvant aller jusqu’à 16 heures passées en une seule journée sur Instagram. Elle soutient que les caractéristiques de conception de ces plateformes ont contribué à son anxiété, à sa dépression, à sa dysmorphie corporelle et à des idées suicidaires.
Son action en justice affirme que Meta et YouTube ont fait des choix de conception délibérés — comme le « défilement infini » — pour rendre leurs plateformes plus addictives pour les enfants afin d’augmenter leurs profits. Elle soutient que les entreprises se sont largement inspirées des techniques comportementales et neurobiologiques utilisées par les machines à sous et exploitées par l’industrie du tabac afin de maximiser l’engagement des jeunes et d’augmenter les revenus publicitaires.
L’avocat de KGM, Mark Lanier, a déclaré aux jurés :
Ces entreprises ont construit des machines conçues pour rendre dépendants les cerveaux des enfants, et elles l’ont fait délibérément.
L'avocat a cité une étude interne de Meta appelée « Project Myst ». Celle-ci aurait montré que les enfants ayant déjà subi des « effets négatifs » étaient les plus susceptibles de devenir dépendants à Instagram, et que les parents étaient impuissants face à cette addiction.
À partir du moment où [KGM] a été enfermée dans la machine, sa mère en a été exclue.
Les jurés ont également entendu que des communications internes de Meta comparaient les effets de la plateforme à ceux de la drogue et des jeux d’argent. Le jury a estimé que cette prise de conscience en interne constituait un niveau de connaissance susceptible d’engager la responsabilité de l'entreprise.
Par ailleurs, une note interne de YouTube décrivait apparemment « l’addiction des spectateurs » comme un objectif, et un employé d’Instagram a écrit que l’entreprise était composée de « véritables dealers ».
Mark Lanier a établi un parallèle direct avec les procès contre l’industrie du tabac, soutenant que lorsque l’on trouve une connaissance en interne du phénomène, un ciblage délibéré et un déni public, la responsabilité juridique s’ensuit.
Meta a soutenu que KGM faisait face à d’importantes difficultés bien avant d’utiliser les réseaux sociaux et que les éléments présentés ne permettaient pas de réduire toute une vie d’épreuves à un seul facteur.
L’avocat de Meta a mis en avant la dynamique familiale de KGM comme cause de ses troubles de santé mentale et a affirmé que les réseaux sociaux avaient peut-être au contraire constitué pour elle un exutoire lorsqu’elle rencontrait des difficultés à la maison.
Le directeur général de Meta, Mark Zuckerberg, a témoigné pour la défense :
Je n’essaie pas de maximiser le temps que les gens passent chaque mois sur nos plateformes.
À propos des outils de sécurité que Meta a ajoutés ces dernières années, Zuckerberg a précisé :
J’aurais aimé que nous y arrivions plus tôt.
Dans leurs plaidoiries finales, les avocats de YouTube ont fait valoir qu’il n’existait pas une seule mention d’une addiction à YouTube dans le dossier médical de KGM.
Les deux entreprises ont fondé une partie de leur défense sur les protections prévues par la Section 230, soutenant qu’elles ne pouvaient pas être tenues responsables des contenus publiés sur leurs plateformes.
Le juge a toutefois indiqué aux jurés que la manière dont les contenus sont diffusés constitue une question distincte de leur nature. Cette distinction a limité la capacité de Meta et de Google à s’appuyer sur les protections offertes par la Section 230.
Il s’agit de l’une des premières affaires visant une grande entreprise technologique à être jugée par un jury — une situation que ces entreprises ont jusque-là cherché à éviter.
Ainsi, en juin 2024, quelques mois avant un procès devant jury dans l’affaire intentée par le Département de la justice contre le monopole de Google dans les technologies publicitaires, Google a versé plus de 2 millions de dollars (1,73 million d'euros) au Département de la justice. Cette somme représentait le triple des dommages réclamés, auxquels s’ajoutaient les intérêts.
Aux États-Unis, un procès devant jury n’est requis que lorsqu’il est question de dommages et intérêts. En payant d’avance l’intégralité de la somme réclamée dans cette affaire, Google avait supprimé la demande de dommages et intérêts — et, avec elle, le droit à un procès devant jury. Jusqu’à présent, les tribunaux américains ont largement rejeté les recours qui mettaient en cause la conception même des plateformes.
Cela concerne notamment le défilement infini et les systèmes de notifications. La distinction entre « conception de la plateforme » et « curation du contenu » a été centrale dans la manière dont les tribunaux ont analysé les arguments fondés sur le Premier amendement dans ces litiges.
Le verdict rendu par le jury dans l’affaire KGM met en lumière les limites de la protection offerte par la Section 230.
C’est la première grande affaire visant une entreprise de la tech, à l’échelle mondiale, à examiner l’addiction comme source de préjudice. Jusqu’ici, les procédures se concentraient surtout sur des violations de la loi.
Dans le procès intenté au Nouveau-Mexique contre Meta, par exemple, le jury a estimé que l’entreprise avait fait des déclarations fausses ou trompeuses et s’était livrée à des pratiques commerciales « abusives », exploitant la vulnérabilité et l’inexpérience des enfants. Des milliers d’infractions ont été retenues, pour une sanction totale de 375 millions de dollars (325 millions d'euros).
L’affaire KGM ouvre la voie aux nombreuses autres procédures visant à obtenir des dommages et intérêts auprès des plateformes de réseaux sociaux pour les effets de l’addiction. Aux États-Unis, ces affaires pourraient logiquement être examinées ensemble dans le cadre d’une action collective. Le verdict pourrait aussi servir de base à d’autres recours, collectifs ou individuels, dans le monde entier.
Meta et Google ont indiqué séparément qu’ils comptaient faire appel de la décision.
Rob Nicholls fait partie du Centre for AI, Trust, and Governance de l’Université de Sydney et reçoit des financements de l’Australian Research Council.
29.03.2026 à 10:38
James L. Flexner, Senior Lecturer in Historical Archaeology and Heritage, University of Sydney
En Polynésie française, des dizaines de maisons construites en corail témoignent d’un profond bouleversement provoqué par l’arrivée des missionnaires au XIXᵉ siècle. Grâce à une méthode de datation très précise, des archéologues parviennent aujourd’hui à retracer pour la première fois le calendrier de leur construction.
Les îles Mangareva (Ma'areva) se situent à environ 1 600 kilomètres au sud-est de Tahiti, en Polynésie française. Elles tirent leur nom – qui signifie « montagnes flottantes » – de l’effet produit par les embruns qui se brisent sur les atolls coralliens environnants, ou motu : les anciens sommets volcaniques donnent alors l’impression de flotter au-dessus des vagues.
Aujourd’hui, les îles abritent environ 2 000 habitants, dont beaucoup travaillent dans les fermes perlières installées dans le lagon turquoise. À travers les îles subsistent aussi les vestiges de dizaines d’édifices remarquables : des maisons construites en corail.
Dans le cadre d’un projet plus vaste consacré aux transformations de la vie quotidienne à Mangareva au XIXᵉ siècle, mon équipe de recherche en archéologie a documenté des dizaines de ces maisons de corail, notamment sur les îles d’Aukena, Akamaru, Mangareva et Taravai.
Aujourd’hui, dans un nouvel article publié dans la revue Antiquity, nous avons établi la première chronologie précise de la construction de ces maisons de corail.
Ces résultats mettent en évidence de nouvelles dynamiques dans la manière dont les sociétés du Pacifique ont transformé leur environnement bâti après le contact avec les Européens – et montrent comment cet héritage colonial continue encore aujourd’hui de façonner la vie locale.
Des missionnaires catholiques français ont établi un poste à Mangareva à partir de 1834. En plus d’apprendre les prières, d’assister aux offices religieux et de lire la Bible, les habitants de Mangareva ont profondément modifié leur vie quotidienne à leur contact. Parmi les nombreux changements figure une transformation complète des espaces domestiques.
En quelques décennies, les habitations traditionnelles en bois et en chaume ont été remplacées par un nouveau type de petites maisons en pierre. Les missionnaires consignaient souvent des dates précises pour leurs constructions, en particulier pour la cathédrale de Rikitea, les églises réparties dans l’archipel ou encore les principales écoles catholiques.
En revanche, pour la catégorie de bâtiments la plus nombreuse de cette période – les maisons –, nous ne disposons généralement d’aucune information sur leur date de construction, sur ceux qui les ont bâties ni sur les personnes qui y ont vécu.
Lors de travaux de terrain en octobre 2024, j’ai remarqué que l’un des blocs de corail tombé du mur de la maison en ruine que nous fouillions contenait des coraux branchus qui semblaient très frais, presque comme s’ils venaient d’être coupés sur le récif vivant.
Nous avons utilisé une technique avancée appelée datation uranium-thorium (U-Th) pour déterminer l’âge de ces coraux branchus – et des structures construites à partir d’eux.
Contrairement à la datation au radiocarbone, plus connue et dont les marges d’erreur se comptent en décennies, la datation U-Th est extrêmement précise : elle permet de déterminer à quelques années près la date à laquelle les coraux sont morts, ne laissant derrière eux que leur exosquelette dur.
Contrairement aussi à la datation au radiocarbone, qui n’est pas très fiable pour des matériaux âgés de moins d’environ quatre cents ans, la datation U-Th fonctionne jusqu’à des périodes très récentes, voire presque jusqu’à nos jours.
Nous avons prélevé un échantillon « témoin » sur un bâtiment dont la date est connue – l’école de garçons d’Aukena construite dans les années 1850 – ainsi que des échantillons provenant de huit autres maisons et d’une tour de guet en corail.
Nous avons également prélevé un corail branchu dans une couche de fosse située dans la même maison où j’avais remarqué pour la première fois ces branches de corail à l’aspect « frais » dans les blocs.
À l’époque, nous pensions que cette fosse contenait les restes d’un festin organisé juste avant la construction de la maison. Les dates qui se recoupent dans nos résultats U-Th ont confirmé cette hypothèse.
Après analyse des échantillons, nous avons été surpris de constater que plusieurs dates ne correspondaient pas à ce que nous avions prévu.
Certains coraux semblaient être morts avant les années 1830, lorsque les missionnaires sont arrivés. Certains remontaient même à une période antérieure au contact avec les Européens dans les années 1790.
Un problème similaire est bien connu dans la datation au radiocarbone : le problème du « vieux bois », où la date de la mort d’un organisme peut précéder de plusieurs décennies, voire de plusieurs siècles, l’événement que l’archéologue cherche à dater. Étions-nous confrontés ici à un problème de « vieux corail » ?
Deux explications sont possibles.
Un archéologue ayant visité Mangareva dans les années 1930 a signalé des amas de débris de corail qu’il pensait être les restes de marae, des structures autrefois sacrées renversées pendant la période missionnaire. Cela ouvre la possibilité que ce corail ancien ait été réutilisé pour de nouvelles constructions.
Une autre explication possible pour ce type de corail, appartenant au genre scientifique Acropora, est que certaines branches meurent à distance de la zone de croissance active du récif au fil des années ou des décennies, tout en conservant leur apparence « fraîche ».
Ce scénario est peut-être le plus probable, car nos dates « trop anciennes » ne devançaient la chronologie attendue que de quelques années ou décennies, et non de plusieurs siècles. Mais nous ne pouvons pas non plus écarter complètement l’hypothèse des marae.
Il nous reste encore beaucoup à apprendre sur la manière dont les populations utilisaient le corail pour construire leurs bâtiments dans le passé – et peut-être aussi sur la façon dont les récifs coralliens se sont régénérés, ou non, après des décennies d’exploitation humaine. Ce dernier point pourrait être important pour réfléchir plus attentivement à nos propres relations avec les récifs coralliens aujourd’hui.
James L. Flexner est professeur associé d’archéologie historique et de patrimoine à l’Université de Sydney. Cette recherche est financée par l’Australian Research Council (FT210100244).
29.03.2026 à 09:03
Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
Les élections municipales sont terminées, mais un conflit discret persiste dans les campagnes françaises. Il ne porte ni sur l’agriculture ou le prix de l’essence, ni même sur la santé. Il concerne la culture. En effet, sous les radars médiatiques, une tension croissante apparaît autour de la question de ce que doit être l’offre culturelle dans les territoires ruraux.
Ce conflit latent s’est récemment invité dans le débat public à travers le plan « Culture et ruralité » porté par Rachida Dati. Ayant pour enjeu de renforcer l’offre artistique dans les territoires ruraux, ce plan s’inscrit dans la rhétorique désormais bien installée de la lutte contre les « déserts culturels ».
Derrière cette expression plane l’idée qu’une partie du territoire national n’aurait pas accès à la culture et nécessiterait une intervention publique renforcée. Mais cette manière de poser le problème n’est pas neutre.
Elle repose sur une représentation particulière de la culture et sur une lecture implicite des territoires ruraux comme des espaces culturellement déficitaires. Autrement dit, la question n’est pas seulement celle de l’accès à la culture, mais celle de la définition même de ce qui est considéré comme tel.
Pour comprendre cette situation, il faut revenir sur l’histoire des politiques culturelles françaises. Celles-ci se sont structurées autour d’un projet de maillage territorial visant à diffuser les œuvres artistiques sur l’ensemble du territoire. Lorsque André Malraux devient ministre des affaires culturelles en 1959, il affirme l’objectif de permettre la rencontre entre « les grandes œuvres de l’humanité » et le public le plus large possible, tout en précisant que « si la culture existe, ce n’est pas du tout pour que les gens s’amusent ». La création des maisons de la culture participe de cette ambition : rendre accessibles les formes artistiques légitimes, et donc tout à fait sérieuses, mais souvent éloignées des pratiques culturelles existantes et des attentes des publics.
À partir des années 1980, malgré l’affirmation d’une démocratie culturelle plus attentive à la diversité de ces pratiques, la décentralisation renforce néanmoins ce modèle en consolidant un réseau d’institutions :scènes nationales, médiathèques, musées… Ce maillage demeure toutefois largement structuré par les centralités urbaines. Les territoires ruraux apparaissent alors en périphérie de cette organisation, ce qui alimente aujourd’hui la lecture en termes de « désert culturel ».
Cette lecture mérite cependant d’être nuancée à un double titre. D’une part, les territoires ruraux ne sont pas dépourvus de pratiques culturelles. Sociabilités associatives, fêtes locales, pratiques amateurs ou liées au patrimoine structurent des espaces culturels à part entière, bien que peu reconnus par les acteurs institutionnels. Et ce sont bien des pratiques culturelles, parce qu’elles génèrent cette situation sociale inédite : l’expérience esthétique, fût-elle produite par des formes et des objets (musicaux, plastiques, écrits, visuels, numériques, etc.), des artefacts qui n’appartiennent pas à l’histoire de l’art.
D’autre part, l’action publique elle-même ne se limite pas à l’État. Dans de nombreux territoires ruraux, les communautés de communes jouent aujourd’hui un rôle central dans l’offre culturelle. Elles assurent la gestion d’équipements, soutiennent des programmations, coordonnent des réseaux associatifs et portent des projets à l’échelle intercommunale.
Ces acteurs intermédiaires occupent une position singulière. Ils se situent à la fois en relais et en tension avec les orientations nationales. D’un côté, ils dépendent des arbitrages opérés par les directions régionales des affaires culturelles (Drac), qui continuent de structurer l’accès aux ressources et la légitimité des projets. De l’autre, ils développent des stratégies propres, parfois en complément, en décalage, voire en opposition aux priorités définies à l’échelle nationale. Ce jeu d’ajustements produit des configurations locales hétérogènes, où l’offre culturelle résulte autant d’un modèle descendant que de négociations entre échelles d’action et de rôle des élus à travers, par exemple, les projets culturels de territoires.
Par ailleurs, les campagnes françaises ont profondément changé. Comme l’a montré Jean-Pierre Le Goff, elles sont traversées par des recompositions liées notamment aux mobilités résidentielles et à l’installation de populations issues des classes moyennes urbaines. Ces transformations, particulièrement visibles dans les espaces périurbains, brouillent les frontières entre ville et campagne. Elles introduisent aussi de nouvelles attentes culturelles, portées notamment par ces nouveaux habitants, et parmi eux, ceux que Le Goff appelle les « cultureux », un terme péjoratif qui désigne les dépositaires et tenants de la culture « légitime » venant « de la ville ».
Dans ce contexte, l’action culturelle peut devenir un vecteur de diffusion de référentiels urbains. Mais ce modèle peut entrer en décalage avec les formes culturelles préexistantes. Certaines pratiques locales restent marginalisées ou invisibilisées. La musique country par exemple, largement plébiscitée et pratiquée (musiques et danses) en milieu rural est totalement absente des politiques culturelles. Le risque est alors celui d’un malentendu : des politiques conçues pour « apporter » la culture dans des territoires où elle existe déjà, mais sous d’autres formes.
Pour autant, les dynamiques actuelles ne se réduisent pas à une opposition entre culture légitime et pratiques locales, ni entre ville et campagne. On observe l’émergence de configurations hybrides : tiers-lieux, collectifs artistiques/habitants ou encore réinventions de formes traditionnelles comme, selon les régions, les comices agricoles, les fest-noz, les carnavals, par exemple . Ces évènements parfois revisités articulent alors création contemporaine, participation habitante et pratiques festives, parfois avec l’appui ou malgré les cadres institutionnels.
Dans ces espaces, la culture devient un lieu de négociation et d’expérimentation, où se recomposent les hiérarchies culturelles et où se vit la communauté locale, bien loin des enjeux artistiques. Les élus y jouent un rôle central, capables d’articuler des logiques institutionnelles, esthétiques et habitantes, tout en composant avec les contraintes des politiques nationales.
Derrière les débats récurrents sur les « déserts culturels », c’est donc moins un manque qu’un problème de cadrage qui se dessine. Ce qui est en jeu, ce n’est pas l’absence de culture, mais la difficulté à reconnaître la pluralité de ses formes et la diversité de ses régimes de légitimité. Les mondes ruraux et périurbains ne sont pas en attente de culture : ils en produisent, selon des modalités qui échappent en partie aux catégories de l’action publique et aux arbitrages centralisés.
Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 09:03
Fernando Nunez-Regueiro, Chercheur en sciences de l'éducation, Université Grenoble Alpes (UGA)
D’où vient cette crise d’attractivité qui touche les métiers de l’enseignement en France et dans le monde ? Une revue d’études menées dans 18 pays incite à se pencher sur les conditions d’exercice et la reconnaissance d’une profession dont la contribution sociale fait pourtant toujours rêver un nombre non négligeable de candidats.
Alors que de nombreux pays font face à des pénuries d’enseignants, une question revient avec insistance : qui choisit encore d’entrer dans le métier, et pourquoi ? Une revue systématique récente, menée à partir de 39 études qualitatives dans 18 pays, couvrant plus de soixante ans de recherches et 4 700 futurs enseignants, nous permet de dresser un panorama inédit de ces motivations.
Cette étude met en lumière un paradoxe : plus un pays est développé, moins le métier d’enseignant apparaît attractif pour des raisons matérielles ou statutaires, alors même que les besoins en enseignants augmentent. Autrement dit, la « crise des vocations » ressemble moins à un manque d’envie qu’à une crise des conditions d’exercice.
À travers les pays, deux grandes familles de motivations dominent. La première est intrinsèque (environ 41 % des motivations recensées dans la revue). De nombreux candidats évoquent le plaisir d’enseigner, l’intérêt pour une discipline ou le sentiment d’être compétent pour transmettre des savoirs. L’enseignement est perçu comme une activité porteuse de sens, en cohérence avec une identité personnelle.
La seconde est altruiste (19 % des motivations). Les futurs enseignants expriment le désir de contribuer à la société, de travailler avec des enfants ou des adolescents, de favoriser l’égalité des chances ou d’influencer positivement l’avenir des jeunes générations.
Au total, les motivations intrinsèques et altruistes représentent près de 60 % des raisons évoquées pour devenir enseignant. Ces résultats convergent avec de grandes enquêtes internationales : le choix d’enseigner repose d’abord sur l’intérêt pour le métier et sur l’envie de contribuer au bien commun. Autrement dit, devenir enseignant n’est pas, dans la majorité des cas, un simple calcul économique.
Les raisons extrinsèques d’enseigner (c’est-à-dire la sécurité de l’emploi, la stabilité du revenu, les horaires compatibles avec la vie familiale, le statut social) représentent environ 40 % des motivations dans l’ensemble des études. Mais leur importance varie fortement selon les contextes culturels et historiques.
Dans les pays à niveau de développement intermédiaire, le métier d’enseignant est souvent perçu comme un moyen d’accéder à l’enseignement supérieur, d’obtenir un emploi stable ou de bénéficier d’un statut reconnu (52 % des motivations). Il peut constituer une voie d’ascension sociale ou un choix pragmatique dans un marché du travail contraint. En revanche, dans les pays à haut niveau de développement humain, ces dimensions matérielles sont beaucoup moins centrales (34 % des motivations).
Ce contraste s’explique par un mécanisme structurel. Lorsque l’enseignement supérieur se massifie et que les débouchés professionnels se diversifient (pays fortement développés), l’enseignement n’est plus l’une des rares professions stables accessibles aux diplômés. Il devient une option parmi d’autres. Si, dans le même temps, sa rémunération relative ou son prestige progressent moins vite que ceux d’autres carrières qualifiées, son attractivité diminue en comparaison. Il ne s’agit pas nécessairement d’une dégradation absolue du métier, mais d’un affaiblissement relatif dans un marché du travail plus concurrentiel parmi les diplômés.
C’est là que l’on peut parler de « paradoxe » des motivations enseignantes. À mesure que les sociétés se développent, la massification scolaire accroît les besoins en enseignants ; mais, dans le même temps, le métier devient relativement moins attractif sur le plan matériel et statutaire. Les systèmes éducatifs se retrouvent alors dans une situation délicate : ils ont besoin d’un nombre croissant d’enseignants, mais ne peuvent plus compter sur l’attractivité comparative du métier pour recruter.
Ce paradoxe pose un défi majeur aux politiques éducatives. Peut-on durablement compter sur la seule « vocation » pour assurer le renouvellement du corps enseignant ?
À lire aussi : La crise des vocations enseignantes, un défi récurrent dans l’histoire de l’école ?
La France s’inscrit pleinement dans ce questionnement. Les étudiants engagés dans les parcours de formation enseignante déclarent majoritairement un intérêt fort pour l’enseignement et pour la contribution sociale du métier. Les vocations existent. En revanche, l’environnement de formation et d’exercice peut fragiliser cet engagement.
La formation initiale combine préparation académique, concours exigeants et stages en responsabilité. Cette articulation, dans un système centralisé, est souvent perçue comme lourde et stressante. Les recherches montrent que les étudiants peuvent ressentir un décalage entre les exigences académiques et leur désir concret d’enseigner. Les périodes de stage constituent également un moment critique : charge émotionnelle, gestion de classe, sentiment d’insuffisance, qualité variable du mentorat.
À lire aussi : Pourquoi tant de difficultés à recruter des enseignants ?
La question de la reconnaissance joue aussi un rôle central. Le débat public insiste régulièrement sur les difficultés du métier : violences scolaires, perte d’autorité, crise du recrutement. Sans nier ces réalités, cette focalisation contribue à redéfinir symboliquement la profession, mais par la négative. Or le statut social compte. Lorsque le niveau de diplôme requis augmente sans que la reconnaissance matérielle et symbolique suive, un sentiment de déclassement peut s’installer.
Enfin, l’empilement des réformes et la centralisation des décisions peuvent entrer en tension avec les attentes d’autonomie professionnelle. Or les motivations intrinsèques prospèrent dans des environnements où la cohérence institutionnelle et la confiance sont fortes.
En France comme dans de nombreux pays européens, l’enjeu n’est donc pas seulement d’augmenter le nombre de candidats. Il s’agit de restaurer un équilibre entre quatre dimensions interdépendantes : la cohérence de la formation initiale, la qualité de l’accompagnement en stage, la stabilité des politiques d’éducation et la reconnaissance sociale et statutaire du métier. En somme, les vocations existent. Reste à savoir si le système éducatif leur permet encore de s’inscrire dans la durée.
Fernando Nunez-Regueiro ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 09:02
Ninon Serre, Docteure en chimie environnementale, Ifremer
Yann Aminot, Biogéochimiste des contaminants organiques, Ifremer
Comme bon nombre de polluants, les composés per- et polyfluoroalkylés, ou PFAS, atteignent souvent les mers et les océans. Si la présence de certains d’entre eux est surveillée, beaucoup d’autres ne font pas l’objet de réglementations. Ils sont pourtant observés à des taux élevés dans les écosystèmes marins, sans pour autant que leurs effets soient connus, révèlent des travaux inédits.
Vous avez sans doute déjà entendu parler des « polluants éternels », ou composés per- et polyfluoroalkylés (PFAS), mais saviez-vous qu’il en existe des milliers ? Et que les plus abondants ne sont pas tous surveillés dans l’environnement, alors même que leur dangerosité reste inconnue ?
Cette réalité apparaît pourtant lorsque l’on étudie des organismes marins, comme les moules, les crevettes et les poissons, des côtes françaises. Ces analyses délicates et très spécifiques sont cruciales pour comprendre la très longue vie de ces molécules appelées « polluants éternels ».
De fait, si on les sait aujourd’hui présents un peu partout, des poêles et casseroles antiadhésives à vos vêtements imperméables, en passant par votre maquillage, vos produits d’entretien, dans l’eau du robinet et jusque dans votre sang, nous savons également, que, comme bon nombre de polluants, la destination finale des PFAS reste souvent les océans.
Certains PFAS étant très mobiles dans les milieux aquatiques, la contamination est continuellement transportée depuis les milieux continentaux jusqu’aux océans, qui agissent comme des réservoirs finaux pour les composés les plus persistants. Les environnements côtiers constituent ainsi des écosystèmes clés pour l’étude du devenir des PFAS dans l’environnement.
Plusieurs PFAS utilisés dans de nombreuses applications pendant un demi siècle, principalement l’acide perfluorooctanesulfonique (PFOS) et l’acide perfluorooctanoïque (PFOA), sont également reconnus pour leur omniprésence, leur toxicité et leur capacité à s’accumuler dans les organismes vivants, à tous les niveaux de la chaîne alimentaire. C’est ce qu’on appelle la bioaccumulation.
Ainsi, certains PFAS qui atteignent les mers et les océans peuvent revenir dans notre assiette via la pêche et la consommation de certains crustacés ou poissons. Ces propriétés ont suscité des inquiétudes quant à leurs effets potentiels sur la santé humaine et sur les écosystèmes. Depuis les années 2000, certains PFAS ont donc progressivement été intégrés aux programmes de surveillance environnementale et sanitaire et font désormais l’objet de réglementations internationales. Mais est-ce vraiment suffisant ?
Aujourd’hui, les mesures mises en place ne concernent que quelques dizaines de composés, notamment le PFOS et le PFOA. Pourtant, les PFAS ne se limitent pas à une poignée de molécules bien connues, mais correspondent bien à des milliers de composés de structures variées.
Ainsi, de nombreux PFAS échappent aux analyses ciblées communément réalisées, qui risquent donc de sous-estimer la contamination réelle.
Au-delà des exigences réglementaires, l’analyse des organismes marins permet d’identifier et de caractériser l’ensemble des composés capables de s’accumuler dans les organismes au fil du temps (bioaccumulables) ou de se concentrer le long de la chaîne alimentaire (bioamplifiables).
Le PFOS, notamment, est généralement présent à des concentrations plus élevées dans les espèces en haut de la chaîne alimentaire, telles que les mammifères marins, que dans les espèces en bas de la chaîne alimentaire, telles que les moules. Il est donc considéré bioamplifiable.
Nos travaux menés à l’Ifremer ont permis de rechercher simultanément des centaines de PFAS dans les moules et dans les huîtres de côtes françaises, en mettant en œuvre une méthode analytique de pointe, la spectrométrie de masse à haute résolution. Au total, près de 80 PFAS différents ont été détectés dans ces organismes, incluant des composés connus et réglementés, comme le PFOS et le PFOA, mais également de nombreux autres échappant aux programmes de suivi et à la réglementation.
Ces travaux ont également permis d’identifier des zones fortement contaminées, présentant une grande diversité de PFAS à des concentrations plus élevées : les estuaires de grands fleuves (Seine, Loire et Rhône) et les zones fortement industrialisées, telles que l’étang de Berre (Bouches-du-Rhône) sur la côte méditerranéenne.
Les analyses menées ont également révélé que des PFAS non suivis et non réglementés sont parfois présents à des concentrations élevées dans les organismes marins. Parmi eux se trouve le 6:2 fluorotélomère sulfonamide bétaïne (6:2 FTAB), un composé abondamment utilisé dans les émulseurs anti-incendie et largement ignoré dans les programmes de surveillance. Ce composé a été détecté à des niveaux souvent supérieurs à ceux des PFAS connus et réglementés, comme le PFOS.
Les quatre PFAS soumis à la réglementation UE 2023/915 de la Commission européenne (PFOS, PFOA, PFNA et PFHxS), présentaient des concentrations globalement inférieures aux seuils fixés pour la consommation humaine. Par exemple, dans les moules bleues analysées, ces quatre composés réglementés étaient détectés à des niveaux près de vingt fois inférieurs à la valeur seuil définie par la Commission européenne.
En revanche, lorsque l’ensemble des PFAS détectés était pris en compte, les concentrations totales atteignaient des valeurs plus de 70 fois supérieures à celles du seuil des quatre composés réglementés. Ces résultats révèlent une contamination bien plus importante et complexe que celle des composés sujets à une réglementation et mesurés par les suivis traditionnels.
La toxicité de la majorité des composés détectés reste à ce jour inconnue, et il est donc impossible d’évaluer précisément le risque qu’ils représentent pour l’environnement et pour la santé humaine.
En revanche, nous savons que plusieurs des PFAS détectés sont des précurseurs, c’est-à-dire qu’une fois dans l’environnement, ils peuvent se dégrader en d’autres PFAS plus persistants appelés « produits terminaux ». Les composés les plus connus et réglementés sont justement des produits terminaux, tels que le PFOS et le PFOA.
Dans le cadre de nos travaux menés à l’Ifremer, des espèces situées à différents niveaux des chaînes alimentaires du bar européen et de la sole commune provenant de l’estuaire de la Seine ont également été étudiées. Ces espèces comprenaient des coquillages, des crustacés et des poissons.
Les résultats obtenus montrent que les concentrations de ces composés précurseurs ont tendance à diminuer du bas vers le haut de la chaîne alimentaire, tandis que celles des produits terminaux augmentent. Les espèces en haut de la chaîne alimentaire, notamment celles possédant un foie, semblent donc pouvoir dégrader certains précurseurs.
Ces observations mettent en évidence les limites des suivis et des réglementations actuels, qui ne concernent qu’un nombre restreint de PFAS et ne tiennent pas compte des transformations chimiques qui peuvent se produire dans l’environnement et au sein des organismes.
Ces résultats posent également question sur l’exposition de l’humain à travers la consommation de produits de la mer, notamment d’espèces basses dans la chaîne alimentaire, telles que les coquillages qui contiennent des proportions élevées de précurseurs, dont la toxicité est encore peu connue.
Une fois consommés, ces précurseurs non suivis et non réglementés pourraient être dégradés en produits terminaux et donc participer à l’exposition humaine à des PFAS dont la toxicité est avérée, tels que le PFOS. Ainsi, la vision actuelle de la contamination de l’humain et l’environnement par les PFAS, ainsi que les risques associés, reste partielle et bénéficierait de la prise en compte d’un plus grand nombre de substances.
Pour permettre une évaluation complète des risques associés aux PFAS dans leur ensemble, il sera donc essentiel à l’avenir de conduire des études écotoxicologiques spécifiques sur ces précurseurs et sur leurs produits de transformation.
En ce qui concerne la réglementation, des évolutions sont en cours. En 2023, le Danemark, la Suède, la Norvège, la Finlande et l’Allemagne ont soumis à l’Agence européenne des produits chimiques (ECHA) une proposition visant à réglementer à l’échelle européenne la fabrication, l’utilisation et la vente d’environ 10 000 PFAS. Cette initiative qui a été soutenue par la France illustre un nouveau tournant dans la prise de conscience et la gestion de la contamination par les PFAS dans sa globalité.
Ninon Serre a reçu des financements de l'Ifremer et de la région Pays de la Loire.
Yann Aminot a reçu des financements de l'Office Français de la Biodiversité (OFB) et de la région Pays de la Loire.
29.03.2026 à 09:02
Hussein Abou Saleh, Docteur associé au Centre d'études et de recherches internationales (CERI), Sciences Po
L’entrée en guerre du Hezbollah contre Israël, en représailles à l’assassinat de Khamenei à Téhéran et à la violation continuelle par Tel-Aviv de l’accord de cessez-le-feu de fin 2024, apparaît comme un pari très risqué, dans un contexte où le mouvement chiite libanais est aux abois aux niveaux militaire, politique et financier, et où Beyrouth tente de le désarmer et de reprendre la pleine possession des territoires qu’il contrôle encore.
L’« axe de la résistance » est entré dans une période de profonde transformation à la suite des guerres régionales au Moyen-Orient depuis le 7 octobre 2023. Il est loin d’être en mesure de jouer un rôle stratégique déterminant pour l’issue du conflit israélo-américain en cours contre l’Iran. Alors que la guerre atteint un nouveau paroxysme, deux fronts sont actifs, le Liban et l’Irak, mais un seul prend de l’importance : le Liban.
Les campagnes israéliennes dévastatrices menées depuis 2023 ont révélé les faiblesses et les limites du réseau de supplétifs iraniens, mais ont également souligné leur capacité à résister à la pression. Ces groupes se transforment en insurrections plus ou moins localisées. C’est pourquoi ils sont autant préoccupés par leur propre survie que par celle de la République islamique d’Iran. Leur intervention dans ce conflit relève moins de la stratégie d’« unité des arènes », qui prévoyait une intervention militaire conjointe contre Israël en cas d’attaque contre l’un de ses membres, que de la volonté d’assurer leur propre survie.
Le 28 février, avec l’assassinat du guide suprême iranien, l’ayatollah Khamenei, âgé de 86 ans, la « ligne rouge » de l’« axe » a été franchie, et le Hezbollah libanais s’est rapidement impliqué dans une guerre avec Israël qui donne au gouvernement Nétanyahou l’occasion de s’attaquer violemment, une fois de plus, à ses structures, déjà largement fragilisées.
Aux premières heures du 2 mars, le Hezbollah a tiré six roquettes sur le nord d’Israël en représailles à l’assassinat de Khamenei et à la violation persistante par Israël de l’accord de cessez-le-feu annoncé fin novembre 2024, comme indiqué dans sa déclaration écrite. Sa décision de frapper Israël n’était pas nécessairement une démonstration de force ni un signe crédible de sa capacité à dissuader toute agression israélienne, à l’instar des attaques lancées le 8 octobre 2023 en soutien au Hamas à Gaza, mais avant tout une nécessité stratégique pleinement ancrée dans le contexte politique national et régional.
La valeur du Hezbollah, tant en termes de dissuasion que d’influence sur la dynamique régionale, a considérablement diminué depuis le dernier conflit. L’effondrement du régime d’Assad en Syrie a coupé le corridor logistique qui assurait son réapprovisionnement en armes provenant d’Iran et de Syrie, tandis que les effets cumulatifs de la dernière guerre ont encore affaibli ses moyens. En conséquence, sa capacité opérationnelle est désormais fortement réduite. Il reste cependant à déterminer si ces limitations se traduisent par une efficacité réduite sur le champ de bataille.
Après trois semaines de guerre, le Hezbollah poursuit ses attaques quotidiennes contre Israël. Parallèlement, Israël progresse lentement, occupant davantage de territoire et infligeant de lourdes pertes civiles, avec un bilan de plus de 1 072 morts. Plus d’un million de personnes ont été déplacées, ce qui représente près de 20 % de la population du Liban. Les bombardements ont forcé des milliers de familles à fuir vers des zones plus sûres ou à se réfugier dans des bâtiments publics, comme les écoles. Les frappes aériennes israéliennes ont gravement endommagé ou détruit plusieurs ponts stratégiques sur le fleuve Litani, isolant ainsi le sud du Liban du reste du pays. Cette campagne vise à créer une zone tampon et à couper les lignes de ravitaillement du Hezbollah. Une stratégie visant à raser ce qui reste des villages du sud semble être mise en œuvre, comme on peut le constater à Khiam.
De plus, la base sociale du Hezbollah continue de subir les lourdes conséquences des destructions et des pertes considérables subies lors de la guerre de 2023, ce qui limite sa capacité de rétablissement rapide et de mobilisation durable.
La décision du Hezbollah d’entrer en guerre a pris une grande partie du Liban au dépourvu. Depuis l’accord de cessez-le-feu de novembre 2024, le Hezbollah avait fait preuve de ce que les analystes ont qualifié d’extrême retenue face à la pression croissante de l’État libanais pour obtenir son désarmement et aux violations incessantes de l’accord par Israël, qui ont entraîné la mort d’environ 350 membres du Hezbollah et d’environ 150 civils.
En réalité, deux facteurs majeurs ont façonné le comportement du Hezbollah jusqu’au début du conflit actuel. D’une part, il s’est concentré sur sa reconstruction organisationnelle et militaire après les graves revers subis lors de sa dernière guerre, à partir du 8 octobre 2023. D’autre part, l’ensemble de l’échiquier politique libanais faisait pression sur lui afin qu’il ne s’implique pas dans de futurs conflits. C’est pourquoi, de concert avec le reste de « l’axe de la résistance », il a choisi de ne pas intervenir lors des douze jours de frappes israéliennes contre l’Iran en juin 2025.
Au niveau national, le Hezbollah s’est retrouvé de plus en plus isolé. Le gouvernement, en coopération avec les Forces armées libanaises et la Force intérimaire des Nations unies au Liban (Finul), et conformément à l’accord de cessation des hostilités, est parvenu à éliminer toute présence militaire du Hezbollah des zones situées au sud du fleuve Litani, jusqu’à la frontière israélienne, et à démanteler une grande partie de ses infrastructures militaires. Il a également pris des mesures, dans le respect des contraintes politiques existantes, pour endiguer les activités et organisations financières illégales liées au Hezbollah. Ces mesures comprenaient notamment l’interdiction faite au secteur financier libanais d’avoir toute relation, directe ou indirecte, avec des entités non agréées et soumises à des sanctions internationales, ce qui a considérablement affecté les finances du Hezbollah. D’autres mesures ont consisté à appliquer la réglementation en matière de lutte contre le blanchiment d’argent et à renforcer les contrôles aux frontières et aux douanes afin de limiter les flux financiers illicites.
Ces mesures ont fortement réduit la capacité du Hezbollah à maintenir son système traditionnel de soutien social, notamment à indemniser les communautés touchées et à financer la rénovation ou la reconstruction d’après-guerre. Sa base de soutien s’est ainsi retrouvée prise en étau entre un État financièrement incapable de financer la reconstruction, une communauté internationale réticente ou incapable de fournir une aide financière suffisante et un parti confronté, pour la première fois, à des efforts soutenus visant à restreindre ses ressources financières et à limiter la libre circulation de ses stocks d’armes. Si le Hezbollah est parvenu à s’adapter partiellement et à contourner certaines de ces contraintes, leur impact n’en a pas moins été visible et leur portée politique manifeste.
Par ailleurs, la répression institutionnelle libanaise contre le Hezbollah était à son comble lorsque ce dernier a lancé l’attaque contre Israël. Ainsi, à la mi-février 2026, le gouvernement a exhorté les Forces armées libanaises à mettre en œuvre un second objectif stratégique : le démantèlement de l’infrastructure militaire du Hezbollah au nord du fleuve Litani. Selon ses estimations, l’armée libanaise aurait besoin d’au moins quatre mois pour achever cette seconde phase.
Si le Hezbollah avait acquiescé à la mise en œuvre du premier objectif au sud du Litani, conformément à son interprétation de l’accord de cessez-le-feu, il a catégoriquement rejeté cette seconde étape, la qualifiant de « grave faute ». En réponse, les Forces armées libanaises ont appelé tous les acteurs politiques à la prudence, compte tenu de la sensibilité de la situation et des risques de guerre civile liés à cette phase.
Ajoutons que le mécontentement de la base sociale du mouvement s’est accru en raison de l’absence de tout effort de reconstruction, des nombreuses violations du cessez-le-feu et de l’impossibilité pour certains de retourner dans leurs villages ou de prendre l’initiative de reconstruire leurs maisons. C’est dans ce contexte national que le Hezbollah a décidé de frapper Israël, quitte à s’exposer à une réplique dévastatrice.
Cela distingue son engagement militaire actuel des opérations précédentes, ce qui amène les analystes à conclure qu’il pourrait s’agir de la dernière guerre du groupe, dans laquelle il a décidé de jouer toutes ses cartes.
Quelques heures après l’attaque contre Israël, le gouvernement libanais a pris une mesure radicale en interdisant toutes les activités militaires et sécuritaires du Hezbollah au Liban, les déclarant formellement illégales et limitant juridiquement son action à la sphère politique.
Le premier ministre a réaffirmé l’engagement du Liban envers l’accord de cessez-le-feu et a mobilisé l’armée pour prévenir toute attaque provenant du territoire libanais. Bien que cette décision politique soit dépourvue de mécanisme d’application, elle n’en demeure pas moins significative, car elle a été approuvée par le mouvement Amal, allié politique de longue date du Hezbollah.
Peu après, plusieurs individus se rendant au Sud-Liban et se présentant comme membres du Hezbollah ont été arrêtés en possession d’armes, notamment des roquettes et des grenades. Ces arrestations ont démontré la détermination du gouvernement à faire respecter l’interdiction des activités militaires et sécuritaires du Hezbollah et à réaffirmer l’autorité de l’État sur les armes et la sécurité au Liban.
En résumé, le gouvernement a, de fait, mis fin à une ère où les calculs politiques primaient et permettaient de considérer le Hezbollah comme un groupe de résistance, ou comme un élément d’une formule politico-sécuritaire libanaise appelée « L’armée, le peuple et la résistance », qui légitimait son statut armé aux côtés des forces armées libanaises.
Alors que la guerre se poursuit sans relâche au Liban, le gouvernement et le président de la République ont tenté de lancer une initiative visant à engager des pourparlers directs avec Israël, brisant ainsi des tabous politiques de longue date qui, jusqu’alors, auraient pu anéantir toute carrière politique dans le pays.
Cette initiative s’est soldée par un échec, tant au niveau national que régional. Le président du Parlement a refusé de nommer un représentant chiite, conditionnant cette nomination à un cessez-le-feu et au retour des personnes déplacées. Le Hezbollah, par la voix d’un haut responsable de son bureau politique, a condamné l’initiative, la qualifiant de « trahison de la résistance » et soulignant que « l’État ne peut faire aucune promesse sans l’approbation de la résistance [c’est-à-dire du Hezbollah] ».
Par ailleurs, Israël a rejeté la proposition libanaise d’un cessez-le-feu d’un mois, période durant laquelle des pourparlers directs auraient été entamés, jugeant cette proposition « insuffisante et tardive » et préférant poursuivre la guerre tout en consolidant et, potentiellement, en étendant sa zone tampon établie lors du précédent conflit.
Dans ce conflit, le Hezbollah a démontré sa capacité à freiner l’avancée de l’armée israélienne et à limiter ses opérations. Mais, malgré un certain regain du prestige militaire perdu lors du précédent conflit, il n’a jusqu’à présent réalisé aucun gain stratégique. On ignore encore si le groupe parviendra à rétablir l’équilibre de dissuasion antérieur le long de la frontière israélo-libanaise, ou du moins à annuler les gains stratégiques israéliens acquis lors de la précédente guerre. Selon son secrétaire général, le cheikh Naïm Ghassem, la guerre en cours est « une bataille existentielle ».
De leur côté, des responsables iraniens ont déclaré que tout accord de cessez-le-feu impliquant Téhéran inclurait également le front libanais, signifiant ainsi que le Liban et le Hezbollah ne seraient pas mis à l’écart. Des tracts israéliens ont été largués au-dessus de Beyrouth, porteurs d’un avertissement explicite : « Face au succès retentissant à Gaza, le journal “La Nouvelle Réalité” arrive au Liban. » Ce message évoque l’offensive israélienne de deux ans contre Gaza comme un modèle de ce que le Liban pourrait connaître.
Quelle que soit la suite des événements, une chose est sûre : le Hezbollah semble avoir atteint un point de non-retour dans ses relations avec les autres acteurs politiques libanais. Une bataille politique encore plus ardue attend le Hezbollah sur le plan intérieur, alors qu’il s’efforce de convaincre les autres que le désarmement n’est pas une option.
Hussein Abou Saleh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.03.2026 à 17:20
Ludivine Perray-Redslob, Professeure associée en comptabilité, EM Lyon Business School
Agathe Morinière, Enseignante-chercheuse, Université de Montpellier
Nathalie Clavijo, Docteure en sciences de gestion, TBS Education
Funérailles symboliques, minutes de silence, déclarations d’amour… au cours des dernières années, face à l’érosion de l’hôpital public, de nombreux soignants ont eu recours à des formes de mobilisations originales qui mettent en scène la mort et l’amour. Une manière de rappeler que le soin n’est pas une marchandise mais un pilier de la société.
Insuffisance des moyens, pénurie de personnel, violence aux urgences, fermeture de lits et épuisement professionnel des équipes soignantes… les signaux d’alerte se multiplient au sein de l’hôpital public français depuis la mise en œuvre des réformes relevant du « nouveau management public ».
En janvier dernier, les urgences de l’hôpital de Rennes (Ille-et-Vilaine) se sont mises en grève suite à la mort de deux patients qui attendaient sur des brancards. À Aix-en-Provence (Bouches-du-Rhône), le même mois, une patiente en attente d’une place aux urgences est décédée avant d’avoir pu être prise en charge. Le 8 janvier 2026, la ministre de la santé Stéphanie Rist a, quant à elle, fait état d’une « tension dans tous les services d’urgences ». Tous ces faits illustrent l’actualité du problème.
Pourtant, depuis 2019, face à ces situations répétées, deux collectifs de personnels soignants – le Collectif Inter-Urgences et le Collectif Inter-Hôpitaux – alertent sur les conséquences humaines de ces politiques de santé fondées sur la rentabilité, en investissant l’espace public ainsi que les réseaux sociaux.
Nous avons mené une enquête pendant quatre années sur ces deux collectifs et avons collecté des textes, des chansons, des clips, des photographies, des vidéos, des dessins, produits par les soignants eux-mêmes ou relayés par ces collectifs sur les réseaux sociaux. Dans leurs revendications, les soignants mobilisent la mort et l’amour comme des langages politiques pour interroger notre rapport collectif au soin, au service public et à la solidarité.
Des cercueils portés dans la rue, des cortèges funéraires, des minutes de silence organisées devant les établissements : à première vue, ces scènes peuvent surprendre. Pourquoi « enterrer » symboliquement l’hôpital public alors même que les soignants se battent pour le sauver ? Parce que la symbolique de la mort agit comme un électrochoc. En mettant en scène la mort de l’hôpital, les soignants cherchent à provoquer une prise de conscience : sans réaction collective, ce pilier essentiel de notre société risque de disparaître. Ces rituels de deuil donnent une forme visible à un processus lent et souvent invisible : l’érosion progressive du service public de santé.
La mort permet aussi de rappeler une évidence que les logiques comptables tendent à faire oublier : l’hôpital est une infrastructure vitale. Nous en dépendons tous, un jour ou l’autre. En ce sens, la mort n’est pas seulement une fin ; elle devient un langage politique pour dire l’urgence d’agir.
Les mobilisations ne portent pas uniquement sur l’institution hospitalière. Elles rendent aussi visibles les corps de celles et ceux qui y travaillent. Lors de certaines actions, des soignants simulent leur propre mort dans l’espace public, allongés au sol, une seringue symboliquement pointée vers leur tête. D’autres mettent en scène l’asphyxie, pour dénoncer des conditions de travail devenues étouffantes.
Ces images sont fortes, parfois choquantes. Elles disent pourtant une réalité largement documentée dans certains services : surcharge de travail, impossibilité de prendre des pauses, accélération du temps, tension de valeurs, souffrance psychique, burn out, voire suicides. En exposant leur vulnérabilité, les soignants rompent avec l’image héroïque, mais dangereuse, du personnel soignant animé par une vocation qui dépasserait leurs besoins physiologiques, psychiques et humains.
À lire aussi : La crise des urgences, un miroir de la crise du système de santé français
Ils rappellent ainsi que ceux qui prennent soin ont eux aussi besoin d’être protégés et que, lorsque la santé au travail des soignants se dégrade, les patients en subissent les conséquences.
À côté de ces mises en scène de la mort, un autre symbole traverse les mobilisations : l’amour. Banderoles proclamant « J’aime mon hôpital », post-it en forme de cœur collés sur les murs, lettres adressées à l’hôpital public à la manière de déclarations amoureuses… Les soignants ont invité les citoyens à exprimer leur attachement à cette institution. Cet amour n’a rien de naïf. Il est profondément politique. En déclarant leur amour à l’hôpital public, les citoyens affirment que le soin ne se réduit pas à une prestation marchande. Ils rappellent que l’hôpital incarne des valeurs de solidarité, d’égalité et d’attention aux plus vulnérables.
L’amour devient alors un acte de résistance : aimer l’hôpital public, c’est refuser qu’il soit géré uniquement selon des critères de rentabilité.
Ces mobilisations esquissent une éthique de la vie et de la mort, dans laquelle le soin est pensée comme une responsabilité collective, reposant à la fois sur des infrastructures publiques et sur des relations humaines qui reconnaissent nos vulnérabilités et notre interdépendance universelle. Les gestes d’amour, de solidarité et de compassion mis en avant dans les mobilisations rappellent que le soin n’est pas seulement un acte technique, mais une relation humaine fondée sur l’attention portée aux autres.
L’éthique de la vie et de la mort pensée dans ces mobilisations consiste aussi à faire du soin une affaire publique. C’est-à-dire à s’engager collectivement à rendre visible ce qui est habituellement rendu invisible : les corps vulnérables, les situations indignes, la mort progressive de l’hôpital public.
La crise de l’hôpital public n’est pas seulement un problème de gestion. Elle pose une question fondamentale : quelle place voulons-nous donner au soin dans notre société ? Acceptons-nous que certaines vies valent moins que d’autres, faute de moyens ? Ou considérons-nous le soin comme un bien commun, à préserver collectivement ?
En mobilisant la mort et l’amour, les soignants invitent la société à réfléchir aux conditions nécessaires à une vie digne d’être vécue et à ce que nous sommes prêts à engager pour préserver ces conditions de vie.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.03.2026 à 17:19
Lucie Bargel, Politiste, enseignante-chercheuse, Université Côte d’Azur
Contrairement aux idées reçues, le lieu de résidence ne correspond pas toujours au lieu de vote. Une enquête ethnographique montre la présence continue d’électeurs et d’électrices, de votant·es et d’élu·es non résident·es dans les petites communes de montagne.
Les personnes qui ne résident pas toute l’année dans une commune mais qui y paient des impôts peuvent s’y inscrire sur les listes électorales, voter et être élues. Et elles sont nombreuses à le faire dans les petites communes françaises, en particulier en montagne.
Comment expliquer cette volonté de voter ailleurs que sur son lieu de résidence principale ? Quels débats crée cette présence d’électeurs mobiles ?
En France, il est possible d’être inscrit sur les listes électorales, de voter et d’être candidat ou candidate dans un village dont où l’on ne réside pas. L’Insee définit la résidence principale, celle où l’on est recensé, comme celle dans laquelle on passe le plus de temps. La situation la plus fréquente est de figurer sur les listes électorales de cette commune de résidence principale. Mais le Code électoral prévoit qu’on peut aussi demander à s’inscrire sur les listes électorales d’une commune dans laquelle on est né·e, dans laquelle on a précédemment résidé, dans laquelle vivent nos parents si on a moins de 26 ans, ou dans laquelle on paie des impôts sur une résidence secondaire ou une entreprise, par exemple.
Dans les villages ruraux, et en particulier dans ceux qui comptent de nombreuses résidences secondaires, cette option légale a des effets très concrets.
Dans mes travaux, je me suis d’abord intéressée à une vallée montagnarde des Alpes-Maritimes, où les résidences secondaires peuvent représenter jusqu’aux deux tiers des logements dans les plus petits villages. Et ces « résident·es secondaires » ne sont pas indifférents à la vie politique locale : on trouve dans ces villages plus de personnes inscrites sur les listes électorales que de personnes recensées par l’Insee, et même, régulièrement, plus de votes exprimés que de personnes recensées. Ceci est particulièrement fort pour les élections municipales : cela veut dire que les résident·es « secondaires » sont des personnes qui participent à la vie sociale de la commune, qui connaissent personnellement les candidat·es, et qui sont ainsi incitées à participer aux élections autant que les résident·es permanent·es.
Cette incitation à participer commence au moment de s’inscrire sur les listes, en amont de l’élection. Au mois de décembre de l’année précédente (au moment de mon enquête, désormais six semaines avant), les candidat·es aux élections municipales du mois de mars suivant profitent de la période des vacances et des réunions familiales au village d’origine pour tenter de convaincre les personnes attachées au village de s’y inscrire, et d’y voter ou d’y faire une procuration. La campagne se poursuit, au-delà des quelques réunions officielles, dans le cours des rituels sociaux ordinaires liés aux évènements familiaux, naissances, décès, etc. (comme l’a montré Jean-Louis Briquet en Corse) qui dans ce cas ont lieu tant de visu qu’à distance, par téléphone, ou bien pendant les week-ends.
Nombre de ces résident·es secondaires sont en effet présents régulièrement au village. Le caractère montagnard de ces derniers est important : même s’ils ne sont pas très éloignés, « à vol d’oiseau », des grandes villes voisines, le fait que ces trajets aient lieu sur des routes de montagne, où l’on ne peut rouler vite et où les dégâts sont fréquents, empêche ces « originaires » d’être des « pendulaires » qui effectuent le trajet pour aller travailler chaque jour. Plutôt, dans cette vallée, ils et elles partent le lundi matin et reviennent le vendredi soir. À leurs yeux, ils habitent au village.
À partir de cette première enquête ethnographique, j’ai élargi la focale temporelle et géographique. Dans cette vallée, la présence d’électeurs et d'électrices « en trop » par rapport aux résident·es recensé·es est une constante depuis la moitié du XXᵉ siècle (et sans doute avant mais l’on ne dispose pas des chiffres). De même, avec Baptiste Coumont, nous avons comparé systématiquement les chiffres du recensement et ceux des listes électorales et constaté que cette extra-inscription concerne toutes les zones de montagne françaises.
Ces résultats ne sont pas très étonnants si on sait que les montagnes sont, structurellement, des lieux de migrations temporaires, adaptées aux spécificités du territoire et du climat. Pendant les mois d’hiver, contraints à l’inactivité, les montagnards descendent occuper des emplois peu qualifiés dans les plaines, et remontent ensuite au village. L’activité pastorale est elle-même structurée par cette mobilité entre différentes altitudes selon les saisons. Les villages de montagne ont donc toujours été composés de personnes mobiles, se considérant comme appartenant au village même sans y être présentes en permanence.
Si aujourd’hui la présence de ces résident·es « secondaires » sur les listes électorales est légale, elle n’est pas sans contestations. Certain·es résident·es permanent·es voient d’un mauvais œil l’influence des « vacanciers » sur les choix politiques de la commune. Les résident·es secondaires sont attaché·es au village précisément parce qu’il constitue une forme de « refuge » par rapport à la ville où elles résident le reste du temps, ils viennent y chercher de l’espace, du calme, de la tranquillité, dans certains cas un lien avec des « traditions » qui prennent la forme de manifestations pendant les week-ends et les mois d’été.
Pour leur part, les permanent·es sont souvent prêt·es à renoncer à une partie du « calme » de leur quotidien en faveur de plus d’activités économiques, de commerces, d’emploi, etc. Et peuvent voir d’un mauvais œil le fait que des citadins, ayant accès à plus de ressources et à de meilleurs emplois, prétendent aussi participer aux choix politiques du village. On peut se demander quelle traduction politique trouvent dans les urnes ces différents rapports au territoire.
Ces pratiques d’inscription sur les listes électorales et de participation aux élections dans son village « d’origine » plutôt que dans son lieu de résidence permanent éclairent aussi l’existence d’usages non électoraux du vote. Voter, ce n’est pas (seulement) exprimer une opinion politique abstraite, rationnelle, séparée du reste de la vie. En France, une série d’enquêtes collectives s’intéresse, depuis 15 ans, au façonnage des pratiques électorales par les relations sociales. Dans mes recherches, je m’intéresse au fait que ces relations sociales n’ont pas nécessairement lieu dans un seul et même endroit.
Les « émigré·es » au sens large, les personnes qui ont changé de pays, mais aussi celles qui ont quitté leur village pour étudier ou occuper de meilleurs emplois, ou encore celles qui continuent de revenir régulièrement dans leur village familial même si elles n’y sont pas nées, peuvent préférer participer à la vie politique de ce lieu investi affectivement. Dans leur cas, le vote sert à manifester cette appartenance sans résidence permanente, et le lieu du vote est au moins aussi important pour les personnes que son contenu.
Lucie Bargel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.