30.03.2026 à 16:38
Alain Rival, Agronome. Agrosystèmes Biodiversifiés,, Cirad
Denis Fabre, Chercheur en écophysiologie (PhD), Cirad
Marc Ancrenaz, Research Fellow, Cardiff University
Philippe Guizol, Researcher, Cirad

On estime qu’un produit de supermarché sur deux contient aujourd’hui de l’huile de palme. À l’heure où il semble difficile de se passer de cette ressource, une chose reste néanmoins possible et même prometteuse : pratiquer l’agroforesterie pour que les plantations de palmiers à huile ne soient plus une menace pour la biodiversité.
La culture du palmier à huile est fréquemment associée à la déforestation tropicale et à l’érosion de la biodiversité. De fait, en Asie du Sud-Est, l’expansion rapide des plantations industrielles au cours des dernières décennies a profondément transformé les paysages, fragmentant les forêts et réduisant l’habitat d’espèces emblématiques, comme les orangs-outans ou les éléphants de Bornéo. Cette trajectoire a durablement ancré l’idée selon laquelle la production d’huile de palme serait fondamentalement incompatible avec la conservation de la nature.
Cette opposition entre production agricole et biodiversité repose toutefois en grande partie sur un modèle agricole spécifique, celui de la monoculture intensive. Elle tend à masquer l’existence d’alternatives pionnières, capables de concilier production et fonctions écologiques dans les paysages tropicaux.
Ces autres façons de produire de l’huile de palme sont pourtant cruciales à développer à l’heure où le palmier à huile reste la culture oléagineuse la plus productive au monde. À surface égale, il produit en moyenne 4 à 10 fois plus d’huile que le soja, le colza ou le tournesol. Remplacer l’huile de palme par ces alternatives nécessiterait donc beaucoup plus de terres agricoles, avec un risque de déplacer la déforestation plutôt que de la réduire.
Par ailleurs, la demande mondiale en huiles végétales reste très élevée et continue de croître, portée par des usages alimentaires, cosmétiques et industriels en pleine expansion. Dans ce contexte, une sortie totale de l’huile de palme apparaît difficile à court terme.
L’enjeu principal n’est donc pas seulement de substituer une huile à une autre, mais de transformer les modes de production du palmier à huile qui ont peu changé depuis le début du XXᵉ siècle.
Introduite en Asie du Sud-Est à l’époque coloniale par les puissances européennes, la culture du palmier à huile – originaire d’Afrique de l’Ouest – a ensuite été largement développée en Indonésie et en Malaisie selon des modèles agricoles intensifs hérités de cette période. Les plantations conventionnelles sont ainsi conçues pour maximiser les rendements à court terme, en reposant sur des peuplements très homogènes et une forte intensification des pratiques. Cette simplification des écosystèmes s’accompagne toutefois d’effets négatifs bien documentés : appauvrissement des sols, pollution des eaux, dépendance accrue aux engrais et aux pesticides chimiques, perte d’habitats pour la faune et la flore ainsi qu’une plus grande vulnérabilité aux parasites et ravageurs. Ces derniers peuvent entraîner des pertes de rendement importantes, de l’ordre de 30 % en moyenne lorsque les populations ne sont pas maîtrisées.
Avec le changement climatique, ces fragilités deviennent plus visibles. L’augmentation des températures, la multiplication des vagues de chaleur et la variabilité accrue des précipitations exposent les plantations à des stress thermiques et hydriques croissants. Dans ce contexte, la question n’est plus seulement de freiner l’expansion agricole, mais aussi de transformer, afin de les rendre plus robustes face au changement climatique, les plantations existantes, qui occupent déjà des millions d’hectares en zone tropicale.
L’agroforesterie, qui associe arbres et cultures agricoles sur une même parcelle, est reconnue pour sa capacité à concilier production agricole et maintien des fonctions écologiques vitales. De nombreux travaux montrent que les systèmes agroforestiers tropicaux peuvent héberger une biodiversité relativement élevée, notamment pour les oiseaux et les insectes, tout en assurant des niveaux de production significatifs, par exemple dans les plantations indonésiennes de cacao.
Contrairement à l’idée selon laquelle biodiversité et productivité seraient nécessairement antagonistes, certaines agroforêts tropicales atteignent des niveaux de rendement élevés tout en conservant une diversité biologique conséquente – parfois même supérieure à celle de forêts dégradées environnantes pour certains groupes, comme les chauves-souris ou les plantes non vascularisées (fougères, mousses). Ces résultats ont contribué à renouveler le regard porté sur les plantations tropicales, longtemps considérées comme incompatibles avec les objectifs de conservation.
Appliquée au palmier à huile, l’agroforesterie reste encore peu développée à grande échelle. Les craintes d’une baisse de rendement, la complexité technique des systèmes à mettre en place, et les contraintes de gestion expliquent en partie cette situation. C’est précisément pour tester ces hypothèses à l’échelle réelle qu’a été lancé le projet Transitionning to Agroecological Innovative Landscapes in Sabah, East Malaysia (TRAILS), d’agroforesterie à taille réelle.
Le projet couvre 38 hectares (ha) d’essais installés dans une plantation commerciale de 8 000 ha, dans le bassin de la rivière Kinabatangan, dans l’État de Sabah, dans la partie malaisienne de l’île de Bornéo. Il s’appuie sur des dispositifs de plantation spécifiquement conçus pour le palmier à huile, combinant différentes densités et différents types d’associations d’arbres forestiers natifs afin d’optimiser à la fois les performances agronomiques et les fonctions écologiques des plantations.
Contrairement à l’image classique de cultures poussant à l’ombre de grands arbres, les palmiers à huile forment déjà une canopée relativement basse et régulière. L’agroforesterie consiste ici à introduire d’autres espèces d’arbres au sein des parcelles, soit entre les rangées, soit en petits groupes, afin de créer une végétation plus diversifiée et structurée en plusieurs étages. On obtient ainsi un paysage où les palmiers coexistent avec des arbres de tailles et de formes variées, rompant avec l’uniformité des plantations conventionnelles. La question de la compétition pour la lumière est centrale, elle va conduire à des choix d’espèces aux architectures complémentaires : certaines laissent filtrer la lumière, d’autres occupent des strates différentes de la canopée.
Les systèmes agroforestiers testés dans le cadre du projet TRAILS reposent de fait sur des schémas de plantation innovants. Les espèces forestières sont sélectionnées pour leur compatibilité écologique avec le palmier à huile, leur architecture et leur capacité à structurer l’espace sans entrer en compétition excessive pour la lumière, l’eau ou les nutriments. Les espèces introduites sont choisies pour leur complémentarité avec le palmier à huile.
Dans la vallée de la Kinabatangan, des projets de restauration menés notamment par différents intervenants locaux, comme la coopérative villageoise Kopel ou l’ONG Hutan, utilisent des espèces locales, comme Octomeles sumatrana (binuang), Nauclea sp. ou des figuiers (Ficus). Certaines ont une croissance rapide et améliorent le microclimat, d’autres tolèrent les sols inondés ou développent des racines profondes, limitant la compétition pour l’eau et les nutriments.
Ces arbres permettent de moduler l’ombrage, d’améliorer les microclimats et de diversifier la structure verticale des plantations. Les figuiers fournissent des ressources alimentaires clés pour la faune tout au long de l’année. Ces choix de conception jouent un rôle déterminant dans les performances attendues du système : elles font l’objet d’analyses détaillées dans les travaux récents menés au Sabah.
L’une des principales interrogations concernant l’intégration de l’agroforesterie dans les plantations de palmiers à huile porte sur son impact potentiel sur la productivité. Les premiers résultats obtenus au Sabah montrent que les palmiers cultivés en association avec des arbres forestiers peuvent maintenir, dans les stades précoces étudiés jusqu’à présent, des niveaux de production comparables à ceux des monocultures conventionnelles.
L’intégration d’arbres dans les plantations, qu’il s’agisse de palmiers à huile ou d’autres cultures, modifie sensiblement le microclimat des parcelles. La présence d’une végétation plus diversifiée et stratifiée permet de réduire les températures au sol de 2 à 5 °C, grâce à l’ombrage et à l’évapotranspiration des arbres, tout en maintenant une humidité plus élevée et en limitant l’évaporation de l’eau dans les sols. Les arbres jouent également un rôle de brise-vent, réduisant la vitesse du vent et l’érosion. L’ensemble de ces effets atténue les stress hydriques et thermiques et renforce la résilience des cultures face aux aléas climatiques.
En parallèle, les bénéfices pour la biodiversité sont significatifs. Plus de 60 espèces d’oiseaux ont été recensées dans les parcelles agroforestières, contre généralement moins de 20 à 30 espèces dans les plantations de palmiers à huile conventionnelles, souvent dominées par quelques espèces généralistes. L’augmentation de la diversité végétale au sein des plantations favorise, pour sa part, la présence d’oiseaux et d’autres groupes faunistiques qui contribue à restaurer certaines fonctions écologiques, comme la régulation des insectes ravageurs ou la dispersion des graines, dans des paysages fortement fragmentés. Dans des régions comme la Kinabatangan, ces systèmes plus complexes peuvent également améliorer la qualité de l’habitat et la connectivité écologique pour certaines espèces, en complément des forêts restantes.
Comme l’a souligné un article récent, les dispositifs agroforestiers pourraient rendre les paysages dominés par le palmier à huile plus favorables aux déplacements de la faune sauvage. Ces espaces peuvent notamment bénéficier à des espèces en danger d’extinction, telles que les orangs-outans, les éléphants ou les macaques, capables de traverser des plantations, mais aussi à des animaux moins emblématiques, tels que les civettes, ou encore à de nombreux oiseaux forestiers et chauves-souris, qui utilisent ces zones comme habitats intermédiaires ou corridors entre fragments de forêt.
Au-delà de ses effets positifs sur la biodiversité, l’agroforesterie constitue également un levier important d’adaptation au changement climatique dans les plantations tropicales. L’intégration d’arbres au sein des parcelles permet de réduire les températures au sol, d’améliorer la rétention d’eau dans les sols et de limiter l’érosion, contribuant ainsi à renforcer la résilience des systèmes agricoles face aux perturbations climatiques.
Ces aménagements peuvent aussi améliorer les conditions de travail dans les plantations, notamment en apportant de l’ombre et en atténuant l’exposition des travailleurs à des chaleurs extrêmes, un enjeu sanitaire de plus en plus important dans les régions tropicales. En effet, les travailleurs agricoles sont directement confrontés aux effets du changement climatique : températures plus élevées, pluies plus irrégulières ou périodes de sécheresse plus fréquentes rendent le travail en plein air encore plus pénible. Ces conditions peuvent également affecter la productivité des cultures, ce qui accentue la précarité économique des travailleurs et la vulnérabilité des filières agricoles.
D’autres changements sont également possibles. À l’heure où les plantations peinent à trouver des travailleurs, mais où l’huile de palme reste une matière première cruciale au niveau mondial, le projet TRAILS accorde une attention particulière aux dimensions sociales. Des pépinières communautaires, souvent portées par des groupes de femmes, assurent ainsi la collecte, la sélection et la production des plants forestiers.
Ces activités sont accompagnées de formations techniques en agroforesterie et en gestion durable des terres, contribuant au renforcement des compétences locales et à la diversification des moyens de subsistance dans une zone rurale assez isolée. Cette implication continue des communautés locales est essentielle pour garantir l’appropriation des systèmes agroforestiers et leur pérennité à long terme.
La reconnaissance de la plaine de la Kinabatangan comme réserve de biosphère de l’Unesco souligne l’importance de modèles agricoles capables de s’articuler avec des objectifs de conservation à l’échelle du paysage (Unesco, 2023).
Les approches agroforestières expérimentées au Sabah s’inscrivent pleinement dans cette logique intégrée. Sans remplacer les forêts tropicales intactes, les systèmes agroforestiers à base de palmiers à huile peuvent contribuer à transformer les paysages agricoles en leviers complémentaires de conservation et de résilience écologique.
Cet article a été réalisé avec Isabelle Lackman, de l’ONG Hutan, et Sempe Burhan, de la Melangking Oil Palm Plantations.
Alain Rival a reçu des financements Le Fonds de solidarité pour les projets innovants (FSPI), un dispositif de financement ministère de l’Europe et des Affaires étrangères. Le projets TRAILS recoit le soutien financier de l'APF (Alliance pour la Protection des Forets), ainsi que des sociétés Ferrero et Saint Hubert.
Denis Fabre, Marc Ancrenaz et Philippe Guizol ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
30.03.2026 à 16:29
Cécile Touitou, Responsable de la mission Prospective à la bibliothèque / DRIS, Sciences Po
Sophie Forcadell, Chargée de mission CIVICA pour les bibliothèques, Sciences Po
En trois ans à peine, l’intelligence artificielle générative s’est imposée comme un outil incontournable dans les routines de recherche des étudiants, bousculant leur façon d’apprendre tout en remodelant aussi profondément leur rapport aux livres, même dans des filières comme les sciences humaines où ils ont longtemps eu une place centrale.
Dans un paysage saturé d’informations, quelles stratégies les étudiants européens développent-ils pour mener leurs recherches académiques ? Entre quête d’efficacité et pression du temps, ils privilégieraient les contenus « rentables », préférant souvent s’appuyer sur l’IA pour obtenir des synthèses plutôt que de consulter les sources primaires.
C’est ce que nous apprend le baromètre des compétences informationnelles initié par le réseau des bibliothécaires de l’alliance universitaire européenne CIVICA. Les résultats de cette enquête transnationale, menée en partenariat avec l’Ifop, témoignent d’un écosystème en tension et pointent un risque de mésusage des IA génératives. Ils permettent aussi d’interroger des tendances de fond de nos sociétés, comme le rapport au livre.
Jusqu’ici central dans les apprentissages, en particulier dans des filières comme les sciences humaines, le livre, en format numérique ou papier, est-il désormais supplanté par d’autres ressources et outils ?
Pour un étudiant, mener des recherches, lire des ouvrages, élargir les apprentissages est depuis toujours une condition essentielle à sa réussite. À mesure que l’océan informationnel s’étend, y naviguer devient plus complexe, voire plus anxiogène.
Et si l’IA permettait non seulement d’accéder à cette « bibliothèque universelle » mais aussi de « l’ingurgiter » sans la lire, et de court-circuiter ainsi un chemin perçu comme semé d’embûches jusqu’au texte original dans son intégralité ?
Les efforts déployés pour la recherche d’information sont limités pour la plupart des répondants, mais une importante minorité y consacre « beaucoup » de temps. Cette activité prend de l’ampleur à mesure que les étudiants avancent dans les études. Alors que 41 % y consacrent de deux à cinq heures par semaine, une proportion tout aussi importante (41 %) y consacre six heures et plus, 24 % des doctorants déclarant même y passer plus de dix heures hebdomadaires.
Près de 55 % des répondants évoquent le stress généré par l’abondance de sources, la part monte à 62 % dans la population des doctorants, voire à 64 % pour les étudiants en droit.
Ils cherchent, pensent savoir le faire… mais le font-ils efficacement compte tenu de la très grande hétérogénéité des interfaces et de la complexité des périmètres documentaires de chacun de ces réservoirs ? Les bibliothécaires académiques constatent au quotidien la fragilité de leurs compétences en la matière.
Interrogés sur leurs connaissances de base, les étudiants se sentent confiants, mais leur confiance s’érode lorsqu’il s’agit des compétences les plus techniques. Environ 73 % se sentent à l’aise pour trouver des informations et 71 % pour évaluer leur fiabilité, mais ce chiffre tombe à 58 % pour la gestion des références bibliographiques et à 54 % pour l’utilisation des bases de données universitaires.
La recherche sur Internet est le point d’entrée par défaut (71 %) ; on entend par là des moteurs de recherche généraliste type Google que 67 % des étudiants en master déclarent utiliser et 49 % des doctorants. Ces derniers privilégient cependant les moteurs académiques du type Google Scholar (76 % versus 49 %).
Les répondants déclarent que l’IA générative est devenue – en à peine trois ans – un usage courant (61 %), en deuxième place des réponses, devant les listes de lectures fournies par les enseignants (59 %) et loin devant les catalogues des bibliothèques (38 %). Le déclaratif sur l’usage de l’IA à des fins académiques est très différent selon l’université de l’étudiant. Cette grande dispersion des niveaux d’usage révèle également une grande variété selon les niveaux et les disciplines et l’accompagnement institutionnel et académique.
En 2025, le numérique fragmente le temps étudiant, envahit les temps morts et impose des arbitrages fondés sur la rentabilité académique. Dans ce contexte, comment trouver le temps de « lire » ?
À la proposition « Ma charge de travail universitaire est tellement lourde et les délais tellement courts que je n’ai pas assez de temps pour une lecture approfondie et critique » 73 % des étudiants de niveau bachelors acquiescent, 76 % des masters et 69 % des doctorants. Sept étudiants en master sur dix déclarent même « la plupart du temps, je lis des résumés de livres ou d’articles plutôt que des livres/articles entiers » (4,5 sur 10 pour les doctorants) !
Si l’on constate une érosion des prêts d’ouvrages imprimés et de la consultation électronique dans toutes les bibliothèques universitaires du monde, qu’en est-il concrètement des pratiques étudiantes ?
Seuls 17 % des répondants citent les livres et/ou les e-books parmi leurs sources « les plus utiles ou pertinentes » pour le travail académique, mais ils sont 46 % à déclarer les utiliser. Ce décalage est important : on utilise le livre, mais on ne le considère pas comme ressource de référence. C’est particulièrement vrai pour les bachelors et les étudiants en sociologie du panel de l’alliance CIVICA où les écarts sont les plus élevés. A contrario, c’est pour les doctorants et les étudiants en histoire qu’il est le plus faible. Les réponses par niveau (LMD) ou par discipline montrent des situations très différentes entre usage et utilité perçue par sous-population, comme on peut le lire sur le graphique suivant.
On mesure un usage des livres imprimés globalement faible mais cette moyenne recouvre des réalités très polarisées : si 28 % des répondants déclarent les utiliser pour rechercher des informations liées à leurs travaux, c’est le cas pour 25 % en master vs 45 % en doctorat ; 75 % en histoire vs 14 % en Affaires publiques.
Et si, au lieu d’une prise de distance des étudiants par rapport au livre imprimé, on assistait simplement à une spécialisation des usages en fonction des besoins, de l’offre éditoriale et du type de travaux dans chaque discipline ? Les faibles utilisateurs de livres imprimés peuvent consulter des articles en ligne, par exemple.
Les livres imprimés semblent être devenus une ressource de niche, surtout mobilisée par les doctorants, dans des travaux nécessitant de la littérature approfondie ou dans des domaines où le numérique est moins développé. Pour les plus jeunes, manque de temps, faible rentabilité académique, ou manque d’appétence pour la lecture sont parmi les explications que l’on peut avancer à cette désaffection massive, même s’il existe toujours de gros lecteurs.
S’ils ne lisent plus sur papier, le font-ils en ligne comme l’ont pensé bien des médias ? Près de 65 % des étudiants disent préférer la version numérique au papier quand ils ont le choix entre les deux versions, surtout les doctorants (75 %) plus que les bachelors (63 %), témoignant d’une accoutumance avec les années d’études à une lecture plus pratique du support numérique et une meilleure compréhension de l’écosystème des publications scientifiques en ligne.
L’usage déclaré des e-books est en moyenne 6 points plus élevé que celui de l’imprimé (12 pour les bachelors !), pour autant seulement 33 % des répondants déclarent les utiliser ; 22 % les utilisent tout le temps ou fréquemment, 12 % quelques fois ; mais 67 % rarement ou jamais ! On constate donc que le support n’est pas la solution à ce problème.
Globalement, 75 % des étudiants en master déclarent donc ne pas utiliser les ouvrages imprimés, et 72 % les ouvrages numériques, un constat qui pose beaucoup de questions. Les étudiants de master semblent privilégier d’autres types de ressources, notamment les bases de données académiques.
Pour beaucoup, retrouver rapidement les ouvrages recommandés peut devenir un obstacle : listes de lecture dispersées, références incomplètes, faible visibilité des exemplaires disponibles ou des versions numériques… Autant de freins qui poussent certains étudiants à se tourner vers des sources plus facilement accessibles, même si elles sont parfois moins fiables ou moins adaptées.
Concomitamment à ces évolutions qui percutent le rapport à l’imprimé, l’IA est devenue un outil incontournable pour les étudiants, mais cette adoption massive ne s’accompagne pas d’une confiance équivalente dans les contenus générés ni de recommandations institutionnelles claires.
L’IA n’est pas systématiquement considérée comme pertinente sur le plan académique. L’écart entre l’utilisation fréquente et l’utilité perçue suggère des pratiques hétérogènes : certains étudiants s’appuient sur l’IA comme un outil d’aide courant, tandis que d’autres l’utilisent occasionnellement ou restent sceptiques quant à sa valeur académique.
Environ un étudiant sur deux ferait confiance à l’IA pour générer des idées pour un projet de recherche. La confiance s’effondre lorsque l’IA est utilisée pour la recherche de sources et le référencement. Les étudiants attribuent une note élevée à l’IA pour la traduction (86 % de fiabilité) et une note relativement élevée pour la synthèse (71 %) et la compréhension de concepts complexes (69 %), mais leur confiance chute fortement pour la recherche d’articles scientifiques (38 %) et la suggestion de sources (32 %), précisément là où les erreurs peuvent compromettre la qualité académique.
En l’espace de trois ans, le recours à l’IA pour contourner la lecture directe d’un texte, obtenir un résumé ou extraire les idées phares s’est imposé comme une pratique courante, nouvelle étape de cette mutation des pratiques lectorales des jeunes étudiée dès la fin du siècle dernier. Un rapport « utilitariste » au livre s’impose dans un écosystème informationnel en pleine mutation où la tentation des intermédiaires qui facilitent l’accès et l’appropriation des contenus peut être considérée comme un risque ou une opportunité.
Cet article a été écrit par Cécile Touitou, responsable de la cellule « prospective » de la bibliothèque de Sciences Po, avec la collaboration de Sophie Forcadell, chargée de mission université européenne CIVICA à la bibliothèque de Sciences Po Paris.
Cécile Touitou est présidente de la commission CN 46-8 de l'Afnor "Information et documentation - Qualité, statistiques et évaluation des résultats".
Sophie Forcadell est membre des bibliothèques académiques LIBER.
30.03.2026 à 16:28
Séverine Lemière, Maîtresse de conférences en Sciences de gestion, Université Paris Cité
Olga Lelebina, Professeure de RH et de Management, ISG International Business School
Les conséquences des violences conjugales ne s’arrêtant pas à la porte des entreprises, certaines d’entre elles les ont intégrées dans leur politique de diversité, d’égalité et d’inclusion. Panorama des outils proposés par certaines firmes du CAC 40.
Parmi les victimes de violences conjugales, nombreuses sont celles qui occupent un emploi. Quand elles partent travailler, elles quittent le domicile et leur agresseur. Face à cette évidence, le milieu professionnel peut constituer un espace de protection, de ressources et de socialisation. En conséquence, il peut aussi devenir un acteur à part entière de la lutte contre les violences conjugales.
Dans toute organisation, il existe inévitablement des personnes confrontées à des violences conjugales. Ces violences ont des répercussions significatives sur la vie professionnelle. Elles peuvent entraîner des retards, des absences répétées, une baisse de concentration, une fatigue chronique ou encore une diminution de la qualité du travail. Les relations avec les collègues ou avec l’encadrement peuvent également se dégrader parce que la personne victime se trouve en situation d’épuisement psychologique, émotionnel ou physique. La victime risque d’ailleurs d’être perçue comme un ou une collègue moins fiable.
L’agresseur peut poursuivre son emprise jusque sur le lieu de travail avec des messages ou appels incessants, des menaces ou des agressions sur le lieu de travail ou à proximité. Autrement dit, les violences au sein du foyer peuvent fragiliser le parcours professionnel de la victime. Le conjoint violent peut chercher à limiter l’engagement de la victime, préférer qu’elle reste à la maison, la décourager de suivre des formations ou d’accepter des mobilités, l’inciter à réduire son temps de travail ou même à quitter son emploi.
À lire aussi : Les femmes cadres, victimes oubliées des violences conjugales
La convention d’Istanbul rappelle que les violences faites aux femmes ne relèvent pas de simples conflits privés, mais qu’elles constituent l’expression d’un système où la domination, la discrimination et les stéréotypes de genre créent un terrain favorable à l’emprise et à la violence. Ces violences sont à la fois la cause et la conséquence des inégalités entre les femmes et les hommes. Elles s’enracinent dans des rapports de pouvoir déséquilibrés et contribuent, en retour, à limiter l’autonomie personnelle, économique et professionnelle des femmes.
Pour une organisation, ne pas intégrer ce sujet dans sa stratégie d’égalité, de diversité et d’inclusion revient à ignorer un obstacle important et invisible à l’égalité réelle. Depuis quelques années, plusieurs grands groupes (dont Kering, L’Oréal, BNP Paribas, Carrefour, SNCF et EDF) se sont engagés dans des initiatives collectives comme le réseau OneInThreeWomen, créé en 2018, qui incite les employeurs à inscrire la prise en charge des violences conjugales dans leur stratégie de diversité et d’inclusion.
Plusieurs organisations, en France et à l’international, ont déjà intégré la lutte contre les violences conjugales dans leurs engagements en matière d’égalité entre les femmes et les hommes. Voici quelques axes d’action issus de ces retours d’expérience.
De grandes entreprises ont lancé des campagnes de sensibilisation en interne (affichages, newsletters spécifiques, podcasts…) pour faire connaître l’ampleur du problème et les ressources disponibles. Certaines formations ciblent les managers, le personnel RH, les services sociaux ou de santé au travail, afin de mieux repérer les signaux d’alerte et réagir correctement. De son côté, Kering a choisi de sensibiliser progressivement tous ses collaborateurs, du vendeur en boutique jusqu’aux membres du comité exécutif, en s’appuyant sur des associations spécialisées.
BNP Paribas, avec son pôle d’action sociale au sein des RH, intègre les violences conjugales dans l’écoute des collaborateurs en difficulté. Ce type de service interne permet de briser l’isolement de la victime en lui proposant écoute, conseils et orientation vers les associations spécialisées.
« Le maintien dans l’emploi est une priorité absolue », déclare BNP Paribas, qui peut par exemple proposer à une victime un changement de site géographique si sa sécurité l’exige. Chez EDF, les services sociaux sont aussi au centre des dispositifs à destination des victimes de violences conjugales, et peuvent permettre la demande de mesures de soutien comme un hébergement temporaire ou des aides financières.
Certaines entreprises ont choisi d’accorder les jours d’absences rémunérées ; par exemple, trois jours d’absence rémunérés à La Poste pour effectuer les démarches (dépôt de plainte, rendez-vous médicaux, relogement…) nécessaires. Outre les congés, la flexibilité du temps de travail peut aussi être cruciale : aménagement d’horaires afin de permettre à la personne de disposer de temps pour les démarches inhérentes aux violences.
Souvent, les victimes ne savent pas vers qui se tourner pour obtenir de l’aide, tandis que les entreprises, de leur côté, ne disposent pas toujours de l’expertise nécessaire. C’est pourquoi certains groupes établissent des partenariats avec des associations spécialisées pour orienter les salariées concernées vers des professionnel·les formé·es et proposer des interventions, formations ou ateliers de sensibilisation. En unissant leurs forces avec le tissu associatif, les employeurs contribuent à créer un écosystème de soutien autour de la victime.
Certains partenariats vont plus loin, c’est le cas entre EDF et l’association FIT Une femme, un toit, avec la réalisation de recherche-action et la co-construction de dispositifs adaptés aux réalités de terrain et enrichis par l’expertise associative, ce qui permet à l’entreprise et à l’association de monter en compétences mutuellement.
Certaines entreprises inscrivent leur engagement dans leurs politiques RH avec la signature d’une charte – qu’elle soit interne à l’entreprise ou interentreprises, par exemple la charte OneInThreeWomen.
D’autres entreprises ont fait le choix de l’intégration des violences conjugales dans les accords collectifs relatifs à l’égalité professionnelle entre les femmes et les hommes, ce qu’ont fait des entreprises pionnières, comme Orange, EDF, SNCF, Korian, La Poste, Carrefour, Legrand. Ces engagements négociés avec les partenaires sociaux garantissent de nouveaux droits et les moyens alloués, ils témoignent de la vision partagée entre direction et syndicats de la reconnaissance des conséquences professionnelles des violences conjugales et du rôle du milieu professionnel auprès des victimes.
Considérer les violences conjugales comme un objet à part entière des politiques d’égalité, de diversité et d’inclusion constitue une évolution culturelle majeure dans le monde du travail.
Cela suppose de reconnaître que les violences conjugales ne relèvent pas uniquement de la sphère personnelle ou sociétale, mais qu’elles constituent également un enjeu organisationnel. Il s’agit dès lors d’un nouveau défi managérial, dans la continuité des engagements en faveur de l’égalité entre femmes et hommes, qui doit permettre, en partenariat avec les politiques publiques de lutte contre les violences et les associations féministes spécialistes de l’accompagnement des victimes, de construire un environnement favorable à la sortie des violences.
Séverine Lemière est membre de l'association FIT une femme un toit. Elle mène des recherches-actions avec EDF.
Olga Lelebina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2026 à 16:27
Emilie Ruiz, Maitre de conférences HDR, Université Savoie Mont Blanc
Corentin Charbonnier, Docteur en Anthropologie, Université de Tours

Vingt ans après la loi de 2005 sur l’égalité des droits des personnes en situation de handicap, l’accessibilité des lieux culturels a nettement progressé en France. Mais la participation réelle des publics concernés reste limitée. Une expérimentation menée entre une pension de famille et le Hellfest, en Loire-Atlantique, montre en quoi l’inclusion ne se résume pas à des aménagements techniques.
Un samedi de juin 2023, au milieu des dizaines de milliers de festivaliers réunis au Hellfest (Clisson, Loire-Atlantique), six habitants d’une pension de famille découvrent pour la première fois l’un des plus grands festivals de France. Certains vivent avec des troubles psychiques, d’autres avec des limitations physiques et pourtant, tous participent à une expérience singulière : explorer ce que signifie réellement l’« inclusion » dans un événement culturel singulier. Cette expérimentation, menée avec des résidents de la pension de famille de l’Orangerie, une structure gérée par la Croix-Rouge française, invite à repenser en profondeur la manière dont les institutions culturelles abordent le handicap. Car malgré les progrès réalisés ces dernières années, l’accès à la vie culturelle reste encore limité pour de nombreuses personnes en situation de handicap.
Depuis la loi française de 2005 sur l’égalité des droits des personnes handicapées, les lieux culturels ont considérablement amélioré leur accessibilité physique : rampes d’accès, plateformes réservées, signalétique adaptée. Mais un paradoxe demeure : malgré ces aménagements, les personnes en situation de handicap participent encore relativement peu à la vie culturelle et associative. Si le handicap visible est de fait perceptible, le handicap invisible, notamment psychique ou cognitif, reste pour le grand public, méconnu. La diversité des troubles et de leur prise en soin entrave leur plein exercice de la citoyenneté et donc leur participation à des évènements culturels. Le contexte des festivals ne peut être de ce fait limité à la simple implantation d’un accès physique adapté.
En s’appuyant sur l’expertise de professionnels, de bénévoles et en expérimentant, les initiatives portées par le Hellfest permettent de proposer une autre approche de l’accessibilité. Par exemple, pour les personnes malentendantes, des gilets vibrants permettant de ressentir physiquement les vibrations de la musique sont proposés. Certains concerts sont aussi partiellement traduits en langue des signes.
Ces dispositifs illustrent une idée simple : l’accessibilité ne consiste pas forcément à reproduire une expérience standard pour tous, mais à permettre des manières différentes de vivre un même événement. Pour les participants de la pension de famille de l’Orangerie, l’expérience du festival s’avère à la fois fascinante et déstabilisante. Les structures monumentales du site, l’intensité sonore ou la densité de la foule peuvent susciter autant d’émerveillement que d’appréhension. Mais ces réactions contrastées révèlent aussi une réalité souvent oubliée : les personnes vivant avec un handicap psychique ne sont pas condamnées à rester à l’écart de ces expériences culturelles. Elles peuvent y participer pleinement, à condition que les conditions soient adaptées et préparées et devenir ainsi expertes de leurs conditions d’accessibilité.
Pendant plus d’un an, les participants ont préparé, avec le soutien de leur encadrant, moniteur-éducateur de formation, leur venue : visites du site à vide, participation à la tournée Warm-Up du festival, repérage des espaces accessibles, organisation du suivi médical ou logistique. Cette phase d’anticipation a permis aux résidents de se familiariser progressivement avec l’environnement du festival et d’en réduire les incertitudes.
Le projet n’est pas né d’une décision institutionnelle. Il a été proposé par une résidente lors d’une réunion collective de la pension de famille, puis discuté et adopté par le groupe. Autrement dit, les participants n’ont pas simplement été « inclus » dans un dispositif : ils ont contribué à construire eux-mêmes leur participation.
L’inclusion culturelle repose rarement sur un seul acteur. Dans cette expérimentation, plusieurs organisations ont joué un rôle déterminant : la pension de famille de l’Orangerie, la Croix-Rouge française, l’association Culture du cœur, mais aussi des mécènes du festival. Chacun contribue à résoudre une partie des difficultés : financement, accompagnement social, logistique, accès aux billets ou médiation culturelle. Cette configuration rappelle que l’inclusion culturelle est un processus collectif impliquant de multiples organisations. Elle s’imbrique ainsi pleinement dans une démarche partenariale, essentielle au travail social.
Cet écosystème ne peut fonctionner sans le rôle clé de certains acteurs, capables de relier des univers qui communiquent peu entre eux et donc de rendre les frontières entre ces acteurs moins imperméables. Éducateurs spécialisés, médiateurs culturels ou réalisateur, familiers du travail social, peuvent ainsi agir comme des « acteurs-frontières ». Leur rôle consiste à traduire les attentes et les contraintes de chaque milieu (institutions sociales, organisateurs culturels, participants) afin de rendre possible la coopération.
Cette expérimentation (dont le documentaire Rendre l’enfer accessible témoigne avec sincérité) invite à repenser les politiques publiques d’accessibilité culturelle, encore largement centrées sur l’adaptation physique des infrastructures. Trois pistes émergent : (1) élargir la définition du handicap prise en compte dans les politiques culturelles, afin d’intégrer davantage les handicaps psychiques ou invisibles, (2) soutenir financièrement les démarches de co-construction avec les publics concernés, et pas seulement les investissements matériels, et (3) former et reconnaître les acteurs-frontières, qui jouent un rôle essentiel dans la mise en relation des différents partenaires.
Souvent associé à une esthétique radicale ou marginale, le metal apparaît rarement dans les débats sur les politiques culturelles. Avec une identité historiquement construite autour de communautés de fans fortement engagées et solidaires, certaines initiatives d’inclusion trouvent un terrain favorable pour se développer : elles ne sont pas sans faire écho à l’éthos de l’identité metal : partager un moment collectif, au-delà des distinctions sociales ou physiques, à l’instar des valeurs qui façonnent ce genre musical et véhiculées par certains groupes tels que Gojira.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.03.2026 à 11:13
Guillaume Denos, Maître de Conférence, Université d’Angers
Malgré les baisses des subventions, les tiers-lieux connaissent toujours un engouement. Car ces espaces de sociabilité séduisent autant par leur convivialité que par leurs nombreuses activités, manuelles et intellectuelles. Explication à l’appui de témoignages d’usagers et d’usagères de La Cocotte solidaire, d’Agis et du « makerspace » L’Établi.
À Digne-les-Bains, dans les Alpes-de-Haute-Provence, le projet de tiers-lieu culturel, soutenu par la maire sortante divers gauche Patricia Granet, était au cœur de la campagne municipale. À Carquefou en Loire-Atlantique, la candidate divers droite Jéromine Da Prat, souhaitait créer un « tiers-lieu jeunesse de 11 à 25 ans ». À Arras (Pas-de-Calais), le centriste Frédéric Leturque officialisait sa campagne au Perchoir, un tiers-lieu inclusif.
Le terme « tiers-lieu » trouve son origine dans les travaux du sociologue américain Ray Oldenburg, qui publie en 1989 The Great Good Place. Il y décrit les third places, des espaces qui ne sont ni la maison ni le travail, mais un troisième lieu de sociabilité essentiel.
En France, on compte plus de 3 500 tiers-lieux, 62 % en dehors des métropoles, un tiers en ruralité.
Dans un contexte social et économique différent de celui décrit par Oldenburg, marqué en France par le désengagement progressif de l'état et l'accentuation des enjeux de transitions, les caractéristiques des tiers-lieux sont à réexaminer. En effet, le dernier projet de loi de finances 2026 confirme la suppression des aides directes aux tiers-lieux, passant de 12 millions d’euros à 1,20 million d’euros. Or, 49 % du financement des tiers-lieux provient de subventions publiques.
Alors, les tiers-lieux contemporains répondent-ils toujours aux mêmes motivations ? Et qu’est-ce qui attire concrètement leurs usagers ?
Pour répondre à ces questions, nous avons mené une recherche dans le cadre du projet EVATLESS avec l’Université d’Angers. Ce dernier s’intéresse à l’évaluation de tiers-lieux de l’économie sociale et solidaire (ESS), en partant d’un principe simple : pour comprendre leur valeur, il faut écouter celles et ceux qui les fréquentent.
Nous avons étudié trois tiers-lieux portés par des associations situées à la fois en centre-ville, en périphérie et dans une commune rurale :
La Cocotte solidaire, propose des repas participatifs et solidaires visant à lutter contre l’isolement social ;
L’Établi, fonctionne comme une bibliothèque d’outils et organise des ateliers de bricolage autour du partage et du réemploi ;
Au germoir d’initiatives solidaires (Agis) anime sur une commune des initiatives locales liées à la transition écologique et sociale.
Au total, 65 usagers ont participé à l’enquête. L’objectif n’était pas seulement de savoir si les activités proposées leur plaisaient, mais de comprendre ce que ces lieux représentent pour eux, et ce qui motive leur fréquentation.
Une méthodologie immersive et participative a été mise au point pour rendre cette recherche accessible à tout le monde et fournir aux associations des témoignages. Cette méthodologie implique des partenaires associatifs à chaque étape de la recherche et déploie la méthode Q. L’enjeu est de faciliter l’expression d’avis personnels sur une question donnée, comme « Qu’est-ce qui vous incite à (re)venir dans ce tiers-lieu ? »
Dans notre étude, nous constatons que venir dans des tiers-lieux, c’est accéder facilement à une ambiance que l’on ne retrouve pas ailleurs. Un lieu chaleureux, mais également pratique et accessible. On peut y venir à pied, à n’importe quel moment de la journée, voire certains soirs et le week-end.
« Le vendredi soir, en même temps que je viens chercher mes légumes, je trouve un espace qui est agréable, convivial. Ça fait plaisir de venir ici et c’est juste à côté de chez moi », témoigne un usager d’Agis.
Cette convivialité repose sur ce que les usagers anticipent trouver dans les tiers-lieux : des habitués qui sont parfois des amis, des salariés qui coordonnent les activités et rassurent par leur présence ou, de manière plus secondaire, une programmation culturelle.
Les usagers valorisent la simplicité de leur engagement dans les tiers-lieux associatifs étudiés. Une adhésion annuelle suffit bien souvent à participer activement au fonctionnement du lieu : bricolage, cuisine, organisation d’évènements, etc. Une variété d’activités qui permet de se sentir utile par le « faire ».
« Et qu’est-ce qui t’a donné envie de venir ? »
« D’abord de cuisiner ensemble et [d’] offrir ce repas après. Et puis en me forçant aussi à être avec des gens que je ne connaissais pas. Quand je ne connais pas les gens, je suis assez en retrait mais, là, je plonge dans le bain », souligne un usager de La Cocotte solidaire.
L’engagement dans des activités de « transition » permet aux répondants de réaliser concrètement ce qui peut faire sens ou d’entrer en accord avec leurs valeurs personnelles : être conseillé lors d’un Repair Café, cuisiner un repas végétarien ou faciliter la collecte d’une Amap.
Les tiers-lieux sont des lieux « ressources ». Les répondants valorisent le cadre et les moyens mis en place (humains, notamment) pour les accueillir et les écouter de manière inconditionnelle. En ce sens, ils viennent avant tout chercher des interactions sociales et des rencontres.
« Je sais que c’est un endroit convivial ici. Je viens pour passer un bon moment et sortir de l’isolement parce que, même si j’ai un mari à la maison, je ne connais pas grand monde à Nantes. C’est aussi pour rencontrer du monde ici », rappelle une usagère de La Cocotte solidaire.
En dehors du besoin de lien social, les usagers sont attirés par la possibilité de découvrir d’autres organisations qui forment un réseau autour du tiers-lieu. La possibilité d’accéder à de nouvelles connaissances et compétences les attire :
« Depuis que je viens là, à chaque fois que je fais quelque chose, j’apprends et ça, j’adore. Je vois bien que quand je demande un conseil à quelqu’un, il est content de m’expliquer », s’enthousiasme un usager de L’Établi.
Les tiers-lieux attirent des personnes de tous horizons, car ils mettent en œuvre de manière implicite une logique réciprocitaire de don et de contre-don. Ils créent des espaces informels valorisant la possibilité pour chacun de donner comme de recevoir.
Grâce à la convivialité, déjà centrale dans les écrits d’Oldenburg, ce troc est facilité et encourage les usagers à venir donner de leur temps, de leurs compétences, et du sens à leurs actions – tout en recevant de l’attention, de nouvelles connaissances, des biens ou des services écoresponsables.
Guillaume Denos a reçu des financements de l'Université d'Angers et de la Région Pays de la Loire pour mener cette étude dans le cadre des financements PULSAR. Il est membre bénévole de l'association La Cocotte Solidaire.
30.03.2026 à 11:12
Carole Charbonnel, maître de conférences en sciences de gestion, spécialité marketing, Université Jean Moulin Lyon 3
Les opérations de cocréation entre les marques et leurs consommateurs se sont largement développées. Une raison méconnue de cet engouement tient à l’affaiblissement de la fonction marketing dans l’entreprise. En faisant alliance avec les consommateurs, les managers marketing valorisent le rôle clé qu’ils occupent dans la relation avec le client final.
Au bord de la faillite dans les années 2000, Lego a fait de la cocréation un pilier de son renouveau grâce à la communauté Lego Ideas qui permet aux fans de créer de nouveaux designs. À l’instar de la marque danoise, les activités de cocréation sont déployées par des entreprises diversifiées, depuis L’Oréal et son forum de 13 000 consommateurs, qui proposent des idées et testent les produits, jusqu’à la marque solidaire C’est qui le patron ?, dont les clients déterminent les cahiers des charges produits et participent aux actions commerciales.
Les activités de cocréation, par lesquelles les marques interagissent et collaborent avec leurs consommateurs, constituent aujourd’hui une alternative aux méthodes traditionnelles du marketing, qui ne sollicitent pas la participation active du public. Les pratiques de cocréation suscitent toutefois de nombreuses critiques dans la sphère académique et médiatique.
La collaboration des consommateurs permet en effet aux marques de bénéficier d’une forme de travail gratuit, bien que volontaire.
La cocréation est également considérée comme un levier par lequel le marché étend toujours plus son emprise sur les individus, sous couvert de dialogue et d’ouverture. La multinationale Mondelez a ainsi subi un bad buzz, lorsqu’elle a proclamé en 2020 remplacer le marketing par l’humaning, une approche censée mettre au premier plan la création de connexions avec les consommateurs.
À lire aussi : Les leçons marketing d’un chef-d’œuvre télévisuel, « Mad Men »
Face à ces critiques et au risque médiatique, une recherche académique publiée récemment dans la Revue française de gestion nous aide à mieux comprendre ce qui motive les praticiens du marketing à développer la cocréation avec les consommateurs.
De façon surprenante, les entretiens que j’ai menés avec une quinzaine de directeurs marketing chargés de grandes marques font ressortir que les activités de cocréation ne sont pas nécessairement mises en place selon une perspective de performance. En effet, les managers interrogés affirment être satisfaits de déployer une approche cocréative, mais ils reconnaissent ne pas savoir si celle-ci est réellement plus performante que des méthodes traditionnelles, car elle requiert plus d’investissement en temps managérial.
Loin de se fonder sur des moteurs objectifs, l’engouement pour la cocréation semble trouver sa source dans la situation perçue des managers au sein de l’organisation et face au marché. Contrairement aux praticiens interrogés qui privilégient des approches traditionnelles, tous les interviewés déployant des activités de cocréation expriment ainsi le sentiment d’une faiblesse de la fonction marketing face aux autres départements de l’entreprise : « Tout est drivé par l’agro-industrie » (Philippe), et souvent les ventes prédominent, car « On pense client (en l’espèce, le distributeur) plus que consommateur » (Nicolas).
Dans ce contexte, le marketing voit son rôle restreint à des activités opérationnelles au service d’autres fonctions :
« Tu peux imaginer le cafouillis total de gens qui [ne ] savent pas quel est le rôle du marketing, pour eux le rôle du marketing, c’est faire une brochure promotionnelle […] Avant d’aller voir les clients, les vendeurs viennent nous voir et disent : “Tiens, tu ne peux pas me faire une petite photo ?” […] Mon premier client, ce n’est pas mes clients, c’est mes collègues aux ventes. »
(Christophe.)
Non seulement ces managers peinent à influencer les politiques de l’entreprise, mais ils ressentent également une fragilité de l’expertise marketing vis-à-vis de consommateurs décrits comme volatils et difficiles à influencer.
Ces consommateurs relativement puissants, ils tentent de s’en faire des alliés à travers les pratiques de cocréation. En se prévalant de collaborer et de dialoguer avec leurs clients, ils ont le sentiment de se renforcer eux-mêmes au sein de l’organisation, ils parviennent à « ne pas se faire ridiculiser auprès du grand patron » (Christophe). Car la voix du marché est irréfutable :
« C’est pas moi qui déclare que ça marche, on a en ligne 150 femmes qui nous ont dit que ça marche. »
(Marie.)
En opérant une alliance avec les consommateurs, les marketeurs seraient même susceptibles de saper le pouvoir des autres fonctions :
« Avec les interactions, les gens des autres fonctions sont dépossédés d’un certain pouvoir, ils acceptent d’être challengés, ils ont peur, maintenant la communauté les remet en cause […] J’ai levé le voile [sur un] un monstre, je ne sais pas si on est capable de prendre la mesure de cette évolution. »
(Florent.)
Dotés d’une image de puissance et d’autonomie, les consommateurs sont alors vus comme les acteurs volontaires d’une forme de démocratisation des activités marketing. Dans cette perspective, la question éthique liée à la mise au travail des consommateurs par les marques n’a logiquement pas de place :
« Les gens font des choses incroyables […] Ils essayent de s’amuser en ayant l’impression d’être aussi importants que celui qui représente l’entreprise […] Il y a aussi, sans doute de façon inconsciente, une notion qu’ils prennent le pouvoir sur l’entreprise, sur les produits ou sur la comm’. C’est une façon de remettre la main dessus et ça, c’est extrêmement valorisant, voire pour certains extrêmement jouissif ! »
(Florent.)
Alors que le recul d’influence de la fonction marketing au sein des entreprises est largement étayé par la recherche, cette étude nous aide à mieux comprendre pourquoi la cocréation est devenue une approche usuelle en dépit de critiques répétées et d’une difficulté à évaluer sa performance.
Les managers du marketing d’aujourd’hui tentent d’exploiter la figure du consommateur roi, suivant en cela les pas de leurs prédécesseurs des années 1960, qui s’étaient imposés dans les entreprises grâce au concept de centralité du consommateur.
Il semble néanmoins nécessaire que ces managers d’aujourd’hui prennent en compte les enjeux éthiques soulevés par la cocréation. Ceci exige de reconnaître que la collaboration des clients est une forme de travail nécessitant rémunération, et de renoncer à tout discours associant la cocréation à un marketing plus démocratique. Les praticiens du marketing gagneront à assumer, enfin, que leurs activités de cocréation sont dirigées par l’entreprise afin de servir une finalité lucrative.
Carole Charbonnel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2026 à 11:12
Julie Tixier, Maîtresse de Conférences en sciences de gestion, Université Gustave Eiffel
Amélie Notais, Maîtresse de Conférences en Sciences de Gestion, Le Mans Université, Le Mans Université
Loin des clichés et des récits édifiants d’entrepreneurs héroïques, l’examen du parcours de deux femmes montre au contraire que le processus n’est pas linéaire. Traversant des crises successives, Claire et Fatou s’affirment au fil de la démarche prouvant qu’« on ne naît pas entrepreneuse, on le devient ».
Qu’elle soit climatique, économique ou encore sanitaire, la crise toucherait en priorité les femmes. En effet, les femmes représentent 70 % des travailleurs pauvres et, selon les Nations unies, face aux crises climatiques, les femmes seraient quatorze fois plus susceptibles de mourir que les hommes, principalement en raison d’un accès limité à « l’information, d’une mobilité restreinte, d’un manque de prise de décision et de ressources ».
Pour autant, des femmes s’emparent parfois de certains de ces moments instables, au travers de l’entrepreneuriat. Les parcours suivis sur plusieurs années de Fatou et de Claire (les prénoms ont été changés, ndlr), deux entrepreneuses, sont mobilisés pour dépasser la seule lecture objective, linéaire et extrinsèque de la crise. Ces parcours sont analysés plus en détail dans un article de la revue RIMHE.
L’approche féminine et féministe de cette recherche « embrasse des formes de théorisation plus humaines, plus fluides et plus ouvertes, ancrées dans des questions qui nous sont véritablement proches (…) et qui reconnaissent notre ancrage dans notre monde et notre responsabilité envers les autres ». Cette posture phénoménologique saisit « l’expérience vivante du monde » de deux entrepreneuses singulières. Elle amène à essayer de comprendre les significations, les logiques et le sens des éléments vécus, observés.
Cette logique nous a guidées pour rendre compte au plus près des ressentis, des parcours des femmes dans leur entièreté : factuelle, émotionnelle, relationnelle. La granularité fine de l’étude de ces deux récits permet d’explorer la richesse d’une lecture deleuzienne de l’entrepreneuriat en train de se faire et d’illustrer un « devenir entrepreneuse » qui s’inscrit dans la lignée de ce que Deleuze et Guattari ont défini comme le « devenir femme ».
En adoptant une méthodologie longitudinale, cette recherche met en évidence comment il est possible de composer avec, voire de transcender, les crises et de se construire en fonction d’elles.
Les crises apparaissent de façon régulière dans leur vie. Claire et Fatou racontent combien chaque crise peut être à l’origine d’une insécurité, d’une instabilité, et ainsi amorcer un diagnostic, conduire à une réflexion voire à une évolution de l’identité et/ou du projet entrepreneurial. Ce sont autant de turbulences et de rencontres qui, suivant le moment de l’histoire de l’entrepreneuse, peuvent conduire ou non à une résonance qui orientera plus ou moins durablement les pratiques de l’entrepreneuriat et la construction de l’identité entrepreneuriale.
« J’étais dans une période où je me disais que ce serait intéressant d’entreprendre, mais c’est vraiment la rencontre de mon associée et le fait que c’était le bon moment pour moi pour me dire, “Allez, c’est parti !” »
(Claire.)
À lire aussi : La femme pour l’entrepreneuriat social, l’homme, pour l’entrepreneuriat tout court… Archéologie d’une croyance
Pour sa part, au cours d’un master 2, Fatou réalise un travail en groupe sur un habitat intergénérationnel innovant en milieu ouvert pour des cas d’Alzheimer, dans une maison « à taille humaine ». Pour cette femme qui s’engage dans les études, après dix ans de vie professionnelle comme assistante sociale, il s’agit d’un temps de rupture pour se consacrer à ce qui lui tient à cœur. C’est ce travail universitaire qui va résonner avec son désir d’entreprendre pour travailler à un modèle inclusif pour les personnes âgées.
Fatou est la seule de son groupe à souhaiter œuvrer à la concrétisation d’un tel projet. Elle choisit de rechercher et d’adapter son projet à son environnement plus urbain. Parallèlement, elle saisit l’opportunité de devenir étudiante-entrepreneuse pour bénéficier d’un coaching. À l’issue de son master 2 en économie sociale et solidaire, Fatou décide d’intégrer un nouveau master 2, spécialisé en entrepreneuriat (en alternance), afin de tout mettre en œuvre pour son projet.
Claire est cadre, directrice des achats d’un grand groupe, quand elle découvre le portrait d’une porteuse de projet à impact dans un magazine engagé en faveur de l’écologie. Cette découverte fortuite sème la graine, ouvrant son chemin vers l’entrepreneuriat. Le témoignage de cette femme qui a son âge et semble partager avec elle un ensemble de valeurs lui « parle ».
Au moment de cette lecture, elle sait qu’elle devra bientôt quitter son poste pour suivre son mari, muté dans une nouvelle région. Après en avoir discuté, le couple a fait ce choix familial délicat de déménager, et ce, malgré l’absence de perspectives professionnelles pour Claire au sein de son entreprise dans ce nouveau lieu de résidence.
C’est dans ce contexte incertain qu’elle s’efforce de provoquer la rencontre de cette porteuse de projet à impact. En quelques clics, Claire identifie l’incubateur de cette entrepreneuse et ses coordonnées. Elle la contacte et, peu après leur premier échange téléphonique, les deux femmes s’associent. La région au sein de laquelle la famille de Claire s’installe s’avère rapidement intéressante pour son projet entrepreneurial. Elle lui offre un territoire d’accueil chaleureux au sein duquel déployer son entreprise.
Claire est en région, et son associée à Paris. Cette gestion bicéphale s’accoutume bien de la distance géographique et en fait même rapidement un atout pour répartir les tâches de chacune. Ce qui, au début, s’apparente à une crise professionnelle (pas de poste de même niveau possible sur le nouveau territoire d’affectation de son mari) est transformé par Claire en une opportunité. Elle décide de se lancer dans une nouvelle aventure professionnelle et d’ouvrir la porte de l’entrepreneuriat.
Pour Fatou comme pour Claire, on s’aperçoit que l’intention d’entreprendre prend forme après une crise, un moment décisif, empli de doutes et d’instabilités et, simultanément, propre à l’autodiagnostic : la formation pour l’une, la mobilité géographique contrainte pour l’autre. La crise est l’étincelle qui alimente le feu entrepreneurial. Toutes deux permettent aux signaux qu’elles lisent et/ou entendent de résonner suffisamment fort pour s’inscrire dans leur parcours et les mettre en action. Claire résume cela en ces termes :
« J’avais certainement un peu les oreilles ouvertes sur ce type de sujet ! »
Elles laissent cette résonance faire écho, se propager, grandir et ainsi façonner leur idée d’entreprendre et de devenir entrepreneuse. La crise apparaît dans les parcours de Fatou et de Claire comme plurielle.
Durant un « hackathon » (concours d’innovation en temps limité, ndlr), des étudiants en alternance, souvent en reprise d’études, travaillent sur le projet de Fatou. Leurs connaissances professionnelles du secteur et de ses impératifs sont mises à profit durant trois jours. Fatou mesure l’importance de ces conseils, et l’on perçoit physiquement le chamboulement interne de Fatou qui absorbe le choc de l’afflux d’éléments à prendre en considération.
Les retours des étudiants, notamment sur les plannings de demandes de financement, sur les lieux potentiels, sur les subventions et sur le budget de fonctionnement, sont autant d’éléments qui la propulsent dans un autre périmètre de son projet. Très vite, elle analyse et reconfigure son projet en fonction des éléments fournis et avance considérablement dans sa démarche. Elle se retourne vers nous pour nous confier, abasourdie :
« Ils m’ont fait gagner deux ans dans mon projet ! »
Elle a pleinement conscience de l’intérêt de ces rencontres et souhaite les multiplier de manière continue. Quelques mois plus tard, grâce à une rencontre avec le maire d’une ville voisine, elle a pu trouver la maison qui abrite aujourd’hui son projet et se lance dans les travaux d’aménagement du lieu.
À lire aussi : Le microcrédit, un outil financier qui peut coûter cher aux femmes
C’est à trois reprises que Fatou s’est présentée comme entrepreneuse auprès de trois groupes d’étudiant·es différents. À chaque fois, nous avons clairement observé une évolution quant à sa posture en tant qu’entrepreneuse. Elle se présente aux étudiant·es, la première fois en tant qu’ancienne étudiante, puis de plus en plus comme entrepreneuse. Au travers de l’exercice structurant du pitch entrepreneurial, Fatou affirme son identité d’entrepreneuse et prend confiance en elle dans ce nouveau costume.
Plusieurs mois les débuts de Claire dans l’entrepreneuriat, son mari perd son emploi. La famille se retrouve alors dans une nouvelle région, où elle a emménagé pour un travail qui n’existe plus. Après le choc de la nouvelle, Claire trouve certains avantages à cette période d’inactivité de son mari. Elle découvre la gestion d’un business sans la pression des tâches quotidiennes, déléguées totalement à son mari :
« Quand on n’a pas que cela à faire, on peut avancer, c’est facile. »
Durant cette période, elle recrute et fait grandir l’équipe qui l’entoure en région.
Plus que la crise, cette analyse montre que c’est ce que l’on en fait, chemin faisant, qui compte. L’étude en quelques étapes clés des parcours de ces deux entrepreneuses illustre la nécessité de mieux observer et de rendre compte du travail émotionnel, de digestion de la crise, de diagnostic qui trame l’entrepreneuriat en train de se faire. Loin d’être exceptionnelles, les crises se révèlent récurrentes, dès lors que le chercheur ou la chercheuse dézoome et considère le parcours entrepreneurial dans sa dynamique.
Nous donnons à voir une trajectoire qui compose avec les crises, s’en arrange et parfois les transcende. Les crises, d’intensité et de nature variables, rythment le parcours, et certaines contribuent à le nourrir. L’inscription des crises dans un contexte sensible, subjectif et sur un temps long permet de saisir l’importance de leur résonance en tant qu’élément transformatif.
Tantôt fondatrice, tantôt incrémentale, la crise peut largement contribuer à façonner l’entrepreneuriat en train de se faire. Elle forme une brèche régulière qui pousse à avancer, à construire et à se construire comme entrepreneuse. Tout au long du parcours entrepreneurial, les cheffes d’entreprise performent et affinent progressivement leur identité entrepreneuriale. La notion de crise comme rencontre, au sens deleuzien, avec ce « dehors, quelque chose qui brutalise les schémas de pensée préétablis », est ici revisitée à l’aune de l’identité en train de se faire, et d’un devenir entrepreneuse.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.03.2026 à 11:12
Youssef Souak, PhD - Assistant Professeur- INSEEC Business School, INSEEC Grande École
Claudia-Roxana RUSU, Professeure assistante, ESSCA School of Management
Demba Ousmane DIOUF, Professeur assistant en marketing, PSB Paris School of Business

Utilisée dans un cadre professionnel, l’IA est souvent perçue comme un simple outil. Son usage peut pourtant avoir un impact sur la façon dont les individus construisent leur identité au travail. Les jeunes professionnels sont particulièrement exposés et pourraient rencontrer à terme des difficultés à reconnaître qui ils sont vraiment.
Votre CV est rédigé par ChatGPT. Votre profil LinkedIn, peaufiné par un algorithme. Vos mails professionnels sont corrigés en temps réel. Les conséquences de l’usage de l’intelligence artificielle (IA) dans un cadre professionnel ne se limitent pas à un gain de temps et d’efficacité. C’est votre identité professionnelle qui est en train de se redéfinir. Silencieusement. Profondément.
Il vaudrait mieux que ce ne soit pas à votre insu.
Imaginez deux candidats à un même poste. L’un a rédigé sa lettre de motivation à la main, laborieusement, avec ses propres mots. L’autre a utilisé un assistant d’IA générative pour structurer, affiner et polir son discours en quelques minutes. Lequel est le plus compétent ? Lequel est le plus authentique ? Et surtout, lequel est le plus vraiment lui-même ?
Ces questions émergent aujourd’hui au cœur du marché du travail. De plus en plus, elles seront au centre du monde professionnel.
À lire aussi : Salariés, chefs d'entreprises : l'IA va tout changer, profitez-en !
« L’intelligence artificielle générative (IA générative) est une catégorie d’IA qui se concentre sur la création de données, de contenus ou de choses artistiques, de façon indépendante. Elle diffère de l’IA classique, qui se concentre, quant à elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA générative vise à produire de nouvelles données qui ressemblent à celles créées par des êtres humains, que ce soit sous forme de textes, d’images ou encore de musique, par exemple»,
indique un article publié par Big média.
L’essor fulgurant des outils d’IA générative (Lechat, ChatGPT, Copilot, Claude…) transforme non seulement la manière dont nous travaillons, mais aussi la manière dont nous nous présentons, dont nous évaluons nos compétences, et dont nous construisons notre identité professionnelle.
C’est ce que révèle une étude qualitative menée auprès d’étudiants en alternance et de professionnels en activité dans des secteurs variés. À travers vingt-cinq entretiens approfondis, une double tension est apparue avec une fréquence remarquable : l’IA comme levier de professionnalisation… et l’IA comme source d’interrogation sur soi.
L’identité professionnelle n’est pas un fait donné. Elle se construit dans les interactions, les reconnaissances, les réussites accumulées. Depuis les travaux fondateurs du sociologue Claude Dubar, on sait que l’identité au travail résulte d’une transaction permanente entre ce que l’on pense être et ce que les autres reconnaissent en vous.
Or, l’IA vient perturber cette transaction. Quand une machine formule à votre place un argument que vous n’auriez pas trouvé seul, que reste-t-il de votre contribution réelle ? Que dit de vous le fait que vous ayez su bien poser la question ?
Quand un algorithme optimise votre profil LinkedIn de façon à en maximiser la visibilité, est-ce encore vous qui parlez ?
Plusieurs professionnels interrogés dans le cadre de notre étude expriment ce malaise avec une acuité saisissante. La frontière entre assistance et substitution devient floue, et avec elle, la frontière entre compétence réelle et compétence simulée.
« Quand j’utilise l’IA, j’ai l’impression que mon travail n’est pas honnête, que c’est pas vraiment moi qui l’ai fait. Le fait de tout donner à un outil remet en question mes propres capacités et la valeur que j’attribue à mon investissement. »
Étudiant en alternance dans le secteur financier.
Ce témoignage n’est pas isolé. Il révèle une tension identitaire profonde entre l’identité « pour soi » – fondée sur l’effort, l’expertise, l’investissement personnel – et l’identité « pour autrui », c’est-à-dire l’image projetée vers les recruteurs, les collègues, les clients. L’IA peut soigner la seconde tout en fragilisant la première.
Cette fragilisation est d’autant plus insidieuse qu’elle opère à bas bruit. Ce n’est pas une perte de compétence objectivable, mais un ébranlement de la confiance en sa propre valeur. Ce que les psychologues nomment le « sentiment d’efficacité personnelle », théorisé par Albert Bandura, est mis à rude épreuve.
Ce phénomène a désormais un nom dans la littérature en sciences de gestion : la « menace de l’identité professionnelle » (Professional Identity Threat)
Une étude internationale publiée en 2025 dans la revue AI & Society confirme que plus un professionnel perçoit l’IA comme une menace pour son identité, moins il est enclin à l’adopter. Or, l’article montre également que les professionnels qui ont le plus besoin de maîtriser l’IA pour protéger leur position sont précisément ceux qui résistent le plus à l’adopter. Ceci crée un paradoxe productif et identitaire à la fois.
Le sentiment d’efficacité personnelle désigne la conviction qu’a un individu de sa capacité à accomplir des tâches données. Ce n’est pas l’estime de soi en général mais une croyance spécifique, ancrée dans l’expérience : « Je suis capable de faire ce travail, même lorsque c’est difficile. »
Or, l’usage répété de l’IA peut progressivement éroder cette conviction. Plusieurs participants à notre étude décrivent un phénomène de dépendance progressive, presque invisible. On commence par vérifier un mail avec l’IA. Puis on ne sait plus envoyer un mail sans elle.
« Même si je suis sûre de moi, j’ai quand même ce réflexe automatique d’aller vérifier. Et ça crée une perte de confiance. Je me demande comment est-ce qu’avant je faisais sans l’IA ? »
Étudiante en alternance dans un cabinet de recrutement spécialisé dans la santé.
Ce témoignage illustre un paradoxe majeur. Conçue pour augmenter les capacités humaines, l’IA peut in fine les fragiliser psychologiquement. Non parce que l’individu perd réellement ses compétences, mais parce qu’il cesse de croire en elles indépendamment de l’outil.
Ce glissement est particulièrement préoccupant pour les jeunes professionnels en phase de construction identitaire. Ils n’ont pas encore accumulé suffisamment d’expériences fondatrices pour asseoir leur confiance sur un socle solide. L’IA risque alors de court-circuiter ce processus d’apprentissage par l’erreur et le dépassement de soi, pourtant essentiel au développement de l’identité professionnelle.
L’article de Nir Eisikovits et de Jacob Burley publié dans The Conversation, évoquait déjà les questions éthiques soulevées par l’utilisation de l’IA en contexte d’apprentissage d’étudiants du supérieur. Leur réflexion met en évidence le phénomène de « décharge cognitive » au cœur de la déstructuration du processus d’acquisition des connaissances.
En revanche, chez les professionnels expérimentés, l’équation semble différente. Forts d’un sentiment d’efficacité consolidé par des années de pratique, ils utilisent l’IA comme un amplificateur, non comme une béquille. Elle « professionnalise », « structure », « met des mots plus justes » – sans remettre en cause leur conviction d’être l’auteur véritable du travail produit.
Le personal branding ou marque personnelle, désigne la stratégie par laquelle un individu construit et diffuse une image professionnelle cohérente pour se différencier sur le marché du travail. LinkedIn en est l’arène principale, mais il s’étend à tout ce qui construit la réputation du salarié, aussi bien ses publications que ses interventions et autres recommandations.
L’IA transforme profondément les règles de ce jeu. Elle permet de produire des contenus « polishés », des profils optimisés, des CV sans fautes, quel que soit le niveau réel de l’individu. Elle démocratise la qualité de surface tout en risquant de niveler par le haut une concurrence déjà féroce.
L’un des enseignements les plus marquants de cette recherche est peut-être le suivant : loin d’inventer les fragilités identitaires, l’IA agit comme un révélateur. Quand un étudiant ressent que son travail « n’est pas vraiment lui » lorsqu’il utilise l’IA, c’est souvent le signe que son identité professionnelle n’est pas encore suffisamment ancrée pour résister à l’intermédiation technologique.
En revanche, ceux qui disposent d’une identité professionnelle solide, construite sur des expériences vécues, des réussites reconnues, une trajectoire cohérente, intègrent l’IA sans s’y perdre. Ils la décrivent comme « une version améliorée d’eux-mêmes », non comme un substitut.
Ce constat a des implications importantes pour les établissements d’enseignement supérieur. Former des étudiants à l’IA ne peut pas se réduire à leur apprendre des outils. Il faut les aider à construire, avant tout, une identité professionnelle assez robuste pour que l’IA reste un levier et ne devienne pas une prothèse.
Développer cette identité suppose de travailler la réflexivité : la capacité à observer ses propres actions, à reconnaître ce qui vient réellement de soi et ce que l’on projette sur une machine. Cela implique aussi de mettre en valeur les expériences fondatrices : les échecs, les négociations compliquées, les projets menés jusqu’au bout sans soutien extérieur.
Aux amateurs de science-fiction et aux autres, la question n’est pas tant de savoir si l’IA va « prendre » les emplois. Elle est autrement plus subtile et plus urgente : l’IA va-t-elle vampiriser les identités professionnelles des individus ?
Cet article est fondé sur une étude qualitative, menée entre décembre 2025 et janvier 2026, s’appuyant sur 25 entretiens semi-directifs approfondis auprès d’étudiants en alternance et de professionnels en activité (assurance, finance, commerce, droit, management, technologie). Les auteurs remercient Yaël Salomon, étudiante de l’Inseec Grande École, pour sa contribution à la collecte et à la retranscription des données empiriques qui fondent cette étude.
Claudia-Roxana RUSU est membre de laboratoire de recherche IRGO de l'Université de Bordeaux.
Demba Ousmane DIOUF et Youssef Souak ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
30.03.2026 à 11:11
Patrice Laroche, Professeur des Universités en sciences de gestion, Université de Lorraine
Robots, intelligence artificielle, numérique : à mesure que les technologies transforment le travail, les syndicats sont souvent présentés comme un obstacle à l’innovation. Sur quelles preuves repose cette opinion ? Et si, loin de freiner la transformation technologique, le dialogue social pouvait aussi l’accélérer… Au-delà des discours à l’emporte-pièce, les syndicats de salariés constituent-ils vraiment un frein à l’innovation technologique ? Ou sont-ils, dans certains contextes, un atout ?
Profondément ancrée, la représentation des syndicats comme étant par nature hostiles aux innovations et au changement technologique repose davantage sur des idées reçues que sur des résultats empiriques robustes. Les statistiques internationales disponibles ne suggèrent pas de relation mécanique négative entre syndicalisation et adoption de nouvelles technologies (Figure 1).
En effet, les pays nordiques, caractérisés par une forte syndicalisation, figurent parmi ceux où l’usage de l’IA est le plus répandu, tandis que plusieurs pays faiblement syndiqués affichent de façon égale des niveaux d’adoption modestes. Cette dispersion suggère que la présence syndicale, en elle-même, n’explique pas les écarts d’adoption technologique. Ces écarts invitent plutôt à s’intéresser aux cadres institutionnels et aux modalités du dialogue social.
Figure 1 – Syndicalisation et adoption de l’IA dans les entreprises européennes en 2024
En fait, la relation entre syndicats et investissement productif est l’un des grands classiques de l’économie du travail.
Avec mon collègue Chris Doucouliagos, nous avions d’ailleurs proposé, il y a quelques années, une méta-analyse de la littérature sur cette question. Cette étude montrait que les effets des syndicats sur l’investissement et l’innovation étaient loin d’être univoques et dépendaient fortement des contextes institutionnels.
Elle mettait en évidence une opposition récurrente entre deux visions théoriques :
C’est précisément dans le prolongement de ce débat que s’inscrit, aujourd’hui, la question de l’adoption des technologies numériques avancées.
À lire aussi : La responsabilité sociale des entreprises, un outil pour court-circuiter les syndicats ?
La théorie économique n’offre pas une prédiction unique quant au rôle des syndicats. Dans une représentation néoclassique standard, la présence syndicale est associée à la hausse du coût du travail. À technologie donnée, cette augmentation du salaire relatif incite les entreprises à substituer du capital au travail, ce qui peut se traduire par davantage d’investissement productif ou technologique.
À l’inverse, la théorie dite du hold-up, proposée initialement par les économistes américains Benjamin Klein, Robert Crawford et Armen Alchian, souligne un mécanisme de désincitation à investir. En anticipant qu’une partie des gains liés à l’investissement pourra être captée plus tard par les salariés (à travers la négociation salariale, par exemple), l’entreprise peut renoncer à certaines technologies pourtant techniquement accessibles, conduisant à un sous-investissement.
Enfin, une troisième approche met l’accent sur le rôle des syndicats comme mécanismes de voix collective. En facilitant la coordination, la formation et l’acceptation du changement, le dialogue social peut rendre l’investissement plus efficace et plus durable.
L’importance relative de ces mécanismes dépend étroitement du cadre institutionnel dans lequel s’exerce la représentation syndicale, comme l’ont souligné les économistes Justus Haucap et Christian Wey. En particulier, l’effet des syndicats sur l’adoption des technologies numériques dépend étroitement du niveau auquel s’organise la négociation collective et du rôle concret que jouent les représentants du personnel dans l’entreprise.
Avec sa négociation salariale largement centralisée et son dialogue social de proximité, l’Italie est un terrain d’observation particulièrement éclairant. En Italie, la négociation salariale est largement centralisée au niveau des branches tandis que la représentation syndicale en entreprise porte davantage sur l’organisation du travail, la formation et les conditions d’emploi. Cette configuration limite les comportements de captation de rente au niveau de l’entreprise et renforce le rôle des syndicats comme acteurs du dialogue social local.
C’est dans ce contexte qu’une étude récente des économistes Fabio Berton, Stefano Dughera et Andrea Ricci, menée sur plusieurs milliers d’entreprises italiennes, analyse l’adoption des technologies numériques avancées, en mobilisant une méthodologie rigoureuse visant à corriger les biais de causalité.
Pour dépasser ce problème classique de causalité, les auteurs ont eu recours à une méthode dite des variables instrumentales. Ils exploitent notamment un indicateur original : le niveau de dons de sang par habitant observé au niveau provincial dans les années 1990. Le don du sang reflète des dispositions altruistes et un sens du collectif, qui favorisent la présence syndicale, sans lien direct avec les choix technologiques des entreprises plusieurs décennies plus tard. Combiné à des informations sur la diffusion passée des syndicats par secteur et par région, cet outil permet d’isoler un effet propre de la représentation du personnel sur la transformation numérique des entreprises.
Le constat est sans ambiguïté : les entreprises dotées d’une représentation syndicale ont une probabilité significativement plus élevée d’adopter des technologies numériques avancées. En moyenne, cette probabilité est supérieure d’environ 15 points de pourcentage par an par rapport aux entreprises non syndiquées. Ces entreprises n’adoptent pas seulement plus souvent une technologie, mais en adoptent également un plus grand nombre, signe d’une transformation numérique plus profonde.
Plusieurs mécanismes permettent de comprendre ce résultat. D’abord, la présence syndicale peut réduire les résistances internes face au changement. En donnant aux salariés une possibilité de s’exprimer, elle permet d’anticiper les conflits et de négocier les modalités de la transition technologique.
Ensuite, les entreprises « syndiquées » investissent davantage dans la formation et connaissent une plus grande stabilité de l’emploi. Or, les technologies numériques avancées nécessitent souvent des compétences spécifiques et une accumulation de savoirs internes, qui s’accommodent mal d’un fort turnover.
Enfin, le dialogue social contribue à instaurer un climat de confiance propice à l’investissement de long terme. La transformation numérique n’est pas seulement une affaire de machines, mais aussi d’organisation et de coopération.
Ces résultats ne signifient pas que la présence syndicale favorise partout et toujours l’innovation. Ils soulignent surtout l’importance du cadre institutionnel. Dans des systèmes où la négociation est très décentralisée et où les syndicats disposent d’un fort pouvoir de fixation des salaires au niveau de l’entreprise, les effets peuvent être différents. Ils mettent également en lumière une limite importante de l’étude italienne : les auteurs ne distinguent pas la nature des organisations syndicales présentes dans l’entreprise.
Or, cette dimension est loin d’être anodine. Dans des contextes marqués par un fort pluralisme syndical, comme l’Italie – ou la France –, les syndicats peuvent poursuivre des stratégies différenciées et entretenir des relations variées avec les employeurs, susceptibles d’influencer les dynamiques d’innovation. Au fond, ce n’est donc pas tant la présence de syndicats qui importe que leurs modes d’action : selon les configurations, ils peuvent tout autant freiner l’innovation que la rendre possible.
À l’heure où l’intelligence artificielle et l’automatisation suscitent de fortes inquiétudes sociales, ces résultats invitent à dépasser une opposition simpliste entre innovation et protection des salariés. La transformation technologique est aussi un processus social, qui gagne à être négocié plutôt qu’imposé. Dès lors, plutôt que d’affaiblir le dialogue social au nom de la compétitivité, il pourrait être plus efficace de le renforcer pour accompagner la transition numérique des entreprises.
Patrice Laroche dirige le programme WAVE (Workplace Arrangements and Voice Effects) financé par l'Agence nationale de la recherche (ANR) au sein du CEREFIGE (Université de Lorraine)
29.03.2026 à 16:41
Xavier Carpentier-Tanguy, Indopacifique, Géopolitique des mondes marins, réseaux et acteurs de l'influence, diplomatie publique, Sciences Po
Les mers et les océans du monde entier sont avant tout des lieux de passage pour navires commerciaux et militaires, et à ce titre deviennent des lieux de conflictualité dont le contrôle est essentiel du point de vue stratégique comme économique.
Alors que l’Iran a restreint l’accès au détroit d’Ormuz, provoquant une envolée des primes d’assurance et un ralentissement brutal des flux de pétrole et de gaz, la vulnérabilité de l’économie-monde apparaît au grand jour. Les frappes croisées, les menaces d’« escortes armées » et la militarisation accélérée du golfe Persique font de ce passage un laboratoire des conflits du XXIᵉ siècle.
Cette crise ne surgit pas ex nihilo : elle prolonge une longue histoire de bras de fer autour des détroits, canaux et mers intérieures. De Panama à Ormuz, en passant par la mer Rouge et l’espace arctique, ce sont les mêmes logiques de contrôle des flux qui sont à l’œuvre.
Depuis 2025, les États-Unis ont intensifié leur engagement stratégique pour le contrôle des espaces maritimes et des points de transit critiques, à travers une série d’opérations militaires et diplomatiques ciblées. En Amérique latine, cette posture s’est traduite par une intervention directe au Venezuela en janvier 2026, où une « attaque de grande envergure » a visé les infrastructures militaires et portuaires, notamment la base aérienne Generalissimo Francisco de Miranda et le port de La Guaira, principal accès maritime de Caracas. Cette opération, baptisée Absolute Resolve, a permis la capture du président Nicolás Maduro, accusé de trafic de drogue et de déstabilisation régionale, et a confirmé la volonté américaine de sécuriser les routes des Caraïbes et de contrer l’influence chinoise et russe dans la région.
Dès les années 1980, les États-Unis avaient déjà affirmé leur présence en Amérique centrale, avec des opérations comme Urgent Fury à Grenade en 1983, visant à protéger les ressortissants américains et à limiter l’influence cubaine. En décembre 1989, l’opération Just Cause au Panama a marqué un tournant : près de 27 000 soldats américains ont été déployés pour renverser le général Manuel Noriega, ancien allié devenu un obstacle à la stabilité régionale et à la maîtrise du canal de Panama, un point de passage stratégique pour le commerce mondial.
Plus récemment, les ambitions américaines se sont étendues à l’Arctique. Rappelons que l’administration Trump évoquait déjà sa volonté d’acquérir le Groenland en 2019, volonté réaffirmée avec force depuis un an. Cette initiative est révélatrice de l’importance croissante des routes maritimes polaires dans un contexte de fonte des glaces. Cette volonté de contrôle s’est poursuivie en 2025-2026 avec le renforcement des patrouilles et des infrastructures militaires dans la région, visant à sécuriser les accès au passage du Nord-Ouest et à contrer les ambitions russes et chinoises.
En février 2026, les États-Unis ont lancé l’opération « Epic Fury » contre l’Iran, une campagne militaire d’ampleur visant à neutraliser les capacités balistiques et navales iraniennes, ainsi qu’à empêcher toute reconstitution rapide de ces forces. Déclenchée le 28 février 2026, cette opération a mobilisé des frappes aériennes massives, des drones et une coordination interarmées, confirmant la volonté américaine de contrôler les espaces stratégiques du Moyen-Orient et de sécuriser les flux énergétiques et commerciaux — une volonté qu’a encore accrue la fermeture par Téhéran du détroit d’Ormuz.
Face à cette escalade, l’Europe a réagi avec détermination. Plusieurs États membres de l’UE ont déployé des moyens navals significatifs pour sécuriser Chypre et les axes maritimes stratégiques vers Suez et Ormuz. L’Italie a déployé la frégate Martinengo près de Chypre aux côtés de la frégate espagnole Cristobal Colon, tandis que les Pays-Bas ont préparé la frégate HNLMS Evertsen pour des opérations régionales. L’Allemagne a envoyé la frégate FGS Nordrhein-Westfalen dans la zone de Chypre, et la Grèce a mobilisé sa nouvelle frégate Kimon, équipée d’un système de défense aérienne longue portée, ainsi que la frégate de classe Hydra Psara. Le Royaume-Uni a annoncé l’envoi du destroyer de défense aérienne HMS Dragon à Chypre, équipé du système de missiles Sea Viper, ainsi que des hélicoptères dotés de capacités anti-drones. La France, enfin, a ordonné le déploiement de son porte-avions Charles-de-Gaulle, qui était encore en Baltique, ses moyens aériens embarqués et son escorte de frégates vers la Méditerranée.
À lire aussi : Le déploiement français au large de la guerre en Iran : cadre juridique et modalités d’action
Cette mobilisation européenne coordonnée vise à protéger les bases britanniques à Chypre, frappées par des drones iraniens, et à sécuriser les routes énergétiques vitales alors que la circulation dans le détroit d’Ormuz demeure un enjeu capital, perturbant l’approvisionnement mondial en pétrole et gaz.
En mars 2026, la pression exercée sur l’Iran s’inscrit dans cette continuité stratégique : elle illustre une doctrine de sécurisation des flux énergétiques, commerciaux et numériques, désormais concentrés dans des zones pivots comme le golfe Persique, la mer Rouge, la Méditerranée occidentale et le Haut-Nord.
Le détroit d’Ormuz, par lequel transitent entre 20 et 25 % du pétrole et du gaz naturel liquéfié mondiaux, reste le goulot d’étranglement central de l’économie globale. Sa géographie offre à Téhéran un levier structurel pour perturber la liberté de navigation. Les analyses de renseignement maritime de 2024 montrent que la contraction du trafic dans cette zone résulte de la dissuasion indirecte iranienne et de l’impact des primes d’assurance, même en l’absence de minage massif. Contrairement à Gibraltar ou à Suez, les navires traversant Ormuz atteignent directement les côtes du Golfe, où se concentrent des infrastructures pétrochimiques, des terminaux de GNL et des unités de dessalement, devenues des cibles stratégiques.
À lire aussi : Du détroit d’Ormuz à l’Europe : comprendre la rapidité de la propagation de l’insécurité énergétique
L’opération américaine « Praying Mantis » en 1988, déclenchée après le minage du USS Samuel B. Roberts, a marqué un tournant dans les tensions maritimes entre Washington et Téhéran.
Dans La confrontation en mer, Nicolas Mazzucchi démontre que l’océan est dorénavant autant un théâtre de confrontation qu’un simple espace de circulation. En réponse, l’Iran a développé des capacités asymétriques, déployant une « poussière navale » de centaines d’embarcations rapides, soutenues par des missiles côtiers et des drones. Cette architecture garantit une menace permanente sur les routes maritimes et assure une résilience face aux frappes conventionnelles, tout en permettant des ripostes ciblées ou massives contre les infrastructures régionales.
L’amiral Nicolas Vaujour, dans ses analyses sur la supériorité technologique – présentées dans son livre les Guerres en mer –, insiste sur l’impératif pour les marines modernes de s’adapter à ces nouvelles menaces. L’industrie européenne répond à ce défi avec des solutions souveraines, comme la solution Orange Drone Guardian lancée en 2026, qui renforce la détection des drones intrusifs et la protection des sites sensibles.
La vulnérabilité des routes alternatives confirme que l’évitement n’est pas une solution viable. L’attaque par drone contre le port saoudien de Yanbu et la campagne houthie en mer Rouge à l’automne 2023 ont démontré qu’un acteur lié à Téhéran peut paralyser jusqu’à 15 % du commerce mondial.
À lire aussi : Le retour des blocus navals en mer Noire et en mer Rouge : vers le démembrement d’un espace commun ?
Dans [Vaincre en mer], Thibault Lavernhe et François-Olivier Corman décrivent l’ère actuelle comme le « cinquième âge » du combat naval, où la saturation des senseurs et la coordination des attaques en temps réel redéfinissent les conditions de survie des navires. La suspension des attaques des houthis en 2026 suggère une « patience stratégique » : les milices conservent ce levier pour une escalade future, en fonction des rapports de force régionaux.
Car Téhéran étend désormais ses cibles aux infrastructures numériques, avec des frappes signalées contre des centres de données aux Émirats arabes unis et à Bahreïn. Cette guerre hybride vise à paralyser l’économie numérique mondiale. Le flux, quelle que soit sa nature, possède une valeur stratégique. L’empêcher ou le réduire, c’est affaiblir l’opposant et peser sur des négociations possibles.
En Méditerranée occidentale, l’Algérie a renforcé sa flotte de sous-marins Kilo armés de missiles Kalibr, adressant le signal capacitaire d’un possible verrouillage du détroit de Gibraltar sous une bulle de déni d’accès (A2/AD). Cette diffusion des stratégies de contestation des espaces maritimes se confirme aussi dans le Haut-Nord, où l’exercice Cold Response 2026 de l’OTAN met l’accent sur la maîtrise du spectre électromagnétique pour neutraliser les capteurs adverses avant tout engagement cinétique.
Les stratégies de déni d’accès (A2/AD) et les bulles de souveraineté redéfinissent les équilibres géopolitiques en mer, mais soulèvent des questions juridiques majeures au regard de la Convention des Nations unies sur le droit de la mer (UNCLOS, 1982). Ce traité, ratifié par 169 États, consacre la liberté de navigation en haute mer (article 87) et encadre strictement les droits des États côtiers dans leurs eaux territoriales (article 2) et zones économiques exclusives (article 56).
À lire aussi : La ZEE française, levier de puissance pour Paris dans le duel Washington-Pékin
Pourtant, les pratiques A2/AD, comme celles déployées par Pékin en mer de Chine méridionale ou par l’Iran dans le golfe Persique, exploitent les zones grises du droit international pour restreindre l’accès à des espaces stratégiques.
La Cour permanente d’arbitrage (CPA), dans l’affaire Philippines c. Chine (2016), a rappelé que les revendications maritimes doivent respecter les limites fixées par UNCLOS, notamment en matière de délimitation des ZEE et de passage inoffensif (articles 19 et 24). Les bulles A2/AD, en combinant missiles sol-mer, drones et guerre électronique, testent ces principes : elles peuvent être interprétées comme une violation du droit coutumier si elles restreignent arbitrairement la liberté de navigation, sauf en cas de menace avérée et proportionnée. Des juristes comme Myron H. Nordquist et Yu Minyou (Wuhan University) soulignent que ces stratégies révèlent les lacunes de UNCLOS face aux nouvelles technologies (drones, cyberattaques) et aux actions unilatérales, appelant à un renforcement des mécanismes de règlement des différends (Partie XV de UNCLOS) et à l’élaboration de normes coutumières complémentaires.
Dans ce contexte, où les flux maritimes – énergétiques, commerciaux et numériques – deviennent à la fois des enjeux et des armes, la capacité des États à garantir leur maîtrise continue s’impose comme un impératif stratégique. C’est cette exigence de maîtrise et de résilience des flux face aux perturbations qui trouve son écho dans la devise adaptée Fluxuat nec mergitur (qui pourrait se traduire par « Traversé par les flux, mais jamais entravé ») : nous sommes entrés de plain-pied dans l’ère de la polémorrhée – de polémos (la guerre) et rhéos (le flux).
Xavier Carpentier-Tanguy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 16:40
Ikram Chraibi Kaadoud, Chercheuse XAI & sciences cognitives, Inria
Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.
Un système d’IA doit toujours être supervisé par un humain, mais encore faut-il que cette personne soit en mesure de distinguer quand elle comprend ce que propose la machine et quand elle peut être influencée.
Les cadres contemporains de gouvernance de l’intelligence artificielle (IA) reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il doit être en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent transparence, explicabilité et supervision humaine.
Sont explicitement visés les systèmes utilisés dans le recrutement et l’évaluation des travailleurs, l’accès aux prestations sociales, les décisions d’octroi de crédit, le contrôle aux frontières, l’administration de la justice, et les soins de santé critiques.
Le plan d’action des États-Unis sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.
Ces engagements sont nécessaires mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.
Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle, et techniquement opaques – précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.
Par exemple, l’infirmier aux urgences en charge du triage aux urgences qui reçoit un score de triage produit par un système IA ne dispose pas systématiquement des explications qui l’ont généré. Le conseiller bancaire qui doit décider en quelques minutes de bloquer un compte sur la base d’une alerte de fraude automatisée travaille potentiellement avec un modèle propriétaire qu’il ne peut pas interroger. L’agent administratif qui valide l’attribution d’un logement social ou d’une prestation algorithmiquement priorisée ne peut généralement pas expliquer pourquoi un dossier a été classé avant un autre. L’enseignant qui contresigne une notation automatisée d’examen n’a pas accès aux critères qui ont produit le score. Dans chacun de ces cas, la supervision humaine est formellement présente – et substantiellement impossible.
La métacognition – la capacité à monitorer et réguler ses propres processus cognitifs – est le substrat psychologique d’une supervision efficace. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.
La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation – la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement – est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, les chercheurs Parasuraman et Riley ont montré en 1997 que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique – deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information. Par exemple, dans des expériences en simulateur de vol citées par ces auteurs, des pilotes équipés d’un système d’alerte automatique ont éteint un moteur en réponse à une fausse alerte – une décision qu’ils avaient eux-mêmes déclaré, avant l’expérience, ne jamais prendre sur la seule foi d’une alerte automatisée.
Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Les travaux de Kahneman sur une cognition à double processus – connu aussi sous le nom de Système 1/Système 2, les deux vitesses de pensées – éclairent ce mécanisme. Face à un système IA qui produit un output avec fluidité et assurance, l’esprit humain tend à activer un traitement rapide et intuitif (celui qu’on mobilise pour des tâches familières et peu risquées), plutôt que de réaliser une analyse profonde de la situation, plus longue, plus réfléchi, plus logique, et donc plus gourmande cognitivement.
Plus concrètement, une explication qui paraît plausible déclenche des réponses cognitives différentes d’une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative.
Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Une équipe de recherche, dans une étude expérimentale rigoureuse, a constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions – notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements.
Plus concrètement, sur la tâche d’analyse de sentiment, l’IA expliquait son jugement en surlignant les mots qu’elle avait identifiés comme positifs ou négatifs. Or les participants humains évaluaient le ton d’un texte de manière globale, en tenant compte du contexte et de la cohérence d’ensemble – un processus que la mise en évidence de mots individuels ne peut pas restituer. Ici, l’IA et l’humain n’arrivent pas à leur jugement par le même chemin : L’IA identifie des élements locaux (un mot, une phrase), là ou l’humain construit un jugement holiste (l’ensemble du texte, le contexte, la cohérence interne). Quand l’explication fournie reflète la logique de la machine plutôt que celle du raisonnement humain, elle ne donne pas à l’opérateur les outils pour évaluer si la recommandation est fiable – elle le convainc simplement de la suivre.
L’explicabilité est ainsi une condition nécessaire mais insuffisante d’une supervision efficace. Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.
Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique – parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales –, trois implications peuvent être énoncées :
La transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans impliquer les individus dans les processus de conception de ces explications et de cette documentation et prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que « trop d’explications » peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.
La qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé.
Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie – et en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à questionner la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». La métacognition n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.
Ikram Chraibi Kaadoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 16:39
Catherine Maia, Professeure de droit international à l’Université Lusófona (Portugal) et professeure invitée à Sciences Po Paris (France), Sciences Po
At a time when military tensions in the Middle East have further intensified in recent weeks, in the context of operations conducted by the United States and Israel and renewed concerns surrounding Iran’s nuclear programme, a recurring question has re-emerged in public debate: why does Israel possess nuclear weapons while Iran is legally prohibited from acquiring them?
Often framed in terms of unequal treatment or “double standards,” this question actually relates to the very structure of the international legal regime governing nuclear weapons.
International law is a legal order created by states and for states. As such, it is grounded in the consent of states, which derives from their sovereignty. This fundamental principle also applies to the legal regime governing nuclear weapons: the possession of nuclear weapons – or the decision to renounce them – is a matter of sovereign choice. In other words, only a state may consent to limiting its military capabilities by renouncing possession of such weapons of mass destruction.
This state voluntarism is clearly reflected in the 1968 Treaty on the Non-Proliferation of Nuclear Weapons (NPT).
This treaty constitutes one of the pillars of collective security in international law. Its purpose is to prevent the proliferation of nuclear weapons – in particular to additional states – in order to promote nuclear disarmament, and encourage safe and peaceful use of nuclear energy.
The NPT distinguishes between nuclear-weapon states (United States, Russia, the United Kingdom, France, and China) and non-nuclear-weapon states. More specifically, it defines nuclear-weapon states as those that had manufactured and exploded a nuclear weapon or other nuclear explosive device before 1 January 1967, while the other parties are classified as non-nuclear-weapon states and have agreed to forswear the possession of nuclear weapons.
This fundamental distinction structures the entire legal regime of the treaty and entails differentiated but complementary obligations among the 191 States parties. While non-nuclear-weapon states agree not to acquire nuclear weapons, nuclear-weapon states agree not to transfer such weapons or assist other states in acquiring them. The treaty also stipulates an obligation to pursue negotiations in good faith towards nuclear disarmament.
In a context marked by Cold War tensions and fears of an uncontrolled proliferation of nuclear powers, the spread of nuclear weapons to an increasing number of states was perceived in 1968 as a major factor of international instability and a heightened risk of nuclear conflict. Against this backdrop, the compromise at the heart of the NPT was accepted, based on a differentiated allocation of obligations between nuclear-weapon states and non-nuclear-weapon states.
Although this asymmetrical compromise may, at first glance, appear unequal, it was designed as an instrument of strategic stability and collective security, while also constituting a direct expression of state sovereignty. A state may indeed decide to limit its own prerogatives. In return, breaches of these commitments entail legal consequences. This is where the debate over the different treatment of Iran and Israel arises.
Iran has been a party to the NPT since 1970 and is legally bound, as a non-nuclear-weapon state, not to acquire nuclear weapons, while also being subject to the safeguards mechanisms of the International Atomic Energy Agency (IAEA). Its nuclear programme is therefore assessed within a treaty framework that imposes specific legal obligations and international verification requirements.
By contrast, Israel is not a party to the NPT. Under the principle of the relative effect of treaties, Israel, not being a party to the NPT, cannot be legally bound by obligations arising from that treaty.
The difference in treatment between the two countries thus stems less from a legal inconsistency than from the very logic of international law. It illustrates the coexistence within the international order of de jure nuclear-weapon states and de facto nuclear-weapon states, such as Israel.
Several states currently possess nuclear weapons outside the framework of the NPT. In addition to Israel, this is also the case for India, Pakistan and North Korea (since its withdrawal from the treaty in 2003). Their situation does not, in itself, constitute a violation of the NPT, since they are not (or are no longer) parties to it. They therefore operate within a legal framework distinct from that applicable to states bound by the treaty.
This situation reflects a fundamental feature of the international legal order: the coexistence of treaty regimes to which not all states necessarily adhere. One example is the 2017 Treaty on the Prohibition of Nuclear Weapons (TPNW), to which 74 states are currently parties, and which prohibits the acquisition, possession and use of such weapons. This legal regime coexists alongside that of the NPT.
Accordingly, the question of why Israel possesses nuclear weapons, while Iran is denied that possibility is less a reflection of a contradiction in international law than a consequence of its structure.
In the absence of a treaty commitment, general international law does not currently establish a comprehensive and absolute prohibition on the possession of nuclear weapons as such. Only those states that have consented to specific obligations – notably within the framework of the NPT or the TPNW – are legally bound.
This analysis is supported by the jurisprudence of the International Court of Justice. In its 1986 judgement in Military and Paramilitary Activities in and against Nicaragua, the Court stated:
“In international law there are no rules, other than such rules as may be accepted by the state concerned, by treaty or otherwise, whereby the level of armaments of a sovereign state can be limited, and this principle is valid for all states without exception.”
Thus, in accordance with the principle of sovereign equality, limitations on military capabilities derive solely from state consent. In the absence of such a commitment, no state may legally impose on another an obligation of renunciation.
International law governing nuclear weapons therefore does not establish any general right to possess such weapons.
Rather, it reflects the existence of sovereign commitments through which some states have chosen to renounce them, while others have decided not to subject themselves to such constraints.
This article was co-authored with Débora Surreco Carrilho, PhD candidate in international law, University of Orléans (France).
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Catherine Maia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 16:28
Rob Nicholls, Senior Research Associate in Media and Communications, University of Sydney

Le verdict rendu dans l’affaire KGM pourrait marquer un moment charnière pour l’industrie des réseaux sociaux. En reconnaissant l’addiction comme un dommage possible, la justice américaine ouvre la porte à de nombreuses autres poursuites.
Instagram et YouTube présentent un défaut de conception qui rend ces réseaux sociaux addictifs, a jugé un jury aux États-Unis. Le jury de Los Angeles a mis près de neuf jours à rendre son verdict dans cette affaire historique intentée par une femme identifiée sous les initiales KGM contre les plateformes de réseaux sociaux. Il a accordé 3 millions de dollars (2,6 millions d'euros) de dommages et intérêts, Meta (propriétaire d’Instagram) étant jugé responsable à 70 % et Google (propriétaire de YouTube) à 30 %. Le jury a ensuite accordé 3 millions de dollars supplémentaires de dommages punitifs.
TikTok et Snap ont tous deux conclu un accord à l’amiable, dont les termes restent confidentiels, avant le début du procès de six semaines. Il s’agit de la deuxième lourde défaite de Meta devant les tribunaux américains la même semaine. Le 24 mars, un jury du Nouveau-Mexique a en effet jugé l’entreprise coupable d’avoir dissimulé des informations sur les risques d’exploitation sexuelle des enfants et sur les effets néfastes de ses plateformes sur la santé mentale des mineurs.
L’affaire portée par KGM est la première du genre, mais elle ne sera pas la dernière. Elle fait partie de plus de vingt procès dits « bellwether » qui doivent bientôt être jugés. Il s’agit en quelque sorte de procès tests, destinés à mesurer la réaction des jurys et à établir un précédent juridique.
Le verdict pourrait donc avoir des répercussions considérables. Il pourrait marquer pour la tech un moment comparable à celui qu’a connu l’industrie du tabac, avec des milliers d’affaires similaires prêtes à être portées devant les tribunaux.
KGM — aujourd’hui âgée de 20 ans — affirme avoir commencé à utiliser YouTube à l’âge de six ans et Instagram à neuf ans, développant selon elle des usages compulsifs, pouvant aller jusqu’à 16 heures passées en une seule journée sur Instagram. Elle soutient que les caractéristiques de conception de ces plateformes ont contribué à son anxiété, à sa dépression, à sa dysmorphie corporelle et à des idées suicidaires.
Son action en justice affirme que Meta et YouTube ont fait des choix de conception délibérés — comme le « défilement infini » — pour rendre leurs plateformes plus addictives pour les enfants afin d’augmenter leurs profits. Elle soutient que les entreprises se sont largement inspirées des techniques comportementales et neurobiologiques utilisées par les machines à sous et exploitées par l’industrie du tabac afin de maximiser l’engagement des jeunes et d’augmenter les revenus publicitaires.
L’avocat de KGM, Mark Lanier, a déclaré aux jurés :
Ces entreprises ont construit des machines conçues pour rendre dépendants les cerveaux des enfants, et elles l’ont fait délibérément.
L'avocat a cité une étude interne de Meta appelée « Project Myst ». Celle-ci aurait montré que les enfants ayant déjà subi des « effets négatifs » étaient les plus susceptibles de devenir dépendants à Instagram, et que les parents étaient impuissants face à cette addiction.
À partir du moment où [KGM] a été enfermée dans la machine, sa mère en a été exclue.
Les jurés ont également entendu que des communications internes de Meta comparaient les effets de la plateforme à ceux de la drogue et des jeux d’argent. Le jury a estimé que cette prise de conscience en interne constituait un niveau de connaissance susceptible d’engager la responsabilité de l'entreprise.
Par ailleurs, une note interne de YouTube décrivait apparemment « l’addiction des spectateurs » comme un objectif, et un employé d’Instagram a écrit que l’entreprise était composée de « véritables dealers ».
Mark Lanier a établi un parallèle direct avec les procès contre l’industrie du tabac, soutenant que lorsque l’on trouve une connaissance en interne du phénomène, un ciblage délibéré et un déni public, la responsabilité juridique s’ensuit.
Meta a soutenu que KGM faisait face à d’importantes difficultés bien avant d’utiliser les réseaux sociaux et que les éléments présentés ne permettaient pas de réduire toute une vie d’épreuves à un seul facteur.
L’avocat de Meta a mis en avant la dynamique familiale de KGM comme cause de ses troubles de santé mentale et a affirmé que les réseaux sociaux avaient peut-être au contraire constitué pour elle un exutoire lorsqu’elle rencontrait des difficultés à la maison.
Le directeur général de Meta, Mark Zuckerberg, a témoigné pour la défense :
Je n’essaie pas de maximiser le temps que les gens passent chaque mois sur nos plateformes.
À propos des outils de sécurité que Meta a ajoutés ces dernières années, Zuckerberg a précisé :
J’aurais aimé que nous y arrivions plus tôt.
Dans leurs plaidoiries finales, les avocats de YouTube ont fait valoir qu’il n’existait pas une seule mention d’une addiction à YouTube dans le dossier médical de KGM.
Les deux entreprises ont fondé une partie de leur défense sur les protections prévues par la Section 230, soutenant qu’elles ne pouvaient pas être tenues responsables des contenus publiés sur leurs plateformes.
Le juge a toutefois indiqué aux jurés que la manière dont les contenus sont diffusés constitue une question distincte de leur nature. Cette distinction a limité la capacité de Meta et de Google à s’appuyer sur les protections offertes par la Section 230.
Il s’agit de l’une des premières affaires visant une grande entreprise technologique à être jugée par un jury — une situation que ces entreprises ont jusque-là cherché à éviter.
Ainsi, en juin 2024, quelques mois avant un procès devant jury dans l’affaire intentée par le Département de la justice contre le monopole de Google dans les technologies publicitaires, Google a versé plus de 2 millions de dollars (1,73 million d'euros) au Département de la justice. Cette somme représentait le triple des dommages réclamés, auxquels s’ajoutaient les intérêts.
Aux États-Unis, un procès devant jury n’est requis que lorsqu’il est question de dommages et intérêts. En payant d’avance l’intégralité de la somme réclamée dans cette affaire, Google avait supprimé la demande de dommages et intérêts — et, avec elle, le droit à un procès devant jury. Jusqu’à présent, les tribunaux américains ont largement rejeté les recours qui mettaient en cause la conception même des plateformes.
Cela concerne notamment le défilement infini et les systèmes de notifications. La distinction entre « conception de la plateforme » et « curation du contenu » a été centrale dans la manière dont les tribunaux ont analysé les arguments fondés sur le Premier amendement dans ces litiges.
Le verdict rendu par le jury dans l’affaire KGM met en lumière les limites de la protection offerte par la Section 230.
C’est la première grande affaire visant une entreprise de la tech, à l’échelle mondiale, à examiner l’addiction comme source de préjudice. Jusqu’ici, les procédures se concentraient surtout sur des violations de la loi.
Dans le procès intenté au Nouveau-Mexique contre Meta, par exemple, le jury a estimé que l’entreprise avait fait des déclarations fausses ou trompeuses et s’était livrée à des pratiques commerciales « abusives », exploitant la vulnérabilité et l’inexpérience des enfants. Des milliers d’infractions ont été retenues, pour une sanction totale de 375 millions de dollars (325 millions d'euros).
L’affaire KGM ouvre la voie aux nombreuses autres procédures visant à obtenir des dommages et intérêts auprès des plateformes de réseaux sociaux pour les effets de l’addiction. Aux États-Unis, ces affaires pourraient logiquement être examinées ensemble dans le cadre d’une action collective. Le verdict pourrait aussi servir de base à d’autres recours, collectifs ou individuels, dans le monde entier.
Meta et Google ont indiqué séparément qu’ils comptaient faire appel de la décision.
Rob Nicholls fait partie du Centre for AI, Trust, and Governance de l’Université de Sydney et reçoit des financements de l’Australian Research Council.
29.03.2026 à 10:38
James L. Flexner, Senior Lecturer in Historical Archaeology and Heritage, University of Sydney
En Polynésie française, des dizaines de maisons construites en corail témoignent d’un profond bouleversement provoqué par l’arrivée des missionnaires au XIXᵉ siècle. Grâce à une méthode de datation très précise, des archéologues parviennent aujourd’hui à retracer pour la première fois le calendrier de leur construction.
Les îles Mangareva (Ma'areva) se situent à environ 1 600 kilomètres au sud-est de Tahiti, en Polynésie française. Elles tirent leur nom – qui signifie « montagnes flottantes » – de l’effet produit par les embruns qui se brisent sur les atolls coralliens environnants, ou motu : les anciens sommets volcaniques donnent alors l’impression de flotter au-dessus des vagues.
Aujourd’hui, les îles abritent environ 2 000 habitants, dont beaucoup travaillent dans les fermes perlières installées dans le lagon turquoise. À travers les îles subsistent aussi les vestiges de dizaines d’édifices remarquables : des maisons construites en corail.
Dans le cadre d’un projet plus vaste consacré aux transformations de la vie quotidienne à Mangareva au XIXᵉ siècle, mon équipe de recherche en archéologie a documenté des dizaines de ces maisons de corail, notamment sur les îles d’Aukena, Akamaru, Mangareva et Taravai.
Aujourd’hui, dans un nouvel article publié dans la revue Antiquity, nous avons établi la première chronologie précise de la construction de ces maisons de corail.
Ces résultats mettent en évidence de nouvelles dynamiques dans la manière dont les sociétés du Pacifique ont transformé leur environnement bâti après le contact avec les Européens – et montrent comment cet héritage colonial continue encore aujourd’hui de façonner la vie locale.
Des missionnaires catholiques français ont établi un poste à Mangareva à partir de 1834. En plus d’apprendre les prières, d’assister aux offices religieux et de lire la Bible, les habitants de Mangareva ont profondément modifié leur vie quotidienne à leur contact. Parmi les nombreux changements figure une transformation complète des espaces domestiques.
En quelques décennies, les habitations traditionnelles en bois et en chaume ont été remplacées par un nouveau type de petites maisons en pierre. Les missionnaires consignaient souvent des dates précises pour leurs constructions, en particulier pour la cathédrale de Rikitea, les églises réparties dans l’archipel ou encore les principales écoles catholiques.
En revanche, pour la catégorie de bâtiments la plus nombreuse de cette période – les maisons –, nous ne disposons généralement d’aucune information sur leur date de construction, sur ceux qui les ont bâties ni sur les personnes qui y ont vécu.
Lors de travaux de terrain en octobre 2024, j’ai remarqué que l’un des blocs de corail tombé du mur de la maison en ruine que nous fouillions contenait des coraux branchus qui semblaient très frais, presque comme s’ils venaient d’être coupés sur le récif vivant.
Nous avons utilisé une technique avancée appelée datation uranium-thorium (U-Th) pour déterminer l’âge de ces coraux branchus – et des structures construites à partir d’eux.
Contrairement à la datation au radiocarbone, plus connue et dont les marges d’erreur se comptent en décennies, la datation U-Th est extrêmement précise : elle permet de déterminer à quelques années près la date à laquelle les coraux sont morts, ne laissant derrière eux que leur exosquelette dur.
Contrairement aussi à la datation au radiocarbone, qui n’est pas très fiable pour des matériaux âgés de moins d’environ quatre cents ans, la datation U-Th fonctionne jusqu’à des périodes très récentes, voire presque jusqu’à nos jours.
Nous avons prélevé un échantillon « témoin » sur un bâtiment dont la date est connue – l’école de garçons d’Aukena construite dans les années 1850 – ainsi que des échantillons provenant de huit autres maisons et d’une tour de guet en corail.
Nous avons également prélevé un corail branchu dans une couche de fosse située dans la même maison où j’avais remarqué pour la première fois ces branches de corail à l’aspect « frais » dans les blocs.
À l’époque, nous pensions que cette fosse contenait les restes d’un festin organisé juste avant la construction de la maison. Les dates qui se recoupent dans nos résultats U-Th ont confirmé cette hypothèse.
Après analyse des échantillons, nous avons été surpris de constater que plusieurs dates ne correspondaient pas à ce que nous avions prévu.
Certains coraux semblaient être morts avant les années 1830, lorsque les missionnaires sont arrivés. Certains remontaient même à une période antérieure au contact avec les Européens dans les années 1790.
Un problème similaire est bien connu dans la datation au radiocarbone : le problème du « vieux bois », où la date de la mort d’un organisme peut précéder de plusieurs décennies, voire de plusieurs siècles, l’événement que l’archéologue cherche à dater. Étions-nous confrontés ici à un problème de « vieux corail » ?
Deux explications sont possibles.
Un archéologue ayant visité Mangareva dans les années 1930 a signalé des amas de débris de corail qu’il pensait être les restes de marae, des structures autrefois sacrées renversées pendant la période missionnaire. Cela ouvre la possibilité que ce corail ancien ait été réutilisé pour de nouvelles constructions.
Une autre explication possible pour ce type de corail, appartenant au genre scientifique Acropora, est que certaines branches meurent à distance de la zone de croissance active du récif au fil des années ou des décennies, tout en conservant leur apparence « fraîche ».
Ce scénario est peut-être le plus probable, car nos dates « trop anciennes » ne devançaient la chronologie attendue que de quelques années ou décennies, et non de plusieurs siècles. Mais nous ne pouvons pas non plus écarter complètement l’hypothèse des marae.
Il nous reste encore beaucoup à apprendre sur la manière dont les populations utilisaient le corail pour construire leurs bâtiments dans le passé – et peut-être aussi sur la façon dont les récifs coralliens se sont régénérés, ou non, après des décennies d’exploitation humaine. Ce dernier point pourrait être important pour réfléchir plus attentivement à nos propres relations avec les récifs coralliens aujourd’hui.
James L. Flexner est professeur associé d’archéologie historique et de patrimoine à l’Université de Sydney. Cette recherche est financée par l’Australian Research Council (FT210100244).
29.03.2026 à 09:03
Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
Les élections municipales sont terminées, mais un conflit discret persiste dans les campagnes françaises. Il ne porte ni sur l’agriculture ou le prix de l’essence, ni même sur la santé. Il concerne la culture. En effet, sous les radars médiatiques, une tension croissante apparaît autour de la question de ce que doit être l’offre culturelle dans les territoires ruraux.
Ce conflit latent s’est récemment invité dans le débat public à travers le plan « Culture et ruralité » porté par Rachida Dati. Ayant pour enjeu de renforcer l’offre artistique dans les territoires ruraux, ce plan s’inscrit dans la rhétorique désormais bien installée de la lutte contre les « déserts culturels ».
Derrière cette expression plane l’idée qu’une partie du territoire national n’aurait pas accès à la culture et nécessiterait une intervention publique renforcée. Mais cette manière de poser le problème n’est pas neutre.
Elle repose sur une représentation particulière de la culture et sur une lecture implicite des territoires ruraux comme des espaces culturellement déficitaires. Autrement dit, la question n’est pas seulement celle de l’accès à la culture, mais celle de la définition même de ce qui est considéré comme tel.
Pour comprendre cette situation, il faut revenir sur l’histoire des politiques culturelles françaises. Celles-ci se sont structurées autour d’un projet de maillage territorial visant à diffuser les œuvres artistiques sur l’ensemble du territoire. Lorsque André Malraux devient ministre des affaires culturelles en 1959, il affirme l’objectif de permettre la rencontre entre « les grandes œuvres de l’humanité » et le public le plus large possible, tout en précisant que « si la culture existe, ce n’est pas du tout pour que les gens s’amusent ». La création des maisons de la culture participe de cette ambition : rendre accessibles les formes artistiques légitimes, et donc tout à fait sérieuses, mais souvent éloignées des pratiques culturelles existantes et des attentes des publics.
À partir des années 1980, malgré l’affirmation d’une démocratie culturelle plus attentive à la diversité de ces pratiques, la décentralisation renforce néanmoins ce modèle en consolidant un réseau d’institutions :scènes nationales, médiathèques, musées… Ce maillage demeure toutefois largement structuré par les centralités urbaines. Les territoires ruraux apparaissent alors en périphérie de cette organisation, ce qui alimente aujourd’hui la lecture en termes de « désert culturel ».
Cette lecture mérite cependant d’être nuancée à un double titre. D’une part, les territoires ruraux ne sont pas dépourvus de pratiques culturelles. Sociabilités associatives, fêtes locales, pratiques amateurs ou liées au patrimoine structurent des espaces culturels à part entière, bien que peu reconnus par les acteurs institutionnels. Et ce sont bien des pratiques culturelles, parce qu’elles génèrent cette situation sociale inédite : l’expérience esthétique, fût-elle produite par des formes et des objets (musicaux, plastiques, écrits, visuels, numériques, etc.), des artefacts qui n’appartiennent pas à l’histoire de l’art.
D’autre part, l’action publique elle-même ne se limite pas à l’État. Dans de nombreux territoires ruraux, les communautés de communes jouent aujourd’hui un rôle central dans l’offre culturelle. Elles assurent la gestion d’équipements, soutiennent des programmations, coordonnent des réseaux associatifs et portent des projets à l’échelle intercommunale.
Ces acteurs intermédiaires occupent une position singulière. Ils se situent à la fois en relais et en tension avec les orientations nationales. D’un côté, ils dépendent des arbitrages opérés par les directions régionales des affaires culturelles (Drac), qui continuent de structurer l’accès aux ressources et la légitimité des projets. De l’autre, ils développent des stratégies propres, parfois en complément, en décalage, voire en opposition aux priorités définies à l’échelle nationale. Ce jeu d’ajustements produit des configurations locales hétérogènes, où l’offre culturelle résulte autant d’un modèle descendant que de négociations entre échelles d’action et de rôle des élus à travers, par exemple, les projets culturels de territoires.
Par ailleurs, les campagnes françaises ont profondément changé. Comme l’a montré Jean-Pierre Le Goff, elles sont traversées par des recompositions liées notamment aux mobilités résidentielles et à l’installation de populations issues des classes moyennes urbaines. Ces transformations, particulièrement visibles dans les espaces périurbains, brouillent les frontières entre ville et campagne. Elles introduisent aussi de nouvelles attentes culturelles, portées notamment par ces nouveaux habitants, et parmi eux, ceux que Le Goff appelle les « cultureux », un terme péjoratif qui désigne les dépositaires et tenants de la culture « légitime » venant « de la ville ».
Dans ce contexte, l’action culturelle peut devenir un vecteur de diffusion de référentiels urbains. Mais ce modèle peut entrer en décalage avec les formes culturelles préexistantes. Certaines pratiques locales restent marginalisées ou invisibilisées. La musique country par exemple, largement plébiscitée et pratiquée (musiques et danses) en milieu rural est totalement absente des politiques culturelles. Le risque est alors celui d’un malentendu : des politiques conçues pour « apporter » la culture dans des territoires où elle existe déjà, mais sous d’autres formes.
Pour autant, les dynamiques actuelles ne se réduisent pas à une opposition entre culture légitime et pratiques locales, ni entre ville et campagne. On observe l’émergence de configurations hybrides : tiers-lieux, collectifs artistiques/habitants ou encore réinventions de formes traditionnelles comme, selon les régions, les comices agricoles, les fest-noz, les carnavals, par exemple . Ces évènements parfois revisités articulent alors création contemporaine, participation habitante et pratiques festives, parfois avec l’appui ou malgré les cadres institutionnels.
Dans ces espaces, la culture devient un lieu de négociation et d’expérimentation, où se recomposent les hiérarchies culturelles et où se vit la communauté locale, bien loin des enjeux artistiques. Les élus y jouent un rôle central, capables d’articuler des logiques institutionnelles, esthétiques et habitantes, tout en composant avec les contraintes des politiques nationales.
Derrière les débats récurrents sur les « déserts culturels », c’est donc moins un manque qu’un problème de cadrage qui se dessine. Ce qui est en jeu, ce n’est pas l’absence de culture, mais la difficulté à reconnaître la pluralité de ses formes et la diversité de ses régimes de légitimité. Les mondes ruraux et périurbains ne sont pas en attente de culture : ils en produisent, selon des modalités qui échappent en partie aux catégories de l’action publique et aux arbitrages centralisés.
Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 09:03
Fernando Nunez-Regueiro, Chercheur en sciences de l'éducation, Université Grenoble Alpes (UGA)
D’où vient cette crise d’attractivité qui touche les métiers de l’enseignement en France et dans le monde ? Une revue d’études menées dans 18 pays incite à se pencher sur les conditions d’exercice et la reconnaissance d’une profession dont la contribution sociale fait pourtant toujours rêver un nombre non négligeable de candidats.
Alors que de nombreux pays font face à des pénuries d’enseignants, une question revient avec insistance : qui choisit encore d’entrer dans le métier, et pourquoi ? Une revue systématique récente, menée à partir de 39 études qualitatives dans 18 pays, couvrant plus de soixante ans de recherches et 4 700 futurs enseignants, nous permet de dresser un panorama inédit de ces motivations.
Cette étude met en lumière un paradoxe : plus un pays est développé, moins le métier d’enseignant apparaît attractif pour des raisons matérielles ou statutaires, alors même que les besoins en enseignants augmentent. Autrement dit, la « crise des vocations » ressemble moins à un manque d’envie qu’à une crise des conditions d’exercice.
À travers les pays, deux grandes familles de motivations dominent. La première est intrinsèque (environ 41 % des motivations recensées dans la revue). De nombreux candidats évoquent le plaisir d’enseigner, l’intérêt pour une discipline ou le sentiment d’être compétent pour transmettre des savoirs. L’enseignement est perçu comme une activité porteuse de sens, en cohérence avec une identité personnelle.
La seconde est altruiste (19 % des motivations). Les futurs enseignants expriment le désir de contribuer à la société, de travailler avec des enfants ou des adolescents, de favoriser l’égalité des chances ou d’influencer positivement l’avenir des jeunes générations.
Au total, les motivations intrinsèques et altruistes représentent près de 60 % des raisons évoquées pour devenir enseignant. Ces résultats convergent avec de grandes enquêtes internationales : le choix d’enseigner repose d’abord sur l’intérêt pour le métier et sur l’envie de contribuer au bien commun. Autrement dit, devenir enseignant n’est pas, dans la majorité des cas, un simple calcul économique.
Les raisons extrinsèques d’enseigner (c’est-à-dire la sécurité de l’emploi, la stabilité du revenu, les horaires compatibles avec la vie familiale, le statut social) représentent environ 40 % des motivations dans l’ensemble des études. Mais leur importance varie fortement selon les contextes culturels et historiques.
Dans les pays à niveau de développement intermédiaire, le métier d’enseignant est souvent perçu comme un moyen d’accéder à l’enseignement supérieur, d’obtenir un emploi stable ou de bénéficier d’un statut reconnu (52 % des motivations). Il peut constituer une voie d’ascension sociale ou un choix pragmatique dans un marché du travail contraint. En revanche, dans les pays à haut niveau de développement humain, ces dimensions matérielles sont beaucoup moins centrales (34 % des motivations).
Ce contraste s’explique par un mécanisme structurel. Lorsque l’enseignement supérieur se massifie et que les débouchés professionnels se diversifient (pays fortement développés), l’enseignement n’est plus l’une des rares professions stables accessibles aux diplômés. Il devient une option parmi d’autres. Si, dans le même temps, sa rémunération relative ou son prestige progressent moins vite que ceux d’autres carrières qualifiées, son attractivité diminue en comparaison. Il ne s’agit pas nécessairement d’une dégradation absolue du métier, mais d’un affaiblissement relatif dans un marché du travail plus concurrentiel parmi les diplômés.
C’est là que l’on peut parler de « paradoxe » des motivations enseignantes. À mesure que les sociétés se développent, la massification scolaire accroît les besoins en enseignants ; mais, dans le même temps, le métier devient relativement moins attractif sur le plan matériel et statutaire. Les systèmes éducatifs se retrouvent alors dans une situation délicate : ils ont besoin d’un nombre croissant d’enseignants, mais ne peuvent plus compter sur l’attractivité comparative du métier pour recruter.
Ce paradoxe pose un défi majeur aux politiques éducatives. Peut-on durablement compter sur la seule « vocation » pour assurer le renouvellement du corps enseignant ?
À lire aussi : La crise des vocations enseignantes, un défi récurrent dans l’histoire de l’école ?
La France s’inscrit pleinement dans ce questionnement. Les étudiants engagés dans les parcours de formation enseignante déclarent majoritairement un intérêt fort pour l’enseignement et pour la contribution sociale du métier. Les vocations existent. En revanche, l’environnement de formation et d’exercice peut fragiliser cet engagement.
La formation initiale combine préparation académique, concours exigeants et stages en responsabilité. Cette articulation, dans un système centralisé, est souvent perçue comme lourde et stressante. Les recherches montrent que les étudiants peuvent ressentir un décalage entre les exigences académiques et leur désir concret d’enseigner. Les périodes de stage constituent également un moment critique : charge émotionnelle, gestion de classe, sentiment d’insuffisance, qualité variable du mentorat.
À lire aussi : Pourquoi tant de difficultés à recruter des enseignants ?
La question de la reconnaissance joue aussi un rôle central. Le débat public insiste régulièrement sur les difficultés du métier : violences scolaires, perte d’autorité, crise du recrutement. Sans nier ces réalités, cette focalisation contribue à redéfinir symboliquement la profession, mais par la négative. Or le statut social compte. Lorsque le niveau de diplôme requis augmente sans que la reconnaissance matérielle et symbolique suive, un sentiment de déclassement peut s’installer.
Enfin, l’empilement des réformes et la centralisation des décisions peuvent entrer en tension avec les attentes d’autonomie professionnelle. Or les motivations intrinsèques prospèrent dans des environnements où la cohérence institutionnelle et la confiance sont fortes.
En France comme dans de nombreux pays européens, l’enjeu n’est donc pas seulement d’augmenter le nombre de candidats. Il s’agit de restaurer un équilibre entre quatre dimensions interdépendantes : la cohérence de la formation initiale, la qualité de l’accompagnement en stage, la stabilité des politiques d’éducation et la reconnaissance sociale et statutaire du métier. En somme, les vocations existent. Reste à savoir si le système éducatif leur permet encore de s’inscrire dans la durée.
Fernando Nunez-Regueiro ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 09:02
Ninon Serre, Docteure en chimie environnementale, Ifremer
Yann Aminot, Biogéochimiste des contaminants organiques, Ifremer
Comme bon nombre de polluants, les composés per- et polyfluoroalkylés, ou PFAS, atteignent souvent les mers et les océans. Si la présence de certains d’entre eux est surveillée, beaucoup d’autres ne font pas l’objet de réglementations. Ils sont pourtant observés à des taux élevés dans les écosystèmes marins, sans pour autant que leurs effets soient connus, révèlent des travaux inédits.
Vous avez sans doute déjà entendu parler des « polluants éternels », ou composés per- et polyfluoroalkylés (PFAS), mais saviez-vous qu’il en existe des milliers ? Et que les plus abondants ne sont pas tous surveillés dans l’environnement, alors même que leur dangerosité reste inconnue ?
Cette réalité apparaît pourtant lorsque l’on étudie des organismes marins, comme les moules, les crevettes et les poissons, des côtes françaises. Ces analyses délicates et très spécifiques sont cruciales pour comprendre la très longue vie de ces molécules appelées « polluants éternels ».
De fait, si on les sait aujourd’hui présents un peu partout, des poêles et casseroles antiadhésives à vos vêtements imperméables, en passant par votre maquillage, vos produits d’entretien, dans l’eau du robinet et jusque dans votre sang, nous savons également, que, comme bon nombre de polluants, la destination finale des PFAS reste souvent les océans.
Certains PFAS étant très mobiles dans les milieux aquatiques, la contamination est continuellement transportée depuis les milieux continentaux jusqu’aux océans, qui agissent comme des réservoirs finaux pour les composés les plus persistants. Les environnements côtiers constituent ainsi des écosystèmes clés pour l’étude du devenir des PFAS dans l’environnement.
Plusieurs PFAS utilisés dans de nombreuses applications pendant un demi siècle, principalement l’acide perfluorooctanesulfonique (PFOS) et l’acide perfluorooctanoïque (PFOA), sont également reconnus pour leur omniprésence, leur toxicité et leur capacité à s’accumuler dans les organismes vivants, à tous les niveaux de la chaîne alimentaire. C’est ce qu’on appelle la bioaccumulation.
Ainsi, certains PFAS qui atteignent les mers et les océans peuvent revenir dans notre assiette via la pêche et la consommation de certains crustacés ou poissons. Ces propriétés ont suscité des inquiétudes quant à leurs effets potentiels sur la santé humaine et sur les écosystèmes. Depuis les années 2000, certains PFAS ont donc progressivement été intégrés aux programmes de surveillance environnementale et sanitaire et font désormais l’objet de réglementations internationales. Mais est-ce vraiment suffisant ?
Aujourd’hui, les mesures mises en place ne concernent que quelques dizaines de composés, notamment le PFOS et le PFOA. Pourtant, les PFAS ne se limitent pas à une poignée de molécules bien connues, mais correspondent bien à des milliers de composés de structures variées.
Ainsi, de nombreux PFAS échappent aux analyses ciblées communément réalisées, qui risquent donc de sous-estimer la contamination réelle.
Au-delà des exigences réglementaires, l’analyse des organismes marins permet d’identifier et de caractériser l’ensemble des composés capables de s’accumuler dans les organismes au fil du temps (bioaccumulables) ou de se concentrer le long de la chaîne alimentaire (bioamplifiables).
Le PFOS, notamment, est généralement présent à des concentrations plus élevées dans les espèces en haut de la chaîne alimentaire, telles que les mammifères marins, que dans les espèces en bas de la chaîne alimentaire, telles que les moules. Il est donc considéré bioamplifiable.
Nos travaux menés à l’Ifremer ont permis de rechercher simultanément des centaines de PFAS dans les moules et dans les huîtres de côtes françaises, en mettant en œuvre une méthode analytique de pointe, la spectrométrie de masse à haute résolution. Au total, près de 80 PFAS différents ont été détectés dans ces organismes, incluant des composés connus et réglementés, comme le PFOS et le PFOA, mais également de nombreux autres échappant aux programmes de suivi et à la réglementation.
Ces travaux ont également permis d’identifier des zones fortement contaminées, présentant une grande diversité de PFAS à des concentrations plus élevées : les estuaires de grands fleuves (Seine, Loire et Rhône) et les zones fortement industrialisées, telles que l’étang de Berre (Bouches-du-Rhône) sur la côte méditerranéenne.
Les analyses menées ont également révélé que des PFAS non suivis et non réglementés sont parfois présents à des concentrations élevées dans les organismes marins. Parmi eux se trouve le 6:2 fluorotélomère sulfonamide bétaïne (6:2 FTAB), un composé abondamment utilisé dans les émulseurs anti-incendie et largement ignoré dans les programmes de surveillance. Ce composé a été détecté à des niveaux souvent supérieurs à ceux des PFAS connus et réglementés, comme le PFOS.
Les quatre PFAS soumis à la réglementation UE 2023/915 de la Commission européenne (PFOS, PFOA, PFNA et PFHxS), présentaient des concentrations globalement inférieures aux seuils fixés pour la consommation humaine. Par exemple, dans les moules bleues analysées, ces quatre composés réglementés étaient détectés à des niveaux près de vingt fois inférieurs à la valeur seuil définie par la Commission européenne.
En revanche, lorsque l’ensemble des PFAS détectés était pris en compte, les concentrations totales atteignaient des valeurs plus de 70 fois supérieures à celles du seuil des quatre composés réglementés. Ces résultats révèlent une contamination bien plus importante et complexe que celle des composés sujets à une réglementation et mesurés par les suivis traditionnels.
La toxicité de la majorité des composés détectés reste à ce jour inconnue, et il est donc impossible d’évaluer précisément le risque qu’ils représentent pour l’environnement et pour la santé humaine.
En revanche, nous savons que plusieurs des PFAS détectés sont des précurseurs, c’est-à-dire qu’une fois dans l’environnement, ils peuvent se dégrader en d’autres PFAS plus persistants appelés « produits terminaux ». Les composés les plus connus et réglementés sont justement des produits terminaux, tels que le PFOS et le PFOA.
Dans le cadre de nos travaux menés à l’Ifremer, des espèces situées à différents niveaux des chaînes alimentaires du bar européen et de la sole commune provenant de l’estuaire de la Seine ont également été étudiées. Ces espèces comprenaient des coquillages, des crustacés et des poissons.
Les résultats obtenus montrent que les concentrations de ces composés précurseurs ont tendance à diminuer du bas vers le haut de la chaîne alimentaire, tandis que celles des produits terminaux augmentent. Les espèces en haut de la chaîne alimentaire, notamment celles possédant un foie, semblent donc pouvoir dégrader certains précurseurs.
Ces observations mettent en évidence les limites des suivis et des réglementations actuels, qui ne concernent qu’un nombre restreint de PFAS et ne tiennent pas compte des transformations chimiques qui peuvent se produire dans l’environnement et au sein des organismes.
Ces résultats posent également question sur l’exposition de l’humain à travers la consommation de produits de la mer, notamment d’espèces basses dans la chaîne alimentaire, telles que les coquillages qui contiennent des proportions élevées de précurseurs, dont la toxicité est encore peu connue.
Une fois consommés, ces précurseurs non suivis et non réglementés pourraient être dégradés en produits terminaux et donc participer à l’exposition humaine à des PFAS dont la toxicité est avérée, tels que le PFOS. Ainsi, la vision actuelle de la contamination de l’humain et l’environnement par les PFAS, ainsi que les risques associés, reste partielle et bénéficierait de la prise en compte d’un plus grand nombre de substances.
Pour permettre une évaluation complète des risques associés aux PFAS dans leur ensemble, il sera donc essentiel à l’avenir de conduire des études écotoxicologiques spécifiques sur ces précurseurs et sur leurs produits de transformation.
En ce qui concerne la réglementation, des évolutions sont en cours. En 2023, le Danemark, la Suède, la Norvège, la Finlande et l’Allemagne ont soumis à l’Agence européenne des produits chimiques (ECHA) une proposition visant à réglementer à l’échelle européenne la fabrication, l’utilisation et la vente d’environ 10 000 PFAS. Cette initiative qui a été soutenue par la France illustre un nouveau tournant dans la prise de conscience et la gestion de la contamination par les PFAS dans sa globalité.
Ninon Serre a reçu des financements de l'Ifremer et de la région Pays de la Loire.
Yann Aminot a reçu des financements de l'Office Français de la Biodiversité (OFB) et de la région Pays de la Loire.
29.03.2026 à 09:02
Hussein Abou Saleh, Docteur associé au Centre d'études et de recherches internationales (CERI), Sciences Po
L’entrée en guerre du Hezbollah contre Israël, en représailles à l’assassinat de Khamenei à Téhéran et à la violation continuelle par Tel-Aviv de l’accord de cessez-le-feu de fin 2024, apparaît comme un pari très risqué, dans un contexte où le mouvement chiite libanais est aux abois aux niveaux militaire, politique et financier, et où Beyrouth tente de le désarmer et de reprendre la pleine possession des territoires qu’il contrôle encore.
L’« axe de la résistance » est entré dans une période de profonde transformation à la suite des guerres régionales au Moyen-Orient depuis le 7 octobre 2023. Il est loin d’être en mesure de jouer un rôle stratégique déterminant pour l’issue du conflit israélo-américain en cours contre l’Iran. Alors que la guerre atteint un nouveau paroxysme, deux fronts sont actifs, le Liban et l’Irak, mais un seul prend de l’importance : le Liban.
Les campagnes israéliennes dévastatrices menées depuis 2023 ont révélé les faiblesses et les limites du réseau de supplétifs iraniens, mais ont également souligné leur capacité à résister à la pression. Ces groupes se transforment en insurrections plus ou moins localisées. C’est pourquoi ils sont autant préoccupés par leur propre survie que par celle de la République islamique d’Iran. Leur intervention dans ce conflit relève moins de la stratégie d’« unité des arènes », qui prévoyait une intervention militaire conjointe contre Israël en cas d’attaque contre l’un de ses membres, que de la volonté d’assurer leur propre survie.
Le 28 février, avec l’assassinat du guide suprême iranien, l’ayatollah Khamenei, âgé de 86 ans, la « ligne rouge » de l’« axe » a été franchie, et le Hezbollah libanais s’est rapidement impliqué dans une guerre avec Israël qui donne au gouvernement Nétanyahou l’occasion de s’attaquer violemment, une fois de plus, à ses structures, déjà largement fragilisées.
Aux premières heures du 2 mars, le Hezbollah a tiré six roquettes sur le nord d’Israël en représailles à l’assassinat de Khamenei et à la violation persistante par Israël de l’accord de cessez-le-feu annoncé fin novembre 2024, comme indiqué dans sa déclaration écrite. Sa décision de frapper Israël n’était pas nécessairement une démonstration de force ni un signe crédible de sa capacité à dissuader toute agression israélienne, à l’instar des attaques lancées le 8 octobre 2023 en soutien au Hamas à Gaza, mais avant tout une nécessité stratégique pleinement ancrée dans le contexte politique national et régional.
La valeur du Hezbollah, tant en termes de dissuasion que d’influence sur la dynamique régionale, a considérablement diminué depuis le dernier conflit. L’effondrement du régime d’Assad en Syrie a coupé le corridor logistique qui assurait son réapprovisionnement en armes provenant d’Iran et de Syrie, tandis que les effets cumulatifs de la dernière guerre ont encore affaibli ses moyens. En conséquence, sa capacité opérationnelle est désormais fortement réduite. Il reste cependant à déterminer si ces limitations se traduisent par une efficacité réduite sur le champ de bataille.
Après trois semaines de guerre, le Hezbollah poursuit ses attaques quotidiennes contre Israël. Parallèlement, Israël progresse lentement, occupant davantage de territoire et infligeant de lourdes pertes civiles, avec un bilan de plus de 1 072 morts. Plus d’un million de personnes ont été déplacées, ce qui représente près de 20 % de la population du Liban. Les bombardements ont forcé des milliers de familles à fuir vers des zones plus sûres ou à se réfugier dans des bâtiments publics, comme les écoles. Les frappes aériennes israéliennes ont gravement endommagé ou détruit plusieurs ponts stratégiques sur le fleuve Litani, isolant ainsi le sud du Liban du reste du pays. Cette campagne vise à créer une zone tampon et à couper les lignes de ravitaillement du Hezbollah. Une stratégie visant à raser ce qui reste des villages du sud semble être mise en œuvre, comme on peut le constater à Khiam.
De plus, la base sociale du Hezbollah continue de subir les lourdes conséquences des destructions et des pertes considérables subies lors de la guerre de 2023, ce qui limite sa capacité de rétablissement rapide et de mobilisation durable.
La décision du Hezbollah d’entrer en guerre a pris une grande partie du Liban au dépourvu. Depuis l’accord de cessez-le-feu de novembre 2024, le Hezbollah avait fait preuve de ce que les analystes ont qualifié d’extrême retenue face à la pression croissante de l’État libanais pour obtenir son désarmement et aux violations incessantes de l’accord par Israël, qui ont entraîné la mort d’environ 350 membres du Hezbollah et d’environ 150 civils.
En réalité, deux facteurs majeurs ont façonné le comportement du Hezbollah jusqu’au début du conflit actuel. D’une part, il s’est concentré sur sa reconstruction organisationnelle et militaire après les graves revers subis lors de sa dernière guerre, à partir du 8 octobre 2023. D’autre part, l’ensemble de l’échiquier politique libanais faisait pression sur lui afin qu’il ne s’implique pas dans de futurs conflits. C’est pourquoi, de concert avec le reste de « l’axe de la résistance », il a choisi de ne pas intervenir lors des douze jours de frappes israéliennes contre l’Iran en juin 2025.
Au niveau national, le Hezbollah s’est retrouvé de plus en plus isolé. Le gouvernement, en coopération avec les Forces armées libanaises et la Force intérimaire des Nations unies au Liban (Finul), et conformément à l’accord de cessation des hostilités, est parvenu à éliminer toute présence militaire du Hezbollah des zones situées au sud du fleuve Litani, jusqu’à la frontière israélienne, et à démanteler une grande partie de ses infrastructures militaires. Il a également pris des mesures, dans le respect des contraintes politiques existantes, pour endiguer les activités et organisations financières illégales liées au Hezbollah. Ces mesures comprenaient notamment l’interdiction faite au secteur financier libanais d’avoir toute relation, directe ou indirecte, avec des entités non agréées et soumises à des sanctions internationales, ce qui a considérablement affecté les finances du Hezbollah. D’autres mesures ont consisté à appliquer la réglementation en matière de lutte contre le blanchiment d’argent et à renforcer les contrôles aux frontières et aux douanes afin de limiter les flux financiers illicites.
Ces mesures ont fortement réduit la capacité du Hezbollah à maintenir son système traditionnel de soutien social, notamment à indemniser les communautés touchées et à financer la rénovation ou la reconstruction d’après-guerre. Sa base de soutien s’est ainsi retrouvée prise en étau entre un État financièrement incapable de financer la reconstruction, une communauté internationale réticente ou incapable de fournir une aide financière suffisante et un parti confronté, pour la première fois, à des efforts soutenus visant à restreindre ses ressources financières et à limiter la libre circulation de ses stocks d’armes. Si le Hezbollah est parvenu à s’adapter partiellement et à contourner certaines de ces contraintes, leur impact n’en a pas moins été visible et leur portée politique manifeste.
Par ailleurs, la répression institutionnelle libanaise contre le Hezbollah était à son comble lorsque ce dernier a lancé l’attaque contre Israël. Ainsi, à la mi-février 2026, le gouvernement a exhorté les Forces armées libanaises à mettre en œuvre un second objectif stratégique : le démantèlement de l’infrastructure militaire du Hezbollah au nord du fleuve Litani. Selon ses estimations, l’armée libanaise aurait besoin d’au moins quatre mois pour achever cette seconde phase.
Si le Hezbollah avait acquiescé à la mise en œuvre du premier objectif au sud du Litani, conformément à son interprétation de l’accord de cessez-le-feu, il a catégoriquement rejeté cette seconde étape, la qualifiant de « grave faute ». En réponse, les Forces armées libanaises ont appelé tous les acteurs politiques à la prudence, compte tenu de la sensibilité de la situation et des risques de guerre civile liés à cette phase.
Ajoutons que le mécontentement de la base sociale du mouvement s’est accru en raison de l’absence de tout effort de reconstruction, des nombreuses violations du cessez-le-feu et de l’impossibilité pour certains de retourner dans leurs villages ou de prendre l’initiative de reconstruire leurs maisons. C’est dans ce contexte national que le Hezbollah a décidé de frapper Israël, quitte à s’exposer à une réplique dévastatrice.
Cela distingue son engagement militaire actuel des opérations précédentes, ce qui amène les analystes à conclure qu’il pourrait s’agir de la dernière guerre du groupe, dans laquelle il a décidé de jouer toutes ses cartes.
Quelques heures après l’attaque contre Israël, le gouvernement libanais a pris une mesure radicale en interdisant toutes les activités militaires et sécuritaires du Hezbollah au Liban, les déclarant formellement illégales et limitant juridiquement son action à la sphère politique.
Le premier ministre a réaffirmé l’engagement du Liban envers l’accord de cessez-le-feu et a mobilisé l’armée pour prévenir toute attaque provenant du territoire libanais. Bien que cette décision politique soit dépourvue de mécanisme d’application, elle n’en demeure pas moins significative, car elle a été approuvée par le mouvement Amal, allié politique de longue date du Hezbollah.
Peu après, plusieurs individus se rendant au Sud-Liban et se présentant comme membres du Hezbollah ont été arrêtés en possession d’armes, notamment des roquettes et des grenades. Ces arrestations ont démontré la détermination du gouvernement à faire respecter l’interdiction des activités militaires et sécuritaires du Hezbollah et à réaffirmer l’autorité de l’État sur les armes et la sécurité au Liban.
En résumé, le gouvernement a, de fait, mis fin à une ère où les calculs politiques primaient et permettaient de considérer le Hezbollah comme un groupe de résistance, ou comme un élément d’une formule politico-sécuritaire libanaise appelée « L’armée, le peuple et la résistance », qui légitimait son statut armé aux côtés des forces armées libanaises.
Alors que la guerre se poursuit sans relâche au Liban, le gouvernement et le président de la République ont tenté de lancer une initiative visant à engager des pourparlers directs avec Israël, brisant ainsi des tabous politiques de longue date qui, jusqu’alors, auraient pu anéantir toute carrière politique dans le pays.
Cette initiative s’est soldée par un échec, tant au niveau national que régional. Le président du Parlement a refusé de nommer un représentant chiite, conditionnant cette nomination à un cessez-le-feu et au retour des personnes déplacées. Le Hezbollah, par la voix d’un haut responsable de son bureau politique, a condamné l’initiative, la qualifiant de « trahison de la résistance » et soulignant que « l’État ne peut faire aucune promesse sans l’approbation de la résistance [c’est-à-dire du Hezbollah] ».
Par ailleurs, Israël a rejeté la proposition libanaise d’un cessez-le-feu d’un mois, période durant laquelle des pourparlers directs auraient été entamés, jugeant cette proposition « insuffisante et tardive » et préférant poursuivre la guerre tout en consolidant et, potentiellement, en étendant sa zone tampon établie lors du précédent conflit.
Dans ce conflit, le Hezbollah a démontré sa capacité à freiner l’avancée de l’armée israélienne et à limiter ses opérations. Mais, malgré un certain regain du prestige militaire perdu lors du précédent conflit, il n’a jusqu’à présent réalisé aucun gain stratégique. On ignore encore si le groupe parviendra à rétablir l’équilibre de dissuasion antérieur le long de la frontière israélo-libanaise, ou du moins à annuler les gains stratégiques israéliens acquis lors de la précédente guerre. Selon son secrétaire général, le cheikh Naïm Ghassem, la guerre en cours est « une bataille existentielle ».
De leur côté, des responsables iraniens ont déclaré que tout accord de cessez-le-feu impliquant Téhéran inclurait également le front libanais, signifiant ainsi que le Liban et le Hezbollah ne seraient pas mis à l’écart. Des tracts israéliens ont été largués au-dessus de Beyrouth, porteurs d’un avertissement explicite : « Face au succès retentissant à Gaza, le journal “La Nouvelle Réalité” arrive au Liban. » Ce message évoque l’offensive israélienne de deux ans contre Gaza comme un modèle de ce que le Liban pourrait connaître.
Quelle que soit la suite des événements, une chose est sûre : le Hezbollah semble avoir atteint un point de non-retour dans ses relations avec les autres acteurs politiques libanais. Une bataille politique encore plus ardue attend le Hezbollah sur le plan intérieur, alors qu’il s’efforce de convaincre les autres que le désarmement n’est pas une option.
Hussein Abou Saleh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.03.2026 à 17:20
Ludivine Perray-Redslob, Professeure associée en comptabilité, EM Lyon Business School
Agathe Morinière, Enseignante-chercheuse, Université de Montpellier
Nathalie Clavijo, Docteure en sciences de gestion, TBS Education
Funérailles symboliques, minutes de silence, déclarations d’amour… au cours des dernières années, face à l’érosion de l’hôpital public, de nombreux soignants ont eu recours à des formes de mobilisations originales qui mettent en scène la mort et l’amour. Une manière de rappeler que le soin n’est pas une marchandise mais un pilier de la société.
Insuffisance des moyens, pénurie de personnel, violence aux urgences, fermeture de lits et épuisement professionnel des équipes soignantes… les signaux d’alerte se multiplient au sein de l’hôpital public français depuis la mise en œuvre des réformes relevant du « nouveau management public ».
En janvier dernier, les urgences de l’hôpital de Rennes (Ille-et-Vilaine) se sont mises en grève suite à la mort de deux patients qui attendaient sur des brancards. À Aix-en-Provence (Bouches-du-Rhône), le même mois, une patiente en attente d’une place aux urgences est décédée avant d’avoir pu être prise en charge. Le 8 janvier 2026, la ministre de la santé Stéphanie Rist a, quant à elle, fait état d’une « tension dans tous les services d’urgences ». Tous ces faits illustrent l’actualité du problème.
Pourtant, depuis 2019, face à ces situations répétées, deux collectifs de personnels soignants – le Collectif Inter-Urgences et le Collectif Inter-Hôpitaux – alertent sur les conséquences humaines de ces politiques de santé fondées sur la rentabilité, en investissant l’espace public ainsi que les réseaux sociaux.
Nous avons mené une enquête pendant quatre années sur ces deux collectifs et avons collecté des textes, des chansons, des clips, des photographies, des vidéos, des dessins, produits par les soignants eux-mêmes ou relayés par ces collectifs sur les réseaux sociaux. Dans leurs revendications, les soignants mobilisent la mort et l’amour comme des langages politiques pour interroger notre rapport collectif au soin, au service public et à la solidarité.
Des cercueils portés dans la rue, des cortèges funéraires, des minutes de silence organisées devant les établissements : à première vue, ces scènes peuvent surprendre. Pourquoi « enterrer » symboliquement l’hôpital public alors même que les soignants se battent pour le sauver ? Parce que la symbolique de la mort agit comme un électrochoc. En mettant en scène la mort de l’hôpital, les soignants cherchent à provoquer une prise de conscience : sans réaction collective, ce pilier essentiel de notre société risque de disparaître. Ces rituels de deuil donnent une forme visible à un processus lent et souvent invisible : l’érosion progressive du service public de santé.
La mort permet aussi de rappeler une évidence que les logiques comptables tendent à faire oublier : l’hôpital est une infrastructure vitale. Nous en dépendons tous, un jour ou l’autre. En ce sens, la mort n’est pas seulement une fin ; elle devient un langage politique pour dire l’urgence d’agir.
Les mobilisations ne portent pas uniquement sur l’institution hospitalière. Elles rendent aussi visibles les corps de celles et ceux qui y travaillent. Lors de certaines actions, des soignants simulent leur propre mort dans l’espace public, allongés au sol, une seringue symboliquement pointée vers leur tête. D’autres mettent en scène l’asphyxie, pour dénoncer des conditions de travail devenues étouffantes.
Ces images sont fortes, parfois choquantes. Elles disent pourtant une réalité largement documentée dans certains services : surcharge de travail, impossibilité de prendre des pauses, accélération du temps, tension de valeurs, souffrance psychique, burn out, voire suicides. En exposant leur vulnérabilité, les soignants rompent avec l’image héroïque, mais dangereuse, du personnel soignant animé par une vocation qui dépasserait leurs besoins physiologiques, psychiques et humains.
À lire aussi : La crise des urgences, un miroir de la crise du système de santé français
Ils rappellent ainsi que ceux qui prennent soin ont eux aussi besoin d’être protégés et que, lorsque la santé au travail des soignants se dégrade, les patients en subissent les conséquences.
À côté de ces mises en scène de la mort, un autre symbole traverse les mobilisations : l’amour. Banderoles proclamant « J’aime mon hôpital », post-it en forme de cœur collés sur les murs, lettres adressées à l’hôpital public à la manière de déclarations amoureuses… Les soignants ont invité les citoyens à exprimer leur attachement à cette institution. Cet amour n’a rien de naïf. Il est profondément politique. En déclarant leur amour à l’hôpital public, les citoyens affirment que le soin ne se réduit pas à une prestation marchande. Ils rappellent que l’hôpital incarne des valeurs de solidarité, d’égalité et d’attention aux plus vulnérables.
L’amour devient alors un acte de résistance : aimer l’hôpital public, c’est refuser qu’il soit géré uniquement selon des critères de rentabilité.
Ces mobilisations esquissent une éthique de la vie et de la mort, dans laquelle le soin est pensée comme une responsabilité collective, reposant à la fois sur des infrastructures publiques et sur des relations humaines qui reconnaissent nos vulnérabilités et notre interdépendance universelle. Les gestes d’amour, de solidarité et de compassion mis en avant dans les mobilisations rappellent que le soin n’est pas seulement un acte technique, mais une relation humaine fondée sur l’attention portée aux autres.
L’éthique de la vie et de la mort pensée dans ces mobilisations consiste aussi à faire du soin une affaire publique. C’est-à-dire à s’engager collectivement à rendre visible ce qui est habituellement rendu invisible : les corps vulnérables, les situations indignes, la mort progressive de l’hôpital public.
La crise de l’hôpital public n’est pas seulement un problème de gestion. Elle pose une question fondamentale : quelle place voulons-nous donner au soin dans notre société ? Acceptons-nous que certaines vies valent moins que d’autres, faute de moyens ? Ou considérons-nous le soin comme un bien commun, à préserver collectivement ?
En mobilisant la mort et l’amour, les soignants invitent la société à réfléchir aux conditions nécessaires à une vie digne d’être vécue et à ce que nous sommes prêts à engager pour préserver ces conditions de vie.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.03.2026 à 17:19
Lucie Bargel, Politiste, enseignante-chercheuse, Université Côte d’Azur
Contrairement aux idées reçues, le lieu de résidence ne correspond pas toujours au lieu de vote. Une enquête ethnographique montre la présence continue d’électeurs et d’électrices, de votant·es et d’élu·es non résident·es dans les petites communes de montagne.
Les personnes qui ne résident pas toute l’année dans une commune mais qui y paient des impôts peuvent s’y inscrire sur les listes électorales, voter et être élues. Et elles sont nombreuses à le faire dans les petites communes françaises, en particulier en montagne.
Comment expliquer cette volonté de voter ailleurs que sur son lieu de résidence principale ? Quels débats crée cette présence d’électeurs mobiles ?
En France, il est possible d’être inscrit sur les listes électorales, de voter et d’être candidat ou candidate dans un village dont où l’on ne réside pas. L’Insee définit la résidence principale, celle où l’on est recensé, comme celle dans laquelle on passe le plus de temps. La situation la plus fréquente est de figurer sur les listes électorales de cette commune de résidence principale. Mais le Code électoral prévoit qu’on peut aussi demander à s’inscrire sur les listes électorales d’une commune dans laquelle on est né·e, dans laquelle on a précédemment résidé, dans laquelle vivent nos parents si on a moins de 26 ans, ou dans laquelle on paie des impôts sur une résidence secondaire ou une entreprise, par exemple.
Dans les villages ruraux, et en particulier dans ceux qui comptent de nombreuses résidences secondaires, cette option légale a des effets très concrets.
Dans mes travaux, je me suis d’abord intéressée à une vallée montagnarde des Alpes-Maritimes, où les résidences secondaires peuvent représenter jusqu’aux deux tiers des logements dans les plus petits villages. Et ces « résident·es secondaires » ne sont pas indifférents à la vie politique locale : on trouve dans ces villages plus de personnes inscrites sur les listes électorales que de personnes recensées par l’Insee, et même, régulièrement, plus de votes exprimés que de personnes recensées. Ceci est particulièrement fort pour les élections municipales : cela veut dire que les résident·es « secondaires » sont des personnes qui participent à la vie sociale de la commune, qui connaissent personnellement les candidat·es, et qui sont ainsi incitées à participer aux élections autant que les résident·es permanent·es.
Cette incitation à participer commence au moment de s’inscrire sur les listes, en amont de l’élection. Au mois de décembre de l’année précédente (au moment de mon enquête, désormais six semaines avant), les candidat·es aux élections municipales du mois de mars suivant profitent de la période des vacances et des réunions familiales au village d’origine pour tenter de convaincre les personnes attachées au village de s’y inscrire, et d’y voter ou d’y faire une procuration. La campagne se poursuit, au-delà des quelques réunions officielles, dans le cours des rituels sociaux ordinaires liés aux évènements familiaux, naissances, décès, etc. (comme l’a montré Jean-Louis Briquet en Corse) qui dans ce cas ont lieu tant de visu qu’à distance, par téléphone, ou bien pendant les week-ends.
Nombre de ces résident·es secondaires sont en effet présents régulièrement au village. Le caractère montagnard de ces derniers est important : même s’ils ne sont pas très éloignés, « à vol d’oiseau », des grandes villes voisines, le fait que ces trajets aient lieu sur des routes de montagne, où l’on ne peut rouler vite et où les dégâts sont fréquents, empêche ces « originaires » d’être des « pendulaires » qui effectuent le trajet pour aller travailler chaque jour. Plutôt, dans cette vallée, ils et elles partent le lundi matin et reviennent le vendredi soir. À leurs yeux, ils habitent au village.
À partir de cette première enquête ethnographique, j’ai élargi la focale temporelle et géographique. Dans cette vallée, la présence d’électeurs et d'électrices « en trop » par rapport aux résident·es recensé·es est une constante depuis la moitié du XXᵉ siècle (et sans doute avant mais l’on ne dispose pas des chiffres). De même, avec Baptiste Coumont, nous avons comparé systématiquement les chiffres du recensement et ceux des listes électorales et constaté que cette extra-inscription concerne toutes les zones de montagne françaises.
Ces résultats ne sont pas très étonnants si on sait que les montagnes sont, structurellement, des lieux de migrations temporaires, adaptées aux spécificités du territoire et du climat. Pendant les mois d’hiver, contraints à l’inactivité, les montagnards descendent occuper des emplois peu qualifiés dans les plaines, et remontent ensuite au village. L’activité pastorale est elle-même structurée par cette mobilité entre différentes altitudes selon les saisons. Les villages de montagne ont donc toujours été composés de personnes mobiles, se considérant comme appartenant au village même sans y être présentes en permanence.
Si aujourd’hui la présence de ces résident·es « secondaires » sur les listes électorales est légale, elle n’est pas sans contestations. Certain·es résident·es permanent·es voient d’un mauvais œil l’influence des « vacanciers » sur les choix politiques de la commune. Les résident·es secondaires sont attaché·es au village précisément parce qu’il constitue une forme de « refuge » par rapport à la ville où elles résident le reste du temps, ils viennent y chercher de l’espace, du calme, de la tranquillité, dans certains cas un lien avec des « traditions » qui prennent la forme de manifestations pendant les week-ends et les mois d’été.
Pour leur part, les permanent·es sont souvent prêt·es à renoncer à une partie du « calme » de leur quotidien en faveur de plus d’activités économiques, de commerces, d’emploi, etc. Et peuvent voir d’un mauvais œil le fait que des citadins, ayant accès à plus de ressources et à de meilleurs emplois, prétendent aussi participer aux choix politiques du village. On peut se demander quelle traduction politique trouvent dans les urnes ces différents rapports au territoire.
Ces pratiques d’inscription sur les listes électorales et de participation aux élections dans son village « d’origine » plutôt que dans son lieu de résidence permanent éclairent aussi l’existence d’usages non électoraux du vote. Voter, ce n’est pas (seulement) exprimer une opinion politique abstraite, rationnelle, séparée du reste de la vie. En France, une série d’enquêtes collectives s’intéresse, depuis 15 ans, au façonnage des pratiques électorales par les relations sociales. Dans mes recherches, je m’intéresse au fait que ces relations sociales n’ont pas nécessairement lieu dans un seul et même endroit.
Les « émigré·es » au sens large, les personnes qui ont changé de pays, mais aussi celles qui ont quitté leur village pour étudier ou occuper de meilleurs emplois, ou encore celles qui continuent de revenir régulièrement dans leur village familial même si elles n’y sont pas nées, peuvent préférer participer à la vie politique de ce lieu investi affectivement. Dans leur cas, le vote sert à manifester cette appartenance sans résidence permanente, et le lieu du vote est au moins aussi important pour les personnes que son contenu.
Lucie Bargel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.