30.06.2025 à 17:38
Antoine Pécoud, Professeur de sociologie, Université Sorbonne Paris Nord
Les gouvernements choisissent des politiques jugées unanimement inefficaces par les chercheurs spécialistes des migrations. Comment comprendre cette absence d’écoute ? Comment y remédier ?
Les migrations sont omniprésentes, dans le débat politique comme dans les médias ou sur les réseaux sociaux. Les chercheurs, pourtant, sont relativement peu visibles.
Cette situation est a priori surprenante. Malgré des moyens importants, les États ne semblent pas parvenir à maîtriser les déplacements de populations et pourraient donc bénéficier d’un échange avec les spécialistes. Or, la recherche sur les migrations est dynamique, avec un nombre croissant de connaissances sur le sujet.
Mais en pratique, le dialogue entre chercheurs et politiques est peu développé. Une des conséquences de cette situation est que les gouvernements s’obstinent dans des politiques qui sont unanimement jugées inefficaces, et même contre-productives, par les spécialistes.
C’est notamment le cas des politiques qui visent à développer l’Afrique pour freiner l’immigration. L’Union européenne y consacre des dizaines de millions d’euros, notamment au travers du Fonds fiduciaire. Pourtant la recherche a de longue date établi que le développement ne limite pas mécaniquement l’émigration, au point que le premier peut même, dans certains cas, favoriser la seconde.
Il en va de même pour la réponse à la « crise » des migrants et des réfugiés en Méditerranée. Les décideurs – et une bonne partie de la société avec eux – sont persuadés que l’Europe fait face à une hausse sans précédent des arrivées de migrants en Europe. Or la recherche montre que la crise n’est pas seulement due à une augmentation des flux, mais aussi à une politique d’accueil inadaptée. En refusant de prendre en compte cette nuance, les politiques migratoires ne font que renforcer le contrôle – avec le risque d’aggraver encore la crise.
La difficulté majeure tient donc dans l’approche excessivement idéologique des États. Nombre de gouvernements sont élus sur un programme de lutte contre l’immigration et blâment les migrants, les réfugiés (et même leurs descendants) pour toutes sortes de problèmes, du chômage à l’insécurité en passant par la cohésion sociale. On conçoit donc qu’ils soient hostiles aux critiques, et même à tout raisonnement légèrement nuancé.
Cette approche clivante inspire l’ensemble des politiques publiques. En France, par exemple, pas moins de 28 lois sur l’immigration ont été adoptées depuis 1980. À ce rythme, chaque loi est adoptée avant que précédente n’ait été entièrement mise en œuvre – et encore moins évaluée. Là encore, on conçoit que les chercheurs ne soient pas les bienvenus dans une activité législative qui relève en grande partie de l’affichage et de la gesticulation.
Cela s’inscrit dans une défiance plus générale vis-à-vis des sciences sociales, qui ont toujours été accusées d’idéalisme, d’irénisme – et aujourd’hui de « wokisme ». Rappelons qu’en 2015, un ancien premier ministre affirmait qu’en « expliquant » certaines réalités (comme la radicalisation), les sciences sociales contribuaient à les « excuser ».
La réalité est un peu plus complexe, cependant. L’indifférence des pouvoirs publics à la recherche ne les empêche pas de la financer.
La Commission européenne a ainsi débloqué plus de 160 millions d’euros depuis 2014 pour les universités travaillant sur les migrations. En France, dans le cadre du programme France 2030, l’Agence nationale de la recherche (ANR) a financé à hauteur de près de 14 millions d’euros l’Institut Convergences Migrations (IC Migrations) depuis sa création en 2017.
Cela contribue au dynamisme de la recherche sur les migrations : plus de mille chercheurs vont ainsi se réunir à Aubervilliers, en région parisienne, en juillet 2025 pour la 22ᵉ conférence annuelle du réseau européen IMISCOE, organisée par l’IC Migrations.
Mais, bien que l’écrasante majorité de ces chercheurs soient critiques des politiques migratoires, celles-ci ne changent pas pour autant. Les premiers surpris sont les chercheurs eux-mêmes : en 2020, soixante d’entre eux ont écrit à la présidente de la Commission européenne Ursula von der Leyen pour exprimer leur frustration d’être financés par la Commission – mais jamais écoutés.
Dans une logique de « politiques fondées sur les faits », l’objectif affiché par les bailleurs de fonds est pourtant de mieux comprendre les migrations pour mieux les gouverner. Cette approche est louable et nécessaire, a fortiori dans une époque marquée par les fake news, par l’influence de médias ouvertement populistes et par des politiques « anti-science » dans l’Amérique trumpiste. Mais force est d’admettre que les obstacles sont nombreux.
Rappelons que, si les chercheurs sont en général ouverts au dialogue avec les décideurs ainsi qu’avec les médias et la société civile, il ne s’agit pas de leur cœur de métier.
Ils évoluent dans un milieu professionnel qui a son propre rythme, nécessairement plus lent que celui des médias ou des soubresauts politiques. Leurs carrières répondent à des logiques spécifiques, dans lesquelles les publications jouent un rôle prépondérant – ce qui conduit à une forte spécialisation et à l’usage de la lingua franca de la recherche qu’est l’anglais.
Ajoutons que beaucoup travaillent dans des conditions dégradées, marquées par un précariat croissant et le sous-financement chronique des universités. La grande majorité des chercheurs ne sont donc pas formés, pas incités (et encore moins payés) pour dialoguer avec les politiques.
Cela a conduit à l’émergence d’intermédiaires, comme les think tanks (à l’instar du Migration Policy Institute à Bruxelles) ou certains centres de recherche spécialisés (dont le « Co-Lab » à l’Institut européen, à Florence). De par leurs réseaux parmi les décideurs et leur capacité à leur parler, ces acteurs comblent un manque. Mais leur existence indique aussi à quel point le dialogue recherche-politique est un exercice à part entière, que seule une poignée de chercheurs maîtrise.
Une autre difficulté tient à l’hétérogénéité des positions des chercheurs. Des économistes aux anthropologues en passant par les juristes, tous sont critiques des politiques actuelles – mais pas pour les mêmes raisons. Certains leur reprochent de freiner la croissance en limitant l’immigration de travail, d’autres de violer les droits fondamentaux, etc.
Face à cette multiplicité de critiques, les États peuvent aisément ne « piocher » que les résultats qui les arrangent. Par exemple, quand les sciences sociales documentent la vulnérabilité des migrants et le rôle des passeurs dans l’immigration irrégulière, les États retiennent l’impératif de lutter contre ces réseaux – mais oublient que leur existence est en grande partie une réponse au contrôle des migrations qui, en empêchant les mobilités légales, incitent les migrants à se tourner vers les passeurs.
Il existe enfin des obstacles plus fondamentaux, car la recherche renforce parfois les politiques qu’elle critique. Les politiques migratoires sont ainsi très « occidentalo-centrées ». L’Europe s’affole de l’arrivée de réfugiés sur son sol, en oubliant que la très grande majorité d’entre eux restent dans les pays du Sud. Or, c’est aussi dans les pays du Nord que la majorité du savoir est produit, avec le risque d’étudier davantage ce qui se passe en Europe qu’ailleurs.
Les appels à « décentrer » (voire à « décoloniser ») la recherche se multiplient, mais il reste difficile d’échapper à ce biais. À cet égard, les financements européens sont à double tranchant : s’ils permettent un essor de la recherche, ils sont aussi orientés vers les problématiques jugées importantes en Europe, tout en accentuant les inégalités de financement entre le nord et le sud de la Méditerranée.
Mais surtout, la notion même de « migration » n’est pas neutre : elle suppose un cadre étatique, au sein duquel les populations et les territoires sont séparés par des frontières, où citoyens et étrangers font l’objet d’un traitement bien différencié. Il est possible d’avancer que c’est justement cette organisation « westphalienne » du monde qui empêche de mieux gouverner les migrations, lesquelles témoignent des multiples interdépendances entre États.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le dilemme est donc assez clair. Les chercheurs sont des citoyens comme les autres et, à ce titre, ils ne sont donc pas extérieurs aux réalités sur lesquelles ils travaillent. Il est donc logique que la recherche se focalise sur les aspects les plus saillants des migrations contemporaines, et ce, d’autant plus que c’est justement vers ces réalités que les financements sont orientés. À bien des égards, pour produire un savoir pertinent et parler aux politiques, les chercheurs doivent « coller » à l’actualité.
Mais ce faisant, ils risquent de négliger des réalités moins visibles, et en conséquence de renforcer les biais qui affectent la perception sociale et politique des migrations. Il ne s’agit évidemment pas d’en appeler à une illusoire neutralité scientifique, mais de trouver un équilibre entre une logique de recherche autonome et la production d’un savoir utile à l’amélioration des politiques migratoires – à condition bien sûr que les États finissent un jour par les écouter.
Antoine Pécoud intervient sur ce sujet lors du colloque annuel de l’IMISCOE (International Migration Research Network), qui se tient sur le campus Condorcet à Aubervilliers (Seine-Saint-Denis), du 1er>/sup> au 4 juillet 2025.
Antoine Pécoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.06.2025 à 17:37
Trevor Mazzucchelli, Associate Professor of Clinical Psychology, Curtin University
Il est normal que les enfants s’ennuient. En fait, l’ennui peut même les aider à développer un certain nombre de compétences importantes.
À l’approche des vacances, les parents entendront sans doute leur enfant leur dire cette phrase classique : « Je m’ennuie… »
Nous nous ennuyons tous de temps en temps, et il n’y a rien de mal à cela. En fait, s’ennuyer est même utile, car cela nous aide à réfléchir et à modifier ce que nous faisons ou à prêter plus d’attention à notre environnement extérieur.
Cependant, de nombreux enfants doivent encore apprendre à gérer l’ennui. Si vous vous demandez comment réagir lorsque les enfants se plaignent de s’ennuyer (sans les laisser regarder davantage la télévision), voici quelques idées à tester.
L’ennui est légèrement désagréable, mais il n’y a pas de mal à ce que les enfants s’ennuient. En fait, l’ennui permet aux enfants de développer un certain nombre de compétences importantes, notamment :
supporter des expériences désagréables,
gérer la frustration et réguler les émotions,
développer son imaginaire,
résoudre des problèmes, planifier et organiser,
acquérir de l’indépendance et de l’autonomie.
Ces compétences sont essentielles pour que les enfants développent un sentiment de contrôle sur leur propre bonheur et leur bien-être.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En général, la vie des enfants est structurée et organisée pour eux. Lorsqu’ils disposent de temps libre, les enfants peuvent éprouver des difficultés à penser à des choses à faire et à les organiser.
Si, dès qu’un enfant se plaint de s’ennuyer, un adulte vient le divertir, alors cet enfant n’aura peut-être pas la possibilité d’apprendre à s’occuper tout seul et à développer son esprit créatif.
Il arrive que les enfants rejettent toutes les idées qu’on leur propose. Ils savent peut-être d’expérience qu’au bout du compte, cela va conduire à une longue discussion ou à ce qu’on s’engage avec eux dans une activité. Dans les deux cas, l’enfant n’a pas à gérer son propre ennui.
L’astuce consiste donc à aider les enfants à avoir leurs propres idées (plutôt que de leur suggérer quoi faire).
Les parents peuvent faire beaucoup pour se préparer à l’ennui et pour aider leur enfant à apprendre à gérer son propre ennui.
Voici quelques idées.
Discutez avec votre enfant de ce qu’il aime faire, de ses centres d’intérêt et de ses passions. Élaborez avec lui un menu d’activités auquel il pourra se référer lorsqu’il s’ennuie. Les enfants plus jeunes peuvent avoir envie d’illustrer leur menu avec des dessins.
Essayez de dresser une liste d’activités que votre enfant peut faire sans votre aide – un mélange de choses nouvelles et d’activités qu’il a déjà bien aimées par le passé. Incluez des activités plus rapides (comme le coloriage ou un pique-nique avec un ours en peluche), ainsi que des projets à plus long terme (comme un grand puzzle, la lecture d’un roman, l’acquisition de compétences sportives). Placez le menu à un endroit où votre enfant pourra s’y référer.
Assurez-vous que les jouets, outils ou autre matériel soient disponibles et accessibles pour que votre enfant puisse faire ce qui figure sur sa liste. Les jouets et les activités n’ont pas besoin d’être coûteux pour être amusants.
Préparez votre enfant. Informez-le du programme de la journée et du temps qu’il est censé consacrer aux activités de son menu. Cela le rassurera sur le fait qu’il n’est pas livré à lui-même « pour toujours ». Une série d’images illustrant le programme de la journée peut être utile. Avant une période de temps libre, discutez de deux ou trois règles. Par exemple, « Joue tranquillement jusqu’à ce que papa et maman aient fini et si tu as besoin de nous parler, dis-le », ou bien « Excuse-moi et attends que nous soyons disponibles ».
Au début, vous pouvez offrir une récompense (comme une activité spéciale avec vous, son goûter préféré ou du temps d’écran) si votre enfant s’occupe correctement pendant un certain temps. Au fil du temps, éliminez progressivement les récompenses en augmentant le temps dont votre enfant a besoin pour trouver à s’occuper, puis ne les lui offrez que de temps en temps.
Si votre enfant vous dit qu’il s’ennuie, redirigez-le vers sa liste. Cette conversation doit être brève et précise.
Si nécessaire, aidez votre enfant à démarrer. Certains enfants peuvent avoir besoin d’aide pour démarrer une activité. Il peut être nécessaire de passer quelques minutes à les installer. Essayez de ne pas tout faire vous-même, mais posez plutôt des questions pour les aider à résoudre les problèmes. Vous pouvez demander : « Que vas-tu fabriquer ? De quoi auras-tu besoin pour cela ? Par où vas-tu commencer ? »
S’il est important que les enfants apprennent à gérer l’ennui, ils ont aussi besoin de se sentir valorisés et de savoir que leurs parents veulent passer du temps avec eux. Prenez du temps pour votre enfant et soyez disponible pour lui lorsque vous êtes ensemble.
Trevor Mazzucchelli est co-auteur de « Stepping Stones Triple P - Positive Parenting Program » et consultant auprès de Triple P International (Australie). Le Parenting and Family Support Centre (Australie) est en partie financé par les ouvrages publiés par le Triple P - Positive Parenting Program, développé et détenu par l'Université du Queensland (UQ). Les redevances sont également distribuées à la Faculté des sciences de la santé et du comportement de l'UQ (Université de Queensland) et aux auteurs des publicatiions de Triple P. Triple P International (TPI) Pty Ltd est une société privée autorisée par UniQuest Pty Ltd, au nom de l'UQ, à publier et à diffuser Triple P dans le monde entier. Il n'est ni actionnaire ni propriétaire de TPI, mais il a reçu et pourrait recevoir à l'avenir des redevances et/ou des honoraires de conseil de la part de TPI. TPI n'a pas participé à la rédaction de cet article.
30.06.2025 à 17:36
Sylvaine Castellano, Directrice de la recherche, EM Normandie
Insaf Khelladi, Professeur Associé en Marketing, Pôle Léonard de Vinci
Rossella Sorio, Professeure Associée, Département Marketing ICN BS, ICN Business School
Le Brésil dispose de tous les atouts pour devenir un acteur clé du vin au XXIe siècle… à condition d’assumer pleinement son rôle : un laboratoire d’expérimentation, de consommation et de durabilité viticole à l’échelle mondiale. Après le football et le café, le vin, nouvel emblème du Brésil ?
Le Brésil, pays le plus peuplé d’Amérique du Sud avec 212 583 750 d’habitants et cinquième producteur de vin de l’hémisphère sud, suscite un intérêt international croissant. Longtemps perçu comme un acteur marginal sur la scène viticole, il connaît une transformation rapide, portée par des innovations techniques, une diversification de ses terroirs et une nouvelle génération de consommateurs.
Cette dynamique fait du pays un véritable laboratoire des nouvelles tendances mondiales du vin. Le marché brésilien connaît une croissance impressionnante : 11,46 milliards d'euros de chiffre d’affaires en 2024, avec des prévisions atteignant 19,12 milliards d'euros d’ici 2030, à un rythme de croissance annuelle moyen de 9,1 %. En valeur, le Brésil représente aujourd’hui 2,6 % du marché mondial du vin.
Comment expliquer ce marché émergent ?
Le pays produit entre 1,6 et 1,7 million de tonnes de raisins par an, sur près de 81 000 hectares. Le sud du pays reste le cœur de la viticulture brésilienne, avec 90 % de la production concentrée dans l’État du Rio Grande do Sul. La région de Pinto Bandeira s’est distinguée pour ses vins mousseux de qualité, produits selon la méthode traditionnelle, à base de Chardonnay et de Pinot noir.
De nouvelles régions émergent. Santa Catarina, avec ses vignobles d’altitude à São Joaquim, favorise une production de mousseux fins dans un climat frais. Plus audacieux encore, la vallée du São Francisco, dans le nord-est tropical, permet deux vendanges par an grâce à son climat semi-aride. Dans les zones plus chaudes comme São Paulo ou Minas Gerais, les producteurs innovent avec la technique de la poda invertida, ou taille inversée. Ils repoussent la récolte vers des périodes plus fraîches, améliorant la qualité des raisins.
En 2023, le Brésil a importé 145 millions de litres de vin, soit une baisse de 5,91 % en volume – en gommant l’inflation –, mais une hausse de 5 % en valeur – sans effet d’un changement de prix.
Les vins d’entrée de gamme – inférieurs à 20 euros – dominent avec 65 % du volume. Les vins premium – supérieurs à 80 euros – ont progressé de 31 % en volume et 34 % en valeur. Le Chili reste le principal fournisseur, devant le Portugal et l’Argentine. La France, cinquième fournisseur avec 7 % de parts de marché. L’Hexagone consolide sa position grâce à ses effervescents et ses Indications géographiques protégées (IGP).
Longtemps dominé par le rouge et les mousseux, le marché brésilien voit le vin blanc progresser fortement : 11 % d’importations en plus en 2023, représentant désormais 22 % du marché. Cette tendance s’explique par le climat, mais aussi par une recherche de fraîcheur, de légèreté, et de moindres teneurs en alcool. Les vins blancs aromatiques et floraux séduisent particulièrement les jeunes et les femmes, bouleversant les codes traditionnels.
Le renouveau du marché brésilien repose en grande partie sur les jeunes générations. Selon une étude, 37 % des millennials et Gen Z déclarent préférer le vin, juste derrière la bière (44 %), et devant les spiritueux. La consommation de vin devient plus quotidienne, intégrée à des moments conviviaux. Les Brésiliennes représentent 53 % des consommateurs en 2024, contre 47 % en 2019. La part des consommatrices âgées de 55 à 64 ans est même passée de 14 % à 19 %. Ce public, en pleine mutation, recherche des vins plus accessibles, des expériences partagées, et des marques engagées.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La durabilité devient un atout compétitif majeur. À Encruzilhada do Sul, le domaine Chandon (LVMH) a lancé un mousseux premium, à partir de pratiques durables certifiées PIUP, bien que non bio. Selon son œnologue Philippe Mével, ces démarches améliorent la santé des sols et la productivité, tout en réduisant les intrants.
La vinícola Salton, quant à elle, compense ses émissions de 951 tonnes de CO₂ en 2020 par la conservation de 420 hectares de pampa native, et des actions de reforestation. Elle vise la neutralité carbone d’ici 2030 via des énergies renouvelables et des matériaux recyclés.
Malgré ces avancées, le vin brésilien souffre d’une image encore trop classique. Pour séduire les jeunes, la filière doit adopter des codes plus spontanés, centrés sur les expériences, les moments de vie et les émotions. Instagram, TikTok, micro-influenceurs, étiquettes au design moderne : les leviers sont nombreux.
Le visuel est désormais un facteur déterminant d’achat. Les jeunes générations attendent aussi que le vin s’intègre à leur quotidien via des événements festifs, des pique-niques, des festivals ou des bars éphémères.
La consommation moyenne de vin par habitant reste faible (2,7 litres/an), mais le potentiel est considérable. Avec une offre en pleine diversification, des terroirs multiples, une jeunesse curieuse et exigeante, et une montée en gamme affirmée, le Brésil change de visage viticole.
Des événements comme ProWine São Paulo, devenu la plus grande foire du vin et des spiritueux des Amériques, témoignent de cet engouement croissant. Le Brésil dispose de tous les atouts pour devenir un acteur clé du vin au XXIe siècle… à condition d’assumer pleinement ce qu’il est en train de devenir : un laboratoire d’expérimentation, de consommation et de durabilité viticole à l’échelle mondiale.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 17:36
Clémence Lepla, Doctorante en droit privé, Université de Lille
14 % de la nourriture produite est jetée ou perdue avant même d'atteindre les rayons des magasins. 19% sera ensuite jetée par les magasins, les restaurants ou particuliers. Pour lutter contre ce fléau, l'Espagne vient d'adopter une loi avec des sanctions inédites. Mais cela sera-t-il suffisant pour endiguer le gaspillage alimentaire ?
L’Espagne vient d’adopter une nouvelle loi pour lutter contre les pertes et le gaspillage alimentaire. Publiée le 1er avril 2025, elle ambitionne de réduire les pertes et le gaspillage à toutes les étapes de la chaine alimentaire, de la récolte à la consommation, en promouvant un modèle plus durable. Si une loi en Catalogne existait déjà en la matière, le dispositif est désormais harmonisé.
Les objectifs fixés sont ambitieux. La loi vise à réduire de 50 % le gaspillage alimentaire par habitant et de 20 % les pertes alimentaires d’ici à 2030. Les pertes alimentaires désignent ici la nourriture qui est perdue ou jetée avant d’atteindre les magasins de détail, lors des étapes de récolte, de transformation des aliments ou encore du transport. Actuellement, 14 % de la nourriture produite dans le monde est perdue à ce stade. Le gaspillage alimentaire correspond lui à la nourriture disponible à la vente ou à la consommation qui est jetée par les supermarchés, les restaurants et les ménages. Il représente 19 % des denrées alimentaires produites dans le monde. Ces chiffres ont marqué un véritable tournant dans la prise de conscience mondiale de ce problème, incitant les gouvernements à adopter des politiques ambitieuses pour y remédier.
Inédite en Espagne, cette loi constitue une étape importante dans la lutte contre le gaspillage alimentaire. Elle s’inscrit dans les objectifs de développement durable de l’Union européenne qui visent, d’ici au 31 décembre 2030, une réduction de 10 % des pertes alimentaires (par rapport à la quantité générée en moyenne annuelle entre 2021 et 2023) ainsi que la réduction de 30 % du gaspillage alimentaire par habitant.
Le texte présente également des dispositions similaires à celles de la loi relative à la lutte contre le gaspillage alimentaire, dite Loi Garot, adoptée par la France en 2016. Bien que les dispositifs ne soient pas entièrement identiques, les deux textes poursuivent le même objectif : lutter contre les pertes et le gaspillage alimentaires.
Pour atteindre cet objectif, la participation de tous les acteurs de la société est nécessaire. La loi espagnole s’applique ainsi à une large palette d’acteurs opérant sur le territoire. Elle s’adresse aux professionnels assurant la production, la transformation et la distribution de denrées alimentaires ; aux restaurants ; à l’hôtellerie ; aux consommateurs ; aux associations de distribution de dons alimentaires ainsi qu’à l’administration publique. Seules les micro-entreprises sont exclues du dispositif.
Contrairement à la loi française, la loi espagnole est également applicable pour les opérateurs du secteur primaire tels que les agriculteurs, éleveurs, pêcheurs et coopératives agricoles.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les opérateurs économiques de la chaîne alimentaire doivent respecter un ordre de priorité inspiré de la directive européenne sur les déchets. Ainsi, lorsqu’une denrée alimentaire ne parvient pas à être vendue, elle doit être donnée ou transformée (par exemple des fruits transformés en confiture). Si ces opérations ne sont pas réalisables, cette denrée pourra être utilisée pour nourrir les animaux. À défaut, elle sera transformée par l’industrie en sous-produit non alimentaire (biocarburant, bioplastiques…), recyclée ou transformée en compost.
La loi proscrit également toute action visant à rendre les denrées impropres à la consommation ou à la valorisation comme le fait de verser de la javel sur les invendus.
Le manquement au respect de cet ordre de priorité est répertorié comme étant une « infraction mineure » et est puni par un avertissement ou une amende pouvant aller jusqu’à 2 000 euros. Cette infraction peut être requalifiée en « infraction grave » si elle est commise à nouveau dans une période de deux ans à compter de la sanction par décision administrative de la première d’entre elles. Le cas échéant, elle est punie d’une amende allant de 2 001 à 60 000 euros.
La destruction ou altération intentionnelle de denrées alimentaires invendues encore propres à la consommation est quant à elle considérée comme étant une « infraction grave ». En cas de réitération de ce type d’infraction, celle-ci est susceptible d’être requalifiée en « infraction très grave ». Elle sera alors passible d’une amende comprise entre 60 001 et 500 000 euros. La loi laisse une certaine marge de manœuvre à l’échelle régionale aux 17 Communautés autonomes d’Espagne pour augmenter ces seuils et/ou inclure d’autres sanctions additionnelles ou accessoires dans leurs réglementations respectives ayant valeur de loi.
Les sanctions diffèrent des sanctions françaises lesquelles prévoient une amende pouvant aller jusqu’à 0,1 % du chiffre d’affaires hors taxe du dernier exercice clos réalisé par l’établissement coupable de destruction de ses invendus. Le montant est fixé en fonction de la gravité de l’infraction, notamment du nombre et du volume de produits concernés. Cette amende peut être assortie d’une peine complémentaire d’affichage ou de diffusion de la décision prononcée, dans les conditions prévues à l’article 131-35 du code pénal.
La loi espagnole impose également aux professionnels de mettre en place des plans de prévention. Il s’agit de documents opérationnels détaillant les mesures mises en place pour identifier, prévenir et réduire les pertes et le gaspillage alimentaires. Chaque acteur de la chaîne alimentaire (à l’exception donc des microentreprises, des petits établissements commerciaux d’une surface inférieure à 1300m2 et des petites exploitations agricoles) doit expliquer comment il appliquera cet ordre de priorité et rendre compte des actions de prévention telles que la vente de produits dits « moches » ou « inesthétiques » ou encore indiquer les éventuels accords ou arrangements qu’ils ont avec des associations pour donner leurs invendus. Ces plans de prévention permettent également de collecter des données sur les pertes et le gaspillage alimentaires qui seront essentielles dans le cadre du suivi et de la régulation de cette problématique à l’échelle nationale.
Ces informations collectées alimenteront le plan national de contrôle des pertes et du gaspillage alimentaires, un dispositif mis en place par l’Espagne pour superviser et contrôler les actions des professionnels. Ce plan national vise à garantir que les objectifs législatifs de réduction des pertes et du gaspillage alimentaires soient atteints et peut inclure des contrôles, des audits, ainsi que des mécanismes de suivi et de sanction en cas de non-respect.
Le ministère de l’agriculture, de la pêche et de l’alimentation doit établir annuellement un rapport contenant les résultats de la mise en œuvre du plan de lutte national afin de suivre l’évolution et des mesures mises en place. Les administrations publiques doivent quant à elle enquêter et recueillir des données permettant de connaître l’ampleur du phénomène de pertes et du gaspillage alimentaires (volumes, causes et responsabilités).
La loi vise également à promouvoir le don de nourriture, en garantissant la sécurité et la traçabilité des aliments. Bien qu’encouragé, notamment au travers d’une déduction fiscale, le don reste facultatif : les professionnels peuvent aussi écouler leurs invendus alimentaires encore consommables en baissant les prix par exemple ou en les transformant. En revanche, il est interdit d’insérer dans un contrat une clause qui empêcherait l’autre partie de les donner.
Le recours au don est également encadré par une convention de don précisant les modalités de collecte, de transport, de stockage ainsi que les obligations des parties.
L’association bénéficiaire a la possibilité de refuser le don, sous réserve de motiver son refus. Elle est également tenue de respecter plusieurs exigences telles que : fournir des informations sur les denrées alimentaires aux personnes qui reçoivent la nourriture ; assurer la traçabilité des produits donnés au moyen d’un système d’enregistrement des entrées et sorties de denrées alimentaires reçues et livrées ; maintenir de bonnes pratiques d’hygiène dans la conservation et la manipulation des aliments ou encore donner sans discrimination.
La loi a enfin pour objectif de sensibiliser et d’informer les consommateurs. Elle impose pour cela aux pouvoirs publics de promouvoir des campagnes d’information sur la réduction du gaspillage alimentaire. Cette problématique sera d’ailleurs intégrée dans les programmes éducatifs dès le plus jeune âge.
Le texte met également l’accent sur l’importance de différencier les types de dates figurant sur les produits alimentaires : les produits comportant une date limite de consommation (DLC) présentent un risque pour la santé s’ils sont consommés une fois la date expirée. À l’inverse, les produits ayant une date de durabilité minimale (DDM) peuvent être consommés après cette date. Leur qualité peut être altérée mais ils peuvent encore être consommés en toute sécurité plutôt que d’être jetés. Cette mesure est d’ores et déjà à l’œuvre en France où les produits alimentaires comportant une DDM peuvent être accompagnés d’une mention informant les consommateurs que le produit reste consommable après cette date.
À l’échelle des restaurants, les doggy bags sont également fortement encouragés. À l’instar de la France, l’Espagne impose désormais aux établissements de la restauration de fournir gratuitement des contenants réutilisables ou facilement recyclables afin de permettre aux clients d’emporter les restes de leur repas.
L’Espagne est le troisième pays de l’Union européenne, après la France et l’Italie, à adopter une loi spécifique contre le gaspillage alimentaire. Cette dynamique s’inscrit dans un contexte plus large de renforcement des politiques européennes en matière de durabilité alimentaire.
L’efficacité de la loi espagnole sur la prévention des pertes et du gaspillage alimentaire reposera sur sa mise en œuvre concrète et la rigueur du contrôle exercé. L’exemple de la loi française, adoptée il y a neuf ans, offre un cadre d’évaluation utile pour apprécier les leviers efficaces et les résultats mesurables d’une telle politique.
En effet, malgré l’ambition initiale, un rapport parlementaire publié trois ans après l’entrée en vigueur de la loi Garot a mis en évidence l’insuffisance de moyens pour réaliser des contrôles. La destruction des invendus, notamment par la pratique de la javellisation, fait l’objet de très peu de contrôles effectifs et est faiblement sanctionnée.
L’Espagne a quant à elle intégré dans cette loi un dispositif national de contrôle des pertes et du gaspillage alimentaires, articulé autour d’un mécanisme de suivi régulier assuré par le ministère de l’agriculture, de la pêche et de l’alimentation et des plans de prévention fournis par les opérateurs économiques.
Reste à déterminer si ces outils, pensés pour garantir une application rigoureuse et homogène du texte, seront suffisamment dotés pour produire des effets concrets. À terme, c’est bien sa capacité à induire des changements structurels dans les pratiques économiques et sociales qui permettra d’en juger la portée réelle.
Clémence Lepla a reçu des financements de la Région des Hauts-de-France et de l'Université de Lille.
30.06.2025 à 17:25
Michael Carroll, Reader / Associate Professor in Reproductive Science, Manchester Metropolitan University
Démangeaisons, brûlures, œdème, voire difficultés respiratoires… chez certaines femmes, ces symptômes se manifestent quelques instants après les rapports sexuels. En cause, une allergie particulière, l’hypersensibilité au liquide séminal (HLS). Parfois confondue avec d’autres problématiques, cette réaction pourrait concerner un nombre de femmes plus important qu’on ne l’imaginait jusqu’ici.
L’hypersensibilité au liquide séminal (HLS) est un trouble rare, quoique probablement sous-diagnostiqué. Cette réaction n’est pas provoquée par les spermatozoïdes, mais par les protéines présentes dans le liquide séminal, le liquide qui transporte ces derniers. L’hypersensibilité au liquide séminal a été documentée première fois documentée en 1967, après l’hospitalisation d’une femme victime d’une « violente réaction allergique » survenue durant un rapport sexuel. Elle est aujourd’hui reconnue comme une hypersensibilité de type I, ce qui la place dans la même catégorie que le rhume des foins et les allergies aux cacahuètes ou aux poils de chat.
Les symptômes qui en résultent s’étendent sur un large spectre, qui va de manifestations bénignes à des troubles graves. Certaines femmes souffrent de réactions locales : brûlures, démangeaisons, rougeurs et œdème au niveau de la vulve ou du vagin. D’autres présentent des symptômes généralisés : urticaire, respiration sifflante, vertiges, nez qui coule, voire choc anaphylactique, une réaction immunitaire potentiellement mortelle.
Jusqu’en 1997, on estimait que l’HLS touchait moins de 100 femmes dans le monde. Mais une étude dirigée par l’allergologue Jonathan Bernstein a montré que, parmi les femmes rapportant des symptômes après avoir eu des rapports sexuels, près de 12 % présentaient un tableau compatible avec une HLS. J’ai moi-même une petite enquête en 2013 (résultats non publiés) et obtenu un taux similaire.
Mais le chiffre réel pourrait être encore plus élevé. En effet, de nombreux cas ne sont pas signalés, ou sont mal diagnostiqués, les symptômes étant attribués à tort à des infections sexuellement transmissibles, à des problèmes de mycose, voire à une « sensibilité générale ». Un indice révélateur permet cependant d’orienter le diagnostic : les symptômes disparaissent lorsqu’un préservatif est utilisé. En 2024, une revue de littérature a corroboré ces résultats, suggérant que l’HLS est à la fois plus fréquente et plus souvent méconnue qu’on ne le pensait.
L’allergène principal semble être la kallicréine prostatique ou antigène spécifique de la prostate (PSA) : une protéine présente dans le liquide séminal. Celle-ci est systématiquement présente, quel que soit le partenaire. Autrement dit, une femme présentant cette allergie présentera une réaction au sperme de n’importe quel homme, pas seulement à celui d’un compagnon spécifique.
Des preuves de l’existence d’une réactivité croisée ont également été mises en évidence. Ainsi, Can f 5, une protéine présente dans les squames des chiens est structurellement similaire à l’antigène PSA humain. De ce fait, certaines femmes allergiques aux chiens peuvent également présenter une allergie au sperme. En 2007, des cliniciens ont également décrit le cas d’une jeune femme ayant développé une urticaire diffuse ainsi que des difficultés à respirer après avoir eu un rapport sexuel avec son compagnon. Celui-ci avait consommé peu de temps auparavant des noix du Brésil, souvent impliquées dans les réactions allergiques. Il semblerait que la réaction de la jeune femme ait été provoquée par la présence de protéines de noix dans le sperme de son partenaire.
La première étape pour poser un diagnostic de HSP consiste à établir un historique sexuel et médical détaillé. Celui-ci est ensuite généralement suivi par la réalisation d’analyses sanguines destinées à détecter les anticorps IgE anti-PSA, ou de tests cutanés avec le liquide séminal du partenaire.
Lors de nos travaux de recherche, nous avons démontré que des tests effectués avec des spermatozoïdes lavés, donc dépourvus de liquide séminal, n’ont pas engendré de réaction chez des femmes présentant habituellement des symptômes allergiques. Ces résultats confirment que le déclencheur allergique n’est pas la cellule spermatozoïde elle-même, mais bien les protéines du liquide séminal.
Soulignons que les femmes ne sont pas les seules susceptibles de développer ce type d’allergie. Certains hommes peuvent aussi être allergiques à leur propre sperme. Cette pathologie, connue sous le nom de syndrome de la maladie post-orgasmique, provoque des symptômes pseudo-grippaux – fatigue, brouillard cérébral et courbatures – immédiatement après l’éjaculation. On suppose qu’il s’agit d’une réaction auto-immune ou allergique. Le diagnostic reste complexe à poser, cependant il arrive qu’un test cutané mettant en œuvre le sperme puisse se révéler positif.
L’hypersensibilité au liquide séminal n’engendre pas directement l’infertilité, mais elle peut compliquer le projet de conception. En effet, éviter l’allergène – ce qui constitue la solution la plus efficace pour lutter contre la plupart des allergies – n’est pas envisageable pour un couple qui souhaite concevoir…
Parmi les traitements possibles figurent la prise d’antihistaminiques en prophylaxie (qui consiste à prendre des médicaments antiallergiques avant l’exposition supposée à l’allergène, afin de prévenir ou d’atténuer les réactions), les traitements anti-inflammatoires et la désensibilisation (par administration progressive de liquide séminal dilué). Dans les cas les plus sévères, les couples peuvent recourir à une fécondation in vitro effectuée avec des spermatozoïdes lavés, ce qui permet d’éviter le contact avec les allergènes à l’origine de la réaction.
Il est important de souligner que l’hypersensibilité au liquide séminal n’est pas une cause d’infertilité. De nombreuses femmes qui en sont atteintes ont pu avoir des enfants, certaines naturellement, d’autres en ayant recours à une assistance médicale.
La méconnaissance de l’hypersensibilité au liquide séminal tient probablement au fait que les symptômes liés aux rapports sexuels sont souvent passés sous silence par les patientes. La gêne, la stigmatisation et le manque de sensibilisation des médecins à cette question font que bien des femmes souffrent en silence.
Dans l’étude de menée en 1997 par Bernstein et ses collaborateurs, près de la moitié des femmes présentant des symptômes après des rapports sexuels n’avaient jamais été testées pour une hypersensibilité au liquide séminal. Durant des années, elles se sont donc vues poser un diagnostic erroné, et prescrire un traitement inadapté.
En définitive, si vous ressentez systématiquement des démangeaisons, des douleurs ou une sensation de malaise après un rapport sexuel et que ces symptômes ne surviennent pas lors d’un rapport protégé par préservatif, il est possible que vous souffriez d’hypersensibilité au liquide séminal.
Il est temps de braquer les projecteurs sur cette affection trop méconnue, pour que cette question soit enfin abordée en consultation.
Michael Carroll ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.06.2025 à 15:49
Jye Marshall, Lecturer, Fashion Design, School of Design and Architecture, Swinburne University of Technology
Rachel Lamarche-Beauchesne, Senior Lecturer in Fashion Enterprise, Torrens University Australia
Papesse de la mode, Anna Wintour, 75 ans, quitte la toute-puissante rédaction en chef de l’édition américaine de Vogue. Icône de la pop culture, la directrice artistique a inspiré le personnage de diva hautaine du livre le Diable s’habille en Prada (2003) et est citée dans les chansons des rappeurs Azealia Banks ou Jay Z. Sachant joué de son image, la journaliste britanno-américaine a fait un caméo dans le film Ocean’s Eleven, une apparition dans Zoolander 1 puis 2 et a même son personnage chez les Simpsons. Éternelle figure d’influence, Anna Wintour conservera un poste de direction au sein du groupe de presse Condé Nast.
Après trente-sept ans de règne, Anna Wintour, poids lourd de l’industrie de la mode, quitte ses fonctions de rédactrice en chef de l’édition états-unienne du magazine Vogue.
Il ne s’agit toutefois pas d’une retraite, puisque Mme Wintour conservera ses fonctions de responsable du contenu de toutes les marques, au niveau mondial, du groupe de presse de mode et style de vie Condé Nast (propriétaire de Vogue et d’autres publications telles que Vanity Fair et Glamour) et de directrice de l’édition internationale du magazine de mode, Vogue World.
Néanmoins, le départ de Mme Wintour de l’édition américaine du magazine est un fait marquant pour l’industrie de la mode qu’elle a, à elle seule, changée à jamais.
Les magazines de mode tels que nous les connaissons aujourd’hui ont été formalisés pour la première fois au XIXᵉ siècle. Ils ont contribué à établir la « théorie du ruissellement de la mode », selon laquelle les tendances étaient traditionnellement dictées par certaines élites de l’industrie, notamment les rédacteurs en chef des principaux magazines.
Le Vogue états-unien lui-même a été créé à New York en 1892 par l’homme d’affaires Arthur Baldwin Turnure. Le magazine s’adressait à l’élite de la ville et couvrait initialement divers aspects de la vie de la haute société. En 1909, Vogue est racheté par Condé Nast. Dès lors, le magazine s’impose de plus en plus comme une pierre angulaire de l’édition de mode.
La période qui a suivi la Seconde Guerre mondiale a particulièrement ouvert les portes au consumérisme de masse de la mode et à l’expansion de la culture des magazines de mode.
Wintour a été nommée rédactrice en chef du Vogue US en 1988. Le magazine a alors pris un tournant moins conservateur et a vu son influence sur le plan culturel grandir.
Les choix éditoriaux audacieux de Wintour ont refaçonné la presse de mode, notamment les couvertures de magazines. Ses choix ont à la fois reflété et dicté l’évolution de la culture de la mode.
La première couverture de Vogue, publiée en 1988, mélangeait des vêtements de haute couture (Christian Lacroix) et des marques grand public (jeans Guess délavés), ce qui n’avait encore jamais été fait. C’était aussi la première fois qu’une paire de jeans apparaissait en couverture de Vogue, ce qui a parfaitement planté le décor d’une longue carrière passée à pousser le magazine à explorer de nouveaux domaines.
Wintour a aussi été une des premières à avoir placé les célébrités (et pas simplement les mannequins et les modèles) au centre du discours sur la mode. Tout en s’appuyant sur de grands noms tels que Beyoncé, Madonna, Nicole Kidman, Kate Moss, Michelle Obama et Oprah Winfrey, elle a donné sa chance à des stars montantes, àdes jeunes mannequins qu’elle mettait en couverture et dont elle propulsait les carrières.
L’héritage de Wintour à Vogue a consisté à faire passer la mode d’un défilé frivole à une industrie puissante, qui n’a pas peur d’affirmer ses choix. C’est particulièrement vrai lors du Met Gala, qui se tient chaque année pour célébrer l’ouverture d’une nouvelle exposition sur la mode au Metropolitan Museum of Art’s Costume Institute (New York).
Au départ, en 1948, c'était une simple soirée annuelle de collecte de fonds pour le Met, et c’est en 1974 que l’évènement a été pour la première fois associé à une exposition de mode.
Wintour a repris les rênes du Met Gala en 1995 et a fait d’une soirée de charité un rendez-vous prestigieux, haut lieu de brassage entre l’histoire et la mode, notamment en invitant des artistes en vue du cinéma ou de la mode.
Cette année, le thème du gala et de l’exposition Superfine : Tailoring Black Style porte sur le stylisme noir à travers l’histoire. À une époque où les États-Unis sont confrontés à une grande instabilité politique, Wintour a été célébrée pour le rôle qu’elle a joué dans l’élévation de l’histoire des Noirs grâce à cet événement.
Cependant, si son influence culturelle ne peut être mise en doute, l’héritage de Wintour au Vogue états-unien n’est pas sans controverses. Ses querelles sans fin avec l’organisation de défense des animaux PETA en particulier – en raison de son soutien indéfectible à la fourrure – ont été longtemps minimisées.
En 2005, Wintour a été directement visée par les militants anti-fourrure : a elle été entartée alors qu’elle quittait un défilé de Chloé. Cette affaire n’a jamais vraiment été réglée. Vogue a continué à présenter des vêtements en fourrure, alors même que les consommateurs ont tendance à se détourner des matières animales, les fourrures en premier lieu.
La mode devient de plus en plus politique. Il reste à voir comment des magazines tels que Vogue vont réussir à appréhender et embrasser ce virage.
blogs de mode au cours des dernières décennies a donné naissance à une vague d’influenceurs de la mode, avec des foules d’adeptes, qui remettent en question la structure unidirectionnelle du « ruissellement » de l’industrie de la mode.Aujourd’hui, les réseaux sociaux ont dépassé l’influence des médias traditionnels, tant à l’intérieur qu’à l’extérieur du secteur de la mode. Le pouvoir des rédactrices de mode telles qu’Anna Wintour s’en voit considérablement diminué.
Le départ de Mme Wintour de son poste de rédactrice en chef fera couler beaucoup d’encre, mais jamais autant que celle qui aura permis d’imprimer tous les textes dont elle a supervisé la parution, aux manettes du plus grand magazine de mode du monde.
Rachel Lamarche-Beauchesne a été affiliée au Animal Justice Party (Parti de la justice animale en Australie)
Jye Marshall ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.06.2025 à 15:01
Mélanie Bourdaa, Professeure en Sciences de l'Information et de la Communication, Université Bordeaux Montaigne
Arnaud Alessandrin, Sociologue, Université de Bordeaux
À travers Querer et Adolescence, deux miniséries venues d’Espagne et du Royaume-Uni, 2025 aura vu la fiction européenne s’attaquer de front aux violences de genre et aux modèles de masculinité. Au-delà de leurs récits, ces œuvres posent une question cruciale : que peut la fiction pour sensibiliser à ces enjeux, dans les écoles, dans la sphère privée, comme dans l’espace public ?
On entend souvent que les séries influencent celles et ceux qui les regardent. Et généralement cette influence est décrite comme négative : les séries traduiraient et amplifieraient les stéréotypes, les violences, etc. Ce postulat est très éloigné des travaux de recherche. D’une part, ceux-ci démontrent que le public est (inégalement) actif, notamment en créant du discours face à ces imaginaires. D’autre part, les séries ne participent pas qu’à la diffusion de stéréotypes : elles les transforment et les tordent également.
Adolescence est une minisérie britannique de quatre épisodes qui a été diffusée en mars 2025 sur Netflix. Elle suit la mise en accusation pour meurtre (d’une camarade de classe) d’un garçon de 13 ans. Abordant simultanément les questions de masculinité, de féminicide et de l’impact des réseaux sociaux, la série reçoit un fort écho en France et devient le centre d’une discussion sur l’éducation des garçons et le rôle de l’école dans la déconstruction de la masculinité.
Querer est également une minisérie de quatre épisodes, mais tournée et conçue en Espagne. Elle a été diffusée en France en juin 2025 sur Arte. Elle suit Miren, qui porte plainte contre son mari pour viols répétés, après trente ans de mariage. La série met notamment en lumière les réactions et le soutien contrastés des proches, la difficulté de ce type de procès et la normalisation des violences au sein des couples. Diffusée peu après le procès médiatisé de Mazan, la série bénéficie d’un important bouche-à-oreille.
Les séries participent de la mise à l’agenda politique et médiatique de ces questions. C’est d’ailleurs l’un de leurs objectifs assumés. Le réalisateur de Querer, Eduard Sala, a déclaré que la série visait « non seulement à divertir mais aussi à changer le monde ». Le scénariste d’Adolescence, Stephen Graham, a déclaré souhaiter que « la série provoque des dialogues entre les parents et leurs enfants », considérant qu’elle « n’est que le début du débat ».
Querer comme Adolescence sont des dispositifs efficaces pour parler des violences et harcèlements sexistes et sexuels (VHSS) car elles ont su trouver des relais médiatiques importants dans la presse, à la radio et à la télévision.
Mais ce n’est pas tout, si la sensibilisation par les séries se fait, c’est également que le public en parle, notamment le public le plus engagé : les fans. La série devient un levier pour entamer des conversations dans les communautés en ligne, pour sensibiliser à ces questions ou pour partager son expérience et ainsi mettre en lumière les réalités des VHSS.
A contrario, la série peut également provoquer des réactions de cyberviolence et de cyberharcèlement de la part de publics toxiques. Il suffit pour cela de regarder les commentaires des posts Facebook sur la série Querer, où féministes et masculinistes argumentent sur les thèmes de la série. Pour la série Adolescence, les commentaires sur les comptes Instagram de fans mentionnent le besoin de voir la série pour mieux comprendre les adolescents et leur vie privée et sociale.
En juin 2025, s’inspirant d’une mesure prise au Royaume-Uni, la ministre de l’éducation nationale Élisabeth Borne a proposé que la série Adolescence soit utilisée comme support pédagogique à partir de la classe de quatrième. Querer (qui a reçu le grand prix au festival Séries Mania) semble emprunter le même chemin, notamment dans des formations en psychologie ou en criminologie.
Ce n’est pas la première fois que des séries sont mobilisées pour porter un discours de politique publique. En 2017, la série 13 Reasons Why, qui traite du harcèlement allant jusqu’au suicide d’une adolescente, avait bénéficié d’un site ressource avec des dispositifs de prévention et d’un documentaire post-série (Beyond the Reasons).
Utilisée dans des collèges et lycées anglophones avec des guides d’accompagnement pour éducateurs et parents, la série emboîte le pas d’une autre, plus connue encore : Sex Education. Celle-ci est la première teen serie portant aussi explicitement sur les questions de sexualité et de relations amoureuses, dans une approche sex-positive, très tolérante et ayant toujours à cœur la question du consentement. Un guide, « Le petit manuel Sex Education », a été mis à disposition pour des ateliers de prévention et de sensibilisation. Il est utilisé dans certains établissements scolaires. Bref, l’implémentation de séries dans des politiques éducatives ou de prévention : ce n’est pas tout à fait nouveau.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Mais ne nous trompons pas : les séries, seules, ne constituent pas des supports de sensibilisation autonomes. Encore faut-il penser autour d’elles des dispositifs de médiation.
Les séries sont de plus en plus nombreuses à avertir de scènes de violences et à renvoyer vers des centres d’aide. Par exemple à partir de la saison 2, chaque épisode de 13 Reasons Why commence par un message d’avertissement : « Cet épisode contient des scènes qui peuvent heurter la sensibilité de certains spectateurs. » Un avertissement vidéo avec les acteurs précède également la diffusion : « Si vous êtes concerné par ces sujets, parlez-en à un adulte ou consultez le site 13reasonswhy.info ».
La série Sex Education s’est aussi prêtée à cet exercice : lors d’un épisode montrant une agression sexuelle dans un bus, des ressources officielles ont été diffusées sur les réseaux sociaux de la série et de la BBC, renvoyant notamment vers le centre d’aide britannique aux victimes de viol.
Les séries françaises sont plus discrètes dans l’intégration directe de liens dans les épisodes. Dans Skam, une série Slash/France Télévision qui suit le quotidien d’élèves de lycée, des messages apparaissent avec des liens vers le 3018 (cyberviolences), le 3919 (violences conjugales) ou vers SOS Homophobie à la fin de certains épisodes (notamment dans les saisons 4, 5 et 6, qui traitent respectivement de l’islamophobie, de la santé mentale et des violences contre partenaire intime). Le site Slash propose une page complète « Besoin d’aide », mentionnée dans les dialogues ou dans l’habillage final de la série.
Si sensibiliser aux questions de violences, de discrimination ou de santé mentale semble commencer à faire partie du « cahier des charges » implicite des séries qui abordent ces thématiques, séries et campagnes de sensibilisation publique ne sont pas en concurrence. Les séries résonnent avec le cadre légal de chaque pays de diffusion : la législation contre les violences de genre n’est pas la même en Espagne, en France ou au Royaume-Uni, et sa réception est propre à chaque contexte.
Dans certains cas, séries et politiques publiques peuvent gagner à jumeler leurs discours et leurs actions en matière de prévention et de sensibilisation. L’une des conditions est que les personnes en charge des actions de sensibilisation soient formées.
L’annonce aux agents de l’éducation nationale de l’arrivée d’Adolescence parmi les supports de sensibilisation pose ainsi question. Chez un grand nombre d’enseignants et d’infirmiers scolaires, les séries ne font pas partie de la culture pédagogique en routine. Sans culture commune (on pense notamment à des formations à l’outil sériel), il paraît abrupt de prétendre qu’une série puisse lutter efficacement contre les violences. D’autant plus que la série agit comme un révélateur de la parole, mais aussi des souvenirs – y compris post-traumatiques.
À cet égard, l’outil qu’est la série nécessite un double accompagnement par des encadrants formés à la fois à ce support mais aussi à l’accueil et à l’accompagnement de la parole.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 12:17
Hédia Zannad, Associate professor, Neoma Business School
Loréa Baïada-Hirèche, Maître de conférences en management des ressources humaines, Institut Mines-Télécom Business School
Pour les salariés sans diplôme ou les réfugiés sans qualification reconnue en France, l’intégration professionnelle peut être un chemin semé d’embûches. Une étude montre la possibilité de contourner l’absence de réseaux ou de titres académiques en misant sur son capital psychologique.
Si la centralité du diplôme dans le processus de recrutement est une affaire de bon sens, seules les compétences et les performances devraient être prises en compte par la suite. Or, c’est rarement le cas. Bienvenue en France, où prévaut la « tyrannie du diplôme initial ».
Notre article « Quand tout est à (re)construire : la dynamique des ressources de carrière en contexte préjudiciable » est le fruit hybride du croisement entre deux recherches menées et publiées indépendamment l’une de l’autre. La première s’intéresse à la carrière des salariés peu qualifiés d’une grande entreprise française de télécoms – que nous appellerons T par souci d’anonymisation. La seconde s’interroge sur le devenir professionnel des réfugiés en France en provenance de zones de conflit telles que la Syrie ou l’Afghanistan.
Ces deux populations ont en commun de souffrir d’un capital sociologique – ressources économiques, sociales et culturelles – déficient au regard de leur environnement professionnel. Les premiers sont désavantagés par l’insuffisance de titres dans un environnement qui valorise les diplômes d’excellence, les seconds par la disqualification de leur bagage culturel et la disparition de leurs réseaux sociaux dans l’exil.
Alors, comment comprendre que certains réussissent sur le plan professionnel malgré l’absence ou le manque de qualifications ?
Pour répondre à cette question, nous avons fait appel au concept de « ressources de carrière ». Cette notion est composée des ressources psychologiques et sociales – les réseaux de proches –, des ressources en capital humain – éducation, formation, expérience – et des ressources identitaires – conscience de son identité professionnelle – qu’un individu peut mobiliser au service de sa carrière. À la lueur de ce concept, nous nous sommes appuyées sur l’analyse de 42 entretiens menés auprès de 24 salariés et de 18 réfugiés, suivant la méthodologie des récits de vie. L’enjeu : comprendre comment ces individus parviennent à développer des ressources de carrière au service de leur réussite professionnelle, à partir d’un capital sociologique faible.
Nos résultats montrent que près de la moitié des personnes interrogées, peu diplômées – ou aux qualifications non reconnues en France –, sont parvenues à s’inscrire dans des trajectoires professionnelles plus ascendantes que ce qu’une analyse sociologique aurait pu laisser prévoir.
Comment ? En étant capables de transformer leurs ressources personnelles – capital psychologique et valeurs personnelles – en ressources pour faire carrière.
Ce que révèle notre étude, c’est la puissance du capital psychologique – également nommé « PsyCap » – pour initier ou relancer une carrière… même en l’absence de capitaux sociologiques traditionnels. Le PsyCap est défini dans le cadre de la psychologie positive comme l’ensemble des forces et capacités psychologiques qui peuvent être développées pour améliorer la performance professionnelle. Il est constitué de quatre dimensions selon le professeur de gestion Fred Luthans : la confiance, l’optimisme, l’espoir et la résilience.
La confiance se rapporte à la foi qu’a une personne en sa capacité à transformer ses efforts en succès pour relever un défi.
L’optimisme renvoie à une attribution positive à propos du succès présent ou à venir.
L’espoir signe l’orientation résolue en direction des objectifs fixés par l’individu et, si nécessaire, son aptitude à faire bifurquer les chemins qui y conduisent pour remplacer ceux qui ont été contrariés.
La résilience se réfère à l’aptitude à rebondir, et même au-delà, lorsque l’individu rencontre de l’infortune.
L’analyse des récits de salariés et de réfugiés interviewés révèle trois processus distincts pour faire carrière sans diplôme ou réseaux sociaux en France : la construction, l’activation et l’obstruction.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
La construction concerne des personnes sans diplôme qui s’appuient sur leurs ressources psychologiques – résilience, détermination, optimisme, confiance en soi – ainsi que sur leurs qualités éthiques – altruisme, gratitude, humilité – pour bâtir leur parcours. L’ensemble de ces ressources psychologiques et éthiques agissent comme autant de leviers pour se créer des opportunités et transformer des obstacles en tremplins professionnels. Samuel, entré chez T sans qualification, gravit les échelons grâce à des formations, une validation des acquis (VAE) et l’appui de son management, jusqu’à un poste de direction :
« Une de mes qualités, c’est d’être assez fiable et quelqu’un à qui on peut confier des choses. Des managers ont cru en moi au-delà de ce que j’avais montré. Ils m’ont ouvert des champs possibles. »
La trajectoire des personnes interviewées montre que leur engagement attire le soutien de leur entourage professionnel. Il leur permet de trouver un emploi stable, d’acquérir des compétences par l’expérience et de construire petit à petit un projet professionnel.
Le deuxième groupe de répondants, qui représente un tiers de notre échantillon, suit une autre forme de parcours. S’ils détiennent un bon capital initial – diplôme, expérience –, ils s’appuient sur leurs ressources psychologiques pour faire carrière, selon un processus que nous avons appelé « activation ». Par exemple, Sami, réfugié et ex-journaliste iranien, mobilise ses acquis et reprend des études après une période d’adaptation difficile en France :
« Je travaillais dans le journal le plus prestigieux d’Iran, au poste le plus prestigieux… J’étais reconnu dans mon domaine… Je suis arrivé ici et je n’ai été transféré vers personne, j’ai dû repartir de zéro. Je suis devenu professeur particulier pour deux enfants parce qu’on me rendait un service ! Après cinq-six mois, j’ai trouvé un emploi de journaliste… Après dix-neuf mois, ils m’ont proposé un CDI. »
Ce processus d’activation concerne notamment les réfugiés dotés d’un capital humain initial solide – maîtrise de la langue française, études supérieures dans le pays d’origine. Leur réussite professionnelle est fondée sur leurs ressources psychologiques qui les aident à alimenter des efforts soutenus dans le sens de leur intégration. Elles semblent faciliter le travail de deuil, préalable nécessaire pour redémarrer leur vie dans un nouveau contexte.
Un quart de nos répondants éprouve un sentiment d’échec professionnel, alors qu’ils étaient pourtant dotés en capital sociologique.
Ils sont freinés par un état d’esprit négatif ou par un sentiment d’injustice, selon un mécanisme que nous avons appelé « obstruction ». Ils se focalisent sur les obstacles et refusent certaines opportunités. Certains réfugiés qui détenaient des positions privilégiées dans leur pays d’origine ne se résolvent pas à accepter un travail jugé trop sous-dimensionné par rapport à eux. On peut citer l’exemple de Néda, ingénieure, docteure et titulaire d’un MBA qui, malgré tous ses diplômes, perçoit sa carrière chez T de manière pessimiste, dénonçant des discriminations et rejetant le fonctionnement des réseaux internes :
« Ce ne sont pas les performances seulement : le réseau, la manière de se vendre, être au bon moment au bon endroit en discutant avec la bonne personne. À chaque fois que j’ai répondu à un poste ouvert sur Internet, il y avait toujours quelqu’un qui l’obtenait, cela me fait dire que tout le monde n’est pas égal. »
Peut-on conclure de cette recherche que la théorie du capital sociologique de Bourdieu pêche par excès de pessimisme ?
Sa théorie de l’espace social souligne l’importance des facteurs culturels et symboliques dans la reproduction des hiérarchies sociales. Si on s’en tient à cette lecture, la réussite est essentiellement liée à la détention de capitaux culturels (compétences, titres, diplômes) et symboliques, c’est-à-dire toute forme de capital culturel, social ou économique ayant une reconnaissance particulière au sein de la société. Cette vision réduit les chances de ceux qui en sont démunis.
Notre étude montre que si les inégalités de départ pèsent lourd, elles ne sont pas une fatalité. À condition de disposer ou d’acquérir de ressources psychologiques telles que la confiance en soi, l’optimisme, l’espoir, la résilience, il est possible de contourner l’absence de réseaux ou de diplômes en misant sur sa capacité à rebondir, à apprendre, à espérer. Et, parfois, à réussir là où rien ne le laissait présager.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 12:17
Aneta Hamza-Orlinska, Professeure assistante en gestion des ressources humaines, EM Normandie
Jolanta Maj, Assistant Professor
Beaucoup de travailleurs free-lance éprouvent ou disent éprouver un sentiment de déconnexion vis-à-vis de l’organisation qui les emploie et de leurs collègues. Cela génère chez eux des sentiments d’aliénation, de stress et de frustration qui relèvent toutefois davantage de l’isolement professionnel que social. Comment les entreprises peuvent-elles repérer ces signaux faibles et mettre en place des mesures pour mieux les intégrer ?
Le travail indépendant a connu un fort essor ces dernières années avec le développement de la « gig economy », ou « économie des petits boulots ». Apparues avec les plateformes collaboratives telles qu’Uber ou Deliveroo qui n’emploient pas de salariés, mais travaillent avec des micro-entrepreneurs, ces nouvelles formes de travail ont engendré un malaise de plus en plus important chez les personnes ayant choisi ce statut professionnel. Si l’indépendance présente des avantages, elle rime aussi souvent avec isolement.
Les travailleurs free-lance se retrouvent, tant physiquement que mentalement, déconnectés de leurs collègues et de l’organisation, cumulant souvent plusieurs emplois et travaillant à distance. Malgré les opportunités d’intégrer des communautés virtuelles, ils demeurent particulièrement vulnérables à l’isolement, plus encore que les salariés permanents ou ceux en télétravail. Par ailleurs, leurs interactions avec les managers, superviseurs ou prestataires de services tendent à se réduire à des échanges strictement transactionnels, accentuant ainsi leur sentiment de solitude, qui demeure essentiellement professionnel.
Les entreprises font de plus en plus appel aux travailleurs en free-lance, qui opèrent parallèlement aux salariés traditionnels. Cependant, les dispositifs mis en œuvre pour identifier et intégrer ces professionnels restent identiques à ceux employés pour les équipes permanentes, alors qu’une intégration véritablement inclusive devrait prendre en compte la nature autonome, asynchrone et transactionnelle de leur mode de travail.
À lire aussi : Le management des travailleurs indépendants nécessite une communication adaptée
Les travailleurs en free-lance peuvent ressentir l’isolement professionnel sans forcément se sentir isolés socialement. En effet, la recherche établit une distinction claire entre ces deux concepts.
L’isolement social découle du fait que les besoins émotionnels ne sont pas comblés, notamment en raison de l’absence de liens spontanés et de relations de travail que l’on retrouve habituellement en présentiel, un phénomène exacerbé par le télétravail. À l’inverse, l’isolement professionnel se traduit par le sentiment d’être déconnecté des autres et privé d’informations essentielles, compromettant ainsi les interactions clés au sein de l’entreprise.
Bien que ces deux formes d’isolement soient liées à la séparation d’autrui, l’isolement social se caractérise par l’absence de proximité avec les autres, tandis que l’isolement professionnel se manifeste par une déconnexion perçue vis-à-vis des collègues ou par l’accès insuffisant aux ressources et à l’information nécessaires pour accomplir le travail.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Les travailleurs indépendants se trouvent souvent géographiquement éloignés et n’aspirent pas nécessairement à établir des liens sociaux dans leur environnement professionnel. Parfois, ils sont amenés à collaborer sur des projets avec des salariés permanents ou d’autres free-lances dans un même espace, en ligne ou en présence physique. Pourtant, malgré ces interactions, ils se perçoivent souvent comme des externes, peu enclins à créer des liens sociaux, leur mission étant généralement limitée dans le temps.
Notre recherche, menée entre 2022 et 2025, se base sur une cinquantaine d’entretiens et l’observation de travailleurs indépendants employés par des plateformes ou des entreprises, révèle que ces travailleurs peuvent éprouver un isolement professionnel sans pour autant se sentir socialement appauvris. Pourquoi ?
Les travailleurs indépendants adoptent une approche purement professionnelle de leurs relations. Ils n’ont pas d’attentes sociales élevées dans le cadre professionnel, car ils perçoivent leur mission avant tout comme une transaction plutôt que comme une opportunité de tisser des liens personnels. Les indépendants compensent leur manque de socialisation sur leur lieu de travail en se connectant avec leur entourage personnel, amical et familial.
Leurs besoins affectifs se trouvent souvent en dehors du cadre professionnel. La différence avec les employés permanents est qu’ils bénéficient, en plus de leur réseau personnel, d’une socialisation quotidienne avec leurs collègues, souvent par des interactions informelles (conversations autour de la machine à café) reconnues comme favorisant la coopération et le développement du réseau professionnel en entreprise – ce dont les travailleurs en free-lance sont généralement moins concernés.
L’un des travailleurs indépendants interviewés dans le cadre de notre recherche, un copywriter ( en marketing, rédacteur de contenu web) de 50 ans, a déclaré :
« C’est très limitant sur le plan professionnel lorsqu’il y a des ressources auxquelles on ne peut pas accéder à cause de l’endroit où l’on se trouve. Je trouve cela très isolant. »
À l’inverse, beaucoup d’autres affirment, à l’image d’un webdesigner freelance (35 ans) :
« Je ne me sens pas isolé socialement. Je suis tout à fait à l’aise avec cela. »
Pour certains, la distance physique et la flexibilité, inhérentes au travail indépendant, ne sont pas perçues comme des obstacles, mais plutôt comme des atouts. L’absence de contraintes sociales imposées par un environnement de bureau traditionnel peut être libératrice et permettre une meilleure gestion de leurs interactions sociales. Pour d’autres types de freelances, notamment pour ceux ayant auparavant exercé en tant que salariés permanents en entreprise, une période d’adaptation peut être nécessaire pour s’ajuster à ce nouveau mode de travail.
Isolés d’un point de vue professionnel, ces travailleurs se retrouvent déconnectés. Ils n’ont pas de feed-back constructif de la part de leurs responsables de mission et se sentent négligés dans leur rôle professionnel. L’absence ou la nature négative du retour d’information empêche les travailleurs indépendants de sentir que leurs contributions sont reconnues, ce qui renforce leur sentiment d’isolement professionnel et limite leur capacité à ajuster et améliorer leur travail.
De plus, les échanges majoritairement transactionnels, souvent via des canaux numériques dépourvus de signaux non verbaux, rendent difficile l’établissement d’une véritable connexion avec les managers et l’accès aux informations nécessaires pour un travail efficace. Étant rarement intégrés aux processus décisionnels, ces travailleurs se retrouvent en marge des discussions stratégiques, accentuant ainsi leur déconnexion par rapport aux dynamiques organisationnelles et à l’évolution de leur rôle professionnel.
Les pratiques traditionnelles d’intégration ou d’inclusion, qu’elles soient sociales ou formelles, reposent sur l’hypothèse que la cohésion d’équipe et le sentiment d’appartenance se construisent par des interactions sociales régulières et des dispositifs d’inclusion institutionnalisés au sein des organisations.
Or, pour les travailleurs indépendants dont la relation avec l’organisation est essentiellement transactionnelle, ces mécanismes se révèlent inadaptés. Par conséquent, les dispositifs traditionnels, focalisés sur la socialisation, ne répondent pas aux enjeux spécifiques de ces travailleurs.
Il apparaît donc crucial de repenser l’intégration en adoptant une approche d’« inclusion professionnelle » qui privilégie une communication adaptée, la participation aux processus décisionnels et le renforcement des liens fonctionnels avec les acteurs organisationnels clés.
Pour les travailleurs indépendants, être intégrés dans la prise de décision concernant leurs tâches est particulièrement important, car ils sont recrutés pour leur expertise. Cela renforce le sentiment d’inclusion professionnelle, puisqu’ils peuvent voir les résultats de leur investissement et de leur travail.
Un autre élément clé est la communication : non seulement la diversité des outils de communication disponibles, mais aussi la capacité à transmettre efficacement les messages et à accéder aux informations nécessaires pour accomplir leurs missions, généralement fournies par le client ou un manager. Enfin, fournir un feed-back sur leur travail permet non seulement de les valoriser, mais aussi de leur faire comprendre leurs contributions et les attentes du manager.
Un aspect à garder en tête pour les responsables RH concerne la requalification des free-lances en CDI.
Cette possibilité se présente lorsque des travailleurs indépendants, jusque-là très autonomes et engagés dans une relation purement transactionnelle, commencent à s’intégrer davantage à l’équipe, à collaborer de façon rapprochée et à tisser des liens relationnels plus forts, ce qui réduit la distance physique et l’autonomie propres à leur statut initial. Les politiques RH ne soulèvent pas encore cette problématique, qui pourrait toutefois prendre de l’ampleur à mesure que le monde du travail évolue et se transforme.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 12:16
Youssef Souak, PhD - Assistant Professeur- INSEEC Business School, INSEEC Grande École
Khalil Aït Saïd, Maître de conférences / Associate Professor ISM-IAE, Institut Supérieur de Management – IAE de Versailles Saint-Quentin-en-Yvelines
Warda El Fardi, Maître de conférences en sciences de gestion, Université de Bordeaux
La rétention et la fidélisation des employés sont fréquemment citées comme des défis contemporains majeurs dans le monde du travail et la fonction publique n’est pas épargnée. Les nouveaux modes de management ont, en effet, ébranlé l’engagement de certains agents, convertis, malgré eux, à une forme de cynisme.
Une étude publiée par France Stratégie en 2024 soulignait une augmentation de la proportion des fonctionnaires démissionnaires au cours de la dernière décennie. Par exemple, la part des enseignants qui ont quitté les rangs de la fonction publique est passée de 2 % des effectifs en 2012 à 15 % en 2022.
Ce phénomène ne serait certainement pas si inquiétant si les démissions ne concernaient que les stagiaires ou les jeunes recrues qui découvrent le métier. Désormais, même des agents chevronnés démissionnent après plusieurs années de service.
L’évolution du management public conduit les agents à ressentir un manque de soutien de leur hiérarchie qui peut conduire au développement progressif d’une posture cynique vis-à-vis de la fonction étatique. Alors que les organisations publiques étaient jusqu’alors épargnées par la concurrence intense, les restructurations et les changements de politique de gestion sont devenus une réalité dans la fonction publique. Parmi les principales évolutions, notons l’essor des systèmes de rémunération liée à la performance et le constat de licenciements croissants. La loi de transformation de la fonction publique de 2019 et le recours croissant à des agents contractuels ont effectivement multiplié les possibilités pour se séparer des fonctionnaires.
À lire aussi : Vers une fonction publique moins attractive ?
Cette réalité connue sous le nom de « nouvelle gestion publique » a pris forme depuis le milieu des années 1980. Sa mise en œuvre s’est intensifiée pour permettre aux organisations publiques de s’adapter à un environnement de plus en plus exigeant. Cette hybridation du modèle managérial public a entraîné une perte de repères des fonctionnaires et un niveau de stress ressenti plus élevé chez les travailleurs par rapport à leurs homologues du secteur privé. Les conséquences sur leur bien-être se manifestent alors de différentes manières : perception d’une ambiguïté des valeurs et des objectifs du service public, manque de reconnaissance, incertitude croissante, perte de sens.
Les recherches se sont intéressées aux leviers de mobilisation des fonctionnaires au travail, notamment grâce au concept de motivation du service public. Ce phénomène désigne la « prédisposition à répondre à des motivations enracinées principalement ou exclusivement dans les institutions et organisations publiques ». Les fonctionnaires choisiraient alors spécifiquement une carrière dans le service public pour des raisons altruistes, animés par le désir de contribuer au bien-être des autres et de la société.
La tradition philosophique attribue à Diogène de Sinope (v.413-v.323 av. n. è.) la conception du cynisme comme un modèle d’insolence et de protestation se manifestant par des actes délibérément provocateurs. Dans le champ de la gestion, le cynisme peut être considéré comme la réaction négative d’un individu envers son employeur en raison du manque d’intégrité de l’organisation. Il comporte à la fois :
une dimension cognitive fondée sur la croyance que l’organisation manque d’intégrité,
une dimension affective relevant des émotions négatives naissantes,
et une dimension comportementale liée à des attitudes réactives et progressives telles que le retrait, le désinvestissement ou le désengagement.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Le cynisme devrait être une source de préoccupation majeure. Par exemple, une étude menée en 2019 par Dobbs et Do mettait en évidence l’inquiétude grandissante de l’armée américaine concernant les effets néfastes du cynisme sur le maintien de l’ordre et de la discipline dans ses rangs. Même constat en France, où une étude, menée par Sandrine Fournier en 2023 auprès d’enseignants, souligne la propagation du cynisme parmi les enseignants d’un établissement scolaire, qui mine leur attachement affectif, le sens donné à leur travail et finalement l’implication dans le suivi des résultats de leurs élèves.
Il faut alors comprendre comment une personne devient cynique ? Dans le secteur public, le cynisme trouve son fondement dans l’ambivalence et les paradoxes inhérents au discours réformateur. D’une part, on observe une rhétorique soulignant l’importance des valeurs républicaines d’entraide et de solidarité dans le service public, et d’autre part, on assiste à la mise en place d’une logique de rationalisation croissante pour sauver ce même service public.
Il devient particulièrement préoccupant lorsqu’il touche des fonctions vitales de la structure étatique. Une recherche menée en 2015 soulignait le rôle particulièrement important de l’inadéquation des valeurs et des discours dans le développement du cynisme et en particulier dans le secteur public. Cela s’expliquerait par le rôle du sens et de la vocation dans les choix de carrière des agents de la fonction publique. Certains évoquent la responsabilité des organisations publiques, dès lors, de promouvoir les politiques publiques avec un sens de la « mission » pour l’État et ses citoyens.
L’engagement des agents de la fonction publique repose à la fois sur une dimension axée sur la performance et sur le sens du dévouement. Dans cette perspective, il faut identifier le fonctionnaire rationnel et le fonctionnaire affectif. Ce dernier est attaché au sens et à la mission et se consacre à servir plutôt qu’à l’accomplissement de la tâche seulement. Or, l’intelligence émotionnelle et l’implication des fonctionnaires sont communément citées comme des leviers de qualité du service public.
Alors, pour enquêter plus en profondeur sur les causes du cynisme organisationnel et sur ses effets sur l’engagement des agents du service public, nous avons mené en 2024 une étude quantitative impliquant 321 fonctionnaires français, opérant dans les secteurs de la santé, de l’éducation et de la recherche.
Dans cette étude à paraître, nous avons considéré la théorie du contrat psychologique comme une grille d’analyse pertinente pour étudier le cas des fonctionnaires. La notion de contrat psychologique renvoie à l’ensemble des engagements fondés sur des croyances partagées et des engagements mutuels et qui sont rarement explicités formellement. Cette grille de lecture trouve son intérêt dans le contexte du changement pour comprendre comment des mutations dans les attentes réciproques peuvent affecter les attitudes et les comportements individuels. Nous nous sommes intéressés plus particulièrement à l’impact de ces attentes informelles sur l’engagement et à l’intention de quitter l’organisation des fonctionnaires.
Nos résultats montrent le rôle central du partage de valeurs. Les agents qui sont plus en phase avec les valeurs et le fonctionnement de l’organisation sont moins critiques à l’égard de ses échecs ou de ses lacunes. Les agents restent particulièrement attachés au sens, à la mission et à la vocation qu’à la volonté de faire carrière dans l’administration publique. Ainsi, lorsque leur conception du métier et leurs valeurs sont en phase avec ce qu’ils trouvent sur le terrain, les fonctionnaires développent un lien affectif fort avec leur institution. Ce lien pourrait expliquer la posture peu critique de ces agents, même lorsque leur employeur montre des défaillances ou une incapacité à tenir ses promesses.
D’un autre point de vue, nos résultats expliquent également les postures beaucoup plus critiques de ceux dont le contrat psychologique est rompu ou brisé. Il s’agit des agents qui ne comprennent pas les changements dans la logique institutionnelle parce qu’ils sont insuffisamment soutenus ou simplement incompris.
Notre recherche met en évidence différents profils :
les cyniques cognitifs ou affectifs qui resteront dans leur organisation, mais seront moins efficaces dans leurs tâches ;
et les cyniques comportementaux qui utilisent le dénigrement, la critique ou l’humour pour se distancier des ambiguïtés et des frustrations.
Pour les agents qui souhaitent rester fidèles et loyaux à leurs valeurs, ce désalignement entre imaginaire et réalité peut constituer une rupture de ce contrat psychologique. Il s’agirait alors pour eux de préférer la loyauté envers soi-même à la loyauté envers l’institution. Les salariés qui s’engagent en quête de sens au travail, en acceptant de faire des sacrifices en termes d’avantages matériels, peuvent revoir leurs conditions d’engagement lorsqu’ils ne sont plus convaincus que rester est un bon choix.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 12:16
Hippolyte d’Albis, Directeur de recherche au CNRS, Paris School of Economics – École d'économie de Paris
L’immigration de travail est devenue un sujet tellement passionnel que les réalités statistiques finissent pas en être oubliées. Or, loin des discours sur la submersion, l’immigration de travail reste un phénomène marginal et plutôt contrôlé. Si « grand remplacement » il y a, c’est celui de la raison par les affects.
Partenaire des Rencontres économiques d’Aix, The Conversation publie cet article. L’immigration sera le thème de plusieurs débats de cet événement annuel dont l’édition 2025 a pour thème « Affronter le choc des réalités ».
L’immigration suscite toujours des débats et controverses passionnés. Mais force est de constater que le cas spécifique de l’immigration pour raison professionnelle engendre des positions particulièrement polarisées. Ses partisans s’appuient sur sa longue histoire et mettent en avant tous ces « étrangers qui ont fait la France », des prix Nobel aux ouvriers des usines des Trente Glorieuses. Ses opposants avancent, quant à eux, l’idée qu’il est illogique de faire venir des étrangers pour travailler en France alors même qu’il y a tant de personnes sans emploi et que, facteur aggravant, le taux d’emploi des étrangers est inférieur à celui du reste de la population d’âge actif.
Du fait de son poids dans le débat politique, il est indispensable d’analyser l’immigration de façon rigoureuse. Les faits, souvent occultés par les passions, révèlent une réalité bien différente des discours convenus. L’immigration de travail en France, loin du raz-de-marée dénoncé, demeure un phénomène quantitativement marginal aux effets économiques bénéfiques à tous.
Tout d’abord, l’État français ne recrute plus de travailleurs à l’étranger depuis 1974.
Après avoir organisé pendant les Trente Glorieuses l’arrivée de six millions de travailleurs – d’abord d’Italie, puis d’Espagne, de Yougoslavie, du Maghreb et de Turquie –, la France a officiellement suspendu l’immigration de travail le 3 juillet 1974. Cette suspension a duré vingt-cinq ans avant d’être remplacée par un système de contrôle et de régulation des recrutements de travailleurs étrangers.
Mais la construction européenne a transformé la donne. L’Union européenne forme aujourd’hui un gigantesque marché du travail de 220 millions d’actifs, dont seulement 15 % résident en France. Du fait de l’article 45 du Traité sur le fonctionnement de l’Union européenne, le marché français est totalement ouvert à près de 190 millions de travailleurs européens. Paradoxalement, cette ouverture massive – qui rend ridicule l’idée d’une France fermée à l’immigration – génère des flux annuels inférieurs à 100 000 personnes, soit à peine 0,1 % de notre population.
La régulation par l’État ne concerne donc que les ressortissants des pays dits tiers, ceux dont les ressortissants sont soumis à une obligation de détenir un titre de séjour pour résider en France.
Avec Ekrame Boubtane, nous avons reconstitué l’évolution de cette immigration professionnelle depuis 2000 à partir des bases de données exhaustives du ministère de l’intérieur. Les chiffres sont sans appel : en moyenne annuelle, moins de 13 400 personnes ont obtenu un premier titre pour motif professionnel. Comparé aux 750 000 jeunes qui arrivent chaque année sur le marché du travail, ce flux représente un phénomène quantitativement marginal.
Cette immigration extraeuropéenne se décompose en trois catégories distinctes. La première concerne les personnes hautement qualifiées, baptisées « talents » par une terminologie révélatrice d’un certain mépris pour le reste de la population. Encouragée et mise en avant depuis la loi RESEDA de 1998, cette immigration, qui a la faveur de beaucoup de responsables politiques, a représenté 6 500 personnes en 2021.
À lire aussi : Rafles, expulsions… la gestion de l’immigration, illustration du tournant autoritaire de Donald Trump ?
La deuxième catégorie regroupe les salariés et saisonniers moins qualifiés mais disposant d’un contrat de travail français. Leur recrutement, soumis à un processus administratif lourd transitant par Pôle emploi (aujourd’hui, France Travail), a concerné 11 900 personnes en 2021.
La troisième catégorie, la plus importante, rassemble les régularisations de personnes en situation irrégulière. Ces procédures « au fil de l’eau », en constante progression depuis 2012, ont bénéficié à 12 700 personnes en 2021, soit 41 % de l’immigration professionnelle totale.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les craintes relatives à l’emploi et aux salaires sont souvent présentées comme les plus rationnelles. Le raisonnement paraît imparable : l’immigration accroît l’offre de travail, ce qui fait baisser les salaires ou augmente le chômage si les salaires sont rigides. Cette logique semble frappée au coin de l’évidence.
Pourtant, des décennies de recherches empiriques démontrent le contraire. Les études les plus célèbres ont analysé des « expériences naturelles » telles que l’expulsion par Fidel Castro de 125 000 Cubains vers Miami en 1980, ou l’arrivée de 900 000 rapatriés d’Algérie en France en 1962). Dans les deux cas, ces chocs migratoires considérables n’ont eu aucun effet significatif sur les salaires et le chômage des populations locales.
Ces résultats, confirmés par de nombreuses études dans différents pays, s’expliquent par trois mécanismes principaux. Premièrement, les étrangers subissent des discriminations sur le marché du travail, parfois pour des raisons objectives (moindre maîtrise de la langue), parfois par xénophobie. Ils ne peuvent donc « prendre la place » des nationaux qu’en cas de pénurie de main-d’œuvre, principe d’ailleurs institutionnalisé par les procédures d’autorisation de travail.
Deuxièmement, les étrangers se concentrent dans certains secteurs : 39 % des employés de maison, 28 % des agents de gardiennage, 27 % des ouvriers non qualifiés du bâtiment en 2017. Ces emplois, souvent délaissés, génèrent des externalités positives. L’exemple typique est celui des gardes d’enfants : leur disponibilité permet aux femmes nées localement de travailler davantage, augmentant ainsi leurs salaires).
Troisièmement, les immigrés étant en moyenne plus jeunes, ils contribuent positivement au taux d’emploi de la population, marqueur crucial de la santé économique d’une société vieillissante. Cet effet démographique améliore l’équilibre des finances publiques et le niveau de vie générale).
L’analyse factuelle révèle donc une immigration de travail d’ampleur modeste, sans effet délétère sur la situation économique des travailleurs français. Cette réalité statistique n’empêche pas le rejet persistant chez certains, alimenté par des discours politiques qui préfèrent l’émotion à la raison.
Le défi intellectuel et démocratique consiste à maintenir un débat rationnel sur ces questions sensibles. Car très vite, hélas, il n’y a plus de débat du tout : les positions se figent, les nuances disparaissent, et les préjugés l’emportent sur l’analyse rigoureuse.
L’objectif n’est pas de nier les préoccupations légitimes de nos concitoyens, mais de les éclairer par une connaissance précise des phénomènes en jeu. Car seule une approche factuelle permet de dépasser les postures idéologiques et de construire des politiques publiques efficaces. C’est à cette condition que nous pourrons enfin avoir un débat à la hauteur des enjeux de notre époque.
Cet article est publié dans le cadre d’un partenariat de The Conversation avec les Rencontres économiques, qui se tiennent du 3 au 5 juillet d’Aix-en-Provence. Plusieurs débats y seront consacrés à l’immigration.
Hippolyte d’Albis a reçu des financements de la Commission européenne.
29.06.2025 à 10:18
Christine Marsal, Maitre de conférences HDR, Contrôle de gestion, gouvernance des banques, Université de Montpellier
Mais qu’arrive-t-il à Boeing ? Le constructeur aérien, symbole de la puissance des États-Unis, traverse des turbulences depuis plusieurs années. Depuis les crashs du 737 Max et l’accident très récent du 787 d’Air India, les causes sont multiples. Reste une interrogation sur cette succession de difficultés. La gouvernance de l’entreprise pourrait livrer une partie de la solution.
Les déconvenues financières de Boeing n’en finissent plus de se creuser : après des pertes cumulées de près de 20 milliards d’euros perdus entre 2020 et 2023, l’exercice 2024 fait ressortir une perte de près de 11,345 milliards d’euros. La « descente aux enfers » semble inéluctable et pourtant l’avionneur a récemment remporté un important contrat militaire et de nouvelles commandes en provenance d’un loueur d’avions basé à Singapour. Si les raisons des déboires financiers sont connues, comment expliquer que l’entreprise conserve la confiance des investisseurs ? Tout d’abord, le poids de fonds de pension dans le capital de l’entreprise est-il passé de 47 % en 2020 à près de 68 % en 2025. Entre 1997 et 2019, les dirigeants décident d’augmenter progressivement le dividende de 0,56 dollar par action en 1997 à 8,19 dollars en 2019. Destinée à rassurer les actionnaires, cette politique de dividendes ne peut expliquer, seule, l’apparente stabilité des investisseurs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Alors que de graves problèmes de qualité ont émaillé l’actualité récente de l’avionneur, rien ne semble stopper Boeing. Au fil des ans, l’entreprise a su se constituer un solide réseau d’affaires, doublé d’un réseau d’influence qui la rendent aujourd’hui « intouchable ». Pour comprendre cette résistance aux aléas technologique et financier nous analysons la composition de son conseil d’administration sur plusieurs années.
À lire aussi : Boeing peut-il encore redécoller ? Retour sur une défaillance structurelle
Dans les grandes entreprises cotées, le Conseil d’administration (CA) est censé représenter les actionnaires, qui sont les propriétaires des entreprises. Il nomme le président, valide la stratégie, surveille l’action du directeur général et peut même le révoquer. Ses membres sont élus en assemblée générale, souvent sur recommandation d’un comité de nomination, selon des critères de compétence, de diversité et d’indépendance.
Mais ce fragile équilibre peut être remis en cause quand le directeur général est aussi président du Conseil. Ce cumul des fonctions – le fameux PDG – fait de la même personne le stratège, l’exécutant… et le contrôleur de sa propre action. Ce qui pose la question du maintien de ce cumul. Le cas de Boeing illustre parfaitement les dérives de ce cumul à travers les résultats d’un article de recherche paru en 2023. Les données observées portent sur la période allant de 1997 à 2020. Il en ressort notamment que le manque de diversité au sein du conseil d’administration peut expliquer en partie les déboires rencontrés par l’entreprise.
Ce cumul des fonctions – président du CA et directeur général – concentre les pouvoirs au sommet et réduit la capacité de contre-pouvoir interne. C’est d’autant plus vrai que le Conseil d’administration (CA) reste resserré, entre 11 et 13 membres seulement sur la période considérée.
La diversité progresse timidement. En 1997, seules deux femmes siègent au CA. Elles sont trois en 2020, soit à peine 23 % des membres (toujours 3 femmes en 2024). Sur l’ensemble de la période, on compte rarement plus de deux ou trois représentants des minorités ethniques (afro-américaine, hispanique, asiatique ou indienne), souvent des femmes issues de ces communautés.
Le CA s’organise autour de quatre comités classiques – audit, finance, rémunérations, nominations – auxquels se sont ajoutés en 2020 deux nouveaux comités. Le premier consacré aux « programmes spéciaux » réunit d’anciens PDG et des membres ayant une expérience militaire. Le second, centré sur la sécurité, est une réaction directe aux accidents du 737 Max.
En moyenne, les administrateurs rejoignent le Conseil à 56 ans et le quittent autour de 66 ans. Le taux de renouvellement est élevé : pas moins de 38 administrateurs différents se sont succédé au fil des années. Un renouvellement qui n’a pas toujours permis d’assurer un meilleur équilibre des profils ni une gouvernance plus indépendante.
Les profils techniques issus de l’industrie, les spécialistes des projets complexes sont évincés au fil du temps. Entre 2012 et 2014, ils disparaissent quasiment du Conseil d’administration. Leur place est désormais occupée par des experts en réduction des coûts, des directeurs financiers, d’anciens banquiers. L’arrivée de JimcNerney en 2005 marque la montée en puissance d’anciens collaborateurs du groupe General Electric.
Entre 2012 et 2016, le Conseil d’administration de Boeing se politise un peu plus. Plusieurs anciens hauts responsables rejoignent ses rangs un ex-secrétaire à la Défense, un ancien représentant des États-Unis à l’ONU, deux ambassadeurs, un ancien assistant à la Maison Blanche… Des figures influentes, républicaines comme démocrates, se succèdent au CA.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
La présence des militaires (anciens militaires ou militaires à la retraite) se renforce aussi. De 1997 à 2020 on identifie successivement un ancien « Marines », un ancien général ayant travaillé au secrétariat d’État à la défense, un général retraité des marines, un vice-amiral et un amiral à la retraite. Par ailleurs, plusieurs militaires ont exercé des fonctions au sein de l’OTAN. Cet aspect est toujours présent en 2024.
Ce virage confirme une tendance déjà amorcée : Boeing renforce ses liens avec les sphères du pouvoir, au moment même où il s’éloigne de ses racines industrielles. Le Conseil devient moins un organe de pilotage technique qu’un levier stratégique et politique.
Dans le même temps, Boeing taille dans ses effectifs : 231 000 salariés en 1997, 141 000 en 2020. Le ton est donné : priorité à l’efficacité financière, au détriment des compétences techniques et écologiques, reléguées au second plan.
Ce virage intervient pourtant à un moment clé pour le groupe. Le programme 787 « Dreamliner » est lancé avec son lot d’innovations : matériaux composites, nouveaux moteurs, nouveaux modes de collaboration avec les sous-traitants. Des projets de cette envergure nécessitent un pilotage éclairé. Mais paradoxalement, alors que la technologie prend de l’ampleur, le Conseil d’administration se vide de ses experts techniques.
Le même scénario se reproduit avec le 737 Max. Officiellement, l’appareil n’est qu’une mise à jour d’un modèle existant. Officieusement, les ingénieurs tirent la sonnette d’alarme : les choix techniques sont risqués, un nouvel avion serait plus sûr. Mais leurs avertissements restent lettre morte. Faute de relais au sein du CA, ils ne sont pas entendus.
À force de privilégier les profils issus de la finance ou des milieux politiques, Boeing s’est privé de diversité de pensée. Moins de débats, moins de confrontations d’idées. Or, c’est souvent dans ces frictions que naissent les bonnes décisions. Dans le cas du 737 Max, le manque de dialogue a permis à des failles de sécurité de passer sous les radars.
Pire encore, une enquête du Sénat américain suggère que la proximité du groupe avec certains décideurs politiques aurait facilité une certification accélérée de l’appareil. In fine, cela pourrait paradoxalement ne pas avoir servi l’entreprise dont la réputation est ternie depuis des catastrophes aériennes ayant provoqué des morts. Dans les faits, les causalités sont sûrement plus complexes et cette proximité est un des facteurs qui peut expliquer mais il serait excessif d’en faire le seul facteur.
Pendant les déboires des programmes Dreamliner et MAX, plusieurs actionnaires tentent de tirer la sonnette d’alarme. La ville de Livonia (Michigan), ainsi que les géants de la gestion d’actifs Vanguard et BlackRock, demandent des comptes. Livonia dénonce un manque de transparence sur le programme 787. Vanguard, de son côté, interpelle la direction sur la sécurité du 737 Max et s’interroge sur l’implication réelle du Conseil d’administration.
Ces pressions aboutissent à une action en justice : les membres du CA sont accusés de ne pas avoir exercé leur devoir de surveillance, notamment sur les questions de sécurité. Le dossier se solde par un accord à l’amiable. Boeing accepte de verser 225 millions de dollars… non pas directement, mais via ses assureurs.
En clair : les administrateurs condamnés échappent à toute responsabilité financière personnelle. Début 2025, un autre accord a mis fin aux poursuites pénales ouvertes après les deux crashs du 737 Max en 2018 et 2019. L’entreprise évite ainsi un procès public potentiellement explosif, au prix d’un règlement négocié avec le gouvernement américain.
Ironie de l’histoire : lors du développement du Dreamliner, les dirigeants de Boeing avaient reconnu le rôle crucial des ingénieurs dans la coordination avec les sous-traitants. Mais cette prise de conscience n’a pas résisté à la logique financière qui s’est installée au sommet. Chez Boeing, ce n’est pas une crise technologique qui a précipité la chute du 737 Max, mais une crise de gouvernance. Une entreprise qui conçoit des avions sans écouter ses ingénieurs prend le risque, un jour, de ne plus savoir les faire voler.
Christine Marsal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.06.2025 à 10:05
Maud Hetzel, Chercheuse associée au Centre Georg Simmel, EHESS, École des Hautes Études en Sciences Sociales (EHESS)
Fanny Guillet, sociologue, chargée de recherche au CNRS, Muséum national d’histoire naturelle (MNHN)
Fanny Hugues, Post-doctorante en sociologie, Université Clermont Auvergne (UCA)
Gabrielle Bouleau, Chercheuse en science politique et ingénieure des ponts, des eaux et des forêts, Inrae
Stéphanie Barral, Sociologue, chargée de recherche à INRAE au LISIS (CNRS/INRAE/Univ. Gustave Eiffel)
Yoann Demoli, Maître de conférences en sociologie, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
René Llored, professeur de sciences sociales en khâgne B/L
Les auteurs et autrices de trois ouvrages parus récemment et consacrés à la sociologie de l’environnement (Sociologie de l’environnement, de Yoann Demoli et René Llored, la Sociologie de l’environnement, de Stéphanie Barral, Gabrielle Bouleau et Fanny Guillet, et Introduction à la sociologie de l’environnement, de Maud Hetzel et Fanny Hugues) expliquent comment leur discipline s’est emparée de ce sujet, et pourquoi l’éclairage sociologique est fondamental pour penser les enjeux écologiques.
Pollution, effondrement de la biodiversité, réchauffement climatique… Alors que les enjeux environnementaux se multiplient, divers acteurs sont régulièrement consultés pour mieux les comprendre et répondre à ces problèmes globaux. Dans les sphères expertes, politiques et institutionnelles, certaines disciplines scientifiques sont particulièrement mobilisées, notamment les sciences du climat et de la biologie. D’autres apparaissent moins souvent, à l’instar de la sociologie.
La relative discrétion de cette discipline est d’autant plus surprenante que les problèmes en jeu sont liés aux activités humaines. C’est donc le fonctionnement de nos sociétés, objet premier de la sociologie, qui est avant tout responsable des pollutions et des dégradations des milieux biophysiques.
Utiliser les outils de la sociologie pour interroger les enjeux environnementaux apparaît donc primordial. On constate d’ailleurs une multiplication des événements scientifiques, des enquêtes et des publications en sociologie de l’environnement.
Ces travaux apportent des éléments inédits et originaux pour penser la question environnementale. Ils mettent au jour les logiques sociales inhérentes à la crise écologique, les inégalités face à celles-ci et la manière dont les pouvoirs publics la gouvernent.
Ils ont en commun de dépasser la seule analyse des dégâts environnementaux – sur le climat, sur la biodiversité – et de mettre au centre de l’analyse une diversité d’entrées thématiques, telles que les politiques publiques, les mobilisations, les modes de vie, les valeurs et les croyances face aux enjeux écologiques.
Ils portent également un regard critique sur l’ordre économique et social responsable de la crise écologique, ce qui n’est sans doute pas sans relation avec le peu de visibilité accordée à ces recherches.
Pour prendre la pleine mesure de ce que la sociologie peut apporter à notre compréhension des enjeux environnementaux contemporains, penchons-nous sur trois apports centraux de cette discipline en plein essor.
Depuis les années 1970, les États ont intégré la question environnementale dans leurs structures administratives, marquant l’émergence d’une responsabilité nouvelle, qui engage à la fois la puissance publique et les sociétés civiles.
Cette institutionnalisation repose sur un double mouvement : d’un côté, la montée en puissance des mobilisations sociales face à des dégradations de plus en plus visibles et fréquentes ; de l’autre, l’injonction internationale à se doter d’outils de régulation adaptés à l’urgence écologique.
Cette évolution a donné lieu à la création de ministères, d’agences, d’organismes de surveillance ou d’évaluation, autant de dispositifs visant à produire un savoir environnemental légitime et à organiser l’action publique. Pourtant, l’écologisation de l’État est loin de constituer un processus linéaire et consensuel.
Ces institutions sont prises dans des rapports de force permanents, où s’opposent visions du monde, intérêts économiques et impératifs écologiques. La protection de l’environnement devient ainsi un champ de lutte, où l’État joue un rôle ambivalent, tantôt garant de la régulation écologique, tantôt relais d’intérêts productivistes.
Dans ce contexte, les agences en charge des questions environnementales sont régulièrement déstabilisées, mises en cause, voire attaquées. Leurs marges de manœuvre se rétractent sous l’effet de critiques politiques, d’injonctions contradictoires et de campagnes de discrédit, sans que l’appareil d’État n’en assure systématiquement la défense. Leur fragilité institutionnelle n’est pas sans conséquence : elle affaiblit la capacité à faire face aux risques, à produire des normes, à contrôler les pratiques.
Cette institutionnalisation des enjeux environnementaux ne concerne pas seulement les administrations publiques : elle donne aussi naissance à de nouveaux marchés. Les politiques environnementales, en se déployant à travers des mécanismes de quotas, de subventions, de certifications, participent à la formation d’un véritable capitalisme vert. Ainsi, l’environnement devient un objet d’investissement, un domaine d’expertise, une opportunité économique. Ce faisant, la régulation écologique se trouve de plus en plus enchâssée dans des logiques de marché, qui peuvent certes produire de la norme, mais aussi déplacer les objectifs initiaux de la protection environnementale. À ce titre, le marché n’est jamais une simple solution technique : il est un instrument socialement construit, porteur d’intérêts et de hiérarchies.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette prise en charge publique des enjeux environnementaux peut également renforcer les inégalités sociales.
Alors que l’on constate une incitation grandissante des pouvoirs publics à modérer les pratiques quotidiennes consommatrices d’énergie et de ressources des citoyens et citoyennes par des « petits gestes » qui responsabilisent uniformément les individus, la sociologie de l’environnement démontre que les styles de vie sont inégalement polluants.
Trois caractéristiques sociales, qui se cumulent, font varier les émissions qui leur sont associées : le revenu, le genre et l’âge. Par exemple, toutes choses égales par ailleurs, les modes de vie des hommes sont plus polluants que ceux des femmes. Ces disparités tiennent par exemple à des pratiques alimentaires hétérogènes : les femmes consomment moins de viande que les hommes, sont plus attirées par les écolabels et les produits biologiques, et portent davantage attention à la santé de leur corps ainsi qu’à celle de leurs proches.
Ces mêmes politiques publiques valorisent également les styles de vie des ménages les plus aisés, associées à la « consommation durable » de biens onéreux, par exemple les voitures électriques. Elles moralisent du même coup ceux des classes populaires au nom de pratiques supposément plus polluantes, comme la possession de voitures diesel pourtant achetées d’occasion et peu utilisées.
À rebours de ce cadrage individualisant de la crise écologique, les styles de vie des classes populaires, plus économes en ressources et dont les marges de manœuvre sont plus contraintes, peuvent néanmoins être envisagés comme des écologies populaires en pratique, fondées sur la récupération, la réutilisation et l’attention aux dépenses.
À l’échelle planétaire, la sociologie constate que les conséquences des dégâts environnementaux sont inégalement réparties. Les populations pauvres vivant dans les pays des Suds, et plus encore les femmes, sont les plus concernées par les catastrophes et les dégradations environnementales causées par les activités humaines, et par le prélèvement de ressources naturelles.
En France, ce sont les groupes sociaux les plus défavorisés – pauvres et racisés – qui vivent à proximité de lieux pollués et/ou polluants. Leur accès aux espaces verts, aux parcs, aux zones de loisirs et aux ressources naturelles est également limité, à l’instar du Parc national de Calanques.
Alors que le Parc est situé à proximité des quartiers populaires du nord de Marseille où vivent beaucoup de descendantes d’anciennes colonies françaises, ces habitants ont très peu de poids pour infléchir les politiques publiques en la matière. Leurs usages de ces espaces sont délégitimés, à l’instar de leur pratique du vélo tout terrain et de leurs sociabilités autour de feux de camp dans le cas du Parc National des Calanques.
Face à ces inégalités environnementales, certaines populations revendiquent une justice environnementale, c’est-à-dire défendent l’idée que chaque individu a le droit de vivre dans un environnement sain, sans discrimination ni inégalité dans l’accès aux ressources naturelles et aux bénéfices environnementaux.
L’écologie est également un fait sociologique parce que la production et la mise en œuvre des politiques environnementales ne sont pas qu’une affaire d’État : elles visent à transformer les conduites d’acteurs et d’organisations économiques.
Les mesures écologiques prises par les gouvernements montrent une faible effectivité notamment parce qu’elles se heurtent à d’autres politiques publiques qui poursuivent des objectifs différents (énergie, agriculture, transports, logement, etc.) et qui contribuent à l’artificialisation des espaces naturels, à la consommation des ressources et l’émission de pollutions.
Ces politiques sont structurées par des grands compromis socio-politiques qui définissent les experts pertinents et les porte-parole légitimes de leurs publics cibles. Par exemple, les politiques agricoles prennent en compte la voix d’acteurs comme la FNSEA, syndicat majoritaire et productiviste, et s’appuient sur les réseaux territoriaux agricoles historiques pour les appliquer. Ces acteurs ont souvent des parcours individuels et institutionnels qui les conduisent à privilégier le statu quo social, économique et politique en négligeant la crise écologique et climatique. Ils cherchent aussi à préserver des intérêts électoraux ou de groupes socio-professionnels et des marges de manœuvre. Ceci tend à favoriser un « verdissement conservateur » qui opère souvent par dérogation et participe à notre mal-adaptation collective en renforçant la vulnérabilité des individus, des organisations et de la collectivité toute entière.
Ce statu quo conservateur suscite des contestations. La mise en œuvre de la réglementation environnementale repose depuis les années 1970 sur la mobilisation d’associations d’usagers ou de victimes ou d’associations de protection de la nature qui exercent un militantisme de contre-expertise et de dossiers, pour faire progresser la cause environnementale devant les tribunaux, même si encore très peu d’infractions environnementales sont effectivement repérées et encore moins sanctionnées. Les luttes pour la protection de l’environnement prennent aussi la forme de désobéissance civile, d’occupation de lieux et des marches pour contester l’accaparement des terres comme la lutte emblématique du Larzac dans les années 1970 et celle récente contre le projet d’autoroute A69 entre Toulouse et Castres, ou pour faire entendre des éléments de controverse sur des risques comme ceux liés à l’exploitation du gaz de schiste.
Toutes les critiques ne vont pas toutes dans le sens d’une meilleure prise en compte de l’environnement. Face aux mobilisations environnementalistes, des contre-mobilisations s’organisent aussi de la part de groupes sociaux concernés par les contraintes engendrées par les décisions environnementales (on pense par exemple aux récentes mobilisations agricoles), pouvant prendre diverses formes comme des manifestations ou des opérations d’intimidation, un travail de réseau et de constitution de communautés favorisé par le développement des réseaux sociaux.
Le lobbying politique est aussi une voie de mobilisations anti-environnementales. Il porte généralement une critique libérale qui tend à euphémiser les crises environnementales et à disqualifier toute contrainte sur les activités de production. Cette pensée libérale est très influente sur les politiques environnementales et conduit à privilégier des instruments de marché (quotas échangeables, labels, marchés de compensation) pour gouverner les impacts sur l’environnement, ce qui offre une plus grande souplesse aux acteurs économiques.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.06.2025 à 09:55
Efstathia Karachaliou, Pharmacienne, Doctorante en pharmacognosie, Université Bourgogne Europe
Dans la série The Last of Us, l’apocalypse est arrivée par un champignon parasite, le Cordyceps. Transformant les humains en zombies ultra-agressifs, il a provoqué l’effondrement de notre civilisation. Un scénario qui prend racine dans le réel, puisque ce type de champignon existe bel et bien, mais ne s’attaque qu’aux insectes. Inoffensif pour les humains, il est même utilisé par la médecine traditionnelle chinoise, qui lui prête de nombreuses vertus.
La deuxième saison de The Last of Us, diffusée par la chaîne HBO, s’est achevée fin mai 2025. Adaptation d’un jeu vidéo à succès, cette série postapocalyptique reprend les ingrédients habituels du genre : l’humanité s’est effondrée suite à une brutale pandémie, la loi du plus fort règne, les survivants tentent de survivre en s’organisant au milieu du chaos, tout en évitant eux-mêmes d’être infectés.
L’originalité du scénario tient ici à la source de l’épidémie qui a mené à la catastrophe : point de virus pour transformer les êtres humains en zombies agressifs, mais un champignon parasite, le Cordyceps. Ce nom n’a pas été inventé par les scénaristes : le genre de champignon dont ils se sont inspirés existe bel et bien (même s’il a été récemment renommé Ophiocordyceps). Et ses membres sont eux aussi capables de transformer en zombies ses victimes.
Heureusement, ces champignons ne s’attaquent qu’aux insectes : ils ne présentent aucun danger pour notre espèce. Au contraire : ces champignons pourraient même être à la base de nouveaux médicaments. Explications.
Dans The Last of Us, près de 60 % de l’humanité a été décimée ou contaminée par le champignon Cordyceps. Responsable d’une « infection cérébrale », le champignon prend le contrôle des humains qu’il parasite et les transforme en créatures agressives. Ce concept s’inspire de champignons qui existent bel et bien, et appartiennent aux genres Cordyceps et Ophiocordyceps.
Le genre Ophiocordyceps est passé à la postérité grâce à la capacité de l’un de ses membres, Ophiocordyceps unilateralis, à « pirater » le cerveau des fourmis qu’il contamine. Il parvient ainsi à modifier leur comportement, maximisant de ce fait ses chances de transmission.
Lorsqu’une fourmi est contaminée, elle quitte le nid pour se rendre dans des zones en hauteur, souvent des végétaux. Perchée en surplomb, sur une feuille ou un brin d’herbe, elle s’ancre avec ses mandibules dans une sorte « d’étreinte de la mort » : elle y restera jusqu’à son décès.
Le corps de la fourmi morte reste dès lors en place à un endroit présentant des conditions idéales pour le développement fongique. La formation des corps fructifères du champignon est facilitée, tout comme la propagation de ses spores, qui vont pouvoir infecter d’autres fourmis qui vaquent à leurs occupations, en contrebas.
Ce cycle de manipulation comportementale est crucial pour le champignon. En effet, sans cette adaptation, les fourmis infectées seraient rapidement retirées du nid par leurs congénères. Bien que des travaux de recherche aient approfondi la compréhension de ces interactions, de nombreuses questions demeurent sur la complexité de cette manipulation comportementale.
Parmi les quelque 350 espèces du genre Ophiocordyceps, toutes ne s’attaquent pas aux fourmis. Ophiocordyceps sinensis parasite plutôt les chenilles, les modifiant si radicalement que les observateurs ont longtemps cru que celles-ci passaient de l’état animal à l’état végétal. Mais le plus intéressant est que ce champignon occupe une place à part en médecine traditionnelle, depuis très longtemps.
Plus de 350 espèces associées ont été identifiées à ce jour à travers le monde, mais une seule – Ophiocordyceps sinensis – est officiellement reconnue comme drogue médicinale dans la pharmacopée chinoise depuis 1964.
Il est récolté dans les prairies de haute altitude (3 500–5 000 mètres) des provinces chinoises comme le Qinghai, le Tibet, le Sichuan, le Yunnan et le Gansu. Son usage remonte à plus de trois cents ans en Chine.
Appelé dongchongxiacao (« ver d’hiver, herbe d’été »), ce champignon est un pilier de la médecine traditionnelle chinoise. Selon les principes de cette dernière, O. sinensis – de nature « neutre » et de saveur « douce » – est réputé tonifier les reins, apaiser les poumons, arrêter les saignements et éliminer les mucosités. Il est traditionnellement utilisé pour traiter la fatigue, la toux, l’asthénie post-maladie grave, les troubles sexuels, les dysfonctionnements et les insuffisances rénales.
Il faut souligner que, traditionnellement, les préparations d’O. sinensis contiennent non seulement le champignon, mais aussi d’autres ingrédients (alcool, solvants…). Ainsi, pour « revigorer les poumons et renforcer les reins », la médecine chinoise traditionnelle conseille d’administrer l’ensemble larve et champignon. Il est donc difficile d’attribuer une éventuelle activité au champignon lui-même. Sans compter qu’il n’est pas toujours certain que l’espèce utilisée soit bien celle déclarée.
Toutefois, l’impressionnante liste d’allégations santé associée à ces champignons parasites a attiré l’attention de la recherche pharmaceutique, et des études ont été entreprises pour évaluer le potentiel des principes actifs contenus dans ce champignon.
Certains travaux semblent indiquer des effets – chez la souris – sur la croissance tumorale ainsi que sur la régulation de certaines cellules immunitaires. Une activité anti-inflammatoire a aussi été mise en évidence dans des modèles animaux et des cultures de cellules. Enfin, une méta-analyse (analyse statistique de résultats d’études déjà publiées) menée sur un petit nombre de publications a suggéré que, chez des patients transplantés rénaux, un traitement d’appoint à base de préparation d’O. sinensis pourrait diminuer l’incidence de l’hyperlipidémie, l’hyperglycémie et des lésions hépatiques. Les auteurs soulignent cependant que des recherches complémentaires sont nécessaires, en raison de la faible qualité des preuves et du risque de biais lié à la mauvaise qualité méthodologique des travaux analysés.
Une revue Cochrane (Organisation non gouvernementale à but non lucratif qui évalue la qualité des données issues des essais cliniques et des méta-analyses disponibles) de la littérature scientifique concernant les effets de ce champignon sur la maladie rénale chronique aboutit aux mêmes conclusions : si certaines données semblent indiquer que des préparations à base d’O. sinensis administrées en complément de la médecine occidentale conventionnelle pourraient être bénéfiques pour améliorer la fonction rénale et traiter certaines complications, la qualité des preuves est médiocre, ce qui ne permet pas de tirer de conclusion définitive.
Une autre espèce de champignon apparentée, Ophiocordyceps militaris, a aussi retenu l’attention des scientifiques. Il parasite quant à lui les pupes du ver à soie tussah (Antherea pernyi), lesquelles sont traditionnellement cuisinées et consommées dans certaines régions de Chine. Divers composés actifs ont été isolés de ce champignon, tel que la cordycépine, isolée dans les années 1950, qui pourrait avoir un intérêt dans la lutte contre le cancer, même si cela reste à confirmer. Chez la souris, des travaux ont aussi suggéré des effets sur la réduction des taux sanguins d’acide urique.
Au-delà des pratiques médicales traditionnelles ou des explorations pharmacologiques visant à mettre au point de nouveaux médicaments, les champignons Ophiocordyceps sont aussi employés comme aliment diététique. En Chine, ils sont par exemple utilisés dans les plats traditionnels, les soupes, les boissons (bières, thés…) ou les compléments alimentaires (gélules). Leurs partisans prêtent à ces produits d’innombrables vertus : renforcement de l’immunité, lutte contre le vieillissement, régulation du sommeil, stimulation de l’appétit, et protection de la santé en général.
Toutefois, à l’heure actuelle, les preuves scientifiques soutenant de telles allégations manquent encore, notamment en matière de validation clinique en ce qui concerne, par exemple, l’immunité.
Cette utilisation s’inscrit dans la même tendance que celle qui a vu ces dernières années se développer les « aliments fonctionnels ». Aussi appelés nutraceutiques ou aliments « médicinaux », ces produits, qui sont vendus à grand renfort de marketing mettant en avant diverses allégations thérapeutiques, connaissent un fort développement mondial. Selon le cabinet BCC Research, la demande mondiale en nutraceutiques devrait passer de 418,2 milliards de dollars en 2024 à 571,3 milliards en 2029, avec un taux de croissance annuel moyen de 6,4 %.
Cependant, malgré l’abondance des produits revendiquant des bienfaits pour la santé, le niveau de preuve scientifique reste souvent limité ou controversé. La démonstration rigoureuse des effets physiologiques de ces aliments est complexe, en raison notamment de la variabilité des compositions, des biais liés aux études d’observation, ou encore du manque de standardisation des protocoles cliniques. Cela pose des défis importants en matière d’évaluation scientifique, de communication des allégations et de réglementation.
En vigueur depuis le 1er janvier 2018, le règlement sur les « nouveaux aliments » s’applique à l’ensemble de l’Union européenne. Est considéré comme nouvel aliment tout aliment n’ayant pas été consommé de manière significative avant mai 1997.
Pour que la Commission européenne accepte d’autoriser la mise sur le marché d’un nouvel aliment, plusieurs conditions doivent être remplies : compte tenu des données scientifiques disponibles, il ne doit présenter aucun risque pour la santé (ce qui ne signifie pas qu’il l’améliore), et son utilisation ne doit pas entraîner de déficit nutritionnel.
Si les mycéliums de Cordyceps sinensis sont aujourd’hui autorisés, ce n’est pas le cas de ceux de Cordyceps militaris, qui n’a pas encore reçu d’autorisation préalable de mise sur le marché européen.
Efstathia Karachaliou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.06.2025 à 09:55
Valentina Napolitano, Sociologue, chargée de recherche à l'IRD (LPED/AMU), spécialiste des questions migratoires et des conflits au Moyen-Orient, Institut de recherche pour le développement (IRD)
Ruba Akash, Directrice du Refugees, Displaced and Forced Migration Studies Centre, Yarmouk University
La chute du régime de Bachar Al-Assad en décembre 2024 a ravivé les débats sur le retour chez eux des réfugiés syriens installés au Moyen-Orient. Pourtant, les discussions publiques restent souvent déconnectées des réalités vécues par les premiers concernés. Une enquête menée en mai 2025 en Jordanie, où le nombre de réfugiés syriens s’élève aujourd’hui à un peu moins de 600 000 personnes, révèle la complexité des trajectoires et des choix familiaux, entre attente, espoir et inquiétude.
La question du retour des réfugiés syriens qui avaient fui leur pays en guerre pour s’installer dans divers pays du Moyen-Orient (près de 5 millions vivant principalement en Turquie, au Liban et en Jordanie) s’est posée avec urgence dès la chute du régime de Bachar Al-Assad, en décembre 2024. Ce retour faisait déjà partie des « solutions durables » envisagées, dès 2016, par les acteurs humanitaires et les gouvernements hôtes pour mettre fin à la « crise des réfugiés ».
Les débats autour de cette question se limitent, pour l’essentiel, à une quantification du nombre des retours attendus et des retombées qu’ils auraient sur la reconstruction de la Syrie en termes socio-économiques et politiques. Mais on se demande trop peu, voire pas du tout, ce que souhaitent les réfugiés syriens eux-mêmes.
En mai 2025, nous avons effectué une enquête qualitative en Jordanie (dans le camp de Zaatari, ainsi que dans les villes d’Irbid et de Zarqa) qui nous a permis, au fil des douze entretiens réalisés, de mieux comprendre les projets d’avenir des réfugiés syriens dans le pays. Il en ressort que le choix de rentrer en Syrie ou de rester en Jordanie résulte d’une imbrication complexe de facteurs sociaux, économiques, politiques, d’âge et de genre.
En décembre 2024, la Jordanie accueillait près de 650 000 Syriens officiellement enregistrés par le Haut Commissariat des Nations unies pour les réfugiés (UNHCR). Depuis, plus de 75 000 d’entre eux sont rentrés en Syrie selon les chiffres diffusés par l’Agence en mai 2025. Ce nombre est voué à augmenter avec la fin de l’année scolaire.
Les attitudes des réfugiés syriens vis-à-vis de la perspective du retour varient significativement en fonction du lieu d’installation en Jordanie et des conditions socio-économiques qui en découlent. Près de 80 % des Syriens résident dans des villes, notamment à Irbid, Mafraq et Zarqa, et les 20 % restants vivent au sein des trois camps de réfugiés qui ont été érigés près de la frontière avec la Syrie : Zaatari, Al-Azraq et Marajeeb Al Fohood.
Les quelque 67 000 réfugiés du camp de Zaatari (mai 2025), qui vivent parfois depuis près de quatorze ans dans des caravanes en acier, en plein désert, dans des conditions climatiques extrêmement pénibles, et qui sont soumis à un contrôle strict de leurs déplacements et à une forte pression sécuritaire de la part des autorités locales, sont sans doute ceux qui aimeraient rentrer le plus rapidement en Syrie.
Malgré l’assistance fournie par les acteurs humanitaires aux réfugiés du camp, ce lieu demeure très inhospitalier. Des familles entières l’ont déjà quitté pour revenir en Syrie, certaines dès l’annonce de la chute du régime. C’est pourquoi plusieurs unités d’habitation ont déjà été abandonnées ou démantelées.
D’autres familles préparent également leur retour en mettant de l’argent de côté, car un déménagement peut coûter environ 500 dinars jordaniens (environ 610 euros), sachant que les bus gratuits mis à disposition par l’UNHCR jusqu’à la frontière ne permettent de transporter que cinquante kilos de bagages par famille.
Pour la famille de Mohammad, la cinquantaine, originaire du village de Sheykh Meskin, près de Deraa, la situation est des plus compliquées. Depuis plusieurs années, Mohammad a perdu son travail dans un centre de santé de l’UNHCR. L’Agence onusienne et les autres acteurs humanitaires sont les principaux pourvoyeurs d’emploi au sein du camp, mais seul un membre par famille est autorisé à y travailler. La famille de Mohammad survit aujourd’hui uniquement grâce à l’aide humanitaire versée par l’UNHCR ; or celle-ci a drastiquement diminué en 2025, passant de 22 à 15 dinars jordaniens par personne et par mois (soit 18 euros par mois). « Nous sommes arrivés en 2013, nous avons vieilli ici ! », raconte Maryam, la mère de famille, en évoquant la dureté des conditions de vie endurées à Zaatari. Elle montre ensuite la photo du potager qui entoure leur maison à Deraa, en Syrie. Les mûrs, encore débout, s’apprêtent à être réhabilités pour garantir une vie plus digne à leurs enfants, dont la plupart n’ont connu que le camp de Zaatari comme lieu de vie.
À l’inverse de cette famille, de nombreux Syriens n’ont plus de logement où rentrer. La majorité des familles réfugiées en Jordanie sont originaires du sud de la Syrie, notamment de la ville de Deraa et de sa campagne, largement détruites par la guerre, d’où la réticence d’une grande partie d’entre eux à rentrer au pays dans l’immédiat.
Pour la famille Nasser, la question du logement est centrale, du fait de l’agrandissement de sa famille depuis le départ pour la Jordanie. Initialement composée du père, mécanicien âgé d’une quarantaine d’années, d’une épouse et de deux enfants, le foyer s’est étendu avec un deuxième mariage. Aujourd’hui, il compte douze enfants, dont l’une âgée de 20 ans et ayant fondé son propre foyer.
« Nous sommes arrivés ici avec une famille, maintenant nous sommes trois familles… En Syrie nous n’avons plus de maison et le HCR ne nous accorde pas le droit de déplacer les caravanes avec nous. »
Alors qu’aucun plan de reconstruction n’a encore été mis en place par les nouvelles autorités en Syrie, les réfugiés du camp se trouvent face à l’interdiction de ramener vers leur pays d’origine les préfabriqués qui leur ont été attribués par le HCR ou qu’ils ont achetés de leur propre initiative afin d’élargir leur lieu de vie. À leur départ, ces préfabriqués sont démontés par les autorités jordaniennes, qui revendent ensuite les matériaux sur le marché.
La situation des Syriens que nous avons rencontrés en milieu urbain est différente. S’ils estiment que le retour en Syrie est inévitable à long terme, notamment en raison de l’absence de perspective d’intégration durable en Jordanie, pays qui n’est pas signataire de la Convention de Genève pour les réfugiés de 1951, la date de ce retour reste toutefois subordonnée à l’amélioration des conditions socio-économiques dans leur pays.
Dans les milieux urbains jordaniens, les Syriens ont souvent atteint une certaine stabilité, avec un meilleur accès à l’éducation et à l’emploi, et ils disposent d’un logement digne. C’est pour cette raison que plusieurs familles vivant à Irbid et à Zarqa souhaitent attendre l’amélioration des conditions de vie dont ils espèrent qu’il suivra la levée des sanctions internationales visant la Syrie. Aujourd’hui, pour Umm Diab, 46 ans et mère de neuf enfants, arrivée à Irbid en 2013, retourner en Syrie serait « un retour à l’âge de pierre », tellement les conditions de vie y sont dures. Les Syriens manquent de services de base tels l’électricité, l’eau et le carburant.
Les décisions concernant l’avenir ne sont pas prises de façon individuelle, mais en coordination avec le réseau familial élargi et celui de voisinage. Lors de nos échanges avec des femmes syriennes, il est apparu que pendant l’exil, les liens familiaux dépassent le simple cadre émotionnel pour participer à de véritables mécanismes de survie et de solidarité.
Les familles syriennes en Jordanie ont, au fil des années, reconstitué des systèmes informels de soutien fondés sur la parenté, l’origine villageoise ou les liens de voisinage. Ces réseaux fournissent des aides dans tous les domaines, de la mise en commun des fonds pour le loyer et l’accès à l’aide alimentaire aux soins aux enfants et à la recherche d’un travail informel.
Les femmes syriennes que nous avons rencontrées ont expliqué qu’elles cherchent toujours à vivre à proximité de leurs sœurs, cousins ou beaux-parents, ce qui leur permet de partager des responsabilités telles que les départs à l’école ou les tâches ménagères et même de répartir les rôles dans la parentalité. Rompre avec ces liens, même au nom du retour au pays, comporte des risques, spécialement pour les femmes.
En effet, environ un tiers des ménages de réfugiés syriens en Jordanie sont dirigés par des femmes, dont beaucoup sont veuves, divorcées ou vivent séparées de leurs maris qui travaillent à l’étranger, particulièrement dans les pays du Golfe comme l’Arabie saoudite, le Koweït et les Émirats arabes unis. Pour ces femmes, l’idée de retourner en Syrie seule est intimidante. La peur de la violence, le manque de services de base et l’absence d’une présence masculine en Syrie pèsent lourdement sur ces décisions.
C’est le cas d’Umm Diab, dont le mari a commencé à travailler au Koweït avant même le début du conflit. Pour elle, rentrer seule en Syrie avec ses enfants signifierait la perte des liens familiaux avec ses frères et sœurs et avec ses voisins qui l’ont soutenue dans son quotidien de femme seule durant son séjour en Jordanie.
De nombreuses femmes ont acquis une indépendance financière en exil ; mais le retour en Syrie pourrait engendrer la perte de leurs revenus. Par ailleurs, les décisions concernant le retour sont encore souvent prises, ou du moins fortement influencées par des hommes absents car, nous l’avons évoqué, travaillant dans le Golfe. En même temps, la séparation temporaire des membres d’une même famille est aussi envisagée afin de préparer les conditions du retour de l’ensemble du noyau familial. Dans l’une des familles rencontrées à Zaatari, c’est l’homme qui est rentré en premier en Syrie, son épouse et ses enfants devant le rejoindre une fois la scolarité de ces derniers terminée. À l’inverse, dans un autre cas, c’est la femme, accompagnée des enfants, qui est rentrée en Syrie, tandis que l’homme est resté en Jordanie pour continuer à bénéficier du taux de change favorable et leur envoyer de l’argent.
Outre l’importance des liens familiaux et d’interdépendance qui se sont restructurés en exil, le choix du retour est aussi vécu de manière différente en fonction de l’âge.
Près de 49 % de la population syrienne en Jordanie a entre 0 et 17 ans. Majoritairement née en exil ou arrivée très jeune, cette composante de la population a des perceptions et des attitudes différentes à l’égard du retour. Umm Firas, mère de six enfants, résidente de Zarqa, à l’est d’Amman, explique que tous ses enfants parlent un dialecte jordanien en dehors de la maison, ce qui reflète selon elle leur degré d’insertion dans la société hôte, notamment en milieu urbain.
Par ailleurs, la question de l’éducation des enfants en d’autres langues, avec la prééminence de l’anglais en Jordanie, facteur à prendre en compte dans les autres pays du refuge syrien (notamment en Turquie ou plus loin en Europe), apparaît comme une autre entrave au possible retour.
En outre, alors que l’âge de mariage demeure très bas, les jeunes entre 18 et 25 ans ont dans la plupart des cas déjà établi leur propre famille, ce qui est le cas d’une des filles d’Umm Firas, 22 ans, mariée et mère de deux enfants. Les choix du retour de ces deux familles se trouvent donc imbriqués.
Pour les plus jeunes, retourner en Syrie peut par ailleurs devenir un choix contraint, notamment en raison de l’impossibilité, pour les plus éduqués d’entre eux, de trouver un emploi en Jordanie, mais aussi face au durcissement sécuritaire exercé à leur encontre par les autorités locales.
L’évolution de la politique d’accueil jordanienne à l’égard des Syriens constitue un dernier élément essentiel pour comprendre les choix du retour, lequel devient inexorable face à des contraintes économiques et sécuritaires de plus en plus importantes. Avant même que la chute du régime d’Assad se profile, la Jordanie était confrontée à de très grandes difficultés pour pouvoir continuer à financer l’accueil des réfugiés syriens.
En août 2024, seulement 7 % du budget prévisionnel destiné au Plan de réponse jordanien à la crise syrienne, financé par des donations internationales, avait été obtenu, soit 133 millions sur 2 milliards de dollars. Cela a entraîné une diminution substantielle des aides humanitaires distribuées sous forme de bons d’achat. Plusieurs habitants de Zaatari relatent aussi une raréfaction des services d’assistance, notamment en matière de santé.
La diminution des aides devrait en outre entraîner la fermeture du camp de Marajeeb al Fohood, financé et géré par le Croissant-Rouge des Émirats arabes unis, qui a vu le départ de près de 350 personnes en mai dernier. Les Syriens du camp d’al-Azraq, notamment ceux détenus dans le « village n°5 », considéré comme un centre de rétention sécuritaire, font l’objet de procédures d’extradition vers la Syrie. C’est le cas d’un fils d’Umm Firas, détenu pendant plus de six mois en raison de soupçons de proximité avec des groupes salafistes, qui a finalement été renvoyé en Syrie et a rejoint la maison de son grand-père.
La diminution des aides internationales s’est aggravée avec l’arrivée de la nouvelle administration américaine et la suspension des aides pourvues à travers USAID. Les employés de nombreuses organisations internationales, dont le HCR, vont voir leurs contrats arriver à terme d’ici l’été, avec la fermeture des centres d’enregistrement de l’Agence à Irbid et Zarqa.
À cela s’ajoutent les restrictions liées à l’arrivée à échéance de l’accord Jordan Compact, conclu entre l’Union européenne et la Jordanie, et qui avait permis l’attribution de 200 000 permis de travail à des Syriens (limités principalement aux secteurs non qualifiés de l’agriculture et du bâtiment) en échange d’aides au développement versées par l’UE. Désormais, les Syriens doivent payer des frais de permis de travail, à l’instar des autres travailleurs migrants, ce qui constitue pour les réfugiés en Jordanie un obstacle majeur susceptible d’accélérer leur retour au pays.
Dans le même temps, on constate, paradoxalement, un relâchement des restrictions sécuritaires mises en œuvre pour contrôler le camp de Zaatari. La sortie des Syriens du camp est permise à travers une demande de « vacances » (Igâze) ou grâce à la possession d’un permis de travail valide. De nombreux réfugiés se procurent un faux permis exclusivement pour pouvoir circuler en dehors du camp.
Depuis décembre, le système s’est assoupli : certaines personnes sont désormais autorisées, de manière informelle, à franchir le barrage qui entoure le camp, ce qui traduit une volonté des autorités jordaniennes de rendre la vie sur place plus viable, dans l’objectif d’y maintenir les habitants. Le camp de Zaatari joue un rôle stratégique dans la mise en visibilité de l’accueil jordanien et dans la levée de fonds internationaux, ce qui explique la volonté du gouvernement de conserver ce lieu le plus longtemps possible, afin de continuer à bénéficier des aides internationales.
Malgré les changements politiques et les appels à la reconstruction en Syrie, de nombreux réfugiés syriens restent incertains quant à leur avenir. Pour eux, la question n’est pas seulement de savoir si la Syrie est devenue un lieu de vie sûr, mais aussi de savoir si les conditions sociales, économiques et familiales sont réunies pour affronter ce changement après de longues années où ils ont dû reconstruire leurs vies en exil.
Loin donc des seuls points de passage des frontières sous observation des acteurs humanitaires et politiques, c’est au sein des espaces domestiques, à travers la Jordanie et les autres pays d’accueil des réfugiés, qu’il faut prêter attention aux attentes multiples et parfois contradictoires des familles syriennes afin de continuer à garantir l’accès aux droits, au travail et à l’éducation, et de préserver les réseaux d’entraide – autant d’éléments à prendre en compte pour un retour volontaire et digne en Syrie.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.06.2025 à 09:54
Mohamed Arbi Nsiri, Docteur en histoire ancienne, Université Paris Nanterre – Université Paris Lumières
Le monastère Sainte-Catherine du Sinaï (Égypte) est reconnu comme le plus ancien établissement monastique chrétien encore en activité. Une décision rendue fin mai 2025 par la cour d’appel égyptienne fait planer une menace sans précédent sur son avenir.
Édifié en 548 sur ordre de l’empereur byzantin Justinien Ier, au pied du mont Moïse, à 1 570 mètres d’altitude, le monastère Sainte-Catherine occupe une place singulière dans l’histoire religieuse et culturelle de l’humanité. Niché au cœur d’un massif aride et majestueux, ce lieu sacré – également connu sous le nom de monastère de la Transfiguration – a traversé les siècles sans interruption, abritant une communauté chrétienne fidèle à la tradition orthodoxe orientale.
Il constitue un témoignage unique de la continuité du monachisme tardo-antique, tel qu’il s’est développé dans l’Orient méditerranéen à partir des premiers ermites du désert. Ce sanctuaire millénaire, dont les murailles de pierre enferment une exceptionnelle bibliothèque de manuscrits anciens et une collection inestimable d’icônes byzantines, fut dès l’origine un carrefour spirituel, accueillant pèlerins, savants et voyageurs de toutes confessions.
Relevant canoniquement du patriarcat grec orthodoxe de Jérusalem, cette institution multiséculaire voit aujourd’hui son existence même remise en question. L’arrêt rendu par la cour d’appel égyptienne fin mai 2025 ouvre, en effet, la voie à une possible expropriation de ses terres au profit de l’État, accompagnée de la menace d’expulsion de sa communauté monastique, forte d’une vingtaine de moines, pour la plupart d’origine grecque. Un tel scénario mettrait un terme brutal à une présence spirituelle ininterrompue depuis près de quinze siècles, dans un lieu où la prière, l’hospitalité et la conservation du savoir sacré ont toujours été au cœur de la vocation monastique.
Inscrit sur la liste du patrimoine mondial de l’Unesco depuis 2002, le monastère Sainte-Catherine se trouve ainsi confronté à une érosion préoccupante de son autonomie séculaire. Ce processus, s’il devait se poursuivre, risquerait non seulement d’altérer l’équilibre délicat entre tradition religieuse et souveraineté égyptienne, mais aussi d’effacer une part précieuse de la mémoire vivante du christianisme oriental, conservée au prix d’un isolement assumé et d’une fidélité sans faille à l’esprit du désert.
L’origine de cette crise remonte aux années qui ont suivi la révolution égyptienne de 2011. Sous l’impulsion du gouvernement alors dominé par les Frères musulmans (de juin 2012 à juillet 2013, ndlr), des procédures judiciaires furent engagées afin de contester les droits fonciers du monastère. Ces démarches, révélatrices d’une volonté politique d’affirmer la souveraineté de l’État sur des lieux à forte charge symbolique, ont abouti à la décision récemment rendue, laquelle redéfinit en profondeur les rapports entre la communauté religieuse et les autorités civiles.
Désormais, les moines du monastère Sainte‑Catherine du Sinaï ne sont plus considérés comme propriétaires, mais comme de simples « occupants autorisés », bénéficiant d’un droit d’usage strictement limité à leurs fonctions liturgiques.
Avant la décision juridique de 2025, ils ne disposaient vraisemblablement d’aucun titre de propriété formel : aucune preuve d’enregistrement cadastral ou d’acte notarié ne vient attester d’un droit de propriété légalement établi. Leur présence continue depuis près de mille cinq cents ans constituait toutefois un ancrage patrimonial implicite, reposant sur une forme de légitimité historique, voire coutumière. Le droit égyptien admet, dans certaines circonstances, que l’usage prolongé d’un bien puisse fonder un droit réel d’usage – sans pour autant conférer un droit de pleine propriété ou de disposition. Ce type de tenure, parfois désigné sous le nom de ḥikr, demeure subordonné à la reconnaissance étatique et ne suffit pas, en lui-même, à faire valoir un droit de propriété au sens strict.
La décision de 2025 clarifie ainsi une situation juridique jusque-là ambivalente, en affirmant explicitement la propriété de l’État tout en maintenant un droit d’usage limité pour la communauté monastique.
Selon des sources locales bien informées, cette évolution juridique s’inscrit dans le cadre d’un vaste projet de réaménagement territorial lancé en 2020 sous le nom de « Grande Transfiguration ». L’objectif affiché est de faire de la région de Sainte-Catherine une destination touristique de premier plan, centrée sur le tourisme religieux, écologique et thérapeutique.
Dans cette perspective, la présence monastique, avec ses exigences de retrait, de silence et de stabilité, peut apparaître comme un obstacle à la conversion du site en un pôle d’attraction touristique intégré – avec, à terme, le risque que le monastère ne soit progressivement vidé de sa vocation spirituelle et transformé en musée, rattaché aux logiques d’un patrimoine marchandisé.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La situation a suscité une vive inquiétude au sein des autorités grecques. Le premier ministre Kyriakos Mitsotakis est intervenu personnellement auprès du président égyptien Abdel Fattah Al-Sissi pour plaider la cause du monastère et de ses moines, soulignant l’importance de préserver l’intégrité spirituelle, historique et culturelle de ce site inestimable, dont la Grèce se considère coresponsable au regard de ses liens ecclésiologiques et historiques avec la communauté des moines orthodoxes du Sinaï.
En réponse à la controverse croissante, la présidence égyptienne a publié, le 30 mai 2025, un communiqué officiel dans lequel elle réaffirme son attachement au respect du statut sacré du monastère. Ce texte vise à contrecarrer les accusations selon lesquelles le projet de la Grande Transfiguration inclurait une évacuation du site ou une remise en cause de la présence monastique. Les autorités égyptiennes insistent sur le fait que l’initiative concerne exclusivement le développement de la ville environnante, sans atteinte directe au monastère.
La ville de Sainte-Catherine, qui s’étend à proximité immédiate du monastère, possède une résonance spirituelle unique. Elle est traditionnellement identifiée comme le lieu où Moïse reçut les Tables de la Loi, et certains y situent également la Transfiguration divine. De ce fait, elle constitue un espace sacré commun aux trois grandes religions monothéistes – judaïsme, christianisme et islam.
L’église dite du Buisson ardent, ou chapelle du Buisson ardent, se trouve au cœur même du monastère Sainte‑Catherine, dans cette même ville au pied du mont Sinaï. Érigée sur le site traditionnel où Moïse aurait entendu la voix divine émanant d’un buisson en feu sans se consumer, elle est intégrée à l’abside orientale de la grande basilique byzantine, construite sous Justinien au VIe siècle. Selon la tradition, cette chapelle abrite encore le buisson vivant, dont les racines affleureraient sous l’autel. Les visiteurs y accèdent depuis l’église principale, en se déchaussant en signe de respect, rappelant le geste de Moïse ôtant ses sandales sur la terre sacrée.
Bien plus qu’un simple lieu commémoratif, cette chapelle demeure le cœur vivant d’une mémoire partagée entre les trois monothéismes et le centre spirituel de la communauté monastique du Sinaï.
Face à la menace qui pèse sur l’intégrité matérielle et spirituelle du monastère Sainte-Catherine du Sinaï, il apparaît opportun d’envisager une médiation internationale sous l’égide de l’Unesco, institution multilatérale investie de la mission de protéger le patrimoine mondial de l’humanité. Le statut du monastère, inscrit depuis 2002 sur la liste du patrimoine mondial en raison de sa valeur universelle exceptionnelle, offre un fondement juridique et symbolique solide pour une telle intervention.
Dans le cadre des instruments juridiques existants – notamment la Convention concernant la protection du patrimoine mondial, culturel et naturel de 1972 –, l’Unesco est habilitée à envoyer une mission d’experts sur place afin d’évaluer l’impact potentiel du projet dit de la « Grande Transfiguration » sur la préservation des valeurs culturelles, religieuses et historiques du site. Une telle mission pourrait formuler des recommandations contraignantes ou incitatives à l’intention des autorités égyptiennes, en vue de concilier les objectifs de développement local avec le respect des engagements internationaux pris par l’Égypte en matière de sauvegarde patrimoniale.
Par ailleurs, l’Unesco pourrait jouer un rôle de médiateur entre l’État égyptien, la communauté monastique, le patriarcat grec orthodoxe de Jérusalem et les autorités grecques, en facilitant la mise en place d’un protocole d’accord qui garantirait le maintien de la vie monastique, la préservation du patrimoine matériel (manuscrits, icônes, bâtiments…) et la reconnaissance du rôle spirituel et historique du monastère. Une telle initiative contribuerait non seulement à désamorcer les tensions actuelles, mais aussi à renforcer la dimension interculturelle et interreligieuse du site, conformément aux objectifs de l’Unesco en matière de dialogue entre les civilisations.
Enfin, si la situation devait empirer, le Comité du patrimoine mondial pourrait envisager l’inscription du monastère sur la liste du patrimoine mondial en péril, mesure exceptionnelle, qui alerterait la communauté internationale sur la gravité de la situation et mobiliserait les moyens diplomatiques et financiers nécessaires à sa sauvegarde.
Par cette voie, il est encore possible de transformer une crise en opportunité : celle de renouveler l’engagement commun des États, des Églises et des institutions internationales en faveur d’un patrimoine spirituel dont la valeur dépasse les frontières nationales, et dont la sauvegarde concerne l’humanité tout entière.
Mohamed Arbi Nsiri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.06.2025 à 09:54
Paul Hadji-Lazaro, Docteur en économie écologique, Agence Française de Développement (AFD)
Andrew Skowno, Lead of the National Biodiversity Assessment program at the South African National Biodiversity Institute (SANBI), University of Cape Town
Antoine Godin, Économiste-modélisateur, Agence Française de Développement (AFD)
Julien Calas, Chargé de recherche biodiversité, Agence Française de Développement (AFD)
Selon le Forum économique mondial, plus de la moitié du PIB mondial repose, directement ou indirectement, sur des services rendus par la nature. Une nouvelle étude tâche de proposer des outils pour évaluer la dépendance à la biodiversité des différents secteurs de l'économie et des régions en prenant comme exemple l'Afrique du Sud
« Protéger la nature, c’est bien pour les amoureux des oiseaux et des fleurs, mais l’économie a d’autres priorités… ». Qui n’a jamais entendu une idée reçue de ce type ? Dans les débats publics, la défense de la biodiversité passe souvent pour le dada d’écologistes passionnés, éloignés des préoccupations « sérieuses » de la croissance économique ou de la finance. Cette vision est non seulement fausse, mais dangereuse car la santé des écosystèmes est le socle de notre prospérité économique, financière et sociale, partout sur la planète.
Forêts, sols, océans, insectes… fournissent une multitude de services écosystémiques – c’est-à-dire les bénéfices gratuits que nous rend la nature – indispensables à nos activités. Ces services vont de la pollinisation des cultures par les abeilles, à la purification de l’eau par les zones humides, en passant par la fertilité des sols, la régulation du climat ou la protection des côtes contre les tempêtes. Autrement dit, la nature est comme un fournisseur caché d'eau, d'air pur, de sols fertiles et de matières premières dans les chaînes d’approvisionnement de l’économie. Et aucune entreprise humaine ne saurait s’y substituer totalement.
Cette dépendance économique à la biodiversité n’a rien d’anecdotique. Selon le Forum économique mondial, plus de la moitié du PIB mondial repose, directement ou indirectement, sur des services rendus par la nature. L’agriculture et l’agroalimentaire bien sûr, mais aussi la pêche, la sylviculture, le tourisme, la construction, et même des industries comme l’automobile ou l’électronique, qui dépendent de ressources minières et d’eau pour leur production, toutes ont besoin d’un écosystème fonctionnel. Un rapport de la Banque de France évoque ainsi un possible « Silent Spring » financier, en référence au printemps silencieux provoqué par le DDT qui anéantissait les oiseaux décrit par la biologiste américaine Rachel Carson dans les années 1960. En décimant les espèces et les services écologiques, on fait peser un risque de choc majeur sur nos systèmes financiers quipourrait entraîner une réaction en chaîne sur l’ensemble de l’économie, en affectant l’emploi, le commerce, les prix, les recettes fiscales de l’État – exactement comme une crise économique classique, sauf que son déclencheur serait écologique.
À lire aussi : Comment évaluer l’impact du recul de la biodiversité sur le système financier français
Pour mieux comprendre, imaginons une réaction en domino : la disparition massive des pollinisateurs fait chuter les rendements agricoles ; moins de récoltes, c’est une pénurie de certaines denrées et une envolée des prix alimentaires ; les industries agroalimentaires tournent au ralenti, entraînant licenciements et baisse des revenus et du pouvoir d’achat des agriculteurs comme des ouvriers ; le pays doit importer à prix fort pour nourrir la population tandis que les rentrées fiscales diminuent… Le point de départ de ce scénario noir ? Quelques espèces d’insectes qu’on avait sous-estimées, et qui assuraient discrètement la pollinisation de nos cultures. La nouveauté c'est que ce principe de l’effet papillon – où l’altération d’un écosystème local finit par affecter l’ensemble de l’économie – est rendu explicite par de récents articles scientifiques.
Pour saisir concrètement l’ampleur du risque, penchons-nous sur un exemple parlant : celui de l’Afrique du Sud. Ce pays dispose d’une économie diversifiée (mines, agriculture, industrie) et d’écosystèmes riches mais sous pression. Pour une étudepubliée récemment, nous avons appliqué un nouvel outil de traçabilité des risques liés à la nature, afin de cartographier les secteurs économiques, les régions géographiques et les variables financières les plus vulnérables aux risques environnementaux.
Nos analyses révèlent que 80 % des exportations nettes de l’Afrique du Sud proviennent de secteurs fortement dépendants de l’approvisionnement en eau. Autrement dit, la quasi-totalité des biens que le pays vend au reste du monde – des métaux aux produits agricoles – nécessitent de l’eau à un moment ou un autre de leur production. Or l’eau ne tombe pas du ciel en quantité infinie : il faut des rivières alimentées par des pluies régulières, des sols qui retiennent cette eau, des forêts qui régulent son cycle… bref, un écosystème en bonne santé. Le hic, c’est que cette ressource vitale est déjà menacée. Un produit exporté sur quatre est issue d'une activité très dépendante de l’eau localisée dans une municipalité confrontée à un stress hydrique sérieux (sécheresse, pénurie d’eau potable, etc.). En 2018, la ville du Cap et ses près de 4 millions d'habitants frôlait la coupure d'eau générale. C’est ce genre de choc qui pourrait frapper durablement l’économie sud-africaine si rien n’est fait pour préserver la capacité des écosystèmes à réguler l’approvisionnement en eau.
Et ce n’est pas tout. Notre étude met aussi en lumière l’importance des risques indirects. En Afrique du Sud, près d’un quart des salaires du pays dépendent directement de secteurs exposés à la dégradation des écosystèmes (par exemple l’industrie manufacturière ou le secteur immobilier qui consomment beaucoup d’eau). En tenant compte des liens en amont et en aval (les fournisseurs, les clients, les sous-traitants), ce sont plus de la moitié des rémunérations qui deviennent menacées.
Autre mesure édifiante : certains secteurs économiques créent eux-mêmes les conditions de leur fragilité future. Prenons le secteur minier, pilier des exportations sud-africaines. Il exerce une pression énorme sur les écosystèmes (pollution des sols et des eaux, destruction de la végétation, etc.). Or, nous montrons que la moitié des exportations minières sont issues de municipalités où se trouvent un certain nombre des écosystèmes les plus menacés du pays en raison justement des pressions exercées par l’activité minière elle-même.
Ce paradoxe – l’industrie sciant la branche écologique sur laquelle elle est assise – illustre un risque de transition. Si le gouvernement décide de protéger une zone naturelle critique en y limitant les extractions, les mines situées là devront réduire la voilure ou investir massivement pour atténuer leurs impacts, avec un coût financier immédiat. Autre cas possible, si des acheteurs ou des pays importateurs décident de réduire leurs achats de produits miniers parce qu’ils contribuent à la destruction de la biodiversité, les mines exerçant le plus de pression sur les écosystèmes critiques devront aussi s’adapter à grand coût. Dans les deux cas, l’anticipation est clé : identifier ces points sensibles permet d’agir avant la crise, plutôt que de la subir.
Face à ces constats, la bonne nouvelle est qu’on dispose de nouvelles méthodes pour éclairer les décisions publiques et privées. En Afrique du Sud, nous avons expérimenté une approche innovante de traçabilité des risques liés à la nature. L’idée est de relier les données écologiques aux données économiques pour voir précisément quels acteurs dépendent de quels aspects de la nature dans quelle partie d’un pays donné.
Concrètement, cette méthode permet de simuler des chocs et d’en suivre les répercussions. Par exemple, que se passerait-il si tel service écosystémique venait à disparaître dans telle région ? On peut estimer la perte de production locale, puis voir comment cette perte se transmet le long des chaînes de valeur jusqu’à impacter le PIB national, l’emploi, les revenus fiscaux, les exportations ou les prix. L’outil intègre aussi l’autre versant du problème : le risque de transition, c’est-à-dire les conséquences économiques des actions envisagées pour éviter la dégradation écologique.
La méthode ne vise pas à identifier des secteurs économiques à « fermer » à cause de leurs pressions sur la nature ou une dépendance à des services écosystémiques dégradés. Elle vise plutôt à aider les décideurs politiques et les acteurs économiques à prioriser leurs actions (d’investissement ou de restriction) tout en tenant compte de l’importance socio-économique des secteurs sources de pressions ou dépendants de services écosystémiques dégradés.
En Afrique du Sud par exemple, l’institut national de la biodiversité et des chercheurs locaux ont utilisé les résultats montrant la forte dépendance de certains secteurs économiques à l’approvisionnement en eau pour animer des séminaires de mise en débat des résultats et rédiger des notes de recommandation de politiques publiques.
Loin d’opposer Nord et Sud, écologie et économie, la question de la biodiversité est désormais une opportunité pour chacun de contribuer à un enjeu transversal planétaire. Aucune économie n’est à l’abri. Un effondrement des pollinisateurs expose aussi bien les vergers de Californie que les champs de café en Éthiopie. La surpêche appauvrira aussi bien les communautés côtières d’Asie du Sud-Est que les consommateurs de poisson en Europe.
Biodiversité en berne signifie instabilité économique pour tous, du nord au sud. Malgré les tensions financières entre pays riches et pays en développement sur la répartition de l’effort, profitons du succès du nouveau round de négociations internationales de la convention biodiversité qui s’est tenu à Rome du 25 au 27 février dernier pour agir. A cette occasion, les membres de la convention biodiversité ont trouvé un accord sur une nouvelle stratégie de « mobilisation des ressources », visant à allouer 200 milliards de dollars par an à la conservation de la biodiversité « toutes sources confondues » d'ici à 2030. Désormais, le défi pour ces pays va être de se mettre d'accord sur les priorités d’allocation des fonds et d’évaluer comment la mise en œuvre de la convention est compatible avec leur propre endettement.
La méthode d’analyse des risques liés à la nature dans les décisions économiques et financières peut aider les décideurs à faire ces choix de manière éclairée. Elle peut aider à « réorienter les flux financiers » en faveur de la nature comme demandé par le nouveau cadre international de la biodiversité (Accord Kunming-Montréal adopté fin 2022). Elle peut aussi aider les entreprises à mesurer et divulguer leur dépendance aux écosystèmes comme recommandé par le groupe de travail privé de la Taskforce on Nature-related Financial Disclosures (TNFD). C’est le moment d’agir. Chaque gouvernement, chaque banque, chaque grande entreprise devrait dès maintenant se doter d’outils et de données pour évaluer son exposition aux risques écologiques et agir en conséquence grâce aux dernières avancées scientifiques.
Antoine Godin est membre de l'unité de recherche ACT de l'université Sorbonne Paris-Nord
Andrew Skowno, Julien Calas et Paul Hadji-Lazaro ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
29.06.2025 à 09:54
Anne Choquet, Enseignante chercheure en droit, laboratoire Amure (UBO, Ifremer, CNRS), Ifremer
Florian Aumond, Maître de conférences en droit public, Université de Poitiers
« Rien sur nous sans nous », tel est l’adage du Groenland, reprenant ainsi le slogan historique des groupes sociaux et nationaux marginalisés. À l’heure des velléités états-uniennes, de nouvelles coopérations avec la France émergent, notamment scientifiques.
La visite très médiatisée d’Emmanuel Macron au Groenland, une première pour un président français, marque une nouvelle dynamique de la politique étrangère dans l’Arctique. Elle met en lumière la solidarité transpartisane des acteurs politiques en France à l’égard du Danemark et du Groenland. Le pays signifie Terre des Kalaallit – en groenlandais Kalaallit Nunaat – du nom des Inuit, le plus grand groupe ethnique de l’île. La « terre verte » a gagné en visibilité stratégique et écologique en affrontant de nouveau les aspirations impériales de Donald Trump.
Organisée à l’invitation du premier ministre du Groenland, Jens-Frederik Nielsen, et de la Première ministre danoise, Mette Frederiksen, cette visite dépasse largement le simple statut d’escale protocolaire avant le Sommet du G7 au Canada. Elle s’inscrit dans une séquence entamée en mai 2025 avec le passage à Paris de la ministre groenlandaise des affaires étrangères et de la recherche. Quelques semaines plus tard, en marge de la troisième Conférence des Nations unies sur l’océan, le président français s’entretient à Monaco avec le premier ministre du Groenland.
Cette multiplication de rencontres signale un tournant : le Groenland n’est plus perçu comme une simple périphérie du royaume du Danemark, mais comme un partenaire politique, économique et scientifique en devenir. Avec quelles formes de coopération ?
En octobre 2015, François Hollande se rend au pied du glacier islandais Solheimajökull. Ce déplacement, survenu peu avant la COP21 à Paris, vise à alerter sur les effets des changements climatiques et à souligner l’intérêt d’un traité international sur la question – ce qui sera consacré avec l’adoption de l’accord de Paris. Dix ans plus tard, l’Arctique reste un espace d’alerte écologique mondial. Sa calotte glaciaire a perdu 4,7 millions de milliards de litres d’eau depuis 2002.
Lors de la troisième Conférence des Nations unies sur l’océan à Nice (Unoc), le 9 juin dernier, le président Macron affirme son soutien au Groenland : « Les abysses ne sont pas à vendre, pas plus que le Groenland n’est à prendre ».
Dans le contexte des tensions géopolitiques arctiques, le rapprochement franco-groenlandais brise l’imaginaire d’une France exclusivement tournée vers le Sud, l’Atlantique ou les espaces indopacifiques. On peut y voir l’émergence d’un axe arctique, certes encore peu exploré malgré quelques prémices sur le plan militaire, notamment avec des exercices réguliers de l’Otan. Quelques jours avant la visite présidentielle, deux bâtiments de la Marine nationale naviguent le long des côtes groenlandaises, en route vers le Grand Nord, afin de se familiariser avec les opérations dans la région. Plus largement, la France détient le statut d’État observateur au sein du Conseil de l’Arctique depuis 2000. Elle formalise son intérêt stratégique pour cette zone en 2016, avec la publication d’une première feuille de route pour l’Arctique.
Cette approche s’inscrit dans le cadre plus large d’une volonté européenne de renforcer sa présence dans une région longtemps dominée par les puissances traditionnelles locales :
les États côtiers de l’Arctique (A5) : Canada, Danemark, États-Unis, Fédération de Russie et Norvège ;
les huit États membres du Conseil de l’Arctique (A8) : Canada, Danemark, États-Unis, Fédération de Russie, Norvège, Finlande, Islande et Suède.
Fin 2021, l’Union européenne lance le programme Global Gateway, pour mobiliser des investissements et financer des infrastructures. Conforme à cette initiative, l’Union européenne et le Groenland, territoire d’outre-mer non lié par l’acquis communautaire signent en 2023 un partenariat stratégique relatif aux chaînes de valeur durables des matières premières.
La montée en exergue de la « Terre verte » sur la scène internationale se traduit par le déploiement progressif de sa diplomatie extérieure, malgré son statut d’entité territoriale non souveraine. Le territoire dispose de représentations officielles à Bruxelles (la première à l’étranger, ouverte en 1992), à Washington D.C. (ouverte en 2014), à Reykjavik (ouverte en 2017) et à Pékin (ouverte en 2021). De leur côté, les États-Unis ouvrent un consulat à Nuuk en 2020, sous la première présidence Trump. L’Union européenne y inaugure un bureau en mars 2024, rattaché à la Commission européenne, dans le cadre de sa stratégie arctique.
À lire aussi : Quel serait le prix du Groenland s’il était à vendre ?
L’annonce faite par le président Macron lors de sa visite à Nuuk de l’ouverture prochaine d’un consulat général français au Groenland confirme cette tendance.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le Groenland est un territoire autonome du Royaume du Danemark. Depuis la loi sur l’autonomie élargie du Groenland entrée en vigueur le 21 juin 2009, il dispose de compétences accrues, notamment dans la gestion de ses ressources naturelles.
Sa position géostratégique au cœur de l’Arctique et ses richesses en minerais en font un territoire d’intérêt croissant pour plusieurs puissances extérieures comme les États-Unis, la Chine et l’Union européenne.
Parmi les ressources d’intérêts, « on y trouverait un nombre considérable de minéraux (rares). Certains sont considérés comme stratégiques, dont le lithium, le zirconium, le tungstène, l’étain, l’antimoine, le cuivre sédimentaire, le zinc, le plomb (à partir duquel on produit du germanium et du gallium), le titane et le graphite, entre autres ». Le Groenland bénéficie notamment de contextes géologiques variés favorables à la présence de gisements de [terres rares] attractifs pour les compagnies d’exploration.
La France cherche à tisser des liens économiques durables avec le Groenland. En 2022, la stratégie polaire française à l’horizon 2030 mentionne le Groenland. Elle invite à un réengagement de la science française au Groenland, ce qui signe une évolution importante de la recherche, notamment en sciences humaines et sociales. En 2016, dans la « Feuille de route nationale sur l’Arctique », le Groenland apparaît au travers de ses ressources potentielles, et non au niveau de la dimension bilatérale scientifique.
La stratégie polaire de la France à horizon 2030 propose plusieurs pistes « comme l’installation d’un bureau logistique, l’implantation dans une station déjà opérée par des universités, la création d’une infrastructure en lien avec les autorités et municipalités groenlandaises ». La recherche française s’y est affirmée, notamment grâce au soutien déterminant de l’Institut polaire français Paul-Émile-Victor (Ipev).
L’Université Ilisimatusarfik, la seule université groenlandaise, située à Nuuk, a déjà des partenariats avec des universités et grandes écoles françaises, notamment grâce au réseau européen Erasmus + auquel est éligible le Groenland. Elle entretient des relations privilégiées avec des universités françaises par le biais du réseau d’universités, d’instituts de recherche et d’autres organisations que constitue l’Université de l’Arctique (Uarctic). Sont membres uniquement trois universités françaises : Aix Marseille Université, Université de Bretagne Occidentale et Université de Versailles Saint-Quentin-en-Yvelines.
Du côté groenlandais, une invitation à un renforcement de la coopération bilatérale avec la France s’observe dans la stratégie pour l’Arctique. La France est expressément citée à côté de l’Allemagne, de la Belgique, des Pays-Bas, du Luxembourg, de l’Espagne, de l’Italie, de la Pologne et de la République tchèque.
Ce croisement stratégique invite au développement de partenariats bilatéraux nouveaux et structurants.
Si le Groenland accepte une coopération internationale, ce n’est pas à n’importe quel prix. Le Kalaallit Nunaat cherche à être plus qu’une plateforme extractiviste, et à ne pas être vu uniquement comme un réservoir de ressources à exploiter. La vision stratégique nationale actuellement promue invite à une approche plus diversifiée qui mêlerait les différentes industries au sein desquelles le Groenland souhaite investir. Toute évolution devra nécessairement compter sur la volonté de la population groenlandaise, composée en très grande majorité d’Inuits. Comme l’affiche avec force le territoire notamment dans sa stratégie pour l’Arctique » : « Rien sur nous sans nous ».
Cet article a été co-rédigé avec Arthur Amelot, consultant expert auprès de la Commission européenne.
Anne Choquet est membre du Comité National Français des Recherches Arctiques et Antarctiques (CNFRAA).
Florian Aumond est membre du Comité national français des recherches arctiques et antarctiques.
29.06.2025 à 08:30
Nicolas Bancel, Professeur ordinaire à l’université de Lausanne (Unil), chercheur au Centre d’histoire internationale et d’études politiques de la mondialisation (Unil), co-directeur du Groupe de recherche Achac., Université de Lausanne
Pascal Blanchard, Historien, chercheur-associé au Centre d’histoire internationale et d’études politiques de la mondialisation, co-directeur du Groupe de recherche Achac, Université de Lausanne
Trois pays majeurs du « pré-carré » français en Afrique subsaharienne ont connu des coups d’État militaires adossés à discours de rupture et de rejet de la France : le Mali (2021), le Burkina Faso (2022) et le Niger (2023). C’est la fin des relations néocoloniales franco-africaines conçues au moment des indépendances des années 1960 et maintenues, voire renforcées, pendant les années 1980 et 1990, particulièrement par François Mitterrand. Comment comprendre les choix de l’ancien président de la République, malgré un programme de gauche favorable au renouveau démocratique et à l’émancipation des pays africains ?
À l’occasion de la publication de l’ouvrage François Mitterrand, le dernier empereur. De la colonisation à la françafrique (aux éditions Philippe Rey, 2025), la gestion des liens et des relations entre l’Afrique et la France par l’ancien président de la République interroge : et si les deux mandats de François Mitterrand avaient été une occasion manquée de rompre avec ce que l’on nomme aujourd’hui la Françafrique ? Ne peut-on pas, en outre, imaginer cette gestion « de gauche » de la relation avec le continent comme une continuité de ce que furent les « égarements » d’une partie de la gauche française aux heures les plus sombres des guerres de décolonisations ?
La situation actuelle appelle en effet une analyse de longue durée. Rappelons les faits récents : depuis 2020, trois pays majeurs du « pré-carré » français en Afrique subsaharienne ont connu des coups d’État : le Mali en 2021, le Burkina Faso en 2022), puis le Niger en 2023. L’histoire politique et sociale de ces coups d’État est complexe et bien différente d’une nation à l’autre, mais un fait doit retenir notre attention. Le plus significatif quant aux relations franco-africaines, c’est que ces coups d’État se sont adossés à un discours clair de rupture et de rejet de la France, considérée comme une puissance néocoloniale empêchant une « véritable » indépendance, au-delà des indépendances « formelles » de 1960.
Que ce discours puisse être relativisé – la France a perdu beaucoup de ses instruments et de son pouvoir d’influence depuis les indépendances – n’infirme pas le fait que celui-ci semble avoir eu une résonance certaine dans les populations de ces pays, en particulier la jeunesse, comme en témoigne les manifestations d’hostilité envers l’ancienne puissance tutélaire (même si l’évaluation de la prégnance de ce discours est difficile, en raison notamment de l’absence de moyen de mesure de l’opinion).
La récente décision du Sénégal, allié historique et l’un des plus « fidèles » à la France – avec la Côte d’Ivoire et le Gabon –, de demander le retrait des troupes françaises ajoute un signe clair. Nous sommes dans une conjoncture historique caractérisée, qui marque la fin des relations franco-africaines telles qu’elles avaient été conçues dès 1960 : un mélange de liens directs entre les chefs d’État français et les chefs d’État africains – marque du « domaine réservé » du président de la République s’autonomisant de tout contrôle parlementaire et, plus largement, démocratique –, d’interventions militaires au prétexte de protéger les ressortissants français afin de protéger les États « amis », d’affairisme trouble animé par des réseaux eux-mêmes opaques et, enfin, d’instrument d’influence tel que le contrôle de la monnaie (le franc CFA étant sous contrôle du Trésor français), des bases militaires garantes des positions géostratégiques de l’Hexagone ou encore les centres culturels, chargés de diffuser l’excellence de la culture française. Le tout institutionnalisé à travers des accords bilatéraux de coopération).
Or, au cours des deux mandats de François Mitterrand, l’Afrique subsaharienne francophone avait connu d’importantes poussées démocratiques dynamisées par l’appétence de la société civile, comme ce fut le cas entre la fin des années 1980 et le début des années 1990, notamment au Mali, au Burkina Faso ou au Niger. François Mitterrand parvient au pouvoir en 1981 (il y restera jusqu’en 1995) comme patron de la gauche et porteur d’un programme commun qui consacre plusieurs de ses propositions aux relations de la France avec le « tiers-monde », comprenant une normalisation des rapports avec les anciennes colonies d’Afrique.
Le programme commun de la gauche est typique du courant tiers-mondiste des années 1970, souhaitant rompre avec le nécolonialisme, qui a déterminé des « aires d’influence » occidentales structurant, en articulation avec la guerre froide, les relations internationales. François Mitterrand a pourtant un lourd passé colonial : il a été ministre de la France d’outre-mer en 1950 et surtout ministre de l’intérieur et enfin ministre de la justice durant la guerre d’Algérie, au cours de laquelle il a adopté des positions ultrarépressives. Des marqueurs traumatiques au sein de la gauche française et qui sont restés invisibles et inaudibles depuis soixante-dix ans. Jamais il n’a été anticolonialiste, au contraire, toute son action politique durant la IVe République a visé à conserver l’empire. Or, pour devenir le personnage central de la gauche, ce passé est inassumable. François Mitterrand va donc réécrire sa biographie au cours des années 1960 et 1970 à travers ses ouvrages, pour se présenter comme un contempteur de la colonisation, qui aurait même anticipé les indépendances. Pure fiction, mais le récit prend et le légitime comme leader de la gauche.
En 1981, dans cette dynamique, il nomme Jean-Pierre Cot au ministère de la coopération et celui-ci croit naïvement que sa feuille de route est d’appliquer les changements inscrits dans le programme commun, avec, pour horizon, la suppression du ministère de la coopération et la réintégration de l’Afrique dans les prérogatives du ministère des affaires étrangères. Car, si formellement ces prérogatives existent puisque la direction des affaires africaines et malgaches (DAM) du ministère des affaires étrangères gouverne normalement la diplomatie, le domaine réservé présidentiel concernant l’Afrique s’incarne dans une « cellule africaine » dont les membres sont nommés par le fait du prince ; ce dont témoignera, d’ailleurs, avec éclat, la nomination de Jean-Christophe Mitterrand, le propre fils de François Mitterrand, au sein de cette cellule. Dans ce tableau, Jean-Pierre Cot dérange : en tenant ouvertement un discours de recentrage des dépenses du ministère et en refusant l’octroi de subsides pour des dépenses somptuaires de potentats locaux, tout en encourageant la démocratisation des régimes africains, il indispose plusieurs de ceux-ci, qui en font état à François Mitterrand.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En 1982, François Mitterrand est à la croisée des chemins : doit-il poursuivre l’expérience de rupture initiée par Jean-Pierre Cot ou revenir aux pratiques bien implantées de la Françafrique ? Il choisit alors la seconde option. Bien évidemment, les contraintes de la realpolitik expliquent en partie ce revirement : en répondant aux sollicitations de quelques dignitaires africains, le président français maintient en place la Françafrique et donc, dans son esprit, l’influence géopolitique de la France). Car pour François Mitterrand, farouche défenseur de l’empire durant la période coloniale, l’influence française dans les anciennes colonies répond en définitive à une forme de continuité. Certes, la France a perdu la possession de ces territoires, mais, finalement, elle peut continuer à exercer son influence sur ceux-ci, influence qui est pour François Mitterrand, comme l’était l’empire au temps des colonies, la condition de la puissance de l’Hexagone. Ce faisant, il affermit les relations quasi incestueuses entre les chefs d’États africains et le président de la République française, relations émancipées de tout contrôle démocratique comme nous l’avons vu, en France comme en Afrique. Et François Mitterrand ne se contente pas de reprendre de lourd héritage du « pré-carré », il le renforce.
Entre 1981 et 1995, la France procédera à pas moins d’une trentaine d’interventions militaires en Afrique et, surtout, François Mitterrand n’encouragera jamais concrètement les poussées démocratiques, malgré les ambiguïtés de son discours de La Baule, en 1990, laissant entendre une « prime à la démocratisation », qui ne sera jamais mise en œuvre. De plus, les scandales autour de la cellule africaine se multiplieront, mettant directement en cause son fils Jean-Christophe et, à travers lui, la figure de François Mitterrand et l’image de la France dans les pays africains.
Une occasion historique de renouveler les relations franco-africaines a donc été perdue sous les deux mandats de François Mitterrand. Ses successeurs suivirent les pas du « sphinx », fossilisant le système de la Françafrique. Seul Emmanuel Macron osa poser crûment la question du maintien de ce système, mais le « en même temps » macroniste – entre initiatives mémorielles visant la mise au jour des responsabilités historiques de la France durant le génocide des Tutsis, dans la guerre du Cameroun ou dans les massacres de Madagascar (1947) avec un rapport à venir, et un soutien effectif à des régimes corrompus – a rendu cette politique illisible.
Le résultat de ce blocage, permanent après 1982, sont sous nos yeux : une stigmatisation de la France comme puissance néocoloniale, le revirement anti-français de plusieurs pays de l’ancien « pré-carré » et son remplacement par d’autres acteurs mondiaux, à l’image de la Chine ou de la Russie.
François Mitterrand avait pourtant un programme, une majorité politique et un soutien global de l’opinion. Les fantômes de la colonisation ont eu raison d’une rupture qui aurait probablement changé l’histoire. C’est bien son parcours durant la période coloniale qui explique sa politique, celle d’un homme qui avait grandi avec l’empire, qui l’avait promu et défendu jusqu’aux ultimes moments de sa chute… et avait regardé celui-ci s’effondrer avec regret.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.06.2025 à 08:30
Jodie L. Rummer, Professor of Marine Biology, James Cook University
Joel Gayford, PhD Candidate, Department of Marine Biology, James Cook University
Vous avez peut-être déjà vu cette scène dans votre documentaire animalier préféré. Le prédateur surgit brutalement de sa cachette, gueule grande ouverte, et sa proie… se fige soudain. Elle semble morte. Cette réponse de figement – appelée « immobilité tonique » – peut sauver la vie de certains animaux. Les opossums sont célèbres pour leur capacité à « faire le mort » afin d’échapper aux prédateurs. Il en va de même pour les lapins, les lézards, les serpents et même certains insectes.
Mais que se passe-t-il quand un requin agit ainsi ?
Dans notre dernière étude, nous avons exploré ce comportement étrange chez les requins, les raies et leurs proches parents. Chez ce groupe, l’immobilité tonique est déclenchée lorsque l’animal est retourné sur le dos : il cesse de bouger, ses muscles se relâchent et il entre dans un état proche de la transe. Certains scientifiques utilisent même cette réaction pour manipuler certains requins en toute sécurité.
Mais pourquoi cela se produit-il ? Et ce comportement aide-t-il réellement ces prédateurs marins à survivre ?
Bien que ce phénomène soit largement documenté dans le règne animal, les causes de l’immobilité tonique restent obscures – surtout dans l’océan. On considère généralement qu’il s’agit d’un mécanisme de défense contre les prédateurs. Mais aucune preuve ne vient appuyer cette hypothèse chez les requins, et d’autres théories existent.
Nous avons testé 13 espèces de requins, de raies et une chimère – un parent du requin souvent appelé « requin fantôme » – pour voir si elles entraient en immobilité tonique lorsqu’on les retournait délicatement sous l’eau.
Sept espèces se sont figées. Nous avons ensuite analysé ces résultats à l’aide d’outils d’analyse évolutive pour retracer ce comportement sur plusieurs centaines de millions d’années d’histoire des requins.
Alors, pourquoi certains requins se figent-ils ?
Trois grandes hypothèses sont avancées pour expliquer l’immobilité tonique chez les requins :
Une stratégie anti-prédateur – « faire le mort » pour éviter d’être mangé.
Un rôle reproductif – certains mâles retournent les femelles lors de l’accouplement, donc l’immobilité pourrait réduire leur résistance.
Une réponse à une surcharge sensorielle – une sorte d’arrêt réflexe en cas de stimulation extrême.
Mais nos résultats ne confirment aucune de ces explications.
Il n’existe pas de preuve solide que les requins tirent un avantage du figement en cas d’attaque. En réalité, des prédateurs modernes, comme les orques, exploitent cette réaction en retournant les requins pour les immobiliser, avant d’arracher le foie riche en nutriments – une stratégie mortelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’hypothèse reproductive est aussi peu convaincante. L’immobilité tonique ne varie pas selon le sexe, et rester immobile pourrait même rendre les femelles plus vulnérables à des accouplements forcés ou nocifs.
Quant à la théorie de la surcharge sensorielle, elle reste non testée et non vérifiée. Nous proposons donc une explication plus simple : l’immobilité tonique chez les requins est probablement une relique de l’évolution.
Notre analyse suggère que l’immobilité tonique est un trait « plésiomorphe » – c’est-à-dire ancestral –, qui était probablement présent chez les requins, les raies et les chimères anciens. Mais au fil de l’évolution, de nombreuses espèces ont perdu ce comportement.
En fait, nous avons découvert que cette capacité avait été perdue au moins cinq fois indépendamment dans différents groupes. Ce qui soulève une question : pourquoi ?
Dans certains environnements, ce comportement pourrait être une très mauvaise idée. Les petits requins de récif et les raies vivant sur le fond marin se faufilent souvent dans des crevasses étroites des récifs coralliens complexes pour se nourrir ou se reposer. Se figer dans un tel contexte pourrait les coincer – ou pire. Perdre ce comportement aurait donc pu être un avantage dans ces lignées.
Que faut-il en conclure ?
Plutôt qu’une tactique de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un « bagage évolutif » – un comportement qui a jadis servi, mais qui persiste aujourd’hui chez certaines espèces simplement parce qu’il ne cause pas assez de tort pour être éliminé par la sélection naturelle.
Un bon rappel que tous les traits observés dans la nature ne sont pas adaptatifs. Certains ne sont que les bizarreries de l’histoire évolutive.
Notre travail remet en question des idées reçues sur le comportement des requins, et éclaire les histoires évolutives cachées qui se déroulent encore dans les profondeurs de l’océan. La prochaine fois que vous entendrez parler d’un requin qui « fait le mort », souvenez-vous : ce n’est peut-être qu’un réflexe musculaire hérité d’un temps très ancien.
Jodie L. Rummer reçoit des financements de l’Australian Research Council. Elle est affiliée à l’Australian Coral Reef Society, dont elle est la présidente.
Joel Gayford reçoit des financements du Northcote Trust.
27.06.2025 à 11:14
Jacques Rupnik, Directeur de recherche émérite, Centre de recherches internationales (CERI), Sciences Po
Nawrocki’s narrow victory (50.89%) over Trzaskowski, the mayor of Warsaw and candidate of the government coalition, illustrates and reinforces the political polarisation of Poland and the rise of the populist “Trumpist” right in Central and Eastern Europe. Since the start of the war in Ukraine, there has been much speculation about whether Europe’s geopolitical centre of gravity is shifting eastwards. The Polish election seems to confirm that the political centre of gravity is shifting to the right.
We are witnessing a relative erosion of the duopoly of the two major parties, Civic Platform (PO) and Law and Justice (PiS), whose leaders – the current Prime Minister, Donald Tusk, and Jarosław Kaczyński respectively – have dominated the political landscape for over twenty years.
Kaczyński’s skill lay in propelling a candidate with no responsibilities in his party, who was little known to the general public a few months ago, and, above all, who is from a different generation, to the presidency (a position held since 2015 by a PiS man, Andrzej Duda). Nawrocki, a historian by training and director of the Polish Institute of National Remembrance, has helped shape PiS’s memory policy. He won the second round, despite his troubled past as a hooligan, by appealing to voters on the right.
In the first round, he won 29.5% of the vote, compared to Trzaskowski’s 31.36%, but the two far-right candidates, Sławomir Mentzen (an ultra-nationalist and economic libertarian) and Grzegorz Braun (a monarchist, avowed reactionary, and anti-Semite), won a total of 21% of the vote. They attracted a young electorate (60% of 18–29-year-olds), who overwhelmingly transferred their votes to Nawrocki in the second round.
A weekly email in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Despite a high turnout of 71% and favourable votes from the Polish diaspora (63%), Trzaskowski was unable to secure enough votes from the first-round candidates linked to the governing coalition, including those on the left (who won 10% between them) and the centre-right (Szymon Hołownia’s Third Way movement, which won 5% in the first round).
There are two Polands facing each other: the big cities, where incomes and levels of education are higher, and the more rural small towns, which are more conservative on social issues and more closely linked to the Catholic Church. The themes of nationhood – Nawrocki’s campaign slogan was “Poland first, Poles first” – family, and traditional values continue to resonate strongly with an electorate that has been loyal to PiS for more than twenty years. The electoral map, which shows a clear north-west/south-east divide, is similar to those of previous presidential elections and even echoes the partition of Poland at the end of the eighteenth century. The PiS vote is strongest in the part of the country that was under Russian rule until 1918. A more traditional Catholicism in these less developed regions, coupled with a strong sense of national identity, partly explains these historical factors.
The economic explanation for the vote is unconvincing. Over the past 25 years, Poland has undergone tremendous transformation, driven by steady economic growth. GDP per capita has risen from 25% to 80% of the EU average, although this growth has been unevenly distributed. Nevertheless, a relatively generous welfare state has been preserved.
Clearly, however, this growth, driven by investment from Western Europe (primarily Germany) and European structural funds (3% of GDP), does not provide a sufficient electoral base for a liberal, centrist, pro-European government.
It is precisely the government’s performance that may hold the key to Trzaskowski’s failure. Having come to power at the end of 2023 with a reformist agenda, Donald Tusk’s government has only been able to implement part of its programme, and it is difficult to be the candidate of an unpopular government. Conversely, the governing coalition has been weakened by the failure of its candidate.
The main reason for the stalling of reforms is the presidential deadlock. Although the president has limited powers, he countersigns laws and overriding his veto requires a three fifth majority in parliament, which the governing coalition lacks.
The president also plays a role in foreign policy by representing the country, and above all by appointing judges, particularly to the Supreme Court. This has hindered the judicial reforms expected after eight years of PiS rule. It is mainly in this area that Duda has obstructed progress. The election of Nawrocki, who is known for his combative nature, suggests that the period of cohabitation will be turbulent.
Donald Tusk is now more popular in Europe than in Poland; in this respect, we can speak of a “Gorbachev syndrome”. In Central Europe, the Visegrad Group (comprising Hungary, Poland, the Czech Republic, and Slovakia) is deeply divided by the war in Ukraine, but it could find common ground around a populist sovereignty led by Hungary’s Viktor Orbán. Orbán was the first to congratulate Nawrocki on his victory, followed by his Slovak neighbour Robert Fico. The Czech Republic could also see a leader from this movement come to power if Andrej Babiš wins the parliamentary elections this autumn. Nawrocki would fit right into this picture.
Since Donald Tusk returned to power, particularly during Poland’s EU presidency, which ends on 30 June, the focus has been on Poland’s “return” to the heart of the European process. Against the backdrop of the war in Ukraine and Poland’s pivotal role in coordinating a European response, the Weimar Group (comprising Paris, Berlin, and Warsaw) has emerged as a key player. Three converging factors have made this possible: the French president’s firm stance toward Russia; the new German chancellor, Friedrich Merz, breaking a few taboos on defence and budgetary discipline; and Donald Tusk, the former president of the European Council, regaining a place at the heart of the EU that his predecessors had abandoned. A framework for a strategic Europe was taking shape.
However, President Nawrocki, and the PiS more generally, are taking a different approach to the EU: they are positioning themselves as Eurosceptic opponents defending sovereignty. They are playing on anti-German sentiment by demanding reparations 80 years after the end of the Second World War and asserting Poland’s sovereignty in the face of a “Germany-dominated Europe”. The Weimar Triangle, recently strengthened by the bilateral treaty between France and Poland signed on 9 May 2025, could be weakened on the Polish–German flank.
As a historian and former director of the Second World War Museum in Gdansk and the Institute of National Remembrance, Nawrocki is well placed to exploit this historical resentment. He has formulated a nationalist memory policy centred on a discourse of victimhood, portraying Poland as perpetually under attack from its historic enemies, Russia and Germany.
While there is a broad consensus in Poland regarding the Russian threat, opinions differ regarding the government’s desire to separate the traumas of the past, particularly those of the last war, from the challenges of European integration today.
Memory issues also play a prominent role in relations with Ukraine. There is total consensus on the need to provide military support to Ukraine, under attack: this is obvious in Poland, given its history and geography – defending Ukraine is inseparable from Polish security. However, both Nawrocki and Trzaskowski have touched upon the idea that Ukraine should apologise for the crimes committed by Ukrainian nationalists during the last war, starting with the massacre of more than 100,000 Poles in Volyn (Volhynia), north-western Ukraine) by Stepan Bandera’s troops.
Alongside memory policy, Nawrocki and the PiS are calling for the abolition of the 800 zloty (190 euros) monthly allowance paid to Ukrainian refugees. Poland had more than one million Ukrainian workers prior to the war, and more than two million additional workers have arrived since it started, although around one million have since relocated to other countries, primarily Germany and the Czech Republic.
Prior to the second round of the presidential election, Nawrocki readily signed the eight demands of the far-right candidate Sławomir Mentzen, which included ruling out Ukraine’s future NATO membership. Playing on anti-Ukrainian (and anti-German) sentiment, alongside Euroscepticism and sovereignty, is one of the essential elements of the new president’s nationalist discourse.
Certain themes of the Polish election converge with a trend present throughout Central and Eastern Europe. We saw this at work in the Romanian presidential election, where the unsuccessful far-right nationalist candidate, George Simion, came to Warsaw to support Nawrocki, just as the winner, the pro-European centrist Nicușor Dan, lent his support to Trzaskowski. Nawrocki’s success reinforces an emerging “Trumpist” movement in Eastern Europe, with Viktor Orbán in Budapest seeing himself as its self-proclaimed leader. A year ago, Orbán coined the slogan “Over there (in the United States), it’s MAGA; here, it will be MEGA: Make Europe Great Again”. The “Patriots for Europe” group, launched by Orbán last year, is intended to unify this movement within the European Parliament.
American conservative networks, through the Conservative Political Action Conference (CPAC), a gathering of international hard-right figures, and the Trump administration are directly involved in this process. Shortly before the presidential election, Nawrocki travelled to Washington to arrange a photo opportunity with Trump in the Oval Office.
Most notably, two days before the election, Kristi Noem, the US Secretary of Homeland Security, was dispatched on a mission to Poland. Speaking at the CPAC conference in Rzeszów, she explicitly linked a vote for Nawrocki to US security guarantees for Poland:
“If you (elect) a leader that will work with President Donald J. Trump, the Polish people will have a strong ally that will ensure that you will be able to fight off enemies that do not share your values. […] You will have strong borders and protect your communities and keep them safe, and ensure that your citizens are respected every single day. […] You will continue to have a U.S. presence here, a military presence. And you will have equipment that is American-made, that is high quality.”
“Fort Trump”, that is how the outgoing President Andrzej Duda named the US military base financed by Poland after a bilateral agreement was signed with Donald Trump during his first term in office, in 2018. Similarly, the US House Committee on Foreign Affairs sent a letter to the President of the European Commission accusing her of applying “double standards”, pointing out that EU funds had been blocked when the PiS was in power, and claiming that European money had been used to influence the outcome of the Polish presidential election in favour of Trzaskowski. The letter was posted online on the State Department website. Prioritising the transatlantic link at the expense of strengthening Europe was one of the issues at stake in the Warsaw presidential election.
CPAC is playing a significant role in building a Trumpist national-populist network based on rejecting the “liberal hegemony” established in the post-1989 era, regaining sovereignty from the EU, and defending conservative values against a “decadent” Europe. Beyond the Polish presidential election, the goal seems clear: to divide Europeans and weaken them at a time when the transatlantic relationship is being redefined.
Jacques Rupnik ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.06.2025 à 17:33
Andrew Corbett, Senior Lecturer in Defence Studies, King's College London
Le sommet de l’OTAN qui vient de se tenir à La Haye a mis en lumière la profondeur des divergences entre les États-Unis et leurs alliés européens. Le secrétaire général Mark Rutte tente de préserver l’unité d’une Alliance bousculée par le recentrage stratégique de Washington sur la Chine et par la compréhension dont Donald Trump fait preuve à l’égard de la Russie mais le communiqué final peine à dissimuler le degré de désaccord entre la plupart des membres de l’organisation et l’équipe en place à la Maison Blanche.
Mark Rutte avait une mission peu enviable cette semaine à La Haye. Le secrétaire général de l’OTAN devait concilier les visions divergentes des États-Unis et de l’Europe quant aux menaces sécuritaires du moment. À première vue, il a atteint son objectif, après voir employé la plus grande flagornerie à l’égard de Donald Trump afin d’obtenir de sa part des engagements cruciaux pour l’Alliance.
Mais ce sommet et les semaines qui l’ont précédé ont mis en évidence une réalité qu’il devient de plus en plus impossible à dissimuler : les États-Unis et l’Europe ne se perçoivent plus comme unis face à un ennemi commun. Créée en 1949 pour faire front à la menace soviétique, l’OTAN a été définie pendant toute la guerre froide par cet affrontement. Après l’annexion de la Crimée par la Russie en 2014, Moscou est redevenue l’adversaire principal. Mais ces dernières années, Washington se concentre bien plus sur une Chine de plus en plus belliqueuse.
Des signes symboliques reflètent ce basculement. Chaque déclaration finale de sommet de l’OTAN depuis l’invasion à grande échelle de l’Ukraine lancée par la Russie en 2022 affirmait l’attachement à « la légalité internationale, aux buts et principes de la Charte des Nations unies » et à « l’ordre international fondé sur des règles ».
Ce langage a disparu dans la déclaration publiée à La Haye le 25 juin. Contrairement aux précédentes, elle ne compte que cinq paragraphes, brefs et focalisés exclusivement sur les capacités militaires de l’Alliance et les investissements nécessaires pour les entretenir. On n’y retrouve aucune mention du droit international ni de l’ordre mondial.
Ce texte semble être le fruit d’un sommet volontairement raccourci pour minimiser le risque d’un esclandre de Donald Trump. Mais il illustre aussi le fossé grandissant entre la trajectoire stratégique américaine et les priorités sécuritaires du Canada et des membres européens de l’Alliance.
La brièveté de cette déclaration et la restriction de son contenu à un spectre aussi étroit laissent penser que des désaccords profonds ont persisté jusqu’au bout.
Depuis le début de l’invasion totale de l’Ukraine par la Russie en février 2022, les alliés de l’OTAN faisaient bloc derrière Kiev. Ce consensus semble aujourd’hui s’effriter.
Depuis janvier, l’administration Trump n’a autorisé aucune nouvelle aide militaire à l’Ukraine et a considérablement réduit son soutien matériel ainsi que ses critiques à l’encontre de Moscou. Trump a exprimé son souhait de clore rapidement le conflit, en acceptant de facto l’agression russe. Sa proposition envisage de reconnaître l’annexion de la Crimée par la Russie ainsi que son contrôle de certaines régions occupées (Lougansk, parties de Zaporijia, Donetsk et Kherson). L’Ukraine, dans ce scénario, renoncerait à intégrer l’Otan, mais pourrait recevoir des garanties de sécurité et rejoindre l’UE.
À l’inverse, les Européens ont redoublé d’efforts pour financer et armer la défense ukrainienne, tout en renforçant les sanctions contre Moscou.
Autre signal de cette divergence croissante : le secrétaire à la Défense américain, Pete Hegseth, a décidé de se retirer du groupe de contact pour la défense de l’Ukraine, une coalition internationale informelle coordonnant l’aide militaire à Kiev.
Voilà longtemps que Trump martèle que les membres de l’Otan doivent respecter leur engagement pris en 2014 de consacrer 2 % de leur PIB à la défense – un effort dont Rutte a reconnu qu’il était nécessaire. En 2018, Trump avait même réclamé que ce seuil soit porté à 4 ou 5 %, une demande alors jugée irréaliste. Mais désormais, signe d’une inquiétude croissante face à la Russie et aux hésitations américaines, les membres de l’Alliance – à l’exception de l’Espagne – sont convenus de porter leurs dépenses à 5 % du PIB dans les dix prochaines années.
L’article 3 du traité fondateur impose aux États membres de maintenir et de développer leurs capacités de défense. Or, depuis 2022, il est apparu que nombre d’entre eux ne sont pas préparés à une guerre de haute intensité. Le sentiment que la menace russe est désormais directe et concrète s’est renforcé, notamment chez les États baltes, mais aussi en Allemagne, au Royaume-Uni et en France. Ces pays ont reconnu la nécessité d’augmenter leurs budgets militaires et de renforcer leur état de préparation.
Les États-Unis, de plus en plus focalisés sur la Chine, vont redéployer une plus grande partie de leur flotte dans le Pacifique, y affecter leurs nouveaux équipements les plus performants, intensifier leurs opérations de présence, leurs exercices conjoints, leur entraînement et leur coopération avec les marines alliées dans le Pacifique occidental. Ce repositionnement suppose de réduire l’engagement américain en Europe – et donc, pour les Européens, de compenser cette absence pour assurer la dissuasion face à la Russie.
Le pilier central de l’Alliance reste l’article 5, souvent résumé par la formule « Une attaque contre l’un est une attaque contre tous ». Or, en route vers La Haye, Trump semblait hésitant sur la position américaine vis-à-vis de cet engagement. Interrogé sur ce point lors du sommet, il a simplement répondu : « Je le soutiens. C’est bien pour cela que je suis ici. Sinon, je ne serais pas venu. »
Lord Ismay, premier secrétaire général de l’Otan, aurait un jour résumé ainsi le rôle de l’Alliance : « maintenir les Russes à l’extérieur, les Américains à l’intérieur et les Allemands sous contrôle ». L’Allemagne est désormais au cœur de l’Alliance, les Américains sont là – mais l’attention de Washington est ailleurs. Et Rutte aura fort à faire pour maintenir Trump mobilisé sur la défense de l’Europe, s’il veut continuer à contenir la Russie.
Andrew Corbett ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.06.2025 à 17:09
Sarah Barringer, Ph.D. Candidate in English, University of Iowa
La Marche des fiertés LGBTQIA+ – ou Paris Pride – aura lieu samedi 28 juin 2025. Elle célébrera l’égalité des droits et la visibilité des communautés lesbienne, gai, bi, trans, intersexe, asexuel et queer alors qu’aux États-Unis, en Russie, en Hongrie ou en Italie, les discriminations fondées sur les mœurs, l’orientation sexuelle ou l’identité de genre se multiplient. Contrairement à un discours promu par les conservateurs états-uniens, qui tend à opposer les valeurs chrétiennes et la défense des minorités de genre, l’histoire du christianisme montre que des saints que l’on appellerait aujourd’hui « transgenres » ont bien été promus par l’Église médiévale.
Aux États-Unis, plusieurs États dirigés par des républicains ont restreint les droits des personnes transgenres : l’Iowa a signé une loi supprimant la protection des droits civils des personnes transgenres ; le Wyoming a interdit aux agences publiques d’exiger l’utilisation des pronoms préférés ; et l’Alabama a récemment adopté une loi qui ne reconnaît que deux sexes. Des centaines de projets de loi ont été présentés dans d’autres assemblées législatives d’État afin de restreindre les droits des personnes transgenres.
Plus tôt dans l’année, plusieurs décrets présidentiels ont été pris pour nier l’identité transgenre. L’un d’entre eux, intitulé « Éradiquer les préjugés anti-chrétiens », affirmait que les politiques de l’administration Biden en faveur de l’affirmation du genre étaient « antichrétiennes ». Il accusait la Commission pour l’égalité des chances dans l’emploi, de Biden, de forcer « les chrétiens à affirmer une idéologie transgenre radicale contraire à leur foi ».
Pourtant, de façon claire, tous les chrétiens ne sont pas antitrans. Et dans mes recherches sur l’histoire et la littérature médiévales, j’ai trouvé des preuves d’une longue histoire dans le christianisme de ce que l’on pourrait aujourd’hui appeler des saints « transgenres ». Bien que ce terme n’existait pas à l’époque médiévale, l’idée d’hommes vivant comme des femmes ou de femmes vivant comme des hommes, était incontestablement présente à cette période. De nombreux chercheurs ont suggéré que l’utilisation du terme moderne « transgenre » permettait d’établir des liens précieux pour comprendre les parallèles historiques.
Il existe au moins 34 récits documentés sur la vie de saints transgenres datant des premiers siècles du christianisme. Initialement rédigées en latin ou en grec, plusieurs histoires de saints transgenres ont été traduites dans les langues vernaculaires.
Parmi les 34 saints originaux, au moins trois ont acquis une grande popularité dans l’Europe médiévale : sainte Eugénie, sainte Euphrosyne et saint Marinos. Tous trois sont nés femmes, mais se sont coupé les cheveux et ont revêtu des vêtements masculins pour vivre comme des hommes et entrer dans des monastères.
Eugénie, élevée dans la religion païenne, est entrée au monastère pour en savoir plus sur le christianisme et est devenue abbesse. Euphrosyne est entrée au monastère pour échapper à un prétendant indésirable et y a passé le reste de sa vie. Marinos, né Marina, a décidé de renoncer à sa condition de femme et de vivre avec son père au monastère en tant qu’homme.
Ces récits étaient très lus. L’histoire d’Eugénie est apparue dans deux des manuscrits les plus populaires de l’époque : Vies de saints, d’Ælfric, et la Légende dorée, de Jacques de Voragine. Ælfric était un abbé anglais qui a traduit les vies des saints latins en vieil anglais au Xe siècle, les rendant ainsi accessibles à un large public profane. La Légende dorée a été écrite en latin et compilée au XIIIe siècle ; elle fait partie de plus d’un millier de manuscrits.
Euphrosyne apparaît également dans les vies des saints d’Ælfric, ainsi que dans d’autres textes en latin, en moyen anglais et en ancien français. L’histoire de Marinos est disponible dans plus d’une douzaine de manuscrits dans au moins 10 langues. Pour ceux qui ne savaient pas lire, les vies des saints d’Ælfric et d’autres manuscrits étaient lus à haute voix dans les églises pendant le service religieux le jour de la fête du saint.
Une petite église à Paris construite au Xe siècle était consacrée à Marinos, et les reliques de son corps auraient été conservées dans le monastère de Qannoubine au Liban.
Tout cela pour dire que de nombreuses personnes parlaient de ces saints.
Au Moyen Âge, la vie des saints était moins importante d’un point de vue historique que d’un point de vue moral. En tant que récit moral, le public n’était pas censé reproduire la vie d’un saint, mais apprendre à imiter les valeurs chrétiennes.
La transition entre l’homme et la femme devient une métaphore de la transition entre le paganisme et le christianisme, entre la richesse et la pauvreté, entre la mondanité et la spiritualité. L’Église catholique s’opposait au travestissement dans les lois, les réunions liturgiques et d’autres écrits. Cependant, le christianisme honorait la sainteté de ces saints transgenres.
Dans un recueil d’essais de 2021 sur les saints transgenres et queers de l’époque médiévale, les chercheurs Alicia Spencer-Hall et Blake Gutt affirment que le christianisme médiéval considérait la transidentité comme sacrée.
« La transidentité n’est pas seulement compatible avec la sainteté ; la transidentité elle-même est sacrée », écrivent-ils. Les saints transgenres ont dû rejeter les conventions afin de vivre leur vie authentique, tout comme les premiers chrétiens ont dû rejeter les conventions afin de vivre en tant que chrétiens.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La spécialiste en littérature Rhonda McDaniel explique qu’au Xe siècle en Angleterre, l’adoption des valeurs chrétiennes consistant à rejeter la richesse, le militarisme masculin ou la sexualité a permis aux gens de dépasser plus facilement les idées strictes sur le genre masculin et féminin. Au lieu de définir le genre par des valeurs distinctes pour les hommes et les femmes, tous les individus pouvaient être définis par les mêmes valeurs chrétiennes.
Historiquement, et même à l’époque contemporaine, le genre est associé à des valeurs et des rôles spécifiques, comme le fait de supposer que les tâches ménagères sont réservées aux femmes ou que les hommes sont plus forts. Mais l’adoption de ces valeurs chrétiennes a permis aux individus de transcender ces distinctions, en particulier lorsqu’ils entraient dans des monastères et des couvents.
Selon McDaniel, même des saints cisgenres comme sainte Agnès, saint Sébastien et saint Georges incarnaient ces valeurs, montrant ainsi que n’importe quel membre du public pouvait lutter contre les stéréotypes de genre sans changer son corps.
L’amour d’Agnès pour Dieu lui a permis de renoncer à son rôle d’épouse. Lorsqu’on lui a offert l’amour et la richesse, elle les a rejetés au profit du christianisme. Sébastien et Georges étaient de puissants romains qui, en tant qu’hommes, étaient censés s’engager dans un militarisme violent. Cependant, tous deux ont rejeté leur masculinité romaine violente au profit du pacifisme chrétien.
Bien que la plupart des vies des saints aient été écrites principalement comme des contes, l’histoire de Joseph de Schönau a été racontée comme étant à la fois très réelle et digne d’être imitée par le public. Son histoire est racontée comme un récit historique d’une vie qui serait accessible aux chrétiens ordinaires.
À la fin du XIIe siècle, Joseph, né femme, entra dans un monastère cistercien à Schönau, en Allemagne. Sur son lit de mort, Joseph raconta l’histoire de sa vie, notamment son pèlerinage à Jérusalem lorsqu’il était enfant et son difficile retour en Europe après la mort de son père. Lorsqu’il revint enfin dans sa ville natale de Cologne, il entra dans un monastère en tant qu’homme, en signe de gratitude envers Dieu pour l’avoir ramené sain et sauf chez lui.
Bien qu’il ait soutenu que la vie de Joseph méritait d’être imitée, le premier auteur de l’histoire de Joseph, Engelhard de Langheim, entretenait une relation complexe avec le genre de Joseph. Il affirmait que Joseph était une femme, mais utilisait régulièrement des pronoms masculins pour le désigner.
Même si les histoires d’Eugénie, d’Euphrosyne et de Marinos sont racontées sous la forme de contes moraux, leurs auteurs avaient également des relations complexes avec la question de leur genre. Dans le cas d’Eugénie, dans un manuscrit, l’auteur fait référence à elle en utilisant uniquement des pronoms féminins, mais dans un autre, le scribe utilise des pronoms masculins.
Marinos et Euphrosyne étaient souvent désignés comme des hommes. Le fait que les auteurs aient fait référence à ces personnages comme étant masculins suggère que leur transition vers la masculinité n’était pas seulement une métaphore, mais d’une certaine manière aussi réelle que celle de Joseph.
Sur la base de ces récits, je soutiens que le christianisme a une histoire transgenre dont il peut s’inspirer et de nombreuses occasions d’accepter la transidentité comme une partie essentielle de ses valeurs.
Sarah Barringer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.06.2025 à 17:09
Manuel Morales Rubio, Enseignant-chercheur en Gestion stratégique, Clermont School of Business
Alors que les soldes d’été, qui se déroulent du 25 juin au 22 juillet, viennent de débuter, la question du recyclage des déchets textiles reste lancinante. Ces derniers finissent le plus souvent incinérés, alors qu’ils pourraient être revalorisés de diverses façons : isolants thermiques et acoustiques, mousse pour l’automobile, rembourrage de matelas, pour faire de nouveaux vêtements…
Saviez-vous qu’aujourd’hui seuls 12 % des déchets textiles étaient recyclés et réutilisés dans l’Union européenne ? Un chiffre extrêmement bas si on le compare par exemple au 75 % de cartons recyclés et au 80 % de verre en France. L’immense partie des déchets textiles, produits par l’industrie, est donc envoyée directement à la déchetterie et sera in fine incinérée.
Mais alors, pourquoi si peu de recyclage ? Cet état de fait est-il voué à rester inchangé ? Pas forcément.
Mais, avant de voir comment les choses pourraient évoluer, commençons d’abord par voir ce que sont les déchets textiles et pourquoi ils sont si peu recyclés.
Les déchets textiles sont issus des vêtements fabriqués. Ce sont des chutes de tissu, des fibres et autres matériaux textiles en fin de vie, après usage ou production. Le prêt-à-porter ou la fast fashion, avec le renouvellement rapide des collections, aggrave le problème de gestion et de traitement avec des quantités croissantes de déchets textiles issues de la surproduction et de la surconsommation.
Mais si une grande partie de ces textiles finit ainsi en déchetterie, contribuant alors à la pollution et au gaspillage des ressources, c’est également faute de solutions de recyclage adaptées ou économiquement viable.
On trouve deux raisons principales à cela : la première est d’ordre technique et la deuxième découle de la pauvreté des normes existantes et des régulations institutionnelles.
De fait, le recyclage des déchets textiles est au cœur de nombreux défis techniques dus à la nature complexe et hétérogène des fibres textiles et matériaux de fabrication, au manque d’infrastructure et de moyen de collecte, aux coûts élevés pour le tri, à une absence de support technique et de conseil de la part des experts du recyclage…
Concernant les normes en vigueur, on peut noter qu’avant 2022, il n’y avait pas de régulations interdisant aux acteurs de la fast fashion (marques, magasins de détail, et fabricants) de détruire les invendus et les produits renvoyés par les clients.
Mais, en 2022, donc, la loi européenne anti-gaspillage pour une économie circulaire (Agec) change la donne puisqu’elle impose désormais aux acteurs du prêt-à-porter (les marques, les magasins de détail et les fabricants) de trouver des utilisations alternatives à leurs produits textiles et vestimentaires retournés et invendus, évitant ainsi la mise en décharge ou l’incinération.
Pour permettre à ces textiles d’avoir une nouvelle vie, une opportunité reste sous-estimée : celle de la collaboration entre les secteurs de l’industrie textile et d’autres industries qui pourraient utiliser les résidus textiles qui étaient auparavant brûlés.
Les textiles invendus, retournés ou les déchets textiles post-industriels pourraient par exemple être transformés en matières premières capables d’être réintégrées pour devenir des isolants thermiques et acoustiques dans des bâtiments, des torchons industriels, des mousses pour l’automobile ou encore du rembourrage de matelas. Cette synergie entre industries offre plusieurs avantages : elle réduit les déchets, limite l’extraction de ressources vierges et favorise une économie circulaire plus durable. En mutualisant les savoir-faire et les besoins, les acteurs de différents secteurs optimisent également les chaînes de production tout en contribuant à une gestion plus responsable des matériaux textiles en fin de vie.
Cependant, pour l’instant, la complexité de la coopération intersectorielle rend la valorisation des coproduits et déchets textiles faible.
Mais ces actions mises en place entre industries, qu’on appelle symbioses industrielles, existent depuis longtemps dans d’autres domaines et laissent donc penser qu’il pourrait en être autrement.
La réutilisation des déchets d’un processus de production a ainsi été documentée dans la production de savon issue de graisse animale, la production d’engrais issus des résidus agricoles et animaux, ainsi que la peau et les os des animaux pour matière première pour le cuire et les armes.
Cette pratique de réutilisation des résidus est même devenue très commune de nos jours dans d’autres secteurs industriels comme la pétrochimie, la chimie organique, l’énergie, l’agro-industrie depuis la deuxième moitié du XXe siècle. Le premier cas de symbiose industrielle identifié dans la littérature scientifique remonte à 1972 quand un groupe d’entreprises privées appartenant à différents secteurs industriels ont dû faire face à la pénurie d’eau dans la ville de Kalundborg au Danemark. En dialoguant toutes ensemble, elles ont pu optimiser l’utilisation globale de l’eau grâce à sa réutilisation.
Cependant, si l’on regarde les quantités de déchets textiles, cette possibilité de recycler les déchets textiles en développant les interactions entre industrie ne suffira pas. L’autre grand enjeu demeure la production initiale. Derrière la croissance démesurée des déchets textiles partout dans le monde ces dernières années, on trouve de fait la surproduction et la surconsommation des textiles, qui a été multiplié par quatre dans les cinq dernières années avec la prolifération des plates-formes de fast-fashion comme Shein et Temu.
L’objectif est donc de réduire le volume de matière première vierge nécessaire pour la fabrication d’un nombre croissante des vêtements. Cela pourrait se faire par une réduction de la consommation ou bien en réduisant nos besoins en matière première vierge. Ici, l’utilisation de déchets textiles reconditionnés peut également s’avérer judicieuse. Elle offre l’avantage de réaliser simultanément deux actions vertueuses : réduire nos déchets et limiter nos besoins en matières premières textiles.
En Europe, cependant, moins de 2 % du total des déchets textiles est aujourd’hui reconditionné pour fabriquer de nouveaux vêtements. Ce pourcentage est tellement faible, qu’il est difficile à croire, mais il s’explique par une déconnexion entre les acteurs de la fin de vie des vêtements, l’hétérogénéité des matériaux qui rend complexe la tâche du recyclage pour produire des vêtements d’une qualité égale ; et aussi une réglementation et régulation peu contraignante.
Les acteurs du recyclage et les déchetteries communiquent peu avec les associations qui gèrent les points de collecte textile, le tri et la vente des vêtements d’occasion (Mains ouverts, Emaus, Secours populaire, entre autres).
Les plates-formes digitales comme Vinted ne sont pas au courant des volumes gérés par les acteurs de l’écosystème physique. De plus, les initiatives de récupération et réutilisation des vêtements usagés appliqués par les grandes marques comme Zara et H&M ne représentent qu’une fraction de leurs ventes totales, et ne sont donc pas capables de changer la tendance envers une économie textile de boucle fermée.
C’est pourquoi il devient crucial d’activer l’ensemble de ces leviers au regard de l’impact environnemental de l’industrie textile, qui émet 3 ,3 milliards de tonnes de CO₂ par an, soit autant que les vols internationaux et que le transport maritime des marchandises réunis.
L’industrie textile est également à l’origine de 9 % des microplastiques qu’on retrouve dans les océans et consomme environ 215 trillions de litres d’eau par an si l’on considère toute la chaîne de valeur. Le textile et l’habillement sont à ce titre les industries qui consomment le plus d’eau au monde, juste après l’agriculture et l’industrie agroalimentaire. Le secteur textile est également associé à la pollution issue des produits chimiques et détergents utilisés dans les processus de fabrication et dans le lavage des vêtements.
À l’échelle mondiale, les perspectives liées à la surproduction et à la surconsommation sont préoccupantes puisque l’on estime que d’ici à 2050 le volume total de prêt-à-porter pourrait tripler.
Pour éviter que nos vêtements aient un coût environnemental aussi néfaste, une piste évidente serait de permettre une production plus locale.
Aujourd’hui, la chaîne de valeur textile reste de fait très mondialisée et les vêtements qui en sortent sont de moins en moins solides et durables. La production des matières premières est fortement concentrée en Asie, notamment dans des pays comme la Chine, l’Inde et le Bangladesh, qui représentent plus de 70 % du marché total de la production de fibres, de la préparation des tissus et des fils (filature), du tissage, du tricotage, du collage et blanchiment/teinture.
Face à cette réalité, la mise en place d’une stratégie territoriale de symbiose pourrait également réduire la dépendance excessive à des systèmes de production non durables, en relocalisant les capacités de production pour renforcer des circuits courts et plus territoriaux en Europe.
Manuel Morales Rubio ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.06.2025 à 17:08
Sam Hirst, AHRC Funded Post-Doctoral Research Fellow in History, University of Nottingham
Le génial poète britannique Lord Byron, hors norme et sulfureux, a vécu une « amitié romantique » avec un jeune choriste disparu prématurément, qu’il a racontée dans ses écrits. Dans une Angleterre où l’homosexualité est un crime passible de mort, ces fragments de lettres et de poèmes offrent un rare témoignage d’une passion homosexuelle au tournant du XIXe siècle.
Nous sommes le 5 juillet 1807. Un jeune homme ivre et en larmes est assis dans sa chambre d’étudiant à Cambridge, écrivant dans un « chaos d’espoir et de chagrin » à son amie d’enfance, Elizabeth Pigot. Il vient de se séparer de celui qu’il surnomme sa « cornaline », qu’il aime « plus que n’importe qui au monde » – et il déverse ses sentiments sur le papier.
Le jeune homme, c’est Lord Byron, et sa cornaline, c’est le choriste de Cambridge John Edleston. Il apparaît sous ce surnom dans les écrits en prose de Byron en raison d’une bague qu’il avait offerte à Byron. Le cadeau et le donateur ont été immortalisés dans le premier recueil de poèmes de Byron, Heures de paresse (1807), et Byron a porté l’anneau en cornaline jusqu’à la fin de ses jours.
Faire des recherches sur l’histoire des LGBTQ+ revient souvent à essayer de découvrir et de reconstruire des éléments qui ont été effacés, cachés, obscurcis ou travestis.
La lettre que Byron a écrite cette nuit-là est une archive rare, conservée, avec une autre écrite à la mère d’Elizabeth Pigot après la mort de John Edleston, dans les archives de l’abbaye de Newstead. Ce sont des fragments qui évoquent l’histoire plus vaste de la romance adolescente, du deuil et de la vie homosexuelle au début du XIXe siècle.
Pour retracer l’histoire queer (ou LGBTQ+), les chercheurs comme moi doivent travailler avec des absences, des effacements délibérés – des vies et des relations qui ont été cachées, niées ou déguisées. Les chercheurs sur Byron sont généralement confrontés à une surabondance de matériel, mais son homosexualité reste une question de fragments. La recherche sur sa sexualité nécessite un lent processus d’apprentissage pour reconnaître et relier les codes et les fils de sa prose et de ses vers.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Dans le cas de Byron, des gardiens trop zélés de sa réputation posthume – dont sa sœur, son éditeur et ses amis – n’ont pas résisté à la tentation de brûler ses mémoires. Il ne reste que peu d’indices à partir desquels imaginer ce qu’ils auraient pu contenir.
Un autre problème, c’est que, bien souvent, lorsque l’homosexualité de Byron est évoquée par ses contemporains, c’est sous forme d’accusations, par exemple, lorsqu’on rapporte une conversation entre Lady Caroline Lamb (une ancienne maîtresse) et Anna-Bella Millbanke (l’épouse de Byron, dont il était séparé).
D’autres lettres et sources ont été perdues et la correspondance de Byron sur le désir homosexuel est souvent codée. Il écrit à ses amis de Cambridge avec des références sténographiques partagées, généralement basées sur des allusions classiques qui sont difficiles à décrypter pour les non-initiés.
Alors, comment aborder l’histoire queer de Byron dans toute sa réalité désordonnée lorsque les archives sont un patchwork de fragments, d’absences, d’effacements et d’obscurcissements ? En partie, en acceptant cette fragmentation, en renonçant à l’envie d’une histoire unique qui recouvrerait toute la vie de Byron, et en rencontrant Byron dans le moment qu’une source nous offre.
C’est aussi une question de connexion, de traçage d’éléments à travers la poésie et la correspondance, les mémoires et les accusations, de fils à tirer pour former une image plus complète. Les lettres de Newstead, lues en conjonction avec ses poèmes, ses lettres et ses journaux, sont une source évocatrice.
À lire aussi : Clairmont tells the story of the woman Byron cast aside
La lettre de 1807 nous apprend que Byron a rencontré Edleston deux ans auparavant, alors qu’il avait 17 ans et Edleston 15 : « Sa voix attira d’abord mon attention, son beau visage me la retint et le charme de ses manières me l’attacha pour toujours. »
Selon Byron : « Pendant toute la durée de ma résidence à Cambridge, nous nous sommes vus tous les jours, été comme hiver, sans nous ennuyer un seul instant. » Il exagère, créant sa propre histoire romancée. En réalité, Byron était rarement présent à Cambridge, n’y passant que quelques mois par an et préférant généralement passer son temps à Londres.
À un ami, il écrit au retour d’une escapade que le caractère d’Edleston s’était « beaucoup amélioré », donnant à penser que la vénération n’était pas constante. Que la réalité corresponde exactement à la lettre est moins important que le fait que c’est l’histoire que Byron a voulu raconter.
L’histoire que Byron choisit de raconter est celle d’un attachement romantique durable à un jeune homme. À une époque où il entretenait de nombreuses relations de différents types avec des hommes et des femmes, Byron affirme dans sa lettre : « Je l’aime certainement plus que n’importe quel être humain, et ni le temps ni la distance n’ont eu le moindre effet sur ma disposition (en général) changeante ». C’est bien la déclaration passionnée d’un adolescent qui se sépare d’un amour de jeunesse.
Les espoirs d’un avenir radieux que nourrit Byron, ainsi que ses projets de constance et sa naïveté face aux obstacles sont autant de rappels à son jeune âge. Lorsqu’il atteint sa majorité à 21 ans et qu’il prend enfin le contrôle de sa fortune et de sa vie, il promet ceci : « Je laisserai à Edleston la décision d’entrer comme associé dans la maison de commerce où il va travailler, ou de venir vivre avec moi ».
Vers la fin de sa lettre, juste avant de revenir à des considérations pratiques et à un ton plus jovial, il exprime un espoir plus réaliste mais tout aussi futile : « J’espère que vous nous verrez un jour ensemble ».
Edleston meurt prématurément à l’âge de 21 ans, avant que Byron ne revienne de son voyage à travers l’Europe, que les jeunes aristocrates d’alors avaient coutume de faire.
Lord Byron avait fait de John Edleston son protégé. Ce sera un fil conducteur dans nombre de ses relations. Il parle de ses aventures homosexuelles en Grèce dans une lettre joyeuse adressée à son ancien tuteur Henry Drury et promettait un traité sur « la sodomie ou la pédérastie, dont les auteurs anciens et la pratique actuelle ont prouvé qu’elles étaient dignes d’éloges ».
Ce modèle grec ancien de relation sexuelle avec un homme ou un adolescent plus jeune et de statut inférieur, qui incluait des aspects de patronage, était l’un des principaux modèles auxquels Byron avait accès pour décrire et comprendre ses propres désirs et relations.
Byron établit également des comparaisons avec des figures qui lui sont contemporaines et d’autres plus anciennes, qui nous montrent les raccourcis par lesquels étaient à l’époque dépeintes les relations homosexuelles :
« Nous ferons rougir Lady E. Butler et Miss Ponsonby, les dames de Llangollen, nous mettrons Pylades et Oreste hors d’état de nuire, et nous ne voulons rien de moins qu’une catastrophe comme Nisus et Euryalus pour donner à Jonathan et David la chance de s’en sortir. »
À l’exception des dames de Llangollen Eleanor Butler et Susan Ponsonby, qui se sont enfuies d’Irlande en 1780 et ont vécu ensemble jusqu’à leur mort, ses exemples sont tous imprégnés de tragédie et de mort. Nisus et Euryalus sont deux inséparables soldats dans l’Énéide de Virgile qui sont morts ensemble. Ils font l’objet de deux poèmes dans le premier recueil de Byron, Heures de paresse (1807) mentionné plus haut. Ses références répétées à leur histoire suggèrent une cartographie interne (quoique peut-être inconsciente) de la masculinité homosexuelle qui offre peu d’espoir d’un avenir commun et qui est voué à la perte tragique de l’être aimé et à la mort.
Dans cette même lettre à son ancien tuteur, Byron affirme qu’Edleston « est certainement plus attaché à moi que je ne le suis à lui ». Il révèle un désir d’être aimé plus que d’aimer. Cette insécurité est peut-être liée à son pied droit, frappé d’un difformité à la naissance, léger handicap dont il souffrira toute sa vie.
Byron a également eu maille à partir avec son poids et des troubles alimentaires tout au long de sa vie. Pendant son séjour à Cambridge, son corps s’est beaucoup transformé, en raison de régimes associés à des exercices physiques extrêmes. Mais lorsqu’il y retourne en juin 1807 après un séjour ailleurs, Edleston commence par ne pas le reconnaître.
Ce déséquilibre peut également refléter le sentiment d’indignité de Byron. Dans une grande partie de sa poésie, il s’identifie à une sensualité grossière et Edleston à la pureté, se considérant comme une influence potentiellement corruptrice. Dans To Thryza (1811), Byron dépeint un amour « raffiné » qui risque d’être « avili » :
les baisers si innocents, si purs,
que l’amour se défendait tout désir plus ardent.
Tes beaux yeux révélaient une âme si chaste,
que la passion elle-même eût rougi de réclamer davantage.
La relation entre Byron et Edleston échappe à toute catégorisation facile. Byron en parlera plus tard comme d’un « amour et d’une passion violents, bien que purs ». Il a également appelé Edleston son « plus qu’ami », tout en niant toute relation sexuelle. Ces déclarations sont à replacer dans le contexte homophobe de l’Angleterre d’alors où les sanctions prévues contre les « sodomites » (ou personnes suspectées comme telles) étaient particulièrement sévères (pendaison en public).
John Murray, l’éditeur de longue date de Byron a publié en 1834 une anthologie de son œuvre, accompagnée de commentaires de divers contemporains du poète, qui qualifie la relation d’« amitié romantique » – une catégorie qui remplit un espace ambigu au-delà de l’hétérosexualité. Lisa Moore, professeure de littérature américaine et anglaise, suggère que le terme « soulève des inquiétudes en tentant de les contenir » – il évoque des notions d’homosexualité tout en semblant les nier.
De même, elle suggère d’autres formes de relations « queer » au-delà des définitions binaires basées uniquement sur l’activité sexuelle. L’approbation sociale était accordée seulement à certaines conditions pour les amitiés romantiques. Il fallait notamment pouvoir nier de manière plausible l’existence d’un contact sexuel réel.
La relative acceptation de ce type de relations a sans doute permis à Lord Byron d’ouvrir son cœur à Elizabeth Pigot. L’« amitié romantique » permet de reconnaître et de valoriser des relations intenses, passionnées ou romantiques entre personnes du même sexe.
Après la mort d’Edleston, Byron écrit à la mère de Pigot pour lui demander de lui rendre sa cornaline qui « avait acquis par cet événement la [mort d’Edleston] une valeur que j’aurais souhaité qu’elle n’eût jamais à mes yeux ».
Elizabeth avait ajouté un addendum, demandant à sa mère de rendre la bague, car « il ne me l’a jamais donnée, il l’a seulement placée entre mes mains pour que j’en prenne soin à sa place – et de cette façon, je ne ferai que lui rendre ce qui lui appartient. » Un acte de bienveillance et de reconnaissance.
L’histoire entre Byron et Edelston s’est terminée tragiquement, ce qui contraste avec les espoirs d’avenir radieux exprimés par le poète en 1807, mais réalise la prophétie de ses modèles.
Byron quitte l’Angleterre en 1809 et voyage jusqu’en 1811. La raison exacte de son départ, manifestement précipité, n’est pas claire, bien que certains critiques, comme Leslie Marchand et Fiona McCarthy, aient suggéré qu’il soit lié à sa relation avec Edelston ou à une indiscrétion d’un amant en manque d’affection.
On ne sait pas au juste pourquoi Byron s’est éloigné de son ami ni comment leur relation a évolué. Mais lorsque Byron est rentré en Angleterre, Edleston était mort : une cruelle réalité qu’il n’a découverte que cinq mois plus tard, de la bouche de la sœur d’Edleston.
À son ami Francis Hodgson, en 1811, Byron écrit :
J’ai appris l’autre jour un décès qui m’a choqué plus que tous les précédents [sa mère et deux autres amis étaient morts récemment], celui d’une personne que j’aimais plus que je n’ai jamais aimé un être vivant, et qui, je crois, m’a aimé jusqu’à la fin, et pourtant je n’ai pas versé une larme pour un événement qui, il y a cinq ans, m’aurait fait tomber dans la poussière ; cela pèse encore sur mon cœur et me rappelle ce que je souhaite oublier, dans de nombreux rêves fiévreux.
Byron a peut-être répété à ses amis qu’il n’avait pas versé une larme, mais la répétition elle-même est révélatrice. La perte d’Edleston l’a conduit à composer les poèmes de Thyrza. Tout en décrivant son chagrin, ils nous livrent d’autres fragments de l’histoire de leur relation. To Thyrza (1811), par exemple, suggère un départ fâché, un malentendu ou simplement le fait de ne pas avoir su dire au revoir :
Si du moins – un mot, un regard
m’eût dit tendrement : « Je te quitte en t’aimant
mon cœur eût appris à pleurer,
avec de plus faibles sanglots, le coup qui enleva l’âme de ton corps
On suit le processus de deuil de Byron à travers d’autres lettres et poèmes, dont Stanzas (décembre 1811) ou To Thyrza (1812), avec une description d’une gaieté autodestructrice et désespérée, teintée de dégoût de soi, qui donne des clés sur l’état d’esprit de Byron en 1812, l’année de son ascension fulgurante vers la célébrité :
Allons, servez-moi du vin, servez le banquet,
l’homme n’est pas fait pour vivre seul :
je serai cette légère et incompréhensible créature
qui sourit avec tous, et ne pleure avec personne.
Il n’en fut point ainsi dans des jours plus chers à mon cœur,
il n’en aurait jamais été ainsi ;
mais tu m’as quitté, et m’as laissé seul ici-bas :
tu n’es plus rien, tout n’est rien désormais pour moi.
Le chagrin de Byron est palpable – ce, même sans pouvoir distinguer quelle part relève de l’autofiction et de la dramatisation et quelle autre d’une tristesse profondément enfouie, de la perte d’un amour qu’il ne pouvait revendiquer publiquement ou s’il s’agit d’une tentative de dépeindre un sentiment constant qu’il aurait voulu ne jamais éprouver, ou bien qu’il n’avait jamais pu dépasser.
Un chagrin queer, non exprimé, couché sur le papier avec des pronoms et des pseudonymes modifiés. Une révélation et une dissimulation – un chagrin, un amour qui n’ose pas dire son nom).
Les émotions douloureuses étaient mêlées à une véritable gaieté, c’est indéniable. Il écrivait ses poèmes rapidement, transformant des impressions potentiellement fugaces en réalités durables. Et ces moments sont peut-être aussi significatifs et éclairants qu’un récit plus global.
Chaque poème et chaque lettre racontent une histoire légèrement différente, capturent un moment différent et donnent un nouvel aperçu d’une vie queer vécue il y a plus de deux cents ans.
Sam Hirst ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.06.2025 à 17:07
Emilie Ruiz, Maitre de conférences HDR, Université Savoie Mont Blanc
Corentin Charbonnier, Docteur en Anthropologie, Université de Tours
Comment faire pour exister quand on est une entreprise française face aux géants que sont Apple Music, Amazon Music ou Spotify ? Deezer a innové et cela semble payer pour le moment. Parmi les facteurs de succès, la création d’un lien, via la plateforme, entre les artistes et leur public joue un rôle. Démonstration avec le cas de la musique metal.
En moins de deux décennies, l’industrie musicale est passée de la vente de produits physiques à une économie de l’accès numérique. Cette transition ne s’est pas faite sans heurts. Ce changement a bouleversé les équilibres économiques, fragilisant disquaires et labels indépendants, tout en faisant émerger de nouvelles formes de médiation. Dans ce paysage, les plateformes comme Spotify, Apple Music, Amazon Music ou Deezer sont devenues incontournables.
Mais ces acteurs ne se contentent pas de diffuser de la musique. Ils concentrent les fonctions de diffusion, de recommandation, de mesure et de monétisation, transformant les chaînes de valeur culturelles et les relations entre artistes, producteurs et publics, selon leurs propres logiques.
Parmi elles se trouve une plateforme française fondée en 2007 : Deezer. Elle se distingue par une stratégie singulière, alliant innovation technologique, responsabilité culturelle et ancrage communautaire.
Comme ses concurrents, Deezer propose un abonnement donnant accès à des millions de titres en streaming. La plateforme permet par ailleurs la création de playlists et de recommandations personnalisées. Son algorithme « Flow » structure les pratiques d’écoute en hiérarchisant les contenus selon les goûts de l’utilisateur.
Derrière cette logique standardisée, Deezer adopte une stratégie distincte reposant sur trois axes :
valorisation des scènes locales et francophones,
éditorialisation humaine en complément de l’algorithme,
engagement pour une rémunération plus équitable.
En France, Deezer expérimente un modèle dit « user-centric » rémunérant les artistes selon les écoutes réelles de chaque utilisateur. De cette façon, la plateforme affiche un soutien envers les créateurs plus confidentiels. Elle développe aussi des outils pour identifier puis limiter la visibilité de la musique produite par des outils d’intelligence artificielle, qui représente environ 10 % des morceaux livrés quotidiennement sur la plateforme tout en renforçant les interactions entre les artistes et leur public grâce à des fonctionnalités communautaires.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Parmi les multiples genres musicaux présents sur les plateformes, le metal occupe une place singulière. Historiquement ancré dans une culture de l’objet attachée aux CD et vinyles, son accès s’est longtemps fait en marge des circuits traditionnels, reposant sur l’achat de supports physiques. Peu visible dans les classements globaux, peu présente dans les médias généralistes, la musique metal représente pourtant l’une des scènes les plus structurées, fidèles et engagées.
Si la place des labels a largement évolué ces dernières années, cette transformation est particulièrement marquante dans le metal, où ils continuent de jouer un rôle de pivot, que ces labels soient internationaux ou des disquaires locaux. Dans un écosystème encore très attaché à la production physique, à la cohérence esthétique et à la construction d’une identité sonore, les labels sont des acteurs culturels, à la fois garants de la ligne artistique et médiateurs entre les groupes et leur public.
Mehdi El Jaï, PDG du label Verycords (Mass Hysteria, Ultra Vomit, Psykup, Akiavel, etc.), souligne que les plateformes, comme Deezer, ont offert une visibilité inédite à des groupes jusque-là confinés aux circuits spécialisés. Grâce à une éditorialisation ciblée et à des partenariats pertinents, les labels prolongent leur rôle de prescripteurs tout en s’adaptant aux nouvelles logiques d’accès. Il note que, si ces plateformes ont aidé à réduire le piratage, elles ont aussi profondément bouleversé l’écosystème. Il reconnaît néanmoins l’intérêt particulier de Deezer pour la scène metal :
« On a organisé de beaux événements avec eux, comme une pré-écoute de “Matière noire”, de Mass Hysteria, qui a contribué à un beau lancement. La plateforme est très à cheval sur la chasse aux “fake streams”, qui polluent aussi une partie du business, car on est sur un modèle de “market-share” et pas “user-centric”, donc c’est très pernicieux. […] Deezer est très à cheval sur des enjeux liés à l’économie du disque, l’économie du producteur phonographique et donc à des enjeux d’avenir. »
Contrairement à des styles portés par les playlists virales, le metal s’appuie sur une écoute active, fidèle et passionnée, même s’il existe des différences en fonction des différents sous-genres, plus ou moins attachés au support physique. Pour Mehdi El Jaï :
« Aujourd’hui, tu achètes un disque d’artistes dont tu es fondamentalement fan, ce qui a des implications sur les ventes et donc sur la popularité, l’exposition, et sur l’ensemble de la chaîne de valeur. À l’instar des réseaux sociaux, il y a [avec les plateformes de streaming] une volonté de développer les communautés qui sont liées aux artistes, c’est le sens de l’histoire. »
Conscient de ce potentiel, Deezer a créé plusieurs dispositifs pour valoriser la scène metal :
playlists spécialisées créées par des éditeurs humains, couvrant à la fois les grands sous-genres (black, death, thrash, prog et des niches plus pointues ;
présence renforcée dans les recommandations personnalisées grâce à une hiérarchisation adaptée, avec des contenus éditoriaux spécifiques (interviews, sélections liées à des festivals comme le Hellfest ou le Motocultor.
Fort de cette stratégie, Deezer peut tisser un lien fort avec une scène exigeante, attachée à la fidélité et à la connaissance. Le streaming devient ainsi un levier d’ouverture internationale pour les groupes underground, à condition d’être bien éditorialisé.
« Les plateformes nous permettent aussi des revenus que l’on n’aurait pas sans elles. Tu prends des gens qui écoutent Myrath en Indonésie, comment je les aurais touchés avant, je n’en sais rien. Aujourd’hui, on a des gens qui écoutent Myrath en Indonésie, au Pérou, en Argentine. »
Si Deezer cherche à mieux rémunérer les artistes, le modèle du streaming reste imparfait. L’algorithme tend à uniformiser les écoutes, au détriment de la diversité, notamment dans des genres comme le metal, dont il peine à saisir les spécificités.
Côté utilisateurs, l’abonnement limite l’accès complet et l’abondance de contenus peut rendre l’écoute plus superficielle. Néanmoins, face à un disquaire en difficulté ou à des médias spécialisés en crise, Deezer, malgré ces limites, reste aujourd’hui un moyen privilégié d’accès à la musique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.06.2025 à 17:06
Rachael Murrihy, Director, The Kidman Centre, Faculty of Science, University of Technology Sydney
Comment réagir lorsque votre enfant s’entend bien avec un camarade que vous jugez trop turbulent, malpoli, voire tyrannique ? Est-il bienvenu en tant que parent de s’immiscer dans les relations de vos enfants ?
Nombreux sont les parents qui connaissent cette situation : leur enfant a un bon, voire un meilleur ami, mais ils ne l’aiment pas…
Cet ami peut être autoritaire, mal élevé ou sauter sur vos meubles. Vous n’aimez peut-être pas la façon dont votre enfant se comporte lorsqu’il est avec lui.
Quand il s’agit d’enfants plus âgés, votre aversion peut être liée au langage de l’ami, à sa posture vis-à-vis de l’école ou à sa façon de prendre des risques. Peut-être aussi que cet ami souffle le chaud et le froid, provoquant des drames en série.
Que faire alors, en tant que parents, dans ce genre de circonstances ?
Si vous estimez que votre enfant est maltraité, cela peut susciter en vous un instinct de protection qui se manifeste par une réaction corporelle de lutte ou de fuite.
Cela provoque une montée d’adrénaline qui peut vous pousser en tant que parents à réagir par la critique, voire tenter de vous opposer à cette amitié.
Cependant, cette façon de faire peut causer plus de mal que de bien, en particulier dans le cas d’adolescents enclins à rejeter leurs parents.
Avec les enfants plus jeunes, des limites claires peuvent être fixées dès le début de la rencontre. Par exemple, en leur disant : « les jeux sont interdits dans la chambre des parents » ou « on ne saute pas sur le canapé ».
Si les enfants utilisent un langage méchant ou grossier les uns envers les autres, vous pouvez d’emblée annoncer qu’on n’utilise pas tel ou tel mot dans cette maison et que la courtoisie est ici la règle.
Les séances de jeu peuvent être organisées de préférence à l’extérieur, ce qui peut être particulièrement utile en cas de comportement bruyant, destructeur ou grossier. Et, si vous le pouvez, prévoyez moins de séances de jeu avec l’enfant en question.
Mais les parents peuvent également réfléchir à la raison pour laquelle cet enfant les dérange. Cette réaction est-elle justifiée ou provient-elle de leurs propres préjugés et opinions ? Les amis de votre enfant ne doivent pas nécessairement être ceux que vous choisiriez.
Pour devenir des adultes accomplis, les adolescents doivent franchir différentes étapes de développement les aidant à devenir plus autonomes et indépendants. Interférer avec leurs relations amicales perturbe ce processus et, en fin de compte, les déresponsabilise.
Dans les années 1960, la psychologue américaine Diana Baumrind a publié une célèbre recherche sur la parentalité établissant qu’un style autoritaire se traduit par moins de confiance et moins d’indépendance chez l’enfant que s’il est élevé dans un foyer qui, au-delà des règles, est à l’écoute de ses besoins.
Afficher des réticences à l’égard des amis ou des partenaires potentiels de votre enfant risque également d’entraîner un effet « Roméo et Juliette », où la désapprobation lui donne encore plus envie de rencontrer ces personnes.
Ainsi, dans le cas d’adolescents et de leurs amis, l’approche doit être encore plus nuancée. L’objectif premier est d’encourager l’enfant à considérer le parent comme une personne à qui s’adresser en cas de problème. Si vous êtes tentés d’être critiques, posez-vous au préalable la question suivante : cela est-il dans l’intérêt de votre enfant ?
Il est important de laisser les enfants faire des erreurs pour qu’ils puissent en tirer des leçons. Apprendre à discerner ce qu’ils veulent ou ne veulent pas dans les relations est une compétence essentielle pour la vie.
Favoriser un dialogue ouvert sur les relations de l’enfant vous permet d’exercer une influence de manière plus subtile et adaptée à son développement.
Pour les plus jeunes, vous pouvez profiter d’un moment de calme pour poser des questions du type : « Que peux-tu dire à Charlotte si tu ne veux plus jouer à son jeu ? » ou « Quelle est la meilleure façon de réagir si elle est trop autoritaire ? »
Pour les enfants plus âgés, l’idéal est d’attendre qu’ils aient envie d’échanger avec vous, plutôt que de les questionner d’emblée. Informez-vous gentiment, sans porter de jugement, sur cette amitié, avec des questions comme : « Qu’aimez-vous faire ensemble ? » ou « Parlez-moi de ce que vous avez en commun. »
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Si l’adolescent semble contrarié ou mal à l’aise, résistez à l’envie de rejeter le problème ou de vouloir le résoudre. L’écoute est la clé pour aider un jeune à affronter un problème, en lui montrant qu’il est soutenu et non jugé.
Et n’oubliez pas que toutes les amitiés ne durent pas. Au fur et à mesure que les enfants grandissent, la plupart d’entre eux se font naturellement de nouvelles connaissances et en abandonnent parmi les anciennes.
Seule exception à cette approche tournée vers les adolescents : s’il y a un risque pour la sécurité de l’enfant. En cas de brimades ou d’abus sous quelque forme que ce soit, les parents doivent intervenir et parler directement à l’école ou à d’autres autorités compétentes, même si leur enfant s’y oppose.
Rachael Murrihy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.06.2025 à 17:06
David Lessault, Chargé de recherche au CNRS, spécialiste des migrations et mobilités internationales, Université d’Angers
Pape Sakho, Maître de conférences CAMES, Université Cheikh Anta Diop de Dakar
À l’heure où les États européens multiplient les mesures coercitives pour juguler l’immigration irrégulière venue d’Afrique et du Proche-Orient, une part croissante de leurs ressortissants s’installent ou circulent librement – et, parfois, clandestinement – de l’autre côté de la Méditerranée. Ce paradoxe, mis ici en lumière à travers le cas du Sénégal, souligne le caractère très inégal des conditions d’accès à la mobilité internationale entre l’Afrique et l’Europe.
Les données fournies par la Direction de la police de l’air et des frontières (DPAF) qui s’appuient notamment sur les fiches transmises par les voyageurs au moment du passage dans les aéroports et aux postes frontières, montrent l’intensité de la circulation des Européens au Sénégal. Si le nombre d’Européens vivant au Sénégal à l’année selon le décompte des recensements nationaux était estimé à 7 773 en 2018, ils étaient entre 273 000 et 300 000 à être entrés ou sortis du territoire la même année
Le calcul de ces mouvements intègre les touristes, les étudiants, les voyages d’affaires, les séjours des « hivernants », les arrivées d’expatriés, etc. Les « immigrants » recensés par l’Agence nationale de la statistique (ANSD) ne représentent donc qu’environ 2 ou 3 % du nombre de personnes en circulation réellement présentes dans le pays.
En février 2023, nous avons rendu compte de la transformation de la station balnéaire de Saly au Sénégal sous l’effet de l’installation durable de populations européennes. De fait, la Petite-Côte sénégalaise a connu une accélération de son urbanisation littorale liée, entre autres, à l’essor d’un tourisme résidentiel pratiqué par une diversité de populations étrangères, de Dakarois et de membres de la diaspora. Leur présence a eu un impact significatif sur la transformation des paysages, sur l’économie locale et les risques environnementaux.
Mais aux présences européennes identifiées et localisées sur la Petite-Côte s’ajoutent d’autres profils plus atypiques rencontrés en 2025 qui sillonnent le pays pour des motifs et des durées variables et que l’on retrouve souvent dans des espaces de nature plus reculés, mieux préservés.
Un bref retour en février 2025 dans la station balnéaire de Saly indique que la fréquentation touristique est en baisse cet hiver au Sénégal. Les plages et les hôtels sont assez déserts.
Selon Jacques, un hôtelier installé depuis une vingtaine d’années, « c’est mondial… avec la crise du pouvoir d’achat en Europe, la concurrence des destinations comme le Maroc qui est nettement moins cher, on voit moins de monde » […] « Par contre, poursuit-il, on a de plus en plus de voyageurs “au sac à dos”, “des routards"allemands, suisses, mais c’est beaucoup moins rentable pour nous. Ils arrivent avec peu de moyens, consomment peu sur place et choisissent les hébergements les plus sommaires. »
Cette impression nous est confirmée en visitant un campement installé sur la Langue de Barbarie près de Saint-Louis-du-Sénégal, dans le nord du Sénégal. Le lieu, tenu par un couple de Suisses, affiche « complet ». Tous les emplacements réservés au stationnement des véhicules et raccordés à une borne électrique sont occupés. On compte une vingtaine de camions aménagés et quelques motos.
Louisa et Josefa viennent des îles Canaries. Ces deux trentenaires espagnoles voyagent en voiture « Coccinelle » avec leur chien. Elles sont parties depuis quatre mois déjà et ne savent pas quand elles vont rentrer : elles se laissent « porter par le voyage ». Elles ont poursuivies leur route jusqu’en Guinée, Avant de se rendre en Mauritanie puis au Sénégal pour s’établir quelques jours dans un campement.
Une discussion en anglais s’amorce avec Niklas, motard autrichien d’une soixantaine d’années qui vient d’arriver. Lui aussi vient de Mauritanie où il a laissé son camion aménagé, son « camp de base mobile ». Il est parti en décembre du nord du Maroc et a traversé le pays en longeant la frontière algérienne en plein désert saharien. Passionné de motocross, il effectue des raids journaliers avec son traceur GPS et un sac à dos pour seul matériel. Dans son périple, il a fait par hasard la rencontre de Tim, un jeune Néo-Zélandais qui s’est lancé dans un périple de 1000 kilomètres, en complète autonomie, de la Mauritanie à la Casamance traversant du nord au sud le Sénégal.
Chez les détenteurs de camping-cars, on trouve principalement de jeunes retraités belges et français, habitués des aires aménagées du Sud marocain (notamment de la région de Tiznit) qui expérimentent quelques semaines au Sénégal avant de remonter quand la chaleur sera plus forte et incommodante.
Plusieurs campements similaires sont établis autour de Saint-Louis. À proximité du Parc aux Oiseaux de Djoudj, réserve naturelle protégée proche de la frontière mauritanienne, nous faisons la connaissance de Charles.
Ce septuagénaire passionné d’ornithologie voyage seul, à pied, avec son sac à dos et sa paire de jumelles. Il est arrivé à Dakar il y a deux mois. D’abord parti visiter les îles du Saloum dans le sud, il est remonté vers Saint-Louis en empruntant divers modes de transports collectifs, de la charrette sur les pistes aux autocars qui relient les grandes villes du pays. Il loge depuis une semaine dans un campement sommaire, équipé du strict mínimum, en pleine campagne sénégalaise.
À quelques kilomètres, un autre campement accueille une mère de famille française à la retraite accompagnée de ses deux enfants (d’une trentaine d’années). Le fils se dit « expatrié » et travaille à Dakar comme ingénieur dans un projet de dessalement des eaux. Sa mère et sa sœur sont venues lui rendre visite et ils ont décidé de traverser le Sénégal en « sac à dos » de la frontière mauritanienne à la frontière gambienne au sud.
Ils changent de campement tous les deux ou trois jours et empruntent également la diversité des services de transport qui s’offrent à eux, au gré des rencontres. Leurs prochaines destinations : Toubacouta dans le Delta du Saloum, puis Kafountine en Casamance.
Jean-Paul, le propriétaire d’un campement sur la Langue de Barbarie évoque « les deux fléaux qui le préoccupent le plus » : le risque à moyen terme de disparition de certains hébergements littoraux sous l’effet de l’accélération de l’érosion côtière mais surtout l’émigration clandestine en pirogues.
Selon lui, « tous les jeunes du village sont aujourd’hui en Europe, en particulier en Espagne. Ils ont abandonné la pêche, laissé leurs pirogues et le village s’est vidé de ses jeunes ».
Sur le ton de la moquerie, il confie la présence régulière dans son campement de patrouilles militaires espagnoles qui viennent profiter de la vue imprenable et confortable de la terrasse pour surveiller les départs en pirogues : « S’ils savaient par où ils passent… on ne peut pas contrôler ça d’ici. »
Le sentiment de liberté, l’aisance de circulation dont bénéficient les voyageurs et routards européens peut interroger au regard des contraintes qui sont imposées aux populations locales lorsqu’elles souhaitent se rendre en Europe.
Aux figures du « migrant », de « l’errant », du « clandestin » attribuées d’emblée aux voyageurs africains, on oppose sans les discuter, les qualificatifs d’« expatrié », de « touriste », d’« hivernant » aux voyageurs européens présents dans les Suds.
On part d’ailleurs toujours du principe que les présences européennes sont bénéfiques pour les pays africains d’accueil – ce qui est loin d’être démontré et souvent discutable, alors que les présences africaines en Europe sont de plus en plus jugées par la négative sur le registre du « fardeau », de la contrainte, de l’illégalité.
Pour autant, la situation de nombreux Européens au Sénégal est loin d’être conforme aux lois en vigueur dans le pays. Le visa touristique est délivré gratuitement aux ressortissants européens et autorise une entrée pour des séjours de moins de trois mois. Or, il n’est pas rare que les voyageurs européens résident ou circulent au Sénégal au-delà de ce délai sans engager les démarches, en théorie, nécessaires au prolongement de leur séjour. Les qualifie-t-on pour autant de « clandestins » ?
Les rapports à la circulation selon que l’on soit européen ou africain montrent qu’on est encore loin de l’idéal développé dans la théorie du philosophe John Rawls (1971), pour qui la justice spatiale est d’abord l’organisation de l’espace politique la plus adéquate pour le respect effectif de l’égalité des droits, y compris celui de circuler.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
26.06.2025 à 17:04
John Zhang, Professeur de comptabilité, Audencia
Pensée et voulue pour éviter une nouvelle crise de 2008, la compensation centralisée crée paradoxalement de nouveaux risques. Le bilan des risques et des protections apportées par ce dispositif est très complexe à réaliser. Régulateurs et investisseurs débattent de la question de la compensation depuis plusieurs années, avec des arguments et des intérêts pas toujours convergents.
Pensant tirer des leçons de la crise financière de 2007-2008, les régulateurs mondiaux avaient décidé, lors du sommet du G20 en 2009, d’introduire une réforme qu’ils considéraient comme essentielle pour renforcer la stabilité des systèmes financiers : la compensation centralisée obligatoire sur les produits dérivés. Lancé finalement en France à l’été 2016 à la suite du règlement européen Emir, ce processus comporte d’indéniables atouts mais aussi d’importants inconvénients.
Ce mécanisme exige que les échanges de produits dérivés passent par une chambre de compensation indépendante, et ne soient plus directement conclus entre les parties qui vendent et achètent ces produits. Pour rappel, les produits dérivés sont des titres dont la valeur dépend d’un indice ou du prix d’un autre titre. Ils permettent aux spéculateurs de prendre des risques : si un titre est assis sur le cours du dollar et qu’il pense que celui va s’envoler, il aura tout intérêt à en faire l’acquisition pour réaliser une plus-value. Le céder aujourd’hui pour qui en possède un, c’est se débarrasser d’un risque, celui d’un effondrement de la monnaie américaine.
Contrairement à la négociation d’actions, qui s’effectue principalement par l’intermédiaire d’une bourse indépendante tierce, la négociation de produits dérivés s’effectue de gré à gré, c’est-à-dire directement entre les parties qui vendent et achètent. Pour mettre en œuvre cette réforme, en 2012, les régulateurs de l’UE et des États-Unis ont adopté des règles visant à instaurer des exigences de compensation pour certains produits dérivés et ils ont ensuite progressivement élargi la liste des types de produits dérivés concernés.
La mise en œuvre de la compensation centralisée des produits dérivés exige que les parties négociantes déposent des garanties conséquentes auprès de la chambre de compensation pour mener à bien la transaction. Évidemment, de telles exigences augmentent les contraintes de qui veut négocier, ce qui a suscité des inquiétudes parmi les politiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Néanmoins, le mécanisme permet, plutôt que d’avoir à régler tous ses achats et encaisser toutes ses ventes, de ne régler auprès de la chambre ou de recevoir d’elle que le solde net qui apparaît lorsque l’on fait la somme de toutes les transactions. Imaginons une institution A qui achète un titre deux millions à B, un autre trois millions à C et en vend un six millions à D. Plutôt que de réaliser trois mouvements sur son compte, elle n’en réalisera qu’un seul de montant moindre : recevoir un million. Cet exemple montre que le mécanisme peut de facto compenser les exigences accrues de garanties. Cela peut finalement contribuer à atténuer les contraintes de capital des institutions financières. D’autant plus si elles répercutent le mécanisme au sein de leur bilan.
La question de savoir si la compensation doit être autorisée fait l’objet d’un débat permanent entre les régulateurs et les investisseurs. Les principes comptables généralement admis aux États-Unis (GAAP) permettent aux institutions financières de choisir de compenser ou non leurs actifs et leurs passifs et de ne comptabiliser que les valeurs nettes, ce qui peut réduire de manière significative le capital réglementaire nécessaire. En comparaison, les normes internationales d’information financière (IFRS) sont plus restrictives et n’autorisent la compensation et la présentation nette que lorsque la partie déclarante dispose d’un droit donné par la loi de compenser les montants comptabilisés.
La différence entre les GAAP et les IFRS réside dans les divergences de vues quant à la compensation. Tandis que les institutions financières soutiennent que la compensation peut alléger leurs contraintes en termes de capital et de liquidité, les régulateurs craignent qu’elle ne réduise la transparence des rapports financiers, ce qui pourrait nuire à la stabilité financière. En effet, une fois les actifs et les passifs financiers compensés, les risques contenus dans ces actifs et ces passifs ne seraient plus détectables par les régulateurs et les investisseurs extérieurs.
La réforme de la compensation centralisée s’appuie pourtant sur l’argument qu’elle peut améliorer la transparence du marché des produits dérivés. Le mécanisme accroît par exemple la transparence post-négociation grâce à la publication d’informations sur la position des débiteurs, comme le volume quotidien des transactions, l’intérêt ouvert et les prix de règlement. Un mécanisme de compensation centralisée enregistre toutes les transactions par compensation et génère une transparence des positions qui permet aux acteurs du marché de fixer le prix de leurs contrats sur la base du risque des positions globales de leur partenaire (selon qu’on le sache plus ou moins débiteur déjà).
Ainsi, la transparence créée par la compensation centralisée décourage l’accumulation de dettes excessives et réduit l’externalité du risque qu’un créancier fasse défaut sur le marché. Il semble donc y avoir un paradoxe au cœur de la réforme de la compensation centralisée. Qu’en penser ?
À lire aussi : L’éthique a-t-elle sa place chez les traders ?
Nos recherches indiquent que les banques visant une adéquation du capital élevée (leurs risques sont fortement couverts par leurs fonds propres) ont augmenté significativement leur compensation des produits dérivés au sein de leurs bilans après la mise en œuvre de la réglementation sur la compensation centralisée obligatoire, tandis que celles dont l’adéquation visée est faible (les risques sont peu couverts) la diminuent.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
L’ampleur de nos résultats suggère un phénomène qui n’est pas économiquement négligeable. Nos calculs démontrent qu’avec l’adoption de la compensation centralisée obligatoire, les banques ayant un objectif élevé d’adéquation de fonds propres ont augmenté leur compensation de produits dérivés de 25,8 % de plus en juste valeur que les banques ayant un objectif faible d’adéquation de fonds propres. C’est une part significative de l’ensemble des actifs de la banque qui est ainsi concernée.
Nos données suggèrent un potentiel revers de la réforme de la compensation centralisée. Si la réforme de la compensation centralisée améliore la transparence du marché des produits dérivés, les possibilités accrues de compensation peuvent être exploitées par les dirigeants des banques dans leurs bilans en fonction de leurs objectifs. Les banques visant des ratios de fonds propres plus élevés peuvent choisir d’augmenter les compensations afin d’atteindre cet objectif. En outre, une compensation accrue réduirait également la transparence des rapports financiers au sein de ces banques. Les régulateurs doivent ainsi parvenir à un équilibre optimal entre les avantages et les inconvénients de la compensation afin d’atteindre les objectifs de cette réforme d’envergure.
John Zhang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.06.2025 à 12:25
Renaud Coulomb, Professor of Economics, Mines Paris - PSL
Fanny Henriet, Directrice de Recherche au CNRS en économie, Aix-Marseille Université (AMU)
Léo Reitzmann, PhD candidate in Economics, Paris School of Economics – École d'économie de Paris
L’empreinte carbone de l’extraction pétrolière peut varier considérablement d’un gisement à un autre. Une stratégie fondée sur la décarbonation de l’offre pétrolière pourrait donc compléter avantageusement les mesures traditionnelles basées sur la réduction de la demande… à condition que l’on dispose de données fiables et transparentes sur les émissions de gaz à effet de serre de l’industrie pétrolière.
Réduire les émissions de gaz à effet de serre (GES) liées au pétrole ne se résume pas à réduire seulement la consommation de produits pétroliers. En effet, l’empreinte carbone liée à leur production varie considérablement d’un gisement à un autre. Dans ces conditions, pour limiter leur impact environnemental, il est crucial de privilégier des gisements dont l’empreinte carbone et les coûts d’extraction sont les plus faibles.
Combinée aux mesures traditionnelles pour réduire la demande de pétrole (sobriété énergétique, développement des transports électriques…), une stratégie centrée sur la décarbonation de l’offre pétrolière peut donc accélérer les baisses d’émissions, tout en réduisant leur coût économique. C’est ce que nous montrons dans une recherche récemment publiée.
Mais pour que cela fonctionne, il est essentiel de disposer de données précises et transparentes quant aux émissions de cette industrie. Sans quoi, toute régulation basée sur l’intensité carbone de l’exploitation des gisements de pétrole risque d’être inefficace.
Les barils de pétrole diffèrent non seulement par leur coût d’extraction, mais aussi par leur empreinte carbone.
L’exploitation des sources de pétrole les plus polluantes, comme les sables bitumineux du Canada, génère en moyenne plus de deux fois plus d’émissions de GES par baril que l’exploitation de pétroles plus légers provenant de pays comme l’Arabie saoudite ou la Norvège.
Ces différences s’expliquent par les propriétés physiques du pétrole (densité et viscosité, par exemple), les contraintes géologiques liées aux gisements et les méthodes d’extraction utilisées (notamment la combustion sur site – dite torchage – c’est-à-dire rejet direct dans l’atmosphère du gaz naturel, qui accompagne souvent l’extraction de pétrole).
Cette hétérogénéité des gisements, combinée à l’abondance du pétrole au regard des objectifs climatiques discutés lors des COP, fait de la sélection des gisements à exploiter un levier important de réduction des émissions.
Depuis le Sommet de la Terre de Rio en 1992, date historique dans la reconnaissance du problème climatique et de son origine humaine, les producteurs de pétrole n’ont pas tenu compte des différences d’intensité carbone de leurs produits, liées à l’extraction et au raffinage.
Ce n’est guère surprenant : aucune réglementation ou régulation notable ne les a incités à le faire. De manière générale, les émissions de GES dues à la production et au raffinage du pétrole n’ont pas été tarifées par les grands pays producteurs de manière à refléter les dommages causés à l’environnement.
Nos recherches montrent que cette omission a eu d’importantes conséquences climatiques.
Nous avons calculé les émissions qui auraient pu être évitées de 1992 à 2018, si l’on avait modifié l’allocation de la production entre les différents gisements en activité – sans modifier les niveaux globaux de production et en prenant en compte les contraintes de production de chaque gisement – de sorte à en minimiser le coût social total – c’est-à-dire, en prenant en compte à la fois les coûts d’extraction et les émissions de GES. Près de 10 milliards de tonnes équivalent CO2 (CO2e) auraient ainsi pu être évitées, ce qui équivaut à deux années d’émissions du secteur du transport mondial.
Au coût actuel du dommage environnemental, estimé à environ 200 dollars par tonne de CO₂, cela représente 2 000 milliards de dollars de dommages climatiques évités (en dollars constants de 2018).
Les efforts actuels visent surtout à réduire la consommation globale de pétrole, ce qui est nécessaire. Mais nos résultats montrent qu’il est également important de prioriser l’exploitation des gisements moins polluants.
Pour réduire le coût social de l’extraction à production totale constante, il aurait mieux valu que des pays aux gisements très carbonés, comme le Venezuela ou le Canada, réduisent leur production, remplacée par une hausse dans des pays aux gisements moins polluants, comme la Norvège ou l’Arabie saoudite.
Même au sein des pays, les différences d’intensité carbone entre gisements sont souvent importantes. Des réallocations internes aux pays permettraient d’obtenir des réductions d’émissions du même ordre de grandeur que celles obtenues en autorisant les productions agrégées de chaque pays à changer.
Même si ces opportunités de baisse d’émissions ont été manquées dans le passé, nous avons encore la possibilité de façonner l’avenir de l’approvisionnement en pétrole.
Si l’on reprend les hypothèses de calcul qui précèdent, et en supposant que le monde s’engage sur une trajectoire zéro émissions nettes (Net Zero Emissions, NZE) en 2050, prendre en compte l’hétérogénéité de l’intensité carbone entre les gisements dans les décisions d’approvisionnement en pétrole permettrait :
de réduire nos émissions de 9 milliards de tonnes (gigatonnes) CO2e d’ici à 2060,
d’éviter environ 1 800 milliards de dollars en dommages, et cela sans réduire davantage la consommation par rapport au scénario NZE.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Or, le débat politique se concentre souvent sur la réduction de la demande de pétrole, avec la mise en place d’outils tels que les incitations à l’adoption des véhicules électriques ou les taxes sur les produits pétroliers. Une baisse de la demande de pétrole est évidemment indispensable pour maintenir le réchauffement planétaire en dessous de 1,5 °C ou même 2 °C.
Mais tant que l’on continue d’en consommer, prioriser les gisements à moindre intensité carbone offre une opportunité complémentaire pour réduire les émissions.
Pour gagner en efficacité, les politiques publiques pourraient intégrer une tarification carbone plus exhaustive, qui tiendrait compte des émissions sur tout le cycle de vie des produits pétroliers, de l’exploration pétrolière jusqu’à la combustion des énergies fossiles.
Celles-ci pourraient être complétées par des ajustements aux frontières, sur le modèle de ce que l’Union européenne s’apprête à faire pour l’empreinte carbone des produits importés, si cette tarification n’est pas adoptée à l’échelle mondiale. Ou encore, cela pourrait passer par l’interdiction directe de l’extraction des types de pétrole dont l’exploitation de gisement émet le plus d’émissions de GES (par exemple, le pétrole extra-lourd ou les gisements présentant des niveaux très élevés de torchage), dans un soucis de simplification administrative.
Certaines politiques vont déjà dans ce sens. La Californie, avec son Low Carbon Fuel Standard, a été pionnière en différenciant les carburants selon leurs émissions sur l’ensemble du cycle de vie, afin de réduire l’intensité carbone moyenne du carburant utilisé sur le territoire.
En Europe, la directive sur la qualité des carburants (modifiée par la nouvelle directive sur les énergies renouvelables) promeut les biocarburants, mais ne distingue pas finement les produits pétroliers selon leur intensité carbone.
La mise en œuvre de ces politiques repose toutefois sur un pilier crucial : l’accès à des données publiques fiables sur l’intensité carbone des gisements de pétrole.
Et c’est là le nœud du problème : ces estimations varient fortement selon les sources. Par exemple, l’Association internationale des producteurs de pétrole et de gaz (IOGP) publie des chiffres presque trois fois inférieurs à ceux issus d’outils plus robustes, comme celui développé par l’Université de Stanford et l’Oil-Climate Index.
Cet écart s’explique en partie par des différences dans le périmètre des émissions prises en compte (exploration, construction des puits, déboisement, etc.), mais aussi par des écarts dans les données utilisées. En ce qui concerne le torchage et le rejet direct dans l’atmosphère du gaz naturel, l’IOGP s’appuie sur des chiffres déclarés volontairement par les entreprises. Or, ceux-là sont notoirement sous-estimés, d’après des observations provenant de l’imagerie satellitaire.
Il est ainsi impossible d’appliquer de façon efficace des régulations visant à discriminer les barils de pétrole selon leur intensité carbone si on ne dispose pas de données fiables et surtout vérifiables. La transparence est donc essentielle pour vérifier les déclarations des entreprises.
Cela passe par des mécanismes de surveillance rigoureux pour alimenter des bases de données publiques, que ce soit par satellite ou par des mesures indépendantes au sol. Le recul récent aux États-Unis quant à la publication de données climatiques fiables par les agences gouvernementales accentue encore ces défis. En effet, les estimations des émissions liées au torchage de méthane utilisées dans notre étude reposent sur l’imagerie satellite de la National Oceanic and Atmospheric Administration (NOAA) et de la Nasa.
Renaud Coulomb a reçu des financements de Mines Paris-Université PSL, Université de Melbourne, Fondation Mines Paris, La Chaire de Mécénat ENG (Mines Paris - Université Dauphine - Toulouse School of Economics - DIW, parrainée par EDF, GRTGaz, TotalEnergies). Il ne conseille pas et ne détient pas d'actions de sociétés pétrolières ou gazières.
Fanny Henriet a reçu des financements de l'Agence Nationale de la Recherche et de la Banque de France. Elle est membre du Conseil d'Analyse Economique. Elle ne conseille pas et ne détient pas d'actions de sociétés pétrolières ou gazières.
Léo Reitzmann a reçu des financements de l'Agence Nationale de la Recherche via le programme Investissements d’Avenir ANR-17-EURE-0001. Il ne conseille pas et ne détient pas d'actions de sociétés pétrolières ou gazières.
26.06.2025 à 10:11
Jean-Marc Figuet, Professeur d'économie, Université de Bordeaux
Research in economics has unravelled the workings of the complex market for Bordeaux wines, in which perceived quality, historical reputation and critical reviews are intertwined. The question of how bottles are priced is all the more relevant amid a crisis for the Bordeaux industry, which is facing the threat of higher US tariffs on EU exports.
To assess the relationship between the quality and price of Bordeaux wines, Jean-Marie Cardebat and I applied the “hedonic” method. The analysis links price to the observable characteristics of a wine: its ranking, vintage, designation of origin, alcohol content, flavour, etc.
The results are striking: the reputation of the wine estate and its official ranking, in particular that of 1855, are more powerful factors in explaining price than taste and sensory characteristics. In other words, a ranked wine, because of the prestige of its label, sells for significantly more than an unranked wine of equivalent taste and sensory appeal.
À lire aussi : Our perception of wine has more to do with its commercial history than we think
The economist Orley Ashenfelter has shown that the weather conditions of a vintage – temperature, sunshine, rainfall – are predictors of its quality and therefore its price. A simple model, based solely on climatic data.
For more than 30 years, the critic Robert Parker stirred up the Bordeaux wine market. His famous scores out of 100, published in The Wine Advocate, made and broke the value of wines. The economist Robert H. Ashton measured the scores’ impact: an extra point could boost a price by 10-20%.
Parker was the originator of a tribe of “gurus”, whose scores structured the entire early season for wines. The estates adjusted prices according to their assessments, and wine buyers followed suit, convinced of the accuracy of the scores.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
The Bordeaux wine landscape has changed since Parker’s retirement in 2019. The critics are still around but their influence has fragmented. No one has taken over Parker’s leadership. Consensus is now less clear and rating discrepancies are more frequent.
An even deeper turning point is evident when we compare the impact of expert and consumer ratings – notably from the Vivino platform – on the price of French red wines.
The result is clear: in the majority of cases, the scores of amateurs surpass those of professionals when it comes to explaining price differences. The market has therefore moved from a “guru” logic to a “geek” logic, in which the collective intelligence of connected consumers now carries as much weight, if not more, than expert opinions.
À lire aussi : Appearance, aroma and mouthfeel: all you need to know to give wine tasting a go
During the “primeurs” or early harvest campaign, the most prestigious Bordeaux wines are offered 18 months before bottling, often at a price that is supposed to be lower than the future market price. It’s a great opportunity for a bargain. Philippe Masset’s research shows that most wine estates overestimate the price of early harvest wines.
For example, for the 2021 vintage, over 80% of the wines analysed were priced above their “fair value” as estimated by an econometric model. The more a wine is overpriced on its release, the worse it performs on the secondary market. This discrepancy between asking price and perceived value feeds what is known as “Bordeaux bashing”. There is disaffection with these wines that are considered too expensive, too complex, too austere and totally out of step with today’s expectations – young people’s in particular.
While the price of Bordeaux wine is still based on its quality, origin, weather and ranking, it also depends on criticism not just by experts, but by consumers. This shift is redefining the balance of power in the world of wine.
Reputation still pays, but prestige is no longer enough. Nonelite wine consumers are gradually taking over, gaining a new form of power over prices. If the Bordeaux market wants to emerge from crisis and reclaim its place, it will undoubtedly have to rethink the way its prices are set and perceived.
Jean-Marc Figuet has received public funding for his research.
25.06.2025 à 17:14
Alexandre Joux, Professeur en Sciences de l’information et de la communication, Aix-Marseille Université (AMU)
Les députés voteront le projet de création d’une holding réunissant France Télévisions, Radio France et l’INA les 30 juin et 1er juillet – sans que l’on sache à ce stade si le groupe France Médias Monde (France 24 et RFI) en fera partie ou non. Les personnels de Radio France, qui s’y opposent, sont en grève illimitée depuis le 26 juin, ceux de France Télévisions à partir du 30 juin. Portée par Emmanuel Macron depuis 2017 et aujourd’hui par la ministre de la culture Rachida Dati, cette fusion est-elle justifiée ?
Le projet de fusion de l’audiovisuel public s’apprête à être examiné par le Parlement. Mais quelles réponses peut apporter ce projet « Big is Beautiful » aux défis des médias de l’audiovisuel public ? Revenir sur l’évolution de l’audiovisuel public, ses réussites et ses limites actuelles souligne combien l’impératif politique semble l’emporter sur l’urgence numérique.
En 1974, l’ORTF était scindée en trois entités afin d’introduire un peu de concurrence et de diversité entre les chaînes. La libéralisation de l’audiovisuel, c’est-à-dire le droit de créer des radios et des télévisions privées, se produira dix ans plus tard, entre 1982 et 1986, puis sera suivie par la privatisation de TF1 en 1987. Dès lors, l’audiovisuel public perd progressivement son image de télévision d’État et s’impose en tant qu’alternative aux offres privées de télévision. Cette spécificité ne l’a plus quitté depuis, ce qui permettra sa réunification progressive.
En 1992, France Télévision (alors sans s) naît de la réunion des deux principales chaînes publiques. La même année, la fréquence de La Cinq, en faillite, est attribuée au service public, une manière de compenser la privatisation de TF1. Avec le lancement de la TNT en 2005, France 4 vient compléter l’offre de chaînes de France Télévisions et France 5 récupère la cinquième fréquence qu’elle partageait avec Arte.
Puis il faudra toujours plus souligner la spécificité de l’audiovisuel public, ce qui conduira le président Sarkozy, en 2008, à s’inspirer du modèle de la BBC à l’occasion de la suppression de la publicité sur France Télévisions après 20 heures. En 2016, Les Républicains (LR) proposeront la création d’une « BBC à la française », c’est-à-dire la réunion de la radio et de la télévision publiques, proposition reprise en 2017 dans le programme d’Emmanuel Macron, ouvrant un chapitre qui devrait se clore en 2026, avec le début de l’examen, le 23 juin 2025, du projet de réforme de la loi audiovisuelle de 1986 visant à créer la holding « France Médias » (réunion de France Télévisions, de Radio France et de l’INA).
Mais il n’y aura jamais de « BBC à la française » parce que les audiovisuels publics européens sont très différents d’un pays à l’autre et sont régulés chacun de manière spécifique, la libéralisation de l’audiovisuel en Europe ayant emprunté une diversité de voies.
La BBC, puisqu’elle est donnée en exemple, dispose de ses propres studios, contrôle les droits sur les programmes qu’elle finance, et a une activité commerciale à l’international qui contribue à alimenter en contenus ses antennes britanniques. France Télévisions, à l’inverse, a l’obligation de recourir d’abord à des producteurs indépendants quand elle finance des programmes, ceci afin de soutenir la diversité de la création française, et n’a donc pas pu développer un catalogue important de contenus audiovisuels dont elle contrôle les droits et qu’elle pourrait exploiter commercialement. La nouvelle loi, si elle est votée, fera donc émerger France Médias, une holding unique, mais pas une nouvelle BBC, avec plusieurs enjeux identifiés : un enjeu économique et stratégique, un enjeu éditorial, un enjeu politique.
Avec l’émergence de plateformes mondiales dans la musique et le podcast (Spotify), dans la vidéo (Netflix), les acteurs nationaux de l’audiovisuel (radio, télévision) sont contraints de s’adapter rapidement. En effet, la structure du marché a rapidement évolué parce que des acteurs nouveaux et mondialisés ont émergé, mais aussi parce que l’on assiste à un changement rapide des pratiques en faveur de la consommation à la demande. Si le déséquilibre entre plateformes mondiales et acteurs nationaux est souvent pointé du doigt, reste que l’émergence de France Médias ne devrait pas changer la donne. En effet, Radio France comme France Télévisions comptent déjà parmi les premiers producteurs de contenus audiovisuels français et Netflix et ses épigones n’ont pas vocation à les remplacer. Aux premiers, l’offre très française, aux seconds l’offre mondialisée. L’enjeu économique et stratégique d’un audiovisuel public réuni est donc à chercher ailleurs.
La logique d’un rapprochement entre un spécialiste des archives audiovisuelles, un groupe de radio et un groupe de télévision n’est pas en soi évidente. Elle le serait si les trois groupes réunis pouvaient mener une stratégie publicitaire agressive, mais les possibilités de l’audiovisuel public en la matière sont très limitées (la publicité est plafonnée sur Radio France, elle est interdite sur les chaînes de France Télévisions au meilleur moment, celui du prime time).
Reste donc un pari sur la « plateformisation », le terme étant employé pour désigner la manière dont les usagers, les producteurs de contenus et les technologies interfacent dans des écosystèmes créateurs de valeur. Sur une plateforme unique de l’audiovisuel public, un internaute attiré par une offre audio pourrait basculer vers des programmes vidéo, prenant ainsi ses habitudes sur le service qui deviendrait, si ce n’est l’unique, au moins l’une des principales portes d’entrée de sa consommation de contenus audiovisuels à la demande. Ce superportail pourrait même agréger l’offre d’autres partenaires, comme le fait déjà France.tv, la plateforme de vidéo à la demande de France Télévisions.
C’est finalement le modèle Salto, avec la convergence des médias en plus, les grands partenaires privés en moins. Mais la mise en œuvre d’une telle stratégie ne passe pas nécessairement par une fusion.
Dans le domaine de l’information, France Télévisions et Radio France ont déjà fait la preuve de leur capacité à travailler ensemble sans être fusionnés, avec un résultat probant, le succès depuis 2016 de l’offre globale France Info sur Internet. Le site web et son application fédèrent les contenus des rédactions des deux groupes et s’imposent comme un portail de l’information pour l’audiovisuel public, avec un vrai succès d’audience. Ce n’est pas le cas de la chaîne d’information en continu France Info, lancée la même année par France Télévisions et qui réunit moins de 1 % de l’audience de la TNT dix ans plus tard. France Info, la radio, affiche en revanche de très belles performances, dans un contexte concurrentiel, certes, plus favorable puisqu’elle n’a pas, face à elle, de concurrentes privées sur l’information en continu. Leur fusion dans un même groupe ne devrait pas changer la donne si l’offre n’évolue pas.
La fusion de la radio et de la télévision publiques pourrait, en revanche, accélérer la mise en œuvre d’une seconde offre convergente, ICI, lancée en 2025, qui fédère les programmes locaux des rédactions de France 3 en région et des locales de Radio France (ex-réseau France Bleu). Il s’agirait, de nouveau, de créer un portail unique pour l’accès à l’information, cette fois-ci locale.
L’exemple de France Info prouve toutefois que la fusion n’est pas un préalable à la mise en œuvre opérationnelle de telles offres et que l’agilité reste un atout maître pour garantir le succès des offres en ligne. Ainsi, Radio France est parvenue à s’imposer sur l’écoute de podcasts en France avec des replays de ses programmes et avec des podcasts natifs, au point désormais de fédérer, depuis son application, l’offre de podcasts francophones issus de l’audiovisuel public (Radio France, Arte Radio, mais aussi la radio canadienne, la RTBF belge).
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Arte.tv a fait émerger une offre de vidéo à la demande de dimension européenne, sans les moyens d’un Netflix, mais avec un pari éditorial fort sur le documentaire et les séries nordiques. De ce point de vue, la pertinence de la réunion des groupes audiovisuels publics se jouera fondamentalement sur la capacité des nouvelles équipes à imaginer un projet éditorial fédérateur et adapté aux différents supports de diffusion, ce qu’un projet de loi ne peut bien sûr pas anticiper.
Reste que ces approches convergentes, qui reposent sur des synergies entre médias différents, sont souvent vouées à l’échec. Le dernier en date a été acté par Vincent Bolloré, qui voulait faire de Vivendi un groupe convergent, avant de le scinder pour redonner leur indépendance à chacun de ses médias.
Finalement, l’enjeu politique s’impose comme le plus évident. Il est nécessaire d’avoir un audiovisuel public fort dans l’information, et la réunion des rédactions de France Télévisions et de Radio France fait émerger un géant dans l’univers du journalisme audiovisuel : plus de 3 500 journalistes. Certes, ce potentiel est à nuancer, car Radio France comme France Télévisions ont des obligations de couverture locale et France Télévisions est également présente dans les outremers. Cette mégarédaction est donc répartie sur l’ensemble du territoire national, mais c’est aussi sa force. Aux États-Unis, la disparition rapide des titres de presse locale et de leurs journalistes n’augure rien de bon pour la démocratie. En France, l’audiovisuel public peut éviter ce scénario, même s’il faut espérer que la presse locale réussisse sa bascule dans le tout-numérique.
Dans le domaine de l’information, la réunion des rédactions fait sens parce que la concurrence, quand les lignes éditoriales ne sont pas fortement différenciées, conduit à multiplier les doublons au détriment de la diversité des sujets traités. Pour cela, il faut que les journalistes deviennent de plus en plus polyvalents s’ils doivent être capables de travailler pour Internet, la radio et la télévision. Mais une meilleure allocation des ressources permet de traiter mieux chaque sujet, ou plus de sujets.
Le risque de la polyvalence, en revanche, c’est la possibilité de faire plus avec moins. Or, les budgets de l’audiovisuel public sont contraints depuis plusieurs années. Si cet impératif devait s’imposer, la fusion n’augmentera pas la diversité et la qualité de l’offre d’information de l’audiovisuel public, bien au contraire. Enfin, il ne faut pas exclure la possibilité d’un gouvernement trop peu libéral, comme cela s’est produit dans d’autres démocraties. La pression sur le dirigeant unique de l’audiovisuel public sera alors immense.
Alexandre Joux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 17:14
Faustine Rousselot, Docteure en sciences de l'éducation et de la formation, Université de Lille
Véritable cheminement intellectuel, le doctorat peut aussi, par la précarité qu’il induit, devenir un véritable parcours du combattant au quotidien, fragilisant durablement les jeunes chercheurs sur le plan psychologique comme économique. Retour sur les enseignements d’une enquête autour de 15 parcours en sciences humaines et sociales.
Avec le Vacataire, publié en 2025, l’économiste Thomas Porcher a mis un coup de projecteur sur la précarité de ces enseignants non fonctionnaires. Souvent doctorants ou jeunes docteurs, ils sont payés à l’heure de cours, n’ont pas accès aux protections sociales et leur salaire peut leur être versé plusieurs mois après leur intervention.
Ces vacataires représenteraient aujourd’hui près de deux tiers des personnes assurant des cours dans les universités françaises, estime Thomas Porcher. Mais cette précarité ne commence pas avec les vacations : elle s’installe dès la thèse. En France, le doctorat dure en moyenne de quatre à six ans en sciences humaines et sociales, avec pour objectif la production de savoirs nouveaux. Dans ces disciplines, certains doctorants obtiennent un contrat doctoral ou une bourse, mais cela reste minoritaire : beaucoup d’entre eux doivent travailler à côté de leurs recherches pour subvenir à leurs besoins.
À lire aussi : Des enseignants-chercheurs à la recherche du temps perdu : regard sur le malaise universitaire
Nombre de vacataires sont encore doctorants, et les heures mal rémunérées s’ajoutent à une surcharge de travail (manuscrit à rédiger, préparation de cours, publication à produire), à un manque de reconnaissance (peu de valorisation institutionnelle, faible intégration dans les équipes de recherche) et à une forte solitude. Loin d’être une exception, ces vacations s’inscrivent dans un système plus vaste de fragilisation du monde académique, qui oblige nombre de doctorants à consentir des sacrifices invisibles pour simplement rester dans la course.
En parallèle de mon activité d’attachée temporaire d’enseignement et de recherche (Ater), j’ai mené une enquête auprès de 15 jeunes docteurs en sciences humaines et sociales, récemment diplômés. Leurs récits ne racontent pas tant une réussite académique qu’un chemin marqué par l’incertitude, les renoncements et l’épuisement. Plusieurs évoquent des projets personnels reportés, un isolement prolongé ou un sentiment de vide à l’issue de la soutenance. Ces témoignages soulèvent une question : que nous dit le doctorat sur la manière dont l’université forme, encadre et, parfois, fragilise ses futurs chercheurs ?
Tout le monde le sait, faire une thèse est difficile. Mais souvent, on imagine que cette difficulté sera d’abord intellectuelle. Or, dans les 15 récits que j’ai recueillis, personne ne se plaint d’exigences intellectuelles trop élevées. Les difficultés sont ailleurs. Les renoncements sont d’ordre personnel.
Clotilde a mené toute sa thèse sans financement : elle a travaillé en tant que « nanny », puis a enchaîné des vacations tout au long de son parcours doctoral. Elle a reporté le projet d’avoir un enfant et vécu dans une incertitude permanente liée à ses ressources financières : elle ne savait si elle pourrait subvenir à ses besoins les mois suivants, comme elle le dit : « J’ai mis ma vie en pause. »
Alice, de son côté, s’est volontairement isolée pour rester concentrée, elle s’enfermait plusieurs jours dans des logements temporaires pour écrire, jusqu’à couper ses liens sociaux. Amandine parle d’un emploi du temps saturé : « Il y avait soixante-dix heures par semaine ou plus qui étaient consacrées au travail, donc après, je mangeais, je dormais. »
Une autre personne interrogée évoque une période de tension continue entre charge professionnelle et vie personnelle : « Je faisais deux heures et demie de route, matin et soir, pour donner mes cours avec mes deux enfants à gérer. J’étais épuisée, mais je ne pouvais pas lâcher. »
Ces témoignages disent que le doctorat, ce n’est pas seulement une surcharge de travail. C’est une pression continue qui efface progressivement ce qui fait la vie autour du travail : les projets, les relations, le soin de soi. Et cet effacement s’aggrave encore lorsque les conditions économiques sont précaires. Toutes les personnes interrogées n’ont pas connu la même stabilité financière, mais pour beaucoup, le manque de ressources est venu renforcer la tension permanente : il rend chaque choix plus lourd. Une personne participant à l’enquête raconte :
« Financièrement, c’était très dur. C’est aussi pour ça que j’ai songé à arrêter. Je dis que c’est à cause de mon directeur, mais c’est à cause de… moi, je mettais la pression à mon directeur pour la finir rapidement cette thèse parce que ça a duré longtemps et j’avais besoin de gagner de l’argent, en fait. Et ce n’est pas les vacations à la fac qui me faisaient gagner un salaire normal. »
Un autre évoque la pression qui s’ajoute à celle du quotidien :
« Ma famille me disait : “Quand est-ce que tu vas te mettre à travailler ?”, parce qu’il faut rentrer de l’argent. Donc, il y avait aussi cette notion-là qui mettait un poids en plus. »
Le doctorat devient un espace de fragilité totale, où l’incertitude matérielle alimente l’usure mentale et l’effacement de soi.
Les récits recueillis évoquent rarement un burn out au sens clinique. Mais tous parlent d’une tension psychique consentante : fatigue extrême, pensées envahissantes, culpabilité de ne jamais en faire assez.
Amandine décrit cette spirale mentale avec lucidité : « C’est que j’étais tout le temps en train de réfléchir à ce que j’avais à faire, à ce que je n’avais pas fait. C’est un truc qui te quitte pas. »
Chez Sebastian, cette pression se traduit par une culpabilité omniprésente :
« Au début, je culpabilisais beaucoup. Après, il y a un moment où je culpabilisais des fois d’aller au ciné ou de regarder Friends. Et, bien sûr, le sentiment de culpabilité, il va structurer tout ton état d’esprit quand tu es en thèse. »
Jean, lui, parle de pensées intrusives qui se poursuivent bien au-delà de la fin de la thèse : « Pendant un an, j’avais encore des pensées intrusives de thèse. Genre : “Il faut que tu bosses sur ta thèse.” Alors qu’elle était finie. »
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Un autre témoignage montre comment cette pression glisse vers une anxiété aiguë, presque corporelle :
« Pendant les moments où j’écrivais ma thèse, j’avais de plus en plus des moments de panique. De temps en temps, je sentais des crises d’anxiété qui montaient. »
Ces formes de fragilités ne sont pas isolées. Elles traduisent un système qui demande une mobilisation mentale permanente, sans droit au relâchement. Pour plusieurs, c’est après la soutenance que le corps lâche. Quand la pression tombe enfin, le vide s’installe. L’une raconte :
« J’ai cassé le plafond de verre, mais je continue à enlever les morceaux qui sont plantés dans ma peau. »
Troubles de la concentration, fatigue chronique, perte d’élan : la thèse ne s’arrête pas avec le manuscrit. Elle se poursuit dans le corps, la mémoire, le silence.
Et après tant de sacrifices, que reste-t-il ? Certains ont décroché un poste, d’autres enchaînent les contrats précaires. Mais certains ont renoncé, ils ne veulent plus faire partie du monde académique. Ces récits disent la fatigue d’un système qui épuise ses propres chercheurs avant même leur entrée dans la carrière.
Faustine Rousselot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 17:13
Sébastien Ibanez, Maître de conférences en biologie, Université Savoie Mont Blanc (USMB), Université Savoie Mont Blanc
Comment la recherche et les scientifiques peuvent-ils intervenir dans le débat public, surtout lorsqu’il s’agit de questionner des choix de société ? Dans les mouvements écologistes, cet engagement peut prendre plusieurs formes, entre expert en retrait et militant engagé. L’exemple du projet d’extension du téléphérique de La Grave (Hautes-Alpes), au pied du massif de la Meije, illustre bien cette difficulté. Ce chantier menace notamment une plante protégée, ce qui a contribué à l’installation de la plus haute ZAD d’Europe.
Construit en 1976 et 1977, le téléphérique relie le village de La Grave (Hautes-Alpes) à 1 400 mètres et le glacier de la Girose à 3 200 mètres. Lors de la reprise de la gestion du téléphérique par la Société d’aménagement touristique de l’Alpe d’Huez (Sata) en 2017, il est prévu d’étendre le téléphérique par un troisième tronçon atteignant le Dôme de la Lauze à plus de 3 500 mètres, pour remplacer l’usage d’un téléski désormais obsolète. Cela déclenche une controverse à différentes échelles, locale et nationale, portant sur la pertinence économique, sociale et environnementale du projet.
Étant écologue, je vais concentrer l’analyse sur les manières dont ma discipline peut participer à la controverse.
La haute montagne est pleine de vie : la neige recouvrant les glaciers et les plantes poussant dans les fissures hébergent des écosystèmes riches en espèces souvent méconnues. Par exemple, trois nouvelles espèces d’androsaces, de petites fleurs de haute montagne, ont été découvertes en 2021 grâce à l’analyse de leur ADN.
On sait depuis Horace Bénédict de Saussure, naturaliste du XVIIIe siècle, que ces plantes existent, mais elles étaient alors confondues avec d’autres auxquelles elles ressemblent. L’une d’elles, l’androsace du Dauphiné, est endémique du massif des Écrins et d’autres massifs avoisinants. On la prenait auparavant pour l’une de ses cousines, l’androsace pubescente, qui bénéficie d’une protection nationale depuis 1982.
Il est encore trop tôt pour que le statut de protection de l’androsace du Dauphiné soit défini par la loi. En toute logique, elle devrait hériter de la protection nationale dont bénéficie l’androsace pubescente, puisque son aire de répartition est encore plus réduite. Elle occupe notamment un petit rognon rocheux émergeant du glacier de la Girose, sur lequel l’un des piliers du téléphérique doit être implanté.
À cet endroit, l’androsace du Dauphiné n’a pas été détectée par le bureau chargé de l’étude d’impact, mais elle a été repérée, en 2022, par un guide de haute montagne local. Comme cela n’a pas convaincu le commissaire chargé de l’enquête publique, une équipe de chercheurs accompagnée par une agente assermentée de l’Office français de la biodiversité (OFB) a confirmé les premières observations, en 2023.
De nombreuses autres espèces d’androsaces poussent à plus faible altitude et possèdent une rosette de feuilles surmontée d’une tige dressée portant des fleurs. Celles de haute montagne, comme l’androsace du Dauphiné, ont un port compact rappelant un coussin. Les petites fleurs blanches à gorge jaune dépassent à peine des feuilles duveteuses. Dans cet environnement très difficile, leur croissance est très lente. Les plantes formant des coussins peuvent avoir plusieurs dizaines d’années, voire bien plus. Bien que très discrètes, elles forment les forêts des glaciers.
Les travaux prévus présentent-ils un risque pour l’androsace ?
Le préfet des Hautes-Alpes a jugé que ce n’était pas le cas, en refusant d’enjoindre à la Sata de déposer une demande de dérogation en vue de la destruction d’une espèce protégée, comme cela est prévu par l’article L411-2 du Code de l’environnement. Il considère donc qu’installer quelques dispositifs de protection autour des individus existants serait assez. En réalité, rien ne garantit que cela suffise, car plusieurs de ces plantes poussent à moins de 15 mètres en contrebas de l’emplacement du pylône, comme l’indique le rapport d’expertise, dans des fissures rocheuses dont l’alimentation en eau risque d’être irrémédiablement perturbée.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Surtout, les travaux de terrassement peuvent anéantir des graines prêtes à germer ou de minuscules jeunes pousses très difficiles à détecter au milieu des rochers. La viabilité écologique d’une population ne dépend pas que de la survie des individus les plus âgés, mais aussi du taux de survie des plus jeunes. Cependant, il n’existe à l’échelle mondiale que très peu de connaissances sur la dynamique des populations et la reproduction des plantes formant des coussins.
On peut donc difficilement quantifier la probabilité que la population d’androsaces présente sur le rognon de la Girose s’éteigne à cause des travaux. On peut malgré tout affirmer que la survie de la population sera très probablement menacée par les travaux, même si cette conclusion n’a pas le même degré de certitude que l’observation de la présence de l’espèce.
Comment se positionner sur cette question en tant que scientifique ?
Une première solution serait de céder à la double injonction de neutralité (ne pas exprimer ses opinions) et d’objectivité (se baser uniquement sur des faits), pour se limiter au signalement de la présence de l’espèce. Mais cette négation aveugle de l’engagement laisse aux autorités, qui ne sont bien sûr ni neutres ni objectives, le soin de décider comment protéger l’androsace. La neutralité devient ainsi une illusion qui favorise l’action des forces dominantes.
Une deuxième option diamétralement opposée serait d’utiliser la qualité de scientifique pour asseoir son autorité : l’androsace étant protégée et menacée par les travaux, il faut abandonner le projet, point. Cet argument technocratique paraît surprenant dans ce contexte, mais c’est une pratique courante dans la sphère économique lorsque des experts présentent des choix de société comme inévitables, avec pour grave conséquence d’évacuer le débat politique. Dans le cas de la Girose, les enjeux environnementaux s’entremêlent avec les choix portant sur le modèle de développement touristique. La controverse ne peut être résolue qu’au moyen d’une réflexion associant tous les acteurs.
Une troisième voie consisterait à distinguer deux modes d’intervention, l’un en tant que scientifique et l’autre en tant que militant, de manière à « maximiser l’objectivité et minimiser la neutralité ». Dix-huit scientifiques formant le collectif Rimaye, dont je fais partie, ont publié en 2024 un ouvrage intitulé Glacier de la Girose, versant sensible, qui mêle les savoirs et les émotions liées à ce territoire de montagne. Les contributions de sciences humaines interrogent les trajectoires passées et à venir pour le territoire, tandis que les sciences de la Terre et de la vie invitent le lecteur autant à découvrir qu’à aimer les roches, les glaces et les êtres qui peuplent la haute montagne.
Partant du constat que la seule description scientifique ne suffit pas, plusieurs contributions revendiquent une approche sensible. La recherche permet aussi d’aimer les plantes en coussins et les minuscules écosystèmes qu’elles hébergent. Les sciences de la nature n’ont pas nécessairement une application technique immédiate au service d’un projet de domination. Elles peuvent encourager la protection de l’environnement par le biais de l’attachement aux objets de connaissance et se révéler porteuses, comme les sciences humaines, d’un projet émancipateur où tous les êtres vivants, et même les êtres non vivants comme les glaciers, seraient libres de toute destruction et d’exploitation.
Cependant, cette troisième voie suppose qu’il est possible d’isoler la démarche scientifique de valeurs morales ou politiques. Certes, les valeurs peuvent influencer les scientifiques avant le processus de recherche (lors du choix de l’androsace comme objet d’étude), pendant (en évitant d’abîmer les plantes étudiées) et après (en déterminant le message accompagnant la diffusion des résultats). Malgré tout, selon cette approche, le processus de la recherche reste généralement imperméable aux valeurs.
Cet idéal est aujourd’hui largement contesté en philosophie des sciences, ce qui ouvre le champ à une quatrième voie venant compléter la précédente. Concentrons-nous ici sur un seul argument : tirer une conclusion scientifique nécessite de faire un choix qui, en l’absence de certitude absolue, devient sensible aux valeurs.
Dans le cas de l’androsace, il faut décider si l’implantation du pylône met ou pas la population en danger.
On peut distinguer deux manières de se tromper : soit on détecte un danger inexistant, soit on ne parvient pas à discerner un véritable danger. La porte d’entrée des valeurs devient apparente. Du point de vue de la Sata, il faudrait éviter la première erreur, tandis que pour les amoureux de l’androsace, c’est la seconde qui pose problème. Idéalement, on aimerait minimiser les taux de ces deux erreurs, mais un résultat bientôt centenaire en statistiques nous apprend que l’un augmente lorsque l’autre diminue. Un certain risque d’erreur peut ainsi paraître plus ou moins acceptable en fonction de nos valeurs.
Si objectivité et neutralité sont illusoires, il serait préférable de rendre apparente l’intrication entre valeurs et recherche scientifique afin de distinguer les influences illégitimes, comme la promotion d’intérêts personnels ou marchands, de celles orientées vers la protection de biens communs. D’autant plus que les enjeux autour du téléphérique dépassent largement le sort de l’androsace, mais concernent aussi la vie économique de la vallée.
Pour trancher la question de l’aménagement de la haute montagne, il devrait exister un espace de discussion regroupant habitantes et habitants des vallées, pratiquants de la montagne et scientifiques. Des initiatives ont été prises dans ce sens, que ce soit à Bourg-Saint-Maurice (Savoie), à Grenoble (Isère), au jardin alpin du Lautaret (Hautes-Alpes) ou à La Grave.
Pour que ces rencontres soient suivies d’effet, il faut qu’elles puissent nourrir les mobilisations, comme tente de le faire le collectif Les Naturalistes des terres, ou qu’elles se traduisent dans les politiques publiques. Cependant, la récente proposition de loi Duplomb sur l’agriculture illustre que les alertes des scientifiques sont souvent ignorées.
En attendant, les travaux du téléphérique pourraient reprendre cette année à la Girose, sans que la question de la protection des glaciers et des écosystèmes qui les entourent ait trouvé de réponse.
Sébastien Ibanez a reçu des financements de l'Observatoire des Sciences de l'Univers de Grenoble (OSUG).
25.06.2025 à 17:11
Deion Scott Hawkins, Assistant Professor of Argumentation & Advocacy, Emerson College
Encore trop souvent effacées des récits, les femmes trans, queers et racisées ont joué un rôle crucial dans la lutte pour les droits LGBTQIA+. Ce sont même elles qui ont lancé la fameuse révolte de Stonewall dans les années 1960 de même qu’une autre rébellion, quelques années auparavant, à San Francisco. Retour sur ces actes de résistance et sur le rôle de celles qui, parmi les premières, se sont levées pour les droits des personnes queer.
On ne sait pas exactement qui a lancé la première brique au Stonewall Inn, cette nuit de 1969 à New York qui a marqué un tournant dans la lutte pour les droits LGBTQIA+. Selon la mythologie queer, ce pourrait être Marsha P. Johnson, femme trans noire emblématique de la libération gay, ou Sylvia Rivera, femme trans latina. Mais leurs témoignages contredisent cette version. Marsha P. Johnson a reconnu être arrivée après le début de l’émeute, tandis que Sylvia Rivera a déclaré dans un entretien :
« Beaucoup d’historiens m’attribuent le premier cocktail Molotov, mais j’aime rétablir la vérité : j’ai lancé le second, pas le premier ! »
La scène la plus probable n’implique ni brique ni cocktail Molotov, mais l’appel à l’aide de Stormé DeLarverie, lesbienne métisse. Alors qu’on l’embarquait dans une voiture de police, elle aurait crié à ses camarades queer :
« Vous n’allez rien faire ? »
À l’époque, le bar Stonewall Inn appartenait à la mafia et comme il s’agissait d’un période avec des lois très restrictives sur l’alcool, ce lieu nocturne populaire pour la communauté LGBTQIA+ était une cible facile pour les descentes de police.
Vers 2 heures du matin, la police de New York est intervenue pour faire évacuer le bar à l’heure de sa fermeture. Au départ, la majorité des clients ont coopéré, mais face à l’escalade des violences policières et des arrestations, les clients – en grande majorité queer – ont riposté. Si les circonstances exactes du début de l’émeute restent floues, il est établi que Marsha P. Johnson et Sylvia Rivera étaient présentes. Elles deviendront par la suite des figures majeures du mouvement pour les droits des personnes LGBTQIA+ et de la résistance queer.
Leur mobilisation – tout comme un acte de rébellion antérieur peu connu – montre à quel point les femmes queer racisées ont été en première ligne de la lutte pour les droits LGBTQIA+ et néanmoins invisibilisées. Malgré certains progrès sociaux, les femmes trans racisées continuent d’en payer le prix, parfois de leur vie.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le récit des évènements de Stonewall a été largement connu du grand public avec la sortie du film Stonewall en 2015. Ce film a été vivement critiqué pour la façon dont il a blanchi l’histoire et effacé le rôle des personnes queer racisées dans celle-ci.
Dans cette fiction, c’est un homme blanc gay qui jette la première brique – une version démentie par presque tous les témoignages. Ce sont au contraire des personnes queer racisées, souvent non conformes au genre, qui ont mené la révolte. Et qui sont trop souvent effacées de la mémoire collective.
Stonewall n’a pas été pas le premier acte de résistance publique pour les droits LGBTQIA+. Le soulèvement de la cafétéria Compton a eu lieu trois ans plus tôt, à San Francisco, dans le quartier du Tenderloin.
Dans les années 1960, cette cafétéria était un lieu de rencontre nocturne populaire pour les personnes transgenres, en particulier les femmes trans. La direction du lieu et la police soumettaient ces communautés marginalisées à un harcèlement et à des mauvais traitements constants. Les femmes trans étaient souvent arrêtées en vertu de lois sur l’usurpation d’identité féminine et devaient faire face à des humiliations publiques et à des violences physiques récurrentes.
En août 1966, un incident survenu à la cafétéria de Compton a déclenché une vague de résistance. Le documentaire Screaming Queens montre les injustices subies par la communauté trans à l’époque, principalement des femmes trans racisées et travailleuses du sexe.
Après des années de mauvais traitements, un groupe de femmes trans, de drag queens et de personnes non conformes au genre ont décidé qu’ils et elles en avaient assez. Lorsqu’un policier a tenté d’arrêter une femme trans, elle lui a jeté sa tasse de café chaud au visage. Cet acte de résistance a déclenché un soulèvement spontané dans la cafétéria et dans les rues. Quelques instants plus tard, une voiture de police était renversée. À la fin de la manifestation, la police avait arrêté des dizaines de personnes et en avait battu beaucoup d’autres.
Malgré son importance historique, cette révolte à la cafétéria de Compton est restée dans l’ombre. Elle a pourtant semé les graines d’un mouvement plus large de résistance.
Malgré les avancées, les femmes trans racisées restent particulièrement vulnérables. Elles connaissent notamment des taux de chômage plus élevés, une stigmatisation médicale accrue, une confiance brisée avec les forces de l’ordre et un risque de VIH disproportionné.
En outre, les meurtres de personnes trans ont presque doublé entre 2017 (29 décès) et 2021 (56), selon l’association Everytown for Gun Safety. La Human Rights Commission montre que les femmes trans noires et latinas restent les plus exposées.
Certains agresseurs échappent encore à la prison en invoquant une « défense de panique » : ils imputent leur réaction violente à la peur suscitée par l’identité de genre ou l’orientation sexuelle de la victime.
Ces dernières années, les meurtres de plusieurs femmes trans noires, dont Cashay Henderson, ou KoKo Da Doll, protagoniste du documentaire primé Kokomo City), rappellent l’ampleur persistante des violences queerphobes.
Deion Scott Hawkins ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 17:10
Patrice Geoffron, Professeur d'Economie, Université Paris Dauphine – PSL
Du mouvement des gilets jaunes à la guerre en Ukraine, aux menaces sur le détroit d’Ormuz, les crises récentes ont révélé les vulnérabilités énergétiques de l’Union européenne. Dans un monde où la géopolitique domine à nouveau les marchés d’hydrocarbures, le Green Deal constitue tout autant une assurance collective pour les Européens, qu’un impératif climatique.
Les chocs pétroliers des années 1970 ont marqué profondément le paysage économique mondial. Les effets socio-économiques durables qui en ont découlé n’ont jamais été totalement effacés. La combinaison d’une inflation et d’un chômage élevés, conceptualisée sous le terme de « stagflation », ont notamment provoqué une fragilisation de l’industrie lourde européenne et une montée structurelle du chômage. À partir du milieu des années 1980, et pendant une quinzaine d’années s’est installé un « contre choc pétrolier », avec un reflux massif des prix jusqu’à 10 dollars en 1999, soit quatre fois moins qu’au moment des records atteints durant la décennie 1970.
Mais ce reflux n’aura été qu’une parenthèse car, depuis le début des années 2000, les marchés énergétiques se caractérisent par une volatilité extrême, illustrée par le caractère erratique du prix du pétrole qui a varié de 20 à 150 dollars le baril depuis le début de notre siècle. Cette instabilité reflète les soubresauts de la globalisation économique et débouche sur une incertitude permanente. Elle constitue un défi majeur pour les politiques énergétiques et économiques des États, rendant difficile la planification à long terme, en particulier pour l’UE qui est particulièrement dépendante en importation d’hydrocarbures. La France, qui importe 99 % de son pétrole et 96 % de son gaz, ne fait pas exception. Et, à l’évidence, l’affirmation d’une domination énergétique des États-Unis, sous Trump 2, renforce les menaces sur l’Europe.
Au-delà de l’instabilité des prix, de nouveaux risques énergétiques sont apparus ces dernières années. Les dérèglements climatiques affectent directement les infrastructures énergétiques, fragilisant les réseaux électriques face aux événements météorologiques extrêmes et perturbant le cycle de l’eau essentiel au fonctionnement de nombreuses installations. Parallèlement, la numérisation croissante des systèmes énergétiques expose à des menaces de cybersécurité. Ajoutée à cela, la transition énergétique est sous contrainte d’approvisionnement en minerais dits « critiques », du cuivre au lithium, essentiels au déploiement des technologies bas-carbone.
Dans ce contexte, la politique de décarbonation de l’UE, avec le Green Deal comme fer de lance, doit être considérée comme une assurance collective des Européens contre de nouveaux chocs. Pour le comprendre, il est important de revenir sur les chocs énergétiques récents, de la crise des gilets jaunes à la guerre en Ukraine, et sur la crise latente résultant de la géopolitique mondiale sous la nouvelle administration Trump.
À lire aussi : Trump 2.0 : l’occasion pour l’Europe de bâtir une vraie politique de sobriété ?
Le mouvement des gilets jaunes, qui a émergé en France en octobre 2018, offre un cas d’étude révélateur des mécanismes à l’œuvre dans les crises énergétiques contemporaines. Cette mobilisation sociale sans précédent a été déclenchée par une conjonction de facteurs énergétiques et fiscaux. Entre 2016 et 2018, le cours du baril de pétrole a pratiquement doublé sur les marchés internationaux, de 40 à 80 $. S’est exercée alors une forte pression à la hausse sur les prix à la pompe.
Simultanément, le gouvernement français poursuivait la montée en puissance de la taxe carbone, mise en place en 2014 sous le gouvernement Ayrault et inscrite dans la loi relative à la transition énergétique pour la croissance verte en 2015. Cette taxe, intégrée à la TICPE (Taxe Intérieure de Consommation sur les Produits Énergétiques) vise à faire payer les pollueurs, mais se répercute dans les faits jusqu’au consommateur final par une hausse des prix. Elle devait suivre une trajectoire d’augmentation programmée, passant de 7 € par tonne de CO2, lors de sa création, à 100 € par tonne en 2030.
L’erreur fondamentale commise par les autorités a été l’absence de prise en compte des effets redistributifs de cette politique fiscale. La hausse des prix des carburants, dans ce contexte de fort rebond du cours de l’or noir, a frappé particulièrement les ménages des zones périurbaines et rurales, fortement dépendants de l’automobile pour leurs déplacements quotidiens. Cette situation a mis en lumière le retard considérable dans la mise en œuvre des efforts de transition environnementale, notamment l’efficacité thermique des logements (en particulier pour les ménages chauffés au fioul) et la décarbonation des transports. Ces habitants, souvent modestes et contraints à l’usage d’un véhicule individuel, se sont retrouvés dans une situation de pression budgétaire accrue, voire de précarité énergétique, ce qui a alimenté un sentiment d’injustice sociale et d’iniquité territoriale. Face à l’ampleur de la contestation, le gouvernement a dû renoncer à la poursuite des augmentations prévues de la taxe carbone, qui est ainsi restée figée à 45 euros par tonne de CO2 depuis 2019.
La réponse politique joue un rôle crucial dans la transformation des chocs énergétiques en crise sociale et économique. Une taxation « élastique », fixée en fonction des prix des carburants, aurait amorti les effets des fluctuations du prix du baril au lieu d’en accentuer le mouvement comme c’est le cas actuellement. Un tel système aurait pu amoindrir cette crise. Il permettrait d’abaisser efficacement les pics de prix à la pompe et les menaces pour la stabilité sociale qui en découlent, tout en ayant un impact limité, voire positif, sur les finances publiques.
Trois ans après la crise des gilets jaunes, c’est un choc international qui a cette fois bouleversé le paysage énergétique européen. Le conflit en Ukraine, déclenché en février 2022, est non seulement une rupture pour le marché énergétique européen, mais, très au-delà, a débouché sur une restructuration mondiale des flux fossiles. L’Union européenne s’est rapidement engagée dans une prise de distance avec la Russie, avec des embargos sur le charbon, le pétrole et ses dérivés, et en réduisant massivement les importations de gaz. Cette reconfiguration brutale des flux d’approvisionnement a produit un choc économique d’une ampleur considérable : la facture des approvisionnements énergétiques a bondi à plus de 9 % du PIB de l’UE, contre 2 % en 2020, soit un niveau proche du second choc pétrolier de 1979-1980.
L’impact macroéconomique a nécessité des interventions massives des gouvernements européens sous forme de boucliers tarifaires et autres amortisseurs. Le coût total de ces mesures pour l’Union européenne (et le Royaume-Uni) en 2022 a été estimé à plus de 600 milliards d’euros, pesant sur des dettes publiques déjà fragilisées par la pandémie de Covid-19. Malgré ces efforts, l’inflation des prix énergétiques, combinée à celle des prix alimentaires, a conduit à une aggravation de la précarité dans de nombreux pays européens, tout particulièrement dans l’est de l’Union. Le ralentissement de la croissance s’est avéré particulièrement prononcé dans les pays proches de l’Ukraine, comme la Pologne et la Hongrie, qui ont également dû faire face à un afflux massif de personnes réfugiées. L’Italie et l’Allemagne, fortement dépendantes du pétrole et du gaz russes, ont également subi de plein fouet les conséquences de cette crise.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Au-delà de ces effets immédiats, cette crise a soulevé des inquiétudes concernant la compétitivité industrielle européenne, notamment face à la réaction américaine promouvant l’Inflation Reduction Act. Ce plan massif d’investissement dans les technologies vertes, lancé par l’administration Biden, a créé une asymétrie concurrentielle avec l’Europe, dont les industries étaient déjà fragilisées par les coûts énergétiques élevés. Cette situation a mis en lumière les risques de désindustrialisation du continent européen et catalysé les discussions sur la nécessité d’une politique industrielle plus affirmée, intégrant pleinement la dimension énergétique de la compétitivité. Le “détricotage” de cette politique par l’administration Trump 2 ne lève pas toutes les hypothèques qui pèsent sue l’industrie européenne dans cette bataille transatlantique.
La poursuite du conflit en Ukraine continue de redessiner le paysage énergétique mondial. La Russie a réalloué une partie significative de ses capacités d’exportation vers l’Asie, notamment la Chine et l’Inde, créant de nouveaux axes d’échanges énergétiques qui modifient les équilibres géopolitiques mondiaux. Cette reconfiguration s’inscrit dans ce que certains qualifient de « déglobalisation énergétique », où les échanges tendent à se régionaliser et à s’organiser entre pays partageant des affinités géopolitiques, créant ainsi des blocs énergétiques distincts.
Parallèlement, la persistance de l’instabilité au Moyen-Orient ravive un risque traditionnel de perturbation du commerce pétrolier et gazier. Les tensions dans cette région sont particulièrement élevées autour du détroit d’Ormuz, marquant l’entrée du Golfe Persique au large de l’Iran (au nord) et des Émirats arabes unis (au sud). Par ce détroit, transite une part considérable du commerce mondial de pétrole et, de façon accrue, de gaz liquéfié en provenance du Qatar. Les tensions actuelles constituent une menace lancinante pour la sécurité énergétique.
Ces foyers de tensions géopolitiques créent un environnement d’incertitude chronique qui complique la planification énergétique à long terme pour les pays importateurs, tels que ceux de l’Union européenne. Cette situation renforce la perception de l’énergie comme un enjeu de sécurité collective, au-delà de sa dimension purement économique ou environnementale.
Un autre facteur d’incertitude majeur réside dans l’orientation des politiques énergétiques des grandes puissances. En 2025, l’évolution de la politique américaine sous l’administration Trump 2 suscite des préoccupations, notamment concernant son impact sur les marchés mondiaux et sur la dynamique de la transition énergétique. La défiance américaine vis-à-vis du processus onusien de l’Accord de Paris reste un facteur déterminant pour l’avancement de la coopération internationale en matière de lutte contre le changement climatique. Toute fragilisation de ce processus affaiblit les efforts nécessaires à une transition énergétique mondiale coordonnée.
L’Europe présente une vulnérabilité énergétique structurelle qui la distingue des autres grandes puissances économiques. Composée des premiers pays ayant connu l’industrialisation au XIXe siècle (les premiers “émergents”), elle a largement épuisé ses ressources fossiles autochtones au cours de son développement. Cette réalité géologique place le continent dans une situation de dépendance chronique en matière d’importations énergétiques. Contrairement aux États-Unis, qui ont atteint une large autonomie grâce notamment à la révolution des gaz et pétroles de schiste, ou à la Chine, qui dispose encore d’importantes ressources charbonnières, l’Europe doit composer avec une dépendance structurelle aux fournisseurs extérieurs pour satisfaire ses besoins énergétiques fondamentaux.
Les importations massives de produits énergétiques fossiles pèsent lourdement sur la balance commerciale européenne et exposent les économies de l’Union aux fluctuations erratiques des prix sur les marchés mondiaux. Ces variations peuvent déclencher des chocs inflationnistes, comme l’a cruellement rappelé la crise consécutive à l’invasion de l’Ukraine. La dépendance énergétique devient ainsi un facteur de fragilité macroéconomique qui peut compromettre la stabilité socio-économique des pays européens. Les chocs de prix du pétrole et du gaz contribuent à miner les démocraties européennes, créant un terreau favorable à la montée des populismes qui exploitent le mécontentement social lié aux difficultés économiques résultantes.
Le Pacte vert pour l’Europe, ou Green Deal, lancé par la Commission européenne fin 2019, constitue la réponse stratégique à cette double contrainte environnementale et sécuritaire. Initialement conçu dans une perspective climatique, avec un objectif de réduction des émissions de gaz à effet de serre de 40 % à l’horizon de 2030 (par rapport à 1990), ce plan a vu ses ambitions rehaussées. L’acte II du Green Deal, baptisé « Fit for 55 »](https://www.consilium.europa.eu/fr/policies/fit-for-55/), adopté en juillet 2021, a relevé cet objectif à 55 %, marquant un accroissement significatif des efforts de décarbonation de l’économie européenne.
Le Green Deal représente bien plus qu’une simple politique environnementale en visant à réduire drastiquement la dépendance aux énergies fossiles importées, induisant des vulnérabilités stratégiques, tout en fixant une ambition dans les technologies vertes à forte valeur ajoutée.
La poursuite d’objectifs ambitieux à court terme, avec le Fit for 55, ne sera soutenable que si elle s’accompagne d’une attention particulière à la question de la précarité énergétique. Le risque est réel que l’accroissement des efforts de transition, notamment à travers l’extension du marché de permis d’émission aux logements et aux transports (dit « EU ETS 2 »), aggrave cette précarité en augmentant les coûts énergétiques pour les ménages les plus vulnérables. L’expérience de la crise des gilets jaunes a démontré qu’une transition, qui néglige les impacts redistributifs, produit des résistances sociales majeures capables de compromettre l’ensemble du processus. L’enjeu pour les décideurs européens est donc de concevoir des mécanismes permettant d’atténuer l’impact de la transition sur les populations vulnérables, tout en maintenant le cap sur les objectifs climatiques. Ce chemin étroit est pourtant le seul pour l’Europe.
Cet article (dans sa version intégrale) fait partie du dossier publié par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine (PSL).
Patrice Geoffron est membre fondateur de l'Alliance pour la Décarbonation de la Route.
25.06.2025 à 17:09
Sihem BenMahmoud-Jouini, Associate Professor, HEC Paris Business School
Romaric Servajean-Hilst, Professeur de stratégie et management des achats et de l'innovation collaborative Kedge Business School, Chercheur-associé au Centre de Recherche en Gestion i3 de l'Ecole polytechnique, Kedge Business School
L’innovation militaire nécessite un équilibre entre secret et collaboration. Une recherche analyse les stratégies mises en œuvre par un grand groupe de défense, renommé « Globaldef » pour des raisons de confidentialité – afin de concilier innovation ouverte et sécurité de l’information.
Face aux engagements incertains du président américain Donald Trump et aux ambitions du président russe Vladimir Poutine, les capitales européennes ne parlent plus que de réarmement.
Dans cette perspective, la Commission européenne a proposé un plan d’investissement de 800 milliards d’euros visant à « accroître rapidement et de manière significative les dépenses en capacité de défense », selon les mots de sa présidente Ursula von der Leyen.
Le financement n’est que le premier d’une série d’obstacles à surmonter pour innover dans le domaine militaire. Renforcer les capacités « rapidement et de manière significative » s’annonce complexe pour un secteur contraint de suivre le rythme soutenu des évolutions technologiques.
Bien sûr, les industriels de la défense ne sont pas seuls : ils peuvent s’appuyer sur un large éventail de partenaires potentiels, des PME aux start-ups. Mais ces collaborations pour innover supposent de la confiance et une disposition à partager des informations sensibles – des exigences qui semblent difficilement conciliables avec les impératifs de la confidentialité militaire.
C’est pourquoi le réarmement de l’Europe exige une nouvelle approche de la confidentialité.
Un article que j’ai coécrit avec Jonathan Langlois (HEC), sur la base de ses travaux de doctorat, et Romaric Servajean-Hilst (KEDGE Business School) analyse les stratégies mises en œuvre par un grand groupe de défense – que nous avons renommé « Globaldef » pour des raisons de confidentialité –, afin de concilier innovation ouverte et sécurité de l’information. Les 43 professionnels interrogés – responsables recherche et développement (R&D), dirigeants de start-up, responsables de l’innovation – ne suivent pas consciemment une méthode commune. Pourtant, leurs approches fines et évolutives peuvent servir de référence cohérente pour l’ensemble du secteur européen de la défense, confronté à l’urgence de s’adapter à un environnement en mutation.
Notre recherche, menée entre 2018 et 2020, s’inscrit dans un contexte où les industriels de la défense se tournent vers l’innovation ouverte pour compenser le désengagement de certains soutiens clés. S’observe alors une baisse marquée des dépenses publiques en R&D militaire dans les pays de l’Organisation de coopération et de développement économique (OCDE). Aujourd’hui, même si les financements repartent à la hausse, le recours à l’innovation externe reste essentiel pour accélérer l’accès aux connaissances.
Lorsqu’elles collaborent pour innover, les entreprises se heurtent à ce que les spécialistes de l’innovation ouverte appellent « le paradoxe de l’ouverture ». Il s’agit de trouver un équilibre entre les bénéfices attendus de la collaboration et les risques liés au partage d’informations. Dans le secteur de la défense – à la différence, par exemple, à celui des biens de consommation –, une trop grande ouverture ne menace pas seulement la compétitivité économique. Elle peut entraîner des risques majeurs pour la sécurité nationale… voire des poursuites pénales pour les dirigeants concernés.
Bien que la confidentialité soit une préoccupation constante, les responsables de Globaldef se retrouvent souvent dans ce que l’un de nos interlocuteurs a qualifié de « zone floue », où certaines informations peuvent être interprétées comme sensibles, sans pour autant être formellement classées secrètes. Dans ce type de situation, adopter la posture classique du secteur – privilégier la prudence et garder le silence – rend toute démarche d’innovation ouverte irréalisable.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’analyse de plus de 40 entretiens, complétée par un corpus riche de données complémentaires (e-mails, présentations PowerPoint, activités de crowdsourcing, etc.), nous a permis de constater que les équipes de Globaldef mettent en place des pratiques très précises pour gérer et ajuster le niveau de confidentialité dans leur gestion des collaborations avec des entreprises civiles.
Notre étude distingue deux types de pratiques : cognitives et relationnelles. Les pratiques cognitives jouent le rôle de filtres stratégiques, dissimulant les éléments les plus sensibles des connaissances de Globaldef, sans pour autant freiner les échanges au point de compromettre la collaboration.
Selon la nature du projet, les pratiques cognitives pouvaient inclure une ou plusieurs des approches suivantes :
cryptage : renommer certains éléments de connaissance afin d’en dissimuler la nature et la finalité ;
obfuscation : brouiller volontairement certains détails du projet afin de préserver la confidentialité tout en facilitant le recrutement de partenaires ;
simplification : présenter les paramètres du projet de manière volontairement floue pour évaluer la pertinence d’un partenaire, sans divulguer les contraintes réelles ;
transposition : reformuler un problème militaire en le replaçant dans un contexte civil.
Les pratiques relationnelles consistent, quant à elles, à redéfinir le cadre même du partenariat, en contrôlant de manière sélective le degré d’accès des parties externes aux objectifs et aux caractéristiques des projets de Globaldef. Cela peut passer, par exemple, par un centrage de la collaboration sur des aspects périphériques plutôt que sur les technologies cœur avec un périmètre large de partenaires, ou par la mise en place d’accords de confidentialité avec un nombre étroit de partenaires, permettant un partage de connaissances plus important.
En combinant pratiques cognitives et relationnelles, Globaldef parvient à contourner les écueils du paradoxe de l’ouverture. Lors des premières phases d’innovation ouverte – exploration et sélection de partenaires potentiels –, les responsables peuvent élargir le périmètre de collaboration (pratique relationnelle), tout en limitant rigoureusement la diffusion d’informations sensibles (pratique cognitive).
À lire aussi : Réarmement : l’indispensable coopétition entre petites, moyennes et grandes entreprises de la défense
Cela leur permet d’interagir librement avec des acteurs externes sans enfreindre les règles internes de confidentialité. À mesure que les partenariats mûrissent et que la confiance s’installe, Globaldef lève progressivement certaines protections cognitives, en ouvrant l’accès à des données plus précises et détaillées. Ce relâchement est généralement compensé par un renforcement des garde-fous relationnels, par exemple au moyen de procédures administratives et de protocoles destinés à prévenir tout risque de fuite.
En analysant en détail six partenariats d’innovation ouverte menés par l’entreprise, nous avons constaté que la clé de cette approche réside dans la capacité à savoir quand basculer d’un mode à l’autre. Chaque projet suivait son propre tempo.
Dans le cas d’un projet de crowdsourcing, la transition d’une faible à une forte profondeur cognitive et d’une large à une étroite ouverture relationnelle s’est opérée de façon brutale, dès la formalisation du partenariat. En effet, le partenaire de Globaldef a besoin d’informations précises et de paramètres techniques clairs pour résoudre le problème posé. Une transparence quasi totale, encadrée par une stricte confidentialité, doit donc être instaurée dès le départ.
Dans un autre cas, Globaldef maintient les filtres cognitifs pendant toute la phase initiale d’un partenariat avec une start-up. Pour évaluer les capacités technologiques de cette dernière, l’entreprise lui soumet un problème reformulé de manière à en masquer les enjeux réels. Ce n’est qu’après cette première épreuve réussie que la collaboration peut s’engager sur une base pleinement transparente, conditionnée par l’obtention, par la start-up, d’une autorisation d’accès à des informations de défense en vue d’un développement technologique conjoint.
Même si le contexte géopolitique a profondément évolué depuis notre étude, le paradoxe de l’ouverture reste un défi majeur pour les industriels européens de la défense. Les dirigeants doivent composer avec une tension persistante : d’un côté, la nécessité évidente de recourir à l’innovation ouverte, de l’autre, les impératifs de confidentialité propres à leur secteur.
Notre recherche montre que, à l’image de Globaldef, d’autres acteurs européens de la défense peuvent apprendre à gérer habilement ce paradoxe. Mais cela suppose d’adopter une définition plus fine, plus souple et plus évolutive de la confidentialité – à rebours de la vision rigide et absolue qui domine encore largement le secteur. Il est nécessaire de faire évoluer la conception de la confidentialité, en passant d’un cadre essentiellement juridique à une approche résolument stratégique.
Et cela s'applique plus largement à toute entreprise et institution soucieuse d'innover tout en conservant sa souveraineté.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
25.06.2025 à 17:07
Clément Therme, Chargé de cours, Sciences Po
Alors que Téhéran vient d’annoncer la fin de la « guerre des douze jours » qui l’a opposé à Israël et aux États-Unis, nous vous proposons un entretien avec le politologue Clément Therme, spécialiste de l’Iran et, notamment, de ses relations avec la Russie, afin de comprendre l’impact que la déflagration que vient de subir le Moyen-Orient a eu sur Moscou, allié « stratégique » de la République islamique.
Les attaques israéliennes puis états-uniennes contre l’Iran effectuées à partir du 13 juin dernier ont-elles suscité l’inquiétude à Moscou ?
Bien sûr, ne serait-ce que parce que tout cela se déroule à proximité de la Russie. Il y a 2000 kilomètres de frontières entre le territoire iranien et l’ancien espace soviétique. En outre, les deux pays partagent des frontières maritimes communes. À ce titre, la Russie est l’un des quinze voisins de l’Iran. La perspective d’une déstabilisation de l’Iran, avec lequel elle entretient des relations de bon voisinage et a même signé il y a quelques mois un partenariat stratégique, est effectivement perçue avec inquiétude au Kremlin.
Pour autant, on a conscience à Moscou que s’il y a un changement de régime à Téhéran dans les prochains mois ou les prochaines années, l’émergence d’un régime pro-américain ne signifirait pas automatiquement qu’il soit, en même temps, anti-russe. On se souvient que, en 1979, l’avènement de la République islamique, violemment hostile à Washington, ne s’est nullement accompagné d’une alliance entre Téhéran et l’URSS. Ce n’est pas parce qu’il y aurait un changement dans l’orientation globale de la politique étrangère du pouvoir iranien que la relation avec la Russie changerait automatiquement. Il n’empêche que Moscou a intérêt à ce qu’il n’y ait pas de déstabilisation majeure sur son flanc sud.
Quels sont les principaux aspects de la relation russo-iranienne ?
Elle se déploie dans de nombreux secteurs. Tout d’abord, n’oublions pas que ce sont deux grands producteurs d’hydrocarbures. Les premières réserves mondiales de gaz se trouvent en Russie, les deuxièmes en Iran. Ce sont aussi deux pays visés par les sanctions occidentales, ce qui complique leurs exportations de gaz et de pétrole. La Russie peut vendre un peu de gaz à l’Iran, car les gisements gaziers iraniens sont dans le sud du pays, et il est plus pertinent d’acheminer du gaz depuis la Russie jusqu’au nord de l’Iran que depuis le sud de l’Iran.
Par ailleurs, le territoire iranien est pour Moscou une importante zone de transit pour y construire les oléoducs qui lui permettront de vendre davantage de pétrole à l’Inde, dont la demande ne cesse de croître. La Russie n’ayant plus accès au marché gazier européen par gazoducs, elle se tourne résolument vers d’autres débouchés, à commencer par l’Inde, donc, mais aussi, entre autres, le Pakistan.
De plus, et même si la République islamique ne l’a jamais reconnu publiquement, l’Iran est un des seuls pays au monde à apporter un soutien militaire à la Russie dans son effort de guerre en Ukraine – et cela, alors que le partenariat de 20 ans signé en janvier dernier ne comportait pas de clause d’automaticité d’un soutien mutuel entre les deux pays en cas de guerre. Il n’y a pas de pacte de défense entre la Russie et l’Iran ; leur partenariat est qualifié de stratégique, mais ce n’est pas une alliance militaire.
En outre, n’oublions pas que cette relation est déséquilibrée. La Russie est une grande puissance internationale, un membre permanent du Conseil de sécurité. L’Iran, lui, est une puissance régionale. La Russie a, au Moyen-Orient comme ailleurs, une politique multidimensionnelle et, aujourd’hui, elle commerce plus avec l’Arabie saoudite, les Émirats arabes unis et le Qatar qu’avec l’Iran, même si les échanges bilatéraux sont en augmentation du fait de l’intensification constante des sanctions occidentales contre les deux pays, qui suscite chez eux une sorte de solidarité entre sanctionnés. Mais il existe aussi des limites au potentiel économique des coopérations entre deux pays producteurs d’énergie, et donc potentiellement concurrents.
Sur quoi le traité de partenariat stratégique porte-t-il précisément ?
En réalité, ce partenariat établit avant tout un état des lieux des coopérations existantes. Il ne traduit pas forcément une avancée vers la construction d’une alliance.
La question sécuritaire est très importante. Il y a des coopérations entre les polices russe et iranienne. La Russie peut notamment livrer du matériel anti-émeute à la police iranienne. La coopération s’exprime également dans le domaine spatial et, très important, dans celui du cyberespace.
L’Iran dispose dans ce domaine de capacités défensives déficientes, on l’a vu dernièrement lors de la confrontation avec Israël, quand Tel Aviv a notamment réussi à perturber le fonctionnement des réseaux bancaires iraniens, mais aussi des pompes à essence et même de la télévision.
La Russie est très forte dans les deux capacités cyber, offensives et défensives, et elle peut aussi aider l’Iran à améliorer ses défenses contre les cyberattaques dont il fait l’objet.
Les événements survenus depuis le 13 juin ont-ils encore renforcé la proximité Moscou-Téhéran ?
La Russie a évidemment apporté un soutien politique à l’Iran, parce que la situation alimente son récit anti-américain. Le fait qu’il y ait des opérations militaires illégales conduites par les États-Unis et Israël, sans que la communauté internationale ne condamne ces deux pays, permet à la Russie de souligner les doubles standards dont elle estime être la victime, puisqu’elle est, elle, durement sanctionnée pour sa guerre en Ukraine.
De plus, Kiev a apporté son soutien aux frappes menées par les États-Unis. Quand la Russie s’adresse aujourd’hui aux pays dits du Sud, elle a beau jeu de se positionner comme leur alliée face à des Occidentaux qui, dans l’affaire iranienne, font peu de cas de ce droit international qu’ils invoquent volontiers dans l’affaire ukrainienne.
Trump semble invoquer la loi du plus fort plus que le droit international…
Effectivement. Il a dit à un moment donné, à propos des attaques israéliennes contre l’Iran, qu’il est très difficile d’arrêter une opération militaire quand une puissance est en train de gagner. Dans son esprit, cela vaut pour Israël en Iran, mais aussi pour la Russie en Ukraine. Trump est un pragmatique, pas un dirigeant qui s’inspire du courant néo-conservateur comme George W. Bush en son temps.
Y a-t-il eu des discussions entre, d’un côté, les Russes et, de l’autre, les Américains et les Israéliens, sur l’ampleur des frappes israéliennes et américaines en Iran ?
Il semble que oui, car les Russes ont obtenu que la centrale de Bouchehr, qu’ils ont aidé les Iraniens à construire et qui est la seule centrale nucléaire d’Iran en activité soit épargnée par les frappes et que les centaines de travailleurs russes qui sont présents sur les réacteurs deux et trois, en construction, de cette centrale ne soient pas pris pour cible.
Justement, quelle est l’implication de la Russie dans le programme nucléaire civil de l’Iran ?
Elle a remplacé les Européens qui ont contribué au programme nucléaire civil iranien dans les années 1970. À partir des années 1990, elle a remplacé la France et l’Allemagne, qui étaient vraiment les fers de lance du programme nucléaire civil iranien des années 1970. La rupture révolutionnaire s’est traduite pour Paris et Berlin, par la perte du marché du nucléaire civil iranien, qui était notamment important pour Framatome à l’époque. Quand la France et l’Allemagne critiquent le programme nucléaire iranien depuis les années 2000, c’est donc plus pour des raisons géopolitiques que des considérations techniques. Le programme nucléaire civil aujourd’hui progresse avec l’aide de la Russie.
Et pour ce qui est du nucléaire militaire iranien ?
Aujourd’hui, il n’y a pas de preuve de l’acquisition par l’Iran de systèmes d’armes nucléaires. Et les Russes ont toujours été assez constructifs sur cette question. En 2005, ils avaient proposé de prendre l’uranium enrichi iranien et de l’amener sur le territoire russe, tout en aidant l’Iran à développer son programme nucléaire civil. Téhéran avait refusé cette solution en insistant sur la nécessité d’enrichir l’uranium sur le territoire iranien. Aujourd’hui encore, ils ont proposé de récupérer chez eux les 400 kilos d’uranium iranien enrichi à 60 %…
Du point de vue de l’Iran, pourquoi enrichir l’uranium à 60 %, au lieu de se contenter de l’enrichir à peine quelques pourcents, ce qui est suffisant pour fabriquer de l’électricité ? En l’enrichissant à un niveau si élevé, proche du seuil nécessaire pour le militariser, ne donne-t-on pas un argument massue à Israël et aux États-Unis pour intervenir ?
Il s’agit d’une stratégie réfléchie. En 2018, Donald Trump a retiré les États-Unis de l’accord de Vienne et a rétabli les sanctions économiques contre l’Iran. Dans ces conditions, les Iraniens ont opté pour ce qu’on appelle la stratégie du bord du gouffre, autrement dit la stratégie du chantage nucléaire. L’Iran a donc progressivement augmenté son taux d’enrichissement d’uranium. Parce que pour l’Occident, le programme nucléaire iranien, c’est un peu comme le drapeau rouge du toréador. Quand la République islamique exhibe le chiffon rouge du 60 %, les Occidentaux se focalisent sur la question nucléaire et non sur la politique régionale ou la question des droits humains. Cette obsession occidentale de la possible militarisation du nucléaire iranien permettait dans la stratégie de négociation iranienne d’augmenter sa marge de manœuvre tout en évitant de parler des autres dossiers. L’objectif était alors de négocier en position de force pour obtenir la levée ou la suspension des sanctions en contrepartie d’un abandon de cet enrichissement élevé.
À lire aussi : Qu’est-ce que l’enrichissement de l’uranium et comment sert-il à fabriquer des bombes nucléaires ?
Mais cette stratégie du bord du gouffre nucléaire s’est retournée contre ses instigateurs…
Oui. Les Iraniens ne s’attendaient pas à ce qu’Israël se mette à bombarder leurs installations nucléaires. Ils pensaient que Trump s’opposerait à cette perspective, comme George W. Bush l’avait fait en 2008, quand Israël avait déjà sérieusement envisagé cette option. Force est de constater que leurs calculs se sont révélés erronés.
Pour autant, leur capacité à se doter de l’arme nucléaire n’a pas été annihilée, et à l’avenir, si la République islamique le souhaite, elle pourra, sur le plan technique, fabriquer des systèmes d’armes nucléaires. Mais vu le niveau d’infiltration de son appareil de sécurité et de sa structure de pouvoir, il n’est pas sûr que cette décision politique puisse être prise sans qu’Israël en ait connaissance.
En ce cas, que pourrait faire Israël de plus ? Il n’a ni les moyens, ni sans doute l’envie d’envahir l’Iran en envoyant des centaines de milliers d’hommes au sol…
C’est vrai, il n’y a pas de solution militaire. Les frappes, en détériorant des infrastructures nucléaires et en tuant des scientifiques, peuvent retarder la possibilité de voir la fabrication de systèmes d’armes nucléaires en Iran si une telle décision était prise à Téhéran. Cependant, elles ne peuvent pas détruire tous les équipements de l’Iran ni toutes les connaissances que les Iraniens ont accumulées pendant des décennies.
Ce fameux chiffon rouge qui fait bondir le torero occidental semble ne pas beaucoup faire réagir les Russes… On imagine pourtant qu’eux non plus ne souhaitent pas voir l’Iran se doter de l’arme nucléaire. Ils sont notamment opposés à ce que l’Iran sorte du Traité de non-prolifération (TNP)…
Certes, mais il faut rappeler ce que dit le TNP, c’est-à-dire le droit international. Il y a trois parties dans le TNP : droit au nucléaire civil ; non-prolifération ; et l’objectif du désarmement des puissances dotées.
Cela étant posé, oui, la Russie ne souhaite pas que l’Iran sorte du TNP, elle ne veut pas d’une prolifération nucléaire sur son flanc sud. La Russie partage l’objectif américain en ce qui concerne la possible militarisation du nucléaire iranien, mais elle ne partage pas la méthode américaine.
Comment qualifieriez-vous la relation entre la Russie et Israël ? Est-ce qu’Israël considère la Russie comme un ennemi, du fait de son partenariat stratégique avec l’Iran, selon le principe qui veut que l’ami de mon ennemi soit mon ennemi ?
Non. La Russie a une relation fonctionnelle avec Israël – et d’ailleurs, c’est pour ça que la Russie a pu négocier avec Israël et faire en sorte que celui-ci ne cible pas la centrale de Bouchehr. Et la Russie n’a pas apporté de soutien militaire à l’Iran. Le vrai problème, pour Israël, c’est que la Russie utilise pleinement la question palestinienne dans sa guerre informationnelle : de même qu’elle va dénoncer l’opération militaire illégale américaine contre l’Iran, elle dénonce depuis plus d’un an et demi la guerre que mène Israël à Gaza. Les Russes jouent ces cartes, je l’ai dit, pour développer leur relation avec les Suds ; en revanche, Israël va, en réponse, développer ses relations avec l’Ukraine.
Traditionnellement, dans l’affaire russo-ukrainienne, la majorité de l’opinion publique iranienne soutient l’Ukraine. La proximité avec Moscou, c’est vraiment un projet des élites de la République islamique et du Guide suprême en particulier. L’absence de soutien militaire russe lors de la « guerre de douze jours » ne changera pas ce calcul, faute d’option alternative. Quand vous avez une idéologie anti-américaine aussi forte que celle de la République islamique, votre flexibilité en termes de politique étrangère est faible. C’est d’ailleurs l’une des principales raisons pour lesquelles la Russie occupe une position dominante dans le partenariat russo-iranien : elle dispose d’une plus grande marge de manœuvre dans ses relations avec les États-Unis. L’Iran, lui, est bien plus dépendant de la Russie que l’inverse…
Propos recueillis par Grégory Rayko
Clément Therme ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 17:06
Florian Vidal, Associate Fellow, Université Paris Cité
Les sanctions promulguées à l’égard de la Russie du fait de la guerre en Ukraine ont des conséquences significatives en ce qui concerne la recherche en Arctique, où jusqu’en 2022 scientifiques occidentaux et russes parvenaient à collaborer en bonne intelligence. La nouvelle donne géopolitique nuit à la collecte de données indispensables pour comprendre l’ampleur du changement climatique.
Élément consensuel de la gouvernance régionale de l’après-guerre froide, la recherche scientifique en Arctique a longtemps constitué un modèle de coopération et dans cet espace particulièrement exposé aux effets rapides du changement climatique. Mais depuis l’invasion à grande échelle de l’Ukraine par la Russie en février 2022, les sciences polaires dans la région arctique voient leur fonctionnement perturbé par la rupture des coopérations avec les chercheurs russes.
Vulnérable aux tensions diplomatiques et géopolitiques, la communauté scientifique a mis en garde contre les risques d’une paralysie prolongée des coopérations. Durablement fragilisés, les mécanismes institutionnels dans la région polaire peinent à rétablir un dialogue solide alors que l’architecture de gouvernance qui encadre les activités scientifiques sombre progressivement dans une forme de zombification.
Le Conseil de l’Arctique, qui joue un rôle prépondérant dans la coordination de la recherche scientifique, notamment dans les sciences du climat, a suspendu ses activités en mars 2022 avant de les reprendre prudemment, sans la Russie.
En février 2024, l’organisation régionale annonce sa volonté de relancer progressivement les groupes de travail avec la Russie via des formats virtuels. Toutefois, les divergences désormais structurelles dans les domaines politique, économique et militaire rendent un retour à la situation d’avant-guerre peu probable. Le récent retrait de la Russie du programme multilatéral sur la sécurité nucléaire, notamment en Arctique, illustre son désengagement croissant vis-à-vis de ses partenaires occidentaux.
Alors que la Norvège vient de transmettre la présidence du Conseil au Danemark, l’avenir de l’institution est obscurci. Pour tenter de relancer cette plate-forme intergouvernementale, la présidence danoise (2025-2027) fait des enjeux environnementaux une priorité afin de préserver une instance régionale essentielle. Mais les défis liés à l’organisation interne du royaume – composé de trois entités distinctes (Danemark, îles Féroé et Groenland) –, ainsi que les tensions entre Washington et Copenhague concernant l’avenir du Groenland, n’inspirent guère d’optimisme.
Le retour de Donald Trump à la Maison Blanche en janvier 2025, marqué par un durcissement diplomatique, ajoute à l’incertitude. Outre les coupes budgétaires dans les programmes de recherche scientifiques, qui affectent la surveillance climatique en Arctique, son aversion pour les structures multilatérales pourrait fragiliser davantage l’organisation.
Au-delà du Conseil de l’Arctique, c’est l’ensemble des réseaux et structures de coopération scientifique qui pâtissent de la configuration géopolitique de ces trois dernières années. Les sanctions occidentales ont en effet profondément perturbé le financement, les échanges académiques, les déplacements et même les publications des chercheurs russes.
Face à cet isolement, la Russie s’est tournée vers les pays des BRICS pour développer de nouvelles collaborations dans les sciences polaires. Cette fragmentation des relations diplomatiques met dangereusement en péril la recherche en Arctique. Depuis, des voix se sont élevées pour réintégrer les chercheurs russes, soulignant l’impérieuse nécessité de maintenir les échanges scientifiques dans un contexte d’urgence climatique.
La fragmentation de l’espace polaire fait peser de graves menaces sur la recherche sur le pergélisol, ce sol perpétuellement gelé, parfois depuis des millions d’années, qui recouvre environ 15 % des terres émergées de l’hémisphère nord. Dans le contexte des changements climatiques globaux, l’étude de ces sols est fondamentale pour anticiper leur dégradation.
En effet, ils contiennent d’importantes quantités de matière organique et de méthane – un puissant gaz à effet de serre – qui pourraient significativement contribuer à l’augmentation de la concentration de carbone dans l’atmosphère, amplifiant ainsi le réchauffement actuel. À l’origine, la coopération scientifique internationale autour du pergélisol terrestre s’est structurée en pleine guerre froide. À l’instar de l’astrophysique ou la médecine, les sciences polaires y ont acquis une dimension géopolitique, servant d’interface entre les États-Unis et l’Union soviétique malgré leurs rivalités.
Avant le conflit ukrainien, la communauté alertait déjà sur les lacunes des systèmes de surveillance et de gestion des infrastructures arctiques, tout en pointant l’absence d’harmonisation des données. Le dégel du pergélisol, amplificateur critique du réchauffement climatique, représente pourtant une menace à long terme pour la sécurité internationale. Or, sans standards communs, l’évaluation globale de ses effets reste partielle.
La guerre a brutalement révélé ces fragilités. Cette rupture reconfigure la circulation des données sur le pergélisol autour de trois dynamiques : 1) la création d’un angle mort occidental ; 2) l’isolement structurel russe ; et 3) l’émergence des puissances asiatiques dans ce champ de recherche.
1) La fin des missions scientifiques occidentales en Russie prive les chercheurs de données cruciales pour modéliser l’évolution du pergélisol. Les alternatives comme la télédétection ou l’IA ne compensent pas totalement cette perte, créant un biais dans la fiabilité des études.
2) Malgré la rupture avec l’Occident, la Russie renforce ses capacités de surveillance via des projets nationaux, comme ses 140 stations de mesure des émissions de gaz à effet de serre. Toutefois, ces données, difficilement accessibles pour les Occidentaux désormais, peinent à influencer les politiques publiques russes, ce qui complique la coordination internationale.
3) La Chine et l’Inde, motivées par leurs propres zones de pergélisol (comme le plateau tibétain), investissent massivement dans la recherche polaire et collaborent avec la Russie. La Chine, notamment, étudie les liens entre les virus arctiques et tibétains, ce qui justifie son engagement accru en Arctique.
Ce bouleversement géopolitique a non seulement suspendu des projets de recherche, mais aussi rendu obsolète le modèle de coopération post-guerre froide. Désormais, la circulation des connaissances épouse les fractures géopolitiques, compromettant une réponse collective internationale à la crise planétaire.
Ces dynamiques esquissent une reconfiguration majeure de la recherche en Arctique : là où l’Occident et la Russie se distancient, les coopérations sino-russe et indo-russe se consolident, intégrant désormais des enjeux économiques stratégiques – notamment le déploiement d’infrastructures énergétiques (gazoducs et oléoducs) traversant des zones de pergélisol. Cette fragmentation des données, aggravée par l’absence de standardisation, accélère le découplage scientifique.
Cette évolution est susceptible de redéfinir fondamentalement les priorités de recherche sur le pergélisol. Les pays asiatiques, en particulier la Chine et l’Inde, dotées de politiques intégrées sur la cryosphère, pourraient tirer parti de leur accès privilégié aux données russo-occidentales en maintenant des collaborations étroites avec l’ensemble des pays arctiques pour établir leur prééminence scientifique, transformant ainsi les dynamiques de la diplomatie arctique. À plus grande échelle, ces acteurs pourraient restructurer le paysage de la recherche polaire en créant des synergies entre les différentes zones cryosphériques, comprenant les régions polaires et les glaciers, et en intégrant les impératifs climatiques à leurs calculs géostratégiques.
Le changement climatique étant désormais reconnu comme un enjeu de sécurité internationale, la surveillance du pergélisol se situe à l’intersection des sciences du climat et des considérations stratégiques. Cette convergence pourrait, à long terme, conférer à la Chine et à l’Inde une légitimité accrue pour repenser les cadres de la sécurité globale dans un contexte de transformations planétaires.
L’exemple du pergélisol montre la façon dont les tensions géopolitiques consécutives à l’invasion russe de l’Ukraine compromettent la coopération scientifique internationale. La surveillance et la collecte de données sur la progression du dégel du pergélisol sont centrales pour anticiper l’évolution climatique mondiale. Loin des considérations court-termistes fondées sur les rivalités politiques et stratégiques, le travail des acteurs scientifiques privilégie le temps long du climat. Cette réalité impose aujourd’hui un changement de paradigme politique et institutionnel – ce que le géographe Klaus Dodds conceptualise comme l’avènement d’un monde « solide-liquide », dont le dégel accéléré du pergélisol constitue l’expression la plus tangible. Face au danger d’une opacité croissante entourant les projections climatiques, il est urgent de mettre en œuvre de nouveaux mécanismes de coopération, en repensant un cadre institutionnel à présent inadapté.
Cette réforme, qui s’impose, doit s’appuyer sur la création de nouvelles plates-formes collaboratives visant à restaurer la confiance et à adopter une approche intégrée de la cryosphère. Une coopération climatique entre les grandes puissances pourrait ainsi servir de pierre angulaire à un cadre institutionnel durable, essentiel pour concilier sécurité internationale et stabilité climatique tout au long du XXIe siècle. Dans un contexte marqué par la fragmentation structurelle du système international, la coopération scientifique dans le domaine environnemental devrait, in fine, permettre de dépasser les rivalités géostratégiques en Arctique.
Florian Vidal est chercheur à l'UiT The Arctic University of Norway.
25.06.2025 à 17:04
Mônica Macedo-Rouet, Professeure des universités en psychologie de l'éducation, CY Cergy Paris Université
La fin de l’année universitaire est un moment propice à la réflexion sur les usages de l’intelligence artificielle (IA) dans les travaux académiques. C’est le moment où les enseignants-chercheurs évaluent les écrits des étudiants. Les réclamations qui s’ensuivent nous donnent l’occasion de discuter avec eux de leur rapport à la lecture, aux sources d’information et à la connaissance.
Si peu d’étudiants savent que ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour leur scolarité, il convient de décider comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants.
Je lis les écrits d’étudiants en Master depuis plus de vingt ans. Cette année, j’ai constaté une augmentation massive du nombre de travaux qui comportaient des passages entiers stylistiquement proches des textes produits par l’IA générative. J’ai passé de nombreuses heures à scruter les rapports du logiciel Compilatio (un outil conçu au départ pour lutter contre le plagiat, progressivement adapté à l’IA), à vérifier l’authenticité des références bibliographiques, à faire des recherches en ligne et parfois même dans des ouvrages imprimés, afin de savoir si mes étudiants avaient rédigé eux-mêmes leurs textes.
En effet, à l’heure actuelle, aucun outil ne permet de déterminer avec certitude si un texte a été produit par l’IA générative. Parmi les cas suspects, j’ai décelé des citations à des auteurs et des références bibliographiques introuvables sur le Net ou à la bibliothèque universitaire. Ces occurrences connues sous le nom d’« hallucinations » justifiaient pleinement une demande d’explications à mes étudiants. Leurs réponses m’ont laissée perplexe.
Si les étudiants ont majoritairement reconnu avoir utilisé l’IA, ils ne voyaient pas où était le problème. Tous m’ont envoyé les articles qu’ils avaient « lu » et « traité » dans le cadre de leur travail. Ils ont justifié l’utilisation de l’IA générative comme un moyen de « reformuler [leurs] propos », « structurer [leurs] idées », « améliorer la syntaxe », « illustrer les idées de chaque auteur », « gagner du temps plutôt que de retourner dans chaque article », ou encore « faire la bibliographie à [leur] place ». Tout cela leur paraissait tout à fait normal et acceptable.
Plus grave pour moi, dont le métier est d’éduquer à l’évaluation de l’information, quand je leur ai demandé pourquoi le nom d’un auteur ou le titre d’une revue cité dans leur texte étaient différents de ceux qui figuraient dans la première page de l’article qu’ils m’avaient transmis, il y a eu un haussement d’épaules.
D’où venait leur perception que la citation des sources était un détail dans la rédaction d’un écrit sur un sujet de recherche ?
L’attitude des étudiants, faite d’un mélange de surprise (certes possiblement feinte) et de frustration vient, à mon avis, du bouleversement apporté par l’IA générative au statut des sources d’information dans les textes.
Dans un texte scientifique, le rôle des sources d’information est fondamental. La source correspond à l’ensemble des paramètres qui renseignent le lecteur sur l’origine de l’information, tels que l’auteur, la date de publication, ou le média. Elle donne des indications sur l’affiliation institutionnelle et disciplinaire d’un auteur, le processus éditorial préalable à la publication d’une information, et d’autres indices qui permettent d’interpréter les propos et d’en juger la fiabilité.
Or, si les chercheurs s’appuient constamment sur ces critères pour évaluer la crédibilité d’un texte, c’est l’objet d’un processus d’apprentissage pour les étudiants. Dans un article précurseur sur le sujet, Wineburg a comparé le raisonnement d’historiens et d’élèves de terminale sur un ensemble de documents à propos d’un évènement historique controversé. La source était le premier critère utilisé par les historiens pour évaluer la pertinence et la fiabilité d’un document, alors qu’il n’apparaissait qu’en troisième position pour les lycéens, qui se focalisaient davantage sur le contenu et la lisibilité des textes. Ces résultats ont été répliqués dans de nombreuses études.
Récemment, tout un chacun a pu mesurer leur importance dans le contexte de la diffusion des fausses informations sur la Covid-19. Sans la source, la crédibilité d’une information scientifique peut difficilement être évaluée.
Dans les textes générés par l’IA, le rôle des sources est sensiblement différent.
À la base de cette technologie, il y a bien un corpus de sources gigantesque qui permet à des modèles statistiques du langage d’apprendre et de générer des textes cohérents et vraisemblablement similaires aux textes produits par les humains.
Mais les sources ne servent que d’input durant l’entraînement et ne sont pas utilisées comme critère explicite de fiabilité lors de la génération d’une réponse. Le modèle prédit la suite la plus probable d’un texte, mot à mot, selon les régularités apprises, sans évaluer la véracité de l’information par rapport à des documents authentifiés.
À lire aussi : Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage
Ainsi, l’on peut se retrouver avec un texte généré par l’IA parfaitement cohérent et néanmoins erroné. Même lorsque l’on demande à ChatGPT de résumer un article scientifique, il est nécessaire de vérifier que les informations correspondent à celles de l’article original. Sans une vérification scrupuleuse des textes produits par l’IA, il y a un risque de reproduction d’informations imprécises ou incorrectes, et d’attribution de certaines idées à de faux auteurs, ce qui constitue une fraude passible de sanctions.
Les étudiants n’ont pas forcément l’impression de tricher lorsqu’ils utilisent l’IA comme une aide à la rédaction, car les textes générés par l’IA ne constituent pas un plagiat au sens propre. En France, le ministère de l’Enseignement supérieur et de la Recherche s’est prononcé sur ce sujet dans une réponse à la question d’un sénateur en 2023 (page 5289) :
« Les œuvres créées par des IA ne sont pas protégées en elles-mêmes sauf si elles reproduisent des œuvres de l’esprit au sens du code de la propriété intellectuelle[…][donc] recopier un texte produit par ChatGPT ne peut être sanctionné au regard des dispositions des articles L. 122-4 et L. 335-2 du code de la propriété intellectuelle. »
Cependant, la même réponse précise que :
« L’indication des sources est une obligation juridique, académique et éthique. D’un point de vue académique, notamment, elle doit permettre d’apprécier la valeur pédagogique du travail original réalisé par son auteur. Ne pas mentionner les sources pour faire sien un travail réalisé par autrui ou par une IA est, en conséquence, constitutif d’une fraude susceptible d’être poursuivie et sanctionnée, pour les usagers de l’enseignement supérieur, en application des dispositions des articles R. 811-1 et suivants du code de l’éducation. »
Autrement dit, le fait d’utiliser un texte généré par l’IA ne dispense pas l’étudiant de citer correctement ses sources. Les sanctions peuvent aller jusqu’à l’exclusion de l’université et le retrait du diplôme, et ce sans délai de prescription.
En somme, ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour la scolarité d’un étudiant, sans parler du fait que la simple copie d’un texte produit par l’IA ne garantit pas l’apprentissage. Car celui-ci requiert un traitement actif de l’information de la part de l’apprenant.
Chacun doit donc s’assurer que les sources utilisées dans son travail sont correctement citées, selon les normes bibliographiques et scientifiques en vigueur. Hélas, ces normes sont enseignées parfois trop brièvement ou superficiellement – quand elles le sont – dans les cours de méthodologie de la recherche à l’université.
Une première piste serait d’améliorer la détection des textes produits par l’IA.
Les logiciels de détection automatique deviennent de plus en plus performants dans cette tâche, mais les modèles d’IA générative s’améliorent également dans l’application de stratégies de paraphrase et « d’humanisation » des textes, qui rendent plus difficile la détection automatique. Par ailleurs, certains chercheurs s’évertuent à construire des modèles visant à empêcher directement la détection automatique des textes générés par l’IA.
À lire aussi : Peut-on détecter automatiquement les deepfakes ?
C’est donc un rapport de forces extrême et inégal qui est en train de se jouer et risque de se reproduire en permanence, rendant difficile la mise à disposition des enseignants d’outils performants de détection automatique.
Pour améliorer la détection des textes générés par l’IA, une étude non encore publiée, déposée dans la plateforme ArXiv, propose de faire appel à des experts de l’usage de l’IA. Les chercheurs ont en effet observé que ces experts sont capables d’utiliser plusieurs critères d’évaluation de manière flexible : « vocabulaire de l’IA », présence de structures syntaxiques et documentaires stéréotypées, absence de fautes orthographiques et grammaticales, entre autres. Ces résultats nécessitent évidemment d’être confirmés par une publication et répliqués, mais ils suggèrent qu’il peut être utile de former les enseignants à l’application de ces critères.
Au-delà de l’aspect purement « détectionnel » des textes, ce sont des connaissances sur la structure et la rhétorique des textes générés par l’IA qu’il convient d’expliciter dans le but de les intégrer dans la pédagogie universitaire.
L’IA peut aider les enseignants et les étudiants dans de nombreuses tâches, mais elle ne peut pas se substituer complètement au jugement humain. L’usage éthique de l’IA ne se résume pas à interdire certains procédés ni à promouvoir les compétences techniques des étudiants et des enseignants (par exemple, « Comment faire un bon prompt ? »). Elle va au-delà des aspects normatifs et techniques, et inclut les questions d’épistémologie, de connaissances documentaires, et de métacognition indispensables à toute démarche maîtrisée de recherche d’informations.
Je suis sûre que l’on gagnerait à avoir des discussions plus ouvertes avec les étudiants au sujet des usages de l’IA dans les travaux universitaires, ce que cela signifie pour eux et pour nous, enseignants et chercheurs, et comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants. Ce serait un débat au nom du savoir, de l’apprentissage et de la vérité, un débat dont notre université et notre démocratie ont tant besoin.
Mônica Macedo-Rouet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 13:58
Apostolos Voulgarakis, AXA Chair in Wildfires and Climate Director, Laboratory of Atmospheric Environment & Climate Change, Technical University of Crete
Dimitra Tarasi, PhD student, Atmospheric Environment & Climate Change Lab, Technical University of Crete
Understanding how wildfires influence our planet’s climate is a daunting challenge. Although fire occurs nearly everywhere on Earth and has always been present, it is still one of the least understood components of the Earth system. Recently, unprecedented fire activity has been observed in boreal (northern) and Arctic regions, which has drawn the scientific community’s attention to areas whose role in the future of our planet remains a mystery. Climate change likely has a major role in this alarming trend. However, high-latitude wildfires are not just a symptom of climate change; they are an accelerating force that could shape the future of our climate in ways that we are currently incapable of predicting.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
As global temperatures rise, wildfires are advancing further north and reaching into the Arctic. Canada, Alaska, Siberia, Scandinavia and even Greenland, all in northern high-latitude regions, have recently experienced some of the most intense and prolonged wildfire seasons on record. With climate change occurring more rapidly in these areas, the future of northern fires appears even grimmer.
Apart from typical forest fires that consume surface vegetation, many high-latitude fires burn through peat, the dense, carbon-rich layers of partially decayed organic material. Despite covering only 3% of the terrestrial surface, peatlands are one of the world’s most important carbon storage environments, containing around 25% of the carbon existing in the Earth’s soils.
Climate warming, which is even faster at high northern latitudes due to polar amplification – the phenomenon of greater climate change near the poles compared to the rest of the hemisphere or globe – is increasing the vulnerability of these ecosystems to fire, with potentially severe implications for the global climate. When peatlands ignite, they release massive amounts of “fossil carbon” that have been locked away for centuries or even millennia. The largest and most persistent fires on Earth, peat fires can smoulder for extended periods, are difficult to extinguish and can continue burning underground throughout the winter, only to reignite on the surface in spring. They have recently been described as “zombie” fires.
Warmer and drier conditions driven by climate change, apart from making boreal forests more flammable, are expected to intensify and increase the frequency of peat fires, potentially transforming peatlands from carbon sinks into net sources of greenhouse gas emissions. Such a shift could trigger a feedback loop, meaning that a warming climate will cause more carbon emissions, which in turn will accelerate climate change.
Wildfires release large quantities of smoke particles (aerosols) into the atmosphere, contributing significantly to both local and widespread air quality degradation. These particles are harmful to human health and can cause serious respiratory and cardiovascular problems, while prolonged exposure may lead to smoke-induced stress, hospitalizations and increased mortality. Wildfires can also cause mental health strains associated with evacuations, loss of homes, livelihoods and lives.
À lire aussi : Wildfire smoke can harm your brain, not just your lungs
Beyond their long-term effects on climate, wildfire emissions can also influence weather patterns in more short-term ways via their impacts on atmospheric pollution levels. Smoke particles interact with sunlight and cloud formation processes, subsequently affecting temperatures, wind patterns and rainfall.
For example, our recent study on the large-scale atmospheric impacts of the 2023 Canadian wildfires, which we presented at the European Geosciences Union general assembly this spring, demonstrated that wildfire aerosols led to a surface air temperature decrease that expanded to the entire northern hemisphere. The cooling was particularly pronounced over Canada (up to -5.5°C in August), where the emissions were located, but was also significant over remote areas such as Eastern Europe and even Siberia (up to around -2.5°C in July). The average hemispheric temperature anomaly we calculated (close to -1°C) highlights the potential for large regional emissions from wildfires to perturb weather conditions for weeks across a whole hemisphere, with profound implications for forecasting. Unreliable weather forecasts can disrupt daily activities and pose risks to public safety, especially during extreme events such as heatwaves or storms. They also have serious consequences for industries such as farming, fishing and transport, where planning depends heavily on accurate, timely predictions.
While incorporating peatland fire feedbacks into Earth System Models (ESMs) is essential for accurate climate projections, most existing models lack a representation of peat fires. Understanding the smouldering behaviour of organic soils when they burn, their ignition probability, and how these processes can be represented at a global scale is of utmost importance. Recent research efforts are focusing on bridging this knowledge gap. For example, at the Technical University of Crete, we are collaborating with the Hazelab research group at Imperial College London and the Leverhulme Centre for Wildfires, Environment and Society to perform field research and cutting-edge experiments) on peat smouldering, with the aim of shedding light on the complex mechanisms of peat fires.
Integrating these lab results into ESMs will enable game-changing fire emission modelling, which holds potential for groundbreaking outcomes when it comes to our skill level for predicting the future of the Earth’s climate. By quantifying how the present-day atmosphere is influenced by fire emissions from boreal forests and peatlands, we can enhance the quality of projections of global temperature rise. This integration will also sharpen forecasts of regional climate impacts driven by fire-related aerosols, such as changes in rainfall patterns or accelerated Arctic ice melt.
Undoubtedly, we have entered an era of more frequent megafires – wildfires of extreme size, intensity, duration or impacts – with catastrophic consequences. Recent megafire events at boreal and Arctic regions unveil the dramatic change in wildfire patterns in northern high latitudes, which is a matter that demands urgent attention and action.
As the planet continues to warm, high-latitude fires are expected to help shape the future of our planet. Massive wildfire events, such as those in Canada in 2023, not only burned millions of hectares but also forced hundreds of thousands of people to evacuate their homes. Unprecedented amounts of smoke blanketed parts of North America in hazardous air, prompting school closures and health warnings, and obliging citizens to remain indoors for days. Events like this reflect a growing trend. They underscore why advancing research to better understand and predict the dynamics of northern peat and forest fires, and to mitigate their climate impacts, is not only a scientific imperative but also a moral responsibility.
Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the Axa Research Fund has supported nearly 700 projects around the world conducted by researchers in 38 countries. To learn more, visit the website of the Axa Research Fund or follow @AXAResearchFund on X.
Dimitra Tarasi has received funding from the AXA Chair in Wildfires and Climate, the Leverhulme Centre for Wildfires, Environment and Society and the A.G. Leventis Foundation Educational Grants.
Apostolos Voulgarakis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 12:10
Jean-Pierre Dalmont, Professeur des Universités, spécialiste des guides d'ondes acoustiques et de la physique des instruments de musique, Le Mans Université
Pourquoi la musique sonne-t-elle « juste » ou « faux » et pourquoi seuls quelques élus après un travail forcené sont-ils capables de jouer ensemble et juste ? La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.
S’il arrive souvent qu’on perçoive dans diverses circonstances que certaines personnes, même seules, chantent faux, c’est parce qu’elles s’éloignent de façon très significative de l’échelle musicale attendue. Pour fixer les idées, si dans une mélodie, la note attendue est un La3 (le la au milieu du clavier) sa fréquence devrait être de l’ordre de 440 Hz, c’est-à-dire 440 oscillations par seconde.
Si elle dévie de plus de 10 Hz, elle sera suffisamment éloignée de l’attendu pour choquer les auditeurs qui connaissent la mélodie. Les échelles musicales ont une grande part d’arbitraire et leur perception relève donc de l’acquis.
Quelqu’un qui n’a aucune culture musicale ne sera en aucun cas choqué par ces déviations. D’ailleurs, les échelles musicales qui ne relèvent pas de notre culture telles que les échelles orientales ou les échelles en quart de tons nous paraissent fausses, car elles ne nous sont pas familières.
La justesse est donc une notion toute relative, et c’est lorsque l’on fait de la musique à plusieurs que celle-ci prend vraiment son sens. En effet, deux musiciens qui jouent ensemble doivent être « d’accord », c’est-à-dire que les notes qu’ils vont jouer ensemble doivent s’accorder. Et là, notre oreille est intraitable : si deux musiciens ne sont pas accordés, le résultat est extrêmement déplaisant, ça sonne faux. On sort donc du domaine de l’acquis pour rentrer dans celui de la physique.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
À quel phénomène cela tient-il ? La réponse à cette question est connue finalement depuis assez peu de temps au regard de l’histoire de la musique puisque c’est seulement au milieu du XIXe siècle qu’Hermann von Helmholtz donne une explication scientifique de la notion de dissonance, qu’il nomme « Rauhigkeit » (« rugosité »).
Il associe la notion de dissonance à la notion de battements. En effet, les mathématiques nous disent que, lorsqu’on superpose deux sons purs de même amplitude et de fréquences voisines, il en résulte un son unique dont la fréquence est leur moyenne et dont l’amplitude est modulée périodiquement par une fréquence égale à leur différence. Par exemple, si on superpose deux sons purs de même amplitude et de fréquences 439 Hz et 441 Hz, on obtient un son de 440 Hz qui s’éteint deux fois par seconde (2 Hz). C’est une sensation assez désagréable, car notre cerveau n’apprécie pas les événements répétés rapidement qui mobilisent trop son attention.
Hermann von Helmholtz a estimé subjectivement que la sensation était la plus désagréable pour des battements autour de 30 Hz. Quand cette fréquence augmente, la sensation de battement disparaît et la sensation désagréable avec.
Les choses se compliquent lorsqu’on superpose deux sons complexes. Un son complexe est un son périodique dont on sait, depuis Joseph Fourier, qu’il peut être décomposé en une somme de sons purs – les harmoniques –, dont les fréquences sont multiples de sa fréquence, dite fréquence fondamentale. Lorsqu’on superpose deux sons complexes, alors tous les harmoniques du premier son sont susceptibles de battre avec un voire plusieurs harmoniques du second. La probabilité pour que les deux sons sonnent bien ensemble est alors quasi nulle.
Les rares situations sans battement correspondent aux intervalles consonants : l’octave qui correspond à un rapport de fréquence égal à 2 exactement, la quinte qui correspond à un rapport 3/2, la quarte 4/3, la tierce majeure 5/4 et, à la limite, la tierce mineure 6/5.
Ces intervalles, si la note fondamentale n’est pas trop basse, ne créent pas de battements puisque de la superposition de deux sons d’un intervalle juste résulte d’un seul, dont la fréquence fondamentale est la différence entre les deux. Ainsi un La3 à 440 Hz et un La4 à 880 Hz (octave) donnent un La3 de fréquence 440 Hz, mais avec un timbre différent. Un La3 à 440 Hz et un Mi4 à 660 Hz (quinte) donnent un La2 à 220 Hz. De même, un La3 à 440 Hz et un do#4 à 550 Hz (tierce majeure) donnent un La1 à 110 Hz.
Dans tous les cas, l’oreille ne perçoit pas de battements car ceux-ci sont trop rapides. Par contre, si on considère un La2 une octave plus bas à 220 Hz et un do#3 à 275 Hz (tierce majeure), on obtient un La1 à 55 Hz qui commence à être perçu comme rugueux. À cette hauteur, la tierce est presque dissonante. C’est sans doute pour cela qu’au Moyen Âge, la tierce majeure était rejetée, car considérée comme dissonante, sans parler de la tierce mineure. Ces deux intervalles sont d’ailleurs toujours considérés par les spécialistes comme des consonances imparfaites, par opposition à l’octave et la quinte qui sont des consonances parfaites.
Ces intervalles sont à la base de la musique occidentale puisqu’ils permettent de construire la gamme naturelle Ut (do) ré mi fa sol la, qui va permettre, en combinant différentes notes non conjointes, de définir les bases de l’harmonie musicale. Au fil du temps, les compositeurs et les auditeurs seront de plus en plus accommodants vis-à-vis de la justesse et, actuellement, sur un clavier numérique, seules les octaves sont rigoureusement justes.
Finalement, de nos jours, chanter juste, c’est chanter pas trop faux !
Jean-Pierre Dalmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 12:09
Guillaume Cabanac, Professor of Computer Science, Institut de Recherche en Informatique de Toulouse
Guillaume Cabanac est professeur d’informatique à l’Université de Toulouse et membre de l’Institut universitaire de France. Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, il pourchasse les fraudes scientifiques. Son travail de dépollution lui a valu d’être distingué par la revue Nature comme un des dix scientifiques de l’année 2021. Benoît Tonson, chef de rubrique Science à The Conversation France, l'a rencontré.
The Conversation : Comment avez-vous démarré votre travail d’enquêteur scientifique ?
Guillaume Cabanac : La littérature scientifique est mon objet de recherche, car c’est un corpus passionnant à étudier, riche en données de différentes natures : du texte, des liens de citations, des dates, des affiliations, des personnes… Par ailleurs, ce corpus est évolutif puisque, tous les jours, 15 000 nouveaux articles scientifiques sont publiés de par le monde.
Initialement, ce n’était pas la fraude qui m’intéressait, mais plutôt l’erreur en science. J’ai entrepris de traquer les méconduites en sciences au contact de Cyril Labbé, professeur d’informatique à l’Université de Grenoble-Alpes. J’avais lu un de ses articles qui avait fait grand bruit. Dans cet article, il racontait qu’il avait créé un faux profil sur Google Scholar (le moteur de recherche spécialisé de Google qui permet de rechercher des articles scientifiques). Un certain Ike Antkare (comprendre “I can’t care”, ou « Je ne peux pas m’en soucier » en français). Avec ce profil, il avait créé de faux articles à l’aide d’un logiciel SCIgen de génération de texte, un ancêtre des IA génératives si l’on veut. C’est un programme qui se fonde sur une grammaire probabiliste hors contexte. Cela signifie qu’il perd la mémoire d’une phrase à l’autre. Il va écrire des phrases, qui prises indépendamment ont du sens, mais qui, collectivement, produiront un texte qui n’aura aucune logique. Par exemple, la première phrase serait « Aujourd’hui, il fait beau », la deuxième « Les diamants sont des pierres précieuses » et la troisième « Mon chien s’appelle Médor ».
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Cyril Labbé a donc utilisé ce logiciel pour générer des articles qu’il a réussi à faire indexer par Google Scholar. Chaque faux article citait les autres. Or, le calcul du nombre de citations d’un auteur dans d’autres articles est un indicateur bibliométrique très populaire. Cela montre que d’autres scientifiques se sont appuyés sur ces travaux. Après avoir publié un nombre suffisant d’articles bidon, Ike Antkare est devenu l’un des scientifiques les plus cités au monde, dépassant même Einstein ! J’ai rencontré Cyril dans un congrès en 2015, et c’est comme ça que notre aventure a commencé.
Tout s’est accéléré pendant le Covid-19 : il me disait qu’il trouvait chez de très grands éditeurs scientifiques comme l’Institute of Electrical and Electronics Engineers (IEEE) ou Springer Nature des articles bidon générés par les mêmes méthodes que celles employées par Ike Antkare. À cette époque, il avait un détecteur qui travaillait article par article. J’ai proposé d’automatiser ce procédé pour pouvoir analyser la littérature scientifique dans son intégralité, c’est-à-dire 130 millions d’articles scientifiques publiés à ce jour. Le logiciel prototype que j’ai développé montrait qu’on peut interroger les centaines de millions d’articles à la recherche de ces articles bidon en quelques heures seulement. On en a trouvé quelques centaines en 2020. On s’est mis en chasse. D’abord, de ces articles contenant du texte qui n’avait aucun sens, puis on a continué à identifier d’autres types de fraudes. Nous avons créé d’autres détecteurs, intégrés au sein du Problematic Paper Screener et on dénombre aujourd’hui des dizaines de milliers d’articles frauduleux !
Vous avez découvert un type de fraude qui a fait particulièrement réagir : les expressions torturées…
G. C. : En menant nos recherches, on a découvert que des auteurs commettaient des plagiats un peu particuliers. Ce n’étaient pas des textes copiés/collés, car les maisons d’édition ont des détecteurs de plagiats directs. Ça ne passerait pas et l’astuce, si l’on peut dire, consiste à faire du copier/paraphraser/coller. Paraphraser revient à remplacer un mot dans le texte d’origine par un synonyme. Il existe des sites en ligne qui peuvent le faire très rapidement.
Il y a un hic : ces synonymes viennent plutôt de la littérature et ne font aucun sens dans un contexte scientifique. Prenons le mot « cancer » par exemple : le logiciel paraphraseur le remplacera par un synonyme tel que « péril ». En effet, lorsque l’on parle de cancer de la société, on peut aussi utiliser le terme de péril. En revanche, écrire « péril de la poitrine » au lieu de « cancer du sein » dans un article biomédical est tout simplement inacceptable.
De façon choquante et inattendue, nous avons trouvé des milliers d’expressions torturées dans les plus grosses maisons d’édition : Elsevier, Springer, Wiley, IEEE… Cela a fait scandale, car la communauté scientifique pensait qu’il y avait, d’un côté, des « prédateurs », qui tiennent des revues publiant n’importe quoi contre rémunération, et, de l’autre, les maisons d’édition prestigieuses, qui assurent un processus éditorial sérieux avec relecture par les pairs.
Et je ne parle pas d’un cas isolé : dans la revue scientifique Microprocessors and Microsystems dans laquelle nous avons découvert les premières expressions torturées, plus de 400 articles étaient concernés, avec des remplacements du type « intelligence artificielle » qui devient « conscience contrefaite » ou « rapport signal sur bruit » torturé en « rapport signal sur clameur ».
Ceci questionne la qualité de l’évaluation par les pairs. C’est ce qui a vraiment scandalisé la communauté scientifique et a discrédité ces maisons d’édition qui ont dû reconnaître les faits.
Ce que nous critiquons en creux, c’est la massification du nombre de revues scientifiques dont le nombre a doublé en vingt ans et pour lesquelles la main d’œuvre nécessaire et gratuite s’est raréfiée. En effet, ce travail d’évaluation par les pairs impliquant deux ou trois experts mondiaux du sujet par soumission d’article à évaluer n’est pas rémunéré.
Les maisons d’édition nous assurent qu’un processus rigoureux d’évaluation par les pairs a été mis en place, comme attendu. Personnellement je me demande si l’évaluateur n’était pas endormi lorsqu’il a recommandé la publication d’une article truffé d’expressions torturées. Ce n’est pas sérieux.
Cela dit, je n’ai aucun moyen d’estimer la qualité de l’évaluation, ni même si elle a été réalisée : la plupart des maisons d’édition ne rendent pas publics les rapports d’évaluation.
À lire aussi : Découverte d’une fraude scientifique pour booster artificiellement l’impact des recherches
Vous avez donc démarré ce travail à deux, mais aujourd’hui vous coordonnez une vraie communauté, comment s’est-elle mise en place ?
G. C. : Sur les expressions torturées, on a d’abord été rejoint par Alexander Magazinov, un mathématicien et informaticien russe qui se distrait en devenant détective scientifique. En parallèle, je lisais tous les signalements postés par la communauté scientifique sur PubPeer (un site web qui permet à quiconque de formuler des commentaires à propos d’articles scientifiques publiés, pour notamment signaler des soupçons de manquements à l’intégrité scientifique) et j’y ai repéré des personnes très actives, signalant des fraudes. Je les ai contactées et on a commencé à se regrouper, mobilisant une plateforme en ligne que j’ai nommée « le collège invisible ». C’était un clin d’œil à un concept de sociologie des sciences, pour rappeler que des scientifiques de diverses disciplines peuvent partager des centres d’intérêt tout en étant affiliés à des institutions différentes, réparties de par le monde. Mon initiative a fédéré au sujet de la fraude en sciences. Le groupe a grossi progressivement et inclut désormais 120 personnes qui échangent, partagent et coordonnent leurs actions quotidiennement. C’est une communauté internationale constituée de scientifiques, de professionnels de l’édition et d’amateurs de tous types de milieux.
Vous avez détecté de nombreuses fraudes mais, finalement, pourquoi les chercheurs trichent-ils ?
G. C. : Il est bon ici de rappeler que le problème est systémique, et pas individuel. En effet, les individus sont en prise avec des systèmes qui les régissent et qui imposent par le haut une performance difficile voire impossible à atteindre. Prenons l’exemple d’un chirurgien en Chine qui travaille dans un hôpital. On va lui demander d’opérer, d’enseigner mais aussi de faire des découvertes, pas de la recherche mais des découvertes, qui devront être publiées dans certaines revues prestigieuses. Ils ont un quota d’articles à publier.
Quand cela devient trop dur de mener toutes ces activités en parallèle, on peut être tentés de se tourner vers ce que l’on appelle les papers mills (« usine ou moulins à articles »). Ce sont des entreprises qui proposent, moyennant finance, de produire des articles plus ou moins bidon sur lesquels vous pouvez mettre votre nom et les publier.
Il y a beaucoup d’autres exemples. En Italie, devenir éditeur invité d’un numéro spécial d’une revue est apprécié dans les évaluations individuelles de chercheurs. L’offre en face vient de MDPI, une maison d’édition identifiée dans la « zone grise » de l’édition. Elle permet à des chercheurs de créer un numéro spécial et d’accepter des articles à leur discrétion. Vu les critiques émises sur PubPeer et le nombre délirant de numéros spéciaux par an, qui peut atteindre les 3 000, on est en droit de questionner ce modèle éditorial, dans les pas du Cirad, de l’Inrae et de l’Inria.
Cela satisfait tout le monde : la maison d’édition touche quelques milliers d’euros par article, l’éditeur invité valide son objectif… Cependant, la science est affaiblie alors qu’on se doit de la soutenir et de la défendre. Publier des articles fragiles pose de réels problèmes : le mur des connaissances est en péril lorsque des briques de connaissances ne sont pas robustes.
Avec vos travaux, certains articles sont rétractés, mais qu’en est-il des articles qui citent des travaux dépubliés ?
G. C. : Je me suis posé la question en 2023 : quels sont les articles scientifiques qui possèdent dans leur bibliographie des articles rétractés ? Normalement, on devrait observer un effet domino, des rétractations en chaîne : les articles s’appuyant sur des connaissances remises en question devraient être également réévalués. Pour explorer cette problématique, j’ai rajouté un détecteur dans le Problematic Paper Screener afin de traquer les colosses aux pieds d’argile : les articles de bonne facture qui citent dans leur bibliographie un ou plusieurs articles désormais rétractés.
Parmi les 130 millions d’articles scientifiques parus dans le monde, il y en a plus de 800 000 qui citent au moins un article rétracté. Certains articles citent même jusqu’à 50 ou 60 publications rétractées ! Il convient de vérifier de nouveau la fiabilité de ces articles et de les rétracter si nécessaire. Ceci est d’autant plus crucial pour les publications concernant des sujets peu étudiés, tels que les maladies rares.
Force est de constater que les maisons d’éditions, responsables de la diffusion des articles acceptés, ne monitorent pas leur catalogue et ne mandatent pas ces réévaluations auprès de comités d’experts. Il serait pourtant techniquement possible de traquer toute rétractation de référence citée dans les articles publiés par une maison d’édition – ce que fait le Problematic Paper Screener, toutes maisons d’édition scientifique confondues.
Comment expliquer qu’une publication scientifique puisse contenir autant de citations d’articles rétractés ?
G. C. : Je parlais tout à l’heure des paper mills. Une des stratégies de ces entreprises est de vendre des articles bidon qu’ils fabriquent eux-mêmes, puis ils proposent à leurs clients de se citer les uns et les autres pour augmenter artificiellement l’impact de leurs publications.
L’idée est simple : si vous avez 50 clients, vous dites à chacun de citer un des autres, cela peut aller très vite et plus il y aura de clients, plus il sera difficile de traquer cette entente illicite, nommée « cartel de citations » dans la littérature. Notre travail de mise en lumière des articles bidon permet donc également d’identifier les clients potentiels des paper mills.
Comment voyez-vous la situation évoluer ? Votre travail permet-il une diminution du nombre de publications scientifiques problématiques ?
G. C. : Ce n’est pas évident, tout dépend de la fraude dont on parle. Par exemple, aujourd’hui, il ne faudrait pas être très malin pour utiliser la technique des expressions torturées, car nos détecteurs les repèrent aisément. Les gros éditeurs scientifiques (soutenant notamment le STM Integrity Hub les ont adoptés pour filtrer le flot des manuscrits soumis par les chercheurs. Le plagiat par synonymes diminue drastiquement.
Actuellement, l’IA générative est le problème majeur, car les textes générés par machine sont impossibles à différencier automatiquement des textes générés par les humains, sans avoir recours à des experts. Les utilisateurs d’IA générative trouvent des astuces pour déjouer les logiciels de détection d’IA générative. On ne peut donc pas quantifier cette fraude. Faute d’étude rigoureuse de ce phénomène, on ne peut parler que de « sentiment ».
Les scientifiques que je côtoie me disent suspecter des passages générés par IA dans les manuscrits qu’ils expertisent. Les ruptures de style ou les exposés trop superficiels sont révélateurs. Par ailleurs, quand ils reçoivent des rapports d’évaluation de leurs pairs (en grande majorité anonymes) à propos de leurs propres travaux, il peut arriver qu’ils aient le sentiment d’être floués : ces critiques ont-elles été générées par une machine ou rédigées par un expert ? Ce questionnement qui sème le trouble et la confiance est, selon moi, à la limite de rompre.
En parlant de confiance, on peut déplorer une sorte de méfiance généralisée vis-à-vis de la science, n’avez-vous pas peur que vos travaux alimentent celle-ci ?
G. C. : L’alternative serait de détecter ces fraudes « en interne » et de ne pas en parler, d’en faire un secret, de le garder pour nous, entre chercheurs. Mais c’est une très mauvaise idée puisqu’au contraire, quand on est scientifique, on se doit d’être transparent, de publier ce qu’on trouve et d’informer le public. Il ne faut pas se voiler la face, les chercheur forment un groupe social comme les autres : comme partout, il y a des tricheurs et des arnaqueurs.
Selon moi, tous les acteurs impliqués se doivent de faire la lumière sur ces fraudes : maisons d’édition, institutions, financeurs et chercheurs. Le but est d’en parler le plus possible pour sensibiliser nos collègues et les étudiants que l’on forme.
Guillaume Cabanac a reçu des financements du Conseil Européen de la Recherche (ERC), de l'Institut Universitaire de France (IUF) et de la Fondation Pierre Fabre. Il a conçu et administre le Problematic Paper Screener qui exploite des données fournies par Digital Science et PubPeer à titre gracieux.
25.06.2025 à 12:09
Gaël Buldgen, Docteur en astrophysique, spécialiste de physique solaire et stellaire, Université de Liège
Le Soleil est le seul lieu où la fusion nucléaire est stable dans notre système solaire. Cela fait des décennies que les scientifiques tentent de comprendre sa physique. Où en est-on aujourd’hui ?
Notre Soleil représente à lui seul plus de 99 % de la masse du système solaire. Sans lui, la vie sur Terre serait impossible. Au delà de fournir de l’énergie à la Terre, on peut aussi le considérer comme un laboratoire de physique fondamentale. L’étude de sa structure interne et de sa modélisation théorique permet de mettre en évidence les limitations de nos connaissances. Depuis bientôt 4,6 milliards d’années, notre Soleil est le seul lieu de réaction de fusion nucléaire stable du système solaire. C’est en effet par la fusion d’hydrogène en hélium qu’il produit son énergie et qu’il continuera à le faire pour encore 5 milliards d’années.
Depuis plusieurs décennies, des groupes de recherche de par le monde s’attachent à mieux révéler l’intérieur de notre étoile et à étudier les phénomènes physiques agissant dans ces conditions extrêmes. Les expertises sont variées, allant de physiciens et astrophysiciens européens, dont je fais partie, Russes et Japonais, en passant par des spécialistes de physique nucléaire du Los Alamos National Laboratory ou du CEA de Paris-Saclay. Ensemble, nous tentons de percer les mystères de notre étoile en révélant sa face cachée, sa structure interne. Nos outils comptent des observations astronomiques effectuées tant depuis le sol que l’espace, mais aussi des simulations numériques avancées de la structure et de l’évolution du Soleil, appelées simplement « modèles solaires » (au sens de modèle physique, tels les modèles utilisés en géophysique pour décrire la Terre).
Elles constituent la base théorique sur laquelle sont élaborés les modèles utilisés pour étudier toutes les autres étoiles de l’Univers. Notre Soleil sert de calibrateur pour la physique stellaire. En conséquence, changer de modèle solaire, c’est changer de point de référence pour toutes les étoiles.
Calculer un modèle solaire est un exercice d’équilibre pour un astrophysicien. Il faut bien choisir ses éléments constitutifs. On pense immédiatement à sa composition chimique (en masse : 73 % d’hydrogène, 25 % d’hélium et 2 % d’éléments plus lourds ; en nombre d’atomes : 92 % d’hydrogène, 7,8 % d’hélium, 0,2 % d’éléments plus lourds). Cependant, d’autres choix entrent en jeu. Il s’agit de modéliser l’ensemble des phénomènes physiques se produisant en son sein. Tous ces ingrédients constituent des éléments de physique fondamentale définissant notre vision du Soleil, son « modèle standard ». La première définition d’un modèle standard pour notre Soleil date de 1980 environ et est due à John Bahcall, un astrophysicien américain.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le modèle standard solaire a connu de grands succès, survivant à la « crise des neutrinos solaires ». Cette crise résultait de la détection de trois fois moins de neutrinos que prévu théoriquement. La divergence fut expliquée par une révision de la physique des neutrinos (récompensée par les prix Nobel en 2002 et 2015).
Le modèle standard solaire s’en trouva renforcé, devenant un élément clé de la théorie de l’évolution stellaire. Dans les années 2000, la révision de la composition chimique solaire a entraîné une nouvelle crise. Ces mesures furent réalisées à l’aide d’observations spectroscopiques, permettant d’identifier chaque élément chimique présent dans l’atmosphère solaire. L’amélioration des mesures spectroscopiques et des techniques d’analyse était à l’origine de cette révision.
Ces travaux, confirmés par la suite, menaient à une réduction de 30 % de l’abondance en masse de carbone et d’oxygène. Ce changement détruisit l’accord existant du modèle standard avec les mesures de neutrinos et les contraintes issues de l’étude des oscillations solaires, appelée héliosismologie. Comme en sismologie terrestre, qui se sert des ondes traversant notre planète pour en étudier l’intérieur, l’héliosismologie utilise les ondes acoustiques se propageant dans le Soleil pour en mesurer les conditions internes. Grâce aux oscillations solaires, on connaissait précisément certaines propriétés comme la masse volumique dans 95 % de l’intérieur de notre étoile.
La révision de la composition chimique du Soleil fut mal accueillie, car elle invalidait le modèle standard. Plusieurs groupes voulurent maintenir les valeurs du XXe siècle. La polémique enfla et de récentes mesures indépendantes par héliosismologie confirmèrent la réduction en oxygène, tout en maintenant les écarts observés dans les régions centrales.
L’explication des désaccords des modèles théoriques avec l’intérieur du Soleil est à chercher ailleurs… C’est dans ce contexte de débat intense que mon travail a commencé, il y a dix ans, durant ma thèse de doctorat. Je choisis d’adapter des outils numériques à ma disposition pour étudier la structure interne du Soleil. Ce qui devait être un petit détour au cours de ma thèse est devenu un projet majeur, en raison du regain d’intérêt pour l’héliosismologie et pour les modèles solaires.
Un modèle solaire ne se limite pas à sa composition chimique. Il fait intervenir une série d’éléments devant suivre les avancées de physique théorique et expérimentale. Nous savons que le Soleil produit son énergie par fusion d’hydrogène en hélium, les observations des neutrinos solaires l’ont confirmé de manière irréfutable. Cependant, la vitesse de ces réactions reste sujette à de petites corrections. Ces révisions sont minimes, mais le degré de précision quasi chirurgical avec lequel nous étudions le Soleil les rend significatives.
Un autre ingrédient clé des modèles solaires est l’opacité de la matière solaire, liée à sa capacité à absorber l’énergie du rayonnement. Comme dit plus haut, le Soleil génère son énergie par fusion nucléaire en son cœur. Cette énergie, avant de nous parvenir sur Terre, doit être transportée de l’intérieur du Soleil vers son atmosphère. Dans 98 % de sa masse, c’est le rayonnement à haute énergie (rayons X) qui s’en charge. Ainsi, si l’on change la « transparence » du milieu solaire, on change totalement la structure interne de notre étoile.
Dans le cas solaire, nous parlons de conditions extrêmes, quasi impossibles à reproduire sur Terre (températures de plusieurs millions de degrés, densités élevées). L’opacité a toujours joué un rôle clef en physique stellaire, ses révisions successives permirent de résoudre plusieurs crises par le passé. Chaque fois, les calculs théoriques avaient sous-estimé l’opacité. Rapidement, on envisagea qu’une nouvelle révision permettrait de « sauver » les modèles solaires. Dès 2009, les astrophysiciens s’attelèrent à estimer les modifications requises. Cependant, une des grandes difficultés résidait dans la connaissance de la composition chimique de l’intérieur solaire. En effet, notre étoile n’est pas statique. Au fil du temps, sa composition chimique évolue sous l’effet des réactions nucléaires au cœur et de la sédimentation. Ainsi, un atome d’oxygène à la surface du Soleil, plus lourd que son environnement, « tombera » vers les couches profondes, changeant les propriétés du plasma.
Ces questions sont liées à notre connaissance des conditions physiques internes du Soleil et donc à notre capacité à les mesurer.
La précision atteinte sur la masse volumique du milieu solaire est phénoménale, inférieure au centième de pourcent. Ces mesures très précises m’ont permis de développer des méthodes de détermination directe de l’absorption du plasma solaire, l’opacité tant recherchée.
Elles ont montré que l’opacité des modèles solaires actuels est inférieure aux mesures héliosismiques d’environ 10 %. Ces résultats ont confirmé indépendamment les mesures des Sandia National Laboratories (États-Unis), où des physiciens ont reproduit des conditions quasi solaires et mesuré la capacité d’absorption du plasma. En 2015, ces mesures avaient déjà montré des écarts significatifs entre théorie et expérience. Dix ans plus tard, elles sont confirmées par de nouvelles campagnes et des mesures indépendantes. La balle est désormais dans le camp des théoriciens, afin d’expliquer des différences préoccupantes qui révèlent les limites de notre compréhension de la physique dans les conditions extrêmes de notre étoile.
L’enjeu dépasse toutefois de loin notre vision de l’intérieur du Soleil. Depuis le début du XXIe siècle, de nombreuses missions sont consacrées à l’étude des étoiles et de leurs exoplanètes. Les techniques d’héliosismologie se sont naturellement exportées aux autres étoiles, menant au développement exponentiel de l’astérosismologie.
Pas moins de quatre missions majeures furent consacrées à cette discipline : CoRoT, Kepler, TESS et bientôt PLATO. Toutes visent à déterminer précisément les masses, rayons et âges des étoiles de notre galaxie, les modèles stellaires étant essentiels pour cartographier l’évolution de l’Univers. Cependant, toutes ces considérations sur la datation des objets cosmiques nous ramènent à l’infiniment proche et petit. Donner l’âge d’une étoile requiert de comprendre précisément les conditions physiques régissant son évolution.
Ainsi, savoir comment l’énergie est transportée en son sein est primordial pour comprendre comment, de sa naissance à sa mort, l’étoile évolue. L’opacité, régie par des interactions à l’échelle de l’Angström (10-10 m), est donc essentielle pour modéliser l’évolution des astres, à commencer par notre Soleil.
Gaël Buldgen a reçu des financements du FNRS (Fonds National de la Recherche Scientifique, Belgique) et du Fonds National Suisse (FNS).
25.06.2025 à 12:09
Andrew Hacket-Pain, Senior Lecturer, School of Environmental Sciences, University of Liverpool
Le solstice d’été semble jouer un rôle d’aide-mémoire arboricole. Les températures autour de cette période affectent le nombre de graines produites par les arbres.
Depuis la Préhistoire, les humains célèbrent le solstice d’été. Mais nous ne sommes pas la seule espèce à avoir remarqué que le 21 juin est un moment particulier. Des études montrent que c’est aussi un moment important pour les plantes.
Ainsi, des études récentes (dont une des miennes) suggèrent que les arbres puissent utiliser le jour le plus long de l’année comme un marqueur clé de leurs cycles de croissance et de reproduction. Comme si le solstice était un aide-mémoire arboricole.
Par exemple, les arbres qui poussent dans des régions froides ralentissent la création de nouvelles cellules de bois aux environs du solstice et concentrent leur énergie à finir des cellules déjà formées mais encore incomplètes. Ce qui permettrait d’avoir le temps d’achever la construction des cellules avant l’arrivée de l’hiver – dont les températures glaciales endommagent les cellules incomplètes, les rendant inutiles pour le transport de l’eau l’année suivante.
Il semble également que les arbres profitent du solstice pour préparer de l’automne, avec la « sénescence » de leurs feuilles. La sénescence permet à l’arbre de réabsorber les nutriments essentiels présents dans les feuilles avant qu’elles ne tombent. Ce processus doit arriver au bon moment : si la sénescence est trop précoce, la perte de feuille réduit la photosynthèse (et donc l’acquisition d’énergie qui sert à la croissance de l’arbre entier). Si la sénescence est trop tardive, les gelées d’automne détruisent les feuilles encore vertes, ce qui fait perdre à l’arbre les précieux nutriments qu’il y avait stockés.
Ainsi, des observations satellites des forêts et des expériences contrôlées dans des serres montrent que des températures élevées juste avant le solstice ont tendance à avancer le brunissement des feuilles à l’automne
À l’inverse, des températures élevées juste après le solstice semblent ralentir le processus de sénescence, ce qui allonge la période de transition entre les feuilles vertes et les feuilles entièrement brunes. Ce réglage fin permettrait aux arbres de prolonger la période de photosynthèse les années où les températures restent plus élevées et de ne pas manquer ces conditions favorables.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ces observations et leurs interprétations font cependant débat parmi les scientifiques.
En effet, du point de vue de l’évolution, le solstice ne serait peut-être pas le meilleur marqueur temporel de ces transitions dans le cycle annuel des arbres. Par exemple, dans les forêts du Grand Nord, les feuilles n’apparaissent pas avant le début du mois de juin, quelques jours seulement avant le solstice, et la saison de croissance peut se prolonger jusqu’en octobre. Dans ces forêts où certains arbres viennent à peine d’entamer leur croissance pour l’année, utiliser le solstice pour amorcer le processus de réduction progressive des activités ne semble guère avoir de sens.
Par contre, il existe un consensus plus large sur l’utilisation du solstice par les plantes pour synchroniser leur reproduction.
Chez de nombreuses plantes, en particulier les arbres des latitudes moyennes tempérées, le nombre de graines produites varie considérablement d’une année à l’autre, ce que l’on appelle le masting. Par exemple, un grand hêtre européen peut produire des centaines de milliers de graines lors d’une année exceptionnelle (une « masting year ») et renoncer totalement à la reproduction d’autres années.
La réduction de la production de graines par les hêtres, qui leur permet d’augmenter l’efficacité de leur reproduction, se fait souvent à l’échelle continentale, et par étapes.
Un petit papillon, Cydia fagiglandana (ou le carpocapse des faînes, en français – le faîne est le fruit du hêtre), pond ses œufs dans les fleurs de hêtre. Lorsque les larves éclosent, elles mangent et détruisent les graines en développement. L’alternance entre des années fastes en faînes et années de disette contribue à protéger les populations de hêtres de ces papillons.
Au Royaume-Uni par exemple, les hêtres perdent moins de 5 % de leurs graines à cause de Cydia. En effet, les cycles affament les papillons et réduisent leur population, qui attend les années fastes. Si les arbres sont désynchronisés dans ces cycles de forte et faible production de fruits, la perte de graines peut atteindre plus de 40 %.
Nous savons depuis des dizaines d’années que les années d’abondance se produisent après un été particulièrement chaud. En effet, les températures élevées augmentent la formation des bourgeons floraux, ce qui entraîne généralement une plus grande récolte de graines à l’automne.
Par contre, nous ne savons pas pourquoi ou comment les hêtres de toute l’Europe semblent utiliser la même fenêtre saisonnière (fin juin-début juillet) pour déterminer leur production de graines, quel que soit l’endroit où ils poussent en Europe. Comment un hêtre peut-il connaître la date ?
En 2024, en étudiant des dizaines de forêts à travers l’Europe, mon équipe a montré que ces arbres utilisent le solstice comme marqueur saisonnier : dès que les jours commencent à raccourcir après le solstice, les hêtres de toute l’Europe semblent percevoir simultanément la température.
Partout où les températures sont supérieures à la moyenne dans les semaines qui suivent le solstice, on peut s’attendre à une forte production de faînes l’année suivante, tandis que les conditions météorologiques des semaines précédant le solstice ne semblent pas avoir d’importance.
Comme le montrent les cartes météorologiques, les périodes de chaleur et de fraîcheur ont tendance à se produire simultanément sur de vastes zones.
Ceci permet aux hêtres de maximiser la synchronisation de leur reproduction, que ce soit en investissant dans une forte production (températures chaudes) ou en renonçant à la reproduction pendant un an (températures basses). L’utilisation d’un repère fixe comme le solstice est la clé de cette synchronisation et des avantages qui en découlent.
Désormais, nous collaborons avec une douzaine d’autres groupes européens pour tester cet effet sur différents sites, en manipulant la température de branches de hêtre avant et après le solstice. Les recherches en cours semblent indiquer que les gènes de floraison s’activent au moment du solstice d’été.
Enfin, des études sur les rythmes circadiens des plantes montrent que celles-ci possèdent des mécanismes moléculaires permettant de détecter de minuscules changements dans la durée du jour, et d’y répondre – ce serait la base de cette extraordinaire échelle de reproduction synchronisée.
Si le temps reste chaud au cours du mois qui vient, les hêtres de votre région produiront sans doute beaucoup de faînes à l’automne prochain – et il est bien probable que ce soit le cas dans le centre et le nord de l’Europe.
Andrew Hacket-Pain a reçu des financements de UK Research and Innovation, du Department for Environment, Food & Rural Affairs et du British Council.
25.06.2025 à 12:08
Niousha Shahidi, Full professor, data analysis, EDC Paris Business School
Un contrat avec franchise incite à ne pas prendre de risques – une manière pour les assurances de se garantir que leurs clients ne se reposent pas complètement sur elles. Ce sont les maths qui le disent.
Nous avons tous un contrat d’assurance contre des risques précis : assurance auto, assurance multirisque habitation (45,9 millions de contrats en 2023 en France)… Vous avez signé ce contrat d’assurance afin de vous couvrir des frais en cas de sinistre. Ce qui est inhabituel, avec les assurances, c’est que vous achetez « un produit » (contrat), mais vous le récupérez (les indemnités) que si vous subissez un sinistre. De plus, il est courant que l’assureur vous propose un contrat « avec franchise », c’est-à-dire qu’en cas de sinistre, une partie fixe des frais reste à votre charge.
Pourquoi les contrats « avec franchise » sont-ils si répandus ? Il existe plusieurs réponses.
Des chercheurs se sont intéressés au contrat optimal en modélisant mathématiquement la relation entre l’assureur et l’assuré. On dit qu’un contrat est optimal s’il n’existe pas d’autre contrat qui profiterait davantage à l’un (l’assuré ou l’assureur) sans détériorer la situation de l’autre.
Pour trouver le contrat qui maximise à la fois les préférences de l’assuré et de l’assureur, il faut résoudre un problème d’« optimisation ».
L’assureur est considéré comme neutre au risque, c’est-à-dire qu’il n’a pas de préférence entre une richesse dite « aléatoire » (impactée par un risque subi, mais incertain) et une richesse certaine égale à l’espérance de la richesse aléatoire.
Par contre, l’assuré est considéré comme risquophobe, c’est-à-dire que dans l’exemple précédent, il préfère la richesse certaine à la richesse aléatoire.
Dans ce contexte, des travaux de recherche ont montré que le contrat avec franchise est optimal. En effet, ce type de contrat permet à l’assuré risquophobe de réduire le risque puisqu’en cas de sinistre, il aura juste à payer la franchise. Si la franchise est nulle, le contrat neutralise alors complètement le risque puisqu’en payant juste la prime, l’assuré recevra une indemnité égale au dommage subi (potentiellement avec un plafond, mentionné dans le contrat) : on dit qu’il aura une richesse certaine.
Tous les quinze ours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
D’un point de vue pratique, la mise en place d’un contrat avec franchise représente plusieurs avantages pour l’assureur.
Tout d’abord, ce type de contrat réduit ses frais de gestion car les petites pertes (en dessous du montant de la franchise) ne sont plus traitées.
L’assuré est alors incité à faire un effort afin d’éviter les petites pertes qui resteraient à sa charge, ce qui permet de réduire le phénomène d’« aléa moral ». Ce dernier décrit une situation d’asymétrie d’information entre l’assureur et l’assuré. En effet, une fois le contrat d’assurance signé, l’assurance ne peut pas observer l’effort consenti par l’assuré pour éviter un risque (par exemple la vigilance au volant). Non seulement la mise en place de la franchise permet à l’assureur d’obliger l’assuré à faire un effort, elle lui permet aussi de détourner les individus à haut risque, qui cherchent souvent un contrat plus généreux que les individus à bas risques et qui sont prêts à payer une prime (même chère) afin de ne pas subir les petits risques.
Un autre problème d’asymétrie de l’information, connu sous le nom d’« antisélection » (ou sélection adverse) est alors soulevé. Dans ce contexte, l’assureur ne connaît pas le type (haut/bas risque) de l’assuré. Un individu à haut risque peut acheter un contrat destiné à un individu bas risque.
Si l’assureur ne propose que des contrats sans franchise, il risque d’avoir trop d’assurés à haut risque. L’assureur devra alors statistiquement faire face à un nombre important de sinistres (l’assureur par manque d’information se trouve avec les hauts risques alors qu’il aurait souhaité l’inverse), ce qui aboutit souvent à un déséquilibre entre le montant des primes perçues et le montant des indemnités versées. Il est donc important pour l’assureur de diversifier ses produits en proposant des contrats avec ou sans franchise.
Un contrat avec franchise est donc bien un optimum : l’assuré comme l’assureur a intérêt à éviter les petits sinistres. La franchise permet à l’assureur de faire des économies et en même temps de sélectionner ses clients. Le contrat choisi révèle votre « appétence au risque », que les assureurs classifient en types haut et bas risque !
Niousha Shahidi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.06.2025 à 17:20
Nicola Lo Calzo, Chercheur en art et représentations queer et décoloniales, École nationale supérieure d'arts de Paris-Cergy (ENSAPC)
Un processus inédit est en cours au sein du monde de l’art, la question de la visibilité des artistes « subalternes » et des récits dominés devient un enjeu central. Dans ce contexte, la posture queer peut s’imposer comme un moyen de ne pas retomber dans des travers identitaires.
Les bouleversements sociaux de la dernière décennie, illustrés par les mouvements #MeToo et Black Lives Matter, ont entraîné une prise de conscience dans certains milieux culturels et artistiques. Nous assistons à une reconnaissance inédite des artistes queers, racisés, femmes, en situation de handicap, issus des pays du Sud global. Au sein des circuits artistiques officiels se diffusent les problématiques que soulèvent leurs œuvres (luttes antiracistes, queers, féministes ou écologiques, question des récits et des archives minorées, enjeu des réparations postcoloniales et de la restitution des œuvres d’art, etc.). La notion d’« inclusivité », fondée sur la reconnaissance de la différence comme valeur sociale, s’impose aujourd’hui comme un projet ambitieux dans le monde de l’art.
Il suffit de regarder la programmation des six derniers mois dans les institutions muséales parisiennes pour mesurer le phénomène : l’exposition « Paris noir » au Centre Pompidou, « Corps et Âmes » à la Bourse de Commerce, « Banlieues chéries » au Musée de l’histoire de immigration, « Tituba, qui pour nous protéger » au Palais de Tokyo.
Ce processus est né, tel un « discours en retour » après des siècles d’eurocentrisme et de regard exotisant véhiculé par un certain discours sur l’altérité. Comme l’affirme la journaliste et écrivaine d’origine iranienne Farah Nayeri :
« Aujourd’hui, les musées, les galeries, les conservateurs et les mécènes veulent tous être considérés comme des agents de cette inclusion. »
La visibilisation des récits subalternes constitue un enjeu central pour un monde de l’art et une société plus égalitaires. Et même s’ils semblent aller à rebours de la montée des mouvements réactionnaires, les mécanismes de ce processus méritent d’être interrogés et questionnés.
À cet égard, une posture queer, telle que proposée dans cet article, permet à la fois d’interroger le processus d’inclusivité dans le milieu de l’art et ses contradictions, tout en offrant une perspective critique pour penser le monde au-delà de toute mythologie essentialiste (à savoir un régime de pensée et de représentation qui suppose des identités fixes et immuables).
Derrière une demande légitime et nécessaire de décolonisation des arts et des musées – portée notamment par la société civile et des groupes militants–, la question qui se pose est de savoir sur quels critères repose aujourd’hui l’éligibilité des artistes à l’espace muséal et à ses collections.
L’« identité » – autrement dit, ce que l’artiste représente symboliquement, culturellement et visiblement aux yeux de ses publics, au travers de ses œuvres – deviendrait-elle le principal critère de sélection ? Le positionnement critique de l’artiste, sa vision du monde, indépendamment de ce qu’il incarne ou représente, serait-il négligé ? Le risque est de le reléguer au second plan, en reconduisant, de fait, les mêmes catégories identitaires que l’on prétend pourtant déconstruire (homme/femme, blanc/noir, hétero/queer, valide/invalide, etc.).
Récemment l’artiste photographe Henry Roy s’est exprimé sans détour sur son compte Instagram en dénonçant ce type d’assignation :
« J’ai récemment entendu l’une des remarques les plus déconcertantes qu’il m’ait été donné d’entendre : un photographe afro-descendant ne devrait photographier que ses “semblables”. C’est apparemment un critère qui le distinguerait d’un artiste non racialisé. Que signifie cette singulière assignation ? Le champ de l’image impose-t-il une discrimination aux Afro-descendants, les confinant dans une sorte de ghetto de l’imaginaire ? »
Dans cette configuration, les classes d’oppression ne sont plus mobilisées, comme le font les penseurs intersectionnels, pour déconstruire les rapports de pouvoir en exposant leur enchevêtrement. Elles sont, au contraire, utilisées pour enfermer chacun et chacune (de nous) dans des identités figées, créant ainsi un nouveau mythe que j’appelle le « Mythe-du-Subalterne » : une fiction qui permettrait en outre au musée de préserver sa structure inégalitaire, tout en se drapant dans un vernis décolonial.
Sur cette base, on détermine non seulement l’accès – ou non – de l’artiste à l’institution muséale et à l’écosystème qui l’entoure, mais aussi sa légitimité à travailler tel ou tel sujet. En tant que personne queer, italienne et blanche, par exemple, il m’arrive d’entendre un certain discours selon lequel, parce que « je suis X », je ne pourrais produire un discours critique que sur ce X. Mais qui décide de ce que recouvre ce X, et qui en fixe les limites ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Face à la polarisation du discours – entre, d’un côté, une rhétorique réactionnaire et stigmatisante à l’égard des minorités et, de l’autre, une approche essentialisante, la posture queer apparaît comme une alternative aux visions figées de l’Autre et du [Soi](https://fr.wikipedia.org/wiki/Soi_(psychologie). Elle constitue un point de départ pour une perspective critique résolument opposée à toute forme de binarisme (homme/femme, noir/blanc, gay/hétéro, ouvrier/bourgeois, valide/invalide).
À l’origine, le terme anglais queer signifie « étrange », « louche », « de travers ». Insulte issue du langage populaire, équivalente au mot « pédé » en français – avec l’idée sous-jacente de déviance ou d’anormalité –, il s’oppose à « straight » (« droit »), terme désignant les personnes hétérosexuelles. Dans le contexte de stigmatisation accrue des personnes LGBTQIA+ au moment de la crise du sida dans les années 1980, queer est progressivement resignifié puis réapproprié, à travers une circulation des savoirs et des pratiques entre militants et intellectuels.
À lire aussi : Comment les artistes queers se réapproprient leur image
De fait, l’expérience de personnes queers entre en contradiction avec l’ordre et l’espace familiaux qui, historiquement, ont été construits comme prolongement de l’ordre social. Leur manière d’habiter l’espace introduit une faille par rapport à la ligne parentale (et reproductive) dont iels héritent et qu’iels ont la charge de reconduire. En renonçant à celle-ci, les subjectivités queers défient l’institution de la famille et, avec elle, l’ordre social.
Mais, comme le souligne le sociologue et philosophe français Didier Eribon, cette condition n’est pas seulement une identité stigmatisée, un habitus dont on cherche à se défaire pour lui opposer une identité en accord avec soi-même. Elle est constitutive d’une « vision ». Elle représente un point de vue spécifique sur le monde, une perspective que, dans les mots de la penseuse afroféministe bell hooks, l’on peut qualifier de regard oppositionnel (« oppositional gaze ») – un regard que les subalternes développent en réponse au regard stigmatisant qui, de manière récurrente, est porté sur eux.
Pour une personne queer, le regard stigmatisant de l’Autre ne provient pas uniquement de l’extérieur de sa communauté d’origine. Il émane aussi souvent de l’intérieur, par exemple, de la famille. C’est précisément dans ce double rejet, à la fois interne et externe, que réside le potentiel dénormatif de l’expérience queer : une vision du Soi et de l’Autre qui procède d'une désidentification avec la norme, susceptible de produire une vision « transidentitaire » ou « identitaire-sceptique ».
De cette expérience queer – marquée par un double rejet, à la fois interne et externe – peut émerger une posture queer.
Il ne s’agit plus uniquement d’un vécu intime ou d’un rapport personnel et situé à la norme, mais d’une position critique face aux systèmes de pouvoir, aux catégories figées et aux régimes de visibilité.
C’est la raison pour laquelle la posture queer ne cherche aucun drapeau identitaire particulier ni aucune identité dans laquelle se retrancher. La posture queer est une destinée. Elle incarne une utopie qui prend la forme d’un travail continuel et inachevé de déconstruction des représentations dominantes et de reconstruction de représentations minorées.
Une posture queer se veut une renégociation permanente du Soi dans sa relation à l’Autre. À cet égard, la pensée de l’errance élaborée par le philosophe français Édouard Glissant est clé. Elle éclaire l’aspiration de la posture queer à se faire lien et relation par-delà l’absolutisme de l’identité racine unique – qui repose, elle, sur l’idée d’un enracinement profond dans un territoire, une langue, une culture, une essence considérés comme immuables.
Face à l’alternative entre une vision du monde déterministe (selon laquelle nous ne pouvons pas transformer les rapports historiques de pouvoir dans lesquels nous sommes pris) et une vision positiviste néolibérale (qui promeut l’idée d’un individualisme tout-puissant), la posture queer s’affirme comme une troisième voie à partir de laquelle habiter, observer, et représenter le réel.
Elle constitue un « programme sans mythe », dont la visée ultime est une éthique-esthétique de l’émancipation des corps subalternes. Consciente des structures profondément inégalitaires qui régissent les rapports sociaux, cette posture implique un processus créatif, toujours inachevé, qui demande à être sans cesse réitéré, rejoué, requestionné.
Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.
Nicola Lo Calzo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.06.2025 à 17:19
Stéphane Amato, Maître de conférences en sciences de l'information et de la communication, Université de Toulon
Fabien Girandola, Professeur de Psychologie Sociale, Aix-Marseille Université (AMU)
C’est le début des soldes d’été. Du mercredi 25 juin 2025 à 8 heures du matin au mardi 22 juillet 2025 inclus, vous pourrez profiter de réductions avantageuses. Mais comment résister à la tentation de ne pas acheter un produit non soldé ? Quels sont les mécanismes infocommunicationnels et psychologiques en œuvre ? Explications avec l’expérience du leurre et du pied-dans-la-porte.
Vous êtes attiré par une paire de chaussures au centre de la devanture d’un magasin : -50 %. Vous pénétrez dans le magasin et vous demandez à la vendeuse, venue vous accueillir, si vous pouvez l’essayer. Après s’être informée de votre pointure, elle vous prie de vous asseoir, le temps d’aller la chercher en réserve. À son retour, elle vous apprend que votre pointure n’est, malheureusement, plus disponible.
Elle vous invite alors à essayer « juste pour voir » d’autres paires de chaussures, qu’elle a apportées. Elles sont à votre pointure et ressemblent beaucoup à celle qui vous a attiré dans le magasin. Elles ne sont toutefois pas soldées. Il s’agit de la nouvelle collection. Imaginons que vous achetiez une des paires de chaussures qu’on vous a invité à essayer.
Deux cas de figure. Soit vous auriez, de toute façon, acheté ces chaussures, même en sachant d’emblée qu’elles n’étaient pas soldées ; elles vous plaisent vraiment beaucoup. Soit, à ce prix-là, vous ne seriez même pas entré dans le magasin pour les essayer. Dans le deuxième cas, vous avez été manipulé. Honnêtement manipulé, mais manipulé quand même. Honnêtement, car la stratégie utilisée par le commerçant n’a rien de répréhensible. Manipulé quand même, car vous avez été conduit à votre décision d’achat par une procédure d’influence dont les ressorts vous échappent peu ou prou.
Alors quels sont les mécanismes infocommunicationnels et psychologiques en œuvre ? Comment éviter d’être manipulé ? Pour ce faire, illustration avec deux expériences de psychologie sociale : le leurre et le pied-dans-la-porte.
Vous préférez penser (et le commerçant aussi) que votre décision d’achat s’explique par la qualité des chaussures, leur look ou leur confort, ou encore par les arguments de vente qui ont pu vous être donnés lors de l’essayage. On peut avoir une tout autre explication, plus conforme aux connaissances issues de la psychologie sociale expérimentale. Le commerçant, quoi qu’il puisse en dire ou en penser, a bel et bien utilisé une technique d’influence – une technique d’engagement, disent les chercheurs –, dont l’efficacité est expérimentalement démontrée : le leurre. Le principe de cette procédure consiste précisément à :
amener quelqu’un à prendre une décision intéressante pour lui : acheter une paire de chaussures soldée à 50 % ;
lui faire savoir que, malheureusement, sa décision ne pourra pas se concrétiser : la pointure demandée est non disponible ;
lui proposer un comportement de substitution : acheter d’autres chaussures non soldées.
Le spécialiste français de psychologie sociale Robert-Vincent Joule a détaillé le principe du comportement leurre, qui influence le choix d’un consommateur en créant une distorsion cognitive – pensée irrationnelle. Il montre que les personnes ayant pris une première décision avantageuse – par exemple, acheter une paire de chaussures soldées à 50 % – ont tendance à poursuivre dans le même « cours d’action » – acheter une paire de chaussures non soldées. Même après avoir été informées de l’impossibilité de faire ce qu’elles avaient initialement décidé de faire.
Cette tendance les pousse à prendre une nouvelle décision. C’est le « comportement de substitution »… moins avantageux, voire pas avantageux du tout. Tout se passe comme si elles étaient « engagées » à faire ce qu’on attend d’elles, malgré elles, tout en ayant le sentiment de se comporter librement.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Une première expérience sur le leurre est menée en 1989. Les participants sont conduits à prendre une décision avantageuse : gagner de l’argent en participant à une recherche intéressante. Concrètement, visionner un film très attrayant. En arrivant au laboratoire quelques jours plus tard, ils apprennent que cette expérience est finalement déprogrammée. Au moment où ils s’apprêtent à repartir, on leur propose, à la place, de prendre part à une autre recherche non rémunérée ; de surcroît, plutôt fastidieuse, car il s’agit de mémoriser des chiffres. Les résultats sont édifiants : les personnes leurrées sont trois fois plus nombreuses (47,4 %) à accepter de participer à la recherche non rémunérée que celles qui ne l’étaient pas (15,4 %).
À lire aussi : Pourquoi ne peut-on pas s’empêcher de toucher les produits en magasin ?
Il va sans dire que les leurres commerciaux sont légion. Vous avez besoin d’un nouvel aspirateur. Vous vous déplacez donc, après avoir vu une publicité (appât) pour acheter un aspirateur, haute performance, d’une certaine marque à un prix promotionnel très intéressant : 120 euros – comportement leurre. Arrivé dans le magasin, on vous apprend que ce produit est, malheureusement, en rupture de stock. On vous propose un produit de substitution qui ne présente pas du tout les mêmes avantages. L’aspirateur disponible ayant les mêmes caractéristiques – le plus souvent d’une autre marque – vaut 195 euros – comportement de substitution. Que faites-vous ?
Un conseil, surtout pour vos achats les plus onéreux : marquer une pause afin d’interrompre le processus d’engagement et éviter d’acheter tout de suite. Idéalement, prendre le temps d’en parler à quelqu’un comme un proche ou un ami, afin d’avoir un avis extérieur. Pourquoi pas par téléphone ?
Le leurre n’est, évidemment, pas la seule technique utilisée par les commerçants pour augmenter la probabilité de déclencher les comportements d’achat attendus. Robert-Vincent Joule et Jean-Léon Beauvois en ont dénombré une dizaine dans leur best-seller Petit Traité de manipulation à l’usage des honnêtes gens : le pied-dans-la-porte que nous allons détailler ci-dessous, la porte-au-nez, l’amorçage, l’acquiescement répété, l’activation normative, l’indisponibilité présumée, etc. Autant connaître ces techniques d’influence et être en mesure de mieux déjouer les honnêtes manipulations commerciales auxquelles nous sommes confrontés ici ou là, en périodes de soldes ou pas.
Le pied-dans-la-porte revient à obtenir dans un premier temps un comportement très peu coûteux. Dans un second temps, en formulant – pied-dans-la-porte avec demande explicite – ou sans formuler – pied-dans-la-porte avec demande implicite –, la demande qui porte sur le comportement attendu.
On doit aux chercheurs nord-américains en psychologie sociale Jonathan Freedman et Scott Fraser la première illustration expérimentale du pied-dans-la-porte avec demande explicite (formulée). Les sujets répondent au téléphone à quelques questions anodines sur leurs habitudes de consommation. Sollicités quelques jours plus tard, ils reçoivent chez eux une équipe de plusieurs enquêteurs pendant deux heures. En utilisant cette technique en deux temps, les chercheurs obtiennent un taux d’acceptation de 52,8 %. Il n’est que de 22,2 % dans le groupe témoin, c’est-à-dire parmi les personnes n’étant pas préalablement sollicitées pour l’enquête téléphonique.
La première illustration expérimentale du pied-dans-la-porte avec demande implicite – sans requête portant sur le comportement attendu – est menée par le psychologue S. W; Uranowitz. À des passants dans un centre commercial, un expérimentateur demande de surveiller son sac, le temps de chercher un billet d’un dollar qu’il dit avoir perdu. Tous acceptent. Plus tard, un complice fait mine de laisser tomber un petit paquet. 80 % des personnes ayant rendu ce service le préviennent, contre 35 % dans un autre groupe, qui n’avaient reçu aucune sollicitation préalable.
Dans le domaine commercial, le comportement peu coûteux est appelé « acte préparatoire » par les chercheurs. Il consiste le plus souvent à faire un essai, évidemment gratuit, à s’inscrire à une newsletter, à répondre à un petit sondage, à remplir un formulaire, à accepter de prendre une carte de fidélité, une documentation, un échantillon, à goûter un produit, etc.
Sur la base des travaux réalisés par les psychologues sociaux, rapportés dans le Petit Traité de manipulation à l’usage des honnêtes gens, on peut considérer que ce n’est pas parce que nous avons trouvé bon le produit que nous venons de goûter – tous les produits qu’on nous invite à goûter sont évidemment bons –, que nous l’achetons. Ce qui est déterminant, c’est l’acte – en tant que tel – de le goûter, « acte préparatoire » que le démonstrateur a su préalablement obtenir de nous.
Ces techniques d’influence douce, étudiées par les psychologues sociaux Robert-Vincent Joule et Jean-Léon Beauvois depuis plus d’un demi-siècle, relèvent d’un même paradigme de recherche : la soumission librement consentie.
Ces procédures sont étudiées de longue date en marketing, notamment s’agissant des transactions réalisées sur Internet. Les travaux des Français Stéphane Amato et Agnès Helme-Guizon, en 2003 et en 2004, fournissent d’excellentes illustrations. Ces techniques peuvent aussi, on s’en doute, être utilisées à d’autres fins qu’à des fins commerciales. Elles peuvent être mises et, fort heureusement, sont mises aussi au service de la promotion de comportements pro-sociaux, pro-environnementaux, éducatifs, sanitaires, etc.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
24.06.2025 à 17:19
Dominique Andolfatto, Professeur de science politique, Université Bourgogne Europe
Après l’échec du « conclave » sur les retraites entre patronat et syndicats, lundi 23 juin, François Bayrou cherche toujours une « voie de passage » pour obtenir un accord. Une partie de la gauche menace désormais le premier ministre de censure. Au-delà de la réforme des retraites, quel bilan tirer de ces quatre mois de négociation sous un format inédit ? Pourquoi cet exercice de « démocratie sociale » a-t-il échoué ?
Le « conclave » sur les retraites (réunissant Medef et CPME, et trois syndicats – CFDT, CFE-CGC et CFTC) a donc échoué. Aucune évolution sur l’âge de départ de la retraite (fixé à 64 ans) n’aura lieu. Également abandonnées, les évolutions a minima escomptées – réduction des inégalités hommes-femmes, assouplissement de la décote (minoration des pensions faute de trimestres cotisés suffisants), prise en compte de la pénibilité.
Faute d’abrogation de la réforme de 2023, une partie de la gauche menace déjà le premier ministre de censure. Mais quels enseignements tirer de cet exercice inédit de démocratie sociale ?
En janvier dernier, François Bayrou rouvrait de façon inattendue l’épineux dossier des retraites. Cette réforme impopulaire avait soulevé beaucoup de colère, les syndicats étant vent debout contre le report de l’âge de départ à la retraite de 62 à 64 ans.
Pour le premier ministre, cette réouverture était d’abord tactique : éviter une nouvelle censure du gouvernement en remettant autour de la table les partenaires sociaux (organisations syndicales et patronales). Les syndicats, comme une majorité des partis politiques, avaient rejeté la réforme de 2023. Décider de la rediscuter, c’était assurer au gouvernement une certaine longévité en obtenant une neutralité relative des acteurs syndicaux et politiques.
Pour le premier ministre, il s’agissait également d’innover en redonnant la parole à la démocratie sociale au moment où les institutions de la démocratie politique, particulièrement l’Assemblée nationale, semblent bloquées. François Bayrou choisit alors une forme originale, celle d’un « conclave » réunissant les partenaires sociaux pour proposer une nouvelle réforme, plus acceptable pour l’opinion et soucieuse d’équilibre financier du système.
En ce sens, le « conclave » est bien un objet nouveau. Il déroge aux cadres habituels des négociations interprofessionnelles qui débouchent – ou pas – sur des « accords » modifiant le droit du travail ou social. Des locaux ministériels accueillent, à partir de la fin du mois de février, les négociateurs et de hauts fonctionnaires mis à disposition pour produire les informations et notes techniques nécessaires aux débats. Un animateur est désigné : Jean-Jacques Marette, personnalité appréciée des syndicats, ancien directeur général de l’Agirc-Arrco, le régime de retraite complémentaire des salariés du privé aux comptes équilibrés.
Si ce nouveau cadre de dialogue séduit certaines organisations, notamment la CFDT ou la CFE-CGC, d’autres se montrent plus réservées ou peu demandeuses, comme le Medef. Ce nouveau cadre pour la démocratie sociale n’est-il pas trop soudain et placé sous la tutelle étroite de l’État et de son administration ? De fait, FO, troisième organisation syndicale, quitte le « conclave » dès son premier jour, déplorant une instrumentalisation. La CGT le quitte un peu plus tard pour des raisons revendicatives.
Mais comment croire que les syndicats renonceraient aux 62 ans (voire aux 60 ans) comme la CGT et certaines formations politiques qui le défendent toujours officiellement ? La CGT part lorsque le premier ministre ferme la porte au retour aux 62 ans.
Par ailleurs, les organisations patronales se montrent hostiles à toute revendication de cotisation nouvelle qui alourdiraient le coût du travail. Le syndicat patronal U2P (artisans et professions libérales) exige même des « mesures drastiques » comme un nouveau recul de l’âge de départ à la retraite.
De nombreuses interférences perturbent également le « conclave ». Celle de la Cour des comptes qui annonce que le déficit des retraites va progressivement se creuser (en milliards d’euros) si aucune nouvelle mesure d’économie n’est prise. Mais aussi celle du COR (Conseil d’orientation des retraites) selon lequel l’équilibre financier dépendra du recul de l’âge de départ à la retraite (son président évoquant même un âge de 66,5 ans).
Tous ces éléments ont rendu cet exercice de démocratie sociale difficile, alors que les partenaires n’y étaient pas forcément préparés.
Rappelons que François Bayrou a confié aux partenaires sociaux un dossier majeur, alors que les gouvernements précédents les avaient largement déresponsabilisés lors de la fabrique de la réforme de 2023 : cycle de négociations « très cadré », absence d’interlocuteur politique lors des discussions, « contenu ficelé » des éléments à discuter, comme a pu en témoigner le négociateur de la CFDT.
Lors du « conclave », syndicats et patronat ont, jusqu’au bout, tenté de faire preuve d’esprit de responsabilité, tentant de reconstruire ensemble de nouveaux pans de la réforme.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Reste que, pour les syndicats, il était difficile de faire une croix sur les revendications de 2023 dont l’abaissement de l’âge légal de départ à la retraite, malgré l’impératif de réduction du déficit. Rappelons que, depuis la loi de 2008 sur la « rénovation de la démocratie sociale », les syndicats sont en perpétuelle concurrence dans les entreprises et les branches d’activités pour la représentativité et les moyens et ressources qui en découlent. Pour une organisation syndicale, « céder » sur l’âge de la retraite en entérinant la réforme de 2023, c’était prendre le risque d’être accusée de trahir les mobilisations de 2023 – avec des conséquences probables lors des prochaines élections professionnelles.
La fabrique des réformes de la protection sociale et l’administration de cette dernière interrogent aussi la raison d’être du « conclave » et expliquent sans doute l’échec final.
En 1945, aux origines du système français de protection sociale (dont celui des retraites), il avait été décidé que celui-ci serait fondé sur la démocratie sociale. Autrement dit, la gestion des caisses de sécurité sociale, à l’origine uniques, était confiée aux représentants syndicaux et patronaux.
Ce mode de gestion – qui vaut toujours pour les retraites complémentaires – a été remis en cause pour le régime général à compter de 1967. Les partenaires sociaux ont été progressivement mis à l’écart pour ne plus tenir qu’un rôle symbolique, l’État et des fonctionnaires spécialisés reprenant l’administration directe du système et fixant ses orientations.
Depuis, ce système a perdu son enracinement social et l’État impose des réformes récurrentes et souvent brutales alors que, dans d’autres pays, l’État fait confiance aux organisations qui procèdent de façon consensuelle.
Le « conclave » de 2025, trop circonstanciel, n’a pas réussi à inverser la tendance, même s’il a permis de mettre clairement – et démocratiquement – sur la table les arguments des diverses parties et éclairé l’opinion sur la complexité de la gestion des retraites.
Dominique Andolfatto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.06.2025 à 17:18
Jean-Christophe Maréchal, Directeur de recherche - Hydrogéologue, BRGM
Jean-Pierre Vergnes, Chercheur, BRGM
Sandra Lanini, Chercheuse, BRGM
Yvan Caballero, Hydrogéologue, BRGM
Alors qu’une large part de la France est placée en vigilance canicule ce mercredi 25 juin, se pose la question de l’influence du changement climatique sur le cycle de l’eau, entre modification du régime des pluies et augmentation de la fréquence des événements extrêmes (sécheresses et inondations). Qu’en est-il des eaux souterraines ? Ces dernières, logées dans les profondeurs du sous-sol, ne sont pas à l’abri de ces changements qui touchent en premier lieu l’atmosphère et la surface de la Terre.
Les eaux superficielles et eaux souterraines sont en lien étroit. Ces dernières interagissent avec la surface, dont elles dépendent largement. Ainsi, les nappes d’eau souterraine sont renouvelées d’une part par la recharge naturelle diffuse apportée par la pluie et la fonte de la neige sur les sols, d’autre part par la recharge naturelle indirecte qu’apportent les infiltrations localisées à partir de rivières ou de lacs.
Quel que soit le processus de recharge naturelle concerné, les eaux souterraines sont donc fortement dépendantes du climat.
D’abord de façon directe, à travers les modifications de ce dernier, en fonction du bilan hydrique à la surface de la Terre.
Mais également de façon indirecte, via les changements dans les prélèvements d’eau souterraine nécessaires pour répondre aux différents usages de l’eau impactés par un climat plus chaud (irrigation notamment).
On distingue ainsi des effets directs qui s’imposent à nous, et des effets indirects qui résultent de notre réaction à cette nouvelle situation climatique. Le projet de recherche Explore2 a récemment analysé les conséquences du changement climatique sur la recharge des aquifères en France métropolitaine et a permis un certain nombre de constats.
Le climat et la couverture végétale contrôlent en grande partie les précipitations et l’évapotranspiration, tandis que le sol et la géologie sous-jacente déterminent si le surplus d’eau peut s’infiltrer vers un aquifère sous-jacent ou s’il va plutôt ruisseler vers une rivière.
Dans le détail, l’évolution future de la recharge dépend au premier chef de la modification de la quantité et du régime des pluies.
Or dans le climat futur, on s’attend à une modification de la répartition des précipitations dans le monde, avec une diminution des précipitations de faible intensité et une augmentation de la fréquence des fortes précipitations, en particulier dans les régions tropicales, où plus de la moitié de la population mondiale devrait vivre d’ici à 2050. Phénomène qui s’accompagnera de sécheresses plus longues et plus fréquentes.
Dans un monde qui se réchauffe, l’évapotranspiration a globalement tendance à augmenter, ce qui réduit la quantité d’eau du sol disponible pour l’infiltration et le ruissellement.
Des précipitations moins fréquentes mais plus abondantes pourraient améliorer la part de la recharge des eaux souterraines dans de nombreux environnements semi-arides à arides. Mais lorsque l’intensité des pluies dépasse la capacité des sols à l’infiltration, on observe une augmentation du ruissellement et des débits des rivières. Ces modifications contrastées des taux de recharge provoquent des changements plus ou moins rapides des niveaux d’eau au sein des nappes phréatiques, selon la vitesse de circulation des eaux souterraines.
Des risques d’inondations par remontée de nappe sont associés aux zones où la recharge augmente tandis que des risques de sécheresse menacent les secteurs où la recharge diminue, avec pour conséquence des modifications importantes des régimes hydrologiques des eaux de surface (rivières, lacs zones humides…). Par exemple, les débits d’étiage des rivières décroissent dans les bassins hydrographiques où le niveau des nappes baisse en réponse à une diminution de la recharge.
Outre les précipitations, la fonte des glaciers et de la neige en montagne contribue souvent aussi de manière importante à la recharge des aquifères montagneux. Son augmentation future sous l’effet du réchauffement est susceptible d’impacter le régime de cette recharge d’une façon qu’il est encore difficile d’analyser.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le recul des glaciers augmente dans un premier temps la production d’eau de fonte, jusqu’à atteindre un maximum, connu sous le nom de « pic d’eau », avant de diminuer au fur et à mesure que les glaciers continuent à reculer. Aujourd’hui, environ la moitié des bassins hydrographiques glaciaires du monde auraient dépassé le pic d’eau. Dès lors, une diminution de la recharge des aquifères de montagne est maintenant attendue dans un nombre croissant de bassins glaciaires.
On parle beaucoup de volumes d’eau et de taux de recharge, mais le changement climatique altère également la qualité de l’eau souterraine. Les épisodes de pluie plus intenses et la recharge qui en découle sont susceptibles de mobiliser par lessivage des contaminants qui étaient précédemment stockés dans les sols.
D’un autre côté, le réchauffement peut conduire à l’augmentation des concentrations en solutés comme les chlorures, nitrates ou l’arsenic dans les sols et les eaux souterraines superficielles, en lien avec une augmentation de l’évapotranspiration, et une diminution de l’infiltration et donc une dilution moindre.
Enfin, l’augmentation de la température de l’eau souterraine, induite par le réchauffement global et localement par les îlots de chaleur urbains, modifie quant à elle la solubilité et la concentration dans l’eau de certains contaminants. Ces impacts sont moins souvent observés, mais bien réels, notamment dans le pourtour méditerranéen.
En outre, l’augmentation du niveau de la mer induit un risque de salinisation des sols et des aquifères côtiers dans le monde. Cette intrusion saline dépend de nombreux facteurs tels que la géologie côtière, la topographie et surtout les niveaux d’eau dans les nappes. Elle peut être particulièrement sévère dans les zones basses telles que les deltas, les îles ou encore les atolls où il existe des lentilles d’eau douce particulièrement sensibles au changement climatique.
Voilà pour les impacts directs. Mais les scientifiques estiment que l’impact du changement climatique sur les eaux souterraines peut être localement plus important au travers d’effets indirects, liés aux effets du changement climatique.
Le changement climatique risque en effet de provoquer une augmentation des prélèvements dans les aquifères par les agriculteurs pour faire face à l’augmentation de l’évapotranspiration liée au réchauffement et à la variabilité et diminution de l’humidité dans les sols ou de l’eau disponible en surface.
L’augmentation des pompages, pour l’irrigation notamment, induit une baisse chronique des niveaux d’eau qui menace la gestion durable des nappes, les écoulements d’eau vers les hydrosystèmes voisins ou les écosystèmes de surface dépendant des eaux souterraines (zones humides).
Cette pression accrue est susceptible de modifier considérablement le cycle de l’eau, avec de forts contrastes entre :
l’épuisement des eaux souterraines dans les régions où l’irrigation est principalement alimentée par des eaux souterraines ;
la montée du niveau des nappes résultant de la recharge par les flux d’excédent d’irrigation alimentée par les eaux de surface et pouvant conduire à un engorgement et à une salinisation des sols ;
et les modifications des climats locaux résultant de l’évapotranspiration accrue des terres irriguées.
L’incidence du changement climatique sur le taux de recharge des nappes aquifères en France métropolitaine a été récemment analysé par la communauté scientifique dans le cadre du projet Explore2.
Grâce à la mise en cascade de modèles climatiques avec des modèles hydrologiques, les chercheurs ont simulé les modifications du taux de recharge potentielle des nappes, selon deux scénarios d’évolution des émissions de gaz à effet de serre dans l’atmosphère (émissions moyennes ou fortes).
La recharge potentielle est définie comme la part des précipitations efficaces susceptible de s’infiltrer depuis la surface et de recharger les aquifères sous-jacents, dans la mesure où ils possèdent les caractéristiques hydrodynamiques favorables. Elle est qualifiée de potentielle car son arrivée dans les aquifères ne peut être connue a priori et une partie de ce flux peut revenir vers les cours d’eau, en aval de sa zone d’infiltration.
D’après ces travaux, la recharge potentielle annuelle pourrait augmenter dès le milieu du siècle entre + 10 % et + 30 % dans le nord et le nord-est de la France. Il resterait globalement stable sur le reste du pays – et ce pour les deux scénarios étudiés.
De plus, le cumul de recharge pendant l’hiver augmenterait pour presque toute la France, hormis une bande sud et une partie de la Bretagne. Dans un scénario de fortes émissions, la recharge potentielle annuelle baisserait sur le sud-ouest, le sud-est et la Corse en fin de siècle, de -10 à -30 %.
La période à laquelle la recharge potentielle est à son maximum serait par ailleurs avancée d’un mois du printemps vers l’hiver sur les chaînes alpines et pyrénéennes. En raison de la hausse des températures, les précipitations tomberaient en effet davantage sous forme de pluie, qui s’infiltre rapidement, et moins sous forme de neige, qui stocke l’eau jusqu’à la période de fonte.
Dans le cas du scénario de fortes émissions, le maximum de recharge de l’automne serait décalé d’un mois vers l’hiver sur le pourtour méditerranéen. Pour le reste du pays, aucune modification notable n’a été observée dans les projections étudiées.
Ces résultats semblent à première vue rassurants, du moins dans le nord du pays. Ils ne prennent toutefois en compte que les impacts directs du changement climatique sur la recharge, liés à l’infiltration potentielle des précipitations.
Or, pour un grand nombre d’aquifères, l’infiltration de l’eau des cours d’eau constitue une part importante de la recharge. L’évolution future des débits des cours d’eau, qui à l’échelle annuelle, devraient diminuer dans la moitié sud du territoire hexagonal français, doit donc également être prise en compte.
De plus, les impacts indirects doivent également être intégrés à l’analyse pour élaborer les politiques publiques futures visant à assurer une gestion durable des nappes aquifères à l’échelle de notre pays : comme une éventuelle hausse de prélèvements pour faire face à l’augmentation de l’évapotranspiration et les modifications dans l’occupation des sols pour s’adapter au climat changeant.
Cet article s’inspire largement du rapport des Nations unies « Eaux souterraines : rendre l’invisible visible » et du rapport du projet Explore2 « Projections hydrologiques : recharge potentielle des aquifères ».
Jean-Christophe Maréchal a reçu des financements de ANR et AERMC
Jean-Pierre Vergnes a reçu des financements de l'ANR et du ministère de la transition écologique.
Sandra Lanini et Yvan Caballero ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.