03.07.2025 à 12:38
Morgane Dujmovic, Chargée de recherche CNRS, Géographe et politiste spécialiste des frontières et migrations, Centre national de la recherche scientifique (CNRS)
Cet article est le troisième d’une série en quatre volets consacrée à un travail de recherche mené à bord de l’Ocean Viking, navire de sauvetage de l’ONG SOS Méditerranée. Morgane Dujmovic, géographe et politiste, a recueilli les récits de 110 personnes secourues en Méditerranée centrale pour mieux comprendre leur parcours. Dans cet article, elle revient sur leur parcours en mer. Le dernier épisode est ici.
Les dangers de la Libye ne sont généralement découverts que lorsque les personnes en migration y entrent avec l’espoir de trouver une vie décente et du travail.
« Mon tout premier jour à Tripoli, j’ai su que j’avais pris la pire décision de ma vie. En Libye, ce n’est pas facile de rentrer, mais c’est moins facile encore de sortir ! »,
explique Koné, lors de notre rencontre à Ancône (Italie, côte adriatique).
En effet, rares sont les personnes qui parviennent à transiter moins d’un mois en Libye. La plupart de celles et ceux que nous avons rencontrés sur l’Ocean Viking (OV) (57,9 %) y ont totalisé entre un et six mois. Certaines s’y sont retrouvées piégées plus de deux ans – jusqu’à sept années cumulées, pour un participant soudanais.
Dans le panorama statistique offert par l’enquête, on voit se dessiner des routes et des configurations migratoires différentes, les longs séjours subis en Libye concernant surtout les personnes des pays les plus pauvres et déchirés par des guerres.
On voit surtout que les femmes sont bloquées plus durablement en Libye : celles que nous avons rencontrées y ont passé en moyenne quinze mois et demi, contre huit mois et demi pour les hommes. On peut y voir l’effet des mécanismes de contrainte et de violence qui s’appliquent spécifiquement aux femmes en migration en Méditerranée, comme l’a parfaitement décrit la géographe Camille Schmoll dans son ouvrage les Damnées de la mer (2022).
Dans les conditions de survie qui ont été rapportées, la décision de prendre la mer malgré les risques de la traversée peut se résumer ainsi : préférer le risque de mourir maintenant plutôt que la certitude de perdre la vie à petit feu.
Sur sa carte, Mohamad a bien montré ce glissement. On y voit les violences cumulatives qu’il a rencontrées sur son parcours de l’est à l’ouest de la côte libyenne : la captivité à Tobruk chez un « marchand d’humains », l’enfermement et le vol à Benghazi, le racisme et la xénophobie à Ajdabiya, les mauvais traitements à Zouara, d’où il a finalement réussi à fuir par la mer.
Son illustration montre, de droite à gauche, l’enchaînement de faits qui l’a conduit de l’enfermement au bateau.
Pour parvenir à prendre la mer, il faut toutefois réunir une somme d’argent considérable. Les personnes participantes mentionnent des emprunts à leur famille de 2 000, 6 000, voire 10 000 dollars, pour s’acheter une place sur un bateau. Celle-ci est parfois obtenue à la suite de travaux forcés depuis les prisons plus ou moins officielles, ou contre la promesse d’être celui qui conduira le bateau.
Lorsque les tentatives se heurtent à des interceptions suivies de refoulements vers la Libye, il faut rajouter à la somme initiale :
« Ils m’ont escroqué d’abord 2 000 dollars, puis 3 000 et, la troisième fois, j’ai payé 5 000 dollars. »
Des personnes participantes à l’étude ont également décrit leurs conditions de vie dans la game house (les bâtiments collectifs où les personnes ayant payé leur traversée attendent le signal du départ). Ces séjours durent de plusieurs jours à plusieurs semaines, avec des approvisionnements et modalités variables selon les circuits et les montants payés pour arriver là. Mais toutes témoignent d’une même découverte à leur première tentative de traversée : celle de la nature des embarcations, impropres à la navigation et surchargées. Comme l’a expliqué Koné, à ce stade, il est généralement trop tard pour faire demi-tour :
« On a démarré d’une plage à côté de Tripoli, à 4 heures du matin, on nous a fait courir sur l’eau : “Go, go !” C’était trop tard pour changer d’avis. »
Le départ depuis les plages libyennes se fait souvent de nuit, et ce n’est qu’au matin qu’on découvre l’immensité de la mer. L’enquête par questionnaire a justement permis d’étudier les perceptions des personnes placées sur ces embarcations en détresse au cours des scènes de sauvetage. Le premier résultat qui interpelle est leur perte de repères au moment où elles sont secourues.
L’un des participants a ainsi mentionné « la simple joie d’avoir trouvé quelque chose dans l’eau », en se remémorant sa première impression à la vue de l’Ocean Viking à l’horizon. D’autres participants ont décrit à quel point leurs perceptions étaient troublées par les conditions de navigation ou par la nature même des embarcations, comme cette personne bangladaise qui avait pris la mer dans la cale d’un bateau en bois :
« J’étais à l’intérieur du bateau en bois, je ne pouvais rien voir ou entendre. Je ne croyais pas que c’était un sauvetage jusqu’à ce que je sorte et voie avec mes propres yeux. »
Charlie, le SAR Team Leader qui a coordonné ce sauvetage, se souvient de sa propre stupéfaction à la découverte des 68 personnes à bord, sur une embarcation prévue pour 20 :
« À mesure qu’on les transférait sur nos RHIB (bateaux semi-rigides), d’autres sortaient de dessous le pont, cachés. »
En m’appuyant sur le questionnaire, les ateliers cartographiques et des entretiens ciblés, j’ai tenté de reconstituer l’espace-temps de ce sauvetage avec les personnes secourues et des membres de l’équipage.
Jérôme, le coordinateur adjoint de la recherche des secours à bord (ou Deputy SARCo) de l’OV, a confirmé le cas d’une embarcation « extrêmement surchargée », comme l’indique le rapport final de sauvetage :
« Là, ils étaient chargés ! L’alerte nous annonçait 55 personnes à bord, et nous on en a trouvé 68, parce qu’il y a ceux qui étaient sous le pont, cachés ! »
Dans le poste de commande de l’OV, écran de veille à l’appui, nous avons retracé les positions du bateau au fil de sa recherche. Ce matin-là, l’alerte avait été donnée par Alarm Phone, une ligne téléphonique citoyenne qui opère en continu depuis les deux rives de la Méditerranée, notamment pour relayer et suivre les cas de détresse.
« On a reçu une position à 6 h 19. On a tenté d’appeler Tripoli plusieurs fois, ça ne répondait pas. On a dit : “On y va quand même, on est très inquiets.” On a lancé le mail officiel disant qu’on y allait. »
Une fois ces démarches accomplies auprès des centres de coordination et de sauvetage en mer, l’OV s’est dirigé vers la position donnée, dans les eaux internationales au large de la ville libyenne de Zouara.
Peu de temps après, nos radios réglées sur le canal de veille ont grésillé :
« On réveille tout le monde en général quand on arrive dans les dix milles, c’est la distance avec laquelle on peut les trouver avec les jumelles. Et à 6 heures, il commence à y avoir les premières lueurs de l’aube. »
La recherche de l’embarcation en détresse s’est toutefois compliquée :
« Avec les premières données, le point de départ et la deuxième position, on avait une indication sur la vitesse : on pensait qu’ils faisaient 5 nœuds. Donc on s’est dit qu’on allait les trouver à cette position. Sauf qu’une fois arrivés, on a commencé à s’arracher les yeux : ils n’étaient pas à la position ! »
Les calculs opérés dans cette phase de recherche doivent en effet intégrer des facteurs multiples, parmi lesquels les différentes positions reçues (quand il y en a), mais aussi la présence ou l’absence d’un moteur fonctionnel et, enfin, les conditions météorologiques et maritimes, comme l’a expliqué Jérôme :
« Ce que je pense, c’est qu’ils ont dû se perdre et se dérouter : en ayant la mer, le vent dans la figure, tu ne sais pas où tu vas. Je pense qu’ils ne voyaient rien de ce qu’ils faisaient. Ils étaient en train de lutter avec tout ça. »
Confirmant les hypothèses de Jérôme, beaucoup des personnes secourues ce jour-là sont arrivées sur le pont de l’OV en souffrant de déshydratation et de mal de mer :
« Comme on l’a vu sur les photos, ils avaient vraiment beaucoup de houle et de vent qui leur arrivait dans la figure. Plus tu vas vers le large, plus tu subis la mer. »
Devant les zooms et dézooms opérés par Jérôme à l’écran, je comprends en images les implications d’un cas de détresse en mer au large de la Libye :
« En plus, là, le vent suffisait à les faire dériver : ils retournaient droit vers Tripoli ! »
Malgré les difficultés décrites pour ce sauvetage, il correspond à une opération « à faible risque ». Des événements plus critiques sont régulièrement rapportés par les équipages et par les personnes secourues.
Au fil du temps, les équipes de sauvetage ont notamment vu la qualité des embarcations se dégrader, comme l’explique Jérôme :
« Il y a eu les “wooden boats” (bateaux en bois), puis les “rubber boats” (bateaux pneumatiques). Maintenant, les pires c’est les “iron boats” (bateaux en métal). »
En 2023, des embarcations en métal soudées à la hâte ont commencé à faire leur apparition au large de la Tunisie. Pour les marins aguerris qui forment les équipes de sauvetage, comme Charlie, l’existence même de telles embarcations en pleine mer est difficilement concevable :
« Ces bateaux ne devraient même pas exister. Ils ont des structures extrêmement faibles. Ils sont faits à la main, mal et vite faits ; ce sont juste des plaques en métal, soudées. Ils n’ont pas de stabilité. Ce sont comme des cercueils flottants. »
Pour ces professionnels de la mer, l’inquiétude est réelle : « Il faut que nous soyons préparés à ça. » D’une part, les bords acérés des bateaux en métal peuvent abîmer les bateaux semi-rigides (RHIB) de l’ONG, avec le risque de compromettre l’ensemble de l’opération de sauvetage – comme cela s’est produit en septembre 2023, à l’issue d’une patrouille sur la route tunisienne. Les RHIB avaient alors été protégés « avec les moyens du bord », à l’aide des tapis trouvés sur le navire alors qu’il était en opération en mer.
D’autre part, chaque nouveau type d’embarcation implique des techniques très spécifiques. L’approche et le positionnement des bateaux semi-rigides autour de l’embarcation en détresse (ou « danse des RHIB »), les modes de communication propices au maintien du calme, les soins d’urgence durant le transfert vers le bateau-mère : tout cela est étudié avec minutie afin d’anticiper un maximum de scénarios.
Dans la salle de repos de l’équipage, face à la maquette construite par les anciens de SOS Méditerranée pour s’entraîner aux simulations, Charlie m’a longuement expliqué les techniques développées pour approcher chaque type d’embarcation en détresse, selon qu’elles sont en fibres de verre, en bois, en pneumatique ou en métal.
Dans le dernier cas, celui d’un bateau en métal, Charlie a insisté sur les implications critiques d’un sauvetage qui tournerait mal :
« Les bateaux en métal peuvent chavirer à tout moment et couler rapidement, à pic. Dans ce cas, la scène ressemblerait à ça : un massive MOB ! »,
c’est-à-dire un « Man Over Board » (« homme à la mer ») de grande ampleur, impliquant le passage par-dessus bord d’un nombre important de personnes. C’est ce que sont venus illustrer les petits objets bleus dispersés sur sa maquette.
Une autre donnée a rendu les activités de sauvetage de plus en plus ingérables au fil du temps : les activités des milices et « garde-côtes libyens » dans la SRR (Search and Rescue Region) libyenne, c’est-à-dire la région libyenne de recherche et sauvetage en mer créée en 2018 avec le support de l’Union européenne.
Deux autorités y sont chargées de la surveillance côtière : la garde côtière libyenne (LCG) dépendant du ministère de la défense, et l’administration générale de la sécurité côtière (GACS), rattachée au ministère de l’intérieur.
Les multiples agissements illégaux et violents rapportés au sujet des acteurs libyens en mer ont justifié l’emploi de plus en plus courant de guillemets pour les désigner, ou de l’expression « so-called Libyan Coast Guard ». Pourtant, ces groupes reçoivent un soutien abondant de l’Union européenne et de plusieurs de ses États membres.
À bord de l’OV, les témoignages ne tarissent pas sur les manœuvres périlleuses des « garde-côtes libyens » visant explicitement à faire échouer les sauvetages, comme l’a soulevé Charlie :
« Je les ai vus faire des manœuvres folles, essayer de rendre le sauvetage aussi dur que possible, en nous empêchant de secourir, en criant, en hurlant. »
Plusieurs microscènes de ce type ont été reconstituées :
« Ils conduisent le plus près et le plus rapidement possible pour créer des vagues. Ils se mettent sur notre route, interfèrent, près du bateau-mère. »
Quand les acteurs libyens sont sur scène, l’explosion d’émotions liées à l’arrivée des secours peut se transformer en scène de panique et affecter les chances de réussite du sauvetage.
Ce sont 31,4 % des personnes participantes à l’étude qui ont ainsi exprimé une perception négative à la vue d’un navire à l’horizon, associée à la peur d’être interceptées et refoulées par les acteurs libyens en mer :
« Au loin, nous ne savions pas si c’était un bateau de sauvetage ou les garde-côtes libyens. C’était un stress énorme à bord, les gens criaient et les enfants pleuraient. Nous étions prêts à sauter. »
En effet, la présence des autorités libyennes est souvent perçue comme un danger plus grand que le risque de noyade, comme l’a résumé l’un des participants :
« Pour moi, le danger ce n’est pas la mer, ce sont les autorités libyennes. »
Ce positionnement s’explique aisément pour les personnes qui ont déjà expérimenté une ou plusieurs interceptions. Certaines des personnes participantes à l’étude ont mentionné des violences exercées au cours de leur refoulement vers la Libye, telles que des coups, des menaces armées, des vols d’argent, des privations d’eau et de nourriture, voire des actes mortels :
« La première fois que j’ai pris la mer, les Libyens ont tiré sur le moteur, le carburant a brûlé et explosé et les gens près de moi sont morts. »
En outre, la proximité des « garde-côtes libyens » avec des milices ou réseaux mafieux est notoire. L’un des répondants à l’étude a décrit en ces termes l’administration générale de la sécurité côtière (GACS) :
« Il y a toujours un risque que le GACS, un groupe armé avec des masques, vous mette en prison. »
Les interceptions sont généralement suivies de périodes de détention arbitraire en Libye, dans les conditions inhumaines détaillées précédemment (voir la partie 2 de cette série) :
« J’ai essayé de traverser quatre fois mais j’ai été attrapée et mise en prison avec mon enfant ; j’ai beaucoup souffert. »
Ces faits rapportés par les équipages et personnes secourues sont largement étayés par les organisations internationales, humanitaires ou les collectifs associatifs qui suivent la situation en Méditerranée centrale. Dans son rapport de mission d’enquête de 2021, le Conseil des droits de l’homme des Nations unies laisse peu de doutes quant à la chaîne de causalité qui relie les interceptions en mer et la traite des personnes migrantes en Libye :
« Les garde-côtes libyens procèdent […] à l’interception de l’embarcation dans des conditions violentes ou périlleuses, qui se soldent parfois par des morts. […] Les garde-côtes libyens confisquent les effets personnels des migrants à bord. Une fois débarqués, les migrants sont soit transférés dans des centres de détention, soit portés disparus, et il semblerait que certains soient vendus à des trafiquants. […] Depuis que des bateaux sont refoulés en Méditerranée, les autorités libyennes ont été averties du caractère généralisé et systématique des interceptions périlleuses effectuées en mer et des violences commises dans les centres de détention. Plutôt que d’enquêter sur ces cas et de remédier à ces pratiques, les autorités libyennes ont continué à intercepter les migrants et à les placer en détention. »
En croisant ces scènes de sauvetage maritime avec le vaste système d’exploitation organisé depuis les lieux de détention en Libye, on comprend que l’interception en mer par les « garde-côtes libyens » relève d’une stratégie de capture, et que la Méditerranée centrale est devenue le lieu d’un corps à corps pour la sauvegarde de la vie et de la dignité humaine.
Morgane Dujmovic ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.07.2025 à 12:38
Morgane Dujmovic, Chargée de recherche CNRS, Géographe et politiste spécialiste des frontières et migrations, Centre national de la recherche scientifique (CNRS)
Cet article est le deuxième d’une série en quatre volets consacrée à un travail de recherche mené à bord de l’Ocean Viking, navire de sauvetage de l’ONG SOS Méditerranée. Morgane Dujmovic, géographe et politiste, a recueilli les récits de 110 personnes secourues en Méditerranée centrale pour mieux comprendre leur parcours. Ce deuxième épisode restitue les périls rencontrés avant de prendre la mer. L’épisode 3 est ici.
Vingt-et-une esquisses individuelles ont été fabriquées sur l’Ocean Viking (OV) au cours de ces recherches. Elles racontent des fragments de voyages, trajectoires plus ou moins fluides ou heurtées depuis le Bangladesh, le Pakistan, la Syrie, la Palestine et l’Égypte. Les parcours sont parfois très onéreux, mais rapides et organisés, comme ceux de certaines personnes bangladaises de Dacca à Zouara (Libye), en passant par Dubaï, en seulement quelques jours. D’autres s’étendent et se tissent sur plusieurs années, s’adaptant aux rencontres, aux ressources, aux dangers, et aux multiples guerres et violences dans les pays traversés.
Parmi 69 personnes ayant participé à l’étude, 37,6 % avaient quitté leur pays d’origine la même année, mais 21,7 % voyageaient depuis plus de cinq ans – et 11,5 %, depuis plus de dix ans. Les parcours les plus longs débutent dans des pays aussi divers que le Nigeria, le Soudan, l’Érythrée et l’Éthiopie. Dans 60 % des cas étudiés, ils commencent en Syrie.
2011, 2012, 2013, 2014, 2015… L’étalement régulier des dates de départ recueillies à travers l’enquête met en évidence la perpétuation des conflits qui suscitent les raisons de migrer :
« J’ai fui l’armée de Syrie. J’ai vécu trois années de prison et de torture, vu des scènes terribles. J’avais 18 ans, je n’avais pas l’âge de vivre ou voir de telles choses. »
Les motivations à poursuivre ces longs voyages sont souvent faites d’ambitions personnelles « pour une vie meilleure », comme le fait de « pouvoir étudier » ou « d’aider la famille » restée au pays, comme l’a expliqué un jeune Égyptien :
« Je suis le seul garçon de ma famille. Mes parents sont âgés et ils sont inquiets que je n’y arrive pas. »
L’étude auprès des personnes secourues a aussi permis de dresser un panorama des soutiens reçus et des dangers rencontrés en cours de route. Au même niveau que les ressources financières issues d’économies personnelles ou de sommes prêtées le plus souvent par la famille, près de 60 % des personnes répondantes ont mentionné l’importance de ressources immatérielles, telles que « les conseils d’amis », « le soutien psychologique du mari », « des informations et un soutien émotionnel d’une nièce ».
Les informations reçues de proches paraissent cruciales à certaines étapes du voyage : comme l’a expliqué l’un des répondants, elles relèvent d’une forme de soutien moral pour « survivre en Libye ». À l’inverse, une autre personne participante a confié qu’il lui avait été essentiel, « pour tenir bon », de cacher à sa famille les réalités de son quotidien libyen. Car c’est bien là que sont rencontrées la plupart des difficultés : sur les 136 situations de danger décrites dans l’étude, 50 % sont localisées en Libye – contre 35,3 % en mer, 8,8 % dans le pays d’origine et 5,9 % à d’autres frontières, le long des parcours migratoires.
Il est précisé que ces réponses ne reflètent pas une image exhaustive de l’ensemble des dangers en migration : elles traduisent les perceptions d’un échantillon limité de personnes secourues au large de la Libye et sont à restituer dans le contexte d’une collecte de données réalisée en pleine mer.
Les atrocités qui ciblent les personnes en migration en Libye sont désormais bien documentées. Elles apparaissent dans une multitude de documents – des rapports d’ONG (SOS Humanity, 2024), documentaires vidéos (Creta 2021) et témoignages directs de personnes concernées par les faits (Kaba 2019).
Les résultats d’une mission d’enquête indépendante du Conseil des droits de l’homme des Nations unies, publiés en 2021, ont permis de qualifier ces réalités de crimes contre l’humanité :
« Il existe des motifs raisonnables de croire que les actes de meurtre, de réduction en esclavage, de torture, d’emprisonnement, de viol, de persécution et autres actes inhumains commis contre les migrants font partie d’une attaque systématique et généralisée dirigée contre cette population, en application d’une politique d’État. En tant que tels, ces actes peuvent constituer des crimes contre l’humanité. »
Avec l’étude réalisée à bord de l’OV, les personnes participantes ont pu définir, avec leurs propres mots, la nature des dangers qu’elles y ont vécus. Leurs réponses ont ensuite été codées et regroupées en catégories permettant d’établir une typologie spatialisée issue de ces récits. Les citations associées aux données traduisent des expériences subjectives, incarnées, retravaillées par les émotions, mais assez convergentes et nombreuses pour reconstituer ce qu’il se joue en Libye.
Les mécanismes de violences rapportés sont systémiques : enfermements punitifs assortis de torture, traitements inhumains et dégradants, violences raciales et sexuelles dont on est victime et/ou témoin.
« Durant la première période que j’ai passée en Libye, j’ai été emprisonné six fois, torturé, frappé. Je ne peux même pas me rappeler des détails exacts. »
Ces violences impliquent des acteurs plus ou moins institutionnalisés : garde-côtes, gardiens de prison, mafias, milices et patrons, dont les rôles tendent à se chevaucher. Elles se produisent sur l’ensemble du territoire : Benghazi, Misrata, Sabratha, Syrte, Tripoli, Zaouïa, Zouara, pour les villes les plus citées dans l’enquête, mais aussi dans le désert et dans des lieux de détention de localisation inconnue.
Omniprésente, la perspective d’enfermements violents et arbitraires génère une présomption de racisme généralisé envers les étrangers :
« Le racisme que j’ai vécu en tant qu’Égyptien est juste inimaginable : kidnapping, vol, emprisonnement. »
Les personnes noires se sentent particulièrement visées par les attaques ciblées. Parmi celles qui en ont témoigné, un Éthiopien resté bloqué quatre années en Libye a décrit un sentiment de terreur permanent, lié aux multiples arrestations racistes dont il a été victime :
« Les gens se font kidnapper en Libye. Ils nous attrapent et nous mettent en prison car nous n’avons pas de papiers, puis nous devons payer plus de 1 000 dollars pour être relâchés. Cela m’est arrivé quatre fois, pendant deux semaines, puis un mois, puis deux mois et finalement pendant un an. Tout cela à cause de ma couleur, parce que je suis noir. Cela a duré si longtemps que mon esprit est trop stressé, à cause de la peur. »
Ce que confirme le rapport du Conseil des droits de l’homme de l’ONU :
« Il s’avère aussi que les migrants venant d’Afrique subsaharienne, qui représentent la majeure partie des détenus, sont traités plus durement que les autres, ce qui laisse penser qu’ils font l’objet d’un traitement discriminatoire. »
Cependant, les risques de kidnapping et rançonnage semblent n’épargner aucune personne exilée sur le sol libyen. Koné, par exemple, les a assimilés à une pratique généralisée et systémique :
« Il y a un business que font pas mal de Libyens : on te fait monter dans un taxi, qui te vend à ceux qui te mettent en prison. Puis on demande une rançon à ta famille pour te faire sortir. Si la rançon n’est pas payée, on te fait travailler gratuitement. Finalement, en Libye, tu es comme une marchandise, on te laisse rentrer pour faire le travail. »
Plusieurs personnes participantes à l’étude ont été prises dans ces mailles et leurs analyses a posteriori convergent sur un point : l’expérience libyenne s’apparente en fait à un vaste système d’exploitation par le travail forcé. Les faits rapportés correspondent, selon les définitions de l’Organisation internationale du travail (OIT), à la pratique de « traite des personnes » ou « esclavage moderne » et sont encore confirmés dans le rapport onusien :
« Bien que la détention des migrants soit fondée dans le droit interne libyen, les migrants sont détenus pour des durées indéterminées sans moyen de faire contrôler la légalité de leur détention, et la seule façon pour eux de s’échapper est de verser de fortes sommes d’argent aux gardiens, ou de se livrer à un travail forcé ou d’accorder des faveurs sexuelles à l’intérieur ou à l’extérieur du centre de détention pour le compte de particuliers. »
En définitive, à propos de la détention en Libye, c’est le sentiment de honte que Koné se remémore le plus péniblement :
« J’ai pitié de moi, de mon histoire, mais encore plus des gens qui sont allés en prison. Si ta famille n’a pas de quoi payer la rançon, elle doit faire des dettes, donc c’est un problème que tu mets sur ta famille. Il y en a qui sont devenus fous à cause de ça. »
Si les bilans des périodes passées en Libye sont toujours amers, souvent effroyables, et parfois indicibles, l’étude a mis en évidence une volonté assez forte de témoigner de ce qu’il s’y passe, non seulement auprès du grand public, mais aussi pour celles et ceux qui pourraient entreprendre le même parcours :
« Je voudrais dire qu’en Libye, il y a beaucoup de femmes comme moi qui sont dans une situation très difficile » ; « Je n’ai pas grand-chose à dire, si ce n’est que tellement de gens souffrent encore plus que moi en Libye » ; « Je ne conseille à personne de venir par cette route ».
Pour accompagner ces récits, les ateliers cartographiques à bord de l’OV fonctionnaient comme une proposition, une occasion de se raconter sans avoir à poser des mots sur les expériences traumatiques. Conçu comme un mode d’expression, le processus cartographique reposait sur des exercices de spatialisation en plusieurs étapes.
Dans un premier temps, les mappings collectifs organisés sur le pont de l’OV ont permis de faire émerger les principaux thèmes que les personnes participantes elles-mêmes souhaitaient aborder, en fonction de trois séquences – « Notre passé », « Notre présent » et « Le futur que nous imaginons ».
Mon rôle consistait ici à instaurer un cadre d’expression idoine, aiguiller vers des techniques graphiques accessibles et permettre le partage des créations via l’affichage progressif sur le pont.
Des ateliers ont également été proposés par petits groupes ou de façon individualisée dans les containers, espaces plus propices à la confidentialité des récits intimes.
L’une des consignes suggérées consistait à représenter les zones de danger ressenties sur l’ensemble du parcours migratoire – d’où la Libye ressortait immanquablement. C’est à partir de ces cheminements personnels qu’un second exercice a pu être amené, pour celles et ceux qui le souhaitaient : décrire l’expérience du danger à l’échelle libyenne, en s’appuyant sur les lieux déjà évoqués.
Les personnes participantes étaient ensuite encouragées à compléter leurs esquisses par des illustrations personnelles et des légendes narratives dans leurs langues d’origine, traduites a posteriori en français.
Sur sa carte, Ahmed, originaire de Syrie, dépeint « l’insécurité » à Tripoli, « les mauvais traitements et le prélèvement d’argent de force » à Benghazi, « le non-respect des droits » à Zouara.
Son illustration représente une scène de criminalité ordinaire et généralisée : « le Libyen » qui tire sur « les étrangers » évoque la violence collective qu’Ahmed spatialise dans « toute la Libye ».
Cette méthode cartographique sensible et participative a servi de langage pour livrer des récits difficiles à mettre en mots. Par-delà ce que ces gestes dessinés peuvent faciliter pour les personnes qui partagent leur histoire, ils permettent à celles et ceux qui découvrent ces violences de les recueillir, de les recevoir et de les restituer, en les replaçant dans l’écheveau complexe des repères spatio-temporels.
Morgane Dujmovic ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.07.2025 à 12:37
Morgane Dujmovic, Chargée de recherche CNRS, Géographe et politiste spécialiste des frontières et migrations, Centre national de la recherche scientifique (CNRS)
Cet article est le premier d’une série en quatre volets consacrée à un travail de recherche mené à bord de l’Ocean Viking, navire de sauvetage de l’ONG SOS Méditerranée. Morgane Dujmovic, géographe et politiste, a recueilli les récits de 110 personnes secourues en Méditerranée centrale pour mieux comprendre leur parcours. Ce premier épisode revient sur la méthodologie employée. L’épisode 2 est ici.
« Nous étions prêts à sauter. Nous avions tellement peur que les Libyens arrivent ! »
Je lis ces mots d’un jeune homme syrien dans le tableau de données. Ils sont issus de l’étude que j’ai coordonnée, de l’été 2023 à l’été 2024, à bord de l’Ocean Viking, le navire civil de recherche et sauvetage en mer de SOS Méditerranée. Ces mots ne sont pas isolés. Parmi les 110 personnes rescapées qui se sont exprimées via l’enquête par questionnaire déployée à bord, près d’un tiers ont décrit une peur semblable à la vue d’un navire à l’horizon : non pas la peur du naufrage imminent ou de la noyade, mais celle d’être interceptées par les forces libyennes et renvoyées en Libye.
Ces mots résonnent avec ceux de Shakir, un Bangladais que j’ai connu sur l’OV (surnom donné à l’Ocean Viking) :
« Tes ateliers nous ont rafraîchi l’esprit. Depuis la Libye et la mer, nous nous sentions perdus. Maintenant, nous comprenons le chemin parcouru. »
Sur le pont de l’OV et dans les containers servant d’abri jusqu’au débarquement en Italie, j’ai proposé des ateliers participatifs de cartographie sensible. Une soixantaine de personnes s’en sont emparées, en retraçant les étapes, les lieux et les temporalités de leurs voyages par des cartes dessinées. Si je développe des méthodes de recherche créatives et collaboratives pour encourager l’expression des savoirs qui se construisent en migration, je n’avais pas anticipé que ces gestes et tracés puissent aussi contribuer à « rafraîchir l’esprit », se réapproprier des repères ou valoriser « le chemin parcouru ».
Ces mots résonnent aussi avec ceux de Koné, un Ivoirien rencontré à Ancône (Italie), une semaine après avoir été débarqué par une autre ONG de sauvetage :
« Le pire n’est pas la mer, crois-moi, c’est le désert ! Quand tu pars sur l’eau, c’est la nuit et tu ne vois pas autour : c’est seulement quand le jour se lève que tu vois les vagues. Dans le désert, on te met à cinquante sur un pick-up prévu pour dix : si tu tombes, tu restes là. Dans l’eau, tu meurs d’un coup, alors que, dans le désert, tu meurs à petit feu. »
Tous ces mots m’ont amenée à reformuler mes hypothèses sur les frontières et leurs dangers. Pourquoi prendre le risque de la traversée en mer, à l’issue incertaine ? Que perçoit-on du sauvetage, depuis une embarcation en détresse ? Comment vit-on les journées à bord d’un navire d’ONG ? Que projette-t-on dans l’arrivée en Europe, et après ? Si les sauvetages et naufrages font assez souvent la une des médias, les perceptions des personnes rescapées sont rarement étudiées ; elles nous parviennent le plus souvent à travers le filtre des autorités, journalistes ou ONG. Recueillir ces vécus, permettre aux personnes exilées de se raconter : c’était là l’objet de ma mission de recherche embarquée.
À bord de l’OV, j’occupe le « 25e siège », habituellement réservé à des personnalités. Ma présence a quelque chose d’inédit : c’est la première mission SAR (Search and Rescue) qui accueille une chercheuse extérieure à une ONG. Pour le Département des opés de SOS Méditerranée, c’est l’occasion d’amener à bord une méthodologie de sciences sociales, nourrie par un regard distancié, pour tenter d’améliorer la réponse opérationnelle à partir des priorités exprimées par les personnes secourues.
Côté navire, plusieurs membres de l’équipage expriment leur soutien pour ce travail, destiné à enrichir leurs pratiques, comme la compréhension de parcours d’exil auxquels ils sont confrontés depuis des années. C’est le cas de Charlie, l’un des anciens de l’ONG, impliqué depuis une dizaine d’années dans le perfectionnement des techniques d’approche et de secours des embarcations en détresse. En tant que SAR Team Leader, il coordonne les équipes des RHIBs (Rigid-Hulled Inflatable Boats), les bateaux semi-rigides d’intervention mis à l’eau depuis l’OV pour réaliser les sauvetages :
« Ce travail est vraiment utile, car nous cherchons constamment à nous améliorer. Mais la chose dont je suis vraiment curieux, c’est ce qu’il se passe avant. Je parle avec eux parfois, mais je voudrais en savoir plus sur eux. »
Quant à moi, si je travaille depuis quinze ans avec des personnes exilées, c’est la première fois que j’écris sur les frontières en étant moi-même dans la frontière – un sentiment d’immersion amplifié par l’horizon de la mer et par le quotidien confiné à bord de l’OV.
L’étude est déployée au fil de cinq rotations, missions en zone de recherche et sauvetage de six semaines chacune. L’ensemble du crew (équipes de sauvetage, de protection, de logistique et de communication) a été formé à la méthodologie d’enquête.
Issu d’un dialogue entre objectifs scientifiques et opérationnels, le protocole de recherche articule des méthodes quantitatives et qualitatives. Un questionnaire est élaboré autour de trois thèmes :
le sauvetage en mer (ou rescue),
la prise en charge sur le bateau-mère (ou post-rescue),
les projets et parcours de migration, du pays de départ jusqu’aux lieux d’installation imaginés en Europe.
Ma présence à bord permet d’affiner le questionnaire initial, pour parvenir à une version stabilisée à partir des retours de personnes secourues et de membres de l’équipage. Les données statistiques sont complétées, d’autre part, par des méthodes plus qualitatives que je déploie habituellement sur terre, aux frontières franco-italiennes, franco-espagnoles ou dans les Balkans, avec le projet La CartoMobile.
Ces ateliers itinérants visent la co-construction de savoirs expérientiels sur les frontières, en proposant aux personnes qui les franchissent des outils de cartographie sensible et participative pour se raconter.
Pour transférer ces méthodes en mer, j’apporte à bord de l’OV des cartes dessinées avec d’autres personnes exilées, dispose du matériel de création, aménage un espace. Dans ce laboratoire improvisé, je cherche à générer un espace-temps propice à la réflexion, pour faire émerger des savoirs mis en silence et les porter auprès du grand public. L’invitation à participer se veut accessible : l’atelier est guidé et ne nécessite pas de compétences linguistiques ou graphiques particulières ; le résultat esthétique importe moins que l’interaction vécue au cours du processus cartographique.
Ces enjeux scientifiques et éthiques rejoignent bien les préoccupations opérationnelles : durant les journées de navigation et jusqu’au débarquement dans un port italien, il faut combler l’attente, redonner le moral. Sur le pont de l’OV, la cartographie trouve progressivement sa place parmi les activités post-rescue dont certaines, à dimension psychosociale, visent à revaloriser la dignité des personnes rescapées et les préparer à la suite de leur parcours en Europe. Les mappings collectifs où s’affichent textes et dessins deviennent un langage et un geste partagé, entre membres de l’équipage et personnes secourues invitées à l’atelier.
Morgane Dujmovic ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.07.2025 à 10:38
Nathalie Couix, Chercheure en Sciences des Organisations, Inrae
Jacques Lasseur, Ingénieur de recherche, Inrae
Le dernier « plan loup » 2024-2029 entre en vigueur en France alors que le statut d’espèce strictement protégée du prédateur a été affaibli au sein de la convention de Berne. Nos recherches sur le terrain montrent que les mesures mises en place aggravent les conflits d’usage sur le territoire. Au-delà de la question emblématique des tirs létaux sur l'animal, celle des chiens de protection des troupeaux est centrale.
Que ce soit à travers leurs paysages, leur culture ou leur économie, les Alpes du Sud sont marquées par les activités pastorales, c'est-à-dire l'élevage basé sur un pâturage extensif. Véritable patrimoine culturel ou élément du folklore vendu aux touristes, le pastoralisme est omniprésent dans les images de ces montagnes du sud de la France. Depuis les années 1990, elles sont aussi devenues un territoire recolonisé par le loup gris (Canis lupus italicus).
Jusqu’à très récemment, l’espèce placée sur la liste rouge mondiale des espèces menacées de l’Union internationale pour la conservation de la nature (UICN) était strictement protégée au niveau européen. Elle a récemment perdu le statut d’espèce strictement protégée au sein de la convention de Berne, malgré les protestations des naturalistes et de nombreux scientifiques.
Aujourd’hui, son aire de répartition s’étend au-delà des seules Alpes du Sud. Cette région reste toutefois le secteur en France qui connaît le plus de prédation sur les troupeaux. Ainsi, des mesures de protection des troupeaux ont été mises en place dans le cadre de plans nationaux d’action loup successifs depuis les années 1990. Une nouvelle version de ce « plan loup » portant sur la période 2024-2029 a récemment été publiée par le gouvernement.
Ces mesures facilitent-elles la cohabitation ? Les travaux que nous menons dans une vallée des Alpes de Haute-Provence ont révélé une nette dégradation du climat social. En particulier, entre les éleveurs et bergers d’une part et les autres acteurs du territoire d’autre part.
Aujourd’hui, ce n’est plus seulement le loup qui cristallise les tensions, mais les chiens de protection des troupeaux (par exemple patou, kangal…) mis en place dans le cadre du plan loup pour protéger les troupeaux. Les éleveurs et bergers en sont le plus souvent tenus pour responsables.
Deux éléments sont centraux pour bien comprendre la situation : d’abord, le moment particulier où survient le retour du loup, dans un contexte où l’activité pastorale traditionnelle peine à redéfinir son rôle dans la société. Mais aussi certaines mesures du « plan loup » en elles-mêmes, qui peuvent contribuer à un climat social de plus en plus délétère, car elles ne tiennent pas compte de leurs propres conséquences. Par exemple, celles liées à la mise en place de chiens de protection des troupeaux, qui doivent partager les mêmes espaces que les promeneurs et les touristes.
À lire aussi : Comprendre la diversité des émotions suscitées par le loup en France
Les conséquences du retour du loup sur l’élevage ovin pastoral sont connues et étudiées depuis le retour du loup sur le sol français dans les années 1990. Il en découle un certain nombre de conflits entre le monde du pastoralisme, qui voit le loup comme une menace pour les troupeaux et le monde de l’environnement, qui voit le grand prédateur comme une espèce menacée à protéger.
Nos travaux ont permis de mettre en évidence (au cours d’entretiens, d’ateliers participatifs avec les acteurs du territoire et de débats publics) des tensions qui semblent avoir gagné du terrain. D’un côté, les autres acteurs que les éleveurs et bergers du territoire (riverains, promeneurs…) reconnaissent des dimensions patrimoniale et économique au pastoralisme, qui a un rôle positif pour les paysages et la biodiversité. Souvent, il leur apparaît même comme indispensable.
Pour autant, le pastoralisme leur semble trop développé. Le temps de présence des troupeaux en estive (période de l'année où les troupeaux paissent sur les pâturages de montagne) est par exemple perçu comme trop long et vu comme à l’origine de dégradation (sentiers, végétation, etc.). Tous les acteurs du territoire s’accordent à dire que leurs relations se sont progressivement dégradées, du fait en particulier de la présence des chiens de protection, de plus en plus nombreux.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
La peur des chiens contribue ainsi à transformer les pratiques et les usages (loisirs, tourisme…) que ces acteurs pouvaient avoir des espaces pastoraux ou forestiers. Les élus redoutent la survenue d’un accident grave, tandis que les éleveurs et les bergers expriment leurs craintes de la marginalisation et que leurs activités soient remises en cause. Face à des injonctions multiples au changement, ces derniers peinent à redonner un sens à leur métier.
Ces conflits autour du loup se matérialisent à un moment charnière où l’activité pastorale doit redéfinir sa place dans la société. Pour comprendre ce qui se joue, il faut revenir sur l’histoire récente du pastoralisme.
La modernisation agricole d’après-guerre a permis une nette augmentation de la productivité des terres, mais de fortes disparités ont persisté entre plaines et montagnes. Les secteurs de montagne se sont alors repliés sur les activités pastorales, les seules en mesure de valoriser les vastes étendues d’un territoire aux conditions difficiles (pentes, végétation, climat, etc.).
Ce (re)développement des activités pastorales est apparu d’autant plus pertinent, au début des années 1990, que montaient alors de nouvelles préoccupations en termes d’entretien des paysages et de protection de l’environnement. Celles-ci ont donné lieu à des aides au pastoralisme via les mesures dites agri-environnementales de la politique agricole commune européenne (PAC). Ainsi promus « jardiniers de l’espace », les éleveurs, bon gré mal gré, ont peu à peu acquis une certaine légitimité. Celle-ci a participé à transformer le regard porté sur leurs activités et, pour certains, l’image qu’ils avaient de leur propre métier.
Mais le début des années 90 a également marqué le retour du loup, d’abord discret, puis massif. Les éleveurs les bergers ont alors été confrontés à des attaques de troupeaux de plus en plus fréquentes et à des dégâts de plus en plus importants. Alors qu’elles tendaient peu à peu à se consolider, les alliances entre acteurs des activités pastorales et ceux de l’environnement se sont alors fortement dégradées.
Cette fracture s’est d’autant plus marquée depuis une réforme de la PAC en 2012. Les outils d’incitation économiques ont alors été revus de sorte à limiter les pratiques agricoles néfastes à l’environnement plutôt qu’à encourager les pratiques les plus vertueuses.
Enfin, certaines mesures du « Plan loup » peuvent contribuer à un climat social de plus en plus délétère faute de tenir compte de leurs conséquences concrètes. En effet, celui-ci contient notamment des préconisations sur les moyens de protection à mettre en œuvre par les éleveurs dans les zones où le loup est présent. Celles-ci sont codifiées et donnent droit à des soutiens publics.
Les trois mesures phares portent :
sur une présence humaine accrue auprès du troupeau au pâturage,
le regroupement nocturne des animaux dans des parcs de nuit
et enfin la présence de chiens de protection évoluant en permanence avec le troupeau.
Les mesures de protection et de gestion des attaques prévoient aussi, dans le cas d’attaques répétées malgré la mise en place des mesures précédentes, des autorisations de tirs létaux – autorisations qui pourraient devenir plus nombreuses en raison du changement de statut de l’espèce.
L’autorisation de tir létal est la mesure emblématique qui suscite les réactions les plus vives de la profession agricole et des associations environnementales. Par contre, l’utilisation des chiens de protection est sans doute celle qui, à bas bruit, cristallise le plus de problèmes dans les interactions entre monde de l’élevage et société locale.
Les frayeurs engendrées par la présence de ces chiens, avec quelquefois des incidents pouvant être sérieux sans parler des dégâts faits par ces chiens sur la faune sauvage, sont à l’origine de nombreuses récriminations – voire de plaintes – de la part des usagers de la montagne autres que les éleveurs.
À ces récriminations, les éleveurs et bergers opposent souvent que la présence des chiens leur est imposée par le plan loup pour bénéficier de soutiens publics en cas d'attaque et que les incidents sont essentiellement causés par un comportement inapproprié des plaignants. Ils arguent aussi que les estives sont leur lieu de travail, qu’ils sont donc prioritaires sur l’usage de ces espaces et qu’ils se doivent de protéger leur troupeau, autant pour leur revenu que parce qu’ils y sont fortement attachés.
De plus en plus de moyens sont dédiés à la sensibilisation du public au pastoralisme et à la conduite à tenir face à des chiens de protection. Des stratégies d’évitement se développent.. A la fois de la part des usagers de la montagne, qui s'informent sur les endroits à éviter en fonction des périodes, et de la part des bergers, dont certains vont préférer éviter certains secteurs. Mais de telles stratégies d’évitement questionnent le vivre-ensemble au sein du territoire.
Les mesures prises pour maintenir les activités pastorales là où la présence du loup est forte tendent ainsi à ignorer que ces activités – tout comme le loup lui-même – s’inscrivent non seulement dans des écosystèmes biologiques, mais également dans des socioécosystèmes. Les définitions précises de ce concept varient en fonction des approches utilisées, mais on peut dire en première approximation que les socio-écosystèmes sont ce qui résulte des interactions complexes entre dynamiques écologiques et dynamiques sociales.
Or, concrètement, le plan loup repose surtout sur la prise en charge de la valeur économique des animaux tués. Les conséquences écologiques des pratiques d’élevage que ces mesures suscitent, ou encore leur impact sur les interactions entre les différentes activités, ne sont quant à elles jamais considérées.
Ces conséquences peuvent pourtant être à l’origine de conditions difficiles d’exercice des métiers d’éleveurs et de bergers (conflits, mise en cause permanente, dégradation de la végétation sur certains secteurs, etc.), ce qui paraît contradictoire avec la volonté de soutien de ces activités. Elles sont également à l’origine de frustrations et de mécontentements de la part des différents usagers des espaces pastoraux et des habitants. Elles peuvent même, à terme, nuire au développement d’un certain tourisme dont ces territoires dépendent au plan économique.
Ainsi, selon nous, le plan national d’action loup ne favorise pas le développement de formes de cohabitation apaisées entre loups et activités pastorales. Trop souvent circonscrite aux relations entre le monde du pastoralisme et celui de l’environnement, la question de la présence du loup en territoire pastoral mérite d’être abordée à l'aune des socio-écosystèmes.
Jacques Lasseur a reçu des financements de Agropolis Fondation ainsi que des soutiens interne a INRAE (metaprogramme biosefair).
Nathalie Couix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.07.2025 à 10:38
Antoine Doré, Sociologue des sciences, techniques et politiques environnementales et agricoles., Inrae
Le développement des pratiques récréatives en pleine nature (loisirs, sport…) est-il compatible avec le maintien de conditions de vie et de conservation convenables pour la faune sauvage ? Cela nécessite en tout cas de s’interroger sur la façon dont ces nouveaux usages intermédient nos relations à la nature.
Alors que les vacances d’été approchent, nombreux sont ceux qui rêvent d’évasion en pleine nature. Et, peut-être, de pouvoir admirer la faune sauvage : rapaces, marmottes, chamois, lynx… Ce qui pose la question de notre rapport au « sauvage ». La transformation de nos pratiques récréatives (notamment en matière de sport et de loisirs de pleine nature) est-elle compatible avec le maintien de conditions de vie et de conservation appropriées pour la faune sauvage ?
Loin d’être anodines, nos activités de loisirs de plein air façonnent nos représentations et notre capacité à cohabiter avec les autres êtres vivants. L’histoire et la sociologie des pratiques récréatives montrent que la nature est souvent perçue comme un décor à admirer plutôt qu’un espace partagé avec des animaux sauvages. C’est ce que j’explore également dans le chapitre d’un ouvrage à paraître courant 2025 aux éditions Quae.
Dans nos sociétés dites « modernes », les relations avec la nature se déroulent principalement en dehors du travail. Pour la plupart des gens, cela se fait à travers les loisirs : la part des personnes qui travaillent à son contact est désormais très minoritaire.
Parallèlement, plusieurs enquêtes montrent que la nature prend une place croissante dans les activités récréatives. Alors que les milieux naturels sont envisagés comme des lieux pour se ressourcer, la manière dont nous les investissons détermine aussi leur pérennité. Les espaces sauvages deviennent des territoires aménagés pour répondre aux attentes des visiteurs. Pour ces derniers, la nature n’est plus perçue comme un milieu habité ou exploité, mais comme un cadre récréatif destiné à l’évasion.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
On comprend l’importance colossale des loisirs dans l’évolution de nos relations contemporaines à la nature : l’« écologisation » des pratiques récréatives de plein air devient est devenu un enjeu crucial, qui ne peut être bien compris sans un détour par l’histoire, la sociologie et l’économie politique et morale du « temps libre ».
L’histoire de la protection de la nature est indissociable de celle de la « classe de loisir ». Dès le XIXe siècle, une élite sociale urbanisée promeut l’idée de « nature sauvage » et initie la création de réserves et de parcs pour protéger les paysages… et leur propre expérience du sauvage. En France, les premiers appels à la création de parcs nationaux sont portés par le Touring Club de France et le Club alpin français, soucieux de préserver leur terrain de jeu.
À cette époque, la valorisation du sauvage repose avant tout sur des critères esthétiques. On protège d’abord les paysages et non les espèces. La forêt de Fontainebleau est ainsi classée en 1861 pour ses qualités picturales.
La création des parcs nationaux dans les années 1960 prolonge cette logique :
« protéger des paysages exceptionnels […] favoriser et réglementer leur fréquentation touristique. »
Or, cette mise en scène de la nature se fait souvent au détriment des usages ruraux de ces espaces. Entre nature sauvage et paysages champêtres, « l’environnement » se constitue comme un milieu temporaire de distraction, voire de consommation, pour des sociétés de plus en plus urbaines qui ne font qu’y passer et qui valorisent des rapports contemplatifs à la nature, au détriment de rapports plus directement utilitaristes – vivriers ou productifs – tels que l’agriculture, la chasse, la pêche ou la cueillette.
Si la protection de la nature s’est renforcée avec le temps, elle s’est aussi accompagnée d’un paradoxe : les espèces emblématiques (tels que les grands prédateurs : loup, panthère des neiges, orques…) sont davantage préservées, mais elles sont souvent réduites à des images spectaculaires dans les médias et les documentaires animaliers.
Dès les années 1970, l’essor du cinéma de nature et des productions télévisées consacrées au vivant transforme les animaux sauvages en icônes esthétiques. « Les gens protègent et respectent ce qu’ils aiment, et pour leur faire aimer la mer il faut les émerveiller autant que les informer », déclarait ainsi Jacques-Yves Cousteau.
Le développement de l’industrie audiovisuelle va ainsi contribuer à sensibiliser le grand public à la protection des animaux sauvages en instaurant, par le truchement des écrans, un sentiment de familiarité à leur égard.
Tout cela participe au succès de l’idée moderne de « nature sauvage » qui tend, paradoxalement, à court-circuiter – ou du moins altérer – toutes possibilités de cohabitation avec les animaux, au profit d’un rapport scopophile à ces derniers, c’est-à-dire un rapport centré sur le plaisir de les regarder, souvent de manière distanciée et esthétisante ; ils sont alors vus comme des objets d’admiration, davantage que des êtres avec lesquels peuvent se nouer des rapports de cohabitation ; ils sont envisagés comme une source d’excitation visuelle, des personnages d’un décor d’autant plus authentique qu’il est spectaculaire.
L’essor des activités de plein air, amplifié par la crise sanitaire du Covid depuis 2020, témoigne d’un désir croissant de « retour à la nature ». Mais celui-ci s’accompagne d’une pression accrue sur la nature, en particulier sur la faune.
Il est donc capital de revoir en profondeur les manières de cohabiter avec les animaux sauvages dans nos sociétés de loisir. L’histoire de la protection de la nature est solidaire d’une histoire sociale du temps libre. Tout ceci a concouru à l’instauration d’une nature « récréative » conçue principalement comme support de projection émotionnelle.
On touche ici du doigt un rapport problématique à l’environnement, vu comme un décor peuplé de figurants humains et non-humains, qui se rapproche du voyeurisme. Dans ces conditions, l’écologisation des pratiques récréatives ne peut se résumer à simplement convenir de nouvelles « règles du jeu » avec la nature. Il s’agit aussi de parvenir à instaurer de nouveaux styles d’attention aux vivants et, en particulier, à la faune sauvage.
Par exemple, quels sont les régimes d’attention propres à telle ou telle activité récréative de nature ? Qu’est-ce qui est valorisé ou dévalorisé par telle manière de pratiquer la randonnée ou la pêche à la mouche et quelles places y tiennent les vivants ? Au-delà des interactions « ici et maintenant » entre faune et usagers des espaces naturels, par l’intermédiaire de quels genres de médiateurs nos rapports aux animaux sauvages sont-ils organisés, à travers quels médiateurs humains (un guide, un enfant), techniques (montre connectée, jumelles) ou non-humains (chien de chasse, cheval) ?
Reconsidérer nos rapports à la nature dans la société de loisir suppose de déplier tout l’« échosystème » au sein duquel résonnent – ou non – les coprésences directes et indirectes entre humains et animaux sauvages
Alors que les plus privilégiés d’entre nous s’apprêtent à partir en montagne ou en forêt pour quelques jours de vacances, nous pouvons nous interroger sur la manière dont nos pratiques récréatives façonnent nos rapports à la nature. Voulons-nous continuer à la considérer comme un décor, ou sommes-nous prêts à repenser nos interactions avec elle ? Peut-être est-il temps de ne plus seulement chercher à voir les animaux sauvages, mais à véritablement apprendre à cohabiter avec eux.
Antoine Doré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.07.2025 à 18:38
Bastien Fayet, Doctorant en géographie - UMR 6590 ESO, Université d’Angers
Fermé depuis quatre ans, le Palais de la découverte pourrait ne jamais rouvrir ses portes. Cette incertitude dépasse la seule question d’un musée parisien : elle met en lumière les fragilités d’un secteur culturel essentiel mais discret, celui de la culture scientifique.
Une question tient actuellement en haleine les professionnels et amateurs de culture scientifique : le Palais de la découverte va-t-il fermer ? Rouvrir ? Être déplacé ?
Le Palais de la découverte est un musée de culture scientifique. Ce champ d’activité propose des actions de médiation pour mettre en relation la société avec les connaissances scientifiques, grâce à des expositions, des ateliers, des conférences ou d’autres activités à destination des enfants et des adultes. Le Palais de la découverte est sous la tutelle principale du ministère de la Culture et celle, secondaire, de l’Enseignement supérieur, tout comme la Cité des Sciences et de l’Industrie, un autre centre de culture scientifique parisien. Ces deux structures ont d’ailleurs été regroupées dans la même entité administrative, Universcience, en 2009, pour faciliter leur gestion. Le Palais de la découverte est hébergé au sein du Grand Palais, dans l’aile ouest.
En rénovation depuis 4 ans, il devait rouvrir en 2026, avec une exposition temporaire et des événements de préouverture le 11 juin 2025. Cette préouverture a été annulée, sur fond de tension avec le ministère de la Culture, mais aussi avec le directeur du Grand Palais qui souhaiterait voir le Palais de la découverte être déplacé.
Depuis, le directeur d’Universcience, Bruno Maquart, a été limogé par le gouvernement, une pétition des salariés pour sauver le Palais de la découverte a été lancée et plusieurs tribunes de soutien ont été publiées, comme par des institutions scientifiques internationales, le Collège de France et le réseau national de la culture scientifique (AMCSTI). Le 19 juin, le ministre de l’Enseignement supérieur et de la recherche Philippe Baptiste c’est dit favorable au maintien du Palais de la découverte au sein du grand palais, mais le ministère de la Culture, tutelle principale du Palais, ne s’est toujours pas positionné, laissant encore planer une incertitude.
Pour des personnes extérieures à ce champ d’activité, les problèmes du Palais de la découverte peuvent sembler quelque peu parisiano-centrés ou peu importants par rapport à d’autres problématiques actuelles. Et pourtant, la question soulevée est plus globale qu’il n’y paraît.
Le Palais de la découverte est né dans le cadre de l’exposition internationale de 1937, d’une idée du peintre André Léveillé et du physicien et homme politique Jean Perrin.
Le Front Populaire au pouvoir porte les premières grandes politiques culturelles et Perrin voit dans le projet proposé par Léveillé un moyen de rendre la science accessible à tous et de favoriser des vocations. Il disait à propos du Palais de la découverte :
« S’il révélait un seul Faraday, notre effort à tous serait payé plus qu’au centuple ».
Perrin parviendra à pérenniser l’institution au-delà de l’exposition. À cette époque, difficile de parler de culture scientifique et de médiation : il s’agit surtout d’un temple de la science, important pour les scientifiques en période d’institutionnalisation de la recherche et de justification de sa légitimité.
Le Palais va par la suite faire évoluer son fonctionnement pour s’adapter aux changements sociaux. Des actions de médiation plus proches des formes contemporaines apparaissent dans les années 1960, en parallèle du développement du champ de la culture scientifique.
Ainsi, le Palais propose dans ces années des expositions itinérantes - traduisant la volonté d’aller au-delà des murs du musée - des conférences et de l’animation culturelle de clubs de jeunes. Dans les années 1970, les démonstrations et les conférences sont progressivement remplacées par des expériences interactives, et dans les années 1980 les activités pédagogiques avec les écoles, en complément des enseignements scolaires jugés souvent insuffisants, sont fréquentes.
En 1977, le président de la République Valéry Giscard d’Estaing valide l’aménagement de la Cité des Sciences et de l’Industrie à la Villette. Là où le Palais se veut plus proche des sciences académiques, la Cité est pensée pour faire le lien entre sciences, techniques et savoir-faire industriels. On parlera ainsi de l’électrostatique et des mathématiques dans le premier, par exemple, quand le deuxième proposera une exposition sur la radio.
Décentrons le regard de Paris. La culture scientifique est loin de se limiter à la capitale et au Palais de la découverte. Avec l’effervescence des revendications sociales des années 1960, des associations émergent pour diffuser la culture scientifique dans l’ensemble du territoire national.
L’institutionnalisation de ces structures de culture scientifique a lieu dans les années 1980, sous la présidence de François Mitterrand, avec la volonté d’encadrer le travail de médiateur scientifique et de créer des Centres de Culture Scientifique, Technique et Industrielle (CCSTI) permettant de diffuser cette culture dans l’ensemble du territoire.
Aujourd’hui, les acteurs de la culture scientifique sont marqués par leur grande diversité, si bien qu’il est difficile de les dénombrer. Entre les lieux de médiation centrés sur les sciences techniques ou de la nature, ceux sur le patrimoine, les associations d’éducation populaire, les musées et muséums ou encore les récents festivals, tiers-lieux culturels et médiateurs indépendants - sans parler des collectifs moins institutionnels et des groupements informels d’amateurs passant sous les radars, la culture scientifique est un champ culturel d’une grande diversité.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette diversité d’acteurs propose des actions de médiation scientifique dans un contexte fort en enjeux sociaux : crises démocratiques et écologiques, désinformation, inégalités d’accès aux métiers et filières d’études scientifiques…L’accès à l’information scientifique est un enjeu de lutte contre les injustices sociales – défini par la philosophe Iris Marion Young comme ce qui constituent des contraintes institutionnelles au développement personnel (oppression), ou à l’auto-détermination (domination).
Mais plusieurs chercheurs français ou internationaux ont étudié l’incapacité de la culture scientifique à répondre aux enjeux de justice sociale qui lui sont attribués. En partie à cause de projets trop descendants, trop courts ou peu adaptés aux publics les plus marginalisés des institutions culturelles.
Le Palais de la découverte est peut-être là encore un symbole de son temps, car plusieurs critiques peuvent lui être adressées, par exemple concernant la sociologie de ces publics plutôt aisés et diplômés, au détriment des groupes sociaux marginalisés. Certes, on trouve davantage de catégories sociales défavorisées dans les musées de sciences que de ceux d’art, mais les populations précaires et racisées restent minoritaires.
Le Palais essayait tout de même de s’améliorer sur cette question, par exemple à travers les « relais du champ social », visant à faciliter la visite de personnes en précarité économique.
Mais les résultats de ce type d’actions inclusives, que l’on retrouve ailleurs en France, sont globalement mitigés. Développer des projets qui répondent réellement aux besoins des publics marginalisés nécessite du temps et des moyens financiers. Or les pouvoirs publics ne semblent pas financer la culture scientifique à la hauteur de ces besoins, d’après les professionnels du secteur. Ce n’est pas uniquement le cas pour les structures nationales mais aussi pour celles locales. Par exemple, Terre des sciences, CCSTI de la région Pays de la Loire, a récemment annoncé la fermeture de son antenne de la ville moyenne de Roche-sur-Yon, ouverte depuis 15 ans, faute de financement suffisant.
La situation du Palais de la découverte n’est donc pas un problème isolé. En tant qu’institution nationale de la culture scientifique, il est le symbole d’une histoire des relations entre les sciences et la société depuis sa création jusqu’à aujourd’hui. Et à travers la crise actuelle qu’il traverse, la question à poser est peut-être celle de la culture scientifique que nous voulons, partout en France
Bastien Fayet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.07.2025 à 18:37
Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL
Malgré le ralentissement des émissions globales de gaz à effet de serre (GES), les voyants du climat restent dans le rouge, nous rappelle le rapport Indicators of Global Climate Change 2024 récemment publié. Ce rapport permet également d’identifier trois leviers d’action à mettre en œuvre pour stabiliser le stock atmosphérique de GES à l’origine du réchauffement global.
L’univers virtuel des réseaux sociaux est celui de l’immédiateté. Un utilisateur de TikTok y navigue en moyenne 95 minutes chaque jour, avec à la clé plusieurs centaines de clics. En politique, la vague populiste surfe sur ce courant d’informations en continu qui submerge notre quotidien.
Dans ces mondes virtuels, on prend les décisions en fonction des aléas du moment, quitte à revenir rapidement en arrière en cas de réactions inattendues. Une telle soumission aux humeurs du court terme n’est pas compatible avec l’action face au réchauffement planétaire et à la dégradation de la biodiversité.
Le premier antidote à la tyrannie de l’immédiat doit être la science. C’est pourquoi le Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC) joue un rôle si structurant en matière d’action climatique. Depuis 1990, le GIEC a publié six rapports d’évaluation. Ces rapports fournissent des balises précieuses, documentant l’état des connaissances scientifiques sur le système climatique, les impacts et les adaptations possibles face au réchauffement, les leviers d’atténuation pour le stabiliser.
Le temps de navigation entre deux balises tend cependant à augmenter. De cinq ans entre le premier et le second rapport du GIEC, il est passé à neuf ans entre les deux derniers rapports. Pour éviter que les décideurs ne se perdent en route, un collectif de chercheurs publie chaque année un tableau de bord annuel, reprenant les méthodologies utilisées par le GIEC.
J’ai lu leur rapport sur l’année 2024, rendu public le 17 juin 2025. Voici ce que j’en ai retenu.
Le tableau de bord annuel actualise en premier lieu les informations sur les émissions de CO₂ jusqu’en 2024 (et jusqu’à 2023 pour les autres gaz à effet de serre, GES). Sans surprise, cette actualisation confirme le ralentissement de l’augmentation des émissions mondiales observé depuis 15 ans, principalement provoqué par celles de CO2.
Ce ralentissement est toutefois insuffisant pour stabiliser ou même freiner l’accumulation du stock de GES dans l’atmosphère. Le rythme de croissance de ce stock se maintient, et s’est même accéléré pour le méthane depuis le début des années 2020.
Or c’est ce stock qui est le moteur anthropique du réchauffement climatique. Il joue d’autant plus fortement que les rejets d’aérosols (principalement le dioxyde de soufre), à l’effet refroidissant à court terme pour la planète, se réduisent du fait du resserrement des contraintes sur les polluants locaux, en particulier dans le transport maritime international et en Chine.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
De ce fait, le réchauffement ne connaît pas de répit. Il a franchi pour la première fois la ligne de +1,5 °C en 2024. Les facteurs anthropiques en ont expliqué 1,36 °C, le reste étant attribué à la variabilité naturelle du climat, en particulier l’épisode El Niño de 2024.
Sur les dix dernières années connues, le réchauffement global a atteint +1,24 °C par rapport à l’ère préindustrielle. Sur l’océan, il dépasse désormais 1 °C. Sur terre, il se situe à 1,79 °C, pratiquement à équidistance entre 1,5 et 2 °C.
Sans surprise la poursuite du réchauffement alimente la montée du niveau de la mer, sous l’effet de la dilatation thermique de l’eau et de la fonte des glaces continentales. La hausse du niveau moyen de l’océan est estimée à 22,8 cm depuis le début du siècle dernier. Entre 2019 et 2024, elle a été de 4,3 mm/an, bien au-dessus de la tendance historique (1,8 mm/an).
Pour stabiliser le réchauffement, il faut en premier lieu drastiquement réduire les émissions de carbone fossile. Comme le notait déjà le Global Carbon Budget à l’automne 2024, le budget carbone résiduel pour avoir une chance sur deux de limiter le réchauffement à 2 °C ne représente plus que 28 années des émissions actuelles. Pour viser 1,5 °C, c’est désormais moins de cinq années !
Le tableau de bord montre également l’impact de la réduction des rejets d’aérosols, qui contribue significativement au réchauffement. Moins d’aérosols dans l’atmosphère, c’est certes moins de problèmes sanitaires à terre, mais aussi plus de réchauffement car les aérosols voilent le rayonnement solaire et agissent sur la formation des nuages. Or, comme les aérosols ne séjournent pas longtemps dans l’atmosphère, une réduction de leurs émissions se répercute rapidement sur le volume de leur stock dans l’atmosphère.
Que faire ? Pour contrarier cet impact, la meilleure voie est de réduire les émissions de méthane. Le méthane ayant une durée de séjour dans l’atmosphère plus courte que celle des autres gaz à effet de serre, sa réduction agit nettement plus rapidement sur le réchauffement qu’une réduction équivalente de CO2 ou de protoxyde d’azote, qui séjourne en moyenne 120 ans dans l’atmosphère.
Le tableau de bord met enfin en avant l’apparition de « rétroactions » climatiques dont les effets s’ajoutent à l’impact direct des émissions anthropiques sur la température. Ainsi, le réchauffement global stimule les émissions de méthane dans les zones humides tropicales et risque, demain, d’accentuer celles résultant de la fonte du permafrost. Conjugué aux épisodes de sécheresses, il accentue également les émissions générées par les mégafeux de forêt et altère la capacité de croissance des arbres et les rend plus vulnérables face aux ravageurs.
Dans les deux cas, ces rétroactions amplifient le réchauffement. Agir contre ces rétroactions, par exemple en adaptant les stratégies de gestion forestière, répond donc à une double logique d’adaptation et d’atténuation du changement climatique.
À lire aussi : Changement climatique : les forêts ont-elles besoin de nous pour s’adapter ?
Si le tableau de bord se fixe comme règle de correspondre au plus près aux méthodes des rapports d’évaluation du GIEC, il apporte également des compléments utiles. J’ai particulièrement apprécié ceux concernant les émissions provoquées par les mégafeux, les gaz fluorés et l’absorption du CO2 atmosphérique par le ciment.
Dans la figure ci-dessus apparaissent trois façons de comptabiliser les émissions mondiales de GES.
À 55,4 milliards de tonnes (Gt) équivalent CO2, le premier bâtonnet visualise les émissions de l’année 2023 et la marge d’incertitude associée, calculées suivant les normes retenues par le GIEC.
L’agrégation des données d’inventaires nationaux recueillies sur le site des Nations unies donne des émissions de seulement 47,1 Gt pour la même année. L’écart entre les deux grandeurs est principalement lié à la façon de comptabiliser les émissions liées aux changements d’usage des terres, en particulier à la frontière retenue entre les émissions-absorptions d’origine anthropique et celles d’origine naturelle. Par exemple, le carbone stocké grâce à la replantation d’arbre est clairement d’origine anthropique, mais faut-il également comptabiliser celui résultant de la repousse naturelle d’arbre après des incendies ?
La figure du milieu est une innovation du tableau de bord, qui a élargi les sources et les absorptions de CO2 prises en compte, pour aboutir à un total d’émissions de 56,9 Gt d’équivalent CO2 (+1,5 Gt relativement à l’évaluation standard). La prise en compte de la séquestration du carbone par les ouvrages en ciment ( « carbonatation » du ciment) représente un puits de carbone de 0,8 Gt de CO2. Mais elle est plus que compensée par les émissions de méthane et de protoxyde d’azote par les feux de forêt et la combustion de biomasse (1 Gt d’équivalent-CO2) et celles provenant des CFC et autres gaz fluorés non couverts par la convention climat (UNFCCC), à hauteur de 1,3 Gt d’équivalent CO2 en 2023.
Sur la période récente, les émissions de gaz fluorés (F-gaz) répertoriées dans le cadre de l’UNFCC, dépassent celles des gaz fluorés dont la régulation a été mise en place par le protocole de Montréal (1987) destiné à protéger la couche d’ozone. Mais cette situation est relativement récente. Quand la lutte pour la protection de la couche d’ozone a démarré, les émissions de CFC et des autres gaz fluorés détruisant cette couche exerçaient un réchauffement équivalent à pratiquement 12 Gt de CO2, soit la moitié des émissions de carbone fossile de l’époque (22 Gt d’équivalent CO2).
La diminution spectaculaire des émissions de gaz fluorés réalisée pour protéger la couche d’ozone a ainsi eu un impact majeur sur l’action climatique, malgré le développement de substituts à ces gaz – comme les HFC – pour couvrir les besoins de climatisation et réfrigération. Ce résultat s’observe aujourd’hui dans la diminution de la concentration atmosphérique des CFC, qui contribue à atténuer le réchauffement climatique.
Compte tenu de la durée de séjour des gaz CFC dans l’atmosphère, de l’ordre du demi-siècle, cet effet d’atténuation devrait se prolonger pendant quelques décennies. Une bonne illustration de l’inertie du stock par rapport au flux, qui joue désormais de façon bénéfique pour l’action climatique dans le cas des gaz fluorés.
A l’inverse, cette inertie joue encore à la hausse du thermomètre pour le CO2 et le méthane, malgré le ralentissement des émissions. D’où les voyants au rouge du tableau de bord. Demain, si on parvient à durablement inverser leur trajectoire d’émission, cette inertie pourra également jouer à sa baisse. Mais pour cela, il faut accélérer la transition bas carbone et ne pas succomber aux sirènes de ceux qui voudraient rétrograder.
Christian de Perthuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.07.2025 à 18:37
David Moroz, Associate professor, EM Normandie
Les Lego ne sont pas uniquement des jouets : ils sont devenus de véritables objets de collection, portés par un marché de seconde main particulièrement dynamique. Qu’est-ce que la marque Lego nous enseigne sur les marchés de collection et sur toutes ses homologues qui cherchent à susciter chez leurs clients le désir de collectionner ?
Depuis quelques années, le groupe Lego ne cesse d’enregistrer des records de vente. En 2024, il enregistre un chiffre d’affaires de près de 10 milliards d’euros, porté par 1 069 magasins dans le monde et 28 000 salariés. Du canard en bois, en 1935, au Millenium Falcon de Star Wars™ en passant par la réplique du Titanic, le groupe n’a cessé de multiplier les thèmes de construction, couvrant un public croissant d’acheteurs.
Si certains thèmes ciblent davantage les enfants, d’autres visent spécifiquement un public adulte, intéressé par le fait de posséder et d’exposer un objet de collection. La marque offre de quoi alimenter l’appétit de chacune de ses communautés de collectionneurs, quel que soit le thème de la collection : Star Wars™, Harry Potter™, Minecraft® ou Super Mario™. En ce sens, elle fait partie des marques, comme Hermès avec ses sacs à main, ayant pour objectif de susciter chez leurs clients l’envie de s’engager dans une collection.
Lorsqu’une telle marque arrête la vente d’un produit, les clients-collectionneurs peuvent espérer compléter leur collection sur le marché de l’occasion sur des plateformes de vente en ligne. Pour les passionnés de Lego, la plus connue est BrickLink, acquise par le groupe en 2019.
C’est précisément sur les Lego revendus sur cette plateforme que nous avons conduit une étude. Notre objectif était de comprendre les dynamiques de prix des Lego sur le marché de seconde main ; plus particulièrement déterminer, à la différence des analyses précédemment menées, si l’arrêt de production d’un thème, ou son arrêt anticipé, pouvait avoir un impact sur les prix.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Sur le marché de l’art, à la suite du décès d’un artiste, différents travaux ont relevé ce que l’on nomme, bien sombrement, un « effet de mort ». Le prix d’une œuvre a tendance à augmenter suite au décès de son créateur, voire avec la diminution de son espérance de vie. Ces toutes dernières étapes de la vie d’un artiste fixent de facto une limite à la quantité de ses œuvres en circulation sur le marché et impactent donc la rareté de ces dernières.
Pour mener cette étude, nous avons collecté les données de 7 585 sets différents, relevant de 107 thèmes différents et représentant 227 920 lots disponibles à la vente. Ces données ont été collectées en 2019, peu de temps avant l’acquisition de BrickLink par le groupe Lego. Par conséquent, ce marché était encore vierge de l’influence d’éventuelles stratégies de l’entreprise ou d’effets d’annonce liés à cette acquisition.
Pour chaque set, nous avons pris en compte plusieurs variables : nombre total de pièces d’un set, thème lego d’appartenance – Star Wars™, Technic, City –, diversité des pièces, présence et nombre de figurines, nombre de lots en vente, nombre d’acheteurs potentiels ayant ajouté le set à leur liste de souhaits. Nous avons examiné les performances historiques des thèmes – croissance annuelle moyenne des prix –, leur statut de production – en vente ou non sur le site du groupe Lego au moment de la collecte des données –, et leur ancienneté – date de la première année de mise en vente par le groupe Lego.
Nos analyses confirment que le prix d’un set sur le marché de l’occasion est fonction croissante de son nombre de pièces. Elles n’étonneront nullement l’amateur de Lego, appréciant les plaisirs du montage d’un set regorgeant de pièces et avec un temps d’assemblage relativement long. Nous avons également observé, ce que n’évaluaient pas les précédentes analyses, que la diversité des pièces d’un set avait un impact positif sur son prix. Un set de 1 000 pièces peut très bien contenir 50 types de briques différents comme 150. Dans ce dernier cas, il sera jugé plus riche, plus complexe, plus gratifiant à assembler ; ce qui se traduit par un prix plus élevé.
Un type spécifique de pièces a un impact sur le prix d’un set : les figurines. Celles-ci n’ont aucun lien avec la difficulté d’assemblage d’un set et pourtant, leur simple présence suffit à faire grimper le prix d’un set de plus de 40 % en moyenne.
Sans surprise et comme sur tout marché de collection, les sets les plus rares – dans le cas de notre étude, ceux les plus fréquemment ajoutés à une liste de souhaits parmi ceux les moins disponibles sur la plateforme – sont aussi les plus chers. Une augmentation de 1 % du ratio demande/offre faisant croître le prix de 0,63 % en moyenne.
Ce qui nous intéressait le plus était l’effet du thème d’appartenance du set, en termes d’ancienneté et de durée de production. Les précédentes études montrent des prix significativement plus élevés pour des sets relevant de certains thèmes, notamment tels que Star Wars™. Nous avons relevé un impact positif du nombre de sets rattachés à un thème. Autrement dit, plus un thème regroupe des sets différents, plus les sets relevant de ce thème sont valorisés.
Il existe sur ce marché un effet de mort avec les thèmes dont la production a été arrêtée par le groupe Lego, à l’image du thème The Angry Birds Movie™, arrêté en 2016. En moyenne, les sets relevant de tels thèmes affichent des prix plus élevés de près de 16 % en comparaison de sets appartenant à des thèmes encore en production. Plus le thème arrêté est ancien, plus l’effet de mort est marqué.
Au-delà de possibilités de stratégies de spéculation, l’analyse du marché des Lego de seconde main offre un éclairage utile aux entreprises qui cherchent à fidéliser une clientèle au travers d’un ou plusieurs projets de collection.
En comprenant mieux les dynamiques de prix des marchés secondaires, ces entreprises peuvent affiner leurs stratégies de lancement ou d’interruption de certaines gammes de produits. De facto maximiser la rentabilité de ces dernières dans le temps. Au-delà des aspects purement mercantiles, il ne faut pas oublier l’intérêt des plateformes de vente en ligne pour le recyclage des produits et donc… un moindre gaspillage de ressources.
Une meilleure compréhension des déterminants de la valeur sur ces plateformes permet aux entreprises d’identifier les caractéristiques les plus valorisées par les consommateurs, de diminuer le risque d’invendus et d’avoir une meilleure empreinte environnementale.
Pour le groupe Lego, il est fort possible que ce dernier point soit une préoccupation majeure. Malgré des efforts substantiels en R&D, l’enseigne n’est pas encore parvenue à arrêter l’usage de certains composants plastiques pour la production de ses fameuses briques. Un bon fonctionnement de ses marchés de seconde main, couplé à la réputation de durabilité de ses briques, est probablement pour le groupe une manière de compenser cet usage du plastique.
David Moroz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.07.2025 à 18:37
Serge Besanger, Professeur à l’ESCE International Business School, INSEEC U Research Center, ESCE International Business School
Les outils d’intelligence artificielle peuvent-ils aider à mieux anticiper les catastrophes économiques et financières ? En intégrant une information plus fraiche et plus qualitative, il serait possible d’identifier des signaux faibles bien en amont de la crise. Mais gare, le recours à ces outils expose à de nouveaux risques qu’il ne faut pas minorer.
Prédire plus tôt la faillite d’un pays permet de limiter les pertes financières, de mieux préparer les réponses politiques et économiques, et surtout d’atténuer les conséquences sociales. Pour les institutions internationales et les gouvernements, c’est l’occasion de mettre en place des plans d’aide ou de restructuration avant que la crise n’explose. Et pour la population, cela peut éviter des mesures brutales : effondrement bancaire, coupures dans les services publics, hausse soudaine du chômage ou flambée des prix. En somme, anticiper, c’est gagner du temps pour agir avec plus de maîtrise, réduire la casse économique et sociale, et éviter de gérer la crise dans l’urgence et la panique.
En mars 2020, alors que les marchés s’effondraient en pleine pandémie, peu d’institutions avaient anticipé l’ampleur de la crise pour les pays émergents. Pourtant, dans les mois suivants, la Zambie, le Sri Lanka et le Liban se retrouvaient en défaut de paiement. Aujourd’hui, avec l’essor de l’intelligence artificielle (IA), une question se pose : l’IA peut-elle prédire la faillite d’un État mieux que les modèles classiques ?
Jusqu’ici, les grands outils d’alerte – comme le Système d’Alerte Précoce (Early Warning System, EWS) du FMI – reposaient sur des agrégats macroéconomiques classiques : dette extérieure, croissance, réserves de change, solde courant… Bien qu’utiles, ces indicateurs sont souvent publiés avec retard, et sensibles à des manipulations comptables.
Les agences de notation (S&P, Moody’s, Fitch…), quant à elles, fondent encore largement leurs évaluations sur des analyses humaines, avec un décalage temporel important.
À lire aussi : Quand commence un krach boursier ? Et qu’appelle-t-on ainsi ?
De fait, les modèles traditionnels de prédiction des risques souverains s’appuient principalement sur des indicateurs macroéconomiques agrégés : ratio dette/PIB, niveau des réserves de change, balance courante, inflation, ou encore notation des agences de crédit. Ces approches, souvent inspirées des modèles économétriques ou statistiques classiques (logit, probit, etc.), ont deux limites majeures :
des données trop lentes et trop agrégées : Les statistiques macroéconomiques sont publiées avec des délais parfois de plusieurs mois, trimestres, voire années. Elles lissent les signaux faibles et masquent les dynamiques de court terme comme les retraits massifs de capitaux ou les paniques bancaires naissantes.
une incapacité à capter les signaux comportementaux et politiques : Les crises souveraines ne sont pas seulement économiques. Elles sont aussi sociales, politiques et parfois géopolitiques. Or, les modèles traditionnels peinent à intégrer des variables non quantitatives comme l’instabilité politique, la polarisation sociale, les mouvements de protestation ou les négociations discrètes avec des bailleurs de fonds internationaux.
Le fait que le Liban ait été noté B jusqu’en 2019 alors qu’il méritait probablement un D illustre plusieurs dysfonctionnements majeurs dans les systèmes traditionnels de notation souveraine. Les agences préfèrent réagir que prévenir, ce qui biaise leurs notations à la hausse, surtout pour les pays fragiles.
De nouveaux modèles émergent, fondés sur l’apprentissage automatique (machine learning) et le traitement du langage naturel (NLP). Fitch, Moody’s et S&P testent déjà des IA capables de traiter des milliers de sources d’information en temps réel : flux financiers, déclarations publiques, mais aussi données satellites, transactions Swift anonymisées et commentaires sur Twitter/X.
Ces outils détectent des signaux faibles, invisibles aux yeux des analystes traditionnels : une série de transferts vers des comptes offshore, une chute anormale des volumes bancaires ou encore une brusque montée des hashtags du type #default #bankrun dans une langue locale.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En 2019, bien avant l’effondrement officiel du système bancaire libanais, plusieurs signaux faibles étaient visibles. Des rumeurs circulaient sur WhatsApp et Twitter. Les transferts de fonds sortants explosaient. Des vidéos montraient des manifestants réclamant des comptes à la Banque centrale. Pourtant, les agences de notation, de même que le FMI, tardaient à alerter.
Malgré des signes alarmants en amont, le FMI est resté prudent dans son langage et n’a pas émis d’alerte franche avant l’effondrement du système bancaire libanais en 2019–2020. Un modèle IA entraîné sur les comportements non linéaires de retrait d’espèces, les mentions de panique financière dans les réseaux sociaux ou la disparition progressive des produits importés aurait pu détecter un risque élevé de défaut bien avant les agences.
Le Pakistan, régulièrement au bord du défaut, illustre un autre usage de l’IA. Le laboratoire de l’ESCE a récemment mis au point un outil combinant flux de données bancaires anonymisées (volumes de dépôts par région), données satellites sur les niveaux d’activité portuaire, analyse sémantique de discours politiques (fréquence de termes comme « aide d’urgence », « moratoire », « négociation FMI »), volume de vols directs sortants depuis Jinnah, discussions en penjabi et urdu sur X et Facebook… En croisant ces éléments, le modèle a anticipé dès la fin 2022 une nouvelle demande de plan de sauvetage… annoncée publiquement seulement en avril.
L’asymétrie de pouvoir entre les États et les autres acteurs économiques entretient la récurrence des crises financières systémiques, dont les impacts sur les grands équilibres macroéconomiques sont souvent massifs.
L’IA ajoute une couche dynamique aux modèles de risque pays, avec des alertes basées sur des tendances comportementales et des « bruits faibles ». Là où les systèmes classiques peinent à intégrer la psychologie collective ou les effets de contagion sur les marchés, l’IA excelle.
Attention cependant aux biais algorithmiques. Les données issues des réseaux sociaux sont bruitées, et leur analyse peut être influencée par des campagnes coordonnées.
De plus, les IA ne sont pas neutres : elles peuvent intégrer des représentations inégalitaires du risque pays, notamment en surestimant les tensions dans des pays politiquement ou socialement instables mais solvables.
L’IA n’est pas un oracle. Les données non structurées (réseaux sociaux, médias, forums) sont dites “ bruyantes”, dans le sens où une mauvaise qualité d’entraînement et un mauvais filtrage peuvent conduire à des « faux positifs » alarmants. Si le modèle est entraîné sur des crises passées, il risque de surpondérer certains types de signaux et de sous-estimer des configurations inédites, voire d’"halluciner". Ces hallucinations surviennent souvent en raison de problèmes liés aux données utilisées pour entraîner les modèles de langage, des limitations de l’architecture des modèles et de la manière dont les grands modèles de langage (LLMs) interprètent les données économiques et financières.
De plus, les sources peuvent elles-mêmes être biaisées par des campagnes de désinformation. Les modèles d’IA les plus performants sont des « boîtes noires », dont la logique interne est difficilement interprétable. Pour un investisseur institutionnel ou un analyste-crédit, cela peut poser un problème de gouvernance : comment justifier une décision d’investissement ou de désinvestissement fondée sur un score algorithmique non explicable ?
Face à l’accélération et la complexité croissante des chocs économiques, sociaux et géopolitiques, des institutions comme le FMI, la Fed ou la BCE, de même que certains fonds d’investissement et banques, expérimentent désormais des intelligences artificielles capables de simuler des scénarios de crise en temps réel. L’objectif n’est plus seulement de prédire la prochaine défaillance, mais de la prévenir en ajustant les politiques économiques de manière beaucoup plus réactive, grâce à des modèles adaptatifs nourris par des flux de données continus et dynamiques.
Mais ces outils ne remplaceront pas de sitôt le regard critique et le discernement humain. Car là où l’IA excelle dans la détection de signaux faibles et le traitement massif de données, elle reste vulnérable à des biais et des hallucinations statistiques si elle est livrée à elle-même. La vraie rupture viendra donc d’un modèle hybride : un dialogue permanent entre l’intuition géopolitique et sociale des analystes humains et la capacité de calcul de l’intelligence artificielle.
Finalement, il ne s’agit plus de choisir entre l’humain et la machine, mais d’orchestrer intelligemment leurs forces respectives. L’enjeu n’est pas seulement de voir venir les crises, mais d’avoir les moyens d’agir avant qu’elles n’éclatent.
Serge Besanger a été directeur intérimaire d'une filiale du FMI.
02.07.2025 à 18:37
Abdelwahab Biad, Enseignant chercheur en droit public, Université de Rouen Normandie
Les attaques d’Israël et des États-Unis contre des installations nucléaires iraniennes, présentées comme nécessaires pour empêcher le développement d’armes nucléaires par l’Iran, constituent non seulement des actes illicites en droit international (violation de la Charte des Nations unies et du droit des conflits armés), autrement dit une agression, mais pourraient aussi affecter négativement la crédibilité du régime de non-prolifération nucléaire incarné par le Traité sur la non-prolifération des armes nucléaires (TNP) et le système de garanties de l’Agence internationale de l’énergie atomique (AIEA), en place depuis un demi-siècle.
Le 7 juin 1981, l’aviation israélienne bombarde le réacteur irakien Osirak, suscitant une réprobation unanime. Dans sa résolution 487 (1981), le Conseil de sécurité des Nations unies « condamne énergiquement » l’attaque, qu’il qualifie de « violation flagrante de la Charte des Nations unies et des normes de conduite internationale », estimant en outre qu’elle « constitue une grave menace pour tout le système de garanties de l’Agence internationale de l’énergie atomique, sur lequel repose le Traite sur la non-prolifération des armes nucléaires ».
Ce qui est intéressant ici, c’est la demande faite à Israël « de s’abstenir à l’avenir de perpétrer des actes de ce genre ou de menacer de le faire », un appel manifestement ignoré depuis puisque Tel-Aviv a récidivé par des attaques armées contre des installations situées en Syrie (2007) puis en Iran tout récemment, sans même parler des cyberattaques et les assassinats de scientifiques irakiens et iraniens.
Ce qui différencie toutefois le cas de l’Iran 2025 par rapport à celui de l’Irak 1981, c’est d’une part l’ampleur des attaques (12 jours sur une dizaine de sites) et d’autre part, l’implication des États-Unis, qui ont bombardé les sites d’Ispahan, Natanz et Fordo. Cet engagement américain, ainsi que la rivalité israélo-iranienne au Moyen-Orient, exacerbée depuis le début de la guerre à Gaza, ont non seulement paralysé le Conseil de sécurité, mais ont aussi brouillé le débat sur la licéité de telles attaques.
La guerre préventive ou de « légitime défense préventive » invoquée par Israël pour neutraliser une « menace existentielle » est illicite au titre de la Charte des Nations unies qui définit les conditions de l’emploi de la force par un État (soit via la légitime défense en réponse à une attaque, soit par une action collective décidée par le Conseil de sécurité). Ce qui n’englobe pas une légitime défense « préventive » décidée unilatéralement. Ainsi que l’a rappelé la Cour internationale de Justice, « les États se réfèrent au droit de légitime défense dans le cas d’une agression armée déjà survenue et ne se posent pas la question de la licéité d’une réaction à la menace imminente d’une agression armée » (Affaire Nicaragua contre États-Unis, 1986).
Par ailleurs, l’ampleur et la planification rigoureuse des attaques contre les sites nucléaires iraniens suggèrent que Benyamin Nétanyahou nourrissait ce projet de longue date, comme en témoignent ses nombreuses déclarations depuis trente ans, prédisant l’acquisition imminente de la bombe par l’Iran sous deux ans à quelques mois (Knesset en 1992, Congrès américain en 2002, ONU en 2012 et 2024).
Le programme nucléaire iranien, lancé sous le chah, a connu un développement depuis les années 2000 avec la construction d’installations diverses permettant au pays de se doter de tout le cycle du combustible (réacteurs de recherche, centrales de production d’électricité, usines d’enrichissement et de stockage de matières radioactives) situés principalement à Arak, Téhéran, Bouchehr, Ispahan, Natanz et Fordo.
L’existence de sites non déclarés à l’AIEA fut à l’origine de sanctions imposées par le Conseil de sécurité. Celles-ci furent ensuite suspendues avec l’adoption du Plan d’action global commun, ou accord de Vienne (2015), signé entre l’Iran, les États-Unis (alors présidés par Barack Obama), la Russie, la Chine, la France, le Royaume-Uni et l’Allemagne, qui prévoyait que l’Iran limite ses capacités d’enrichissement de l’uranium en contrepartie de la levée des sanctions.
Mais en 2018, Donald Trump, installé à la Maison Blanche depuis janvier 2018, décide de se retirer unilatéralement de l’accord, sans recourir à la procédure de règlement des différends prévue, et rétablit les sanctions américaines contre Téhéran. L’Iran se considère alors libéré de ses engagements relatifs au niveau d’enrichissement, et fait passer celui-ci à 60 %, bien au-delà de la limite autorisée par l’accord (3,67 %). Bien que ce niveau soit inférieur à celui nécessaire pour une application militaire (90 %), il fait déjà de l’Iran « un État du seuil », c’est-à-dire un État capable d’accéder à la bombe, sous réserve de concevoir et de tester l’engin dans des délais plus ou moins longs. C’est précisément ce risque de voir l’Iran obtenir rapidement l’arme nucléaire qui a été invoqué par Israël et par les États-Unis pour justifier leurs frappes sur les installations iraniennes à partir du 13 juin dernier.
Il reste que le gouvernement iranien a nié toute intention de se doter de la bombe, invoquant la fatwa de l’Ayatollah Khamenei (2005) stipulant que la possession de l’arme nucléaire est contraire aux prescriptions de l’islam. Certes, l’AIEA, autorité de référence en la matière, a souligné à plusieurs reprises dans ses rapports annuels l’existence de zones d’ombre et de dissimulations concernant la nature et l’ampleur du programme iranien d’enrichissement. Elle a toutefois toujours conclu ne disposer d’aucune preuve attestant l’existence d’un programme à visée militaire.
Le principal opposant au programme nucléaire iranien reste Israël, qui n’est pourtant pas en position de donner des leçons en la matière. Doté de l’arme nucléaire depuis les années 1960 en dehors du cadre du TNP, auquel il n’a jamais adhéré, Israël n’a jamais reconnu officiellement son arsenal, invoquant une doctrine d’opacité relevant du « secret de polichinelle » (on estime qu’il disposerait d’une centaine de bombes).
Contrairement à tous ses voisins, il refuse de se soumettre aux inspections de l’AIEA et ignore la résolution 487 du Conseil de sécurité, qui lui « demande de placer d’urgence ses installations nucléaires sous les garanties de l’Agence internationale de l’énergie atomique ». Fait notable : tous les gouvernements israéliens, quel que soit leur bord politique, ont systématiquement évité tout débat public sur le sujet, y compris au niveau national – où il demeure un tabou –, tout en accusant tour à tour leurs voisins (Égypte de Nasser, Irak, Iran) de chercher à se doter de la bombe et de menacer ainsi le monopole nucléaire d’Israël dans la région.
L’Iran est un État partie au TNP (depuis son entrée en vigueur, 1970), un instrument clé de non-prolifération par lequel les États non dotés d’armes nucléaires s’engagent à le rester en contrepartie du bénéfice des utilisations pacifiques de l’énergie nucléaire sous le contrôle de l’AIEA pour prévenir tout usage à des fins militaires.
Cet engagement de non-prolifération est le corollaire du « droit inaliénable » à développer la recherche, la production et l’utilisation de l’énergie nucléaire à des fins économiques et scientifiques inscrit dans le traité et aucune disposition du TNP n’interdit spécifiquement l’enrichissement de l’uranium. En cas de manquements aux obligations de non-prolifération, l’Agence peut saisir le Conseil de sécurité.
Ce fut le cas pour la Corée du Nord en 2006, ainsi que pour l’Iran avant la conclusion de l’accord de 2015. Depuis au moins 2019, l’AIEA a toutefois exprimé des préoccupations quant à des activités menées sur des sites non déclarés, susceptibles de contrevenir aux obligations prévues par l’accord de garanties liant l’Iran à l’Agence, notamment en matière de non-détournement de matières nucléaires. Néanmoins, nous l’avons dit, ces irrégularités n’ont pas permis à l’AIEA d’établir avec certitude l’existence ou l’absence d’un programme à finalité militaire – une condition nécessaire pour saisir le Conseil de sécurité.
Les attaques du 12 au 24 juin violent en particulier la résolution 487 du Conseil demandant aux États « de s’abstenir de perpétrer des attaques ou menacer de le faire contre des installations nucléaires » ainsi que les résolutions de l’AIEA allant dans le même sens. Le directeur général de l’AIEA a rappelé « que les installations nucléaires ne devaient jamais être attaquées, quels que soient le contexte ou les circonstances » (13 juin 2025). Cette prescription d’interdiction s’explique par les conséquences graves sur les populations et l’environnement pouvant découler des fuites radioactives dans et au-delà des frontières de l’État attaqué. À ce propos, la réaction des Américains et des Européens fut prompte lors des incidents armés visant les centrales de Tchernobyl et Zaporijjia (2022, 2024 et 2025), le directeur de l’AIEA jugeant ces attaques « irresponsables » (15 avril 2024).
Si aucun traité spécifique n’interdit les attaques contre des installations nucléaires, leur prohibition découle du droit des conflits armés qui interdit de diriger intentionnellement des attaques contre des biens à caractère civil, les installations nucléaires étant considérées comme telles. Le fait de diriger intentionnellement des attaques contre des biens civils (et des personnes civiles) est une violation des lois et coutumes de la guerre, un crime de guerre au sens du Protocole additionnel I aux Conventions de Genève de 1949 et du Statut de la Cour pénale internationale.
Ces attaques armées risquent de renforcer la défiance à l’égard du TNP. En effet, comment les justifier lorsqu’elles visent les installations nucléaires d’un État partie au traité et soumis aux garanties de l’AIEA, même si la transparence de l’Iran a parfois fait défaut ? Téhéran pourrait être tenté de se retirer du TNP et de suspendre les inspections de l’Agence, comme le laissent entendre certaines déclarations de responsables iraniens. Ils suivraient alors la trajectoire empruntée par la Corée du Nord, qui s’est dotée de l’arme nucléaire après avoir rompu avec l’AIEA et quitté le TNP. Une telle évolution risquerait d’encourager d’autres États, comme l’Arabie saoudite ou la Turquie, à envisager une voie similaire, compliquant davantage encore la recherche d’une issue diplomatique pourtant essentielle à la résolution des crises de prolifération.
Enfin, ces attaques risquent d’affaiblir un régime de non-prolifération déjà singulièrement érodé par les critiques croissantes sur l’absence de désarmement nucléaire, une contrepartie actée dans le traité mais qui n’a pas connu l’ombre d’un début d’application, la tendance allant plutôt dans le sens d’une course aux armements…
Abdelwahab Biad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.07.2025 à 18:36
Navarro Julien, Chargé de recherche en science politique, Institut catholique de Lille (ICL)
Faut-il abandonner le scrutin majoritaire à deux tours pour élire les députés à la proportionnelle ? Cette question fait l’objet de discussions passionnées jusqu’au sein du gouvernement. Au-delà des polémiques sur les avantages et les inconvénients de chaque mode de scrutin, des travaux récents suggèrent qu’un système fondé sur la proportionnelle est perçu comme plus démocratique. Son adoption pourrait contribuer à restaurer la confiance des citoyens dans le jeu politique.
D’après un sondage réalisé dans la foulée des élections législatives anticipées de 2024, 57 % des personnes interrogées jugeaient que la composition de l’Assemblée nationale ne reflétait pas fidèlement l’opinion des Français. Un tel résultat peut surprendre si l’on considère que ces mêmes Français venaient de désigner leurs députés ! S’il reflète sans doute les déceptions cumulées d’électeurs dont le vote n’a pas permis à leur parti d’obtenir une majorité, il traduit aussi plus profondément un malaise démocratique et un fossé croissant entre citoyens et représentants.
Dans ce contexte, le débat sur la réforme du système électoral – c’est-à-dire de la manière dont les suffrages sont transformés en sièges au sein d’une assemblée – prend un relief particulier. Il a été récemment ravivé par la publicité donnée à un « bras de fer » sur ce sujet entre Bruno Retailleau et François Bayrou.
Il faut dire que le Premier ministre est un partisan historique de l’instauration d’un système proportionnel, dans lequel chaque parti se voit attribuer un pourcentage des sièges de députés en fonction de son pourcentage de votes. Son ministre de l’Intérieur, quand à lui – et à l’image du parti Les Républicains dans son ensemble – reste viscéralement attaché au scrutin majoritaire à deux tours. Rappelons que ce mode de scrutin, qui correspond à l’élection dans une circonscription de celui ou celle qui arrive en tête au second tour, est utilisé pour les élections législatives depuis l’instauration de la Ve République en 1958 (à l’exception de celles de 1986).
De part et d’autre, les arguments sur les mérites et les effets de chaque système ne manquent pas. La proportionnelle assure par définition une représentation des forces politiques en fonction de leur poids dans l’électorat. Les partis y jouent un rôle primordial car ce sont eux qui se chargent de constituer des listes de candidats, que ce soit à l’échelle départementale, régionale ou nationale.
Les effets du scrutin majoritaire sont tout autres. Si ce mode de scrutin a pour effet théorique d’assurer une large majorité au parti arrivé en tête des élections, cela se fait au prix d’une distorsion de la représentation. Cette dernière est cependant contrebalancée par davantage de redevabilité personnelle des représentants, dans la mesure où chaque député élu localement rend des comptes à l’ensemble des électeurs de sa circonscription.
Avec un système majoritaire tel que nous le connaissons aujourd’hui, les partis politiques sont également encouragés à se coaliser avant les élections pour maximiser leurs chances d’accéder au second tour, ou à former des alliances dans l’entre-deux-tours. C’est ce qu’ont parfaitement compris les partis du Nouveau Front populaire en 2024.
À l’inverse, avec un mode de scrutin proportionnel, chaque formation politique – y compris les plus petites – est susceptible de concourir seule. La formation des gouvernements dépend alors de la constitution de coalitions après les élections. Le dilemme est donc ici le suivant : vaut-il mieux une offre politique restreinte mais lisible dès l’élection, ou plus diversifiée au risque de rendre les alliances postélectorales imprévisibles pour les électeurs ?
Les controverses techniques autour des effets des systèmes électoraux cachent en réalité un enjeu plus fondamental : celui de la légitimité démocratique et de la recherche d’un processus électoral à la fois juste et équitable. Une autre façon d’aborder la question consiste à interroger les préférences des citoyens eux-mêmes. En démocratie, n’est-ce pas à eux de choisir les règles du jeu politique ?
Sur ce point, les sondages récents sont clairs. D’après le sondage Elabe cité plus haut, en 2024, seuls 37 % des Français se disaient attachés au scrutin majoritaire à deux tours, alors qu’une majorité préférerait soit un scrutin proportionnel au niveau national (35 %), soit un système mixte (26 %). En mai 2025, selon une autre enquête de l’institut Odoxa, 75 % des Français se disaient désormais favorables à l’élection des députés à la proportionnelle.
Afin de contourner les limites inhérentes aux enquêtes d’opinion, j’ai mené en 2022 avec des collègues italiens et hongrois une étude expérimentale dans trois pays aux systèmes électoraux et à la qualité démocratique variés : la France, l’Italie et la Hongrie. Notre objectif : comprendre comment le mode de scrutin, entre autres facteurs, influe sur la perception que les citoyens ont de la qualité démocratique des institutions.
Nous avons demandé à des participants de comparer deux systèmes politiques fictifs, construits selon neuf critères variant aléatoirement, et d’indiquer lequel leur semblait le plus démocratique. Les critères pris en compte correspondaient aussi bien aux modalités d’accès au pouvoir – y compris la proportionnalité du système électoral – qu’aux processus de décision et aux performances du gouvernement.
Les enseignements de cette étude sont multiples. Par rapport aux études antérieures qui mettaient l’accent sur les caractéristiques personnelles des répondants, sur leurs préférences partisanes ou sur leur situation économique, notre travail démontre l’importance du cadre institutionnel, en particulier du système électoral, parmi les différents éléments qui conduisent des citoyens – toute chose étant égale par ailleurs – à considérer un régime comme plus démocratique qu’un autre.
Même en tenant compte d’autres facteurs comme le niveau de corruption ou la performance économique, les résultats sont nets : peu importe le contexte, les citoyens jugent plus démocratique un système où les élus sont choisis à la proportionnelle. Le fait qu’un système politique repose sur la proportionnelle augmente sa probabilité d’être considéré comme plus démocratique de 3,6 points de pourcentage par rapport à un système fonctionnant avec un mode de scrutin majoritaire.
Cette préférence pour un système proportionnel, qui confirme des travaux menés en Autriche, Angleterre, Irlande et Suède, correspond en outre, chez les citoyens, à une vision d’ensemble cohérente de ce qui rend un système politique plus démocratique. Les participants ont en effet également jugé plus démocratiques des systèmes où un grand nombre de partis étaient représentés, plutôt que quelques-uns, et où le gouvernement était issu d’une coalition, plutôt que d’un seul parti. Avoir une offre politique large augmente de 3,6 points de pourcentage la probabilité qu’un système politique soit considéré comme plus démocratique par rapport à un système où il n’y a qu’un nombre réduit de partis. Le gain est même de 5 points de pourcentage lorsqu’il y a un gouvernement de coalition plutôt qu’un gouvernement unitaire.
Ce sont par ailleurs les participants les plus attachés à la démocratie – ceux qui estiment qu’elle est préférable à toute autre forme de gouvernement – qui se montrent les plus enclins à désigner comme plus démocratique un système politique basé sur la proportionnelle. La probabilité que ce groupe choisisse un système donné passe ainsi de 45 % à 55 % si celui-ci présente des caractéristiques proportionnelles. À l’inverse, la proportionnelle ne génère aucun écart significatif dans les probabilités qu’un système soit choisi plutôt qu’un autre chez les participants qui soutiennent faiblement la démocratie.
Notons enfin que cette valorisation du pluralisme et de la recherche du compromis ne peut s’expliquer par l’ignorance dans laquelle les participants se trouveraient des effets potentiellement négatifs de la proportionnelle. Les résultats pour la France sont en effet sur ce point parfaitement convergents avec ceux obtenus par notre étude dans les pays qui utilisent déjà la proportionnelle intégrale, comme l’Italie, ou un système mixte, comme la Hongrie. Le fait qu’un système politique s’appuie sur un scrutin proportionnel plutôt que majoritaire augmente de 8 points de pourcentage la probabilité que les participants hongrois le désignent comme plus démocratique ; parmi les participants italiens, la différence entre ces deux scénarios est comme dans l’enquête française de 3,6 points de pourcentage.
Bien sûr, le système électoral ne constitue qu’un des aspects poussant les citoyens à juger un régime politique plus démocratique qu’un autre. Il serait tout à fait illusoire de penser que l’adoption de la proportionnelle pour les élections législatives pourrait suffire à réconcilier les Français avec la politique et à régler tous les problèmes de la Ve République.
Notre étude a cependant le mérite de montrer que les modalités de désignation des responsables politiques – en particulier le mode de scrutin – sont un élément clé de la satisfaction démocratique, indépendamment de la façon dont le pouvoir est ensuite exercé et des résultats qu’il obtient. Ainsi, même si dans notre étude la croissance économique et le niveau de corruption ont un large effet sur la satisfaction démocratique (la probabilité qu’un pays connaissant une forte croissance et peu de corruption soit considéré comme plus démocratique augmente respectivement de 14,5 et de 3,5 points de pourcentage par rapport à un pays à l’économie stagnante et corrompu), ils n’annulent pas celui, bien tangible, de la proportionnalité du système électoral.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cela contribue à expliquer pourquoi il est vain d’espérer restaurer la confiance envers les gouvernants par la seule amélioration du bien-être des citoyens. Les gouvernements sortants en ont fait l’amère expérience en 2022 et, plus encore, en 2024 : même si les facteurs expliquant leurs échecs électoraux sont multiples, il est assez clair que leurs tentatives de tirer profit de bons résultats en matière d’emploi ne se sont pas traduits par un surcroît de popularité dans les urnes.
Navarro Julien ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.07.2025 à 18:36
Mélissa Mialon, Inserm, Université Paris Cité
Claudie Lemercier, Chercheur, PhD-HDR, chargée de mission auprès des associations de malades pour la région AuRA, Inserm
Elsa Bombrun, Ingénieure agronome, Université Paris Cité
Houda El Azzaoui, Etudiante en thèse, Université Claude Bernard Lyon 1
Jean-Michel Escoffre, Chargé de Recherche - Inserm, Inserm
Virginie Hamel, Candidate au doctorat de nutrition, Université de Montréal
Maladies rares, cancers, VIH, troubles « dys » de l’enfant… dans différents domaines de la santé, la recherche participative permet une collaboration fructueuse entre des scientifiques et des citoyens concernés par la thématique étudiée. Cette approche innovante, qui se développe notamment à l’initiative de l’Institut national de la santé et de la recherche médicale (Inserm), ambitionne de rapprocher la société civile et le monde de la recherche académique.
La recherche participative dans le domaine de la santé progresse petit à petit en France. Afin de développer cette manière de faire recherche, l’Institut national de la santé et de la recherche médicale (Inserm), au travers de son service « Sciences et Société », a organisé une journée sur cette thématique en juin 2024 à Lyon.
L’objectif était de favoriser les interactions entre le monde de la recherche scientifique et la société civile, de présenter des projets de recherche participative déjà en cours à l’Inserm, et de susciter l’émergence de nouveaux projets. Un des ateliers thématiques de la journée portait sur « Comment créer des échanges fructueux entre Sciences et Société ? » Voici quelques-unes des réflexions qui en ont émané.
La recherche participative est une approche reposant sur l’implication active, à chaque étape du processus de recherche, de citoyens concernés par la problématique explorée. Elle valorise les savoirs issus de l’expérience et vise à créer un dialogue entre les chercheurs et les autres citoyens afin de co-construire des savoirs et des actions.
La recherche participative implique différents acteurs, tels que :
la société civile, en particulier les populations concernées par la question de recherche ;
la recherche académique ;
les pouvoirs publics locaux, afin d’assurer une mise en pratique concrète.
La participation citoyenne s’exerce tout au long du processus de recherche : identification de la problématique, collecte et analyse des données, diffusion des résultats et éventuelle existence du collectif après la fin du projet.
Dans la pratique quotidienne, les savoirs et méthodes des différents acteurs peuvent diverger, ce qui favorise un apprentissage mutuel. Chacun s’enrichit des connaissances et expériences des autres. Cela contribue ainsi à une production de savoirs plus ancrée dans les réalités sociales.
Les retombées de cette approche sont parfois très concrètes. Caroline Huron, chercheuse à l’Inserm, mène ainsi une recherche-action participative avec des enfants dyspraxiques et leurs familles, étudiant par exemple la qualité de vie des parents.
La chercheuse a même créé une association, « Le cartable fantastique », « pour concevoir des ressources pédagogiques adaptées aux enfants dyspraxiques ».
La participation citoyenne répond à certains problèmes (d’environnement, de santé publique, etc.) par des approches transdisciplinaires et inclusives. La diversité des perspectives favorise l’émergence d’idées nouvelles et de solutions inédites.
La recherche participative participe à la démocratisation de la science en rendant le savoir plus accessible et en facilitant l’appropriation des résultats par les acteurs concernés. Elle permettrait ainsi, dans l’idéal, de favoriser l’inclusion des populations marginalisées dans les processus de décision. Inscrite dans une démarche éthique, elle met l’accent sur le bien-être collectif et une science plus ouverte.
Mener une recherche participative nécessite une gestion attentive des relations de pouvoir et une réelle volonté de collaboration. Divers défis peuvent ainsi se présenter en cours de route :
le recrutement : un des défis importants en matière de recherche participative concerne le recrutement des citoyens-chercheurs. La recherche participative ne doit pas être élitiste, là où il peut être difficile d’atteindre certains groupes d’individus ;
l’engagement : un autre défi, plus insidieux, est l’épuisement et la démobilisation des citoyens. Lorsqu’on sollicite intensément des participants sans reconnaissance adéquate (financière, symbolique ou professionnelle), cela peut créer une lassitude et réduire leur engagement sur le long terme. Or, parfois, les financements disponibles ne sont pas mobilisables à cette fin, pour des questions juridiques – la recherche participative ne peut pas se traduire en contrat de travail pour le citoyen – ou sont insuffisants pour une indemnisation ;
le temps : les délais et démarches pour l’établissement des conventions, ou encore l’approbation éthique concernant l’aspect participatif des projets, représentent également des barrières à l’implication citoyenne.
En somme, il est nécessaire d’imaginer de nouvelles formes de rapprochement permettant d’aller vers les personnes qui ne connaissent pas la recherche, ou vers les chercheurs qui ne sont pas sensibilisés à la recherche participative, en organisant des formations adéquates sur ce sujet.
Il est important que les chercheurs soient accessibles et prennent le temps de découvrir les acteurs de la société civile, pas seulement pour des raisons lucratives (obtention de financements), mais également afin d’être à l’écoute des besoins de chacun. Un des moyens d’apprendre à se connaître passe par l’organisation de rencontres fréquentes, au travers des visites de laboratoire, d’évènements où les associations peuvent se présenter, ou même de ciné-débats.
Ces rencontres multiples doivent se tenir dans des lieux publics, sans hégémonie de savoir (mairies, bibliothèques, maisons de quartier), où chacun se sente légitime d’entrer. Les boutiques des sciences, par exemple, ont vocation à créer ce type de rapprochement. Ces rencontres aussi doivent conduire à une meilleure connaissance et reconnaissance de l’expertise de l’autre, un des piliers nécessaires à la co-construction de projets de recherche participative.
Il faut souligner que les financeurs européens de la recherche incitent à la participation de la société civile dans les projets. En France, plusieurs dispositifs de financement soutiennent cette approche de la recherche : des plates-formes de financement participatif ou bien des services et appels à projets comme au sein de l’Inserm. De plus, des appels à projets sont lancés par des organismes publics comme l’Agence Nationale de la Recherche pour encourager l’implication citoyenne dans la recherche. Toutefois, le financement de ces initiatives demeure souvent limité (en nombre de projets lauréats) et plus modeste que celui des recherches classiques.
Les projets de recherche participative voient parfois le jour à l’initiative des chercheurs : c’est le cas de l’étude sur la constitution d’une cohorte de patients atteints de polypose adénomateuse, une maladie rare qui se caractérise par le développement d’adénomes (ou tumeurs bénignes) dans le côlon, le rectum, puis le duodénum, qui induisent un risque majeur de cancer du côlon.
Ils peuvent aussi émaner des citoyens. Chercheur en neurosciences cognitives, Guillaume Sescousse raconte ainsi une expérience de recherche participative avec des collégiens, à l’initiative d’un de ses amis :
« Mon impact a été plus fort en une journée de recherche participative qu’avec mon dernier article », rapporte-t-il.
On citera aussi les recherches de Marie Préau concernant l’identification de troubles cognitifs qui impactent le quotidien de personnes souffrant d’un cancer du sein, également autour du partage du diagnostic par les personnes séropositives.
Enfin, les projets peuvent être coconstruits, comme pour la recherche participative menée par Caroline Huron avec les familles d’enfants dyspraxiques mentionnée plus haut.
Le premier écueil sur lequel la vigilance des chercheurs ne devrait faiblir à aucun moment est l’instrumentalisation des citoyens. En effet, l’effort et le temps que représente l’apprentissage de l’approche participative peuvent mener l’équipe de recherche à abaisser le degré de participation citoyenne dans la prise de décision.
Cette minimisation de la parole citoyenne est souvent symptomatique d’une hiérarchisation des savoirs à laquelle il faut prêter attention, pour ne pas rompre la confiance des citoyens.
Il apparaît aussi crucial de se soucier de l’appropriation des résultats par la société et donc de leur traduction : la rencontre entre la recherche et la société civile fait inévitablement émerger de nouveaux questionnements, voire une certaine urgence à y répondre. Une relation chercheur – citoyen de qualité, comme précisé plus haut, nécessite du temps. Il est donc d’importance de pérenniser le partenariat pour rapprocher durablement ces deux mondes.
Il existe une pluralité de façons de faire de la recherche participative, et une pluralité de degrés de participation. De ce fait, cette approche peut ne pas revêtir exactement la même définition pour l’ensemble de la communauté scientifique.
Avec les garde-fous énoncés dans cet article, nous imaginons la recherche participative comme l’opportunité unique d’une autre contribution de la science à la société, et de la société à la science.
Elsa Bombrun, ingénieure agronome, a également participé à la rédaction de cet article.
Jean-Michel Escoffre est trésorier de Centre-Sciences. Il a reçu des financements de l’Agence nationale de la recherche, l’Inserm, l’université de Tours, la Région Centre-Val de Loire, la Ligue contre le cancer.
Virginie Hamel a reçu des financements des Fonds de Recherche en Santé du Québec (FRQS).
Claudie Lemercier, Elsa Bombrun, Houda El Azzaoui et Mélissa Mialon ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
02.07.2025 à 18:34
Jérémy Lemarié, Maître de conférences à l'Université de Reims Champagne-Ardenne, Université de Reims Champagne-Ardenne (URCA)
Invented in Hawaii, surfing gained popularity in the United States and Australia in the 1950s before becoming a global phenomenon. Now practiced in more than 150 countries, its spread has been driven by media and tourism. Surf tourism involves travelling to destinations to catch waves, either with a surfboard or through activities such as body surfing or bodyboarding. Tourists range from seasoned surfers to beginners eager to learn.
For many, surf tourism evokes exotic imagery shaped by California production companies. Columbia Pictures in 1959 and Paramount Pictures in 1961 introduced surfing to the middle class, showcasing the sport as a gateway to summer adventure and escape. However, it was the 1966 movie The Endless Summer, directed and produced by Bruce Brown, that became a box office success. The film follows two Californians travelling the globe in search of the perfect wave, which they ultimately find in South Africa. Beneath the seemingly lighthearted portrayal of a “surf safari”, it carries undertones of colonial ambition.
In the film, the Californians tell people in Africa that waves are untapped resources ready to be named and conquered. This sense of Western cultural dominance over populations in poorer countries has permeated surf tourism. Since the 1970s, French surfers have flocked to Morocco for its long-breaking waves, Australians have flocked to Indonesia and Californians to Mexico. The expansion of surfing to Africa, Asia and Latin America was enabled by easier international travel and economic disparities between visitors and hosts.
Indonesia, for instance, became a surfing hotspot after Australian surfers started to explore the waves of Bali and the Mentawai Islands in the 1970s. Once remote regions with modest living standards, these areas saw tourism infrastructure mushroom to meet demand. Today, destinations such as Uluwatu in Bali and Padang Padang in Sumatra attract surfers of all skill levels.
Similarly, Morocco has experienced a surge in surf tourism, with spots such as Taghazout drawing European visitors in search of affordable waves and sunshine. While this has boosted local economies, it has also raised concerns about environmental degradation and the strain of tourism on previously untouched areas.
Although surfing is often seen as an activity in harmony with nature, mass tourism has created tensions between local surfers and visitors. Overtourism refers to the negative impact of excessive tourist numbers on natural environments and local communities.
One response to overtourism is localism – where local surfers assert ownership of waves, sometimes discouraging or even intimidating outsiders. This has been particularly pronounced in economically dependent surf destinations. For example, in Hawaii during the 1970s and 1980s, local surfers protested against the influx of professional Australian surfers and international competitions. Today, localism persists globally, from Maroubra in Sydney to Boucau-Tarnos in France’s Nouvelle-Aquitaine region. These places are not systematically off-limits to beginners, but major conflicts can arise during peak tourist seasons.
Surf schools, while crucial for teaching newcomers, also exacerbate crowding. During high seasons, beaches such as Côte des Basques in Biarritz become overcrowded, straining relations between experienced surfers, instructors and novices. Beginners, often unaware of surf etiquette and safety rules, contribute to frustrations among seasoned surfers.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
In response to these challenges, public initiatives have emerged to promote sustainable surf tourism. For instance, the Costa Rican government has established marine protected areas and regulated tourism activities to preserve a part of the coastal environment. Local authorities have also begun capping the number of surf schools and making access to the practice more difficult.
In southwestern France, municipalities use public service delegations (DSP), temporary occupation authorisations (AOT) and other tools to regulate surf schools operating on public beaches. Environmental awareness programmes have been launched to educate tourists on responsible behaviour toward beaches and oceans.
Despite these measures, many coastal regions face insufficient action to address the environmental and social challenges posed by surf tourism. In Fiji, a 2010 decree deregulated the surf tourism industry, eliminating traditional indigenous rights to coastal and reef areas. This allowed unregulated development of tourism infrastructure, often ignoring long-term ecological impacts.
Similar issues are seen in Morocco, where lax regulations allow foreign investors to exploit coastal land for hotel development, often providing little benefit to local communities.
Yet, there are success stories. In Santa Cruz, California, the initiative Save Our Shores mobilises citizens and tourists to protect beaches through anti-pollution campaigns and regular cleanups.
Surf tourism has brought significant economic benefits to many coastal regions. However, it has also introduced social and environmental challenges, including localism, overcrowding and ecological strain. Managing these issues requires a collaborative approach, with governments, local stakeholders and tourists working together to preserve the sport’s connection to nature.
This article was published as part of the 2024 Fête de la Science, of which The Conversation France was a partner. The year’s theme, “Oceans of Knowledge,” explored the wonders of the marine world.
Jérémy Lemarié is a member of the Fulbright network, as the recipient of the “Chercheuses et Chercheurs” grant from the Franco-American Commission in 2022-2023.
02.07.2025 à 15:06
Serge Rabier, Chargé de recherche Population et Genre, Agence Française de Développement (AFD)
L’aide au développement fournie par les pays occidentaux, que ce soit via leurs structures étatiques ou à travers diverses organisations internationales ou fondations caritatives, a mis en avant, au cours des dernières décennies, des priorités variées. En matière de démographie, on a observé une certaine constance : de nombreuses actions ont été entreprises pour aider – ou inciter – les pays les moins développés à réduire leur natalité.
En février 2025, l’une des premières mesures de la nouvelle administration Trump a été de purement et simplement supprimer l’agence des États-Unis pour le développement international (USAID), avec pour conséquence de couper des financements représentant plus de 40 % de l’aide humanitaire mondiale.
L’arrêt de la contribution majeure des financements américains destinés au développement invite à un retour historique sur le rôle et l’influence des États-Unis en matière de définition et de déploiement de l’aide publique au développement, en particulier à travers le prisme démographique.
Depuis près de soixante ans, l’agenda international du développement a connu des orientations prioritaires variées, le primat ayant été donné successivement à l’industrialisation, à la lutte contre la pauvreté, aux programmes d’ajustement structurel puis au développement humain et aux enjeux de gouvernance et de droits humains (y compris ceux des femmes et des filles) à l’ère de la mondialisation. À partir de 2000 et jusqu’à aujourd’hui, cet agenda a mis l’accent sur d’autres thématiques : lutte contre les inégalités, urgences climatique et environnementale, finance durable.
Toutes ces orientations prioritaires se sont traduites dans des narratifs démographiques spécifiques : démographie et géopolitique ; démographie et droits humains ; démographie et crise climatique, pour n’en prendre que trois.
Dans le premier cas, les tendances de la fécondité dans les pays en développement ont justifié le soutien financier et logistique à des programmes de contrôle des naissances au nom de la défense des valeurs occidentales contre l’expansionnisme de l’URSS. Dans le deuxième cas, l’affirmation de l’approche par les droits a voulu minorer les dynamiques démographiques en privilégiant la reconnaissance des droits des personnes à décider en matière de droits sexuels et reproductifs. Dans le troisième cas, le plus contemporain, l’argument du poids encore croissant de la population mondiale, et donc de sa limitation nécessaire, serait une (voire la) réponse à la crise climatique, oubliant au passage la cause principale que représente le « modèle » du développement extractiviste et consumériste actuel.
Dans le quatrième point de son discours d’investiture du 20 janvier 1949, le président Harry Truman présente la nécessité d’un « programme nouveau et courageux pour rendre accessibles les résultats bénéfiques de nos avancées scientifiques et de notre progrès industriel en vue des progrès et de la croissance dans les nations sous-développées ».
Au-delà de l’aspect généreux de l’engagement présidentiel dans la lutte contre « l’ignorance, la maladie et la misère » ainsi que les nécessités, plus intéressées, de reconstruction économique, en particulier de l’Europe dévastée par la Seconde Guerre mondiale, il faut aussi voir dans ce programme le poids des néomalthusiens inquiets des risques selon eux liés à l’explosion démographique dans les pays du tiers-monde, de l’Asie en particulier.
Ainsi, à l’orée de la décennie 1950, le facteur démographique apparaît à la fois, d’une part, comme une justification pour soutenir le développement des pays pauvres qui, processus de décolonisation aidant, deviendront des États indépendants ; et d’autre part, comme une composante majeure de la politique étrangère des États-Unis que leur statut de « super-puissance » de plus en plus évident leur imposait.
En effet, outre l’argument souvent mis en avant (à juste titre) de l’engagement économique (Plan Marshall) et politique (le début de la guerre froide) des autorités gouvernementales, il faut souligner le rôle d’éminents démographes tels que Kingsley Davis (The Population of India and Pakistan (1951)), Hugh Everett Moore (The Population Bomb (1954)), ou encore Ansley J. Coale et Edgar M. Hoover (Population Growth and Economic Development in Low-Income Countries (1958)).
En étudiant l’impact de la croissance démographique (présentée comme excessive et donc néfaste) sur le développement économique, ils sont au fondement des débats ultérieurs sur l’articulation entre population et développement, ainsi que des financements publics des politiques de planification familiale de nombreux bailleurs bilatéraux (États-Unis, Royaume-Uni et Suède notamment) et multilatéraux (Banque mondiale, ONU).
Enfin, la mise à l’agenda de l’explosion démographique du tiers-monde a été rendue possible par la conjonction de certains travaux de la communauté académique et de l’engagement de grandes fondations à but non lucratif des États-Unis, qui a contribué à proposer et à financer des programmes de recherche et de terrain en matière de contrôle et de limitation des naissances, de promotion de la contraception et de la planification familiale.
De fait, la puissance d’imposition d’un tel agenda a bénéficié de facteurs déterminants : capacité financière des fondations privées Rockefeller, Ford, MacArthur rejointes dans les décennies 1990/2000 par, entre autres, la William and Flora Hewlett Foundation, la David and Lucile Packard Foundation ou encore la Bill and Melinda Gates Foundation ; implication d’universités et d’institutions scientifiques privées, parmi lesquelles le Population Reference Bureau (1929), le Population Council (1952), Pathfinder (1957) et plus tard, le Guttmacher Institute (1968) ; et enfin, quelques années plus tard, les financements institutionnels massifs de l’USAID.
Ces financements permettront aussi à des bureaux de consultants américains de devenir des intermédiaires incontournables dans la conception, la mise en œuvre et l’évaluation des programmes de planification familiale : Futures Group, 1965 ; Management Science for Health, 1969 ; Population Services International, 1970 ; Family Health International, 1971 ; John Snow Inc., 1975.
C’est au cours de la conférence mondiale de Bucarest (1974) (Conférence mondiale sur la population des Nations unies) que s’affrontent les tenants de deux approches opposées du développement au regard des enjeux, réels ou supposés, de la démographie.
D’un côté, il y a les pays développés à régimes démocratiques libéraux, inquiets des conséquences économiques, alimentaires, environnementales de l’évolution démographique du monde – une inquiétude qui se trouve au cœur du livre alarmiste de Paul R. Erhlich, The Population Bomb (paru en français sous le titre La Bombe P) et du texte de l’écologue Garrett Hardin sur la tragédie des biens communs, tous deux parus en 1968. De l’autre, il y a les pays ayant récemment accédé à l’indépendance, souvent non alignés et rassemblés sous l’appellation « tiers-monde » : pour la plupart d’entre eux (surtout sur le continent africain), la maîtrise de la croissance de la population n’est pas la priorité.
À travers le slogan « Le meilleur contraceptif, c’est le développement », ce sont la croissance et les progrès économiques qui sont mis en avant comme préalables à la nécessaire articulation des enjeux démographiques et économiques.
La Conférence internationale sur la population et le développement (Le Caire, 1994) représente le moment de bascule entre des objectifs gouvernementaux strictement démographiques en termes de contrôle de la fécondité (au prix souvent de fortes mesures incitatives voire coercitives, voire d’eugénisme social telles que l’Inde a pu en connaître) et l’affirmation du droit des femmes à contrôler librement leur santé et leur vie reproductive ainsi que celui des ménages à décider de manière informée du nombre d’enfants qu’ils souhaitent avoir (ou non) et de l’espacement entre les naissances de ceux-ci.
Ainsi, avec le « consensus du Caire », la problématique du développement n’est plus simplement affaire d’objectifs démographiques quantifiables ; elle acte que l’approche fondée sur les droits doit contribuer aux agendas du développement, successivement les Objectifs du millénaire pour le développement (2000-2015) puis les Objectifs du développement durable (2015-2030).
Le financement et la mise en place de programmes de soutien à la planification familiale, qui avaient été conçus pour limiter le déploiement incontrôlé d’une sorte de prolétariat international pouvant servir de réservoir démographique au bloc communiste, se sont déployés en particulier avec le soutien financier massif des fondations précédemment évoquées.
Ces programmes, sous le nouveau vocable de « politiques de population », se sont progressivement inscrits dans l’agenda du développement international des gouvernements américains successifs. C’est au cours des années 1960-1980 que les États-Unis assument le leadership du financement international des politiques de population en Asie, en Afrique et en Amérique latine avec l’USAID, tout en soutenant fortement la création en 1969 du Fonds des Nations unies pour la population (FNUAP), devenant ainsi un acteur clé du financement des politiques de population, avec une part variant entre 30 % et 40 % des financements mondiaux dans ce domaine.
De fait, à partir des années 1980, l’USAID est le principal canal de financement des enquêtes démographiques et de santé ou EDS (plus connues sous leur acronyme anglais DHS pour Demographic and Health Surveys), qui permettent, de façon régulière, aux pays en développement de bénéficier des données socio-démographiques nécessaires à la définition et à la mise en place de certaines politiques publiques en matière de population, d’éducation, de santé et d’alimentation.
Une inflexion à cet « activisme » démographique au nom des valeurs conservatrices survient en 1984, lorsque le président Ronald Reagan instaure la politique dite du « bâillon mondial » (« Mexico City Policy »), supprimant les financements états-uniens aux organisations de la société civile qui font, supposément ou non, la promotion de l’avortement. Cette politique sera tour à tour supprimée et ré-installée au rythme des présidences démocrates et républicaines jusqu’à aujourd’hui avec, en point d’orgue, la suppression de l’USAID dès les premiers jours de la seconde présidence Trump.
Les dynamiques démographiques actuelles, marquées par la baisse universelle de la fécondité (à l’exception notable de l’Afrique subsaharienne), l’allongement de l’espérance de vie, la remise en cause des droits en matière de fécondité, la politisation des migrations internationales et le vieillissement de la population mondiale dans des proportions jusqu’ici inconnues vont dessiner un tout autre paysage démographique d’ici à 2050.
Enfin, le retour des concurrences exacerbées de puissances, la fin de la mondialisation dite « heureuse », la résurgence du néo-mercantilisme et, surtout, la nécessité désormais incontournable de l’adaptation au changement climatique, sont autant d’enjeux qui, tous ensemble, vont requestionner radicalement le nexus démographie-développement.
Serge Rabier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.07.2025 à 15:05
Carole Avignon, Maîtresse de conférences en Histoire du Moyen Age, Université d’Angers
Au Moyen Âge, le terme « bâtard » ne vaut pas toujours stigmatisation. D’ailleurs, il n’acquiert une pleine valeur d’insulte qu’à partir du XIXe siècle. Par le passé, les expériences sociales de filiations illégitimes sont bien plus complexes qu’on ne l’imagine aujourd’hui, ainsi que le met en évidence le programme de recherche « Filiations, identité, altérité médiévales ».
C’est l’histoire d’un Live Twitch programmé en avril 2025 par la très respectable émission « De l’eau dans le gaz », proposée par Terre des sciences, acteur reconnu de l’écosystème de la médiation scientifique dans les Pays de la Loire.
Puisque le pari de notre programme de recherche Filiations, identité, altérité médiévales (Fil_IAM), soutenu de 2020 à 2025 par l’Agence nationale de la recherche (ANR), fut de proposer le développement d’un prototype de jeu vidéo pour partager des résultats de recherche, pourquoi ne pas mobiliser en effet le canal de partage d’expériences des gamers, la chaîne Twitch ?
Il fallut toutefois en passer par quelques précautions spécifiques au média en ligne, avec ses stratégies de modération propres à l’univers des réseaux sociaux. Nous avons ainsi évité de laisser le mot « bâtard » dans les titres, il nous a fallu prévenir les auditeurs de s’abstenir de commenter le « live » en utilisant le mot « bâtard »…
Dès que les interlocuteurs n’étaient pas expressément acculturés aux champs de recherche en sciences humaines et sociales, voilà que parler de « bâtards », même au Moyen Âge, suscitait une prévention spontanée, une inquiétude, assez vite résolue certes, mais bel et bien palpable…
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
Cette expérience fait ressortir une forme de malentendu, un hiatus entre les canaux usuels de la connaissance historique (colloques, publications universitaires) et les espaces grand public au sein desquels chercheurs et chercheuses peuvent être conviés à partager leurs recherches.
Cela nous invite à réfléchir aux modes de transmission de la science, à la manière dont peuvent se télescoper les codes et les imaginaires de différentes époques et donc au recul et à la remise en perspective qu’apporte la recherche. Que peut nous apporter au XXIe siècle la connaissance des logiques de filiation au Moyen Âge ?
L’anecdote montre que la connotation injurieuse du vocable a la peau dure ! Sans doute aussi le très grand public n’est-il pas toujours bien au clair avec ce que faire de l’histoire veut dire. Car, ici, il s’agit d’étudier en historienne ou historien un statut social, celui des « bâtards », des « fils et filles illégitimes », des « enfants naturels », une variable d’identité, fruit d’une construction juridique enracinée dans les enjeux normatifs et politiques des IXe- XIIIe siècles (celle de l’illégitimité de la filiation).
Il s’agit de considérer les trajectoires sociales de celles et de ceux qui pâtissent des incapacités juridiques et sociales induites qui se déclinent en exclusion du périmètre de l’« hereditas » (incapacité à hériter de ses ascendants – géniteurs non mariés, et à transmettre en dehors des liens construits dans le mariage légitime), exclusion de l’accès aux ordres sacrés de l’Église, de bien des métiers et corporations attachés à l’honorabilité, héritée, de leurs membres, etc.
Mais ce panel d’incapacités ne réduit pas à lui seul la possible grille de lectures de ce que l’illégitimité de la filiation ou « bastardie » a fait aux sociétés médiévales de l’Europe latine.
Depuis 2012, j’anime en tant que médiéviste des programmes pluridisciplinaires de recherche pour explorer ce que la filiation illégitime fait à la parenté et comment s’exprime la bâtardise. Avec une quarantaine de spécialistes d’histoire, d’histoire du droit, de démographie historique, de littérature, de civilisation, de linguistique, nous avons proposé en 2016 un cadre problématique dans Bâtards et bâtardises dans l’Europe médiévale et moderne, aux Presses universitaires de Rennes. Nous y avons abordé ce que la bâtardise nous révèle des sociétés passées, ses régimes juridiques, la place des bâtards dans les sociétés d’Ancien Régime, entre stigmatisation, discrimination et intégration.
Parmi les contributions, celle de la professeure des sciences du langage à l’Université Savoie Mont-Blanc Dominique Lagorgette permettait de dresser un panorama des sens et des usages de « bastards » ainsi que de l’expression souvent associée « fils à putain » dans un corpus de textes du Moyen Âge, littéraires et non littéraires. Il s’agissait d’étudier la manière dont ce mot pouvait parcourir l’échelle axiologique. La conclusion était que « bastard » n’avait pas acquis sa valeur d’insulte avant le XIXe siècle, « insulte par ricochet, insultant autrui mais blessant le récepteur ».
Bien sûr, la potentielle connotation sexuelle de l’usage du mot à fin d’invective n’était pas ignorée dans certains contextes d’énonciation. Bien sûr, la « macule » de « géniture », comme pouvait s’exprimer aussi le fait de ne pas être né de parents mariés conformément aux attentes normatives socialement construites du temps, établissait les soubassements d’un discours sur la souillure et la tache.
C’est sur cette tache qu’est construit le titre choisi par la spécialiste de la bâtardise à l’époque moderne, Sylvie Steinberg, quand elle publie en 2016 un ouvrage de référence pour étudier « par-delà droit et théologie […] la dimension vécue des liens entre enfants et parents ».
À lire aussi : Non, les enfants n’étaient pas négligés au Moyen Âge : la preuve par l’éducation
La « semence maudite » dénoncée dans le Deutéronome (pour ceux qui ne sont pas alors les « bâtards » du Moyen Âge, pas même encore les « fils de prêtres ») est réinterprétée de texte en texte, déployant les champs sémantiques de l’impureté, de la corruption, de l’incomplétude.
De même le « defectus natalium » qui définit une « irrégularité » dans l’accès à l’ordination des prêtres induit-il une « altération » de la qualité de la naissance comme un « vitium » du corps, ou une incomplétude. De même la promotion pastorale de l’honorabilité du mariage canonique a-t-elle pu être portée par le travail sur le langage de la couche (nuptiale) sans souillure, le « thorus immaculatus » de l’Épître aux Hébreux (Hé., 13).
Mais toute mobilisation du terme « bâtard » ne vaut pas stigmatisation au Moyen Âge. Il sait fonctionner comme un titre, presque une épithète d’honneur dans certaines configurations, en particulier dans les groupes nobiliaires. L’ouvrage de Marie-Lise Fieyre sur les bâtards des Bourbon pourra enrichir la recherche sur les bâtards dans les lignages nobiliaires et princiers.
Avec le programme Fil_IAM, il s’agit de renouveler les grilles de lecture des bâtardises médiévales, en mobilisant aussi les apports méthodologiques des « disability studies ». Ainsi l’on saisit des scripts d’incapacité, les enjeux des opérations administrativo-politiques de réhabilitation des fils et filles marqués par une altération de la qualité de leur naissance et plus ou moins entravés dans leur insertion sociale selon d’autres variables (groupe social d’appartenance du père, de la mère, genre, place dans la fratrie, etc.).
Le malentendu s’entend : « bâtards » vaut insulte cuisante aujourd’hui, mais les historiennes et historiens peuvent se saisir de cet objet, en tant qu’il pourrait être effectivement la marque d’une insulte, mais, aussi, en tant qu’il pourrait ne pas l’être…
Les malentendus persistants ont eu le mérite de révéler le besoin d’historicité, de dissémination de savoirs historiques, notamment liés aux époques médiévales, auprès de tous les publics.
Le prototype de jeu vidéo Cap ou pas Cap ? Bandes de bâtards a pour objectif d’éclairer quelques-unes des mécaniques sociales des XIIIe- XVe siècles.
Le titre a été pensé en clin d’œil aux défis de cours d’école (puisque le jeu est pensé en particulier pour prolonger quelques séances de cours d’histoire de 5e), mais aussi pour ouvrir un espace d’interrogations à partager.
Afin de prolonger l’expérience, le programme a également produit une série de podcasts, pour mieux comprendre ce que c’est que faire de l’histoire aujourd’hui, et de l’histoire médiévale en particulier, autour des bâtardes et bâtards du Moyen Âge.
Carole Avignon a reçu des financements de l'Université d'Angers (soutien de la commission recherche pour son premier programme de recherche F-illégitime) et de l'ANR au titre du programme JCJC (pour le programme Fil_IAM: ANR-19-CE41-0004) et au titre du programme ANR SAPS (UA-Class)
02.07.2025 à 15:04
Myriam Benraad, Senior Lecturer in International Politics, Negotiation & Diplomacy, Sciences Po
Lutte pour l’hégémonie régionale, la non-reconnaissance des frontières post-coloniales, la vulnérabilité des minorités ethno-confessionnelles ou contre l’escalade de la violence et les calculs déstabilisateurs des parties extérieures au conflit… Toutes ces problématiques, d’une grande actualité aujourd’hui au Moyen-Orient, se trouvaient déjà au cœur des accords signés à Alger, le 6 mars 1975, par l’Iran du chah et l’Irak de Saddam Hussein. Retour sur un moment d’espoir pour la région, vite douché : cinq ans plus tard, les deux pays entraient dans une guerre longue et terriblement meurtrière.
Le 6 mars 1975, en marge d’un sommet de l’Organisation des pays exportateurs de pétrole (Opep) tenu dans la capitale de l’Algérie, à l’issue d’une médiation du président Houari Boumédiène, l’Irak de Saddam Hussein et l’Iran de Mohammed Reza Pahlavi signent les accords d’Alger. Ces textes doivent permettre aux deux États de résoudre leurs différends, au premier rang desquels la délimitation de leurs frontières terrestres et fluviales (Basse-Mésopotamie, plaines et piémonts centraux, Kurdistan), dans le cadre d’une solution jugée « globale ».
La satisfaction affichée par les parties concernées est toutefois de courte durée : dans les faits, il n’y aura jamais ni reconnaissance par Bagdad et Téhéran de l’inviolabilité des frontières du pays voisin, ni respect de l’obligation de non-ingérence dans leurs affaires intérieures respectives. Au contraire, les accords d’Alger créent une impasse. Cinq ans plus tard, ce sera le déclenchement entre l’Iran et l’Irak d’une guerre de huit longues années (1980-1988) qui fera près d’un demi-million de morts de chaque côté.
Cet échec de la diplomatie, qui n’est pas le premier dans l’histoire du Moyen-Orient, n’est pas sans faire écho à la trajectoire récente, voire immédiate, de la région. Il illustre la persistance des conflits frontaliers dans cette partie inflammable du monde – de la bande de Gaza au Liban, en passant par le Yémen et la Syrie.
En 1975, les États-Unis souhaitaient le renforcement de leur influence et de celle de l’Iran – alors un allié – dans le Golfe pour contrer l’Union soviétique. Ils n’hésitèrent pas à sacrifier les aspirations kurdes dans le Nord irakien, selon un scénario qui fait songer à la manière dont plus tard, dans la foulée de la guerre contre l’État islamique, Washington abandonna à leur sort ses partenaires kurdes en Syrie.
Comme en 1975 pour leur frères irakiens, les Kurdes de Syrie sont en effet, aujourd’hui, prisonniers d’un jeu géopolitique complexe qui engage leur survie, entre pressions grandissantes de la Turquie, abandon de leur vieux rêve d’indépendance et intégration incertaine à l’appareil militaro-sécuritaire érigé par un djihadiste « repenti », Ahmed al-Charaa.
Au milieu des années 1970, après quatorze ans de lutte révolutionnaire, le mouvement de libération kurde s’effondre en Irak. Le chah d’Iran avait établi des liens étroits avec le leader kurde irakien Mustafa Barzani depuis le milieu des années 1960, et fourni à ses hommes un armement considérable. Après l’arrivée au pouvoir à Bagdad des baasistes en 1968, Téhéran avait encore accru son appui militaire et financier, incité en ce sens par Richard Nixon et Israël.
Dès lors, les difficultés de l’Irak pour réprimer le soulèvement kurde, qui menaçait de faire chuter le régime, furent telles que Saddam Hussein – alors vice-président, mais déjà homme fort de Bagdad – s’était résolu à un compromis, soit une cession de territoires à l’Iran. Il va sans dire que cet épisode laissa un goût amer au Kurdistan, abandonné par Téhéran et Washington dès les premières heures ayant suivi la signature des accords d’Alger, puis immédiatement attaqué par l’armée de Saddam Hussein.
Pis, rien ne fut fondamentalement réglé entre l’Irak et l’Iran dans la mesure où aucun de ces deux États n’avait renoncé à l’intégralité de ses revendications. De ce point de vue, les accords d’Alger étaient sans doute trop généraux dans leur formulation. Du côté irakien, ils suscitèrent ainsi indignation et sentiment d’humiliation, conduisant paradoxalement à une aggravation des tensions alors qu’ils étaient supposés les calmer. Les Irakiens estimaient que leurs droits avaient été bradés au profit de l’Iran, en particulier dans le détroit d’Ormuz alors occupé par la marine impériale du chah, par lequel transitent 20 % du pétrole mondial actuel et que la République islamique a menacé de fermer à la suite de la « guerre des 12 jours » avec Israël.
De fait, n’était-ce pas de façon superficielle que les accords d’Alger postulaient l’existence de « liens traditionnels de bon voisinage et d’amitié » entre ces pays ? Qu’en était-il vraiment ? Ces États pivots du Moyen-Orient partageaient-ils un intérêt justifiant une telle coopération à leur frontière ? Saddam Hussein arriva à la table des pourparlers résolu à écraser ses adversaires, tandis que le chah convoitait une extension de son influence régionale.
Il n’y aura pas de visite du monarque en Irak, comme la prévoyaient initialement ces accords, ou de déplacement de Saddam Hussein en Iran. La « nouvelle ère dans les relations irako-iraniennes en vue de réaliser les intérêts supérieurs de l’avenir de la région » évoquée sur le papier ne se matérialise pas.
S’ils ne modifiaient que partiellement le tracé de la frontière terrestre, les accords d’Alger ne s’embarrassaient pas d’attentions juridiques quant au volet fluvial de la dispute. Ils accordaient aux Iraniens ce qu’ils avaient longtemps recherché dans la zone du Chatt al-’Arab (« rivière des Arabes », baptisée Arvandroud en persan), cet exutoire à la confluence du Tigre et de l’Euphrate qui se jette dans le Golfe persique. Les Irakiens resteront emplis de rancœur face à ce transfert de territoire vers leur voisin ennemi, qu’ils estiment arbitraire.
Comme l’écrira le politologue Hussein Sirriyeh, en l’absence de confiance réciproque,
En octobre 1979, peu après l’avènement de la République islamique à Téhéran, l’Irak dénonce les accords et somme l’Iran de quitter son sol. Puis, en mai 1980, Saddam Hussein annonce que les accords d’Alger sont nuls et non avenus. En septembre 1980, les forces irakiennes envahissent l’Iran avec l’assentiment de nombreux États du Golfe, qui redoutent une exportation de la révolution islamique au sein de leurs frontières. Cette étape fait muter une guerre des mots en une guerre tangible aux conséquences dévastatrices dans un camp comme dans l’autre.
Les accords d’Alger, qui devaient façonner une coexistence pacifique entre l’Irak et l’Iran, sont donc enterrés. Les répudier revient aussi pour Saddam Hussein à rejeter en bloc la notion d’inviolabilité des frontières du Moyen-Orient post-colonial, comme en attestera par la suite sa décision d’annexer le Koweït en 1990.
Mais ce nationalisme à la fois arabe et irakien ne remonte pas aux seuls accords d’Alger. On en trouve la trace dans le traité d’Erzeroum de 1847, sur lequel l’Irak, province ottomane à cette époque, fonde ses exigences. Rappelons que les chahs de Perse étaient entrés en conflit avec les sultans ottomans après que Sélim Ier, dit « le Terrible », (1470-1520) eut repoussé les frontières de l’empire vers l’est et fait passer l’Irak sous sa tutelle.
Dans l’entre-deux-guerres, les exigences irakiennes resurgissaient dans les débats de la Société des nations, comme en 1934 et 1935 lorsque le général Nouri al-Saïd, ministre des affaires étrangères, avait accusé les Ottomans d’avoir permis à Téhéran d’établir de nombreux ports le long du Chatt al-’Arab, contre un seul pour Bagdad. Cette conception d’un Irak arabe lésé par un Iran perse n’évoluera plus. Elle tend même à s’exacerber.
En 1990, un échange renouvelé de lettres entre Bagdad et Téhéran montre d’ailleurs que le conflit est loin d’être résolu. Puis, à partir de 2003 et de l’intervention militaire des États-Unis en Irak, il devient évident que la non-application des accords d’Alger ouvre la porte aux appétits territoriaux, politiques, mais également pétroliers, d’une République islamique débarrassée de son adversaire existentiel Saddam Hussein.
Indirectement, le legs laissé par les accords d’Alger est par ailleurs exploité par des acteurs non étatiques. On songe par exemple aux références des djihadistes à l’« ennemi safavide », lequel constituerait un danger pour tout le Moyen-Orient, mais aussi à la propagande virulente des milices irakiennes concernant les actions et les guerres de l’Occident. Sur fond de délitement de l’« Axe de la résistance » qu’avaient établi dès 2003 les mollahs, ces milices chiites, véritable « État dans l’État », convoiteraient-elles in fine une reprise en main plus pérenne des provinces du Sud irakien et notamment de la région du Chatt al-’Arab ?
Les effets au long cours de cet « arrangement » en définitive éphémère entre l’Irak et l’Iran en 1975 n’ont, dans tous les cas, pas fini de faire parler d’eux. Que reste-t-il, en effet, de cet « esprit des accords d’Alger » auquel se référait le texte originel, sinon des décennies de sanctions et de conflagrations ? N’est-ce pas plutôt un esprit de vengeance tous azimuts qui a fini par l’emporter ?
Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.07.2025 à 16:55
Sylvain Roche, Docteur en sciences économiques, Ingénieur de recherche et enseignant associé, Sciences Po Bordeaux
Depuis la fin du XIXe siècle, les marchandises voyagent à travers le monde grâce à des navires à moteur, alimentés par des combustibles fossiles. Pour décarboner le secteur, pourrait-on revenir à la voile ? C’est ce que proposent certaines entreprises, avec des voiliers-cargos modernisés, et l’objectif de changer les représentations du transport maritime.
Si elle a persisté à travers les sports nautiques et la navigation de plaisance, la voile se réinvente aujourd’hui dans le secteur du transport marchand pour répondre au triple enjeu de décarbonation, de réindustrialisation et de résilience.
Portée par des figures emblématiques de la course à la voile, de petites start-ups innovantes ou encore de grandes multinationales, elle apparaît comme un des choix technologiques les plus matures pour se projeter à long terme dans un contexte économique et géopolitique incertain. Le vent est une énergie verte, abondante et gratuite. En proposant un modèle alternatif, la voile inscrit le transport maritime dans un autre imaginaire, une autre modernité : celle de la sobriété.
Pour autant, l’alternative qu’elle propose n’est pas exempte de critiques. Pour ses défenseurs, le principal défi consiste à démontrer qu’elle a toute sa place dans un avenir décarboné. Dans un article publié en décembre 2024 dans la revue Développement durable et territoires, j’analyse comment le secteur doit proposer de nouveaux récits, adaptés à un monde écologiquement contraint.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Utilisée dès l’Antiquité, la voile a connu un déclin croissant dès la fin du XIXe siècle dans le transport marchand, puis une disparition, au profit du moteur thermique, plus efficace dans le cadre du commerce international et des ambitions coloniales des nations occidentales.
En poursuivant les imaginaires de puissance et de liberté, héritages des révolutions industrielles successives, le triptyque énergies thermique, chimique et électrique, structuré autour des énergies fossiles et fissiles, se définit toujours comme le modèle de référence, mais désormais sous un prisme écologique.
Aujourd’hui, le gaz naturel et les électro-carburants sont défendus par leurs promoteurs comme les solutions les plus rationnelles pour répondre aux objectifs de décarbonation des transports. Le cas emblématique est celui de l’hydrogène, totem de la croissance verte, entouré d’un imaginaire magique. L’énergie nucléaire, et son « mythe d’un monde affranchi de toutes contraintes naturelles » (à la différence des énergies renouvelables comme le vent), est aussi présentée comme solution technique pour le transport maritime de marchandises.
La filière au gaz naturel liquéfié (GNL) a connu un boom de 33 % entre 2023 et 2024, avec désormais plus de 700 navires en service dans le monde, dont un tiers de porte-conteneurs. Le GNL est devenu le carburant alternatif le plus employé dans le secteur maritime, et ceci, malgré les nombreuses études critiques soulignant ses limites écologiques.
Là où la complexité figure historiquement comme un gage de modernité technologique, la relative simplicité de la voile paraît hors sujet. Pour autant, comme mentionné par l’Ademe, « l’imaginaire dominant à l’origine de nos modes de vie modernes est aujourd’hui insoutenable puisqu’il met en péril l’habitabilité de la planète ».
Pour sortir de cette « fossilisation » des imaginaires, questionner la taille des navires du transport maritime devient légitime.
Les super-conteneurs sont devenus les emblèmes de l’industrie maritime moderne fondée sur les énergies fossiles. Artefacts répondant aux normes de « l’économie du gigantisme », ils incarnent un idéal de paix, porté par le « doux commerce » et son école de pensée libérale, et un idéal d’abondance : leur capacité de transport a été multipliée par plus de 20 en quarante ans.
Pour autant, ce modèle du gigantisme est aujourd’hui remis en question. Souvent, les ports secondaires ne sont pas équipés sur le plan logistique pour accueillir les mégacargos, qui font parfois plus de 400 mètres, ce qui représente un risque pour les infrastructures.
À l’inverse, les bateaux à voile font en moyenne entre 90 et 150 mètres. Citons, par exemple, le projet Windcoop et ses 91 mètres, ou encore le projet Neoline, considéré comme l’un des plus longs cargos à voile du monde, et ses 136 mètres.
Le transport à voile visait jusqu’ici des produits à forte valeur ajoutée comme le vin, le café ou encore le chocolat. Mais l’arrivée de cargos à voile de plus en plus grands, à l’image du Williwaw de 160 mètres, annoncé par l’entreprise Zéphyr & Borée, permet d’augmenter les volumes de cargaison, de les diversifier et de réduire les coûts actuels par des économies d’échelle. La filière s’ouvre ainsi au transport de véhicules par exemple.
Le vent ne soufflant pas tout le temps, le transport maritime à voile reformule le paradigme de la grande vitesse contrôlée, qui figure comme une impasse énergétique : plus on va vite, plus on consomme. À titre indicatif, la majorité des porte-conteneurs actuels ont une vitesse de 15 à 23 nœuds (28 à 43 km/h), alors que le cargo à voile de Neoline de 136 mètres affichera une vitesse réduite de 11 nœuds (environ 20 km/h).
La résurgence du transport maritime à voile pose aussi la question du temps social, en repensant notre rapport au territoire et à nos rythmes de vie. D’ailleurs, à la différence des fantasmes qui ont émergé dans le monde du transport terrestre ou aérien avec, par exemple, l’Hyperloop ou l’avion supersonique, la vitesse n’est pas une question primordiale pour le transport maritime, l’enjeu de la ponctualité étant bien plus important.
À ce titre, l’ambition d’autonomie des cargos à voile (installation de grues de chargement/déchargement à bord pour gagner en fluidité, ouverture de lignes commerciales secondaires en dehors des grandes routes internationales congestionnées, etc.) remettrait en question l’hégémonie des méga porte-conteneurs thermiques dans cette course à la vitesse. Réduire la vitesse des navires est aussi une mesure en faveur de la biodiversité marine, puisque cela diminue le bruit sous-marin et les risques de collision avec des cétacés.
Avec la révolution des outils numériques disponibles à bord, des simulations en temps réel permettent de suivre les meilleures trajectoires. Déployer ou replier une voile se fait désormais de manière automatisée. Ces nouveaux cargos à voile sont des concentrés de technologies, et bien qu’ils exploitent une technique millénaire, ils s’appuient également sur des outils contemporains, à l’image de l’IA et des prévisions satellitaires qui permettent d’optimiser les trajectoires. Des technologies matures et éprouvées issues du secteur aéronautique et des sports nautiques (matériaux carbone) sont intégrées dans l’élaboration des nouveaux voiliers.
Le transport maritime à voile s’inscrit dans un choc de la vitesse. Le modèle de la décélération (à l’image aussi du retour des dirigeables dans le transport aérien de marchandises) côtoie de plus en plus celui de la grande vitesse. Pareillement, la filière connaît un choc de la conception innovante, où la low-tech (la voile) va s’associer avec la high-tech.
Pour autant, l’incertitude et le risque associés au caractère pionnier de ces premiers cargos modernes rendent par nature la levée de fonds plus délicate.
Afin de s’assurer de la rentabilité économique du projet, les promoteurs des cargos à voile doivent trouver des clients (chargeurs ou logisticiens) qui s’engagent sur un nombre de conteneurs annuels pendant une durée généralement assez longue. Le processus de légitimation du transport à voile repose sur ces premiers clients qui parient sur la filière, parmi lesquels on peut trouver des start-ups/PME mais aussi des grands groupes.
Le concours actif de ces premiers clients est dès lors crucial, tout comme le soutien des acteurs publics. Le moindre coût de carburant doit permettre d’amortir l’investissement supplémentaire propre à la construction de cargos à voile de nouvelle génération. Le processus de légitimation et d’innovation marketing oblige à jongler continuellement entre un imaginaire romantique véhiculé par les bateaux à voile au sein du grand public et un discours technique pragmatique de rentabilité financière.
Enfin, le changement de paradigme reste à effectuer en premier lieu du côté des citoyens et des consommateurs. Le surcoût lié à l’usage de la voile – la taille des méga porte-conteneurs thermiques permet des économies d’échelle – doit encore pouvoir être répercuté sur le prix des marchandises. Une évolution décarbonée du transport maritime se fera pour des raisons marchandes et citoyennes plus que technologiques.
L’évolution des usages et des mentalités est donc un élément structurant pour constituer un véritable marché. Le transport de marchandises restant un secteur opaque d’un point de vue social et environnemental, la voile pourrait lui donner une nouvelle éthique. À ce titre, de nombreux armateurs véliques ont fait le choix d’une rémunération juste de leurs marins.
En 2014, la navigatrice Isabelle Autissier rappelait que la mer est un vecteur de l’imaginaire où « le marin devient le porte-drapeau d’une humanité plus vraie et plus désirable ». Tout comme les éoliennes (avec toutes les controverses qu’elles provoquent), la résurgence des mâts des navires se présente dès lors comme un symbole paysager fort qui redonne à voir le monde maritime (les cargos étant les grands invisibles de la mondialisation) et le transport.
Sachant que la durée de vie d’un navire de commerce actuel est de vingt-cinq ans en moyenne, les bateaux en chantier aujourd’hui sont ceux qui devront réduire les émissions du secteur maritime dans le futur. Ainsi, bien que l’avenir énergétique du transport maritime se veuille pluritechnologique, une compétition est en cours autour de l’imaginaire du progrès.
Sylvain Roche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.07.2025 à 16:52
Jean-Paul Pollin, Professeur émerite d'économie et de finance, Université d’Orléans
Les banques centrales sont incitées à prendre des décisions dont les motifs dépassent leurs objectifs traditionnels de stabilité des prix et des systèmes financiers. Mais en ont-elles la légitimité ? Cela ne risque-t-il pas d’affecter leur indépendance ? Ne faudrait-il pas alors engager une révision de leurs missions ?
Cet article est publié dans le cadre du partenariat les Rencontres économiques d’Aix–The Conversation. L’édition 2025 de cet événement a pour thème « Affronter le choc des réalités ».
On résume trop souvent les missions des banques centrales au maintien de la stabilité des prix, d’une part, et à la stabilité du système bancaire, d’autre part. Mais, en réalité, selon les mandats qui leur sont assignés et/ou selon la façon dont elles les interprètent, le champ de ces missions est généralement bien plus vaste.
Ainsi, la Fed est investie d’un « double mandat » : la stabilité des prix et niveau d’emploi maximum. D’autres banques centrales (dans des pays en développement) ont pour mission de stabiliser la parité de leur monnaie avec celle d’une devise étrangère… La Banque centrale européenne (BCE), de son côté, est censée, sans préjudice de l’objectif de prix, apporter un soutien aux politiques générales « en vue de contribuer aux objectifs de la Communauté ». Ce qui constitue un ensemble de missions potentiellement très (trop ?) large.
Par ailleurs, pour répondre aux crises qui se sont succédé, au cours des vingt dernières années, les autorités monétaires ont su modifier l’ordre de priorité de leurs missions et, parfois, en étendre le champ. Durant les crises financière puis sanitaire, elles ont accompagné les politiques budgétaires pour soutenir l’activité, mais aussi pour limiter le coût de l’endettement public en achetant massivement des titres de dettes publiques (des politiques dites non conventionnelles). Elles ont alors pris le risque d’accepter une « dominance budgétaire ». Ce qui a pu leur être reproché.
À lire aussi : Quand les banques centrales s’emparent de la question du climat
Mais ces observations ne signifient pas que les banques centrales ont toute liberté pour interpréter ou même compléter les termes de leurs mandats. Car l’aménagement de leurs missions se heurte au moins à deux contraintes majeures :
D’une part, on sait qu’il est sous-optimal de poursuivre plus d’objectifs que l’on a d’instruments (règle de Tinbergen). Or, même si les banques centrales peuvent (à la marge et si cela est pertinent) augmenter la gamme de leurs instruments, leur nombre est fatalement limité.
D’autre part, lorsque la politique monétaire pénètre dans un domaine qui relève aussi de la compétence d’autres volets des politiques économiques (par exemple, la politique budgétaire, industrielle ou sociale…), la coordination que cela suppose peut mettre en danger son indépendance et, donc, la crédibilité de ses objectifs censés orienter les anticipations des agents. Car toute collaboration avec d’autres décideurs (des agences ou le politique) ouvre l’éventualité de concessions susceptibles de dévier par rapport aux annonces. À cela s’ajoute le fait que l’indépendance en question met en cause la légitimité des autorités monétaires à prendre des décisions qui supposent des choix de nature politique, qui affectent par exemple la distribution des revenus ou des richesses. Peut-on, dès lors, laisser les banques centrales mener des politiques dérogeant à ce principe ? Notamment des politiques sélectives.
Comme bien d’autres institutions, les banques centrales ont été interpellées par la montée des désordres environnementaux et en particulier par leur probable influence sur la stabilité des systèmes financiers. Mais les réactions des autorités monétaires à cette sollicitation ont été divergentes voire discordantes : Jerome Powell (Fed), par exemple, a répondu que la Fed n’était pas un « climate policymaker »
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il n’empêche qu’en 2017, s’est constitué un réseau comprenant des banques centrales et des régulateurs, Network for Greening the Financial System, qui compte aujourd’hui 145 membres, afin d’étudier et de suggérer des solutions à cette question qui devrait devenir cruciale dans les années à venir. Il en ressort notamment des propositions visant à renforcer les réglementations prudentielles pour prendre explicitement en compte les risques portés par les actifs détenus par les institutions financières qui sont la contrepartie de financements d’investissements contribuant aux déséquilibres écologiques dits « investissements bruns ». Ce qui est théoriquement tout à fait justifié, même si la mise en pratique de cette idée est compliquée et prendra sans doute du temps.
Par ailleurs, certaines banques centrales se sont engagées dans des refinancements privilégiés pour les « actifs verts » (c’est-à-dire compatibles avec la transition écologique) et, plus généralement, dans le « verdissement » de leur bilan. Il s’agit alors d’une sorte de retour à une politique de crédit sélective du type de celles qui avaient été pratiquées dans l’après-guerre, avant d’être balayée par la vague de libéralisation financière des années 1970-1980. On a alors considéré que les banques centrales ne devaient pas contrarier le rôle des marchés dans l’allocation des capitaux et donc ne pas intervenir dans la formation des structures par terme et par niveaux de risque des taux d’intérêt. On se situe par conséquent ici aux limites, évoquées précédemment, des révisions envisageables.
De façon plus générale, il est vraisemblable que, dans les années qui viennent, les politiques économiques vont se trouver davantage confrontées à des problèmes de régulation de l’offre plutôt que de la demande. Parce qu’il leur faudra principalement répondre aux chocs sur les conditions de production que vont entraîner les évolutions technologiques, les ruptures et la recomposition des échanges commerciaux et des chaînes de valeur, les éventuelles pénuries de matières premières… Au cours des années récentes, c’est bien à ce type de problèmes que les politiques conjoncturelles ont été confrontées : la crise sanitaire a provoqué une contraction de la production, puis des ruptures d’approvisionnement. Elle a été suivie du déclenchement de conflits armés occasionnant, entre autres, une hausse des prix de l’énergie et donnant lieu à un brusque retour de l’inflation.
Or, on sait que les politiques monétaires conventionnelles sont démunies pour répondre à des chocs d’offre, car dans ce cas l’ajustement des taux d’intérêt ne peut assurer à la fois la stabilité des prix et celle de l’activité. C’est d’ailleurs pourquoi plusieurs banques centrales ont souhaité flexibiliser leur objectif d’inflation en allongeant l’horizon de son calcul, en l’inscrivant dans une marge de fluctuation…
Au demeurant ces chocs d’offre génèrent des déséquilibres de caractère micro ou méso-économiques qui relèvent plutôt d’une politique du crédit apte à rétablir la compétitivité de la structure productive. Mais ceci nécessite alors une stratégie industrielle et des choix que des banques centrales indépendantes n’ont pas la légitimité (ni toutes les compétences) pour en décider. C’est, alors, qu’une coordination qu’une coordination entre les politiques économiques devient inévitable.
D’un tout autre point de vue, ajoutons que nombre d’observateurs considèrent aujourd’hui que le dollar devrait perdre progressivement sa prédominance en tant que monnaie d’échange, de facturation et de réserve. La monnaie américaine tenait une place essentielle dans le système monétaire international qui avait été recomposé dans l’immédiat après-guerre. Mais cette place a été remise en cause par la fracturation, qui s’accélère, de cet ordre économique mondial, par la baisse du poids relatif de l’économie américaine et sans doute aussi par le fait que les États-Unis se sont affranchis des responsabilités qu’impliquait le « privilège exorbitant » dont bénéficie leur devise.
Dans le monde multipolaire qui semble se mettre en place, il serait juste et cohérent que d’autres monnaies, notamment l’euro et le yuan chinois, se substituent en partie à la monnaie américaine. C’est du reste une revendication ancienne de nombre de pays émergents, les BRICS+.
Ceci représenterait pour les monnaies considérées une « captation de privilège », mais imposerait aussi de nouvelles obligations. Il faudra faire en sorte que la parité de ces monnaies soit assez stable, libéraliser (en Chine) les mouvements de capitaux, introduire des monnaies numériques de banques centrales pour faciliter et réduire les coûts des règlements transfrontières…
Mais, aussi et surtout, assurer le développement de marchés financiers profonds et liquides, afin de rendre attractive la détention à l’étranger d’actifs émis dans les pays considérés. Ces exigences impacteront sans doute les missions des banques centrales, mais elles vont bien au-delà. Par exemple, la nécessité de conforter l’offre de placements suppose, en Europe, une unification des marchés de capitaux ainsi qu’une uniformisation des dettes publiques émises par les différents États de la zone. Ce qui renvoie à des initiatives que la banque centrale peut suggérer et accompagner, mais dont elle ne peut pas décider du fait de leur dimension politique.
Cet article est publié dans le cadre d’un partenariat de The Conversation avec les Rencontres économiques, qui se tiennent du 3 au 5 juillet, à Aix-en-Provence. Plusieurs débats y seront consacrés au rôle des banques centrales.
Jean-Paul Pollin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.07.2025 à 16:52
Prescillia Micollet, Doctorante en Sciences de l'Éducation et de la Formation , Université Lumière Lyon 2
Dans un contexte où les adolescents investissent de plus en plus tôt les réseaux sociaux et où les frontières entre vie privée et espace public se brouillent, l’éducation à la vie affective et sexuelle va de pair avec l’éducation aux médias. Il s’agit d’apprendre à prendre du recul sur les contenus qui circulent et à résister à la pression de groupe.
Le programme d’éducation à la vie affective, relationnelle et sexuelle (Evars) prévoit, dès le CM2, un lien avec l’éducation aux médias et à l’information (EMI). On y aborde des notions comme la liberté d’expression en ligne, la vie privée, le droit à l’intimité, ou encore la prévention du cyberharcèlement. L’objectif est clair : « Faire en sorte que les élèves apprennent à devenir des citoyens responsables. »
En effet, les adolescents investissent les réseaux sociaux de plus en plus tôt, souvent sans accompagnement suffisant. Cela soulève des enjeux cruciaux, notamment celui de l’« extimité », concept défini par le psychiatre Serge Tisseron comme
« le désir de rendre visibles certaines facettes de son intimité, parfois même à son insu, au risque de susciter indifférence ou rejet ».
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
À l’ère numérique, la frontière entre vie privée et espace public devient floue, rendant l’intimité exposable à tout moment, comme le rappelle Yaëlle Amsellem-Mainguy :
« L’accès facilité à la pornographie, l’exposition de la sexualité sur les réseaux sociaux ou le cyberharcèlement angoissent, car ils s’exerceraient dans des espaces incontrôlables. »
Dans ce contexte, quel rôle l’éducation entre pairs joue-t-elle dans la construction des comportements numériques adolescents ?
Pour explorer ces questions, appuyons-nous sur des observations en collège et sur une série d’entretiens qualitatifs dans 12 académies françaises auprès de formateurs intervenant dans l’éducation aux médias et l’éducation à la vie affective (infirmiers, conseillers principaux d’éducation, enseignants).
« 75 % des jeunes de 11-12 ans utilisent régulièrement les réseaux sociaux. » Snapchat, Instagram, BeReal, WhatsApp ou TikTok ne sont plus de simples applications, mais des espaces de socialisation à part entière. Les adolescents y construisent leurs relations, leurs normes… et parfois leurs violences. Sur ces plateformes, les interactions sont rapides, souvent irréfléchies, avec un humour qui peut basculer dans l’humiliation.
Infirmière : « Mes camarades disent des choses méchantes sur moi sur les réseaux sociaux. Qu’en pensez-vous ? »
Un élève : « Il y a des insultes dans le groupe (WhatsApp), et quand on insulte, on t’affiche. »
Une élève : « Mes amis m’insultent et rigolent. »
Une autre : « Moi, je pense que ça fait partie de l’amitié, c’est pour taquiner. »
Un élève : « Avec mes potes, c’est drôle de faire ça. »
Insultes et moqueries deviennent des jeux anodins entre amis. L’écran agit comme un filtre émotionnel : il désinhibe, déresponsabilise. De plus « la plupart des mots sont violents et instaurent un climat malsain entre les sexes ». Les adolescents n’ont pas toujours conscience de la portée blessante de leurs paroles. Cette dynamique favorise aussi des propos sexistes.
Alors que certaines adolescentes pensaient l’égalité filles/garçons acquise, elles découvrent en ligne une forme de domination bien réelle. Comme le rappelle la sociologue Marie Duru-Bellat :
« Il y a encore la banalisation des moqueries sexistes sur le Net (avec par exemple la diffusion de vidéos à prétention humoristique donnant une représentation dégradante des femmes sur des plateformes comme TikTok), autant d’évolutions pointées par le Haut Conseil à l’égalité… Au total, 72 % des femmes de 15 à 24 ans considèrent que femmes et hommes ne sont pas traités de la même manière sur les réseaux sociaux. »
Un autre danger de cette socialisation numérique est le partage de photos intimes (« nudes ») qui sont vues comme une « normalisation » de pratiques par les adolescents. Beaucoup de jeunes sous-estiment les conséquences :
Un élève : « Il y a une personne, sa photo a circulé et c’est une photo intime. Un autre a demandé à plein de personnes de lui envoyer cette photo. »
Ce qui était perçu comme un échange privé devient une exposition massive, avec son lot de moqueries, de harcèlement et d’humiliation. Cette logique d’exposition est alimentée par l’imitation de modèles médiatiques, notamment issus de la téléréalité. Serge Tisseron l’exprime ainsi :
« Plus tu me regardes, plus tu crois me connaître, et moins tu en sauras. C’est à peu de chose près ce que chacun des candidats à la fameuse émission Loft Story, au printemps 2001, a dit et répété. »
Sur les réseaux, la socialisation entre pairs fonctionne par normes implicites : montrer, s’exposer, tout en risquant l’humiliation si l’on dépasse la « bonne » limite. Cette contradiction renforce une violence normalisée puisque les enfants et adolescents sont « submergés de données de toutes sortes sur la sexualité », souvent intégrées comme une manière ordinaire de faire groupe.
Pour amener les adolescents à réfléchir à leurs pratiques relationnelles, affectives et sexuelles, les professionnels de santé scolaire, les conseillers d’éducation ou encore les infirmières privilégient la discussion entre pairs afin « d’instaurer et assurer dans le groupe un climat de confiance » et d’inviter les élèves à respecter la parole de chacun, tant durant la séance qu’à son issue.
L’objectif est de permettre aux adolescents de réfléchir ensemble, à partir de leurs représentations, expériences et en fonction « de leur âge », tout en les aidant à développer leur résistance à la pression du groupe, y compris face à des sujets sensibles comme la sexualité, l’alcool ou l’usage de substances.
Les séances révèlent souvent la force de l’émulation entre adolescents, qui peut favoriser des prises de conscience… mais aussi amplifier les comportements problématiques comme des « comportements sexuels violents ».
L’éducation à la vie affective s’appuie donc sur des méthodes actives pour travailler des « compétences psychosociales clés » comme l’écoute, la prise de recul, l’expression des émotions, l’analyse critique et l’empathie, mais aussi « des valeurs humanistes ». Ces compétences sont indispensables pour lutter contre les violences « relationnelles et le sexisme » ordinaire, mais aussi pour mieux comprendre l’impact de la socialisation de et par les réseaux sociaux.
Car, à travers la discussion en groupe, les élèves peuvent déconstruire certaines normes ou pratiques vues comme « banales » en ligne, et prendre conscience des effets réels de leurs paroles et de leurs actes sur les autres.
Prescillia Micollet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.07.2025 à 16:51
Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay
Franck Courchamp, Directeur de recherche CNRS, Université Paris-Saclay
La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Découvrez en exclusivité, le 10e et dernier épisode de la BD concoctée par Mathieu Ughetti et Franck Courchamp. Dans cet épisode final, on fait le point sur ce qu’il nous reste à faire.
L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…
On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !
Retrouvez ici le dixième et dernier épisode de la série !
Ou rattrapez les épisodes précédents :
Épisode 1
Épisode 2
Épisode 3
Épisode 4
Épisode 5
Épisode 6
Épisode 7
Épisode 8
Épisode 9
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Merci d’avoir suivi L’Héritage du dodo. N’hésitez pas à laisser un commentaire ci-dessous. On a fait cette BD pour vous, on est curieux de savoir ce que vous en pensez.
Et pour continuer de nous suivre, abonnez vous sur :
Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?
Republication des planches sur support papier interdite sans l’accord des auteurs
Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.
Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.
Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.07.2025 à 16:51
Djamchid Assadi, Professeur associé au département « Digital Management », Burgundy School of Business
Alors qu’un cessez-le-feu, fragile et incertain, est entré en vigueur entre la République islamique d'Iran et Israël, une autre guerre, moins visible mais tout aussi décisive, gagne en intensité : la guerre économique. Car, au-delà des frappes et des missiles, ce sont les finances publiques, la stabilité monétaire et la résilience industrielle qui façonnent les rapports de force.
Le 20 juin, les États-Unis frappent le site de Fordo, une installation hautement sécurisée construite à flanc de montagne près de Qom, conçue pour résister à d’éventuels bombardements. Ce site incarne l’avancée clandestine du programme nucléaire iranien et sa destruction – inachevée selon plusieurs sources –marque une nouvelle étape dans l’escalade militaire entre Israël et la République islamique d’Iran (RII).
Les guerres ne se décident pas seulement sur le terrain militaire. Elles reposent sur les capacités économiques des États qui les mènent. Une armée peut tirer, avancer, frapper, seulement si son pays peut financer ses armes, entretenir ses troupes, réparer ses infrastructures et maintenir sa cohésion interne. Sans ressources, sans capacité de production et sans marge budgétaire, l’effort de guerre s’effondre, quelle que soit la stratégie militaire.
C’est ce que plusieurs économistes, issus de traditions intellectuelles variées, ont souligné avec force. Kenneth Boulding affirmait dès 1962 qu’un pays économiquement affaibli voit sa puissance militaire s’éroder mécaniquement. Duncan Weldon rappelle que les Alliés ont gagné la Seconde Guerre mondiale non seulement sur le front, mais surtout par leur supériorité industrielle. Brigitte Granville, dans What Ails France ?, montre comment les déséquilibres macroéconomiques prolongés fragilisent la souveraineté de l’État. Mark Harrison quant à lui insiste sur le lien entre puissance économique, capacité étatique et efficacité stratégique. J. Bradford DeLong, enfin, observe que les régimes autoritaires du XXe siècle ont souvent été défaits non pas par manque de volonté politique, mais par l’incapacité structurelle de leurs économies à soutenir une guerre prolongée.
Tous ces travaux convergent vers un même enseignement : la force militaire dépend de la solidité économique. Une économie dégradée limite les capacités d’armement, désorganise les chaînes logistiques, fragilise la mobilisation de la population – et réduit, in fine, les chances de victoire.
Dans cette perspective, et au-delà du verdict militaire encore incertain, une question s’impose dès aujourd’hui : dans le conflit ouvert entre Israël et la RII le 13 juin 2025 et interrompu 12 jours plus tard par un cessez-le-feu fragile et incertain qui ne garantit point l'apaisement des tensions, qui gagne la guerre économique – celle qui conditionne toute victoire sur le terrain ?
Lorsque la guerre éclate le 13 juin 2025, l’économie de l'Iran est déjà exsangue. Selon le FMI, sa croissance réelle du PIB pour l’année est estimée à seulement 0,3 %, contre 3,7 % pour Israël au premier trimestre.
Le chômage illustre également ce déséquilibre. En 2024, il atteint 9,2 % en Iran, chiffre bien en-deçà de la réalité, contre un taux contenu entre 3,0 et 3,5 % en Israël. Ce différentiel traduit une dynamique socio-économique défavorable pour la République islamique, dont la population appauvrie est bien moins mobilisable dans la durée.
L’inflation accentue encore cette asymétrie. Elle est projetée à 43,3 % en Iran contre seulement 3,1 % en Israël. L’érosion rapide du pouvoir d’achat rend la mobilisation sociale difficile à maintenir pour le régime, tant sur le plan logistique que politique.
Côté finances publiques, le déficit budgétaire iranien atteint 6 % du PIB, alourdi par des subventions ciblées et des dépenses idéologiques. Israël, de son côté, parvient à contenir son déficit à 4,9 %, malgré une forte hausse des dépenses militaires. Là encore, le contraste signale une dissymétrie stratégique structurelle.
La situation monétaire renforce ce déséquilibre. Le rial s’est effondré, passant de 32 000 IRR/USD en 2018 à près de 930 000 IRR/USD en 2025. À l’inverse, le shekel reste stable autour de 3,57 ILS/USD. Une monnaie stable permet à Israël de maintenir ses importations critiques et de financer son effort de guerre dans des conditions soutenables. La RII, au contraire, voit sa capacité de financement militaire minée par une défiance monétaire généralisée.
Enfin, l’ouverture économique creuse davantage l’écart. L’Iran reste largement isolé du système financier international, frappé par les sanctions et déserté par les investisseurs étrangers, évoluant ainsi dans une autarcie contrainte. Israël bénéficie au contraire d’une intégration industrielle et technologique consolidée par ses alliances stratégiques.
Au total, la République islamique d’Iran entre dans le conflit dans une position structurellement défavorable : faible croissance, inflation galopante, déficit public incontrôlé, monnaie en chute libre, isolement économique, et population précarisée mécontente. Israël s’engage quant à lui avec un socle économique solide, des indicateurs de résilience et une profondeur stratégique qui lui permettent d’envisager un effort militaire prolongé.
Le conflit entre Israël et la RII s'est caractérisé par des campagnes aériennes intensives, des bombardements ciblés, des tirs de missiles longue portée et des cyberattaques. Les frappes israéliennes ont prioritairement visé des infrastructures militaires et logistiques.
Les dépenses engagées sont considérables : munitions guidées, missiles, drones, avions de chasse, radars, systèmes antiaériens, dispositifs de guerre électronique, salaires et primes militaires, ainsi que toute la logistique liée au front. Selon le Middle East Monitor, s’appuyant sur des données relayées par le Wall Street Journal, le coût quotidien du conflit s’élèverait à environ 200 millions de dollars pour Israël.
Pour la RII, aucune estimation indépendante n’est disponible à ce jour dans des sources reconnues. Toutefois, certains observateurs avancent, sans vérification rigoureuse, une fourchette allant de 150 à 200 millions de dollars par jour. Cette hypothèse doit être prise avec prudence, en l’absence de sources publiques confirmées.
Mais ces montants, similaires en valeur absolue, n’ont pas du tout le même poids économique selon les pays. Leurs effets, leur soutenabilité et leur impact sur la durée dépendent directement de la structure et de la santé économique de chaque État. Là où Israël peut absorber le choc, l’Iran semble déjà en tension.
Israël soutient son effort de guerre grâce à un environnement financier solide, un accès complet aux marchés internationaux et un tissu productif performant. Il bénéficie aussi d’un appui logistique et stratégique direct des États-Unis (ravitaillements, batteries THAAD, intercepteurs, présence navale) et de renforts britanniques. L’OECD Economic Survey : Israel 2025 conclut qu’Israël conserve une stabilité macroéconomique robuste malgré les tensions géopolitiques.
La RII, en revanche, reste privée d’aide bilatérale et exclue des marchés de capitaux. Son financement de guerre repose sur :
1) Des exportations pétrolières résiduelles ;
2) Un endettement intérieur via des bons du trésor ;
3) Des collectes informelles religieuses (ṣadaqa maḏhabī, naḏr o niyāz) depuis l’été 2025.
Dans le budget 2025, l’augmentation des crédits alloués aux Gardiens de la Révolution et aux entités religieuses dépasse 35 %, tandis que les salaires publics grimpent de 18 à 20 %, dans un contexte d’inflation estimée à plus de 40 %. Ainsi, l’Iran oriente ses ressources vers la survie idéologique plutôt que la soutenabilité économique à long terme.
Conclusion : l’Iran mène la guerre dans une fragilité croissante – sans marges fiscales, sans soutien extérieur et dans un climat de défiance généralisée – tandis qu’Israël conserve pour l’heure une capacité d’action durable.
À l’issue de cette analyse, un constat s’impose : Israël est en train de remporter la guerre économique, indépendamment de l’évolution militaire immédiate.
Le pays s’appuie sur des alliances solides, des marges budgétaires substantielles et un environnement financier stable qui lui permettent de soutenir son effort de guerre dans la durée. Ce socle est consolidé par un soutien logistique et diplomatique direct des États-Unis – et, dans une moindre mesure, du Royaume-Uni – qui étend sa profondeur stratégique bien au-delà de ses frontières.
La République islamique d’Iran, en revanche, mène ce conflit dans un isolement quasi total, sans appui extérieur et avec des ressources internes de plus en plus fragiles : exportations pétrolières limitées, endettement intérieur peu soutenable, captation de fonds religieux. Cette situation ne reflète pas seulement deux modèles économiques distincts, mais deux trajectoires institutionnelles divergentes, désormais soumises à l’épreuve d’une guerre prolongée.
L’histoire récente – de la Yougoslavie des années 1990 à la Russie de 1917, en passant par l’Allemagne impériale en 1918 ou la Syrie après 2012 – montre que l’effondrement économique peut précipiter la défaite, même sans effondrement militaire immédiat.
Dès lors, la question centrale devient celle de la soutenabilité. La République islamique d’Iran peut-elle poursuivre son engagement militaire sans déclencher de ruptures budgétaires, monétaires ou sociales ? Israël, malgré sa solidité, pourra-t-il maintenir le soutien de sa population dans le cas d’un enlisement ou d’un choc stratégique externe ?
Dans ce face-à-face, l’économie ne joue pas un rôle secondaire. Elle est le révélateur du déséquilibre stratégique – et peut-être, à terme, le facteur décisif du basculement. Une stratégie comparable à la « guerre des étoiles » de Reagan, qui avait épuisé l’URSS en l’entraînant dans une course aux dépenses militaires insoutenables, semble aujourd’hui appliquée à la République islamique d’Iran.
Djamchid Assadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.07.2025 à 16:51
Xosé M. Núñez Seixas, Professor of Modern and Contemporary History, Universidade de Santiago de Compostela
Souvent associé à l’extrême droite, le nationalisme peut aussi servir des projets progressistes d’autodétermination. La spécificité du fascisme réside dans la réappropriation ethnique et autoritaire du nationalisme à des fins de domination et d’exclusion.
Le nationalisme est généralement considéré comme l’apanage de la droite politique, et il a longtemps été un pilier des gouvernements autoritaires et fascistes à travers le monde. Dans les pays démocratiques, le terme « nationalisme » est associé au chauvinisme national – une croyance en la supériorité inhérente de sa propre nation et de ses citoyens –, mais la réalité est plus complexe qu’il n’y paraît.
Pour commencer, il y a peu de différence entre patriotisme et nationalisme, si ce n’est une question de degré d’intensité. La plupart d’entre nous reconnaissent cependant la distinction entre l’amour de son pays et les aspects plus durs, souvent exclusifs ou xénophobes, du nationalisme extrême. Le patriotisme est un nationalisme modéré, mais le nationalisme radical dérive souvent vers la xénophobie.
L’analyse devient encore plus complexe avec le nationalisme infra-étatique ou minoritaire, un phénomène tout à fait différent, souvent associé à des idéaux de gauche ou progressistes. De nombreux partis et idéologies – en Europe, dans les Amériques et ailleurs – utilisent le terme « nationaliste » sans connotation d’extrême droite. Ils présentent plutôt la nation comme une force d’émancipation visant l’autodétermination d’un territoire donné.
Ainsi, le National Party au Suriname, le Parti nationaliste basque, le Scottish National Party et le Bloc nationaliste galicien. Certains grands mouvements de gauche européens, comme le parti irlandais Sinn Féin, sont farouchement nationalistes, tandis que d’autres, comme le gallois Plaid Cymru, adhèrent à des principes éco-socialistes.
Cela ne signifie pas que les nationalismes minoritaires ou infra-étatiques soient à l’abri de l’influence de l’extrême droite. Le parti belge Vlaams Belang et l’Alliance catalane sont deux exemples contemporains de nationalisme minoritaire d’extrême droite. Si l’on remonte plus loin, l’Organisation des nationalistes ukrainiens et l’Union nationale flamande occupaient un espace politique similaire dans l’entre-deux-guerres.
Malgré ces nuances, l’idéologie nationaliste glisse souvent facilement vers le fascisme. La résurgence du nationalisme ethnique à la fin du XXe siècle a également renforcé cette association, souvent véhiculée par les concepts de nativisme et de populisme, donnant naissance à des mouvements aussi divers que le « Make America Great Again » de Trump, l’irrédentisme de Poutine ou le nationalisme hindou hindutva de Narendra Modi en Inde.
L’importance de la nation au sein du fascisme semble aller de soi, et le nationalisme constitue une base de toute idéologie fasciste. Cependant, la relation entre nationalisme et fascisme reste encore peu explorée. Mes recherches visent à combler cette lacune en étudiant de près le lien entre les diverses conceptions de la nation et le contenu idéologique du fascisme.
L’idéologie fasciste a souvent été comprise comme un prolongement inévitable des formes de nationalisme ethnique du XIXe siècle. Favorisé par l’impérialisme européen et la Première Guerre mondiale, le nationalisme est devenu de plus en plus chauvin, raciste et xénophobe.
Cette tournure ethnique du nationalisme a été déterminante pour en faire un instrument du fascisme, ainsi qu’un argument central pour diverses formes de droite radicale, allant d’un conservatisme « fascisé » à des régimes autoritaires plus affirmés.
Dans la plupart des théories sur le fascisme, le nationalisme est implicitement lié à une vision unifiée de la nation comme entité organique, avec des critères d’inclusion fondés sur des vérités « objectives » comme la langue, le sang et le sol, l’histoire et la tradition.
Cependant, des éléments comme l’ascendance, l’histoire et le territoire ne sont pas propres aux conceptions fascistes ou autoritaires de la nation. Beaucoup de ces composantes se retrouvent aussi dans des définitions libérales et républicaines de la nation, qui supposent l’existence d’une « communauté culturelle » au sein de laquelle la citoyenneté se construit.
En réalité, plusieurs mouvements progressistes en Europe – comme Sinn Féin en Irlande – s’enracinent dans un nationalisme radical au début du XXe siècle, et défendent aujourd’hui une vision tolérante et ouverte de la société, à l’opposé du fascisme.
Il est donc vrai que tout fasciste est nationaliste, mais tout nationaliste n’est pas nécessairement fasciste. Cela soulève la question suivante : comment le fascisme instrumentalise-t-il le nationalisme pour parvenir à ses fins ? À mon avis, il existe une conception et une utilisation spécifiquement fascistes du nationalisme.
Les fascistes voient la nation comme une entité organique unique, unissant les personnes non seulement par leur ascendance, mais aussi par le triomphe de la volonté. Elle devient ainsi la force motrice et unificatrice des masses vers un objectif commun. Mais pour cela, les fascistes doivent réinterpréter le nationalisme à leur manière.
Pour servir le fascisme, le concept de nation doit s’aligner avec les principes fondamentaux de l’idéologie fasciste : l’idée de révolution, l’ordre social corporatiste, la pureté raciale (définie biologiquement ou culturellement) et la mise en avant de valeurs non rationnelles. La diversité des traditions nationalistes explique aussi la variété géographique du fascisme.
Bien que les éléments fournis par le nationalisme soient anciens, le fascisme les a recombinés pour créer quelque chose de nouveau. Cela a produit ce que l’on appelle une conception « générique » de la nation fasciste, qui peut être résumée en cinq points clés :
Une vision paramilitaire des liens sociaux et du caractère national : la nation vit dans un état de mobilisation militaire permanente, où les valeurs martiales comme la discipline, l’unité de commandement et le sacrifice priment sur les droits individuels. L’ordre social tout entier et la nature de ses liens sont intégrés à un schéma paramilitaire, ce qui signifie que toute l’organisation sociale devient une sorte de caserne. Cela explique aussi la tendance expansionniste du fascisme, sa quête d’empire et ses guerres – autant de causes servant à garder la nation mobilisée en permanence et unie.
Une vision darwinienne de la société nationale et internationale où survivent les meilleurs : cela entraîne l’exclusion des autres (définis selon la race, la langue, la culture, etc.), la croyance en la souveraineté absolue de sa nation, et la justification de la violence contre ses ennemis internes et externes. L’impérialisme devient la conséquence naturelle du nationalisme affirmatif.
La nation au-dessus de tout, y compris la religion : les régimes fascistes se sont généralement déclarés indépendants de la religion. Là où ils sont arrivés au pouvoir, la plupart ont passé un accord avec l’Église, pourtant, le fascisme place toujours la nation au-dessus de Dieu et de la foi, de manière explicite ou implicite.
L’unité de l’État, de la culture et de la nation : dans la vision fasciste, la nation ne domine ni ne sert l’État. Elle s’y identifie totalement tout en le dépassant : c’est ce qu’on appelle le national-étatisme.
La croyance absolue dans un leader charismatique : la nation fasciste repose sur la confiance inconditionnelle envers un chef unique et tout-puissant. Dans l’Allemagne nazie, c'était le Führerprinzip selon lequel la parole du Führer surpassait toute loi écrite. Cette figure du chef fasciste transcende celle du héros national du XIXe siècle ou « père fondateur » de la nation. Le leader fasciste assimile et incarne les qualités de tous les héros nationaux qui l’ont précédé.
Xosé M. Núñez Seixas ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
01.07.2025 à 13:56
Service Environnement, The Conversation France
Pour rendre les modes de consommation sobres (durée de vie accrue des objets, réparation, réemploi…) plus désirables, il faut à la fois transformer leurs représentations sociales et mettre en place des dispositifs concrets pour mieux accompagner les consommateurs, expliquent Joël Ntsondé (ISTEC), Chloé Steux (Ecole polytechnique) et Franck Aggeri (Mines Paris - PSL).
Les Français se disent prêts à réduire leur consommation de biens matériels, selon une enquête de l’Agence de la transition écologique (Ademe). Ce qui n’a pas empêché sa campagne sur les « dévendeurs » de nourrir la controverse.
Le marché de l’occasion, aujourd’hui considéré comme vertueux pour l’économie et l’environnement, montre comment l’évolution des représentations sociales peut favoriser de nouvelles pratiques de consommation. Une démarche à transposer à la sobriété, qui s’oppose à la possibilité d’une consommation et d’une production illimitée de biens matériels. La difficulté est aussi de ne pas associer sobriété et privation, sans parler des objectifs de croissance économique. Or, cela touche aux représentations individuelles, sociales et culturelles au fondement de nos sociétés.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Pour rendre la sobriété désirable, on peut activer le levier des imaginaires sociaux. En effet, pour acheter moins et mieux, il faut un rapport différent au temps, à la possession et à l’accumulation de biens matériels. Il s’agit par exemple de réapprendre à entretenir les objets et les réparer. Il en va de même pour nos vêtements, dont les principales sources de séparation et de renouvellement sont l’usure et la lassitude. Les repriser ou les personnaliser nous aide à nous y attacher… et à les utiliser plus longtemps. C’est un changement systémique qui remettrait en cause les stratégies commerciales, renforcées par l’obsolescence esthétique et marketing, qui imprègnent nos imaginaires collectifs.
Pour cela, il faut renforcer la légitimité des pratiques de consommation sobres et agir sur les structures anthropologiques de l’imaginaire, les mythes, récits, symboles et croyances des acteurs. En ce sens, fabricants et distributeurs ont un rôle crucial à jouer, grâce à des offres commerciales détachées des logiques de volumes. Celles-ci peuvent être basées sur la réparabilité, la durabilité, ou encore l’économie de la fonctionnalité. Elles peuvent ainsi essaimer non seulement dans la tête des consommateurs, mais aussi chez les autres acteurs du marché.
Ce changement des imaginaires n’est toutefois pas suffisant : encore faut-il accompagner l’évolution des pratiques. Favoriser la réparation passe par le développement de ce que le sociologue Lucien Karpik appelle des « dispositifs de confiance », qui visent à rassurer les consommateurs sur la qualité de la réparation.
Ils peuvent prendre différentes formes : labels, guides, normes techniques… Nous pourrions envisager, à l’échelle nationale, la création d’un observatoire de la réparation. Il pourrait informer les consommateurs sur les acteurs qualifiés, la réparabilité des produits et des marques, les délais moyens ou les fourchettes de prix pratiqués. Cela améliorerait l’accès à ces activités sur le plan pratique, mais aussi leur image.
Cet article a été édité par le service Environnement de The Conversation à partir de la version longue écrite par Joël Ntsondé (ISTEC), Chloé Steux (Ecole polytechnique) et Franck Aggeri (Mines Paris - PSL).
01.07.2025 à 12:35
Benoît Delatour, Directeur de Recherche CNRS, Institut du cerveau (ICM), Sorbonne Université
Des études publiées dans des revues scientifiques de premier plan soutiennent l’hypothèse de liens entre la maladie d’Alzheimer et l’exposition au virus de l’herpès. Les travaux de recherche se poursuivent pour confirmer ou non ce scénario, sachant qu’Alzheimer est une pathologie complexe, très certainement déterminée par de multiples facteurs de risque.
La maladie d’Alzheimer est une pathologie neurodégénérative qui touche des sujets âgés dans sa forme la plus commune. On estime que 1 200 000 personnes souffrent de maladies neurodégénératives de type Alzheimer en France.
Découverte il y a un siècle, cette pathologie reste très largement énigmatique et les mécanismes exacts à l’origine de son déclenchement et de son évolution mal connus.
Parmi les hypothèses qui font l’objet de recherche, celle d’un lien entre Alzheimer et l’exposition au virus de l’herpès se voit renforcée par des publications récentes.
La maladie d’Alzheimer est caractérisée par un ensemble de lésions microscopiques, initialement confinées dans certaines régions cérébrales. Les lésions se propagent ensuite, au fil de l’évolution de la maladie, dans de multiples aires du cerveau.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
Cette progression lente et stéréotypée des atteintes cérébrales s’accompagne de symptômes cliniques gradués (troubles de mémoire, perturbations du langage, difficulté à raisonner et planifier les actions, etc.). Les patients atteints de la maladie d’Alzheimer vont ainsi développer un trouble neurocognitif majeur (le terme de démence est parfois utilisé) menant à la perte d’autonomie, à l’isolement social et à la disparition des facultés mentales les plus complexes, évoluées et représentatives de l’espèce humaine.
Les lésions cérébrales qui entrainent ces manifestations cliniques dramatiques sont schématiquement de deux types :
1) Certaines lésions sont présentes à l’intérieur des neurones sous forme d’enchevêtrements fibrillaires (on parle de « dégénérescence neurofibrillaire ») constitués d’une protéine, la protéine tau, qui s’accumule sous une forme anormale.
2) D’autres lésions sont identifiées dans l’espace extracellulaire du tissu cérébral, sous la forme de plaques, dont la nature chimique est principalement composée d’une protéine (le peptide amyloïde-ß ou Aß) : les plaques amyloïdes.
Les dégénérescences neurofibrillaires et les plaques amyloïdes constituent la signature neuropathologique de la maladie d’Alzheimer. Toutefois, d’autres lésions sont observées dans les cerveaux des patients.
Concernant les mécanismes à l’origine de la maladie, une avancée importante s’est produite au tournant des années 90 avec l’identification, chez certains patients, de mutations génétiques impliquées dans la production du peptide Aß.
Ces découvertes ont permis d’ébaucher l’hypothèse de la « cascade amyloïde » qui propose que l’accumulation de peptide Aß dans le cerveau est un événement princeps et fondateur qui va entrainer l’ensemble des autres lésions cérébrales et mener à la démence.
Cependant, les mutations responsables d’une surproduction d’Aß ne concernent qu’une très faible minorité de patients (moins de 1 %) et il est vraisemblable qu’une multitude d’autres facteurs causaux sont à l’œuvre dans la maladie.
Sans connaissance approfondie des mécanismes responsables de la maladie d’Alzheimer, il n’est pas illogique de constater qu’aujourd’hui aucun traitement préventif ou curatif efficace ne soit disponible, malgré l’effort de recherche thérapeutique très conséquent.
L’identification des déterminants causaux à l’origine de la maladie d’Alzheimer et des facteurs qui viennent moduler le risque de développer cette maladie ou qui en modifient la trajectoire est une priorité et mobilise de nombreuses équipes de recherche.
Récemment, un article scientifique publié dans la prestigieuse revue Neuron a rapporté des données inédites. Cette étude a analysé deux cohortes de plusieurs milliers de sujets finlandais ou anglais et montré qu’une encéphalite virale (une inflammation du cerveau consécutive à une infection virale) augmentait de 20 à 30 fois le risque de développer ultérieurement une maladie d’Alzheimer.
Ces travaux faisaient suite à d’autres études, dans différents pays, qui indiquaient un risque accru de développer une maladie d’Alzheimer après infection au virus de l’herpès (HSV-1), un virus hautement neurotrope (c’est-à-dire capable de pénétrer dans le cerveau). Ces mêmes études soulignaient l’effet protecteur (une réduction du risque de maladie d’Alzheimer) d’un traitement antiviral.
Plus récemment et de façon encore plus convaincante des études quasi expérimentales en population humaine ont montré, au Pays de Galles, en Australie et aux USA, que la vaccination contre le virus de la varicelle-zona (VZV), un virus de la même famille que le virus de l’herpès (HSV-1), réduisait de façon significative le risque de développer une démence.
L’hypothèse d’un rôle des virus, en particulier des virus de l’herpès, dans la maladie d’Alzheimer n’est pas nouvelle. Elle a été défendue, il y a plus de 40 ans, par un neurologue canadien, Melvyn Ball, qui suggérait que les réactivations du virus de l’herpès HSV-1 (le fameux bouton de fièvre) pourraient s’accompagner d’une neuroinvasion (c’est-à-dire une pénétration du virus dans le cerveau) et d’une dégénérescence des tissus cérébraux déclenchant une démence de type maladie d’Alzheimer.
Des travaux de recherche sont venus par la suite étayer l’hypothèse, en identifiant des « signatures virales » (correspondant aux protéines ou au génome du virus) qui marquent la présence de virus de l’herpès (HSV-1) dans les cerveaux des patients atteints de la maladie d’Alzheimer, notamment au niveau des plaques amyloïdes.
Ces observations, ainsi que les premières études épidémiologiques, peuvent cependant être critiquées : mettre en évidence une association entre infection et maladie d’Alzheimer n’est pas suffisant pour établir un lien de causalité !
On pourrait même postuler, de façon provocatrice, que c’est la maladie d’Alzheimer qui rend l’organisme permissif aux infections virales (et non l’inverse !), expliquant ainsi la présence de matériel viral dans les cerveaux des patients Alzheimer.
L’hypothèse infectieuse de la maladie d’Alzheimer s’est néanmoins trouvée renforcée, plus récemment, par deux séries de résultats expérimentaux :
1) la découverte que le peptide Aß qui précipite au cœur des plaques amyloïdes a des fonctions antimicrobiennes et pourrait ainsi participer à une réponse physiologique (immunitaire) en réaction à une infection virale,
2) le fait de réussir à induire, après infection par le virus de l’herpès (HSV-1) in vitro (dans des cultures de cellules) ou in vivo chez l’animal, d’une surproduction de peptides Aß et de protéines tau pathologiques (la protéine tau étant, on le rappelle, l’autre marqueur moléculaire de la maladie d’Alzheimer).
La compréhension des relations entre infections virales et maladie d’Alzheimer a donc progressé ces dernières années et de nouvelles hypothèses émergent.
Concernant HSV-1, le virus le plus étudié, un scénario en plusieurs étapes peut être proposé :
1) l’infection au virus de l’herpès (HSV-1) est courante dans nos populations et le virus est capable d’entrer en sommeil (phase de latence) pendant plusieurs décennies dans certains ganglions nerveux,
2) au cours du vieillissement l’organisme fait face à différents stress qui, combinés à une baisse d’efficacité des défenses immunitaires du sujet âgé, vont favoriser la sortie de latence du virus et sa propagation dans le cerveau,
3) la présence de virus actifs dans le cerveau va engendrer une réponse Aß et tau locale, à bas bruit, dans les zones infectées,
4) ces lésions Aß et tau, associées à une inflammation cérébrale, vont initier un cercle vicieux d’autoamplification menant à l’intensification et à la propagation des lésions dans d’autres régions cérébrales.
Ce scénario hypothétique va nécessiter un important effort de recherche pour être validé (ou déconstruit, ainsi va la science !). Des travaux expérimentaux sont nécessaires chez l’animal ou sur des préparations tissulaires tridimensionnelles (organoïdes cérébraux) pour étudier finement la relation causale entre infection et marqueurs biologiques de la maladie d’Alzheimer.
Les études épidémiologiques, dans les populations humaines, se poursuivent également et cherchent à affiner l’impact des niveaux d’infection sur l’apparition ou l’aggravation des biomarqueurs de la maladie d’Alzheimer.
Au final, c’est un ensemble de champs disciplinaires qui est convoqué et qui nécessite la communication et le partage de connaissances et d’idées entre virologues, neurologues, épidémiologistes, pathologistes, etc.
Confirmer le rôle d’agents viraux dans la maladie d’Alzheimer, mais aussi dans d’autres maladies neurodégénératives (comme la sclérose en plaques étroitement associée au virus Epstein-Barr, encore un herpès virus !) ouvrirait certainement la porte à de nouvelles pistes thérapeutiques préventives (vaccination) ou curatives (antiviraux).
Il faut néanmoins garder à l’esprit que la maladie d’Alzheimer est une pathologie extrêmement complexe et très certainement multidéterminée par différents éléments ou facteurs de risque, génétiques ou environnementaux.
Conclure à une cause unique de déclenchement de la maladie (comme celle d’une infection virale antérieure) est de toute évidence une ineptie. On rappellera à ce propos que bien qu’une grande partie (70-80 %) de la population humaine soit infectée par le virus de l’herpès (HSV-1), cette infection n’est pas une condition sine qua non pour développer la maladie !
Benoît Delatour a reçu une bourse de recherche de l'association France Alzheimer.
30.06.2025 à 17:38
Antoine Pécoud, Professeur de sociologie, Université Sorbonne Paris Nord
Les gouvernements choisissent des politiques jugées unanimement inefficaces par les chercheurs spécialistes des migrations. Comment comprendre cette absence d’écoute ? Comment y remédier ?
Les migrations sont omniprésentes, dans le débat politique comme dans les médias ou sur les réseaux sociaux. Les chercheurs, pourtant, sont relativement peu visibles.
Cette situation est a priori surprenante. Malgré des moyens importants, les États ne semblent pas parvenir à maîtriser les déplacements de populations et pourraient donc bénéficier d’un échange avec les spécialistes. Or, la recherche sur les migrations est dynamique, avec un nombre croissant de connaissances sur le sujet.
Mais en pratique, le dialogue entre chercheurs et politiques est peu développé. Une des conséquences de cette situation est que les gouvernements s’obstinent dans des politiques qui sont unanimement jugées inefficaces, et même contre-productives, par les spécialistes.
C’est notamment le cas des politiques qui visent à développer l’Afrique pour freiner l’immigration. L’Union européenne y consacre des dizaines de millions d’euros, notamment au travers du Fonds fiduciaire. Pourtant la recherche a de longue date établi que le développement ne limite pas mécaniquement l’émigration, au point que le premier peut même, dans certains cas, favoriser la seconde.
Il en va de même pour la réponse à la « crise » des migrants et des réfugiés en Méditerranée. Les décideurs – et une bonne partie de la société avec eux – sont persuadés que l’Europe fait face à une hausse sans précédent des arrivées de migrants en Europe. Or la recherche montre que la crise n’est pas seulement due à une augmentation des flux, mais aussi à une politique d’accueil inadaptée. En refusant de prendre en compte cette nuance, les politiques migratoires ne font que renforcer le contrôle – avec le risque d’aggraver encore la crise.
La difficulté majeure tient donc dans l’approche excessivement idéologique des États. Nombre de gouvernements sont élus sur un programme de lutte contre l’immigration et blâment les migrants, les réfugiés (et même leurs descendants) pour toutes sortes de problèmes, du chômage à l’insécurité en passant par la cohésion sociale. On conçoit donc qu’ils soient hostiles aux critiques, et même à tout raisonnement légèrement nuancé.
Cette approche clivante inspire l’ensemble des politiques publiques. En France, par exemple, pas moins de 28 lois sur l’immigration ont été adoptées depuis 1980. À ce rythme, chaque loi est adoptée avant que précédente n’ait été entièrement mise en œuvre – et encore moins évaluée. Là encore, on conçoit que les chercheurs ne soient pas les bienvenus dans une activité législative qui relève en grande partie de l’affichage et de la gesticulation.
Cela s’inscrit dans une défiance plus générale vis-à-vis des sciences sociales, qui ont toujours été accusées d’idéalisme, d’irénisme (attitude favorisant la compréhension plutôt que le conflit) – et aujourd’hui de « wokisme ». Rappelons qu’en 2015, un ancien premier ministre affirmait qu’en « expliquant » certaines réalités (comme la radicalisation), les sciences sociales contribuaient à les « excuser ».
La réalité est un peu plus complexe, cependant. L’indifférence des pouvoirs publics à la recherche ne les empêche pas de la financer.
La Commission européenne a ainsi débloqué plus de 160 millions d’euros depuis 2014 pour les universités travaillant sur les migrations. En France, dans le cadre du programme France 2030, l’Agence nationale de la recherche (ANR) a financé à hauteur de près de 14 millions d’euros l’Institut Convergences Migrations (IC Migrations) depuis sa création en 2017.
Cela contribue au dynamisme de la recherche sur les migrations : plus de mille chercheurs vont ainsi se réunir à Aubervilliers, en région parisienne, en juillet 2025 pour la 22ᵉ conférence annuelle du réseau européen IMISCOE, organisée par l’IC Migrations.
Mais, bien que l’écrasante majorité de ces chercheurs soient critiques des politiques migratoires, celles-ci ne changent pas pour autant. Les premiers surpris sont les chercheurs eux-mêmes : en 2020, soixante d’entre eux ont écrit à la présidente de la Commission européenne Ursula von der Leyen pour exprimer leur frustration d’être financés par la Commission – mais jamais écoutés.
Dans une logique de « politiques fondées sur les faits », l’objectif affiché par les bailleurs de fonds est pourtant de mieux comprendre les migrations pour mieux les gouverner. Cette approche est louable et nécessaire, a fortiori dans une époque marquée par les fake news, par l’influence de médias ouvertement populistes et par des politiques « anti-science » dans l’Amérique trumpiste. Mais force est d’admettre que les obstacles sont nombreux.
Rappelons que, si les chercheurs sont en général ouverts au dialogue avec les décideurs ainsi qu’avec les médias et la société civile, il ne s’agit pas de leur cœur de métier.
Ils évoluent dans un milieu professionnel qui a son propre rythme, nécessairement plus lent que celui des médias ou des soubresauts politiques. Leurs carrières répondent à des logiques spécifiques, dans lesquelles les publications jouent un rôle prépondérant – ce qui conduit à une forte spécialisation et à l’usage de la lingua franca de la recherche qu’est l’anglais.
Ajoutons que beaucoup travaillent dans des conditions dégradées, marquées par un précariat croissant et le sous-financement chronique des universités. La grande majorité des chercheurs ne sont donc pas formés, pas incités (et encore moins payés) pour dialoguer avec les politiques.
Cela a conduit à l’émergence d’intermédiaires, comme les think tanks (à l’instar du Migration Policy Institute à Bruxelles) ou certains centres de recherche spécialisés (dont le « Co-Lab » à l’Institut européen, à Florence). De par leurs réseaux parmi les décideurs et leur capacité à leur parler, ces acteurs comblent un manque. Mais leur existence indique aussi à quel point le dialogue recherche-politique est un exercice à part entière, que seule une poignée de chercheurs maîtrise.
Une autre difficulté tient à l’hétérogénéité des positions des chercheurs. Des économistes aux anthropologues en passant par les juristes, tous sont critiques des politiques actuelles – mais pas pour les mêmes raisons. Certains leur reprochent de freiner la croissance en limitant l’immigration de travail, d’autres de violer les droits fondamentaux, etc.
Face à cette multiplicité de critiques, les États peuvent aisément ne « piocher » que les résultats qui les arrangent. Par exemple, quand les sciences sociales documentent la vulnérabilité des migrants et le rôle des passeurs dans l’immigration irrégulière, les États retiennent l’impératif de lutter contre ces réseaux – mais oublient que leur existence est en grande partie une réponse au contrôle des migrations qui, en empêchant les mobilités légales, incitent les migrants à se tourner vers les passeurs.
Il existe enfin des obstacles plus fondamentaux, car la recherche renforce parfois les politiques qu’elle critique. Les politiques migratoires sont ainsi très « occidentalo-centrées ». L’Europe s’affole de l’arrivée de réfugiés sur son sol, en oubliant que la très grande majorité d’entre eux restent dans les pays du Sud. Or, c’est aussi dans les pays du Nord que la majorité du savoir est produit, avec le risque d’étudier davantage ce qui se passe en Europe qu’ailleurs.
Les appels à « décentrer » (voire à « décoloniser ») la recherche se multiplient, mais il reste difficile d’échapper à ce biais. À cet égard, les financements européens sont à double tranchant : s’ils permettent un essor de la recherche, ils sont aussi orientés vers les problématiques jugées importantes en Europe, tout en accentuant les inégalités de financement entre le nord et le sud de la Méditerranée.
Mais surtout, la notion même de « migration » n’est pas neutre : elle suppose un cadre étatique, au sein duquel les populations et les territoires sont séparés par des frontières, où citoyens et étrangers font l’objet d’un traitement bien différencié. Il est possible d’avancer que c’est justement cette organisation « westphalienne » du monde qui empêche de mieux gouverner les migrations, lesquelles témoignent des multiples interdépendances entre États.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le dilemme est donc assez clair. Les chercheurs sont des citoyens comme les autres et, à ce titre, ils ne sont donc pas extérieurs aux réalités sur lesquelles ils travaillent. Il est donc logique que la recherche se focalise sur les aspects les plus saillants des migrations contemporaines, et ce, d’autant plus que c’est justement vers ces réalités que les financements sont orientés. À bien des égards, pour produire un savoir pertinent et parler aux politiques, les chercheurs doivent « coller » à l’actualité.
Mais ce faisant, ils risquent de négliger des réalités moins visibles, et en conséquence de renforcer les biais qui affectent la perception sociale et politique des migrations. Il ne s’agit évidemment pas d’en appeler à une illusoire neutralité scientifique, mais de trouver un équilibre entre une logique de recherche autonome et la production d’un savoir utile à l’amélioration des politiques migratoires – à condition bien sûr que les États finissent un jour par les écouter.
Antoine Pécoud intervient sur ce sujet lors du colloque annuel de l’IMISCOE (International Migration Research Network), qui se tient sur le campus Condorcet à Aubervilliers (Seine-Saint-Denis), du 1er>/sup> au 4 juillet 2025.
Antoine Pécoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.06.2025 à 17:37
Trevor Mazzucchelli, Associate Professor of Clinical Psychology, Curtin University
Il est normal que les enfants s’ennuient. En fait, l’ennui peut même les aider à développer un certain nombre de compétences importantes.
À l’approche des vacances, les parents entendront sans doute leur enfant leur dire cette phrase classique : « Je m’ennuie… »
Nous nous ennuyons tous de temps en temps, et il n’y a rien de mal à cela. En fait, s’ennuyer est même utile, car cela nous aide à réfléchir et à modifier ce que nous faisons ou à prêter plus d’attention à notre environnement extérieur.
Cependant, de nombreux enfants doivent encore apprendre à gérer l’ennui. Si vous vous demandez comment réagir lorsque les enfants se plaignent de s’ennuyer (sans les laisser regarder davantage la télévision), voici quelques idées à tester.
L’ennui est légèrement désagréable, mais il n’y a pas de mal à ce que les enfants s’ennuient. En fait, l’ennui permet aux enfants de développer un certain nombre de compétences importantes, notamment :
supporter des expériences désagréables,
gérer la frustration et réguler les émotions,
développer son imaginaire,
résoudre des problèmes, planifier et organiser,
acquérir de l’indépendance et de l’autonomie.
Ces compétences sont essentielles pour que les enfants développent un sentiment de contrôle sur leur propre bonheur et leur bien-être.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En général, la vie des enfants est structurée et organisée pour eux. Lorsqu’ils disposent de temps libre, les enfants peuvent éprouver des difficultés à penser à des choses à faire et à les organiser.
Si, dès qu’un enfant se plaint de s’ennuyer, un adulte vient le divertir, alors cet enfant n’aura peut-être pas la possibilité d’apprendre à s’occuper tout seul et à développer son esprit créatif.
Il arrive que les enfants rejettent toutes les idées qu’on leur propose. Ils savent peut-être d’expérience qu’au bout du compte, cela va conduire à une longue discussion ou à ce qu’on s’engage avec eux dans une activité. Dans les deux cas, l’enfant n’a pas à gérer son propre ennui.
L’astuce consiste donc à aider les enfants à avoir leurs propres idées (plutôt que de leur suggérer quoi faire).
Les parents peuvent faire beaucoup pour se préparer à l’ennui et pour aider leur enfant à apprendre à gérer son propre ennui.
Voici quelques idées.
Discutez avec votre enfant de ce qu’il aime faire, de ses centres d’intérêt et de ses passions. Élaborez avec lui un menu d’activités auquel il pourra se référer lorsqu’il s’ennuie. Les enfants plus jeunes peuvent avoir envie d’illustrer leur menu avec des dessins.
Essayez de dresser une liste d’activités que votre enfant peut faire sans votre aide – un mélange de choses nouvelles et d’activités qu’il a déjà bien aimées par le passé. Incluez des activités plus rapides (comme le coloriage ou un pique-nique avec un ours en peluche), ainsi que des projets à plus long terme (comme un grand puzzle, la lecture d’un roman, l’acquisition de compétences sportives). Placez le menu à un endroit où votre enfant pourra s’y référer.
Assurez-vous que les jouets, outils ou autre matériel soient disponibles et accessibles pour que votre enfant puisse faire ce qui figure sur sa liste. Les jouets et les activités n’ont pas besoin d’être coûteux pour être amusants.
Préparez votre enfant. Informez-le du programme de la journée et du temps qu’il est censé consacrer aux activités de son menu. Cela le rassurera sur le fait qu’il n’est pas livré à lui-même « pour toujours ». Une série d’images illustrant le programme de la journée peut être utile. Avant une période de temps libre, discutez de deux ou trois règles. Par exemple, « Joue tranquillement jusqu’à ce que papa et maman aient fini et si tu as besoin de nous parler, dis-le », ou bien « Excuse-moi et attends que nous soyons disponibles ».
Au début, vous pouvez offrir une récompense (comme une activité spéciale avec vous, son goûter préféré ou du temps d’écran) si votre enfant s’occupe correctement pendant un certain temps. Au fil du temps, éliminez progressivement les récompenses en augmentant le temps dont votre enfant a besoin pour trouver à s’occuper, puis ne les lui offrez que de temps en temps.
Si votre enfant vous dit qu’il s’ennuie, redirigez-le vers sa liste. Cette conversation doit être brève et précise.
Si nécessaire, aidez votre enfant à démarrer. Certains enfants peuvent avoir besoin d’aide pour démarrer une activité. Il peut être nécessaire de passer quelques minutes à les installer. Essayez de ne pas tout faire vous-même, mais posez plutôt des questions pour les aider à résoudre les problèmes. Vous pouvez demander : « Que vas-tu fabriquer ? De quoi auras-tu besoin pour cela ? Par où vas-tu commencer ? »
S’il est important que les enfants apprennent à gérer l’ennui, ils ont aussi besoin de se sentir valorisés et de savoir que leurs parents veulent passer du temps avec eux. Prenez du temps pour votre enfant et soyez disponible pour lui lorsque vous êtes ensemble.
Trevor Mazzucchelli est co-auteur de « Stepping Stones Triple P - Positive Parenting Program » et consultant auprès de Triple P International (Australie). Le Parenting and Family Support Centre (Australie) est en partie financé par les ouvrages publiés par le Triple P - Positive Parenting Program, développé et détenu par l'Université du Queensland (UQ). Les redevances sont également distribuées à la Faculté des sciences de la santé et du comportement de l'UQ (Université de Queensland) et aux auteurs des publicatiions de Triple P. Triple P International (TPI) Pty Ltd est une société privée autorisée par UniQuest Pty Ltd, au nom de l'UQ, à publier et à diffuser Triple P dans le monde entier. Il n'est ni actionnaire ni propriétaire de TPI, mais il a reçu et pourrait recevoir à l'avenir des redevances et/ou des honoraires de conseil de la part de TPI. TPI n'a pas participé à la rédaction de cet article.
30.06.2025 à 17:36
Sylvaine Castellano, Directrice de la recherche, EM Normandie
Insaf Khelladi, Professeur Associé en Marketing, Pôle Léonard de Vinci
Rossella Sorio, Professeure Associée, Département Marketing ICN BS, ICN Business School
Le Brésil dispose de tous les atouts pour devenir un acteur clé du vin au XXIe siècle… à condition d’assumer pleinement son rôle : un laboratoire d’expérimentation, de consommation et de durabilité viticole à l’échelle mondiale. Après le football et le café, le vin, nouvel emblème du Brésil ?
Le Brésil, pays le plus peuplé d’Amérique du Sud avec 212 583 750 d’habitants et cinquième producteur de vin de l’hémisphère sud, suscite un intérêt international croissant. Longtemps perçu comme un acteur marginal sur la scène viticole, il connaît une transformation rapide, portée par des innovations techniques, une diversification de ses terroirs et une nouvelle génération de consommateurs.
Cette dynamique fait du pays un véritable laboratoire des nouvelles tendances mondiales du vin. Le marché brésilien connaît une croissance impressionnante : 11,46 milliards d'euros de chiffre d’affaires en 2024, avec des prévisions atteignant 19,12 milliards d'euros d’ici 2030, à un rythme de croissance annuelle moyen de 9,1 %. En valeur, le Brésil représente aujourd’hui 2,6 % du marché mondial du vin.
Comment expliquer ce marché émergent ?
Le pays produit entre 1,6 et 1,7 million de tonnes de raisins par an, sur près de 81 000 hectares. Le sud du pays reste le cœur de la viticulture brésilienne, avec 90 % de la production concentrée dans l’État du Rio Grande do Sul. La région de Pinto Bandeira s’est distinguée pour ses vins mousseux de qualité, produits selon la méthode traditionnelle, à base de Chardonnay et de Pinot noir.
De nouvelles régions émergent. Santa Catarina, avec ses vignobles d’altitude à São Joaquim, favorise une production de mousseux fins dans un climat frais. Plus audacieux encore, la vallée du São Francisco, dans le nord-est tropical, permet deux vendanges par an grâce à son climat semi-aride. Dans les zones plus chaudes comme São Paulo ou Minas Gerais, les producteurs innovent avec la technique de la poda invertida, ou taille inversée. Ils repoussent la récolte vers des périodes plus fraîches, améliorant la qualité des raisins.
En 2023, le Brésil a importé 145 millions de litres de vin, soit une baisse de 5,91 % en volume – en gommant l’inflation –, mais une hausse de 5 % en valeur – sans effet d’un changement de prix.
Les vins d’entrée de gamme – inférieurs à 20 euros – dominent avec 65 % du volume. Les vins premium – supérieurs à 80 euros – ont progressé de 31 % en volume et 34 % en valeur. Le Chili reste le principal fournisseur, devant le Portugal et l’Argentine. La France, cinquième fournisseur avec 7 % de parts de marché. L’Hexagone consolide sa position grâce à ses effervescents et ses Indications géographiques protégées (IGP).
Longtemps dominé par le rouge et les mousseux, le marché brésilien voit le vin blanc progresser fortement : 11 % d’importations en plus en 2023, représentant désormais 22 % du marché. Cette tendance s’explique par le climat, mais aussi par une recherche de fraîcheur, de légèreté, et de moindres teneurs en alcool. Les vins blancs aromatiques et floraux séduisent particulièrement les jeunes et les femmes, bouleversant les codes traditionnels.
Le renouveau du marché brésilien repose en grande partie sur les jeunes générations. Selon une étude, 37 % des millennials et Gen Z déclarent préférer le vin, juste derrière la bière (44 %), et devant les spiritueux. La consommation de vin devient plus quotidienne, intégrée à des moments conviviaux. Les Brésiliennes représentent 53 % des consommateurs en 2024, contre 47 % en 2019. La part des consommatrices âgées de 55 à 64 ans est même passée de 14 % à 19 %. Ce public, en pleine mutation, recherche des vins plus accessibles, des expériences partagées, et des marques engagées.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La durabilité devient un atout compétitif majeur. À Encruzilhada do Sul, le domaine Chandon (LVMH) a lancé un mousseux premium, à partir de pratiques durables certifiées PIUP, bien que non bio. Selon son œnologue Philippe Mével, ces démarches améliorent la santé des sols et la productivité, tout en réduisant les intrants.
La vinícola Salton, quant à elle, compense ses émissions de 951 tonnes de CO₂ en 2020 par la conservation de 420 hectares de pampa native, et des actions de reforestation. Elle vise la neutralité carbone d’ici 2030 via des énergies renouvelables et des matériaux recyclés.
Malgré ces avancées, le vin brésilien souffre d’une image encore trop classique. Pour séduire les jeunes, la filière doit adopter des codes plus spontanés, centrés sur les expériences, les moments de vie et les émotions. Instagram, TikTok, micro-influenceurs, étiquettes au design moderne : les leviers sont nombreux.
Le visuel est désormais un facteur déterminant d’achat. Les jeunes générations attendent aussi que le vin s’intègre à leur quotidien via des événements festifs, des pique-niques, des festivals ou des bars éphémères.
La consommation moyenne de vin par habitant reste faible (2,7 litres/an), mais le potentiel est considérable. Avec une offre en pleine diversification, des terroirs multiples, une jeunesse curieuse et exigeante, et une montée en gamme affirmée, le Brésil change de visage viticole.
Des événements comme ProWine São Paulo, devenu la plus grande foire du vin et des spiritueux des Amériques, témoignent de cet engouement croissant. Le Brésil dispose de tous les atouts pour devenir un acteur clé du vin au XXIe siècle… à condition d’assumer pleinement ce qu’il est en train de devenir : un laboratoire d’expérimentation, de consommation et de durabilité viticole à l’échelle mondiale.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 17:36
Clémence Lepla, Doctorante en droit privé, Université de Lille
14 % de la nourriture produite est jetée ou perdue avant même d'atteindre les rayons des magasins. 19% sera ensuite jetée par les magasins, les restaurants ou particuliers. Pour lutter contre ce fléau, l'Espagne vient d'adopter une loi avec des sanctions inédites. Mais cela sera-t-il suffisant pour endiguer le gaspillage alimentaire ?
L’Espagne vient d’adopter une nouvelle loi pour lutter contre les pertes et le gaspillage alimentaire. Publiée le 1er avril 2025, elle ambitionne de réduire les pertes et le gaspillage à toutes les étapes de la chaine alimentaire, de la récolte à la consommation, en promouvant un modèle plus durable. Si une loi en Catalogne existait déjà en la matière, le dispositif est désormais harmonisé.
Les objectifs fixés sont ambitieux. La loi vise à réduire de 50 % le gaspillage alimentaire par habitant et de 20 % les pertes alimentaires d’ici à 2030. Les pertes alimentaires désignent ici la nourriture qui est perdue ou jetée avant d’atteindre les magasins de détail, lors des étapes de récolte, de transformation des aliments ou encore du transport. Actuellement, 14 % de la nourriture produite dans le monde est perdue à ce stade. Le gaspillage alimentaire correspond lui à la nourriture disponible à la vente ou à la consommation qui est jetée par les supermarchés, les restaurants et les ménages. Il représente 19 % des denrées alimentaires produites dans le monde. Ces chiffres ont marqué un véritable tournant dans la prise de conscience mondiale de ce problème, incitant les gouvernements à adopter des politiques ambitieuses pour y remédier.
Inédite en Espagne, cette loi constitue une étape importante dans la lutte contre le gaspillage alimentaire. Elle s’inscrit dans les objectifs de développement durable de l’Union européenne qui visent, d’ici au 31 décembre 2030, une réduction de 10 % des pertes alimentaires (par rapport à la quantité générée en moyenne annuelle entre 2021 et 2023) ainsi que la réduction de 30 % du gaspillage alimentaire par habitant.
Le texte présente également des dispositions similaires à celles de la loi relative à la lutte contre le gaspillage alimentaire, dite Loi Garot, adoptée par la France en 2016. Bien que les dispositifs ne soient pas entièrement identiques, les deux textes poursuivent le même objectif : lutter contre les pertes et le gaspillage alimentaires.
Pour atteindre cet objectif, la participation de tous les acteurs de la société est nécessaire. La loi espagnole s’applique ainsi à une large palette d’acteurs opérant sur le territoire. Elle s’adresse aux professionnels assurant la production, la transformation et la distribution de denrées alimentaires ; aux restaurants ; à l’hôtellerie ; aux consommateurs ; aux associations de distribution de dons alimentaires ainsi qu’à l’administration publique. Seules les micro-entreprises sont exclues du dispositif.
Contrairement à la loi française, la loi espagnole est également applicable pour les opérateurs du secteur primaire tels que les agriculteurs, éleveurs, pêcheurs et coopératives agricoles.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les opérateurs économiques de la chaîne alimentaire doivent respecter un ordre de priorité inspiré de la directive européenne sur les déchets. Ainsi, lorsqu’une denrée alimentaire ne parvient pas à être vendue, elle doit être donnée ou transformée (par exemple des fruits transformés en confiture). Si ces opérations ne sont pas réalisables, cette denrée pourra être utilisée pour nourrir les animaux. À défaut, elle sera transformée par l’industrie en sous-produit non alimentaire (biocarburant, bioplastiques…), recyclée ou transformée en compost.
La loi proscrit également toute action visant à rendre les denrées impropres à la consommation ou à la valorisation comme le fait de verser de la javel sur les invendus.
Le manquement au respect de cet ordre de priorité est répertorié comme étant une « infraction mineure » et est puni par un avertissement ou une amende pouvant aller jusqu’à 2 000 euros. Cette infraction peut être requalifiée en « infraction grave » si elle est commise à nouveau dans une période de deux ans à compter de la sanction par décision administrative de la première d’entre elles. Le cas échéant, elle est punie d’une amende allant de 2 001 à 60 000 euros.
La destruction ou altération intentionnelle de denrées alimentaires invendues encore propres à la consommation est quant à elle considérée comme étant une « infraction grave ». En cas de réitération de ce type d’infraction, celle-ci est susceptible d’être requalifiée en « infraction très grave ». Elle sera alors passible d’une amende comprise entre 60 001 et 500 000 euros. La loi laisse une certaine marge de manœuvre à l’échelle régionale aux 17 Communautés autonomes d’Espagne pour augmenter ces seuils et/ou inclure d’autres sanctions additionnelles ou accessoires dans leurs réglementations respectives ayant valeur de loi.
Les sanctions diffèrent des sanctions françaises lesquelles prévoient une amende pouvant aller jusqu’à 0,1 % du chiffre d’affaires hors taxe du dernier exercice clos réalisé par l’établissement coupable de destruction de ses invendus. Le montant est fixé en fonction de la gravité de l’infraction, notamment du nombre et du volume de produits concernés. Cette amende peut être assortie d’une peine complémentaire d’affichage ou de diffusion de la décision prononcée, dans les conditions prévues à l’article 131-35 du code pénal.
La loi espagnole impose également aux professionnels de mettre en place des plans de prévention. Il s’agit de documents opérationnels détaillant les mesures mises en place pour identifier, prévenir et réduire les pertes et le gaspillage alimentaires. Chaque acteur de la chaîne alimentaire (à l’exception donc des microentreprises, des petits établissements commerciaux d’une surface inférieure à 1300m2 et des petites exploitations agricoles) doit expliquer comment il appliquera cet ordre de priorité et rendre compte des actions de prévention telles que la vente de produits dits « moches » ou « inesthétiques » ou encore indiquer les éventuels accords ou arrangements qu’ils ont avec des associations pour donner leurs invendus. Ces plans de prévention permettent également de collecter des données sur les pertes et le gaspillage alimentaires qui seront essentielles dans le cadre du suivi et de la régulation de cette problématique à l’échelle nationale.
Ces informations collectées alimenteront le plan national de contrôle des pertes et du gaspillage alimentaires, un dispositif mis en place par l’Espagne pour superviser et contrôler les actions des professionnels. Ce plan national vise à garantir que les objectifs législatifs de réduction des pertes et du gaspillage alimentaires soient atteints et peut inclure des contrôles, des audits, ainsi que des mécanismes de suivi et de sanction en cas de non-respect.
Le ministère de l’agriculture, de la pêche et de l’alimentation doit établir annuellement un rapport contenant les résultats de la mise en œuvre du plan de lutte national afin de suivre l’évolution et des mesures mises en place. Les administrations publiques doivent quant à elle enquêter et recueillir des données permettant de connaître l’ampleur du phénomène de pertes et du gaspillage alimentaires (volumes, causes et responsabilités).
La loi vise également à promouvoir le don de nourriture, en garantissant la sécurité et la traçabilité des aliments. Bien qu’encouragé, notamment au travers d’une déduction fiscale, le don reste facultatif : les professionnels peuvent aussi écouler leurs invendus alimentaires encore consommables en baissant les prix par exemple ou en les transformant. En revanche, il est interdit d’insérer dans un contrat une clause qui empêcherait l’autre partie de les donner.
Le recours au don est également encadré par une convention de don précisant les modalités de collecte, de transport, de stockage ainsi que les obligations des parties.
L’association bénéficiaire a la possibilité de refuser le don, sous réserve de motiver son refus. Elle est également tenue de respecter plusieurs exigences telles que : fournir des informations sur les denrées alimentaires aux personnes qui reçoivent la nourriture ; assurer la traçabilité des produits donnés au moyen d’un système d’enregistrement des entrées et sorties de denrées alimentaires reçues et livrées ; maintenir de bonnes pratiques d’hygiène dans la conservation et la manipulation des aliments ou encore donner sans discrimination.
La loi a enfin pour objectif de sensibiliser et d’informer les consommateurs. Elle impose pour cela aux pouvoirs publics de promouvoir des campagnes d’information sur la réduction du gaspillage alimentaire. Cette problématique sera d’ailleurs intégrée dans les programmes éducatifs dès le plus jeune âge.
Le texte met également l’accent sur l’importance de différencier les types de dates figurant sur les produits alimentaires : les produits comportant une date limite de consommation (DLC) présentent un risque pour la santé s’ils sont consommés une fois la date expirée. À l’inverse, les produits ayant une date de durabilité minimale (DDM) peuvent être consommés après cette date. Leur qualité peut être altérée mais ils peuvent encore être consommés en toute sécurité plutôt que d’être jetés. Cette mesure est d’ores et déjà à l’œuvre en France où les produits alimentaires comportant une DDM peuvent être accompagnés d’une mention informant les consommateurs que le produit reste consommable après cette date.
À l’échelle des restaurants, les doggy bags sont également fortement encouragés. À l’instar de la France, l’Espagne impose désormais aux établissements de la restauration de fournir gratuitement des contenants réutilisables ou facilement recyclables afin de permettre aux clients d’emporter les restes de leur repas.
L’Espagne est le troisième pays de l’Union européenne, après la France et l’Italie, à adopter une loi spécifique contre le gaspillage alimentaire. Cette dynamique s’inscrit dans un contexte plus large de renforcement des politiques européennes en matière de durabilité alimentaire.
L’efficacité de la loi espagnole sur la prévention des pertes et du gaspillage alimentaire reposera sur sa mise en œuvre concrète et la rigueur du contrôle exercé. L’exemple de la loi française, adoptée il y a neuf ans, offre un cadre d’évaluation utile pour apprécier les leviers efficaces et les résultats mesurables d’une telle politique.
En effet, malgré l’ambition initiale, un rapport parlementaire publié trois ans après l’entrée en vigueur de la loi Garot a mis en évidence l’insuffisance de moyens pour réaliser des contrôles. La destruction des invendus, notamment par la pratique de la javellisation, fait l’objet de très peu de contrôles effectifs et est faiblement sanctionnée.
L’Espagne a quant à elle intégré dans cette loi un dispositif national de contrôle des pertes et du gaspillage alimentaires, articulé autour d’un mécanisme de suivi régulier assuré par le ministère de l’agriculture, de la pêche et de l’alimentation et des plans de prévention fournis par les opérateurs économiques.
Reste à déterminer si ces outils, pensés pour garantir une application rigoureuse et homogène du texte, seront suffisamment dotés pour produire des effets concrets. À terme, c’est bien sa capacité à induire des changements structurels dans les pratiques économiques et sociales qui permettra d’en juger la portée réelle.
Clémence Lepla a reçu des financements de la Région des Hauts-de-France et de l'Université de Lille.
30.06.2025 à 17:25
Michael Carroll, Reader / Associate Professor in Reproductive Science, Manchester Metropolitan University
Démangeaisons, brûlures, œdème, voire difficultés respiratoires… chez certaines femmes, ces symptômes se manifestent quelques instants après les rapports sexuels. En cause, une allergie particulière, l’hypersensibilité au liquide séminal (HLS). Parfois confondue avec d’autres problématiques, cette réaction pourrait concerner un nombre de femmes plus important qu’on ne l’imaginait jusqu’ici.
L’hypersensibilité au liquide séminal (HLS) est un trouble rare, quoique probablement sous-diagnostiqué. Cette réaction n’est pas provoquée par les spermatozoïdes, mais par les protéines présentes dans le liquide séminal, le liquide qui transporte ces derniers. L’hypersensibilité au liquide séminal a été documentée pour la première fois en 1967, après l’hospitalisation d’une femme victime d’une « violente réaction allergique » survenue durant un rapport sexuel. Elle est aujourd’hui reconnue comme une hypersensibilité de type I, ce qui la place dans la même catégorie que le rhume des foins et les allergies aux cacahuètes ou aux poils de chat.
Les symptômes qui en résultent s’étendent sur un large spectre, qui va de manifestations bénignes à des troubles graves. Certaines femmes souffrent de réactions locales : brûlures, démangeaisons, rougeurs et œdème au niveau de la vulve ou du vagin. D’autres présentent des symptômes généralisés : urticaire, respiration sifflante, vertiges, nez qui coule, voire choc anaphylactique, une réaction immunitaire potentiellement mortelle.
Jusqu’en 1997, on estimait que l’HLS touchait moins de 100 femmes dans le monde. Mais une étude dirigée par l’allergologue Jonathan Bernstein a montré que, parmi les femmes rapportant des symptômes après avoir eu des rapports sexuels, près de 12 % présentaient un tableau compatible avec une HLS. J’ai moi-même mené une petite enquête en 2013 (résultats non publiés) et obtenu un taux similaire.
Mais le chiffre réel pourrait être encore plus élevé. En effet, de nombreux cas ne sont pas signalés, ou sont mal diagnostiqués, les symptômes étant attribués à tort à des infections sexuellement transmissibles, à des problèmes de mycose, voire à une « sensibilité générale ». Un indice révélateur permet cependant d’orienter le diagnostic : les symptômes disparaissent lorsqu’un préservatif est utilisé. En 2024, une revue de littérature a corroboré ces résultats, suggérant que l’HLS est à la fois plus fréquente et plus souvent méconnue qu’on ne le pensait.
L’allergène principal semble être la kallicréine prostatique ou antigène spécifique de la prostate (PSA) : une protéine présente dans le liquide séminal. Celle-ci est systématiquement présente, quel que soit le partenaire. Autrement dit, une femme souffrant cette allergie présentera une réaction au sperme de n’importe quel homme, pas seulement à celui d’un compagnon spécifique.
Des preuves de l’existence d’une réactivité croisée ont également été mises en évidence. Ainsi, Can f 5, une protéine présente dans les squames des chiens, est structurellement similaire à l’antigène PSA humain. De ce fait, certaines femmes allergiques aux chiens peuvent également présenter une allergie au sperme. En 2007, des cliniciens ont également décrit le cas d’une jeune femme ayant développé une urticaire diffuse ainsi que des difficultés à respirer après avoir eu un rapport sexuel avec son compagnon. Celui-ci avait consommé peu de temps auparavant des noix du Brésil, souvent impliquées dans les réactions allergiques. Il semblerait que la réaction de la jeune femme ait été provoquée par la présence de protéines de noix dans le sperme de son partenaire.
La première étape pour poser un diagnostic de HSP consiste à établir un historique sexuel et médical détaillé. Celui-ci est ensuite généralement suivi par la réalisation d’analyses sanguines destinées à détecter les anticorps IgE anti-PSA, ou de tests cutanés avec le liquide séminal du partenaire.
Lors de nos travaux de recherche, nous avons démontré que des tests effectués avec des spermatozoïdes lavés, donc dépourvus de liquide séminal, n’ont pas engendré de réaction chez des femmes présentant habituellement des symptômes allergiques. Ces résultats confirment que le déclencheur allergique n’est pas la cellule spermatozoïde elle-même, mais bien les protéines du liquide séminal.
Soulignons que les femmes ne sont pas les seules susceptibles de développer ce type d’allergie. Certains hommes peuvent aussi être allergiques à leur propre sperme. Cette pathologie, connue sous le nom de syndrome de la maladie post-orgasmique, provoque des symptômes pseudo-grippaux – fatigue, brouillard cérébral et courbatures – immédiatement après l’éjaculation. On suppose qu’il s’agit d’une réaction auto-immune ou allergique. Le diagnostic reste complexe à poser, cependant il arrive qu’un test cutané mettant en œuvre le sperme puisse se révéler positif.
L’hypersensibilité au liquide séminal n’engendre pas directement l’infertilité, mais elle peut compliquer le projet de conception. En effet, éviter l’allergène – ce qui constitue la solution la plus efficace pour lutter contre la plupart des allergies – n’est pas envisageable pour un couple qui souhaite concevoir…
Parmi les traitements possibles figurent la prise d’antihistaminiques en prophylaxie (qui consiste à prendre des médicaments antiallergiques avant l’exposition supposée à l’allergène, afin de prévenir ou d’atténuer les réactions), les traitements anti-inflammatoires et la désensibilisation (par administration progressive de liquide séminal dilué). Dans les cas les plus sévères, les couples peuvent recourir à une fécondation in vitro effectuée avec des spermatozoïdes lavés, ce qui permet d’éviter le contact avec les allergènes à l’origine de la réaction.
Il est important de souligner que l’hypersensibilité au liquide séminal n’est pas une cause d’infertilité. De nombreuses femmes qui en sont atteintes ont pu avoir des enfants, certaines naturellement, d’autres en ayant recours à une assistance médicale.
La méconnaissance de l’hypersensibilité au liquide séminal tient probablement au fait que les symptômes liés aux rapports sexuels sont souvent passés sous silence par les patientes. La gêne, la stigmatisation et le manque de sensibilisation des médecins à cette question font que bien des femmes souffrent en silence.
Dans l’étude de menée en 1997 par Bernstein et ses collaborateurs, près de la moitié des femmes présentant des symptômes après des rapports sexuels n’avaient jamais été testées pour une hypersensibilité au liquide séminal. Durant des années, elles se sont donc vues poser un diagnostic erroné, et prescrire un traitement inadapté.
En définitive, si vous ressentez systématiquement des démangeaisons, des douleurs ou une sensation de malaise après un rapport sexuel et que ces symptômes ne surviennent pas lors d’un rapport protégé par préservatif, il est possible que vous souffriez d’hypersensibilité au liquide séminal.
Il est temps de braquer les projecteurs sur cette affection trop méconnue, pour que cette question soit enfin abordée en consultation.
Michael Carroll ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.06.2025 à 15:49
Jye Marshall, Lecturer, Fashion Design, School of Design and Architecture, Swinburne University of Technology
Rachel Lamarche-Beauchesne, Senior Lecturer in Fashion Enterprise, Torrens University Australia
Papesse de la mode, Anna Wintour, 75 ans, quitte la toute-puissante rédaction en chef de l’édition américaine de Vogue. Icône de la pop culture, la directrice artistique a inspiré le personnage de diva hautaine du livre le Diable s’habille en Prada (2003) et est citée dans les chansons des rappeurs Azealia Banks ou Jay Z. Sachant joué de son image, la journaliste britanno-américaine a fait un caméo dans le film Ocean’s Eleven, une apparition dans Zoolander 1 puis 2 et a même son personnage chez les Simpsons. Éternelle figure d’influence, Anna Wintour conservera un poste de direction au sein du groupe de presse Condé Nast.
Après trente-sept ans de règne, Anna Wintour, poids lourd de l’industrie de la mode, quitte ses fonctions de rédactrice en chef de l’édition états-unienne du magazine Vogue.
Il ne s’agit toutefois pas d’une retraite, puisque Mme Wintour conservera ses fonctions de responsable du contenu de toutes les marques, au niveau mondial, du groupe de presse de mode et style de vie Condé Nast (propriétaire de Vogue et d’autres publications telles que Vanity Fair et Glamour) et de directrice de l’édition internationale du magazine de mode, Vogue World.
Néanmoins, le départ de Mme Wintour de l’édition américaine du magazine est un fait marquant pour l’industrie de la mode qu’elle a, à elle seule, changée à jamais.
Les magazines de mode tels que nous les connaissons aujourd’hui ont été formalisés pour la première fois au XIXᵉ siècle. Ils ont contribué à établir la « théorie du ruissellement de la mode », selon laquelle les tendances étaient traditionnellement dictées par certaines élites de l’industrie, notamment les rédacteurs en chef des principaux magazines.
Le Vogue états-unien lui-même a été créé à New York en 1892 par l’homme d’affaires Arthur Baldwin Turnure. Le magazine s’adressait à l’élite de la ville et couvrait initialement divers aspects de la vie de la haute société. En 1909, Vogue est racheté par Condé Nast. Dès lors, le magazine s’impose de plus en plus comme une pierre angulaire de l’édition de mode.
La période qui a suivi la Seconde Guerre mondiale a particulièrement ouvert les portes au consumérisme de masse de la mode et à l’expansion de la culture des magazines de mode.
Wintour a été nommée rédactrice en chef du Vogue US en 1988. Le magazine a alors pris un tournant moins conservateur et a vu son influence sur le plan culturel grandir.
Les choix éditoriaux audacieux de Wintour ont refaçonné la presse de mode, notamment les couvertures de magazines. Ses choix ont à la fois reflété et dicté l’évolution de la culture de la mode.
La première couverture de Vogue, publiée en 1988, mélangeait des vêtements de haute couture (Christian Lacroix) et des marques grand public (jeans Guess délavés), ce qui n’avait encore jamais été fait. C’était aussi la première fois qu’une paire de jeans apparaissait en couverture de Vogue, ce qui a parfaitement planté le décor d’une longue carrière passée à pousser le magazine à explorer de nouveaux domaines.
Wintour a aussi été une des premières à avoir placé les célébrités (et pas simplement les mannequins et les modèles) au centre du discours sur la mode. Tout en s’appuyant sur de grands noms tels que Beyoncé, Madonna, Nicole Kidman, Kate Moss, Michelle Obama et Oprah Winfrey, elle a donné sa chance à des stars montantes, àdes jeunes mannequins qu’elle mettait en couverture et dont elle propulsait les carrières.
L’héritage de Wintour à Vogue a consisté à faire passer la mode d’un défilé frivole à une industrie puissante, qui n’a pas peur d’affirmer ses choix. C’est particulièrement vrai lors du Met Gala, qui se tient chaque année pour célébrer l’ouverture d’une nouvelle exposition sur la mode au Metropolitan Museum of Art’s Costume Institute (New York).
Au départ, en 1948, c'était une simple soirée annuelle de collecte de fonds pour le Met, et c’est en 1974 que l’évènement a été pour la première fois associé à une exposition de mode.
Wintour a repris les rênes du Met Gala en 1995 et a fait d’une soirée de charité un rendez-vous prestigieux, haut lieu de brassage entre l’histoire et la mode, notamment en invitant des artistes en vue du cinéma ou de la mode.
Cette année, le thème du gala et de l’exposition Superfine : Tailoring Black Style porte sur le stylisme noir à travers l’histoire. À une époque où les États-Unis sont confrontés à une grande instabilité politique, Wintour a été célébrée pour le rôle qu’elle a joué dans l’élévation de l’histoire des Noirs grâce à cet événement.
Cependant, si son influence culturelle ne peut être mise en doute, l’héritage de Wintour au Vogue états-unien n’est pas sans controverses. Ses querelles sans fin avec l’organisation de défense des animaux PETA en particulier – en raison de son soutien indéfectible à la fourrure – ont été longtemps minimisées.
En 2005, Wintour a été directement visée par les militants anti-fourrure : a elle été entartée alors qu’elle quittait un défilé de Chloé. Cette affaire n’a jamais vraiment été réglée. Vogue a continué à présenter des vêtements en fourrure, alors même que les consommateurs ont tendance à se détourner des matières animales, les fourrures en premier lieu.
La mode devient de plus en plus politique. Il reste à voir comment des magazines tels que Vogue vont réussir à appréhender et embrasser ce virage.
blogs de mode au cours des dernières décennies a donné naissance à une vague d’influenceurs de la mode, avec des foules d’adeptes, qui remettent en question la structure unidirectionnelle du « ruissellement » de l’industrie de la mode.Aujourd’hui, les réseaux sociaux ont dépassé l’influence des médias traditionnels, tant à l’intérieur qu’à l’extérieur du secteur de la mode. Le pouvoir des rédactrices de mode telles qu’Anna Wintour s’en voit considérablement diminué.
Le départ de Mme Wintour de son poste de rédactrice en chef fera couler beaucoup d’encre, mais jamais autant que celle qui aura permis d’imprimer tous les textes dont elle a supervisé la parution, aux manettes du plus grand magazine de mode du monde.
Rachel Lamarche-Beauchesne a été affiliée au Animal Justice Party (Parti de la justice animale en Australie)
Jye Marshall ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.06.2025 à 15:01
Mélanie Bourdaa, Professeure en Sciences de l'Information et de la Communication, Université Bordeaux Montaigne
Arnaud Alessandrin, Sociologue, Université de Bordeaux
À travers Querer et Adolescence, deux miniséries venues d’Espagne et du Royaume-Uni, 2025 aura vu la fiction européenne s’attaquer de front aux violences de genre et aux modèles de masculinité. Au-delà de leurs récits, ces œuvres posent une question cruciale : que peut la fiction pour sensibiliser à ces enjeux, dans les écoles, dans la sphère privée, comme dans l’espace public ?
On entend souvent que les séries influencent celles et ceux qui les regardent. Et généralement cette influence est décrite comme négative : les séries traduiraient et amplifieraient les stéréotypes, les violences, etc. Ce postulat est très éloigné des travaux de recherche. D’une part, ceux-ci démontrent que le public est (inégalement) actif, notamment en créant du discours face à ces imaginaires. D’autre part, les séries ne participent pas qu’à la diffusion de stéréotypes : elles les transforment et les tordent également.
Adolescence est une minisérie britannique de quatre épisodes qui a été diffusée en mars 2025 sur Netflix. Elle suit la mise en accusation pour meurtre (d’une camarade de classe) d’un garçon de 13 ans. Abordant simultanément les questions de masculinité, de féminicide et de l’impact des réseaux sociaux, la série reçoit un fort écho en France et devient le centre d’une discussion sur l’éducation des garçons et le rôle de l’école dans la déconstruction de la masculinité.
Querer est également une minisérie de quatre épisodes, mais tournée et conçue en Espagne. Elle a été diffusée en France en juin 2025 sur Arte. Elle suit Miren, qui porte plainte contre son mari pour viols répétés, après trente ans de mariage. La série met notamment en lumière les réactions et le soutien contrastés des proches, la difficulté de ce type de procès et la normalisation des violences au sein des couples. Diffusée peu après le procès médiatisé de Mazan, la série bénéficie d’un important bouche-à-oreille.
Les séries participent de la mise à l’agenda politique et médiatique de ces questions. C’est d’ailleurs l’un de leurs objectifs assumés. Le réalisateur de Querer, Eduard Sala, a déclaré que la série visait « non seulement à divertir mais aussi à changer le monde ». Le scénariste d’Adolescence, Stephen Graham, a déclaré souhaiter que « la série provoque des dialogues entre les parents et leurs enfants », considérant qu’elle « n’est que le début du débat ».
Querer comme Adolescence sont des dispositifs efficaces pour parler des violences et harcèlements sexistes et sexuels (VHSS) car elles ont su trouver des relais médiatiques importants dans la presse, à la radio et à la télévision.
Mais ce n’est pas tout, si la sensibilisation par les séries se fait, c’est également que le public en parle, notamment le public le plus engagé : les fans. La série devient un levier pour entamer des conversations dans les communautés en ligne, pour sensibiliser à ces questions ou pour partager son expérience et ainsi mettre en lumière les réalités des VHSS.
A contrario, la série peut également provoquer des réactions de cyberviolence et de cyberharcèlement de la part de publics toxiques. Il suffit pour cela de regarder les commentaires des posts Facebook sur la série Querer, où féministes et masculinistes argumentent sur les thèmes de la série. Pour la série Adolescence, les commentaires sur les comptes Instagram de fans mentionnent le besoin de voir la série pour mieux comprendre les adolescents et leur vie privée et sociale.
En juin 2025, s’inspirant d’une mesure prise au Royaume-Uni, la ministre de l’éducation nationale Élisabeth Borne a proposé que la série Adolescence soit utilisée comme support pédagogique à partir de la classe de quatrième. Querer (qui a reçu le grand prix au festival Séries Mania) semble emprunter le même chemin, notamment dans des formations en psychologie ou en criminologie.
Ce n’est pas la première fois que des séries sont mobilisées pour porter un discours de politique publique. En 2017, la série 13 Reasons Why, qui traite du harcèlement allant jusqu’au suicide d’une adolescente, avait bénéficié d’un site ressource avec des dispositifs de prévention et d’un documentaire post-série (Beyond the Reasons).
Utilisée dans des collèges et lycées anglophones avec des guides d’accompagnement pour éducateurs et parents, la série emboîte le pas d’une autre, plus connue encore : Sex Education. Celle-ci est la première teen serie portant aussi explicitement sur les questions de sexualité et de relations amoureuses, dans une approche sex-positive, très tolérante et ayant toujours à cœur la question du consentement. Un guide, « Le petit manuel Sex Education », a été mis à disposition pour des ateliers de prévention et de sensibilisation. Il est utilisé dans certains établissements scolaires. Bref, l’implémentation de séries dans des politiques éducatives ou de prévention : ce n’est pas tout à fait nouveau.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Mais ne nous trompons pas : les séries, seules, ne constituent pas des supports de sensibilisation autonomes. Encore faut-il penser autour d’elles des dispositifs de médiation.
Les séries sont de plus en plus nombreuses à avertir de scènes de violences et à renvoyer vers des centres d’aide. Par exemple à partir de la saison 2, chaque épisode de 13 Reasons Why commence par un message d’avertissement : « Cet épisode contient des scènes qui peuvent heurter la sensibilité de certains spectateurs. » Un avertissement vidéo avec les acteurs précède également la diffusion : « Si vous êtes concerné par ces sujets, parlez-en à un adulte ou consultez le site 13reasonswhy.info ».
La série Sex Education s’est aussi prêtée à cet exercice : lors d’un épisode montrant une agression sexuelle dans un bus, des ressources officielles ont été diffusées sur les réseaux sociaux de la série et de la BBC, renvoyant notamment vers le centre d’aide britannique aux victimes de viol.
Les séries françaises sont plus discrètes dans l’intégration directe de liens dans les épisodes. Dans Skam, une série Slash/France Télévision qui suit le quotidien d’élèves de lycée, des messages apparaissent avec des liens vers le 3018 (cyberviolences), le 3919 (violences conjugales) ou vers SOS Homophobie à la fin de certains épisodes (notamment dans les saisons 4, 5 et 6, qui traitent respectivement de l’islamophobie, de la santé mentale et des violences contre partenaire intime). Le site Slash propose une page complète « Besoin d’aide », mentionnée dans les dialogues ou dans l’habillage final de la série.
Si sensibiliser aux questions de violences, de discrimination ou de santé mentale semble commencer à faire partie du « cahier des charges » implicite des séries qui abordent ces thématiques, séries et campagnes de sensibilisation publique ne sont pas en concurrence. Les séries résonnent avec le cadre légal de chaque pays de diffusion : la législation contre les violences de genre n’est pas la même en Espagne, en France ou au Royaume-Uni, et sa réception est propre à chaque contexte.
Dans certains cas, séries et politiques publiques peuvent gagner à jumeler leurs discours et leurs actions en matière de prévention et de sensibilisation. L’une des conditions est que les personnes en charge des actions de sensibilisation soient formées.
L’annonce aux agents de l’éducation nationale de l’arrivée d’Adolescence parmi les supports de sensibilisation pose ainsi question. Chez un grand nombre d’enseignants et d’infirmiers scolaires, les séries ne font pas partie de la culture pédagogique en routine. Sans culture commune (on pense notamment à des formations à l’outil sériel), il paraît abrupt de prétendre qu’une série puisse lutter efficacement contre les violences. D’autant plus que la série agit comme un révélateur de la parole, mais aussi des souvenirs – y compris post-traumatiques.
À cet égard, l’outil qu’est la série nécessite un double accompagnement par des encadrants formés à la fois à ce support mais aussi à l’accueil et à l’accompagnement de la parole.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 12:17
Hédia Zannad, Associate professor, Neoma Business School
Loréa Baïada-Hirèche, Maître de conférences en management des ressources humaines, Institut Mines-Télécom Business School
Pour les salariés sans diplôme ou les réfugiés sans qualification reconnue en France, l’intégration professionnelle peut être un chemin semé d’embûches. Une étude montre la possibilité de contourner l’absence de réseaux ou de titres académiques en misant sur son capital psychologique.
Si la centralité du diplôme dans le processus de recrutement est une affaire de bon sens, seules les compétences et les performances devraient être prises en compte par la suite. Or, c’est rarement le cas. Bienvenue en France, où prévaut la « tyrannie du diplôme initial ».
Notre article « Quand tout est à (re)construire : la dynamique des ressources de carrière en contexte préjudiciable » est le fruit hybride du croisement entre deux recherches menées et publiées indépendamment l’une de l’autre. La première s’intéresse à la carrière des salariés peu qualifiés d’une grande entreprise française de télécoms – que nous appellerons T par souci d’anonymisation. La seconde s’interroge sur le devenir professionnel des réfugiés en France en provenance de zones de conflit telles que la Syrie ou l’Afghanistan.
Ces deux populations ont en commun de souffrir d’un capital sociologique – ressources économiques, sociales et culturelles – déficient au regard de leur environnement professionnel. Les premiers sont désavantagés par l’insuffisance de titres dans un environnement qui valorise les diplômes d’excellence, les seconds par la disqualification de leur bagage culturel et la disparition de leurs réseaux sociaux dans l’exil.
Alors, comment comprendre que certains réussissent sur le plan professionnel malgré l’absence ou le manque de qualifications ?
Pour répondre à cette question, nous avons fait appel au concept de « ressources de carrière ». Cette notion est composée des ressources psychologiques et sociales – les réseaux de proches –, des ressources en capital humain – éducation, formation, expérience – et des ressources identitaires – conscience de son identité professionnelle – qu’un individu peut mobiliser au service de sa carrière. À la lueur de ce concept, nous nous sommes appuyées sur l’analyse de 42 entretiens menés auprès de 24 salariés et de 18 réfugiés, suivant la méthodologie des récits de vie. L’enjeu : comprendre comment ces individus parviennent à développer des ressources de carrière au service de leur réussite professionnelle, à partir d’un capital sociologique faible.
Nos résultats montrent que près de la moitié des personnes interrogées, peu diplômées – ou aux qualifications non reconnues en France –, sont parvenues à s’inscrire dans des trajectoires professionnelles plus ascendantes que ce qu’une analyse sociologique aurait pu laisser prévoir.
Comment ? En étant capables de transformer leurs ressources personnelles – capital psychologique et valeurs personnelles – en ressources pour faire carrière.
Ce que révèle notre étude, c’est la puissance du capital psychologique – également nommé « PsyCap » – pour initier ou relancer une carrière… même en l’absence de capitaux sociologiques traditionnels. Le PsyCap est défini dans le cadre de la psychologie positive comme l’ensemble des forces et capacités psychologiques qui peuvent être développées pour améliorer la performance professionnelle. Il est constitué de quatre dimensions selon le professeur de gestion Fred Luthans : la confiance, l’optimisme, l’espoir et la résilience.
La confiance se rapporte à la foi qu’a une personne en sa capacité à transformer ses efforts en succès pour relever un défi.
L’optimisme renvoie à une attribution positive à propos du succès présent ou à venir.
L’espoir signe l’orientation résolue en direction des objectifs fixés par l’individu et, si nécessaire, son aptitude à faire bifurquer les chemins qui y conduisent pour remplacer ceux qui ont été contrariés.
La résilience se réfère à l’aptitude à rebondir, et même au-delà, lorsque l’individu rencontre de l’infortune.
L’analyse des récits de salariés et de réfugiés interviewés révèle trois processus distincts pour faire carrière sans diplôme ou réseaux sociaux en France : la construction, l’activation et l’obstruction.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
La construction concerne des personnes sans diplôme qui s’appuient sur leurs ressources psychologiques – résilience, détermination, optimisme, confiance en soi – ainsi que sur leurs qualités éthiques – altruisme, gratitude, humilité – pour bâtir leur parcours. L’ensemble de ces ressources psychologiques et éthiques agissent comme autant de leviers pour se créer des opportunités et transformer des obstacles en tremplins professionnels. Samuel, entré chez T sans qualification, gravit les échelons grâce à des formations, une validation des acquis (VAE) et l’appui de son management, jusqu’à un poste de direction :
« Une de mes qualités, c’est d’être assez fiable et quelqu’un à qui on peut confier des choses. Des managers ont cru en moi au-delà de ce que j’avais montré. Ils m’ont ouvert des champs possibles. »
La trajectoire des personnes interviewées montre que leur engagement attire le soutien de leur entourage professionnel. Il leur permet de trouver un emploi stable, d’acquérir des compétences par l’expérience et de construire petit à petit un projet professionnel.
Le deuxième groupe de répondants, qui représente un tiers de notre échantillon, suit une autre forme de parcours. S’ils détiennent un bon capital initial – diplôme, expérience –, ils s’appuient sur leurs ressources psychologiques pour faire carrière, selon un processus que nous avons appelé « activation ». Par exemple, Sami, réfugié et ex-journaliste iranien, mobilise ses acquis et reprend des études après une période d’adaptation difficile en France :
« Je travaillais dans le journal le plus prestigieux d’Iran, au poste le plus prestigieux… J’étais reconnu dans mon domaine… Je suis arrivé ici et je n’ai été transféré vers personne, j’ai dû repartir de zéro. Je suis devenu professeur particulier pour deux enfants parce qu’on me rendait un service ! Après cinq-six mois, j’ai trouvé un emploi de journaliste… Après dix-neuf mois, ils m’ont proposé un CDI. »
Ce processus d’activation concerne notamment les réfugiés dotés d’un capital humain initial solide – maîtrise de la langue française, études supérieures dans le pays d’origine. Leur réussite professionnelle est fondée sur leurs ressources psychologiques qui les aident à alimenter des efforts soutenus dans le sens de leur intégration. Elles semblent faciliter le travail de deuil, préalable nécessaire pour redémarrer leur vie dans un nouveau contexte.
Un quart de nos répondants éprouve un sentiment d’échec professionnel, alors qu’ils étaient pourtant dotés en capital sociologique.
Ils sont freinés par un état d’esprit négatif ou par un sentiment d’injustice, selon un mécanisme que nous avons appelé « obstruction ». Ils se focalisent sur les obstacles et refusent certaines opportunités. Certains réfugiés qui détenaient des positions privilégiées dans leur pays d’origine ne se résolvent pas à accepter un travail jugé trop sous-dimensionné par rapport à eux. On peut citer l’exemple de Néda, ingénieure, docteure et titulaire d’un MBA qui, malgré tous ses diplômes, perçoit sa carrière chez T de manière pessimiste, dénonçant des discriminations et rejetant le fonctionnement des réseaux internes :
« Ce ne sont pas les performances seulement : le réseau, la manière de se vendre, être au bon moment au bon endroit en discutant avec la bonne personne. À chaque fois que j’ai répondu à un poste ouvert sur Internet, il y avait toujours quelqu’un qui l’obtenait, cela me fait dire que tout le monde n’est pas égal. »
Peut-on conclure de cette recherche que la théorie du capital sociologique de Bourdieu pêche par excès de pessimisme ?
Sa théorie de l’espace social souligne l’importance des facteurs culturels et symboliques dans la reproduction des hiérarchies sociales. Si on s’en tient à cette lecture, la réussite est essentiellement liée à la détention de capitaux culturels (compétences, titres, diplômes) et symboliques, c’est-à-dire toute forme de capital culturel, social ou économique ayant une reconnaissance particulière au sein de la société. Cette vision réduit les chances de ceux qui en sont démunis.
Notre étude montre que si les inégalités de départ pèsent lourd, elles ne sont pas une fatalité. À condition de disposer ou d’acquérir de ressources psychologiques telles que la confiance en soi, l’optimisme, l’espoir, la résilience, il est possible de contourner l’absence de réseaux ou de diplômes en misant sur sa capacité à rebondir, à apprendre, à espérer. Et, parfois, à réussir là où rien ne le laissait présager.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 12:17
Aneta Hamza-Orlinska, Professeure assistante en gestion des ressources humaines, EM Normandie
Jolanta Maj, Assistant Professor
Beaucoup de travailleurs free-lance éprouvent ou disent éprouver un sentiment de déconnexion vis-à-vis de l’organisation qui les emploie et de leurs collègues. Cela génère chez eux des sentiments d’aliénation, de stress et de frustration qui relèvent toutefois davantage de l’isolement professionnel que social. Comment les entreprises peuvent-elles repérer ces signaux faibles et mettre en place des mesures pour mieux les intégrer ?
Le travail indépendant a connu un fort essor ces dernières années avec le développement de la « gig economy », ou « économie des petits boulots ». Apparues avec les plateformes collaboratives telles qu’Uber ou Deliveroo qui n’emploient pas de salariés, mais travaillent avec des micro-entrepreneurs, ces nouvelles formes de travail ont engendré un malaise de plus en plus important chez les personnes ayant choisi ce statut professionnel. Si l’indépendance présente des avantages, elle rime aussi souvent avec isolement.
Les travailleurs free-lance se retrouvent, tant physiquement que mentalement, déconnectés de leurs collègues et de l’organisation, cumulant souvent plusieurs emplois et travaillant à distance. Malgré les opportunités d’intégrer des communautés virtuelles, ils demeurent particulièrement vulnérables à l’isolement, plus encore que les salariés permanents ou ceux en télétravail. Par ailleurs, leurs interactions avec les managers, superviseurs ou prestataires de services tendent à se réduire à des échanges strictement transactionnels, accentuant ainsi leur sentiment de solitude, qui demeure essentiellement professionnel.
Les entreprises font de plus en plus appel aux travailleurs en free-lance, qui opèrent parallèlement aux salariés traditionnels. Cependant, les dispositifs mis en œuvre pour identifier et intégrer ces professionnels restent identiques à ceux employés pour les équipes permanentes, alors qu’une intégration véritablement inclusive devrait prendre en compte la nature autonome, asynchrone et transactionnelle de leur mode de travail.
À lire aussi : Le management des travailleurs indépendants nécessite une communication adaptée
Les travailleurs en free-lance peuvent ressentir l’isolement professionnel sans forcément se sentir isolés socialement. En effet, la recherche établit une distinction claire entre ces deux concepts.
L’isolement social découle du fait que les besoins émotionnels ne sont pas comblés, notamment en raison de l’absence de liens spontanés et de relations de travail que l’on retrouve habituellement en présentiel, un phénomène exacerbé par le télétravail. À l’inverse, l’isolement professionnel se traduit par le sentiment d’être déconnecté des autres et privé d’informations essentielles, compromettant ainsi les interactions clés au sein de l’entreprise.
Bien que ces deux formes d’isolement soient liées à la séparation d’autrui, l’isolement social se caractérise par l’absence de proximité avec les autres, tandis que l’isolement professionnel se manifeste par une déconnexion perçue vis-à-vis des collègues ou par l’accès insuffisant aux ressources et à l’information nécessaires pour accomplir le travail.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Les travailleurs indépendants se trouvent souvent géographiquement éloignés et n’aspirent pas nécessairement à établir des liens sociaux dans leur environnement professionnel. Parfois, ils sont amenés à collaborer sur des projets avec des salariés permanents ou d’autres free-lances dans un même espace, en ligne ou en présence physique. Pourtant, malgré ces interactions, ils se perçoivent souvent comme des externes, peu enclins à créer des liens sociaux, leur mission étant généralement limitée dans le temps.
Notre recherche, menée entre 2022 et 2025, se base sur une cinquantaine d’entretiens et l’observation de travailleurs indépendants employés par des plateformes ou des entreprises, révèle que ces travailleurs peuvent éprouver un isolement professionnel sans pour autant se sentir socialement appauvris. Pourquoi ?
Les travailleurs indépendants adoptent une approche purement professionnelle de leurs relations. Ils n’ont pas d’attentes sociales élevées dans le cadre professionnel, car ils perçoivent leur mission avant tout comme une transaction plutôt que comme une opportunité de tisser des liens personnels. Les indépendants compensent leur manque de socialisation sur leur lieu de travail en se connectant avec leur entourage personnel, amical et familial.
Leurs besoins affectifs se trouvent souvent en dehors du cadre professionnel. La différence avec les employés permanents est qu’ils bénéficient, en plus de leur réseau personnel, d’une socialisation quotidienne avec leurs collègues, souvent par des interactions informelles (conversations autour de la machine à café) reconnues comme favorisant la coopération et le développement du réseau professionnel en entreprise – ce dont les travailleurs en free-lance sont généralement moins concernés.
L’un des travailleurs indépendants interviewés dans le cadre de notre recherche, un copywriter ( en marketing, rédacteur de contenu web) de 50 ans, a déclaré :
« C’est très limitant sur le plan professionnel lorsqu’il y a des ressources auxquelles on ne peut pas accéder à cause de l’endroit où l’on se trouve. Je trouve cela très isolant. »
À l’inverse, beaucoup d’autres affirment, à l’image d’un webdesigner freelance (35 ans) :
« Je ne me sens pas isolé socialement. Je suis tout à fait à l’aise avec cela. »
Pour certains, la distance physique et la flexibilité, inhérentes au travail indépendant, ne sont pas perçues comme des obstacles, mais plutôt comme des atouts. L’absence de contraintes sociales imposées par un environnement de bureau traditionnel peut être libératrice et permettre une meilleure gestion de leurs interactions sociales. Pour d’autres types de freelances, notamment pour ceux ayant auparavant exercé en tant que salariés permanents en entreprise, une période d’adaptation peut être nécessaire pour s’ajuster à ce nouveau mode de travail.
Isolés d’un point de vue professionnel, ces travailleurs se retrouvent déconnectés. Ils n’ont pas de feed-back constructif de la part de leurs responsables de mission et se sentent négligés dans leur rôle professionnel. L’absence ou la nature négative du retour d’information empêche les travailleurs indépendants de sentir que leurs contributions sont reconnues, ce qui renforce leur sentiment d’isolement professionnel et limite leur capacité à ajuster et améliorer leur travail.
De plus, les échanges majoritairement transactionnels, souvent via des canaux numériques dépourvus de signaux non verbaux, rendent difficile l’établissement d’une véritable connexion avec les managers et l’accès aux informations nécessaires pour un travail efficace. Étant rarement intégrés aux processus décisionnels, ces travailleurs se retrouvent en marge des discussions stratégiques, accentuant ainsi leur déconnexion par rapport aux dynamiques organisationnelles et à l’évolution de leur rôle professionnel.
Les pratiques traditionnelles d’intégration ou d’inclusion, qu’elles soient sociales ou formelles, reposent sur l’hypothèse que la cohésion d’équipe et le sentiment d’appartenance se construisent par des interactions sociales régulières et des dispositifs d’inclusion institutionnalisés au sein des organisations.
Or, pour les travailleurs indépendants dont la relation avec l’organisation est essentiellement transactionnelle, ces mécanismes se révèlent inadaptés. Par conséquent, les dispositifs traditionnels, focalisés sur la socialisation, ne répondent pas aux enjeux spécifiques de ces travailleurs.
Il apparaît donc crucial de repenser l’intégration en adoptant une approche d’« inclusion professionnelle » qui privilégie une communication adaptée, la participation aux processus décisionnels et le renforcement des liens fonctionnels avec les acteurs organisationnels clés.
Pour les travailleurs indépendants, être intégrés dans la prise de décision concernant leurs tâches est particulièrement important, car ils sont recrutés pour leur expertise. Cela renforce le sentiment d’inclusion professionnelle, puisqu’ils peuvent voir les résultats de leur investissement et de leur travail.
Un autre élément clé est la communication : non seulement la diversité des outils de communication disponibles, mais aussi la capacité à transmettre efficacement les messages et à accéder aux informations nécessaires pour accomplir leurs missions, généralement fournies par le client ou un manager. Enfin, fournir un feed-back sur leur travail permet non seulement de les valoriser, mais aussi de leur faire comprendre leurs contributions et les attentes du manager.
Un aspect à garder en tête pour les responsables RH concerne la requalification des free-lances en CDI.
Cette possibilité se présente lorsque des travailleurs indépendants, jusque-là très autonomes et engagés dans une relation purement transactionnelle, commencent à s’intégrer davantage à l’équipe, à collaborer de façon rapprochée et à tisser des liens relationnels plus forts, ce qui réduit la distance physique et l’autonomie propres à leur statut initial. Les politiques RH ne soulèvent pas encore cette problématique, qui pourrait toutefois prendre de l’ampleur à mesure que le monde du travail évolue et se transforme.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 12:16
Youssef Souak, PhD - Assistant Professeur- INSEEC Business School, INSEEC Grande École
Khalil Aït Saïd, Maître de conférences / Associate Professor ISM-IAE, Institut Supérieur de Management – IAE de Versailles Saint-Quentin-en-Yvelines
Warda El Fardi, Maître de conférences en sciences de gestion, Université de Bordeaux
La rétention et la fidélisation des employés sont fréquemment citées comme des défis contemporains majeurs dans le monde du travail et la fonction publique n’est pas épargnée. Les nouveaux modes de management ont, en effet, ébranlé l’engagement de certains agents, convertis, malgré eux, à une forme de cynisme.
Une étude publiée par France Stratégie en 2024 soulignait une augmentation de la proportion des fonctionnaires démissionnaires au cours de la dernière décennie. Par exemple, la part des enseignants qui ont quitté volontairement les rangs de la fonction publique par rapport à l'ensemble des départs observés de ce métier est passée de 2 % des effectifs en 2012 à 15 % en 2022.
Ce phénomène ne serait certainement pas si inquiétant si les démissions ne concernaient que les stagiaires ou les jeunes recrues qui découvrent le métier. Désormais, même des agents chevronnés démissionnent après plusieurs années de service.
L’évolution du management public conduit les agents à ressentir un manque de soutien de leur hiérarchie qui peut conduire au développement progressif d’une posture cynique vis-à-vis de la fonction étatique. Alors que les organisations publiques étaient jusqu’alors épargnées par la concurrence intense, les restructurations et les changements de politique de gestion sont devenus une réalité dans la fonction publique. Parmi les principales évolutions, notons l’essor des systèmes de rémunération liée à la performance et le constat de licenciements croissants. La loi de transformation de la fonction publique de 2019 et le recours croissant à des agents contractuels ont effectivement multiplié les possibilités pour se séparer des fonctionnaires.
À lire aussi : Vers une fonction publique moins attractive ?
Cette réalité connue sous le nom de « nouvelle gestion publique » a pris forme depuis le milieu des années 1980. Sa mise en œuvre s’est intensifiée pour permettre aux organisations publiques de s’adapter à un environnement de plus en plus exigeant. Cette hybridation du modèle managérial public a entraîné une perte de repères des fonctionnaires et un niveau de stress ressenti plus élevé chez les travailleurs par rapport à leurs homologues du secteur privé. Les conséquences sur leur bien-être se manifestent alors de différentes manières : perception d’une ambiguïté des valeurs et des objectifs du service public, manque de reconnaissance, incertitude croissante, perte de sens.
Les recherches se sont intéressées aux leviers de mobilisation des fonctionnaires au travail, notamment grâce au concept de motivation du service public. Ce phénomène désigne la « prédisposition à répondre à des motivations enracinées principalement ou exclusivement dans les institutions et organisations publiques ». Les fonctionnaires choisiraient alors spécifiquement une carrière dans le service public pour des raisons altruistes, animés par le désir de contribuer au bien-être des autres et de la société.
La tradition philosophique attribue à Diogène de Sinope (v.413-v.323 av. n. è.) la conception du cynisme comme un modèle d’insolence et de protestation se manifestant par des actes délibérément provocateurs. Dans le champ de la gestion, le cynisme peut être considéré comme la réaction négative d’un individu envers son employeur en raison du manque d’intégrité de l’organisation. Il comporte à la fois :
une dimension cognitive fondée sur la croyance que l’organisation manque d’intégrité,
une dimension affective relevant des émotions négatives naissantes,
et une dimension comportementale liée à des attitudes réactives et progressives telles que le retrait, le désinvestissement ou le désengagement.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Le cynisme devrait être une source de préoccupation majeure. Par exemple, une étude menée en 2019 par Dobbs et Do mettait en évidence l’inquiétude grandissante de l’armée américaine concernant les effets néfastes du cynisme sur le maintien de l’ordre et de la discipline dans ses rangs. Même constat en France, où une étude, menée par Sandrine Fournier en 2023 auprès d’enseignants, souligne la propagation du cynisme parmi les enseignants d’un établissement scolaire, qui mine leur attachement affectif, le sens donné à leur travail et finalement l’implication dans le suivi des résultats de leurs élèves.
Il faut alors comprendre comment une personne devient cynique ? Dans le secteur public, le cynisme trouve son fondement dans l’ambivalence et les paradoxes inhérents au discours réformateur. D’une part, on observe une rhétorique soulignant l’importance des valeurs républicaines d’entraide et de solidarité dans le service public, et d’autre part, on assiste à la mise en place d’une logique de rationalisation croissante pour sauver ce même service public.
Il devient particulièrement préoccupant lorsqu’il touche des fonctions vitales de la structure étatique. Une recherche menée en 2015 soulignait le rôle particulièrement important de l’inadéquation des valeurs et des discours dans le développement du cynisme et en particulier dans le secteur public. Cela s’expliquerait par le rôle du sens et de la vocation dans les choix de carrière des agents de la fonction publique. Certains évoquent la responsabilité des organisations publiques, dès lors, de promouvoir les politiques publiques avec un sens de la « mission » pour l’État et ses citoyens.
L’engagement des agents de la fonction publique repose à la fois sur une dimension axée sur la performance et sur le sens du dévouement. Dans cette perspective, il faut identifier le fonctionnaire rationnel et le fonctionnaire affectif. Ce dernier est attaché au sens et à la mission et se consacre à servir plutôt qu’à l’accomplissement de la tâche seulement. Or, l’intelligence émotionnelle et l’implication des fonctionnaires sont communément citées comme des leviers de qualité du service public.
Alors, pour enquêter plus en profondeur sur les causes du cynisme organisationnel et sur ses effets sur l’engagement des agents du service public, nous avons mené en 2024 une étude quantitative impliquant 321 fonctionnaires français, opérant dans les secteurs de la santé, de l’éducation et de la recherche.
Dans cette étude à paraître, nous avons considéré la théorie du contrat psychologique comme une grille d’analyse pertinente pour étudier le cas des fonctionnaires. La notion de contrat psychologique renvoie à l’ensemble des engagements fondés sur des croyances partagées et des engagements mutuels et qui sont rarement explicités formellement. Cette grille de lecture trouve son intérêt dans le contexte du changement pour comprendre comment des mutations dans les attentes réciproques peuvent affecter les attitudes et les comportements individuels. Nous nous sommes intéressés plus particulièrement à l’impact de ces attentes informelles sur l’engagement et à l’intention de quitter l’organisation des fonctionnaires.
Nos résultats montrent le rôle central du partage de valeurs. Les agents qui sont plus en phase avec les valeurs et le fonctionnement de l’organisation sont moins critiques à l’égard de ses échecs ou de ses lacunes. Les agents restent particulièrement attachés au sens, à la mission et à la vocation qu’à la volonté de faire carrière dans l’administration publique. Ainsi, lorsque leur conception du métier et leurs valeurs sont en phase avec ce qu’ils trouvent sur le terrain, les fonctionnaires développent un lien affectif fort avec leur institution. Ce lien pourrait expliquer la posture peu critique de ces agents, même lorsque leur employeur montre des défaillances ou une incapacité à tenir ses promesses.
D’un autre point de vue, nos résultats expliquent également les postures beaucoup plus critiques de ceux dont le contrat psychologique est rompu ou brisé. Il s’agit des agents qui ne comprennent pas les changements dans la logique institutionnelle parce qu’ils sont insuffisamment soutenus ou simplement incompris.
Notre recherche met en évidence différents profils :
les cyniques cognitifs ou affectifs qui resteront dans leur organisation, mais seront moins efficaces dans leurs tâches ;
et les cyniques comportementaux qui utilisent le dénigrement, la critique ou l’humour pour se distancier des ambiguïtés et des frustrations.
Pour les agents qui souhaitent rester fidèles et loyaux à leurs valeurs, ce désalignement entre imaginaire et réalité peut constituer une rupture de ce contrat psychologique. Il s’agirait alors pour eux de préférer la loyauté envers soi-même à la loyauté envers l’institution. Les salariés qui s’engagent en quête de sens au travail, en acceptant de faire des sacrifices en termes d’avantages matériels, peuvent revoir leurs conditions d’engagement lorsqu’ils ne sont plus convaincus que rester est un bon choix.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.06.2025 à 12:16
Hippolyte d’Albis, Directeur de recherche au CNRS, Paris School of Economics – École d'économie de Paris
L’immigration de travail est devenue un sujet tellement passionnel que les réalités statistiques finissent pas en être oubliées. Or, loin des discours sur la submersion, l’immigration de travail reste un phénomène marginal et plutôt contrôlé. Si « grand remplacement » il y a, c’est celui de la raison par les affects.
Partenaire des Rencontres économiques d’Aix, The Conversation publie cet article. L’immigration sera le thème de plusieurs débats de cet événement annuel dont l’édition 2025 a pour thème « Affronter le choc des réalités ».
L’immigration suscite toujours des débats et controverses passionnés. Mais force est de constater que le cas spécifique de l’immigration pour raison professionnelle engendre des positions particulièrement polarisées. Ses partisans s’appuient sur sa longue histoire et mettent en avant tous ces « étrangers qui ont fait la France », des prix Nobel aux ouvriers des usines des Trente Glorieuses. Ses opposants avancent, quant à eux, l’idée qu’il est illogique de faire venir des étrangers pour travailler en France alors même qu’il y a tant de personnes sans emploi et que, facteur aggravant, le taux d’emploi des étrangers est inférieur à celui du reste de la population d’âge actif.
Du fait de son poids dans le débat politique, il est indispensable d’analyser l’immigration de façon rigoureuse. Les faits, souvent occultés par les passions, révèlent une réalité bien différente des discours convenus. L’immigration de travail en France, loin du raz-de-marée dénoncé, demeure un phénomène quantitativement marginal aux effets économiques bénéfiques à tous.
Tout d’abord, l’État français ne recrute plus de travailleurs à l’étranger depuis 1974.
Après avoir organisé pendant les Trente Glorieuses l’arrivée de six millions de travailleurs – d’abord d’Italie, puis d’Espagne, de Yougoslavie, du Maghreb et de Turquie –, la France a officiellement suspendu l’immigration de travail le 3 juillet 1974. Cette suspension a duré vingt-cinq ans avant d’être remplacée par un système de contrôle et de régulation des recrutements de travailleurs étrangers.
Mais la construction européenne a transformé la donne. L’Union européenne forme aujourd’hui un gigantesque marché du travail de 220 millions d’actifs, dont seulement 15 % résident en France. Du fait de l’article 45 du Traité sur le fonctionnement de l’Union européenne, le marché français est totalement ouvert à près de 190 millions de travailleurs européens. Paradoxalement, cette ouverture massive – qui rend ridicule l’idée d’une France fermée à l’immigration – génère des flux annuels inférieurs à 100 000 personnes, soit à peine 0,1 % de notre population.
La régulation par l’État ne concerne donc que les ressortissants des pays dits tiers, ceux dont les ressortissants sont soumis à une obligation de détenir un titre de séjour pour résider en France.
Avec Ekrame Boubtane, nous avons reconstitué l’évolution de cette immigration professionnelle depuis 2000 à partir des bases de données exhaustives du ministère de l’intérieur. Les chiffres sont sans appel : en moyenne annuelle, moins de 13 400 personnes ont obtenu un premier titre pour motif professionnel. Comparé aux 750 000 jeunes qui arrivent chaque année sur le marché du travail, ce flux représente un phénomène quantitativement marginal.
Cette immigration extraeuropéenne se décompose en trois catégories distinctes. La première concerne les personnes hautement qualifiées, baptisées « talents » par une terminologie révélatrice d’un certain mépris pour le reste de la population. Encouragée et mise en avant depuis la loi RESEDA de 1998, cette immigration, qui a la faveur de beaucoup de responsables politiques, a représenté 6 500 personnes en 2021.
À lire aussi : Rafles, expulsions… la gestion de l’immigration, illustration du tournant autoritaire de Donald Trump ?
La deuxième catégorie regroupe les salariés et saisonniers moins qualifiés mais disposant d’un contrat de travail français. Leur recrutement, soumis à un processus administratif lourd transitant par Pôle emploi (aujourd’hui, France Travail), a concerné 11 900 personnes en 2021.
La troisième catégorie, la plus importante, rassemble les régularisations de personnes en situation irrégulière. Ces procédures « au fil de l’eau », en constante progression depuis 2012, ont bénéficié à 12 700 personnes en 2021, soit 41 % de l’immigration professionnelle totale.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les craintes relatives à l’emploi et aux salaires sont souvent présentées comme les plus rationnelles. Le raisonnement paraît imparable : l’immigration accroît l’offre de travail, ce qui fait baisser les salaires ou augmente le chômage si les salaires sont rigides. Cette logique semble frappée au coin de l’évidence.
Pourtant, des décennies de recherches empiriques démontrent le contraire. Les études les plus célèbres ont analysé des « expériences naturelles » telles que l’expulsion par Fidel Castro de 125 000 Cubains vers Miami en 1980, ou l’arrivée de 900 000 rapatriés d’Algérie en France en 1962). Dans les deux cas, ces chocs migratoires considérables n’ont eu aucun effet significatif sur les salaires et le chômage des populations locales.
Ces résultats, confirmés par de nombreuses études dans différents pays, s’expliquent par trois mécanismes principaux. Premièrement, les étrangers subissent des discriminations sur le marché du travail, parfois pour des raisons objectives (moindre maîtrise de la langue), parfois par xénophobie. Ils ne peuvent donc « prendre la place » des nationaux qu’en cas de pénurie de main-d’œuvre, principe d’ailleurs institutionnalisé par les procédures d’autorisation de travail.
Deuxièmement, les étrangers se concentrent dans certains secteurs : 39 % des employés de maison, 28 % des agents de gardiennage, 27 % des ouvriers non qualifiés du bâtiment en 2017. Ces emplois, souvent délaissés, génèrent des externalités positives. L’exemple typique est celui des gardes d’enfants : leur disponibilité permet aux femmes nées localement de travailler davantage, augmentant ainsi leurs salaires).
Troisièmement, les immigrés étant en moyenne plus jeunes, ils contribuent positivement au taux d’emploi de la population, marqueur crucial de la santé économique d’une société vieillissante. Cet effet démographique améliore l’équilibre des finances publiques et le niveau de vie générale).
L’analyse factuelle révèle donc une immigration de travail d’ampleur modeste, sans effet délétère sur la situation économique des travailleurs français. Cette réalité statistique n’empêche pas le rejet persistant chez certains, alimenté par des discours politiques qui préfèrent l’émotion à la raison.
Le défi intellectuel et démocratique consiste à maintenir un débat rationnel sur ces questions sensibles. Car très vite, hélas, il n’y a plus de débat du tout : les positions se figent, les nuances disparaissent, et les préjugés l’emportent sur l’analyse rigoureuse.
L’objectif n’est pas de nier les préoccupations légitimes de nos concitoyens, mais de les éclairer par une connaissance précise des phénomènes en jeu. Car seule une approche factuelle permet de dépasser les postures idéologiques et de construire des politiques publiques efficaces. C’est à cette condition que nous pourrons enfin avoir un débat à la hauteur des enjeux de notre époque.
Cet article est publié dans le cadre d’un partenariat de The Conversation avec les Rencontres économiques, qui se tiennent du 3 au 5 juillet d’Aix-en-Provence. Plusieurs débats y seront consacrés à l’immigration.
Hippolyte d’Albis a reçu des financements de la Commission européenne.
29.06.2025 à 10:18
Christine Marsal, Maitre de conférences HDR, Contrôle de gestion, gouvernance des banques, Université de Montpellier
Mais qu’arrive-t-il à Boeing ? Le constructeur aérien, symbole de la puissance des États-Unis, traverse des turbulences depuis plusieurs années. Depuis les crashs du 737 Max et l’accident très récent du 787 d’Air India, les causes sont multiples. Reste une interrogation sur cette succession de difficultés. La gouvernance de l’entreprise pourrait livrer une partie de la solution.
Les déconvenues financières de Boeing n’en finissent plus de se creuser : après des pertes cumulées de près de 20 milliards d’euros perdus entre 2020 et 2023, l’exercice 2024 fait ressortir une perte de près de 11,345 milliards d’euros. La « descente aux enfers » semble inéluctable et pourtant l’avionneur a récemment remporté un important contrat militaire et de nouvelles commandes en provenance d’un loueur d’avions basé à Singapour. Si les raisons des déboires financiers sont connues, comment expliquer que l’entreprise conserve la confiance des investisseurs ? Tout d’abord, le poids de fonds de pension dans le capital de l’entreprise est-il passé de 47 % en 2020 à près de 68 % en 2025. Entre 1997 et 2019, les dirigeants décident d’augmenter progressivement le dividende de 0,56 dollar par action en 1997 à 8,19 dollars en 2019. Destinée à rassurer les actionnaires, cette politique de dividendes ne peut expliquer, seule, l’apparente stabilité des investisseurs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Alors que de graves problèmes de qualité ont émaillé l’actualité récente de l’avionneur, rien ne semble stopper Boeing. Au fil des ans, l’entreprise a su se constituer un solide réseau d’affaires, doublé d’un réseau d’influence qui la rendent aujourd’hui « intouchable ». Pour comprendre cette résistance aux aléas technologique et financier nous analysons la composition de son conseil d’administration sur plusieurs années.
À lire aussi : Boeing peut-il encore redécoller ? Retour sur une défaillance structurelle
Dans les grandes entreprises cotées, le Conseil d’administration (CA) est censé représenter les actionnaires, qui sont les propriétaires des entreprises. Il nomme le président, valide la stratégie, surveille l’action du directeur général et peut même le révoquer. Ses membres sont élus en assemblée générale, souvent sur recommandation d’un comité de nomination, selon des critères de compétence, de diversité et d’indépendance.
Mais ce fragile équilibre peut être remis en cause quand le directeur général est aussi président du Conseil. Ce cumul des fonctions – le fameux PDG – fait de la même personne le stratège, l’exécutant… et le contrôleur de sa propre action. Ce qui pose la question du maintien de ce cumul. Le cas de Boeing illustre parfaitement les dérives de ce cumul à travers les résultats d’un article de recherche paru en 2023. Les données observées portent sur la période allant de 1997 à 2020. Il en ressort notamment que le manque de diversité au sein du conseil d’administration peut expliquer en partie les déboires rencontrés par l’entreprise.
Ce cumul des fonctions – président du CA et directeur général – concentre les pouvoirs au sommet et réduit la capacité de contre-pouvoir interne. C’est d’autant plus vrai que le Conseil d’administration (CA) reste resserré, entre 11 et 13 membres seulement sur la période considérée.
La diversité progresse timidement. En 1997, seules deux femmes siègent au CA. Elles sont trois en 2020, soit à peine 23 % des membres (toujours 3 femmes en 2024). Sur l’ensemble de la période, on compte rarement plus de deux ou trois représentants des minorités ethniques (afro-américaine, hispanique, asiatique ou indienne), souvent des femmes issues de ces communautés.
Le CA s’organise autour de quatre comités classiques – audit, finance, rémunérations, nominations – auxquels se sont ajoutés en 2020 deux nouveaux comités. Le premier consacré aux « programmes spéciaux » réunit d’anciens PDG et des membres ayant une expérience militaire. Le second, centré sur la sécurité, est une réaction directe aux accidents du 737 Max.
En moyenne, les administrateurs rejoignent le Conseil à 56 ans et le quittent autour de 66 ans. Le taux de renouvellement est élevé : pas moins de 38 administrateurs différents se sont succédé au fil des années. Un renouvellement qui n’a pas toujours permis d’assurer un meilleur équilibre des profils ni une gouvernance plus indépendante.
Les profils techniques issus de l’industrie, les spécialistes des projets complexes sont évincés au fil du temps. Entre 2012 et 2014, ils disparaissent quasiment du Conseil d’administration. Leur place est désormais occupée par des experts en réduction des coûts, des directeurs financiers, d’anciens banquiers. L’arrivée de JimcNerney en 2005 marque la montée en puissance d’anciens collaborateurs du groupe General Electric.
Entre 2012 et 2016, le Conseil d’administration de Boeing se politise un peu plus. Plusieurs anciens hauts responsables rejoignent ses rangs un ex-secrétaire à la Défense, un ancien représentant des États-Unis à l’ONU, deux ambassadeurs, un ancien assistant à la Maison Blanche… Des figures influentes, républicaines comme démocrates, se succèdent au CA.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
La présence des militaires (anciens militaires ou militaires à la retraite) se renforce aussi. De 1997 à 2020 on identifie successivement un ancien « Marines », un ancien général ayant travaillé au secrétariat d’État à la défense, un général retraité des marines, un vice-amiral et un amiral à la retraite. Par ailleurs, plusieurs militaires ont exercé des fonctions au sein de l’OTAN. Cet aspect est toujours présent en 2024.
Ce virage confirme une tendance déjà amorcée : Boeing renforce ses liens avec les sphères du pouvoir, au moment même où il s’éloigne de ses racines industrielles. Le Conseil devient moins un organe de pilotage technique qu’un levier stratégique et politique.
Dans le même temps, Boeing taille dans ses effectifs : 231 000 salariés en 1997, 141 000 en 2020. Le ton est donné : priorité à l’efficacité financière, au détriment des compétences techniques et écologiques, reléguées au second plan.
Ce virage intervient pourtant à un moment clé pour le groupe. Le programme 787 « Dreamliner » est lancé avec son lot d’innovations : matériaux composites, nouveaux moteurs, nouveaux modes de collaboration avec les sous-traitants. Des projets de cette envergure nécessitent un pilotage éclairé. Mais paradoxalement, alors que la technologie prend de l’ampleur, le Conseil d’administration se vide de ses experts techniques.
Le même scénario se reproduit avec le 737 Max. Officiellement, l’appareil n’est qu’une mise à jour d’un modèle existant. Officieusement, les ingénieurs tirent la sonnette d’alarme : les choix techniques sont risqués, un nouvel avion serait plus sûr. Mais leurs avertissements restent lettre morte. Faute de relais au sein du CA, ils ne sont pas entendus.
À force de privilégier les profils issus de la finance ou des milieux politiques, Boeing s’est privé de diversité de pensée. Moins de débats, moins de confrontations d’idées. Or, c’est souvent dans ces frictions que naissent les bonnes décisions. Dans le cas du 737 Max, le manque de dialogue a permis à des failles de sécurité de passer sous les radars.
Pire encore, une enquête du Sénat américain suggère que la proximité du groupe avec certains décideurs politiques aurait facilité une certification accélérée de l’appareil. In fine, cela pourrait paradoxalement ne pas avoir servi l’entreprise dont la réputation est ternie depuis des catastrophes aériennes ayant provoqué des morts. Dans les faits, les causalités sont sûrement plus complexes et cette proximité est un des facteurs qui peut expliquer mais il serait excessif d’en faire le seul facteur.
Pendant les déboires des programmes Dreamliner et MAX, plusieurs actionnaires tentent de tirer la sonnette d’alarme. La ville de Livonia (Michigan), ainsi que les géants de la gestion d’actifs Vanguard et BlackRock, demandent des comptes. Livonia dénonce un manque de transparence sur le programme 787. Vanguard, de son côté, interpelle la direction sur la sécurité du 737 Max et s’interroge sur l’implication réelle du Conseil d’administration.
Ces pressions aboutissent à une action en justice : les membres du CA sont accusés de ne pas avoir exercé leur devoir de surveillance, notamment sur les questions de sécurité. Le dossier se solde par un accord à l’amiable. Boeing accepte de verser 225 millions de dollars… non pas directement, mais via ses assureurs.
En clair : les administrateurs condamnés échappent à toute responsabilité financière personnelle. Début 2025, un autre accord a mis fin aux poursuites pénales ouvertes après les deux crashs du 737 Max en 2018 et 2019. L’entreprise évite ainsi un procès public potentiellement explosif, au prix d’un règlement négocié avec le gouvernement américain.
Ironie de l’histoire : lors du développement du Dreamliner, les dirigeants de Boeing avaient reconnu le rôle crucial des ingénieurs dans la coordination avec les sous-traitants. Mais cette prise de conscience n’a pas résisté à la logique financière qui s’est installée au sommet. Chez Boeing, ce n’est pas une crise technologique qui a précipité la chute du 737 Max, mais une crise de gouvernance. Une entreprise qui conçoit des avions sans écouter ses ingénieurs prend le risque, un jour, de ne plus savoir les faire voler.
Christine Marsal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.06.2025 à 10:05
Maud Hetzel, Chercheuse associée au Centre Georg Simmel, EHESS, École des Hautes Études en Sciences Sociales (EHESS)
Fanny Guillet, sociologue, chargée de recherche au CNRS, Muséum national d’histoire naturelle (MNHN)
Fanny Hugues, Post-doctorante en sociologie, Université Clermont Auvergne (UCA)
Gabrielle Bouleau, Chercheuse en science politique et ingénieure des ponts, des eaux et des forêts, Inrae
Stéphanie Barral, Sociologue, chargée de recherche à INRAE au LISIS (CNRS/INRAE/Univ. Gustave Eiffel)
Yoann Demoli, Maître de conférences en sociologie, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
René Llored, professeur de sciences sociales en khâgne B/L
Les auteurs et autrices de trois ouvrages parus récemment et consacrés à la sociologie de l’environnement (Sociologie de l’environnement, de Yoann Demoli et René Llored, la Sociologie de l’environnement, de Stéphanie Barral, Gabrielle Bouleau et Fanny Guillet, et Introduction à la sociologie de l’environnement, de Maud Hetzel et Fanny Hugues) expliquent comment leur discipline s’est emparée de ce sujet, et pourquoi l’éclairage sociologique est fondamental pour penser les enjeux écologiques.
Pollution, effondrement de la biodiversité, réchauffement climatique… Alors que les enjeux environnementaux se multiplient, divers acteurs sont régulièrement consultés pour mieux les comprendre et répondre à ces problèmes globaux. Dans les sphères expertes, politiques et institutionnelles, certaines disciplines scientifiques sont particulièrement mobilisées, notamment les sciences du climat et de la biologie. D’autres apparaissent moins souvent, à l’instar de la sociologie.
La relative discrétion de cette discipline est d’autant plus surprenante que les problèmes en jeu sont liés aux activités humaines. C’est donc le fonctionnement de nos sociétés, objet premier de la sociologie, qui est avant tout responsable des pollutions et des dégradations des milieux biophysiques.
Utiliser les outils de la sociologie pour interroger les enjeux environnementaux apparaît donc primordial. On constate d’ailleurs une multiplication des événements scientifiques, des enquêtes et des publications en sociologie de l’environnement.
Ces travaux apportent des éléments inédits et originaux pour penser la question environnementale. Ils mettent au jour les logiques sociales inhérentes à la crise écologique, les inégalités face à celles-ci et la manière dont les pouvoirs publics la gouvernent.
Ils ont en commun de dépasser la seule analyse des dégâts environnementaux – sur le climat, sur la biodiversité – et de mettre au centre de l’analyse une diversité d’entrées thématiques, telles que les politiques publiques, les mobilisations, les modes de vie, les valeurs et les croyances face aux enjeux écologiques.
Ils portent également un regard critique sur l’ordre économique et social responsable de la crise écologique, ce qui n’est sans doute pas sans relation avec le peu de visibilité accordée à ces recherches.
Pour prendre la pleine mesure de ce que la sociologie peut apporter à notre compréhension des enjeux environnementaux contemporains, penchons-nous sur trois apports centraux de cette discipline en plein essor.
Depuis les années 1970, les États ont intégré la question environnementale dans leurs structures administratives, marquant l’émergence d’une responsabilité nouvelle, qui engage à la fois la puissance publique et les sociétés civiles.
Cette institutionnalisation repose sur un double mouvement : d’un côté, la montée en puissance des mobilisations sociales face à des dégradations de plus en plus visibles et fréquentes ; de l’autre, l’injonction internationale à se doter d’outils de régulation adaptés à l’urgence écologique.
Cette évolution a donné lieu à la création de ministères, d’agences, d’organismes de surveillance ou d’évaluation, autant de dispositifs visant à produire un savoir environnemental légitime et à organiser l’action publique. Pourtant, l’écologisation de l’État est loin de constituer un processus linéaire et consensuel.
Ces institutions sont prises dans des rapports de force permanents, où s’opposent visions du monde, intérêts économiques et impératifs écologiques. La protection de l’environnement devient ainsi un champ de lutte, où l’État joue un rôle ambivalent, tantôt garant de la régulation écologique, tantôt relais d’intérêts productivistes.
Dans ce contexte, les agences en charge des questions environnementales sont régulièrement déstabilisées, mises en cause, voire attaquées. Leurs marges de manœuvre se rétractent sous l’effet de critiques politiques, d’injonctions contradictoires et de campagnes de discrédit, sans que l’appareil d’État n’en assure systématiquement la défense. Leur fragilité institutionnelle n’est pas sans conséquence : elle affaiblit la capacité à faire face aux risques, à produire des normes, à contrôler les pratiques.
Cette institutionnalisation des enjeux environnementaux ne concerne pas seulement les administrations publiques : elle donne aussi naissance à de nouveaux marchés. Les politiques environnementales, en se déployant à travers des mécanismes de quotas, de subventions, de certifications, participent à la formation d’un véritable capitalisme vert. Ainsi, l’environnement devient un objet d’investissement, un domaine d’expertise, une opportunité économique. Ce faisant, la régulation écologique se trouve de plus en plus enchâssée dans des logiques de marché, qui peuvent certes produire de la norme, mais aussi déplacer les objectifs initiaux de la protection environnementale. À ce titre, le marché n’est jamais une simple solution technique : il est un instrument socialement construit, porteur d’intérêts et de hiérarchies.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette prise en charge publique des enjeux environnementaux peut également renforcer les inégalités sociales.
Alors que l’on constate une incitation grandissante des pouvoirs publics à modérer les pratiques quotidiennes consommatrices d’énergie et de ressources des citoyens et citoyennes par des « petits gestes » qui responsabilisent uniformément les individus, la sociologie de l’environnement démontre que les styles de vie sont inégalement polluants.
Trois caractéristiques sociales, qui se cumulent, font varier les émissions qui leur sont associées : le revenu, le genre et l’âge. Par exemple, toutes choses égales par ailleurs, les modes de vie des hommes sont plus polluants que ceux des femmes. Ces disparités tiennent par exemple à des pratiques alimentaires hétérogènes : les femmes consomment moins de viande que les hommes, sont plus attirées par les écolabels et les produits biologiques, et portent davantage attention à la santé de leur corps ainsi qu’à celle de leurs proches.
Ces mêmes politiques publiques valorisent également les styles de vie des ménages les plus aisés, associées à la « consommation durable » de biens onéreux, par exemple les voitures électriques. Elles moralisent du même coup ceux des classes populaires au nom de pratiques supposément plus polluantes, comme la possession de voitures diesel pourtant achetées d’occasion et peu utilisées.
À rebours de ce cadrage individualisant de la crise écologique, les styles de vie des classes populaires, plus économes en ressources et dont les marges de manœuvre sont plus contraintes, peuvent néanmoins être envisagés comme des écologies populaires en pratique, fondées sur la récupération, la réutilisation et l’attention aux dépenses.
À l’échelle planétaire, la sociologie constate que les conséquences des dégâts environnementaux sont inégalement réparties. Les populations pauvres vivant dans les pays des Suds, et plus encore les femmes, sont les plus concernées par les catastrophes et les dégradations environnementales causées par les activités humaines, et par le prélèvement de ressources naturelles.
En France, ce sont les groupes sociaux les plus défavorisés – pauvres et racisés – qui vivent à proximité de lieux pollués et/ou polluants. Leur accès aux espaces verts, aux parcs, aux zones de loisirs et aux ressources naturelles est également limité, à l’instar du Parc national de Calanques.
Alors que le Parc est situé à proximité des quartiers populaires du nord de Marseille où vivent beaucoup de descendantes d’anciennes colonies françaises, ces habitants ont très peu de poids pour infléchir les politiques publiques en la matière. Leurs usages de ces espaces sont délégitimés, à l’instar de leur pratique du vélo tout terrain et de leurs sociabilités autour de feux de camp dans le cas du Parc National des Calanques.
Face à ces inégalités environnementales, certaines populations revendiquent une justice environnementale, c’est-à-dire défendent l’idée que chaque individu a le droit de vivre dans un environnement sain, sans discrimination ni inégalité dans l’accès aux ressources naturelles et aux bénéfices environnementaux.
L’écologie est également un fait sociologique parce que la production et la mise en œuvre des politiques environnementales ne sont pas qu’une affaire d’État : elles visent à transformer les conduites d’acteurs et d’organisations économiques.
Les mesures écologiques prises par les gouvernements montrent une faible effectivité notamment parce qu’elles se heurtent à d’autres politiques publiques qui poursuivent des objectifs différents (énergie, agriculture, transports, logement, etc.) et qui contribuent à l’artificialisation des espaces naturels, à la consommation des ressources et l’émission de pollutions.
Ces politiques sont structurées par des grands compromis socio-politiques qui définissent les experts pertinents et les porte-parole légitimes de leurs publics cibles. Par exemple, les politiques agricoles prennent en compte la voix d’acteurs comme la FNSEA, syndicat majoritaire et productiviste, et s’appuient sur les réseaux territoriaux agricoles historiques pour les appliquer. Ces acteurs ont souvent des parcours individuels et institutionnels qui les conduisent à privilégier le statu quo social, économique et politique en négligeant la crise écologique et climatique. Ils cherchent aussi à préserver des intérêts électoraux ou de groupes socio-professionnels et des marges de manœuvre. Ceci tend à favoriser un « verdissement conservateur » qui opère souvent par dérogation et participe à notre mal-adaptation collective en renforçant la vulnérabilité des individus, des organisations et de la collectivité toute entière.
Ce statu quo conservateur suscite des contestations. La mise en œuvre de la réglementation environnementale repose depuis les années 1970 sur la mobilisation d’associations d’usagers ou de victimes ou d’associations de protection de la nature qui exercent un militantisme de contre-expertise et de dossiers, pour faire progresser la cause environnementale devant les tribunaux, même si encore très peu d’infractions environnementales sont effectivement repérées et encore moins sanctionnées. Les luttes pour la protection de l’environnement prennent aussi la forme de désobéissance civile, d’occupation de lieux et des marches pour contester l’accaparement des terres comme la lutte emblématique du Larzac dans les années 1970 et celle récente contre le projet d’autoroute A69 entre Toulouse et Castres, ou pour faire entendre des éléments de controverse sur des risques comme ceux liés à l’exploitation du gaz de schiste.
Toutes les critiques ne vont pas toutes dans le sens d’une meilleure prise en compte de l’environnement. Face aux mobilisations environnementalistes, des contre-mobilisations s’organisent aussi de la part de groupes sociaux concernés par les contraintes engendrées par les décisions environnementales (on pense par exemple aux récentes mobilisations agricoles), pouvant prendre diverses formes comme des manifestations ou des opérations d’intimidation, un travail de réseau et de constitution de communautés favorisé par le développement des réseaux sociaux.
Le lobbying politique est aussi une voie de mobilisations anti-environnementales. Il porte généralement une critique libérale qui tend à euphémiser les crises environnementales et à disqualifier toute contrainte sur les activités de production. Cette pensée libérale est très influente sur les politiques environnementales et conduit à privilégier des instruments de marché (quotas échangeables, labels, marchés de compensation) pour gouverner les impacts sur l’environnement, ce qui offre une plus grande souplesse aux acteurs économiques.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.06.2025 à 09:55
Efstathia Karachaliou, Pharmacienne, Doctorante en pharmacognosie, Université Bourgogne Europe
Dans la série The Last of Us, l’apocalypse est arrivée par un champignon parasite, le Cordyceps. Transformant les humains en zombies ultra-agressifs, il a provoqué l’effondrement de notre civilisation. Un scénario qui prend racine dans le réel, puisque ce type de champignon existe bel et bien, mais ne s’attaque qu’aux insectes. Inoffensif pour les humains, il est même utilisé par la médecine traditionnelle chinoise, qui lui prête de nombreuses vertus.
La deuxième saison de The Last of Us, diffusée par la chaîne HBO, s’est achevée fin mai 2025. Adaptation d’un jeu vidéo à succès, cette série postapocalyptique reprend les ingrédients habituels du genre : l’humanité s’est effondrée suite à une brutale pandémie, la loi du plus fort règne, les survivants tentent de survivre en s’organisant au milieu du chaos, tout en évitant eux-mêmes d’être infectés.
L’originalité du scénario tient ici à la source de l’épidémie qui a mené à la catastrophe : point de virus pour transformer les êtres humains en zombies agressifs, mais un champignon parasite, le Cordyceps. Ce nom n’a pas été inventé par les scénaristes : le genre de champignon dont ils se sont inspirés existe bel et bien (même s’il a été récemment renommé Ophiocordyceps). Et ses membres sont eux aussi capables de transformer en zombies ses victimes.
Heureusement, ces champignons ne s’attaquent qu’aux insectes : ils ne présentent aucun danger pour notre espèce. Au contraire : ces champignons pourraient même être à la base de nouveaux médicaments. Explications.
Dans The Last of Us, près de 60 % de l’humanité a été décimée ou contaminée par le champignon Cordyceps. Responsable d’une « infection cérébrale », le champignon prend le contrôle des humains qu’il parasite et les transforme en créatures agressives. Ce concept s’inspire de champignons qui existent bel et bien, et appartiennent aux genres Cordyceps et Ophiocordyceps.
Le genre Ophiocordyceps est passé à la postérité grâce à la capacité de l’un de ses membres, Ophiocordyceps unilateralis, à « pirater » le cerveau des fourmis qu’il contamine. Il parvient ainsi à modifier leur comportement, maximisant de ce fait ses chances de transmission.
Lorsqu’une fourmi est contaminée, elle quitte le nid pour se rendre dans des zones en hauteur, souvent des végétaux. Perchée en surplomb, sur une feuille ou un brin d’herbe, elle s’ancre avec ses mandibules dans une sorte « d’étreinte de la mort » : elle y restera jusqu’à son décès.
Le corps de la fourmi morte reste dès lors en place à un endroit présentant des conditions idéales pour le développement fongique. La formation des corps fructifères du champignon est facilitée, tout comme la propagation de ses spores, qui vont pouvoir infecter d’autres fourmis qui vaquent à leurs occupations, en contrebas.
Ce cycle de manipulation comportementale est crucial pour le champignon. En effet, sans cette adaptation, les fourmis infectées seraient rapidement retirées du nid par leurs congénères. Bien que des travaux de recherche aient approfondi la compréhension de ces interactions, de nombreuses questions demeurent sur la complexité de cette manipulation comportementale.
Parmi les quelque 350 espèces du genre Ophiocordyceps, toutes ne s’attaquent pas aux fourmis. Ophiocordyceps sinensis parasite plutôt les chenilles, les modifiant si radicalement que les observateurs ont longtemps cru que celles-ci passaient de l’état animal à l’état végétal. Mais le plus intéressant est que ce champignon occupe une place à part en médecine traditionnelle, depuis très longtemps.
Plus de 350 espèces associées ont été identifiées à ce jour à travers le monde, mais une seule – Ophiocordyceps sinensis – est officiellement reconnue comme drogue médicinale dans la pharmacopée chinoise depuis 1964.
Il est récolté dans les prairies de haute altitude (3 500–5 000 mètres) des provinces chinoises comme le Qinghai, le Tibet, le Sichuan, le Yunnan et le Gansu. Son usage remonte à plus de trois cents ans en Chine.
Appelé dongchongxiacao (« ver d’hiver, herbe d’été »), ce champignon est un pilier de la médecine traditionnelle chinoise. Selon les principes de cette dernière, O. sinensis – de nature « neutre » et de saveur « douce » – est réputé tonifier les reins, apaiser les poumons, arrêter les saignements et éliminer les mucosités. Il est traditionnellement utilisé pour traiter la fatigue, la toux, l’asthénie post-maladie grave, les troubles sexuels, les dysfonctionnements et les insuffisances rénales.
Il faut souligner que, traditionnellement, les préparations d’O. sinensis contiennent non seulement le champignon, mais aussi d’autres ingrédients (alcool, solvants…). Ainsi, pour « revigorer les poumons et renforcer les reins », la médecine chinoise traditionnelle conseille d’administrer l’ensemble larve et champignon. Il est donc difficile d’attribuer une éventuelle activité au champignon lui-même. Sans compter qu’il n’est pas toujours certain que l’espèce utilisée soit bien celle déclarée.
Toutefois, l’impressionnante liste d’allégations santé associée à ces champignons parasites a attiré l’attention de la recherche pharmaceutique, et des études ont été entreprises pour évaluer le potentiel des principes actifs contenus dans ce champignon.
Certains travaux semblent indiquer des effets – chez la souris – sur la croissance tumorale ainsi que sur la régulation de certaines cellules immunitaires. Une activité anti-inflammatoire a aussi été mise en évidence dans des modèles animaux et des cultures de cellules. Enfin, une méta-analyse (analyse statistique de résultats d’études déjà publiées) menée sur un petit nombre de publications a suggéré que, chez des patients transplantés rénaux, un traitement d’appoint à base de préparation d’O. sinensis pourrait diminuer l’incidence de l’hyperlipidémie, l’hyperglycémie et des lésions hépatiques. Les auteurs soulignent cependant que des recherches complémentaires sont nécessaires, en raison de la faible qualité des preuves et du risque de biais lié à la mauvaise qualité méthodologique des travaux analysés.
Une revue Cochrane (Organisation non gouvernementale à but non lucratif qui évalue la qualité des données issues des essais cliniques et des méta-analyses disponibles) de la littérature scientifique concernant les effets de ce champignon sur la maladie rénale chronique aboutit aux mêmes conclusions : si certaines données semblent indiquer que des préparations à base d’O. sinensis administrées en complément de la médecine occidentale conventionnelle pourraient être bénéfiques pour améliorer la fonction rénale et traiter certaines complications, la qualité des preuves est médiocre, ce qui ne permet pas de tirer de conclusion définitive.
Une autre espèce de champignon apparentée, Ophiocordyceps militaris, a aussi retenu l’attention des scientifiques. Il parasite quant à lui les pupes du ver à soie tussah (Antherea pernyi), lesquelles sont traditionnellement cuisinées et consommées dans certaines régions de Chine. Divers composés actifs ont été isolés de ce champignon, tel que la cordycépine, isolée dans les années 1950, qui pourrait avoir un intérêt dans la lutte contre le cancer, même si cela reste à confirmer. Chez la souris, des travaux ont aussi suggéré des effets sur la réduction des taux sanguins d’acide urique.
Au-delà des pratiques médicales traditionnelles ou des explorations pharmacologiques visant à mettre au point de nouveaux médicaments, les champignons Ophiocordyceps sont aussi employés comme aliment diététique. En Chine, ils sont par exemple utilisés dans les plats traditionnels, les soupes, les boissons (bières, thés…) ou les compléments alimentaires (gélules). Leurs partisans prêtent à ces produits d’innombrables vertus : renforcement de l’immunité, lutte contre le vieillissement, régulation du sommeil, stimulation de l’appétit, et protection de la santé en général.
Toutefois, à l’heure actuelle, les preuves scientifiques soutenant de telles allégations manquent encore, notamment en matière de validation clinique en ce qui concerne, par exemple, l’immunité.
Cette utilisation s’inscrit dans la même tendance que celle qui a vu ces dernières années se développer les « aliments fonctionnels ». Aussi appelés nutraceutiques ou aliments « médicinaux », ces produits, qui sont vendus à grand renfort de marketing mettant en avant diverses allégations thérapeutiques, connaissent un fort développement mondial. Selon le cabinet BCC Research, la demande mondiale en nutraceutiques devrait passer de 418,2 milliards de dollars en 2024 à 571,3 milliards en 2029, avec un taux de croissance annuel moyen de 6,4 %.
Cependant, malgré l’abondance des produits revendiquant des bienfaits pour la santé, le niveau de preuve scientifique reste souvent limité ou controversé. La démonstration rigoureuse des effets physiologiques de ces aliments est complexe, en raison notamment de la variabilité des compositions, des biais liés aux études d’observation, ou encore du manque de standardisation des protocoles cliniques. Cela pose des défis importants en matière d’évaluation scientifique, de communication des allégations et de réglementation.
En vigueur depuis le 1er janvier 2018, le règlement sur les « nouveaux aliments » s’applique à l’ensemble de l’Union européenne. Est considéré comme nouvel aliment tout aliment n’ayant pas été consommé de manière significative avant mai 1997.
Pour que la Commission européenne accepte d’autoriser la mise sur le marché d’un nouvel aliment, plusieurs conditions doivent être remplies : compte tenu des données scientifiques disponibles, il ne doit présenter aucun risque pour la santé (ce qui ne signifie pas qu’il l’améliore), et son utilisation ne doit pas entraîner de déficit nutritionnel.
Si les mycéliums de Cordyceps sinensis sont aujourd’hui autorisés, ce n’est pas le cas de ceux de Cordyceps militaris, qui n’a pas encore reçu d’autorisation préalable de mise sur le marché européen.
Efstathia Karachaliou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.06.2025 à 09:55
Valentina Napolitano, Sociologue, chargée de recherche à l'IRD (LPED/AMU), spécialiste des questions migratoires et des conflits au Moyen-Orient, Institut de recherche pour le développement (IRD)
Ruba Akash, Directrice du Refugees, Displaced and Forced Migration Studies Centre, Yarmouk University
La chute du régime de Bachar Al-Assad en décembre 2024 a ravivé les débats sur le retour chez eux des réfugiés syriens installés au Moyen-Orient. Pourtant, les discussions publiques restent souvent déconnectées des réalités vécues par les premiers concernés. Une enquête menée en mai 2025 en Jordanie, où le nombre de réfugiés syriens s’élève aujourd’hui à un peu moins de 600 000 personnes, révèle la complexité des trajectoires et des choix familiaux, entre attente, espoir et inquiétude.
La question du retour des réfugiés syriens qui avaient fui leur pays en guerre pour s’installer dans divers pays du Moyen-Orient (près de 5 millions vivant principalement en Turquie, au Liban et en Jordanie) s’est posée avec urgence dès la chute du régime de Bachar Al-Assad, en décembre 2024. Ce retour faisait déjà partie des « solutions durables » envisagées, dès 2016, par les acteurs humanitaires et les gouvernements hôtes pour mettre fin à la « crise des réfugiés ».
Les débats autour de cette question se limitent, pour l’essentiel, à une quantification du nombre des retours attendus et des retombées qu’ils auraient sur la reconstruction de la Syrie en termes socio-économiques et politiques. Mais on se demande trop peu, voire pas du tout, ce que souhaitent les réfugiés syriens eux-mêmes.
En mai 2025, nous avons effectué une enquête qualitative en Jordanie (dans le camp de Zaatari, ainsi que dans les villes d’Irbid et de Zarqa) qui nous a permis, au fil des douze entretiens réalisés, de mieux comprendre les projets d’avenir des réfugiés syriens dans le pays. Il en ressort que le choix de rentrer en Syrie ou de rester en Jordanie résulte d’une imbrication complexe de facteurs sociaux, économiques, politiques, d’âge et de genre.
En décembre 2024, la Jordanie accueillait près de 650 000 Syriens officiellement enregistrés par le Haut Commissariat des Nations unies pour les réfugiés (UNHCR). Depuis, plus de 75 000 d’entre eux sont rentrés en Syrie selon les chiffres diffusés par l’Agence en mai 2025. Ce nombre est voué à augmenter avec la fin de l’année scolaire.
Les attitudes des réfugiés syriens vis-à-vis de la perspective du retour varient significativement en fonction du lieu d’installation en Jordanie et des conditions socio-économiques qui en découlent. Près de 80 % des Syriens résident dans des villes, notamment à Irbid, Mafraq et Zarqa, et les 20 % restants vivent au sein des trois camps de réfugiés qui ont été érigés près de la frontière avec la Syrie : Zaatari, Al-Azraq et Marajeeb Al Fohood.
Les quelque 67 000 réfugiés du camp de Zaatari (mai 2025), qui vivent parfois depuis près de quatorze ans dans des caravanes en acier, en plein désert, dans des conditions climatiques extrêmement pénibles, et qui sont soumis à un contrôle strict de leurs déplacements et à une forte pression sécuritaire de la part des autorités locales, sont sans doute ceux qui aimeraient rentrer le plus rapidement en Syrie.
Malgré l’assistance fournie par les acteurs humanitaires aux réfugiés du camp, ce lieu demeure très inhospitalier. Des familles entières l’ont déjà quitté pour revenir en Syrie, certaines dès l’annonce de la chute du régime. C’est pourquoi plusieurs unités d’habitation ont déjà été abandonnées ou démantelées.
D’autres familles préparent également leur retour en mettant de l’argent de côté, car un déménagement peut coûter environ 500 dinars jordaniens (environ 610 euros), sachant que les bus gratuits mis à disposition par l’UNHCR jusqu’à la frontière ne permettent de transporter que cinquante kilos de bagages par famille.
Pour la famille de Mohammad, la cinquantaine, originaire du village de Sheykh Meskin, près de Deraa, la situation est des plus compliquées. Depuis plusieurs années, Mohammad a perdu son travail dans un centre de santé de l’UNHCR. L’Agence onusienne et les autres acteurs humanitaires sont les principaux pourvoyeurs d’emploi au sein du camp, mais seul un membre par famille est autorisé à y travailler. La famille de Mohammad survit aujourd’hui uniquement grâce à l’aide humanitaire versée par l’UNHCR ; or celle-ci a drastiquement diminué en 2025, passant de 22 à 15 dinars jordaniens par personne et par mois (soit 18 euros par mois). « Nous sommes arrivés en 2013, nous avons vieilli ici ! », raconte Maryam, la mère de famille, en évoquant la dureté des conditions de vie endurées à Zaatari. Elle montre ensuite la photo du potager qui entoure leur maison à Deraa, en Syrie. Les mûrs, encore débout, s’apprêtent à être réhabilités pour garantir une vie plus digne à leurs enfants, dont la plupart n’ont connu que le camp de Zaatari comme lieu de vie.
À l’inverse de cette famille, de nombreux Syriens n’ont plus de logement où rentrer. La majorité des familles réfugiées en Jordanie sont originaires du sud de la Syrie, notamment de la ville de Deraa et de sa campagne, largement détruites par la guerre, d’où la réticence d’une grande partie d’entre eux à rentrer au pays dans l’immédiat.
Pour la famille Nasser, la question du logement est centrale, du fait de l’agrandissement de sa famille depuis le départ pour la Jordanie. Initialement composée du père, mécanicien âgé d’une quarantaine d’années, d’une épouse et de deux enfants, le foyer s’est étendu avec un deuxième mariage. Aujourd’hui, il compte douze enfants, dont l’une âgée de 20 ans et ayant fondé son propre foyer.
« Nous sommes arrivés ici avec une famille, maintenant nous sommes trois familles… En Syrie nous n’avons plus de maison et le HCR ne nous accorde pas le droit de déplacer les caravanes avec nous. »
Alors qu’aucun plan de reconstruction n’a encore été mis en place par les nouvelles autorités en Syrie, les réfugiés du camp se trouvent face à l’interdiction de ramener vers leur pays d’origine les préfabriqués qui leur ont été attribués par le HCR ou qu’ils ont achetés de leur propre initiative afin d’élargir leur lieu de vie. À leur départ, ces préfabriqués sont démontés par les autorités jordaniennes, qui revendent ensuite les matériaux sur le marché.
La situation des Syriens que nous avons rencontrés en milieu urbain est différente. S’ils estiment que le retour en Syrie est inévitable à long terme, notamment en raison de l’absence de perspective d’intégration durable en Jordanie, pays qui n’est pas signataire de la Convention de Genève pour les réfugiés de 1951, la date de ce retour reste toutefois subordonnée à l’amélioration des conditions socio-économiques dans leur pays.
Dans les milieux urbains jordaniens, les Syriens ont souvent atteint une certaine stabilité, avec un meilleur accès à l’éducation et à l’emploi, et ils disposent d’un logement digne. C’est pour cette raison que plusieurs familles vivant à Irbid et à Zarqa souhaitent attendre l’amélioration des conditions de vie dont ils espèrent qu’il suivra la levée des sanctions internationales visant la Syrie. Aujourd’hui, pour Umm Diab, 46 ans et mère de neuf enfants, arrivée à Irbid en 2013, retourner en Syrie serait « un retour à l’âge de pierre », tellement les conditions de vie y sont dures. Les Syriens manquent de services de base tels l’électricité, l’eau et le carburant.
Les décisions concernant l’avenir ne sont pas prises de façon individuelle, mais en coordination avec le réseau familial élargi et celui de voisinage. Lors de nos échanges avec des femmes syriennes, il est apparu que pendant l’exil, les liens familiaux dépassent le simple cadre émotionnel pour participer à de véritables mécanismes de survie et de solidarité.
Les familles syriennes en Jordanie ont, au fil des années, reconstitué des systèmes informels de soutien fondés sur la parenté, l’origine villageoise ou les liens de voisinage. Ces réseaux fournissent des aides dans tous les domaines, de la mise en commun des fonds pour le loyer et l’accès à l’aide alimentaire aux soins aux enfants et à la recherche d’un travail informel.
Les femmes syriennes que nous avons rencontrées ont expliqué qu’elles cherchent toujours à vivre à proximité de leurs sœurs, cousins ou beaux-parents, ce qui leur permet de partager des responsabilités telles que les départs à l’école ou les tâches ménagères et même de répartir les rôles dans la parentalité. Rompre avec ces liens, même au nom du retour au pays, comporte des risques, spécialement pour les femmes.
En effet, environ un tiers des ménages de réfugiés syriens en Jordanie sont dirigés par des femmes, dont beaucoup sont veuves, divorcées ou vivent séparées de leurs maris qui travaillent à l’étranger, particulièrement dans les pays du Golfe comme l’Arabie saoudite, le Koweït et les Émirats arabes unis. Pour ces femmes, l’idée de retourner en Syrie seule est intimidante. La peur de la violence, le manque de services de base et l’absence d’une présence masculine en Syrie pèsent lourdement sur ces décisions.
C’est le cas d’Umm Diab, dont le mari a commencé à travailler au Koweït avant même le début du conflit. Pour elle, rentrer seule en Syrie avec ses enfants signifierait la perte des liens familiaux avec ses frères et sœurs et avec ses voisins qui l’ont soutenue dans son quotidien de femme seule durant son séjour en Jordanie.
De nombreuses femmes ont acquis une indépendance financière en exil ; mais le retour en Syrie pourrait engendrer la perte de leurs revenus. Par ailleurs, les décisions concernant le retour sont encore souvent prises, ou du moins fortement influencées par des hommes absents car, nous l’avons évoqué, travaillant dans le Golfe. En même temps, la séparation temporaire des membres d’une même famille est aussi envisagée afin de préparer les conditions du retour de l’ensemble du noyau familial. Dans l’une des familles rencontrées à Zaatari, c’est l’homme qui est rentré en premier en Syrie, son épouse et ses enfants devant le rejoindre une fois la scolarité de ces derniers terminée. À l’inverse, dans un autre cas, c’est la femme, accompagnée des enfants, qui est rentrée en Syrie, tandis que l’homme est resté en Jordanie pour continuer à bénéficier du taux de change favorable et leur envoyer de l’argent.
Outre l’importance des liens familiaux et d’interdépendance qui se sont restructurés en exil, le choix du retour est aussi vécu de manière différente en fonction de l’âge.
Près de 49 % de la population syrienne en Jordanie a entre 0 et 17 ans. Majoritairement née en exil ou arrivée très jeune, cette composante de la population a des perceptions et des attitudes différentes à l’égard du retour. Umm Firas, mère de six enfants, résidente de Zarqa, à l’est d’Amman, explique que tous ses enfants parlent un dialecte jordanien en dehors de la maison, ce qui reflète selon elle leur degré d’insertion dans la société hôte, notamment en milieu urbain.
Par ailleurs, la question de l’éducation des enfants en d’autres langues, avec la prééminence de l’anglais en Jordanie, facteur à prendre en compte dans les autres pays du refuge syrien (notamment en Turquie ou plus loin en Europe), apparaît comme une autre entrave au possible retour.
En outre, alors que l’âge de mariage demeure très bas, les jeunes entre 18 et 25 ans ont dans la plupart des cas déjà établi leur propre famille, ce qui est le cas d’une des filles d’Umm Firas, 22 ans, mariée et mère de deux enfants. Les choix du retour de ces deux familles se trouvent donc imbriqués.
Pour les plus jeunes, retourner en Syrie peut par ailleurs devenir un choix contraint, notamment en raison de l’impossibilité, pour les plus éduqués d’entre eux, de trouver un emploi en Jordanie, mais aussi face au durcissement sécuritaire exercé à leur encontre par les autorités locales.
L’évolution de la politique d’accueil jordanienne à l’égard des Syriens constitue un dernier élément essentiel pour comprendre les choix du retour, lequel devient inexorable face à des contraintes économiques et sécuritaires de plus en plus importantes. Avant même que la chute du régime d’Assad se profile, la Jordanie était confrontée à de très grandes difficultés pour pouvoir continuer à financer l’accueil des réfugiés syriens.
En août 2024, seulement 7 % du budget prévisionnel destiné au Plan de réponse jordanien à la crise syrienne, financé par des donations internationales, avait été obtenu, soit 133 millions sur 2 milliards de dollars. Cela a entraîné une diminution substantielle des aides humanitaires distribuées sous forme de bons d’achat. Plusieurs habitants de Zaatari relatent aussi une raréfaction des services d’assistance, notamment en matière de santé.
La diminution des aides devrait en outre entraîner la fermeture du camp de Marajeeb al Fohood, financé et géré par le Croissant-Rouge des Émirats arabes unis, qui a vu le départ de près de 350 personnes en mai dernier. Les Syriens du camp d’al-Azraq, notamment ceux détenus dans le « village n°5 », considéré comme un centre de rétention sécuritaire, font l’objet de procédures d’extradition vers la Syrie. C’est le cas d’un fils d’Umm Firas, détenu pendant plus de six mois en raison de soupçons de proximité avec des groupes salafistes, qui a finalement été renvoyé en Syrie et a rejoint la maison de son grand-père.
La diminution des aides internationales s’est aggravée avec l’arrivée de la nouvelle administration américaine et la suspension des aides pourvues à travers USAID. Les employés de nombreuses organisations internationales, dont le HCR, vont voir leurs contrats arriver à terme d’ici l’été, avec la fermeture des centres d’enregistrement de l’Agence à Irbid et Zarqa.
À cela s’ajoutent les restrictions liées à l’arrivée à échéance de l’accord Jordan Compact, conclu entre l’Union européenne et la Jordanie, et qui avait permis l’attribution de 200 000 permis de travail à des Syriens (limités principalement aux secteurs non qualifiés de l’agriculture et du bâtiment) en échange d’aides au développement versées par l’UE. Désormais, les Syriens doivent payer des frais de permis de travail, à l’instar des autres travailleurs migrants, ce qui constitue pour les réfugiés en Jordanie un obstacle majeur susceptible d’accélérer leur retour au pays.
Dans le même temps, on constate, paradoxalement, un relâchement des restrictions sécuritaires mises en œuvre pour contrôler le camp de Zaatari. La sortie des Syriens du camp est permise à travers une demande de « vacances » (Igâze) ou grâce à la possession d’un permis de travail valide. De nombreux réfugiés se procurent un faux permis exclusivement pour pouvoir circuler en dehors du camp.
Depuis décembre, le système s’est assoupli : certaines personnes sont désormais autorisées, de manière informelle, à franchir le barrage qui entoure le camp, ce qui traduit une volonté des autorités jordaniennes de rendre la vie sur place plus viable, dans l’objectif d’y maintenir les habitants. Le camp de Zaatari joue un rôle stratégique dans la mise en visibilité de l’accueil jordanien et dans la levée de fonds internationaux, ce qui explique la volonté du gouvernement de conserver ce lieu le plus longtemps possible, afin de continuer à bénéficier des aides internationales.
Malgré les changements politiques et les appels à la reconstruction en Syrie, de nombreux réfugiés syriens restent incertains quant à leur avenir. Pour eux, la question n’est pas seulement de savoir si la Syrie est devenue un lieu de vie sûr, mais aussi de savoir si les conditions sociales, économiques et familiales sont réunies pour affronter ce changement après de longues années où ils ont dû reconstruire leurs vies en exil.
Loin donc des seuls points de passage des frontières sous observation des acteurs humanitaires et politiques, c’est au sein des espaces domestiques, à travers la Jordanie et les autres pays d’accueil des réfugiés, qu’il faut prêter attention aux attentes multiples et parfois contradictoires des familles syriennes afin de continuer à garantir l’accès aux droits, au travail et à l’éducation, et de préserver les réseaux d’entraide – autant d’éléments à prendre en compte pour un retour volontaire et digne en Syrie.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.06.2025 à 09:54
Mohamed Arbi Nsiri, Docteur en histoire ancienne, Université Paris Nanterre – Université Paris Lumières
Le monastère Sainte-Catherine du Sinaï (Égypte) est reconnu comme le plus ancien établissement monastique chrétien encore en activité. Une décision rendue fin mai 2025 par la cour d’appel égyptienne fait planer une menace sans précédent sur son avenir.
Édifié en 548 sur ordre de l’empereur byzantin Justinien Ier, au pied du mont Moïse, à 1 570 mètres d’altitude, le monastère Sainte-Catherine occupe une place singulière dans l’histoire religieuse et culturelle de l’humanité. Niché au cœur d’un massif aride et majestueux, ce lieu sacré – également connu sous le nom de monastère de la Transfiguration – a traversé les siècles sans interruption, abritant une communauté chrétienne fidèle à la tradition orthodoxe orientale.
Il constitue un témoignage unique de la continuité du monachisme tardo-antique, tel qu’il s’est développé dans l’Orient méditerranéen à partir des premiers ermites du désert. Ce sanctuaire millénaire, dont les murailles de pierre enferment une exceptionnelle bibliothèque de manuscrits anciens et une collection inestimable d’icônes byzantines, fut dès l’origine un carrefour spirituel, accueillant pèlerins, savants et voyageurs de toutes confessions.
Relevant canoniquement du patriarcat grec orthodoxe de Jérusalem, cette institution multiséculaire voit aujourd’hui son existence même remise en question. L’arrêt rendu par la cour d’appel égyptienne fin mai 2025 ouvre, en effet, la voie à une possible expropriation de ses terres au profit de l’État, accompagnée de la menace d’expulsion de sa communauté monastique, forte d’une vingtaine de moines, pour la plupart d’origine grecque. Un tel scénario mettrait un terme brutal à une présence spirituelle ininterrompue depuis près de quinze siècles, dans un lieu où la prière, l’hospitalité et la conservation du savoir sacré ont toujours été au cœur de la vocation monastique.
Inscrit sur la liste du patrimoine mondial de l’Unesco depuis 2002, le monastère Sainte-Catherine se trouve ainsi confronté à une érosion préoccupante de son autonomie séculaire. Ce processus, s’il devait se poursuivre, risquerait non seulement d’altérer l’équilibre délicat entre tradition religieuse et souveraineté égyptienne, mais aussi d’effacer une part précieuse de la mémoire vivante du christianisme oriental, conservée au prix d’un isolement assumé et d’une fidélité sans faille à l’esprit du désert.
L’origine de cette crise remonte aux années qui ont suivi la révolution égyptienne de 2011. Sous l’impulsion du gouvernement alors dominé par les Frères musulmans (de juin 2012 à juillet 2013, ndlr), des procédures judiciaires furent engagées afin de contester les droits fonciers du monastère. Ces démarches, révélatrices d’une volonté politique d’affirmer la souveraineté de l’État sur des lieux à forte charge symbolique, ont abouti à la décision récemment rendue, laquelle redéfinit en profondeur les rapports entre la communauté religieuse et les autorités civiles.
Désormais, les moines du monastère Sainte‑Catherine du Sinaï ne sont plus considérés comme propriétaires, mais comme de simples « occupants autorisés », bénéficiant d’un droit d’usage strictement limité à leurs fonctions liturgiques.
Avant la décision juridique de 2025, ils ne disposaient vraisemblablement d’aucun titre de propriété formel : aucune preuve d’enregistrement cadastral ou d’acte notarié ne vient attester d’un droit de propriété légalement établi. Leur présence continue depuis près de mille cinq cents ans constituait toutefois un ancrage patrimonial implicite, reposant sur une forme de légitimité historique, voire coutumière. Le droit égyptien admet, dans certaines circonstances, que l’usage prolongé d’un bien puisse fonder un droit réel d’usage – sans pour autant conférer un droit de pleine propriété ou de disposition. Ce type de tenure, parfois désigné sous le nom de ḥikr, demeure subordonné à la reconnaissance étatique et ne suffit pas, en lui-même, à faire valoir un droit de propriété au sens strict.
La décision de 2025 clarifie ainsi une situation juridique jusque-là ambivalente, en affirmant explicitement la propriété de l’État tout en maintenant un droit d’usage limité pour la communauté monastique.
Selon des sources locales bien informées, cette évolution juridique s’inscrit dans le cadre d’un vaste projet de réaménagement territorial lancé en 2020 sous le nom de « Grande Transfiguration ». L’objectif affiché est de faire de la région de Sainte-Catherine une destination touristique de premier plan, centrée sur le tourisme religieux, écologique et thérapeutique.
Dans cette perspective, la présence monastique, avec ses exigences de retrait, de silence et de stabilité, peut apparaître comme un obstacle à la conversion du site en un pôle d’attraction touristique intégré – avec, à terme, le risque que le monastère ne soit progressivement vidé de sa vocation spirituelle et transformé en musée, rattaché aux logiques d’un patrimoine marchandisé.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
La situation a suscité une vive inquiétude au sein des autorités grecques. Le premier ministre Kyriakos Mitsotakis est intervenu personnellement auprès du président égyptien Abdel Fattah Al-Sissi pour plaider la cause du monastère et de ses moines, soulignant l’importance de préserver l’intégrité spirituelle, historique et culturelle de ce site inestimable, dont la Grèce se considère coresponsable au regard de ses liens ecclésiologiques et historiques avec la communauté des moines orthodoxes du Sinaï.
En réponse à la controverse croissante, la présidence égyptienne a publié, le 30 mai 2025, un communiqué officiel dans lequel elle réaffirme son attachement au respect du statut sacré du monastère. Ce texte vise à contrecarrer les accusations selon lesquelles le projet de la Grande Transfiguration inclurait une évacuation du site ou une remise en cause de la présence monastique. Les autorités égyptiennes insistent sur le fait que l’initiative concerne exclusivement le développement de la ville environnante, sans atteinte directe au monastère.
La ville de Sainte-Catherine, qui s’étend à proximité immédiate du monastère, possède une résonance spirituelle unique. Elle est traditionnellement identifiée comme le lieu où Moïse reçut les Tables de la Loi, et certains y situent également la Transfiguration divine. De ce fait, elle constitue un espace sacré commun aux trois grandes religions monothéistes – judaïsme, christianisme et islam.
L’église dite du Buisson ardent, ou chapelle du Buisson ardent, se trouve au cœur même du monastère Sainte‑Catherine, dans cette même ville au pied du mont Sinaï. Érigée sur le site traditionnel où Moïse aurait entendu la voix divine émanant d’un buisson en feu sans se consumer, elle est intégrée à l’abside orientale de la grande basilique byzantine, construite sous Justinien au VIe siècle. Selon la tradition, cette chapelle abrite encore le buisson vivant, dont les racines affleureraient sous l’autel. Les visiteurs y accèdent depuis l’église principale, en se déchaussant en signe de respect, rappelant le geste de Moïse ôtant ses sandales sur la terre sacrée.
Bien plus qu’un simple lieu commémoratif, cette chapelle demeure le cœur vivant d’une mémoire partagée entre les trois monothéismes et le centre spirituel de la communauté monastique du Sinaï.
Face à la menace qui pèse sur l’intégrité matérielle et spirituelle du monastère Sainte-Catherine du Sinaï, il apparaît opportun d’envisager une médiation internationale sous l’égide de l’Unesco, institution multilatérale investie de la mission de protéger le patrimoine mondial de l’humanité. Le statut du monastère, inscrit depuis 2002 sur la liste du patrimoine mondial en raison de sa valeur universelle exceptionnelle, offre un fondement juridique et symbolique solide pour une telle intervention.
Dans le cadre des instruments juridiques existants – notamment la Convention concernant la protection du patrimoine mondial, culturel et naturel de 1972 –, l’Unesco est habilitée à envoyer une mission d’experts sur place afin d’évaluer l’impact potentiel du projet dit de la « Grande Transfiguration » sur la préservation des valeurs culturelles, religieuses et historiques du site. Une telle mission pourrait formuler des recommandations contraignantes ou incitatives à l’intention des autorités égyptiennes, en vue de concilier les objectifs de développement local avec le respect des engagements internationaux pris par l’Égypte en matière de sauvegarde patrimoniale.
Par ailleurs, l’Unesco pourrait jouer un rôle de médiateur entre l’État égyptien, la communauté monastique, le patriarcat grec orthodoxe de Jérusalem et les autorités grecques, en facilitant la mise en place d’un protocole d’accord qui garantirait le maintien de la vie monastique, la préservation du patrimoine matériel (manuscrits, icônes, bâtiments…) et la reconnaissance du rôle spirituel et historique du monastère. Une telle initiative contribuerait non seulement à désamorcer les tensions actuelles, mais aussi à renforcer la dimension interculturelle et interreligieuse du site, conformément aux objectifs de l’Unesco en matière de dialogue entre les civilisations.
Enfin, si la situation devait empirer, le Comité du patrimoine mondial pourrait envisager l’inscription du monastère sur la liste du patrimoine mondial en péril, mesure exceptionnelle, qui alerterait la communauté internationale sur la gravité de la situation et mobiliserait les moyens diplomatiques et financiers nécessaires à sa sauvegarde.
Par cette voie, il est encore possible de transformer une crise en opportunité : celle de renouveler l’engagement commun des États, des Églises et des institutions internationales en faveur d’un patrimoine spirituel dont la valeur dépasse les frontières nationales, et dont la sauvegarde concerne l’humanité tout entière.
Mohamed Arbi Nsiri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.06.2025 à 09:54
Paul Hadji-Lazaro, Docteur en économie écologique, Agence Française de Développement (AFD)
Andrew Skowno, Lead of the National Biodiversity Assessment program at the South African National Biodiversity Institute (SANBI), University of Cape Town
Antoine Godin, Économiste-modélisateur, Agence Française de Développement (AFD)
Julien Calas, Chargé de recherche biodiversité, Agence Française de Développement (AFD)
Selon le Forum économique mondial, plus de la moitié du PIB mondial repose, directement ou indirectement, sur des services rendus par la nature. Une nouvelle étude tâche de proposer des outils pour évaluer la dépendance à la biodiversité des différents secteurs de l'économie et des régions en prenant comme exemple l'Afrique du Sud
« Protéger la nature, c’est bien pour les amoureux des oiseaux et des fleurs, mais l’économie a d’autres priorités… ». Qui n’a jamais entendu une idée reçue de ce type ? Dans les débats publics, la défense de la biodiversité passe souvent pour le dada d’écologistes passionnés, éloignés des préoccupations « sérieuses » de la croissance économique ou de la finance. Cette vision est non seulement fausse, mais dangereuse car la santé des écosystèmes est le socle de notre prospérité économique, financière et sociale, partout sur la planète.
Forêts, sols, océans, insectes… fournissent une multitude de services écosystémiques – c’est-à-dire les bénéfices gratuits que nous rend la nature – indispensables à nos activités. Ces services vont de la pollinisation des cultures par les abeilles, à la purification de l’eau par les zones humides, en passant par la fertilité des sols, la régulation du climat ou la protection des côtes contre les tempêtes. Autrement dit, la nature est comme un fournisseur caché d'eau, d'air pur, de sols fertiles et de matières premières dans les chaînes d’approvisionnement de l’économie. Et aucune entreprise humaine ne saurait s’y substituer totalement.
Cette dépendance économique à la biodiversité n’a rien d’anecdotique. Selon le Forum économique mondial, plus de la moitié du PIB mondial repose, directement ou indirectement, sur des services rendus par la nature. L’agriculture et l’agroalimentaire bien sûr, mais aussi la pêche, la sylviculture, le tourisme, la construction, et même des industries comme l’automobile ou l’électronique, qui dépendent de ressources minières et d’eau pour leur production, toutes ont besoin d’un écosystème fonctionnel. Un rapport de la Banque de France évoque ainsi un possible « Silent Spring » financier, en référence au printemps silencieux provoqué par le DDT qui anéantissait les oiseaux décrit par la biologiste américaine Rachel Carson dans les années 1960. En décimant les espèces et les services écologiques, on fait peser un risque de choc majeur sur nos systèmes financiers quipourrait entraîner une réaction en chaîne sur l’ensemble de l’économie, en affectant l’emploi, le commerce, les prix, les recettes fiscales de l’État – exactement comme une crise économique classique, sauf que son déclencheur serait écologique.
À lire aussi : Comment évaluer l’impact du recul de la biodiversité sur le système financier français
Pour mieux comprendre, imaginons une réaction en domino : la disparition massive des pollinisateurs fait chuter les rendements agricoles ; moins de récoltes, c’est une pénurie de certaines denrées et une envolée des prix alimentaires ; les industries agroalimentaires tournent au ralenti, entraînant licenciements et baisse des revenus et du pouvoir d’achat des agriculteurs comme des ouvriers ; le pays doit importer à prix fort pour nourrir la population tandis que les rentrées fiscales diminuent… Le point de départ de ce scénario noir ? Quelques espèces d’insectes qu’on avait sous-estimées, et qui assuraient discrètement la pollinisation de nos cultures. La nouveauté c'est que ce principe de l’effet papillon – où l’altération d’un écosystème local finit par affecter l’ensemble de l’économie – est rendu explicite par de récents articles scientifiques.
Pour saisir concrètement l’ampleur du risque, penchons-nous sur un exemple parlant : celui de l’Afrique du Sud. Ce pays dispose d’une économie diversifiée (mines, agriculture, industrie) et d’écosystèmes riches mais sous pression. Pour une étudepubliée récemment, nous avons appliqué un nouvel outil de traçabilité des risques liés à la nature, afin de cartographier les secteurs économiques, les régions géographiques et les variables financières les plus vulnérables aux risques environnementaux.
Nos analyses révèlent que 80 % des exportations nettes de l’Afrique du Sud proviennent de secteurs fortement dépendants de l’approvisionnement en eau. Autrement dit, la quasi-totalité des biens que le pays vend au reste du monde – des métaux aux produits agricoles – nécessitent de l’eau à un moment ou un autre de leur production. Or l’eau ne tombe pas du ciel en quantité infinie : il faut des rivières alimentées par des pluies régulières, des sols qui retiennent cette eau, des forêts qui régulent son cycle… bref, un écosystème en bonne santé. Le hic, c’est que cette ressource vitale est déjà menacée. Un produit exporté sur quatre est issue d'une activité très dépendante de l’eau localisée dans une municipalité confrontée à un stress hydrique sérieux (sécheresse, pénurie d’eau potable, etc.). En 2018, la ville du Cap et ses près de 4 millions d'habitants frôlait la coupure d'eau générale. C’est ce genre de choc qui pourrait frapper durablement l’économie sud-africaine si rien n’est fait pour préserver la capacité des écosystèmes à réguler l’approvisionnement en eau.
Et ce n’est pas tout. Notre étude met aussi en lumière l’importance des risques indirects. En Afrique du Sud, près d’un quart des salaires du pays dépendent directement de secteurs exposés à la dégradation des écosystèmes (par exemple l’industrie manufacturière ou le secteur immobilier qui consomment beaucoup d’eau). En tenant compte des liens en amont et en aval (les fournisseurs, les clients, les sous-traitants), ce sont plus de la moitié des rémunérations qui deviennent menacées.
Autre mesure édifiante : certains secteurs économiques créent eux-mêmes les conditions de leur fragilité future. Prenons le secteur minier, pilier des exportations sud-africaines. Il exerce une pression énorme sur les écosystèmes (pollution des sols et des eaux, destruction de la végétation, etc.). Or, nous montrons que la moitié des exportations minières sont issues de municipalités où se trouvent un certain nombre des écosystèmes les plus menacés du pays en raison justement des pressions exercées par l’activité minière elle-même.
Ce paradoxe – l’industrie sciant la branche écologique sur laquelle elle est assise – illustre un risque de transition. Si le gouvernement décide de protéger une zone naturelle critique en y limitant les extractions, les mines situées là devront réduire la voilure ou investir massivement pour atténuer leurs impacts, avec un coût financier immédiat. Autre cas possible, si des acheteurs ou des pays importateurs décident de réduire leurs achats de produits miniers parce qu’ils contribuent à la destruction de la biodiversité, les mines exerçant le plus de pression sur les écosystèmes critiques devront aussi s’adapter à grand coût. Dans les deux cas, l’anticipation est clé : identifier ces points sensibles permet d’agir avant la crise, plutôt que de la subir.
Face à ces constats, la bonne nouvelle est qu’on dispose de nouvelles méthodes pour éclairer les décisions publiques et privées. En Afrique du Sud, nous avons expérimenté une approche innovante de traçabilité des risques liés à la nature. L’idée est de relier les données écologiques aux données économiques pour voir précisément quels acteurs dépendent de quels aspects de la nature dans quelle partie d’un pays donné.
Concrètement, cette méthode permet de simuler des chocs et d’en suivre les répercussions. Par exemple, que se passerait-il si tel service écosystémique venait à disparaître dans telle région ? On peut estimer la perte de production locale, puis voir comment cette perte se transmet le long des chaînes de valeur jusqu’à impacter le PIB national, l’emploi, les revenus fiscaux, les exportations ou les prix. L’outil intègre aussi l’autre versant du problème : le risque de transition, c’est-à-dire les conséquences économiques des actions envisagées pour éviter la dégradation écologique.
La méthode ne vise pas à identifier des secteurs économiques à « fermer » à cause de leurs pressions sur la nature ou une dépendance à des services écosystémiques dégradés. Elle vise plutôt à aider les décideurs politiques et les acteurs économiques à prioriser leurs actions (d’investissement ou de restriction) tout en tenant compte de l’importance socio-économique des secteurs sources de pressions ou dépendants de services écosystémiques dégradés.
En Afrique du Sud par exemple, l’institut national de la biodiversité et des chercheurs locaux ont utilisé les résultats montrant la forte dépendance de certains secteurs économiques à l’approvisionnement en eau pour animer des séminaires de mise en débat des résultats et rédiger des notes de recommandation de politiques publiques.
Loin d’opposer Nord et Sud, écologie et économie, la question de la biodiversité est désormais une opportunité pour chacun de contribuer à un enjeu transversal planétaire. Aucune économie n’est à l’abri. Un effondrement des pollinisateurs expose aussi bien les vergers de Californie que les champs de café en Éthiopie. La surpêche appauvrira aussi bien les communautés côtières d’Asie du Sud-Est que les consommateurs de poisson en Europe.
Biodiversité en berne signifie instabilité économique pour tous, du nord au sud. Malgré les tensions financières entre pays riches et pays en développement sur la répartition de l’effort, profitons du succès du nouveau round de négociations internationales de la convention biodiversité qui s’est tenu à Rome du 25 au 27 février dernier pour agir. A cette occasion, les membres de la convention biodiversité ont trouvé un accord sur une nouvelle stratégie de « mobilisation des ressources », visant à allouer 200 milliards de dollars par an à la conservation de la biodiversité « toutes sources confondues » d'ici à 2030. Désormais, le défi pour ces pays va être de se mettre d'accord sur les priorités d’allocation des fonds et d’évaluer comment la mise en œuvre de la convention est compatible avec leur propre endettement.
La méthode d’analyse des risques liés à la nature dans les décisions économiques et financières peut aider les décideurs à faire ces choix de manière éclairée. Elle peut aider à « réorienter les flux financiers » en faveur de la nature comme demandé par le nouveau cadre international de la biodiversité (Accord Kunming-Montréal adopté fin 2022). Elle peut aussi aider les entreprises à mesurer et divulguer leur dépendance aux écosystèmes comme recommandé par le groupe de travail privé de la Taskforce on Nature-related Financial Disclosures (TNFD). C’est le moment d’agir. Chaque gouvernement, chaque banque, chaque grande entreprise devrait dès maintenant se doter d’outils et de données pour évaluer son exposition aux risques écologiques et agir en conséquence grâce aux dernières avancées scientifiques.
Antoine Godin est membre de l'unité de recherche ACT de l'université Sorbonne Paris-Nord
Andrew Skowno, Julien Calas et Paul Hadji-Lazaro ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.