13.04.2026 à 16:42
La scolarité des enfants suivis par la protection de l’enfance : un problème majeur qui ne doit pas occulter les réussites
Texte intégral (1903 mots)
Les enfants passés par l’aide sociale à l’enfance sont plus souvent confrontés à des difficultés scolaires. Il est important de le reconnaître sans verser dans un discours stigmatisant qui contribuerait à entretenir un cercle vicieux. La recherche est une alliée précieuse pour identifier des leviers de réussite.
Le 12 février 2026, une circulaire du ministère de l’éducation nationale est parue au Bulletin officiel pour « favoriser la réussite et l’ambition scolaires des enfants protégés ». Ces derniers sont des enfants dont la situation a été identifiée comme étant en risque ou en danger et auprès desquels l’État intervient, par la voix de services décentralisés, l’aide sociale à l’enfance (ASE), dans un but de protection, qu’ils restent dans leur milieu de vie habituel ou qu’ils soient accueillis dans d’autres structures. Ils étaient 384 900 mineurs et jeunes de moins de 21 ans dans ce cas au 31 décembre 2023.
S’il peut sembler aller de soi, cet objectif vient lever un paradoxe jusque-là invisible : la scolarité de ces enfants n’était pas affichée clairement comme un objectif de l’État, alors même qu’ils sont placés sous sa protection.
Pourquoi souligner cette ambition ? Que savons-nous de la scolarité de ces enfants ? Quel est l’état de la recherche sur cette question ? Nous verrons que des difficultés fortes sont maintenant bien documentées, mais qu’elles ne sont pas systématiques, et qu’il est nécessaire d’être vigilant sur la façon d’en parler au risque d’alimenter ce problème.
Des difficultés scolaires plus fréquentes, mais non systématiques
Les recherches en France convergent maintenant depuis plus d’une dizaine d’années pour identifier des difficultés scolaires plus fréquentes pour ces enfants. Plus de la moitié d’entre eux est en retard d’au moins une classe par rapport aux autres enfants du même âge (plus de 1 sur 10 le sont d’au moins deux classes). Ils sont dix fois plus souvent orientés en scolarités adaptées, comme les sections d’enseignement général et professionnel adapté (Segpa), connaissent plus fréquemment des moments de déscolarisation.
Ces éléments sont des indicateurs de difficultés rencontrées : le redoublement ou ces orientations sont envisagés lorsque les résultats sont bas. Mais ce sont aussi des éléments fragilisant la suite de la scolarité. Le redoublement, par exemple, a des effets préjudiciables pour les élèves qui le vivent : sans résoudre les difficultés scolaires, il ajoute un stigmate fort et réduit l’estime que les élèves ont d’eux-mêmes.
Les orientations vers des dispositifs spécialisés rendent difficile le retour dans un cursus ordinaire. Les temps de déscolarisation marquent aussi durablement les scolarités.
De plus, les orientations scolaires sont plus contraintes pour ces enfants : ils sont près de 8 sur 10 à être orientés en filières professionnelles dans le second cycle, contre 3 pour 10 pour l’ensemble de la population. Ces orientations sont d’abord envisagées par défaut, peu les choisissent en premier lieu. À 17 ans, seulement 13 % préparent un baccalauréat général (contre 51 % pour l’ensemble de la population).
Les sorties du système éducatif sont plus rapides, et débouchant plus souvent sur des situations précaires : 31 % des jeunes de 18 à 22 ans sortant de l’ASE se déclarent inactifs ou au chômage et 42 % suivent des études (contre respectivement 21 % et 50 % pour les jeunes de milieux populaires).
Ce que l’on sait des causes de ces difficultés
La littérature permet maintenant d’identifier une part importante des causes de ces difficultés. On peut citer les difficultés rencontrées par ces enfants avant l’intervention et liées aux raisons qui la justifient. Les travaux d’Isabelle Frechon confirment la fréquence élevée de violences vécues pour les enfants ayant eu l’expérience d’un placement : 31 % déclarent avoir subi des violences sexuelles, 35 % des violences physiques, 12,5 % des violences psychologiques et 11 % des négligences lourdes au cours de leur enfance et/ou adolescence. D’intensité et de durée différentes, ces violences génèrent des traumatismes, des préoccupations, du stress qui gênent les apprentissages.
Par ailleurs, bien qu’aucun milieu social ne soit épargné par les maltraitances, ces enfants sont plus souvent issus des milieux populaires et particulièrement des strates les plus précaires. Ils font donc partie des populations mises en difficulté par un système éducatif très inégalitaire, et ils cumulent les situations de précarité qui renforcent les difficultés scolaires.
Par ailleurs, l’intervention des services de protection de l’enfance a des effets ambivalents sur les scolarités. Elles peuvent les soutenir en partie, mais contribuent également aux difficultés, notamment en générant des ruptures multiples (des changements d’adultes référents, d’établissements scolaires, d’environnements de vie, un éloignement des amis).
Du fait d’un ensemble complexe de raisons, les enfants passant par la protection de l’enfance sont souvent destinataires d’attentes faibles au sujet de leur scolarité et de leur projection d’études et d’emploi. Par le corps enseignant, tout d’abord, du fait de représentations tenaces, associant la protection de l’enfance à des difficultés nécessairement scolaires, mais également par les travailleurs sociaux. Ces faibles attentes de part et d’autre contribuent à des orientations plus fréquentes vers l’enseignement spécialisé, vers des scolarités par défaut et favorisent des périodes de non-scolarisation.
De fortes incertitudes sur l’avenir qui contraignent l’orientation
Pour ces enfants, l’avenir est fortement incertain. La limite des 18 ans annonce une fin de prise en charge institutionnelle pour la plupart, et jusqu’aux 21 ans pour les plus soutenus. Ils disposent de moins de ressources (familiales, institutionnelles, sociales) pour envisager une poursuite d’études ou pour assurer la recherche et l’obtention d’un emploi. Ces difficultés sont connues des jeunes et des membres du champ professionnel. Ils les anticipent et vont viser des orientations au moindre risque, vers des filières courtes, pour viser une indépendance plus sûre, plus rapidement, limitant les projections d’avenir qui suivent peu leurs propres envies.
Sur ces éléments, les filles sont davantage mises en difficulté, à la différence du reste de la population. Les orientations vers les voies professionnelles plus fréquentes contraignent davantage leur parcours scolaire et n’assurent pas la sécurité prévue. À la sortie de la prise en charge, elles sont plus affectées par les conditions d’accès à l’emploi que les garçons, elles sont davantage au chômage ou inactives.
Le constat des difficultés plus fortes est bien établi par la recherche et il démontre que le droit à l’éducation n’est pas pleinement atteint pour ces enfants. Le rappel de ces tendances peut toutefois avoir un effet délétère pour eux en augmentant la forte stigmatisation qui peut peser négativement sur les capacités qu’on leur attribue, et les ambitions qu’on leur porte. En effet, ce sont bien des attentes élevées et la considération que la scolarité est importante qui soutiennent les parcours de réussite scolaire.
Des réussites scolaires peu visibles
À l’occasion de mes recherches de thèse doctorale, soutenue en 2013, j’identifiais qu’en Angleterre la publication régulière des données comparées sur la scolarité, entre les enfants protégés et le reste de la population, et l’injonction à soutenir leur réussite, sans attribuer des moyens suffisants, stigmatisaient cette population et avaient des effets négatifs sur les professionnels. Ces derniers rendaient compte d’une résignation face aux difficultés.
Il y a ainsi une vigilance à avoir sur la façon dont on mentionne publiquement le problème de la scolarité des enfants protégés. Il est nécessaire d’étudier les conditions de ces difficultés et d’identifier les leviers pour les réduire, mais sans faire peser sur ces enfants un stigmate négatif. Il est important de trouver un juste équilibre pour souligner le versant positif du problème, à savoir soutenir la réussite et avoir des attentes élevées envers ces enfants, sans invisibiliser le constat sur les difficultés élevées et le diagnostic de leurs causes.
Si cette question était jusque-là un sujet de préoccupation affichée des professionnels de la protection de l’enfance et des institutions locales ou territoriales (associations ou départements), la circulaire ministérielle constitue le signal de sa reconnaissance comme problème public. La circulaire implique pleinement l’éducation nationale dans ces préoccupations et la responsabilité d’agir pour soutenir ces enfants. D’ailleurs, depuis les années 2010, les recherches, en France comme à l’international, fournissent un ensemble de connaissances maintenant bien établies qui renseignent autant sur les freins existants que sur les leviers disponibles pour accompagner la réussite des enfants protégés.
Benjamin Denecheau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.04.2026 à 16:41
Trois récits de vie pour comprendre le mal-être dans la fonction publique
Texte intégral (1818 mots)

Face à l’austérité budgétaire, certains agents de la fonction publique font face à des injonctions contradictoires – moins de moyens, mais une meilleure qualité de service –, des responsabilités floues et un manque de reconnaissance qui affectent leur bien-être. Pour comprendre ces enjeux complexes, une étude donne la parole à trois agents de la fonction publique d’État.
Une directrice d’école en burn out faute d’aide. Un cadre hospitalier en charge des décisions, sans pouvoir réel. Un fonctionnaire dont les compétences restent ignorées. Ces situations ne sont pas des cas isolés. Elles suggèrent une transformation silencieuse du management dans la fonction publique.
La fonction publique présente des défis managériaux spécifiques, documentés depuis plusieurs décennies. Ces défis oscillent entre sens du devoir, convictions et valeurs partagées, et contraintes telles que l’austérité budgétaire.
À partir de récits de vie d’agents publics, notre étude révèle des situations où les responsabilités augmentent, alors que les moyens et les marges de décision diminuent. Cette évolution contribue à affaiblir l’engagement des fonctionnaires et contractuels. Notre approche narrative permet d’appréhender les enjeux contemporains de la gouvernance publique d’État à partir de l’expérience vécue de professionnels.
Injonctions contradictoires
L’équilibre entre contrôle de l’activité des agents de la fonction publique et liberté décisionnelle nécessaire à toute prise de décision reste un sujet de débat. Depuis plus de vingt-cinq ans, le chercheur Christopher Hood questionne la mise en œuvre du New Public Management, tandis que Geert Bouckaert invite à repenser la notion de performance et ses critères dans le secteur public. Dans ce contexte, les fonctionnaires se retrouvent face à des injonctions contradictoires : préserver une qualité de service envers les concitoyens avec des moyens limités et des obligations de résultat.
Le New Public Management trouve sa transposition en France à travers des programmes d’actions interministériels lancés en 2007 et 2012. La Révision générale des politiques publiques (RGPP) a été notamment consacrée à la réorganisation des structures de l’administration publique. La modernisation de l’action publique (MAP) à l’amélioration de la qualité des services publics ou la simplification et de réorganisation administrative.
Notre analyse met en lumière les formes concrètes du désenchantement des ressources humaines dans la fonction publique et la dégradation de la qualité du management liées à ces évolutions, notamment à travers deux cadres théoriques :
La justice organisationnelle qui analyse les appréciations des salariés du caractère juste du traitement dont ils font l’objet au sein de la structure qui les emploie ;
Les conflits de rôles qui naissent quand les périmètres d’activités ne sont pas suffisamment bien définis ou l’existence d’une répartition déséquilibrée de la charge de travail entre agents de la fonction publique.
Manque de reconnaissance (premier récit de vie)
Appel aux consultants extérieurs
« Ce qui me désole au sein du ministère, c’est l’indifférence manifeste envers les CV des fonctionnaires. Il est vrai que nous avons été embauchés selon certaines conditions de niveau et de compétences, mais après plus de quatre ans comme moi au sein des services, les agents ont eu l’occasion d’acquérir de nouvelles compétences. Plutôt que de faire appel à des consultants externes pour leurs compétences, on pourrait exploiter les compétences internes qui sont réellement abondantes et variées. »
Tâches routinières
« Avant de rejoindre la fonction publique, j’ai occupé plusieurs postes dans divers cabinets d’expertise comptable, où j’ai géré de manière autonome la comptabilité d’entreprises reconnues. J’ai choisi la fonction publique pour satisfaire mon père qui valorise la stabilité et la sécurité qu’elle offre. Cependant, mon rôle actuel à la direction générale se limite à des tâches routinières et subalternes. Ce manque de reconnaissance de mon niveau de compétence et d’expérience me désole. »
Qui est responsable ? (second récit de vie)
« Je suis en position de responsabilité, en tant que cadre depuis cinq années. J’ai la charge de la gestion des soignants au sein d’une organisation hospitalière multi-sites. Il y a des difficultés pour accompagner tous nos patients, accueillis sur un site et quelquefois opérés sur un autre site. Il faut alors trouver des places pour l’hospitalisation. »
« Nous expliquons que c’est au chef de service de déterminer qui sera le premier patient de la journée et l’heure à laquelle il sera hospitalisé. À notre niveau, nous sommes des représentants administratifs. Nous devons répondre à des sujets qui sont pour eux administratifs, mais qui en réalité sont organisationnels. C’est compliqué : qui est responsable ? »
Gérer seule une situation difficile (troisième récit de vie)
Problématique en dehors des clous
« Je suis directrice dans une petite école et institutrice dans une classe de CE2. J’ai vingt-cinq ans d’expérience et on peut dire que je fais partie des piliers de l’école. Jusqu’à cette situation, j’étais passionnée et ce métier a toujours été une véritable vocation. »
À lire aussi : Quand le cynisme mine l’engagement dans la fonction publique…
« Depuis la petite section, nous accueillons un enfant avec des troubles importants – sans connaître l’origine de ses troubles, car sa maman n’a jamais voulu fournir de bilan médical à l’école. Il a pu bénéficier d’un accompagnant d’élève en situation de handicap durant 5 ans, mais plus aujourd’hui. C’est donc un peu moi qui joue ce rôle, mais en plus je dois m’occuper des autres élèves de ma classe. »
Pas de soutien de l’académie
« La situation était tenable tant qu’il bénéficiait de cette personne dédiée. Il a toujours eu tendance à frapper les autres et je pense qu’une bonne partie des enfants de l’école y ont eu droit. Cette année, les problématiques se sont amplifiées. Il y a eu de nombreuses plaintes des parents. On m’a même dit : “Mais que faites-vous madame, vous ne surveillez pas ?” “Convoquez la mère !” »
« Je me suis donc retournée vers l’académie et l’inspecteur, en demandant conseils et aides. Il m’a été répondu qu’il ne faudrait surtout pas céder aux plaintes quotidiennes des parents. Je n’ai pas reçu d’aide ou de moyens supplémentaires. Je pleurais tous les jours. J’aimais mon métier d’enseignante, mais là, je n’avais plus le sens. Mon médecin m’a dit, “C’est un burn out”. »
Hypocrisie organisationnelle
L’ensemble de ces récits permet de proposer plusieurs perspectives d’analyse à la lumière de l’hypocrisie organisationnelle – discours et actes contradictoires. Par exemple, le troisième invite à se demander si cette hypocrisie ne sert pas à protéger l’organisation, ici l’éducation nationale.
Une autre perspective est celle du leadership. Les trois récits suggèrent que :
Les agents publics sont contraints d’endosser des responsabilités pour gérer des situations complexes, sans recevoir de reconnaissance lorsqu’ils réussissent à trouver des solutions. L’écart entre les missions confiées et les moyens disponibles devient difficilement supportable ;
Ils ne disposent parfois pas du pouvoir décisionnel nécessaire pour résoudre les problèmes auxquels ils sont confrontés ;
Ils restent souvent prisonniers d’un statut ou d’une organisation hiérarchique rigide, qui freinent l’évolution de leurs missions, malgré l’acquisition d’expérience ou de nouvelles compétences. Cette situation génère à terme démotivation ou démission, qu’elle soit silencieuse ou effective.
Ces récits illustrent une forme de « management du risque » de la part des niveaux hiérarchiques supérieurs, qui consiste à laisser les collaborateurs affronter seuls certaines situations, tout en revendiquant la maîtrise de la décision et de l’action. Ces extraits mettent en lumière l’importance cruciale de la reconnaissance et de la valorisation du travail, tant au sein de la fonction publique qu’au service de l’usager ou du citoyen. En filigrane se dessine la nécessité d’un leadership éclairé et bienveillant, capable de soutenir et guider ses équipes.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.04.2026 à 16:41
Les coûts économiques de la guerre vont bien au-delà des destructions matérielles
Texte intégral (1710 mots)
Les effets les plus importants des conflits sont souvent les moins visibles : ils détruisent les parcours de vie, affectent la santé, plombent les économies, exacerbent les inégalités de genre, accélèrent les déplacements forcés… La guerre génère aussi des gagnants, intentionnels ou involontaires.
Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 10 est consacré aux « Violences : la société à vif ».
La guerre détruit des infrastructures, désorganise les économies, brise des trajectoires individuelles et recompose parfois les rentes. En mesurer le coût suppose de tenir ensemble ces différentes dimensions. Loin d’être un simple exercice comptable, cette quantification est indispensable pour identifier les populations les plus vulnérables et orienter les politiques de reconstruction.
Les coûts les plus visibles sont matériels. Les conflits contemporains détruisent massivement les infrastructures et désorganisent en profondeur les capacités productives. Dans le cas de l’Ukraine, les premières estimations situaient les pertes totales entre 500 milliards et 1 000 milliards de dollars (de 427,9 milliards à 855,8 milliards d’euros) dès 2022. Fin 2024, la Kyiv School of Economics chiffrait la reconstruction des seules infrastructures physiques à des dizaines de milliards de dollars : 60 milliards pour les logements, 38,5 milliards pour les routes, 14,6 milliards pour le secteur énergétique, 14,8 milliards pour l’agriculture. Ces chiffres ne rendent compte que des pertes tangibles ; ils laissent dans l’ombre la désorganisation plus profonde des tissus productif et social.
À l’échelle macroéconomique, les effets sont tout aussi sévères. Le génocide rwandais de 1994 s’est accompagné d’une chute de 40 % du PIB par habitant et d’un effondrement des investissements directs étrangers. À Gaza, le PIB réel a reculé de plus de 80 % au premier semestre 2024, tandis que la part de la population en situation de pauvreté multidimensionnelle est passée de 63,7 % avant la guerre à 97,9 % en 2024.
À lire aussi : Économie de guerre : de quoi parle-t-on ?
Les enfants, premières victimes
Les coûts les plus importants sont souvent les moins visibles. La guerre perturbe les parcours de vie, détruit les actifs des ménages et fragilise durablement les mécanismes économiques de base. Les enfants en sont les premières victimes. En 2023, 473 millions d’enfants vivaient dans des zones de conflit, et plus de 30 000 violations graves de leurs droits ont été recensées.
La littérature économique montre que ces expositions précoces ont des effets durables sur le capital humain : au Pérou, une exposition à la violence avant l’âge scolaire réduit en moyenne la scolarité de 0,31 année à l’âge adulte ; au Rwanda, les enfants exposés au génocide accusent un retard d’environ 0,5 année de scolarité primaire.
Les conséquences sanitaires sont, elles aussi, profondes. Au Nigeria, les femmes exposées à la guerre civile entre 1967 et 1970 présentent, à l’âge adulte, une taille inférieure de 0,75 à 4,5 centimètres selon l’âge d’exposition, signe d’un environnement nutritionnel et sanitaire gravement détérioré (Akresh et coll., 2012).
Par ailleurs, le simple risque de violence, même en l’absence d’exposition directe, affecte les comportements et les conditions de vie. En Côte d’Ivoire et en Ouganda, une augmentation d’un écart-type du risque de violence entre la conception et la première année de vie accroît la mortalité infantile de 0,8 à 1 point de pourcentage. Les coûts du conflit ne se limitent donc pas aux seuls lieux où la violence se réalise.
Des liens sociaux désagrégés
Les effets sur les structures sociales sont plus ambivalents. De nombreux travaux documentent une baisse durable de la confiance et un renforcement des replis identitaires après les conflits, y compris longtemps après la fin des hostilités. D’autres mettent en évidence, dans certains contextes, des dynamiques inverses : montée de l’engagement civique et politique, comportements plus prosociaux, participation accrue à la vie collective. La guerre ne produit donc pas des effets sociaux uniformes. Si elle peut désagréger les liens, elle peut aussi, dans certains contextes, renforcer des formes d’engagement ou de coopération.
Les conflits exacerbent aussi les inégalités de genre. Près de 80 % des personnes déplacées sont des femmes (Banque mondiale, 2011), exposées à des risques sanitaires accrus et à des formes de violence spécifiques. Les violences sexuelles, documentées dans de nombreux contextes, ne sont pas seulement des effets collatéraux du conflit. Des travaux récents montrent qu’elles peuvent répondre à des logiques de contrôle territorial et d’extorsion économique, notamment dans les zones riches en ressources naturelles.
L’immigration des élites
Les déplacements forcés constituent une autre dimension majeure et souvent sous-estimée des coûts. Un conflit de faible intensité génère en moyenne 500 000 déplacés, un conflit meurtrier jusqu’à 1,2 million. Ces migrations ne sont pas aléatoires : les individus les plus éduqués et les mieux dotés économiquement sont souvent les plus mobiles. Cette sélection entraîne une perte durable de capital humain dans les zones d’origine, fragilisant la reconstruction et pouvant alimenter, à moyen terme, de nouvelles tensions.
Les entreprises subissent elles aussi des coûts importants, directs et indirects. La violence perturbe l’offre de travail, désorganise les chaînes d’approvisionnement et accroît l’incertitude sur les décisions d’investissement. Au Kenya, les violences postélectorales de 2008 ont provoqué une chute de plus de 50 % des exportations de fleurs.
Dans les territoires palestiniens occupés, les distorsions liées à l’accès aux intrants importés expliquent environ 70 % de la baisse de valeur ajoutée des entreprises exposées. Mais ces effets ne restent pas confinés aux zones de violence : dans le cas indien, environ trois quarts du coût économique total d’un conflit transitent par les chaînes de valeur, affectant des entreprises situées dans des régions pourtant épargnées. Ne comptabiliser que les firmes directement exposées conduit donc à sous-estimer massivement l’impact global.
Des rentes redistribuées
Enfin, la guerre génère aussi des gagnants, et la distinction entre gagnants intentionnels et gagnants involontaires est ici essentielle. Les premiers cherchent activement à tirer profit du conflit : l’industrie de l’armement, dont le chiffre d’affaires cumulé atteignait 631,9 milliards de dollars (540,8 milliards d’euros) en 2023 en est l’exemple le plus évident. Certaines entreprises vont plus loin encore, en nouant des arrangements avec des groupes armés pour maintenir leur activité ; le cas Lafarge en Syrie en est l’illustration la plus emblématique.
Les seconds profitent du conflit par un concours de circonstances : la disparition ou l’affaiblissement de concurrents exposés à la violence redistribue mécaniquement des parts de marché en leur faveur, sans qu’ils l’aient recherché. Dans les deux cas, ces dynamiques rappellent que la guerre ne produit pas uniquement des destructions : elle redistribue aussi des rentes et des positions, ce qui contribue parfois à en prolonger la durée.
Au total, les coûts de la guerre s’étendent bien au-delà des destructions immédiates. Ils s’inscrivent dans les corps, les trajectoires scolaires, les structures familiales, les réseaux productifs et les équilibres sociaux, souvent pour des décennies. Les chiffrer rigoureusement ne revient pas à réduire la guerre à une équation ; c’est une condition pour hiérarchiser les urgences, cibler la reconstruction et limiter la reproduction de la violence.
Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 10 a pour objet « Violences : la société à vif ». Vous pourrez y lire d’autres contributions.
Le titre et les intertitres sont de la rédaction de The Conversation France.
Mathieu Couttenier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.04.2026 à 16:41
Quel avenir pour les animaux sur les plateaux de cinéma ?
Texte intégral (2341 mots)

Depuis ses débuts, le cinéma a utilisé les animaux comme des acteurs à part entière. Mais leur présence sur les plateaux se fait moindre avec l’essor des images de synthèse, tandis que les associations de défense des animaux œuvrent pour en finir avec des pratiques parfois maltraitantes.
L’histoire des acteurs non humains est longue et riche en anecdotes, de Luke, le chien de la star du cinéma muet Roscoe (alias Fatty) Arbuckle, aux colleys qui ont incarné Lassie au cinéma et à la télévision. L’ours Bart a accumulé plus de 20 apparitions au cinéma et à la télévision dans les années 1980 et 1990, tandis que d’innombrables chevaux ont contribué aux séries historiques qui inondent aujourd’hui les plateformes de streaming.
Mais les affaires ne vont plus aussi bien qu’avant pour les dresseurs qui se spécialisent dans la location d’animaux de toutes sortes aux productions cinématographiques et télévisuelles.
À lire aussi : Décoloniser notre rapport aux animaux pour inventer un nouveau rapport au monde
Selon The Hollywood Reporter, la tendance est présente depuis au moins vingt-cinq ans, et elle est due à un mélange d’activisme en faveur des droits des animaux et de progrès technologiques, ce que j’ai observé moi-même dans mes recherches sur les animaux à l’écran.
Moins de rôles à se partager
L’adoption par Hollywood des images de synthèse a joué un rôle immense dans la « mise au chômage » de ces animaux « acteurs ». Depuis que Jurassic Park (1993) a osé mêler des dinosaures en computer-generated imagery (CGI) à des acteurs humains, de plus en plus d’animaux numériques sont apparus aux côtés des humains.
Mais d’autres facteurs ont accéléré cette tendance. La pandémie de Covid-19, les grèves des acteurs et scénaristes hollywoodiens de 2023 et une récente baisse du nombre de nouvelles séries télévisées ont entraîné une diminution du nombre de productions et de rôles disponibles, qu’ils soient destinés à des humains ou à des animaux.
Mais, même avant ces événements récents, des voix s’élevaient pour demander à Hollywood de réduire radicalement sa dépendance vis-à-vis des animaux de cinéma.
En 2012, The Hollywood Reporter – le même magazine spécialisé qui a récemment déploré une baisse des locations d’animaux – a publié un reportage répertoriant des incidents au cours desquels des animaux sont morts, ont été blessés ou ont été exposés à de graves dangers sur les plateaux. Ces productions ont néanmoins continué à arborer le célèbre crédit « No Animals Were Harmed » (« Aucun animal n’a été maltraité durant ce tournage ») décerné par l’American Humane Association, quand bien même les animaux avaient été maltraités. L’American Humane Association a affirmé que ces incidents étaient tragiques, mais sans conclure qu’ils résultaient d’une négligence.
En 2016, l’association Pour une éthique dans le traitement des animaux (PETA) a publié les résultats d’enquêtes menées sous couverture documentant des conditions de vie inférieures aux normes et des problèmes médicaux non traités chez Birds & Animals Unlimited, qui gère des centres de dressage d’animaux pour le cinéma et la télévision. En 2024, l’organisation a détaillé les cas de négligence envers les animaux confiés aux soins d’Atlanta Film Animals. Les deux sociétés ont nié ces allégations.
Il existe bien sûr de nombreuses façons de réduire au minimum, voire d’éviter complètement, l’utilisation d’animaux réels au cinéma et à la télévision.
La Planète des singes : Les Origines et ses suites ont utilisé la capture de mouvement, c’est-à-dire des humains reproduisant les mouvements de personnages qui ont ensuite été transformés par images de synthèse en chimpanzés, gorilles, bonobos et orangs-outans.
Pour la production d’Ang Lee de 2012, l’Odyssée de Pi, les artistes en effets visuels ont créé des milliers d’animaux virtuels (cependant, un tigre du Bengale en chair et en os a également été sollicité et a failli se noyer, ndlr), tandis que le réalisateur Darren Aronofsky a opté pour des animaux entièrement numériques, complétés par quelques accessoires réels, dans Noé, en 2014.
À contre-courant des tendances high-tech, le film d’horreur Primate (2025) a fait un retour aux sources sans recourir à de vrais animaux, en faisant appel à un artiste vêtu d’un costume et de prothèses pour incarner un chimpanzé enragé et meurtrier.
Les images de synthèse peuvent-elles désensibiliser les spectateurs à la violence envers les animaux ?
Il existe sans aucun doute des dresseurs qui se soucient profondément de leurs protégés et respectent les meilleures pratiques en matière d’élevage. Mais il va de soi que moins il y a d’animaux en captivité, mieux c’est, et les récentes avancées en matière d’IA ont rendu les effets visuels et les images de synthèse encore plus réalistes et plus faciles à modéliser.
Cependant, le fait de remplacer des animaux en chair et en os par des créatures faites de pixels semble avoir ouvert la voie à des abus sans limites. Prenons l’exemple de la violence brutale dans les remakes de la Planète des singes, qui incluent des combats au corps à corps, le marquage au fer rouge et une scène de crucifixion.
Autrefois, le fait que les animaux présents sur le plateau soient réels freinait parfois les pulsions les plus sauvages des cinéastes ; la violence était suggérée ou se déroulait hors champ dans des films familiaux comme Jody et le faon (1946) et Fidèle Vagabond (1957).
Parallèlement, des astuces de caméra et des accessoires ont été utilisés pour créer des scènes de cruauté envers les animaux dans de nombreux films, d’American Psycho (2000) à John Wick (2014).
Bien que les effets des médias violents sur les spectateurs soient notoirement difficiles à étudier, certaines données suggèrent que certains publics peuvent devenir insensibles aux conséquences réelles de contenus malsains et violents. On comprend aisément comment cette désensibilisation pourrait s’étendre au visionnage de scènes de cruauté envers les animaux à l’écran.
Les spectateurs peuvent encore flairer le virtuel
Une approche hybride de la représentation des animaux à l’écran semble s’être imposée, utilisant ce qu’un chercheur a appelé – en référence aux chiens à l’écran – des « performances canines composites ».
L’équipe à l’origine de la version 2025 de Superman, par exemple, a cherché à créer un chien réaliste, jusque dans les moindres poils ébouriffés. Mais il fallait qu’il défie la gravité et d’autres lois de la physique. Ils ont donc intégré juste assez d’animaux réels en préproduction pour animer une créature principalement en images de synthèse, le chien du réalisateur James Gunn servant de « modèle », ou de « référence » au super-chien Krypto.
Cette technique rappelle les méthodes des animateurs de Disney qui, face au défi de créer les personnages de Bambi (1942), se sont retrouvés dans une impasse. Ils ont donc étudié l’anatomie animale, photographié des cerfs dans la nature et dessiné des animaux amenés au studio afin de mieux capturer leurs mouvements sur le papier.
Mais lorsqu’il s’agit de films en prises de vues réelles ancrés dans la vie quotidienne, les animaux réels ont encore leur place sur le plateau. D’une part, il est généralement moins coûteux de faire appel à de vrais animaux. De plus, la plupart des animaux virtuels à l’écran ne sont tout simplement pas assez réalistes pour permettre la suspension totale de l’incrédulité qui fait la magie du cinéma.
C’est pourquoi, dans l’adaptation de 2025 des Mémoires d’Helen MacDonald, H Is for Hawk, les cinéastes auraient utilisé cinq vautours pour incarner Mabel, l’oiseau adopté par Helen (Claire Foy). C’est pourquoi le film Marty Supreme, nominé aux Oscars, mettait en scène toute une ménagerie d’animaux vivants, notamment un cheval, un chameau, un tatou, un chien, un lapin et même un lion de mer jouant au ping-pong. Oui, l’otarie de la scène était réelle, mais la balle ne l’était pas.
L’avenir des dresseurs et de leurs protégés semble dépendre de la qualité des effets visuels. Pour certains défenseurs des animaux – sans parler des animaux eux-mêmes, qui n’ont pas leur mot à dire sur leur travail –, ce jour n’arrivera jamais assez tôt.
Les cinéphiles et les défenseurs des animaux, quant à eux, pourraient espérer un juste milieu : un avenir dans lequel seuls les animaux traités de manière éthique continueraient à apparaître à l’écran.
Cynthia Chris ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.04.2026 à 16:38
What fish redistribution in the Mediterranean is telling us about species’ climate resilience
Texte intégral (1726 mots)

Over the past twenty years, nearly half of commercially important Mediterranean fish species have shifted their distribution due to climate change, causing marine species to move away from their historical locations. These significant changes in fish habits are expected to have a major impact on biodiversity, ecosystems and fishing opportunities.
On a global scale, species have been observed shifting towards higher latitudes and depths, in search of cooler conditions.
However, at regional scales, the picture is far more complex. Our recent study demonstrates that in the Mediterranean Sea, as a result of climate change, warm water-favouring thermophilic species that prefer moderately warm temperatures, such as the starry skate Raja asterias, are changing their distribution towards the south and west, while cool water-favouring boreal species, such as the black-bellied angler Lophius budegassa, are only changing their distribution in depth.
The broader picture of this ecological process is known as meridionalization through which native warm-water species expand and cold-water species decline.
Temperature-associated habitat selection: the Mediterranean predicament
The Mediterranean is one of the most vulnerable ecosystems in the world due to multiple and cumulative human pressures, including a high level of climate risk that will increase in the future. These combined impacts are already driving major ecological changes in marine species.
The Mediterranean is also a semi-enclosed basin, connected to the global ocean only through the Strait of Gibraltar, which limits the options available to species attempting to track suitable environmental conditions.
However, even if these Mediterranean species move north, they cannot go very far: they soon encounter geographical continental constraints, such as the French continental zone, in the Gulf of Lions.
An alternative to moving northwards is to move towards deeper waters in search of cooler temperatures, when their physiological limits allow it. However, at the regional scale, the picture is far more complex, with very different dominant patterns emerging.
In our recent scientific study conducted along the eastern Spanish Mediterranean coast, from Murcia to northern Catalonia:
“ We found that almost half of the commercially valuable Mediterranean species have changed their distribution over the last two decades: 42 out of the 102 species analysed showed significant distributional shifts.”
Although these changes vary among species, they are dominated by southward and south-westward movements along the Iberian Peninsula, particularly towards the Gulf of Alicante.
Depth-related changes were also diverse, but were mainly characterised by shifts towards shallower waters.
Why are fish moving ‘swimming against’ global patterns, southwards and toward shallower waters?
These species shifts can be explained by local climate velocity, a measure that describes both the speed and direction of ocean warming.
Climate velocity tracks the rate of change in sea surface temperature, indicating the direction and speed species should move to conserve the initial or preferred temperature conditions of their habitat. As such, if species displacements correlate with climate velocity, species are more likely to remain within suitable climatic conditions.
Our results show that the largest distributional shifts are strongly associated with areas experiencing the fastest warming. As a result, many species have shifted the centre of distribution of their populations towards the south-west.
Among these species are the four-spot megrim (Lepidorhombus boscii, the picarel (Spicara smaris and the starry ray Raja asterias, which given their preference for moderately warm-water temperature, have moved south-westwards, shifting in the same direction as the velocity climate change. However, in addition to the horizontal displacement, they have also moved toward shallower waters:
“Contrary to our expectations, species were predominantly shifting towards shallower waters, more coastal areas because depth naturally decreases in this region as species move south.”
These findings highlight the regional-scale impacts of climate change on commercially important marine species. There is an urgent need to implement climate-smart fisheries management measures, as adaptation to climate change is no longer a future challenge, but a present-day necessity.
Climate-smart solutions involve management measures that focus on implementing regional and local strategies such as identifying marine climate refugia, which attract species and provide an environment in which fish stocks can thrive in spite of climate change, and that prioritises their protection and conservation.
Improving the adaptative responses of the small-scale fishing sector is also a key climate-smart solution. This can only happen if fishers and local communities play a significant role in the decision-making processes, and if scientists, fisheries and policymakers work together to adopt much needed climate-adaptive practices.
This article was co-written with the help of the following authors: Hidalgo, M., Puerta, P., García Molinos, J., Zamanillo, M., Brito-Morales, I., González-Irusta, J. M., Esteban, A., Punzón, A., García-Rodríguez, E., Vivas, M., & López-López, L.
Created in 2007 to help accelerate and share scientific knowledge on key societal issues, the Axa Research Fund – now part of the Axa Foundation for Human Progress – has supported over 750 projects around the world on key environmental, health & socioeconomic risks. To learn more, visit the website of the AXA Research Fund or follow @ AXAResearchFund on LinkedIn.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Marina Sanz-Martín (MSM) and co-authors acknowledge the crew and staff of the Spanish Institute of Oceanography (CN-IEO, CSIC) for collecting and providing long-term survey data for the MEDITS program and facilitating a unique record of ffish distribution and abundance. This research was performed as part of the VADAPES project, funded with the support of the Biodiversity Foundation of the Spanish Ministry for the Ecological Transition and the Demographic Challenge; the CLISSARTES project (AXA-007), funded by AXA Research Fund; and the COCOCHA project (PID2019-110282RA-I00) funded by the Spanish Ministry of Economy and Competitiveness, Feder funds and the Spanish Research Agency. MSM acknowledges funding from the Government of the Balearic Islands through a Vicenç Mut postdoctoral grant. The authors acknowledge the development and maintenance of online repositories and databases such as COPERNICUS, EMODNET, AQUAMAPS, OBIS, Bio-Oracle, FishBase, and SEALIFEBASE, and their fundamental role in advancing knowledge in marine and fisheries science.
13.04.2026 à 11:40
Attention, les activités des entreprises pourraient devenir inassurables
Texte intégral (1721 mots)

Dans un contexte d’accélération du risque climatique, les assureurs voient leur rôle évoluer auprès des entreprises. La question n’est plus seulement « combien cela coûtera ? », mais aussi « comment éviter que certaines activités deviennent tout simplement inassurables ? » Zoom sur les petites et moyennes entreprises, cœur du tissu économique français.
Longtemps amortisseuse, l’assurance est aujourd’hui sous tension face à des sinistres plus fréquents et coûteux. Rien que pour les tempêtes Nils et Pedro, en février 2026, ainsi que les inondations dans l’ouest et le sud-ouest de la France, France Assureurs et la Caisse centrale de réassurance estiment le coût des dommages à 1,2 milliard d’euros.
Le changement climatique n’est plus seulement une question environnementale. Les risques financiers liés au climat deviennent matériels pour l’économie française, européenne et mondiale. Ainsi, 80 % des entreprises ont subi des perturbations opérationnelles, des fermetures temporaires (70 %) et une hausse de plus de 150 % des coûts d’assurance.
Si les compagnies d’assurance ne couvrent plus certains territoires ou certains secteurs, les coûts se déplaceront vers les entreprises avec un risque de fragilisation du crédit et de stabilité financière.
Un monde à + 4 °C, inassurable
En 2015, Henri de Castries, alors dirigeant d’AXA, avertissait : « Un monde à + 2 °C pourrait être assurable, mais un monde à + 4 °C ne le serait certainement pas. » Dans la cartographie prospective 2026 de France Assureurs, le risque d’inassurabilité s’impose comme la préoccupation centrale de long terme, au côté du risque climatique et des enjeux liés à l’intelligence artificielle.
En effet, les phénomènes climatiques extrêmes gagnent en fréquence et intensité et tendent à devenir une nouvelle norme. Dans certains territoires, ces chocs poussent déjà des assureurs à se retirer – la Californie en a donné un aperçu avec les incendies qui ont ravagé l’État : pas moins de 100 000 Californiens ont perdu leur couverture entre 2019 et 2024.
En France, la Direction générale des entreprises (DGE) estime que « deux millions d’établissements seraient fortement exposés à une augmentation du risque de tempête ». Elle souligne que les tempêtes et les inondations touchent directement les actifs, tandis que les vagues de chaleur dégradent la productivité du travail.
Pour les entreprises, on distingue les risques physiques, aigus liés à des événements extrêmes, et chroniques, liés à des évolutions de long terme. Ces risques finissent par se traduire en risques financiers pour les entreprises – sur les actifs, les chaînes de valeur, les conditions de travail et, in fine, leur productivité.
Seuls 12 % des entreprises ont défini une stratégie d’adaptation
Selon l’Insee, la France comptait en 2021 159 000 petites et moyennes entreprises (PME) marchandes, non agricoles et non financières (hors microentreprises), représentant 4,3 millions de salariés. À l’échelle européenne, elles sont 23 millions, soit environ deux tiers des emplois.
Une gestion préventive des risques climatiques devient une nécessité, même si elle reste encore peu répandue – à l’exception de certains secteurs particulièrement exposés, comme l’agriculture. Dans ce secteur, le coût de l’adaptation est élevé (plus d’une dizaine de milliards d’euros d’investissements d’ici à 2050), mais demeure inférieur au coût de l’inaction.
À lire aussi : À la fin, qui prendra en charge le coût des assurances ?
Selon une enquête réalisée en 2024 par Bpifrance, « 68 % des dirigeants ne considèrent pas l’adaptation au changement climatique comme un enjeu majeur », seuls 12 % ont défini une stratégie d’adaptation et 57 % estiment que leur entreprise est aujourd’hui faiblement exposée aux aléas climatiques.
Trop peu d’entreprises disposent aujourd’hui de véritables plans de résilience, alors même que la résilience devrait devenir un « critère de décision stratégique ». Ce décalage tient à la nature même du risque : tant que l’impact financier n’est pas tangible – sur les actifs, l’activité ou la trésorerie –, il est difficile, pour un dirigeant, d’en mesurer l’ampleur et d’engager des mesures d’adaptation.
Les PME en première ligne
Les PME disposent rarement des mêmes marges de manœuvre que les grands groupes : moins de trésorerie pour absorber un choc, moins d’équipes vouées à la gestion des risques, et moins de poids pour négocier des conditions de couverture. Leur exposition est souvent très concrète, avec des dommages sur leurs bâtiments et leurs machines, des arrêts de production, des tensions logistiques et des effets domino chez les fournisseurs ou les clients.
Elles peuvent se retrouver insuffisamment couvertes – voire pas couvertes du tout – contre certains événements, tels que les inondations, les glissements de terrain, les submersions, les canicules. En 2025, 74 % des très petites entreprises (TPE) et des PME disposent d’une couverture inadaptée, soit environ 3,3 millions d’entreprises concernées.
À lire aussi : DAF et risques climatiques : pourquoi l’inaction devient le principal risque financier des entreprises
Parce que beaucoup de PME ne sont pas directement soumises aux obligations de reporting en durabilité comme la Directive relative à la publication d’informations en matière de durabilité (CSRD), le risque est de repousser la question. Pourtant, mesurer quelques informations clés – exposition, vulnérabilités, plans d’action – aide à piloter l’adaptation et à dialoguer avec les partenaires financiers, les assureurs et les grands donneurs d’ordre.
Assurance paramétrique
L’étude de Bpifrance rappelle que les dirigeants de PME et d’entreprises de taille intermédiaire (ETI) ont besoin d’être accompagnés. Dans ce contexte, les parties prenantes externes (banques, assureurs, grands donneurs d’ordre) intensifient leurs attentes, ce qui ouvre la voie à de nouveaux outils de conformité et à des évolutions stratégiques.
Pour un assureur, le risque renvoie à un événement dommageable, de survenance incertaine, qui devra être indemnisé. La Caisse centrale de réassurance (CCR) estime que « la hausse de la sinistralité du seul fait du climat serait comprise entre 27 % et 62 % en moyenne à horizon 2050 ». Certaines zones, plus exposées, connaissent déjà des difficultés d’accès à l’assurance.
Parmi les réponses possibles, l’assurance paramétrique – qui déclenche un paiement en fonction de paramètres météorologiques – constitue un levier intéressant de résilience climatique.
Le nouveau rôle des assureurs
C’est ici que l’assurance peut jouer un rôle décisif. Au-delà de l’indemnisation, elle peut contribuer à réduire les dommages en amont et à maintenir l’assurabilité du tissu économique. Trois pistes, déjà à l’œuvre dans certains marchés, méritent attention :
Inciter à la résilience : ajuster primes et franchises, offrir des bonus ou de meilleures conditions lorsque des mesures de prévention sont mises en place ;
Partager données et expertise : fournir cartographies, retours d’expérience et indicateurs pour aider les PME à comprendre leur exposition et agir ;
Proposer des services de prévention : diagnostics, recommandations opérationnelles et accompagnement vers des solutions adaptées, y compris l’assurance paramétrique.
L’efficacité de l’ensemble des solutions assurantielles face aux aléas climatiques suppose en effet une sensibilisation accrue des entreprises et… du public.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
13.04.2026 à 11:40
Entrepreneuriat : quand la science balaie les idées reçues sur les start-up, les savoir-être…
Texte intégral (1517 mots)
Incubateurs, subventions, formations à la créativité… les dispositifs de soutien à l’entrepreneuriat se multiplient en France. Ces solutions sont-elles vraiment efficaces ? Et si les « bonnes idées » pour stimuler l’entrepreneuriat freinaient en réalité l’innovation qu’elles prétendent pourtant encourager.
L’injonction à entreprendre n’a jamais été aussi forte. Pour dynamiser l’économie et transformer les territoires, la réponse des pouvoirs publics et des acteurs économiques semble invariablement être la même : « Plus d’accompagnement, plus d’incitations, plus de passion. » Pourtant, cette approche intuitive, souvent guidée par de bonnes intentions, se heurte parfois violemment à la réalité du terrain.
Dans l’imaginaire collectif comme dans les discours politiques, l’entrepreneuriat est souvent paré de vertus magiques. Il suffirait de libérer les énergies, de financer l’audace et de multiplier les structures d’accueil pour que l’innovation fleurisse. Mais les politiques publiques, tout comme les stratégies d’accompagnement, gagnent à être évaluées à l’aune de la recherche scientifique. C’est précisément la mission que s’est assignée le réseau R2E.
Alliance scientifique entre l’Université de Lorraine, l’Université de Strasbourg, l’Université de Reims Champagne-Ardenne, Neoma Business School et YSchools, ce collectif fédère plus de 230 chercheurs de différentes disciplines (gestion, économie, sciences politiques), avec l’objectif de faire émerger un « entrepreneuriat par la preuve » (evidence-based entrepreneurship). Par ricochet, il s’agit aussi de mettre en lumière des phénomènes contre-intuitifs qui remettent en question bien des certitudes.
À lire aussi : Y a-t-il une part d’inconscient dans l’entrepreneuriat ?
Trop de soutien tue le soutien ?
L’une des premières pierres d’achoppement identifiées par les travaux récents concerne l’architecture même de l’écosystème entrepreneurial. Pour stimuler l’entrepreneuriat et la création d’entreprises, les dispositifs se sont multipliés, sans réflexion sur l’efficacité globale de ces multiples dispositifs, allant des incubateurs aux accélérateurs et autres guichets uniques, subventions régionales, aides nationales…
Or, l’analyse de terrain révèle un effet pervers de cette générosité publique, provoquant un effet « millefeuille ». La sédimentation des dispositifs crée un environnement illisible. Au lieu de se sentir soutenus, les porteurs de projet se retrouvent aux prises avec une complexité administrative chronophage. Le temps passé à décrypter les critères d’éligibilité ou à naviguer entre des injonctions parfois contradictoires est du temps soustrait au développement du produit ou à la recherche de partenaires ou de clients.
La recherche montre ainsi que, au-delà d’un certain seuil, l’abondance de soutiens désorganisés devient un frein. Il convient de sortir de la logique administrative (remplir des dossiers de subvention), pour favoriser le développement de l’activité de l’entrepreneur. En effet, les différentes structures d’accompagnement doivent rendre des comptes à leurs financeurs créant un effet de justification en cascade. La recommandation qui émerge en est claire : l’efficacité des politiques publiques ne réside pas dans le volume des aides, mais dans leur coordination et leur simplicité. Dit autrement : « Trop de soutien tue le soutien. »
L’illusion des « soft skills »
Les études récentes s’attachent également à déconstruire le portrait-robot de l’entrepreneur idéal, souvent romancé par les médias. On nous présente la figure de l’entrepreneur visionnaire, mû par une passion dévorante et des soft skills relationnels hors normes. On imagine volontiers que c’est l’envie de « changer le monde » (purpose-driven action) qui constitue le moteur principal, notamment chez les jeunes générations.
Pourtant, les données racontent une histoire plus pragmatique. Si la passion est une étincelle, elle ne suffit pas à alimenter le moteur sur la durée. Les travaux empiriques soulignent que l’intention entrepreneuriale se transforme en action concrète principalement grâce à la maîtrise de compétences techniques et financières. Comprendre un business plan, anticiper des besoins de trésorerie ou évaluer un seuil de rentabilité sont des facteurs bien plus déterminants pour « passer le cap » que la seule audace créative.
Pourquoi ? Parce que la compétence financière réduit l’incertitude. Elle transforme une peur irrationnelle de l’échec en un risque calculé et gérable. En survalorisant le discours fondé sur les inspirations au détriment des hard skills de gestion, les formations risquent de passer à côté de l’essentiel. De même, les motivations des jeunes entrepreneurs restent, dans la réalité, fortement ancrées dans des logiques économiques et personnelles, bien loin de l’image d’Épinal d’une génération purement altruiste et naturellement talentueuse.
Se lancer plutôt que se (sur)informer
Ce besoin de compétences tangibles se heurte à un autre phénomène contemporain, le « paradoxe de l’abondance informationnelle ». À l’ère du numérique, les jeunes entrepreneurs ont accès à une quantité illimitée de données : benchmarks, études de marché en ligne, retours d’expérience sur les réseaux sociaux…
L’intuition voudrait que plus on est informé, meilleure sera la décision. Cela ne reflète pas vraiment la réalité du terrain, puisque de l’abondance à la surcharge il n’y a qu’un pas et que cette surcharge tend à paralyser l’action. Les jeunes entrepreneurs surinvestissent la phase de recherche, cherchant la réponse parfaite ou la réassurance absolue dans les données, retardant la confrontation au terrain.
Là où l’entrepreneuriat exige de l’expérimentation et de l’agilité, l’infobésité crée de l’inertie. Apprendre à filtrer et à limiter l’information devient dès lors une compétence critique à enseigner.
La reprise d’entreprise, une voie à creuser
Enfin, l’approche scientifique permet de réévaluer des modèles souvent jugés moins « sexy » que la start-up technologique, comme la reprise d’entreprise. Souvent perçue comme risquée ou réservée à des profils seniors, la reprise souffre d’un déficit d’image.
Pourtant, les crises successives ont agi comme des révélateurs. Les entrepreneurs ayant vécu une reprise d’entreprise démontrent une résilience supérieure en période de turbulences. Avoir dû s’adapter à une structure existante, comprendre sa culture et la transformer sans la briser constituent tous trois un apprentissage inestimable. La crise ne fait souvent que renforcer ces mécanismes d’adaptation.
Le danger de l’isolement
De plus, l’idée que la reprise est intrinsèquement risquée est contestée par les faits. Ce n’est pas l’opération qui est dangereuse, c’est l’isolement du repreneur. Les dirigeants en sont d’ailleurs pleinement conscients. Selon le sondage ELABE (2023) « Les dirigeants et la cession-transmission d’entreprise », 91 % d’entre eux estiment qu’il est important d’être accompagné par des tiers dans ce type de démarche. La reprise encadrée présente ainsi des taux de pérennité remarquables.
Il y a là un gisement de croissance et de sauvegarde de l’emploi que les politiques territoriales gagneraient à prioriser, plutôt que de tout miser sur la création ex nihilo.
Éclairer les décideurs, ce n’est pas seulement valider leurs choix, c’est parfois, et cela est salutaire, challenger les idées reçues pour éviter le gaspillage de ressources publiques. Pour transformer nos territoires, l’entrepreneuriat ne doit plus être seulement une incantation, mais une science de l’action, lucide et ancrée dans les réalités complexes de la société.
Ce texte a été rédigé avec Élisa Mathieu, ingénieur d’études, membre de R2E.
Christophe Schmitt est membre de R2E (Recherche et Expertise en Entrepreneuriat). Il a reçu des financements de l’Union Européenne dans le cadre du Programme opérationnel FEDER et de la Région Grand Est.
13.04.2026 à 11:40
L’histoire de notre petite enfance peut avoir un impact concret dans nos relations au travail
Texte intégral (1295 mots)

En entreprise, tous les salariés ont des réactions différentes. Sécure, anxieux ou évitant, ces styles de relation, remontant à la petite enfance, peuvent se réactiver au travail. Comment mieux comprendre cette psychologie de l’attachement pour accompagner la santé mentale en entreprise (et prévenir les burn out) ?
La détresse psychologique en entreprise ne résulte pas seulement d’une surcharge de travail ou d’un manque de ressources. Elle se construit dans les interactions quotidiennes. Un feed-back peut être vécu comme une remise en cause. Un silence peut être interprété comme un rejet.
Le Baromètre 2026 de la santé mentale au travail indique que 22 % des salariés français se déclarent en mauvaise santé mentale, contre 26 % en 2025. Cette amélioration reste fragile. Près de six millions de personnes vivent encore une détresse psychologique durable, associée à une baisse de l’engagement et à une dégradation de la coopération au travail.
Face à ces constats, les entreprises ont multiplié les dispositifs de prévention. Par exemple, elles déploient des cellules d’écoute, des formations aux risques psychosociaux et des plateformes d’accompagnement. Ces outils sont nécessaires, mais ils interviennent souvent lorsque les difficultés sont déjà installées. Ils permettent d’identifier des symptômes individuels sans toujours agir sur les mécanismes qui les produisent.
La santé mentale au travail dépend en grande partie de la manière dont les individus interprètent et régulent leurs émotions. La psychologie de l’attachement, initialement développée par le psychanalyste John Bowlby en 1958, permet d’éclairer ces mécanismes. Cette théorie postule que tout individu a besoin d’une relation d’attachement avec au moins une personne qui prend soin de lui, un caregiver, notamment dans la petite enfance. Cette relation est censée procurer un sentiment de sécurité. Elle conduit à la construction de modèles internes qui orientent la perception de soi, des autres et des situations sociales.
Nos travaux menés dans le cadre du projet de l’Agence nationale de la recherche ATTACHED montrent que ces modèles ne disparaissent pas à l’âge adulte. Ils se réactivent dans les situations professionnelles, en particulier lorsque les individus sont confrontés à de l’incertitude ou à des tensions, comme nous l’avons étudié avec Ange Abalé en 2025.
Sécurisant, anxieux ou évitant
La littérature distingue trois grandes tendances d’attachement, également observées dans nos recherches en milieu professionnel.
Un style sécure favorise la confiance en soi et en autrui. Le désaccord peut alors être discuté sans être vécu comme une menace identitaire. Cette posture facilite des échanges ouverts et soutient la coopération.
Un style anxieux se traduit par une hypersensibilité aux signaux sociaux. Une remarque peut rapidement être perçue comme une critique. Cette hypervigilance favorise la rumination et le stress.
Un style évitant conduit à minimiser l’importance des émotions et de la dépendance mutuelle. Face à la tension, la stratégie consiste souvent à se distancier ou à rationaliser, ce qui peut freiner l’expression des difficultés et retarder leur résolution.
À lire aussi : La prévention, la clé pour protéger la santé mentale au travail
Ces tendances ne constituent pas des profils figés : elles varient selon les contextes organisationnels. Leur intérêt réside dans leur capacité à rendre visibles ces mécanismes implicites qui influencent la manière dont les contraintes du travail sont vécues.
Régulation émotionnelle au travail
Identifier ces mécanismes ouvre des leviers d’action. Lorsqu’un salarié comprend que son agitation face à un feed-back s’inscrit dans un mode d’interprétation particulier, il peut ajuster sa réponse. Lorsqu’un manager identifie sa tendance à se distancier dans le désaccord, il peut apprendre à maintenir le lien sans éviter la discussion. La prévention ne se limite ainsi plus à une logique corrective. Elle devient un travail sur la qualité des interactions.
Certaines entreprises cherchent à intégrer cette dimension relationnelle dans leurs dispositifs de prévention. C’est le cas d’ENGIE qui a mis en place un réseau de « capteurs terrain ». Leur rôle consiste à repérer des signaux faibles, comme une fatigue inhabituelle, un retrait relationnel ou des variations d’humeur, puis à engager un échange avec le salarié concerné.
Ces acteurs de proximité n’ont pas vocation à traiter directement les situations identifiées. Leur fonction est d’écouter, de créer un premier espace de dialogue et d’orienter vers les ressources appropriées (médecine du travail, ressources humaines, accompagnement psychologique), avec l’accord du salarié. Cette approche repose sur une logique de détection précoce et de responsabilisation collective, en s’appuyant sur les interactions quotidiennes de travail.
Transformer les relations au travail
La détresse psychologique ne se comprend pas uniquement à l’échelle individuelle. Elle se construit dans des situations de travail concrètes, au croisement des contraintes, des interactions et des modes d’organisation.
Transformer les relations au travail suppose alors de déplacer le regard. Il ne s’agit plus seulement d’accompagner des individus en difficulté, mais d’agir sur ce qui structure leurs échanges au quotidien : la manière de coopérer, de donner du feed-back ou de gérer les désaccords.
Cette évolution se manifeste aussi à l’échelle nationale. Par exemple, la Charte d’engagement pour la santé mentale au travail, lancée en 2025, a déjà été signée par plus de 170 entreprises. Elle mobilise notamment plusieurs leviers : former les managers et développer le dialogue social sur la santé psychologique au travail, améliorer en continu la qualité de vie et des conditions de travail (QVCT). Elle invite ainsi à intégrer les conditions relationnelles.
Les expériences de notre petite enfance façonnent encore nos relations au travail. Les comprendre permet de nourrir des échanges plus fluides, une coopération plus solide et une meilleure gestion du stress.
Ludivine Adla a reçu des financements de l'Agence nationale de la recherche.
13.04.2026 à 11:40
Entre paillettes et éthique : l’influence responsable est-elle un mirage ?
Texte intégral (1807 mots)
Entre modèles inspirants et panneaux publicitaires ambulants, les influenceurs suscitent autant d’admiration que de rejet. Malgré son essor fulgurant et son attrait pour les marques, le marketing d’influence et les dérives éthiques qui y sont associées interrogent. Dans ce contexte, l’émergence d’une influence responsable est-elle possible ?
L’intensification récente des conflits armés au Moyen-Orient a vu Dubaï devenir le théâtre de scènes d’agitation : traversées de missiles, incendies, détonations… De quoi faire naître la peur chez les habitants de la ville parmi lesquels des influenceurs expatriés. Ces stars des réseaux sociaux, qui jusqu’ici vantaient les mérites de Dubaï qu’ils considéraient comme un havre de paix, ont, dans les premières heures du conflit, exprimé leur peur et sollicité l’aide de la France et des services de l’État, avant d’adopter une attitude plus discrète, rigueur de la loi locale oblige.
Mais sur la toile, ces prises de parole ont suscité une vague de moqueries. Cette mésestime s’est muée en indignation lorsque certains, pressés de regagner la France, n’ont pas hésité à abandonner sur place leurs animaux de compagnie, pourtant mis en scène quotidiennement comme des accessoires de leur « lifestyle ». Ces comportements, dans un contexte tragique, viennent cristalliser une défiance générale déjà latente nourrie par les nombreuses dérives éthiques qui ont entaché le marketing d’influence ces dernières années.
À lire aussi : Pourquoi il fallait encadrer davantage la publicité faite par les influenceurs
Des dérives commerciales
Les influenceurs sont des relais entre le public et les marques grâce à diverses pratiques telles que le placement de produit souvent accompagné du partage des fameux « codes promo ». De ces pratiques a émergé une remise en cause de l’ensemble du secteur. Les influenceurs ont largement été critiqués pour leur manque de transparence et d’authenticité, pour le doute que certains laissent planer quant au caractère commercial des contenus qu’ils diffusent.
Outre la forme, c’est également le fond de leurs contenus qui suscite des interrogations. Dropshipping (traduit par « livraison directe », il s’agit d’un modèle de distribution consistant à vendre en ligne des produits sans avoir à les stocker ou à les expédier soi-même), promotion de produits inefficaces voire dangereux, de contrefaçon, de formations douteuses, d’arnaques financières, de chirurgie esthétique, telles sont les accusations dont ont fait (et font parfois encore) l’objet certains influenceurs donnant naissance au terme « influvoleur » popularisé par le rappeur Booba.
De façon plus générale, le modèle de l’influence commerciale génère d’importants risques de manipulation et d’exploitation des vulnérabilités des consommateurs, en particulier des jeunes.
Une structuration progressive
Face à l’ampleur des dérives, les instances de régulation ont réagi en particulier avec l’entrée en vigueur de la loi n°2023-451 du 9 juin 2023. Il s’est agi d’établir des définitions légales, d’interdire la promotion de certains produits et d’accroître les contrôles. L’Autorité de régulation professionnelle de la publicité (ARPP) occupe également un rôle clé dans la responsabilisation des acteurs de l’influence grâce à sa formation pour l’obtention du Certificat de l’influence commerciale responsable ou bien encore à l’Observatoire de l’influence responsable.
Bien que les pratiques abusives soient davantage sanctionnées et que le nombre de dérives semble diminuer, l’image des influenceurs reste entachée. Et c’est notamment la présence de nombreux influenceurs français à Dubaï qui cristallise les critiques. La ville est devenue un véritable hub pour ces personnalités parfois fortunées, notamment en raison de ses conditions fiscales avantageuses.
Pour le grand public, ce choix est difficile à accepter : des influenceurs qui s’adressent à des communautés résidant en France choisissent de s’installer à l’étranger pour des raisons fiscales. Dans ce contexte, après avoir publié un tweet moqueur, le youtubeur Tibo InShape a déclaré :
« Aujourd’hui le but, c’est de dénoncer l’hypocrisie des influenceurs qui sont à Dubaï, qui fuient les impôts, qui fuient, pour certains, la justice française. Je ne parle pas de tous les influenceurs, mais je parle de ceux qu’on appelle “influvoleurs” qui arnaquent les Français. »
Certains ironisent alors en rappelant aux influenceurs qu’un retour en France pourrait être synonyme de contrôle fiscal immédiat et diffusent des images représentant des gardes-frontières à l’aéroport tenant un panneau sur lequel il est inscrit « À tous les influenceurs et autres exilés fiscaux à Dubaï, l’administration fiscale vous souhaite un bon retour en France ».
Des enjeux éthiques
Le phénomène du marketing d’influence s’inscrit ainsi dans un paysage complexe et évolutif marqué par la nécessité d’en appréhender les enjeux éthiques. C’est notamment ce que nous avons étudié dans notre article « Vers une influence responsable ? Perception des produits à forte charge éthique et vulnérabilité des cibles », dans lequel nous avons introduit la notion de « responsabilité sociale de l’influenceur » (RSI). Cette responsabilité est notamment liée aux choix relatifs aux produits promus à travers les contenus diffusés, la prise en compte de la vulnérabilité des cibles ainsi que l’exigence de transparence quant à la nature commerciale des contenus et des partenariats établis avec les marques.
Malgré une amélioration progressive des pratiques, la situation actuelle montre qu’il y a encore du chemin à parcourir avant de parvenir à rendre l’influence commerciale véritablement responsable. Le rapport parlementaire, déposé en janvier 2026 par Arthur Delaporte et Stéphane Vojetta, souligne notamment la nécessité de continuer de tenter d’améliorer l’encadrement du secteur afin de protéger au mieux les consommateurs.
Cette dynamique de responsabilisation ne repose pas uniquement sur l’action des pouvoirs publics : plusieurs collectifs se forment pour encourager à l’amélioration des pratiques d’influence. C’est notamment le cas de Paye ton Influence. Piloté par Amélie Deloche (@amelie.dlch), ce collectif s’est donné pour mission de dénoncer les pratiques incompatibles avec les limites planétaires et en appelant à une transformation profonde du secteur.
Changer de l’intérieur
Certains influenceurs tentent également de faire évoluer le secteur de l’intérieur. C’est par exemple le cas de Charlotte Lemay (@chamellow), mannequin et influenceuse qui prône une influence à la fois consciente et écoresponsable. Elle est présidente de l’association à but non lucratif Aware Collective qui a pour but de sensibiliser les influenceurs aux pratiques écoresponsables et est co-autrice de l’ouvrage Influenceur·se engagé·e.
De façon générale, de plus en plus d’influenceurs (tels que @girl_go_green, @iznowgood ou @mylittlewayoflife) semblent vouloir s’inscrire dans cet objectif de responsabilisation du secteur, que ce soit en militant pour des causes sociales et environnementales ou en tentant d’adopter des pratiques animées par l’éthique, la transparence et l’authenticité. Cela peut se traduire par la proposition d’alternatives aux marques de fast-fashion, la promotion de marques locales et engagées ou bien encore l’incitation à consommer moins.
In fine, si le monde de l’influence tente de sortir de son « Far West » pour devenir une industrie plus responsable, le chantier reste immense. La plupart des rapatriés que nous évoquions au début de cet article reprendront dès qu’ils en auront l’occasion le chemin du mirage doré de Dubaï et de ses promesses fiscales au détriment de la solidarité et du respect du vivant. La véritable influence responsable ne se décrète pas dans un texte de loi, elle se prouve chaque jour par des actes qui se passent de filtres.
Charlène Carreteiro ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.04.2026 à 17:07
Comment éduquer à la transition écologique en dépassant la culpabilisation ?
Texte intégral (1617 mots)
Nos difficultés à passer à l’action en matière de transition écologique ne seraient pas tant liées à des biais cognitifs qu’à des freins émotionnels. Des émotions, telles que la peur ou la culpabilité, sont stériles, mais elles peuvent laisser la place à l’espoir de faire changer les choses. Tout du moins, à certaines conditions.
Nous n’avons jamais autant parlé de climat, de biodiversité et de transition écologique. Dans les universités, les écoles et les formations professionnelles, les contenus se multiplient. Les chiffres sont là, les diagnostics sont connus, l’urgence est largement documentée. Et pourtant, une question persiste : pourquoi savons-nous autant sans agir davantage ?
Ce décalage entre connaissances et action est aujourd’hui bien identifié. Il est souvent présenté comme un problème d’information, de volonté individuelle ou de contraintes matérielles. Mais les résultats récents de notre recherche suggèrent une autre lecture : le principal frein à l’action écologique ne serait pas cognitif mais émotionnel.
À lire aussi : La faute de nos biais cognitifs, vraiment ? Comment cette notion fabrique l’inaction écologique
Quand l’éducation à l’écologie fatigue
Dans de nombreux dispositifs éducatifs actuels, la transition écologique est abordée à travers des messages alarmants : effondrement des écosystèmes, extinction des espèces, urgence climatique. Ces discours sont scientifiquement fondés, mais leurs effets psychologiques sont rarement interrogés.
Chez les étudiants comme chez les apprenants adultes, ces messages suscitent fréquemment de la culpabilité, de la peur, voire un sentiment d’impuissance. L’individu se sent responsable d’un problème qui le dépasse. Ces émotions traduisent moins un manque de sensibilité qu’une forte conscience morale des enjeux environnementaux.
Mais lorsqu’elles s’accumulent sans accompagnement, elles peuvent devenir paralysantes. À terme, cette surcharge émotionnelle peut conduire non pas à l’engagement, mais au retrait :
« À quoi bon agir, si tout est déjà perdu ? »
Ce phénomène est aujourd’hui largement discuté sous le terme d’écoanxiété. Pourtant, il reste peu intégré dans la conception des programmes éducatifs. L’éducation à la durabilité continue souvent de miser sur l’accumulation de connaissances, en supposant que la prise de conscience suffira à déclencher le changement.
À lire aussi : L’éco-anxiété : une réponse saine face à la crise climatique
L’émotion comme point de bascule
Notre recherche menée auprès d’étudiants ayant participé à un programme intensif de formation à la durabilité met en lumière un mécanisme clé : ce ne sont pas les connaissances en elles-mêmes qui déclenchent l’action, mais la manière dont les émotions associées à ces connaissances évoluent dans le temps.
Au début du programme, la majorité des participants exprimaient une forme de lassitude ou de résistance. Les enjeux environnementaux leur semblaient omniprésents, mais abstraits, culpabilisants, voire décourageants. Certains parlaient de « bruit de fond », d’autres d’un sentiment de fatalité.
Puis, progressivement, quelque chose a changé. Non pas parce que les messages étaient devenus moins sérieux, mais parce qu’ils étaient plus incarnés, misant davantage sur les volets relationnel et participatif. Les émotions négatives ne s’effacent pas, elles évoluent. La peur et la culpabilité peuvent progressivement céder la place à la curiosité, puis à une forme d’espoir, avant de se traduire par un sentiment d’utilité personnelle.
Des travaux récents en psychologie montrent que cet espoir, lorsqu’il est étroitement associé à des actions concrètes et collectives, favorise un engagement plus soutenu face au changement climatique. Cette perspective invite ainsi à dépasser une conception réductrice des émotions, souvent envisagées uniquement comme des freins à l’action.
À lire aussi : Comment mobiliser les émotions pour inciter à agir en faveur du climat ?
Les limites de la pédagogie du choc
Ce basculement émotionnel constitue un tournant décisif. Lorsque les apprenants cessent de se percevoir uniquement comme des responsables coupables et commencent à se voir comme des acteurs capables d’agir, même à leur échelle, le passage à l’action devient possible. Ce sentiment de capacité d’agir – largement étudié sous le concept d’auto-efficacité – joue un rôle central dans la mise en mouvement et la persistance de l’engagement.
Nos résultats invitent à interroger en profondeur la manière dont nous enseignons la transition écologique. Pendant longtemps, la pédagogie environnementale a reposé sur une logique de choc : montrer l’ampleur des dégâts pour provoquer une prise de conscience. Or, cette stratégie atteint aujourd’hui ses limites.
La répétition de messages anxiogènes peut engendrer de la saturation informationnelle, une forme de déni défensif ou encore un désengagement émotionnel.
À l’inverse, les dispositifs éducatifs qui favorisent l’expérimentation, la coopération et la co-construction produisent des effets très différents. Dans l’étude, les moments les plus transformateurs ne sont pas les conférences magistrales, mais les ateliers collaboratifs, les projets concrets et les échanges avec des acteurs engagés.
Ces formats permettent aux apprenants de vivre la transition écologique non plus comme une menace abstraite, mais un espace d’action collective, où l’engagement est partagé et socialement reconnu.
Un sentiment d’utilité sociale
Un résultat particulièrement marquant de notre recherche concerne le rôle des émotions dites « positives », comme l’espoir, la fierté ou le sentiment de contribution. Contrairement à une idée répandue, ces émotions ne minimisent pas la gravité des enjeux. Elles permettent au contraire de rendre l’action psychologiquement soutenable dans la durée.
L’engagement devient plus stable et plus durable quand :
les apprenants constatent que leurs actions, même modestes, ont du sens ;
ils se sentent reconnus dans leur capacité à agir ;
ils participent à la conception de solutions concrètes.
Cet engagement s’inscrit alors dans des dynamiques collectives qui renforcent le sentiment d’utilité sociale.
Dans ces conditions, les comportements écologiques cessent d’être perçus comme des contraintes imposées de l’extérieur. Ils s’intègrent progressivement aux routines quotidiennes et peuvent même être transmis à l’entourage.
Une transition écologiquement et psychologiquement soutenable
Ces constats ont des implications majeures pour l’éducation, la formation et les politiques publiques.
Informer ne suffit pas. Les dispositifs éducatifs doivent être conçus comme de véritables parcours émotionnels, et non comme de simples transferts de connaissances.
Il est essentiel de diversifier les formats pédagogiques : hackathons, living labs, projets collectifs, simulations, mises en situation réelle. Ces formats favorisent l’appropriation et renforcent le sentiment de capacité d’agir.
Enfin, la transition écologique ne peut être enseignée uniquement par des discours institutionnels. Les apprenants accordent une grande importance à la crédibilité et à la sincérité des intervenants : entrepreneurs engagés, enseignants impliqués, pairs mobilisés. La confiance joue ici un rôle central.
Face à l’urgence environnementale, la tentation est forte d’intensifier les messages alarmants. Mais si l’objectif est une mutation durable des comportements, il est temps de changer de paradigme.
La transition écologique ne se gagnera pas par la culpabilité seule. Elle nécessite une éducation capable de transformer l’angoisse en engagement et la peur en capacité d’agir, et ne se résume pas à transmettre des savoirs. Elle implique d’accompagner une trajectoire émotionnelle, de l’inquiétude à l’appropriation, sans laquelle aucune transition ne peut réellement s’ancrer dans les pratiques.
Rien à déclarer
Catherine Lejealle, Insaf Khelladi, Rémi Beulque et Saeedeh Rezaee Vessal ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
12.04.2026 à 16:59
Pourquoi la souffrance psychique des jeunes n’est pas une affaire individuelle
Texte intégral (2049 mots)
Symptômes anxiodépressifs, idées suicidaires… les données scientifiques s’accumulent pour confirmer que les causes de la souffrance psychique qui affecte de nombreux jeunes sont à rechercher davantage du côté de déterminants sociaux et de mutations qui bouleversent notre époque – à commencer par les réseaux sociaux auxquels les adolescent·es sont particulièrement vulnérables – que des facteurs individuels.
Anxiété massive, épisodes dépressifs précoces, crises de panique, sentiment d’irréalité, fatigue chronique, idées suicidaires… la détresse psychique d’une partie croissante de la jeunesse n’est plus un phénomène marginal. Au niveau mondial, elle s’impose aujourd’hui comme un fait social majeur, documenté par la clinique comme par l’épidémiologie.
Pourtant, les réponses apportées continuent de cibler prioritairement les individus, comme si le problème relevait avant tout d’une fragilité personnelle. Cette lecture est non seulement insuffisante : elle est erronée.
Dans Génération à vif, je défends une thèse simple mais dérangeante : le malaise psychique des jeunes est un indicateur sensible des transformations systémiques de nos sociétés. Il ne dit pas tant quelque chose de leur faiblesse que de l’environnement dans lequel ils grandissent, se construisent et tentent de se projeter.
Des indicateurs qui ne trompent plus
Les données sont désormais convergentes. En France, selon Santé publique France, 9,5 % des adolescents de 17 ans présentent des symptômes anxiodépressifs sévères, contre 4,5 % en 2017. Près d’un jeune sur cinq rapporte des pensées suicidaires au cours de l’année écoulée, avec une vulnérabilité particulièrement marquée chez les jeunes femmes.
Selon l’Organisation mondiale de la santé (OMS), un adolescent sur sept âgé de 10 à 19 ans présente un trouble mental, et le suicide constitue la troisième cause de décès chez les 15-29 ans. Ces données ne peuvent être réduites à un simple effet de dépistage ni à une supposée « fragilisation générationnelle ». Elles signalent l’ampleur réelle du fardeau psychique qui affecte aujourd’hui les jeunes.
L’erreur classique : psychologiser ce qui est structurel
Face à ces constats, le réflexe dominant consiste à invoquer la vulnérabilité individuelle, le déficit de compétences émotionnelles ou l’hypersensibilité. Or la recherche en santé mentale montre depuis longtemps que les troubles anxieux et dépressifs sont étroitement liés aux déterminants sociaux : précarité économique, instabilité des parcours, insécurité professionnelle, isolement relationnel, pression normative et inégalités d’accès aux ressources.
Plusieurs travaux internationaux soulignent que l’augmentation des troubles internalisés chez les adolescents et les jeunes adultes est indissociable de la montée de l’incertitude structurelle et de l’accélération sociale. Autrement dit, ce n’est pas la jeunesse qui a changé seule ; c’est le monde qui lui est proposé. Continuer à pathologiser les individus sans interroger ce cadre revient à déplacer le problème, non à le résoudre.
Grandir dans un monde instable
L’adolescence et l’entrée dans l’âge adulte ont toujours été des périodes de remaniement identitaire. Ce qui est plus nouveau, en revanche, c’est le contexte dans lequel ces transitions s’opèrent. Les jeunes d’aujourd’hui se construisent dans des sociétés où les repères qui balisaient autrefois plus nettement l’accès à la vie adulte se sont affaiblis. La fin des études ne débouche plus automatiquement sur un emploi stable, l’insertion professionnelle est plus souvent marquée par les contrats temporaires, les allers-retours entre formation, emploi et chômage se multiplient, et l’accès à l’autonomie résidentielle devient plus difficile.
À l’échelle européenne, la discontinuité des trajectoires juvéniles n’a rien d’une abstraction. 31,1 % des salariés de 15 à 29 ans occupaient un emploi temporaire dans l’Union européenne, tandis que 11,0 % des jeunes de cette tranche d’âge n’étaient ni en emploi, ni en études, ni en formation. Autrement dit, une part importante de l’entrée dans l’âge adulte se joue désormais soit dans l’instabilité, soit dans l’interruption, ce qui dit bien combien les seuils biographiques autrefois plus lisibles sont devenus plus fragiles et plus incertains.
Dans ce contexte, la difficulté à se projeter dans un avenir lisible ne relève pas d’un manque individuel de maturité. Elle traduit aussi une transformation objective des conditions d’existence. Quand le travail est plus précaire, le logement plus difficile d’accès, et l’avenir socialement moins prévisible, il devient plus compliqué de relier le présent à un futur désirable.
Or, on ne se construit pas psychiquement de la même manière quand l’avenir ressemble à une promesse que lorsqu’il ressemble à une énigme.
Réseaux sociaux et comparaison permanente
À cette instabilité structurelle s’ajoute une transformation profonde du rapport à soi et aux autres liée aux usages numériques. Les effets des réseaux sociaux dépendent moins du temps passé en ligne que de ce qui s’y joue réellement : se comparer, se montrer, se mettre en scène, attendre des signes d’approbation, subir des interactions hostiles ou, parfois, trouver du soutien et de l’authenticité. En ce sens, les réseaux sociaux ne constituent pas une cause simple et univoque ; ils forment plutôt un nouvel environnement relationnel et identitaire, capable d’amplifier certaines vulnérabilités propres à l’adolescence.
Or, lorsque cet environnement organise la vie sociale autour de la visibilité, de la comparaison et de la validation externe, il peut peser lourdement sur l’image de soi. La littérature scientifique met ainsi en évidence des liens entre usages intensifs ou problématiques des réseaux sociaux, diminution de l’estime de soi, insatisfaction corporelle, symptômes anxieux et manifestations dépressives, avec une vulnérabilité particulièrement marquée chez les adolescentes.
À lire aussi : Santé mentale des adolescents : les réseaux sociaux amplifient les troubles observés hors ligne, en particulier chez les filles
Sur le plan psychique, cette dynamique peut favoriser la construction d’un « faux self », au sens winnicottien. Une identité de présentation, progressivement façonnée pour répondre aux attentes perçues, capter l’approbation et éviter la disqualification, parfois au prix d’un éloignement croissant d’avec l’expérience subjective authentique. Lorsque la valeur de soi se trouve ainsi suspendue au regard d’autrui, l’ajustement au monde ne se fait plus à partir d’un sentiment interne de continuité, mais à partir d’une surface à maintenir. Il peut alors se creuser un écart entre ce que le sujet vit, ce qu’il ressent et ce qu’il donne à voir. Cet écart ouvre un espace de tension psychique majeur, pouvant aller, chez certains sujets plus vulnérables, jusqu’à des expériences de dépersonnalisation, de désancrage de soi ou de fonctionnement dissociatif.
La souffrance qui en résulte n’est pas un défaut individuel, elle est le produit d’un environnement qui rend l’authenticité coûteuse et la vulnérabilité risquée.
Quand le malaise s’inscrit dans les corps
Un autre aspect souvent sous-estimé concerne la dimension corporelle de cette détresse. Fatigue chronique, troubles du sommeil, douleurs diffuses, dérégulations émotionnelles sont fréquents chez les jeunes en souffrance psychique. Les avancées en psychoneuro-immunologie montrent que le stress chronique, lorsqu’il est durable et imprévisible, active les systèmes neurobiologiques de l’alerte et favorise des états inflammatoires associés à la dépression et à l’anxiété.
Cette inflammation n’est pas un simple bruit de fond biologique : elle interfère avec les circuits de l’humeur, de la motivation, de la vigilance et de la régulation émotionnelle. Elle contribue ainsi à faire de la détresse psychique une expérience à la fois psychologique et somatique, où l’anxiété, l’abattement ou l’hyperréactivité coexistent avec la fatigue, les troubles du sommeil, les douleurs diffuses et le sentiment d’un corps devenu lui-même difficile à habiter.
Chez les adolescents et les jeunes adultes, dont les systèmes cérébraux sont encore en maturation, cette exposition prolongée à l’insécurité et à la pression sociale peut avoir des effets durables, en particulier sur les circuits de l’alerte, de l’humeur, du sommeil et de la régulation émotionnelle. Là encore, il ne s’agit pas de « somatisation », mais d’une inscription biologique du social. Les corps parlent lorsque les environnements ne permettent plus de symboliser autrement.
Des réponses encore trop étroites
Face à cette situation, l’augmentation de l’offre de soins psychologiques est nécessaire, mais insuffisante. En renvoyant prioritairement les jeunes vers des prises en charge individuelles, on entretient l’idée implicite que le problème leur appartient. Or l’OMS insiste sur le fait que les politiques efficaces en matière de santé mentale des jeunes doivent articuler prévention, réduction des inégalités, politiques éducatives, conditions de travail et cohésion sociale.
Autrement dit, soigner sans transformer les contextes revient à réparer sans cesse les mêmes fissures. La santé mentale des jeunes ne peut être pensée indépendamment des choix collectifs en matière d’éducation, d’emploi, de protection sociale et d’organisation du temps de vie.
Ce que la souffrance des jeunes nous oblige à regarder
La souffrance psychique des jeunes est un symptôme collectif. Elle révèle un monde qui exige autonomie, performance et adaptabilité, tout en offrant de moins en moins de stabilité, de sécurité symbolique et de récits communs. Elle interroge notre rapport au temps, à la réussite, à l’échec et à la vulnérabilité.
Plutôt que de s’inquiéter d’une jeunesse prétendument fragile, il serait plus juste de s’interroger sur la fragilité de nos structures sociales. Écouter ce que le malaise des jeunes dit de nos choix collectifs n’est pas un exercice de compassion, c’est une nécessité politique et sociale. Parce que ce qui se joue ici n’est pas seulement une crise générationnelle, mais la capacité de nos sociétés à offrir un avenir psychiquement habitable.
Cyril Tarquinio ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.04.2026 à 16:59
Extension du plaider-coupable : une procédure pénale plus efficace ?
Texte intégral (1778 mots)
La réforme de la procédure pénale voulue par le garde des Sceaux Gérald Darmanin est examinée à partir du 13 avril au Sénat. De nombreux avocats et magistrats s’opposent à l’extension du plaider-coupable et dénoncent une justice expéditive, alors que le ministre prétend désengorger les tribunaux.
Alors que l’idéologie sécuritaire qui structure le débat public en matière de politique criminelle garantit ordinairement une relative indifférence à l’adoption des lois les plus répressives, le projet de réforme de la procédure de jugement des crimes porté par le gouvernement rencontre, avant même son examen par le Parlement, une large opposition au sein des milieux judiciaires. Portée par la très large majorité des avocats et par certaines organisations syndicales de magistrats, la fronde se focalise en particulier sur l’extension aux crimes de la procédure de comparution sur reconnaissance préalable de culpabilité (CRPC) introduite en 2004 – malgré, déjà, une très forte opposition.
Une procédure qui, fondée sur l’aveu de culpabilité de la personne poursuivie, substitue une simple audience d’homologation à une audience durant laquelle l’ensemble des éléments du dossier sont discutés contradictoirement par l’ensemble des parties. Le juge est alors appelé à valider – ou non – l’accord formalisé entre le ministère public et l’accusé s’agissant de la peine qui sera exécutée.
Certes, il est prévu que la CRPC criminelle ne puisse être mise en œuvre sans l’accord express de l’accusé et de la partie civile. Mais l’expérience enseigne que l’asymétrie structurelle qui caractérise les relations entre l’accusation et la personne poursuivie induit un consentement à la culpabilité et à la peine proposée le plus souvent biaisé, donné par méconnaissance de ses droits ou, pire encore, par peur d’une issue plus défavorable encore en cas de refus. L’institution de ce plaider-coupable en matière criminelle s’accompagne en outre de mesures visant à restreindre la possibilité pour les parties de soulever des irrégularités de procédure et à empêcher autant que possible la remise en liberté des personnes placées en détention provisoire en cas de négligence dans le traitement de leurs demandes. L’ensemble dessine ainsi une orientation législative limitant de façon plus ou moins explicite les garanties du procès équitable aujourd’hui consacrées par la Constitution et par l’article 6 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales.
Simplifier le fonctionnement de la justice ?
Le gouvernement justifie son projet de réforme par des considérations se voulant l’expression du bon sens, une volonté de simplification qui ne serait dictée que par des préoccupations concrètes : soulignant la longueur des « délais d’audiencement criminel, [c’est-à-dire le temps séparant l’acte d’accusation de la comparution de la personne devant la juridiction] », le projet de loi aurait pour seul motif « d’accélérer le temps judiciaire », de « moderniser » les audiences, de réduire les délais de jugement des affaires. L’analyse du texte et, plus encore, de ses non-dits. À l’image de la très large majorité des textes de lois qui, depuis plus de vingt ans, se donnent très officiellement pour objectif de « simplifier » le fonctionnement de la justice pénale, ce nouveau projet trahit surtout une opposition de principe à un encadrement suffisant de l’action des autorités répressives.
Plusieurs éléments démontrent ainsi que ce texte obéit moins à une logique pragmatique qu’à des considérations idéologiques. On le constate, en premier lieu, avec le biais consistant à présenter la réforme comme procédant d’une nécessité pratique indiscutable quand, en réalité, bien d’autres possibilités s’offrent aux pouvoirs publics pour réduire les délais de jugement des affaires criminelles. La première de ces possibilités est, bien sûr, l’augmentation des moyens dévolus aux juridictions pour traiter les affaires dont elles sont saisies. Or, s’il a augmenté ces dernières années, le budget de la justice française demeure sensiblement en deçà des standards européens : le dernier rapport de la Commission européenne pour l’évaluation des systèmes judiciaires relève ainsi que « seul 0,20 % du PIB annuel de la France lui est consacré en 2022, alors que la médiane européenne s’établit à 0,28 % du PIB et que nos voisins néerlandais, allemand et italien y consacrent respectivement 0,26 %, 0,30 % et 0,31 %. Par ailleurs, le nombre de magistrats professionnels, particulièrement au ministère public, se situe très en deçà de la médiane européenne ».
Même à budget constant, il est tout à faire possible de réduire significativement les délais de jugement en menant une large entreprise de dépénalisation des infractions les moins graves, non pour les laisser sans réponse mais, au contraire, pour leur substituer une réponse plus adaptée (sociale ou médicale) et concentrer ainsi l’action des autorités répressives sur les infractions les plus graves. L’exemple de la dépénalisation de la consommation de stupéfiants chez nombre de nos voisins démontre ainsi de substantiels gains d’efficacité, alors que la répression du simple usage de drogue constitue aujourd’hui un contentieux de masse accaparant les services de police et les juridictions pénales.
Complexification des dispositions relatives à la détention provisoire
L’intention simplificatrice du projet apparaît tout aussi trompeuse lorsqu’on la met en rapport avec l’effet réel du projet sur l’ordre juridique, se traduisant par la complication significative des règles applicables. Ainsi en est-il, en particulier, des dispositions du projet relatives à la détention provisoire. Aujourd’hui, la loi prévoit que si les juridictions ne statuent pas sur la demande de mise en liberté qui leur est soumise dans les délais requis, la personne est automatiquement libérée. Pour éviter coûte que coûte une telle issue, le gouvernement propose désormais que, faute de décision à l’expiration des délais, un ultime débat contradictoire soit organisé dans les cinq jours afin de statuer sur la demande – la personne étant libérée si ce débat n’a pas lieu. Il veut également permettre au procureur général de saisir en catastrophe le président de la Cour d’appel d’une demande de maintien en prison lorsque l’audience permettant d’ordonner la prolongation de la détention provisoire n’a pu être tenue dans les formes et conditions prévues par la loi. Ces propositions ne constituent pas simplement une remise en cause frontale du principe constitutionnel de garantie des droits, qui suppose notamment que les personnes puissent faire effectivement sanctionner la méconnaissance, par les autorités, des règles encadrant leur action. En ajoutant de nouveaux délais et de nouvelles procédures à un ensemble déjà passablement complexe, ces propositions sont aussi de nature à compliquer singulièrement la tâche des juridictions, à mille lieues de la simplification annoncée.
Une culture de l’aveu qui rappelle la justice d’Ancien Régime
L’absence de pragmatisme du projet se mesure enfin dans certaines des représentations mobilisées au soutien de la réforme proposée et qui relèvent plus de la pétition de principe que du constat empirique. En plaçant la reconnaissance des faits au cœur du processus répressif, l’extension du plaider-coupable aux crimes renouvelle directement la culture de l’aveu propre à la justice pénale d’Ancien Régime, dont la fonction était moins de faire la lumière sur la commission d’une infraction que d’œuvrer à l’expiation voire à l’exorcisation d’un accusé nécessairement coupable. L’exposé des motifs du projet de loi trahit ainsi à plusieurs reprises une opposition de principe à l’idée même de présomption d’innocence, qui constitue pourtant une règle de valeur constitutionnelle : qu’on se propose de « faire juger les criminels » plus rapidement ou d’éviter la « remise en liberté de délinquants dangereux » en attente de jugement, on n’envisage tout simplement pas que le procès puisse avoir d’autre issue que leur condamnation.
Comme la plupart des textes visant, directement ou indirectement, à amoindrir l’encadrement du pouvoir répressif et les droits de la défense, cette nouvelle réforme s’inscrit ainsi dans la lignée de la vieille tradition autoritaire qui, depuis le début du XIXᵉ siècle, s’oppose à la mise en œuvre pérenne et conséquence du modèle pénal républicain proclamé en 1789. Un modèle qui commande des réformes humanistes et pragmatiques, loin de la fuite en avant répressive qui tient aujourd’hui lieu de seule boussole au législateur.
Vincent Sizaire est magistrat.
12.04.2026 à 16:58
Dix ans après la loi contre la prostitution, enquête sur les conditions de vie des travailleuses sexuelles
Texte intégral (2731 mots)
Dix ans après la loi « visant à renforcer la lutte contre le système prostitutionnel et à accompagner les personnes prostituées », les conditions de vie des personnes vendant des services sexuels ont-elles changé ? Comment celles-ci perçoivent-elles les lois qui encadrent la prostitution ? Comment voudraient-elles que ces lois évoluent ?
Au cours des trois années ayant suivi la mise en application de la loi du 13 avril 2016, plusieurs évaluations ont été menées avec des constats convergeant.
Tout d’abord, la pénalisation des clients avait entraîné une précarisation des conditions de vie (perte de revenus, augmentation des symptômes dépressifs, des pratiques risquées et du temps de travail) et un déplacement de l’activité en ligne ou vers des espaces moins visibles. Ensuite, si le délit de racolage était abrogé au niveau national, les personnes se prostituant continuaient d’être directement pénalisées par des arrêtés locaux. La loi avait en outre instauré pour elles un parcours de sortie de prostitution, mais il était mis en place de manière discriminante (inégalité de la mise en application d’un département à l’autre, discours jugeant voire essentialisant au sein des commissions). Enfin, la loi contribuait peu à la lutte contre l’exploitation.
Depuis, aucune évaluation ne permet de parler d’un recul du nombre de personnes engagées dans le travail sexuel. Le chiffre qui circule le plus est celui de 30 000 à 40 000 personnes en « situation de prostitution », une évaluation reprise des rapports de l’Office central pour la répression de la traite des êtres humains (OCRTEH) et qui est peu fiable.
Notre recherche, co-construite et co-menée avec des personnes vendant des services sexuels, vise à rendre compte de la diversité de leurs situations, de leurs origines (françaises, européennes ou immigrées d’Afrique, d’Amérique latine et de Chine) et de leurs conditions d’exercice (dans la rue, à domicile, via des annonces en ligne ou dans le cadre d’un parcours de sortie de la prostitution). Elle met également en lumière leurs revendications.
Qu’est-ce qui préoccupe les travailleuses sexuelles ?
Dans les ateliers collectifs que nous avons menés en 2025 dans cinq villes de France, les travailleuses sexuelles évoquent beaucoup leurs conditions de précarité et la prévalence des violences (les quelques 80 participantes et les personnes concernées en général étant avant tout des femmes cis et trans, nous utiliserons le féminin dans cet article).
La précarité matérielle reste une des raisons du choix contraint du travail sexuel. Cette précarité est décuplée pour les personnes migrantes qui, du fait de la non-régularité ou de la précarité du séjour, ont un accès limité au marché du travail. La loi de 2016 a mis en place un parcours de sortie de la prostitution qui prévoit un titre de séjour de six mois, renouvelable jusqu’à deux ans et une modeste allocation. Mêmes celles qui en ont bénéficié soulignent que la précarité du titre de séjour permet difficilement d’entamer une formation diplômante et d’évoluer vers une situation professionnelle moins précaire.
Pour les personnes migrantes au statut de résidence précaire, face au peu de choix d’emploi, le travail sexuel est pour certaines vécu comme le moins exploitant. Il offre la possibilité d’une flexibilité des horaires, d’un gain d’autonomie et de revenus plus élevés que dans d’autres emplois peu ou pas qualifiés. Pour des personnes non migrantes bénéficiaires d’allocations sociales ou de handicap, la vente occasionnelle de services sexuels permet de compléter des revenus très bas. Les femmes trans évoquent, pour leur part, les obstacles dans la recherche d’emploi du fait de la transphobie.
Au-delà de ces contraintes matérielles, les participantes à l’enquête témoignent d’une exposition aux violences importante et expriment leur angoisse de prendre des risques immenses : attaques physiques, viols, meurtres. Nous avons récolté les témoignages déjà bien documentés de femmes d’Afrique subsaharienne enrôlées dans des réseaux de traite, mais aussi ceux de personnes non migrantes forcées de vendre des services sexuels. Les violences se déclinent au-delà des agressions physiques et de l’exploitation. Sont évoqués les vols ciblés, le harcèlement policier, les insultes et humiliations, les pratiques non désirées :
« La police ne va pas chercher les gens qui font des problèmes. Ils vont venir voir les prostituées et leur poser des questions. “Donne-moi tes papiers.” Les mauvaises personnes dans la rue, la police ne va pas se concentrer sur ces gens. C’est comme ça. »
Joy, Nigériane (N. B. L’ensemble des témoignages est anonymisé).
Un constat positif ressort toutefois, celui d’un système de santé publique accessible et d’un tissu associatif qui accompagne bien les travailleuses sexuelles. En particulier pour les femmes les moins jeunes, la santé est au cœur des préoccupations. Les participantes rappellent que leur santé mentale est mise à mal par la violence, la précarité et la stigmatisation. Elles évoquent à la fois des enjeux de santé globale et des enjeux de besoins particuliers – traitement préventif de préexposition au VIH (PrEP) et traitement post-exposition (TPE) – qui demandent des formations du corps médical.
Les difficultés liées à la stigmatisation
Les discussions ont également pointé du doigt le problème de la stigmatisation du travail sexuel. Cette stigmatisation est tellement forte, parfois doublée de racisme ou de transphobie, qu’elle conduit les personnes à rester distantes des institutions publiques et à avoir le sentiment d’occuper une place sociale très dévalorisée.
« Tout le monde nous méprise. Je vais vous dire, honnêtement, nous n’y pouvons rien. Nous nous méprisons même un peu nous-mêmes, en réalité. Je ne mens pas. C’est comme ça. Nous ne gagnons pas beaucoup d’argent et nous n’avons aucune compétence. »
Lili, Chinoise.
Dans plusieurs ateliers est revenue la proposition d’organiser des formations contre la stigmatisation des travailleuses sexuelles. Elles pourraient être dispensées auprès des jeunes dans le cadre de l’éducation à la vie affective et sexuelle, auprès de professionnels des services médicaux ou sociaux, ou encore auprès des personnes travaillant à l’accueil dans les services publics.
Parmi les discriminations liées à leur stigmatisation et les lois spécifiques sur la prostitution, les participantes insistent sur le rapport à la police et l’accès à la justice. Elles se sentent souvent moins bien protégées par la police – qui ne les prend pas au sérieux ou ne se déplace pas – et, plus encore, elles relatent des situations de harcèlement de leur part. Alors même que la loi de 2016 a abrogé le délit de racolage passif, des arrêtés locaux « anti-prostitution » existent toujours et renforcent le risque de harcèlement policier (amendes répétées pour stationnement, mises en fourrière de véhicules dans lesquels elles travaillent, etc.).
En outre, les participantes souhaiteraient bien évidemment une meilleure lutte contre l’exploitation, en particulier celle des personnes mineures, mais beaucoup n’osent pas s’engager dans des démarches judiciaires par sentiment d’illégitimité, de peur que cela se retourne contre elles ou encore par défaitisme au regard de la longueur des procédures.
Une volonté de dépénalisation… pour accéder au droit du travail
Pour réduire ces stigmatisations, les personnes considèrent qu’une solution politique réside dans l’accès aux droits et, en particulier, au droit du travail. Certes, pour certaines, la demande principale est d’avoir un titre de séjour de longue durée pour obtenir un « meilleur boulot ». Mais pour la plupart, migrantes ou non, qui souhaitent poursuivre le travail sexuel, la demande est celle d’une reconnaissance à part entière du travail sexuel.
« Je pense que nous devrions faire une réunion ou quelque chose pour que notre travail soit légalisé. Et comme ça, il n’y aurait pas autant de difficultés pour nous. Et ainsi, la police et les services de santé nous prendraient en compte, ce qui serait comme dénouer un nœud pour nous. Même si nous devions payer, au moins nous serions totalement légales. Je pense que cela permettrait presque de surmonter toutes les difficultés liées au danger de travailler dans le parc : les cris, les mauvais traitements, les coups, le froid, le rejet par la police. »
Ana, femme trans d’Amérique latine.
Cette demande est intrinsèquement liée au souci de réduire la précarité, les violences et la stigmatisation. Elles demandent que plusieurs statuts soient possibles et adaptés à leur manière de travailler : seules ou à plusieurs, chez elles ou à l’extérieur, régulièrement ou occasionnellement.
Les participantes à l’enquête rappellent que beaucoup d’entre elles s’acquittent d’impôts, et qu’il serait donc normal qu’elles accèdent au droit commun et aux droits sociaux. Comme les autres travailleuses, elles voudraient pouvoir bénéficier d’une retraite, souscrire une assurance professionnelle ou encore accéder à un compte bancaire.
Moins d’isolement, plus de collectif
Les travailleuses souhaiteraient également la fin des lois de pénalisation, car ces dernières tendent à les isoler et à empêcher les formes de coopération qui sont source de sécurité et de pouvoir d’agir. Les témoignages et propositions ont souligné l’importance des réseaux de solidarité et la manière dont la communauté de travailleuses sexuelles peut constituer une ressource.
La stigmatisation du travail sexuel pousse à l’isolement. Dans la sphère privée, les personnes tendent à se cacher et hésitent à commencer ou à maintenir une relation amoureuse ou de couple, à vivre en famille. Dans la sphère du travail, beaucoup de personnes aimeraient pouvoir coopérer avec des partenaires et dénoncent de manière récurrente la définition large du proxénétisme en France qui permet de poursuivre pénalement l’aide et l’entraide et empêche d’avoir des espaces partagés et plus sécurisants.
Les participantes décrivent pourtant leurs stratégies pour éviter l’isolement et se protéger les unes les autres.
« Le truc je trouve le plus important, c’est d’avoir un lieu pour les personnes qui font ça et je trouve qu’il y aurait moins de danger que d’être chacun dans son coin ou d’être dehors. Si les personnes qui ont envie de faire ça, elles ont un lieu, il y aura moins de proxénètes, etc. »
Marie, Française.
Évidemment, elles ne sont pas naïves quant au fait que l’exploitation peut aussi venir de la communauté, mais l’organisation légale est précisément une solution pour lutter contre des formes d’organisation souterraine qui dévient facilement vers les violences.
Enfin, au cours des discussions, beaucoup de participantes ont souligné l’importance et la qualité du tissu associatif français. Le rôle des associations (communautaires ou d’accompagnement social) n’est pas seulement de faciliter les démarches et les contacts, mais aussi de créer un espace de confiance. En ce sens, les approches communautaires sont particulièrement appréciées, que ce soit par la présence de salariées paires ou par la création d’associations par les personnes concernées elles-mêmes. Sans que cela ne soit dit directement, les témoignages récoltés au sujet des associations soulignent l’importance du financement non seulement de l’aide à la sortie de la prostitution, mais aussi des actions de prévention en santé et de lutte contre les violences dans un positionnement non jugeant. Enfin, les participantes appellent à la multiplication d’espaces d’entraide et d’échanges communautaires et solidaires.
Vu le relatif échec de la dernière législation sur la prostitution, il serait souhaitable que les politiques prennent mieux en compte la diversité des conditions d’exercice du travail sexuel et des statuts des personnes qui l’exercent, mais aussi les problématiques d’exploitation, de précarité, de violences et les revendications de droit du travail.
Cet article a été co-écrit avec Cybèle Lespérance et Violet·te Sky, militantes associatives, association Tullia.
Hélène Le Bail a reçu des financements de l'ANR. Le Projet DPTS2026 a été mené en coopération avec les associations Médecins du Monde, Fédération parapluie rouge et Tullia
Belledent Céline a reçu des financements de de l'ANR. Le Projet DPTS2026 a été mené en coopération avec les associations Médecins du Monde, Fédération parapluie rouge et Tullia
12.04.2026 à 10:19
L’histoire étonnante du silphium, une plante présumée aphrodisiaque que les Romains aimaient tellement qu’elle finit par disparaître
Texte intégral (1904 mots)

Une plante mythique, au cœur de l’économie antique et réputée contrôler la fécondité, a fasciné Grecs et Romains avant de disparaître sans laisser de trace.
Jules César en aurait conservé une réserve dans le trésor romain. D’après Pline l’Ancien, l’empereur Néron en possédait la dernière tige connue. Certains auteurs ont également avancé que la fréquence des relations extraconjugales parmi les élites romaines aurait entraîné une demande telle de ce végétal qu'elle aurait provoqué sa disparition totale. Mais de quoi parle-t-on ?
Du silphium : une plante aujourd’hui disparue qui poussait autrefois à l’état sauvage dans l’actuelle Libye. Utilisée comme contraceptif et abortif, mais aussi comme remède, condiment, parfum et même pour améliorer l’élevage, ses propriétés exceptionnelles en faisaient l’une des marchandises les plus précieuses de l’Antiquité gréco-romaine.
Puis, un jour, elle disparut.
Une résine puissante
Le silphium est souvent décrit aujourd’hui comme un aphrodisiaque, bien qu’aucune source antique ne le confirme. Certaines de ses plus anciennes représentations montrent une gousse en forme de cœur, ce qui pourrait être à l’origine de cette association.
Les images figurant sur des pièces de monnaie et des figurines ont conduit les botanistes modernes à se demander si le silphium était apparenté aux grands fenouils sauvages (du genre Ferula). On sait en revanche qu'il n’est pas apparenté aux plantes du genre Silphium, comme la silphie laciniée ou la silphie perfoliée, en Amérique du Nord.
Les représentations du silphium aux côtés de gazelles (une autre richesse emblématique de la Libye) suggèrent que ses tiges atteignaient généralement environ 30 cm de hauteur.
On extrayait une résine des tiges et des racines de la plante, ensuite conservée dans de la farine, ce qui permettait son transport depuis la Libye vers des contrées plus lointaines.
Les Romains appelaient cette résine laser ou laserpicium. Le meilleur laserpicium était extrait de la racine, mais une version de moindre qualité pouvait aussi provenir de la tige.
Avant les Romains, les Grecs utilisaient eux aussi le silphium ; il était si important dans certaines économies régionales qu’il figurait fréquemment sur des pièces de monnaie.
Les Grecs ne semblaient pas récolter eux-mêmes le silphium ; ils le recevaient en tribut de tribus libyennes, qui vivaient à son contact et en maîtrisaient la récolte et la préparation.
Les Grecs de ces régions ont capitalisé sur ces savoirs autochtones et les ont exploités, en créant et en alimentant un marché pour le silphium. Ce schéma d’appropriation et de valorisation des connaissances locales des peuples autochtones demeure une caractéristique de l’économie mondialisée contemporaine.
Un « alicament »
Le silphium revient souvent dans les traités médicaux antiques, où il est le plus souvent administré par l'alimentation. La distinction moderne entre aliment et médicament n’avait alors rien d’évident : on incorporait des remèdes à des préparations très simples, comme des bouillies de lentilles.
Dans la médecine gréco-romaine, le silphium passait pour un aliment « venteux », censé lever les blocages à l’origine des maladies. Ces aliments étaient aussi réputés agir sur la reproduction, en empêchant la conception ou en provoquant une fausse couche, selon le moment où ils étaient consommés.
Dans son traité de gynécologie en quatre volumes, rédigé aux Ier et IIe siècles, Soranos d’Éphèse explique que des herbes et épices au goût prononcé – dont le silphium – pouvaient être mélangées à du vin ou à des aliments simples pour servir de contraceptifs oraux. Il précise toutefois que ces préparations provoquaient souvent des troubles digestifs.
Il propose aussi des méthodes préventives sous forme de suppositoires : enduire le col de l’utérus de substances comme de l’huile d’olive vieillie, du miel, de la résine, du baume, du plomb blanc, de l’huile de myrte, de l’alun humidifié, de la résine de galbanum (une plante proche du silphium utilisée en parfumerie), ou encore y placer un petit tampon de laine fine. Il ne s’agit pas à proprement parler de médicaments, mais de substances dont les propriétés – antibactériennes, spermicides ou simplement mécaniques – pouvaient réduire les chances de conception.
Chercher dans des textes écrits par des hommes des traces de la médecine des femmes a évidemment ses limites. Il est très probable que les savoirs sur la grossesse, la contraception et les abortifs circulaient surtout entre femmes, et qu’une grande partie n’a jamais été consignée dans les traités médicaux antiques qui nous sont parvenus. Nous n’avons d’ailleurs aucune preuve de l’efficacité du silphium comme contraceptif ou abortif — tout simplement parce qu’il n’en reste plus à tester.
Une énigme persistante
Le silphium résistait à toute tentative de culture, ce qui en faisait une ressource limitée. Sa valeur financière – et le contrôle exercé par l’État – semble avoir suscité des tensions locales : à l’époque romaine, des récits évoquent des actes de sabotage et des paysans menant leur bétail pour le faire paître sur les plants.
Des changements climatiques et la désertification du littoral nord-africain pourraient avoir conduit à son extinction. Si les Romains considéraient déjà le silphium comme disparu au Ier siècle de notre ère, il aurait en réalité pu continuer à être utilisé localement jusqu’au Ve siècle.
Plusieurs tentatives ont été menées pour retrouver d’éventuels vestiges du silphium dans le monde actuel, mais les chercheurs ne parviennent pas à s’accorder sur une plante survivante unique. Le silphium pourrait avoir été un hybride se reproduisant de manière asexuée, ce qui le rendait à la fois difficile à cultiver et particulièrement vulnérable.
En 2021, une nouvelle espèce de grand fenouil (Ferula drudeana) a été identifiée autour d’anciens sites de peuplement grecs en Anatolie (l’actuelle Turquie).
Elle ressemble beaucoup aux représentations antiques du silphium ; il est possible que des graines venues de Libye aient atteint la Turquie et survécu jusqu’à aujourd’hui. Mais tant que l’on ne disposera pas de graines de silphium antique clairement identifiées dans des contextes archéologiques bien datés, cette hypothèse restera impossible à vérifier.
De nombreuses espèces de grands fenouils sont présentes autour du bassin méditerranéen, mais la diffusion d’informations erronées sur leurs prétendues propriétés aphrodisiaques – notamment pour traiter les troubles de l’érection – suscite aujourd’hui encore des inquiétudes croissantes liées à leur surexploitation.
Thomas J. Derrick ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.04.2026 à 17:03
Le soft power chinois illustré par les caricatures de « China Daily » : une esquisse de nouvel ordre mondial
Texte intégral (2327 mots)

À travers ses caricatures, le très officiel média de langue anglaise China Daily s’adresse aux étrangers résidant en Chine. Son objectif : véhiculer une image positive du pays. Entre valorisation d’une Chine bienveillante et critique des puissances occidentales, ces dessins visent à contribuer à la diffusion du soft power de Pékin.
Fondé en 1981, China Daily a le plus grand tirage (900 000 exemplaires, dont 600 000 à l’étranger) de tous les journaux de langue anglaise en Chine. Il appartient au Département de la propagande du Comité central du Parti communiste chinois (CPD) qui lui communique la liste des sujets à traiter et de ceux qu’il ne faut pas aborder. Ce média qui, outre l’édition papier, est intégralement consultable en ligne, constitue un instrument non négligeable de la diplomatie publique chinoise. Il cible principalement les diplomates, les expatriés et les touristes, mais aussi toutes les personnes habitant ailleurs dans le monde et portant un intérêt à la Chine. Par son intermédiaire, la Chine s’adresse en anglais à l’ensemble de la planète. Le contenu des articles est assez consensuel et peu polémique, excepté les caricatures (« cartoons ») qui sont publiées tous les jours.
Cette communication se situe à la frontière du soft power. Selon le politologue américain Joseph S. Nye, « père » de ce concept, le soft power, à la différence de la propagande, se caractérise par la diffusion d’informations présentées comme étant impartiales et destinées à forger à l’étranger une image positive du pays dont il émane. La vision du monde diffusée par China Daily par l’entremise de ces caricatures, reliée à l’actualité, avec des éléments factuels difficiles à contredire, relève donc avant tout du soft power (une politique lancée en Chine en 2007 par le président Hu Jintao à la veille des Jeux olympiques de Pékin).
La plupart des dessins de China Daily se rattachent à un narratif récurrent : l’image positive de la Chine et l’image négative des États-Unis, à travers des thèmes comme la protection de l’environnement (qui serait l’apanage de Pékin), le commerce international (menacé par les États-Unis et promu par la Chine) et les valeurs éthiques. La consultation de l’ensemble des caricatures sur les années écoulées met en évidence les contours d’un nouvel ordre mondial où les États-Unis, dépassés, ne sont plus au centre du paysage, et sont remplacés par une Chine bienveillante et constructive.
La sélection qui suit donne un aperçu d’une année entière, de février 2025 à février 2026 (environ 300 cartoons), analysée et interprétée.
Une image de la Chine bienveillante et attractive
La Chine est présentée comme humaine, heureuse, souriante, attractive et œuvrant pour la paix et un progrès partagé et maîtrisé. Les personnages sont souvent aussi bien de type asiatique que de type occidental, ce qui vise à montrer que la Chine s’adresse au monde entier.
Parmi les sujets abordés : la sécurité en Chine (comparée aux États-Unis), les technologies chinoises innovantes (DeepSeek), les destinations touristiques de rêve et la gastronomie chinoise. Les « carrousels » ci-dessous vous permettent de visualiser certains de ces dessins en les faisant défiler.
L’idée est de montrer que la Chine est accueillante et appréciée. Les succès culturels – cinéma, mode – sont particulièrement mis en avant.
Enfin, l’image de la Chine est également promue à travers son ouverture au monde et son caractère pacifiste.
Une image sombre des États-Unis… et de leurs alliés
À l’inverse, le grand rival américain est systématiquement dépeint de façon très négative. On pourrait parler d’anti-américanisme primaire. Tous les défauts y passent : dette, pillage des ressources naturelles des autres peuples, unilatéralisme…
Les États-Unis sont décrits comme un pays brutal et féroce et sont souvent représentés comme des vautours ou des barbares.
Une série spéciale leur a même été consacrée. Des dizaines de caricatures montrent les « dilemmes » ou contradictions de la société états-unienne.
L’Europe n’est pas épargnée. Moquée, elle est souvent présentée comme faible et la grande perdante de la période actuelle.
Le Japon figure également en bonne place, comme une véritable « tête de Turc ». Son actualité y est souvent traitée avec moquerie ou ironie.
Une Chine garante d’un commerce international équilibré
Le commerce international occupe une place importante dans ces dessins. La Chine y est présentée comme un leader bienveillant, vantant les bienfaits du libre-échange et les dangers du protectionnisme.
Pékin vole ainsi au secours de l’économie mondiale menacée.
Une Chine championne de la protection de l’environnement
La protection de l’environnement est un sujet défendu universellement et la Chine s’en est emparée. Les caricatures sont sur ce sujet moins agressives et moins personnalisées, présentant seulement la planète en danger (changement climatique, déchets).
L’autre facette est la mise en avant de solutions écologiques avec des dessins dans lesquels, paradoxalement, la Chine ne tire pas forcément la couverture à elle. Ces dessins, comme les précédents, pourraient paraître dans n’importe quel journal occidental.
Une Chine qui défend les valeurs éthiques
Dans le même registre, China Daily aborde des sujets faisant référence aux valeurs éthiques ou morales. Le quotidien présente ainsi les sujets sensibles du moment, indiquant que la Chine est soucieuse des conséquences de leur développement : intelligence artificielle, cryptomonnaies, usage des smartphones.
Mais il aborde aussi des sujets plus ciblés sur les dérives attribuées au monde occidental : guerres, drogues, menace nucléaire…
Enfin, de façon plus positive, il évoque les questions de la natalité, de la famille, de la place des femmes dans la société, de l’aide ou encore des bienfaits de la robotique…
Le nouvel ordre mondial vu de Pékin
Les dessins se partagent ainsi en plusieurs objectifs :
vanter l’image de la Chine (paix, progrès, bonheur),
critiquer les pays concurrents ou peu appréciés, notamment à travers leurs déboires,
et montrer une préoccupation pour des valeurs universelles (famille, éthique, environnement, libre-échange) qui résonnent au-delà des frontières.
Ils esquissent un ordre mondial où la Chine serait au centre. Cette programmation choisie des cartoons avec un arrière-plan politique est très audacieuse. Certains, comme S.M-L Heng, la qualifient de politique de communication proactive, voire agressive.
L’objectif essentiel est d’améliorer l’image du pays à l’étranger, mais aussi d’influencer la perception des diasporas chinoises et de contrer l’information diffusée par certains médias occidentaux, par exemple sur la protection de l’environnement. Reste à savoir si cette communication porte ses fruits…
Stéphane Aymard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.04.2026 à 07:42
Le zajal, duel poétique de la tradition arabe, fait une entrée fracassante sur TikTok
Texte intégral (1651 mots)
Né dans l’Espagne musulmane du XIIᵉ siècle, le zajal, une sorte de duel poétique, n’a rien à envier aux battles de rap contemporaines. Un genre qui fait un retour gagnant sur les réseaux sociaux et trouve une nouvelle jeunesse dans le monde arabe.
« Je suis le roi des anges, du début à la fin des temps. Arrani, tu vas bientôt hurler et verser des larmes à n’en plus finir »,
chante Akram Qawar en arabe tout en gesticulant à l’adresse de son adversaire. Muhammad al-Arrani lui répond :
« Qu’est-ce que tu marmonnes ? Personne ne comprend tes vers, es-tu venu juste pour te ridiculiser ? »
Et dans la légende d’une vidéo, où il danse au son d’un échange similaire à celui qui précède, un fan demande :
« Qui a des oncles qui font des battles de rap ici ? »
Si vous avez vu ces vidéos montrant principalement des hommes d’âge mûr s’envoyant des piques poétiques en arabe, vous les avez peut-être vous aussi comparées à des battles de rap modernes. Il s’agit en réalité d’un genre de poésie chantée vieux de plusieurs siècles, appelé zajal.
Au sens large, le zajal désigne la poésie composée dans l’un des nombreux dialectes arabes vernaculaires. Plus précisément, il s’agit d’une forme de performance poétique musicale, impliquant souvent des duels verbaux, particulièrement populaire au Liban, en Palestine, en Syrie et en Jordanie.
Le zajal remonte à l’Espagne musulmane du XIIᵉ siècle, où il est apparu comme une alternative à la tradition poétique arabe classique. Les poèmes zajal se distinguaient de cette tradition non seulement par la langue – on utilisait alors le dialecte andalou de l’arabe – mais aussi par la forme. Ces poèmes présentaient des schémas de rimes complexes, contrairement à la rime unique qui caractérisait la haute poésie de l’époque. De plus, ils étaient composés pour être chantés.
Parmi les premiers virtuoses du zajal, il y eut Ibn Quzman (1078-1160), un cordouan qui voyageait de cour en cour à la recherche de faveurs grâce à ses chants de louange, de vin et d’amour, qui comportaient souvent une touche rebelle. Dans un de ses poèmes, par exemple, il célèbre la fin du ramadan comme un retour salutaire aux comportements illicites :
« Hourra, ivrognes, au nom du Prophète, bande de fêtards !
C’est le moment où le mois de jeûne prend fin ! »
Depuis l’Espagne, le zajal s’est rapidement répandu en Afrique du Nord et au Moyen-Orient. Selon un article du spécialiste de la langue arabe Adnan Haydar, il existe une théorie selon laquelle, dans le cas particulier du Liban, la poésie zajal trouve ses racines dans l’Église maronite. Il s’agit d’une Église du Liban qui fait partie de l’Église catholique romaine, mais qui possède une tradition liturgique antiochienne/syrienne occidentale distincte.
On pense qu’à la fin du XIIIᵉ siècle, les pères de l’Église maronite ont commencé à traduire des hymnes syriaques dans le dialecte arabe local. Ces hymnes zajal ont été consignés dans des manuscrits du XVᵉ siècle jusqu’à la fin du XVIIᵉ siècle, époque à laquelle le zajal est devenu partie intégrante de la culture populaire libanaise.
Rachid Nakhlé (1873-1939) fut un célèbre défenseur et compositeur de zajal de l’époque moderne. Surnommé « le Prince du zajal », sa poésie vernaculaire aurait influencé les poètes romantiques et symbolistes du Liban.
Selon Haydar le zajal se pratique essentiellement au cours des rassemblements villageois – des mariages aux fêtes de saints en passant par des réceptions dans des maisons privées. Les meilleurs interprètes de zajal se réunissaient parfois pour des concours où chacun tentait de surpasser l’autre dans l’art de l’improvisation verbale. À son apogée, au milieu du XXᵉ siècle, les interprètes de zajal formaient des groupes et s’affrontaient lors de compétitions entre deux groupes rivaux, parfois devant des dizaines de milliers de spectateurs.
Ces joutes verbales consistent à se vanter de ses capacités et à rabaisser ses rivaux et adversaires. Les images martiales y sont courantes, mais c’est avant tout la suprématie poétique que recherchent les interprètes de zajal.
Haydar raconte un célèbre échange entre les poètes de zajal Jiryis Bustani et Tali Hamdan qui a eu lieu lors d’un concert dans un monastère à Beit Meri, au Liban, en 1971. Dans la première strophe, Bustani compare ses prouesses poétiques à un massacre, menaçant de faire voler les têtes en éclats et affirmant que la « bataille de Beit Miri » restera dans l’histoire. Dans la deuxième strophe, Hamdan se moque des menaces de Bustani en disant « Je t’étranglerai et ferai de toi un simple écho (sada) », avant d’affirmer qu’il battra Bustani dans chaque bataille, celle de Beit Miri ne faisant pas exception.
Bustani revient dans la troisième strophe, reprenant le mot « écho » de Hamdan, en affirmant que les annales de l’histoire mentionneront les « échos de mes boulets de canon ». Une stratégie courante consiste en effet à répéter les mots et les phrases au cœur des railleries de l’adversaire et à les reformuler pour en faire le cœur de son intervention.
Un extrait d’un concert de 1968 souligne à quel point les jeux de mots guident les interprètes. Le poète de zajal Zein Sheib entame l’échange en chantant les louanges du soldat à l’esprit libre. Il parle de piété, sur terre et dans les airs, et d’une caille qui s’envole, tandis qu’il affronte les vagues d’une mer tumultueuse. Ce qui donne de la cohérence à ses paroles, ce n’est pas tant le sens que le son. Il rime sans cesse sur la lettre « r », roulée et doublée, en utilisant des mots tels que « farr » (s’échapper) et « jarr » (traîner). Il fait étalage de sa capacité à placer ces mots dans des phrases grammaticalement correctes, bien qu’un peu frivoles. Vient ensuite Edouard Harb. Il fait de même avec la lettre m, poursuivant sur le thème de la mer.
Puis Tali Hamdan chante les épées et rime intensément sur la lettre « l ». Zaghloul el Damour (alias Joseph al-Hashem) conclut le tout de manière décisive en rimant sur la lettre « d ». D’abord, il se vante, affirmant que bien que son cheval soit tombé, il a réussi à faire battre en retraite son rival, puis il raille chacun de ses trois concurrents : Zein s’est énervé, à la fois sérieusement et pour plaisanter ; Harb produit de la poésie de second ordre, et Hamdan a une haute opinion de lui-même mais n’est pas plus grand qu’une table sans pieds. Les insultes sont lancées avec légèreté, et toutes les personnes présentes – artistes comme spectateurs – se délectent de leur esprit.
Le zajal a connu un déclin pendant la guerre civile libanaise (1975 à 1990), mais a connu un renouveau au cours des décennies suivantes. Par exemple, dans les années 2010, les concours de zajal de l’émission télévisée Owf ont attiré des participants de toute la région. Parallèlement, des extraits de spectacles de zajal libanais des années 1960 et 1970 sont repris dans des remixes et des mashups sur YouTube, TikTok et Instagram. Les artistes palestiniens s’inscrivent dans une tradition similaire, qui est également en vogue.
Ainsi, si un ami partage une vidéo de ces oncles « s’affrontant en battle rap », vous pouvez lui expliquer ce qu’ils font réellement, à savoir s’inscrire dans la tradition poétique légendaire du zajal.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
11.04.2026 à 07:41
Clause MFN américaine ? Et si c’était un choc salutaire pour refonder le médicament en France…
Texte intégral (1597 mots)
Le président des États-Unis Donald Trump veut obliger les Européens à augmenter le prix des médicaments innovants. Derrière ce qui ressemble à une enième mesure protectionniste se trouve une mesure pour rééquilibrer des échanges asymétriques. Cela pourrait être l’occasion pour l’industrie pharmaceutique française de retrouver de la puissance.
Le 12 mai 2025, l’administration Trump signait un décret instaurant la clause de « Most-Favored-Nation » (dite clause MFN) pour la fixation des prix des médicaments aux États-Unis. Son principe est simple et brutal : les médicaments innovants commercialisés aux États-Unis auront le prix le plus bas pratiqué dans les pays de l’OCDE (pays dont le PIB par habitant atteint au moins 60 % de celui des États-Unis). La France, l’Allemagne, l’Italie et le Royaume-Uni correspondent notamment à cette définition.
Dans ce contexte, pour conserver leur capacité d’investissement dans le recherche-développement (R&D), les prix européens de ces médicaments innovants devront augmenter dans l’Union européenne (UE). D’où la pression de Donald Trump sur les pays membres.
Si la tentation d’y voir une gesticulation protectionniste trumpienne de plus est grande, ce serait probablement une erreur stratégique. Car ce signal américain agit aussi comme un révélateur des fragilités structurelles des laboratoires pharmaceutiques européens.
Pour la France, cette décision pourrait constituer une occasion historique de refonder son modèle pharmaceutique autour de ce qui fait sa force : un système de santé universel et solidaire capable de redevenir un pôle d’attraction mondial pour l’innovation thérapeutique.
Une offensive durable, pas un accident trumpien
Penser que cette offensive disparaîtra avec le mandat de Donald Trump serait une erreur. L’histoire récente invite plutôt à la prudence. Avant lui, Bill Clinton puis Barack Obama ont déjà tenté de réduire l’écart de prix des médicaments entre les deux rives de l’Atlantique. Ce qui change aujourd’hui, c’est la méthode mobilisée. Elle est directe, coercitive, dénuée d’ambiguïté diplomatique.
À lire aussi : Médicaments innovants : la France face à la guerre des prix lancée par Trump
Après la publication du décret MFN, 17 laboratoires ont reçu une lettre présidentielle leur imposant un alignement des prix américains sur le niveau plancher, dans un délai de 180 jours, sous peine de sanctions. En décembre 2025, neuf accords étaient annoncés, prévoyant une réduction de prix significative pour des médicaments traitant le diabète et plusieurs autres pathologies chroniques.
Avec 16 laboratoires partenaires
En février 2026, la plateforme TrumpRx était lancée avec 16 laboratoires partenaires, proposant une quarantaine de médicaments à prix fortement réduit ; certains avec des baisses allant jusqu’à 85 %. Les tarifs douaniers restent le principal levier utilisé : les médicaments de marque importés aux États-Unis sont taxés à hauteur de 100 %, sauf en cas de production locale. L’Union européenne bénéficie, pour l’instant, d’un taux réduit à 15 % depuis août 2025.
Les prix des médicaments aux États-Unis atteignent en moyenne 278 % des prix moyens de l’OCDE. Ce ratio grimpe à 422 % pour les médicaments sous brevet, mais chute à 67 % pour les génériques.
Ce paradoxe apparent reflète en réalité la cohérence d’un modèle : les innovations thérapeutiques représentent 86 % du marché pharmaceutique américain en valeur, tandis que les génériques, ultracompétitifs, pèsent 91 % en volume.
Deux excès, deux impasses
Le prix des innovations est peu régulé, fixé par la négociation entre laboratoires, assureurs privés et intermédiaires (notamment les Pharmacy Benefit Managers – des intermédiaires dans la chaîne du médicament, financés par les laboratoires (remises) et les assureurs (frais administratifs)). Cela laisse une grande latitude tarifaire aux industriels en situation de quasi-monopole. La loi du marché bénéfice à l’offre. Pour les génériques, marché par nature concurrentiel, la loi du marché bénéficie plutôt à la demande avec des prix bas.
Au fond, Donald Trump met en lumière une réalité dérangeante : la R&D pharmaceutique mondiale est largement financée par les patients états-uniens, tandis que les Européens bénéficient de prix régulés. Ce modèle américain est économiquement puissant mais socialement intenable dans un cadre universel. L’Europe, en voulant trop encadrer, a sous-valorisé l’innovation. Les États-Unis, en laissant le marché maître du jeu, ont exclu des millions de patients de l’accès aux soins.
En France, une excellence scientifique largement sous-exploitée
Malgré son excellence académique et la qualité de ses ressources en R&D, la France est en troisième position dans les essais cliniques et en dixième position pour les publications scientifiques au sein d’une Europe, loin derrière les États-Unis et l’Asie. La France et l’UE sont en voie de dépendance accrue vis-à-vis des deux autres continents en ce qui concerne l’innovation thérapeutique.
La France possède les prix parmi les plus bas d’Europe aussi bien pour les médicaments sous brevet que pour les génériques, et la fiscalité la plus élevée sur le secteur pharmaceutique. Les patients français ont accès à seulement 60 % des médicaments innovants, contre 90 % en Allemagne. Cela signifie que 40 % des médicaments innovants (sur le marché depuis 2020) ne sont pas accessibles en France.
La France perd un peu plus chaque année de sa compétitivité pour les essais cliniques et le lancement de produits. La souveraineté pharmaceutique française devient illusoire dans ce contexte, sans réformes.
Refonder notre modèle pharmaceutique
La France possède tous les atouts pour inverser cette trajectoire à condition de refonder son modèle pharmaceutique. D’abord, la création d’un statut du médicament innovant permettrait de différencier les innovations des médicaments courants. Un financement des produits innovants par des fonds consacrés à l’innovation thérapeutique, des délais accélérés d’accès au marché et une valorisation assumée, tout en conservant le principe du remboursement universel, sont des leviers accessibles et rapides pour que la France redevienne un pôle d’attraction des innovations thérapeutiques.
Ensuite, libérer le marché des génériques et des biosimilaires. La régulation actuelle surencadre un marché qui gagnerait à fonctionner davantage par la concurrence. Élargir ce marché, réduire les freins administratifs à l’entrée et permettre une véritable compétition par les prix libérerait des ressources considérables, réallouables vers le financement des innovations.
Prendre en compte l’impact sur les territoires
L’impact économique à cinq ans d’un laboratoire sur les territoires – emplois, R&D locale, production – devrait peser dans la régulation de ses produits, selon des règles claires et prévisibles. Cela transformerait la France en partenaire stratégique et attractif, plutôt qu’en simple marché captif.
Forte de cette réforme, la France pourrait porter une vision réformatrice à l’échelle européenne. L’Union européenne doit devenir une puissance mondiale d’évaluation de la valeur thérapeutique, d’investissement massif en R&D – comme le préconise le rapport Draghi – et de négociation collective face aux laboratoires.
L’offensive trumpienne sur les prix des médicaments n’est pas une menace à subir. C’est un électrochoc. Une occasion pour repenser en profondeur notre modèle pharmaceutique, en assumant que l’accès universel aux soins et l’attractivité pour l’innovation ne sont pas des objectifs contradictoires, ils sont les deux piliers d’une même souveraineté sanitaire.
Frédéric Bizard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.04.2026 à 07:41
Pourquoi continuer d’apprendre certaines choses par cœur ?
Texte intégral (1380 mots)
À une époque où le savoir est à portée de clic, pourquoi demander aux enfants d’apprendre encore certains cours et certaines notions par cœur ? En quoi est-ce formateur ? Dans quelle mesure cela peut-il encore les aider à appréhender le monde qui les entoure ?
Avec les intelligences artificielles génératives, il est désormais possible d’obtenir en quelques secondes une réponse argumentée à presque n’importe quelle question. Cette accessibilité inédite du savoir conduit certains à considérer que l’« intelligence » elle-même serait désormais disponible à la demande, au point de rendre les études superflues. Dans ce contexte, pourquoi continuer à apprendre certaines choses par cœur ?
Mémoire et technologies : un questionnement ancien
La question n’est pas nouvelle. Dans le Phèdre, Platon rapporte le mythe de Theuth, dieu inventeur de l’écriture, qui promet au roi égyptien Thamous d’améliorer la mémoire des hommes. Celui-ci lui répond au contraire que l’écriture risque de produire l’oubli, en donnant l’illusion du savoir sans en assurer la possession réelle. À chaque grande transformation technique – de l’écriture à l’imprimerie, jusqu’aux technologies numériques – la même inquiétude resurgit : allons-nous perdre la mémoire en déléguant nos connaissances à des supports extérieurs ?
Mais ces transformations ne se résument pas à une perte. Elles modifient en profondeur notre manière de penser, en nous permettant d’étendre et de redistribuer nos capacités cognitives dans notre environnement. Comme l’ont montré des auteurs tels que André Leroi-Gourhan ou Bernard Stiegler, les techniques ne se contentent pas de prolonger l’action humaine : elles participent à la constitution même de nos capacités cognitives.
Livres, ordinateurs, moteurs de recherche ou intelligences artificielles ne sont pas de simples outils : ils participent à des formes de cognition distribuée, que Katherine Hayles a décrites comme des « assemblages cognitifs ».
Dès lors, la question n’est peut-être plus de savoir s’il faut encore apprendre par cœur, mais plutôt : quelles connaissances doivent rester en nous pour que la compréhension reste possible dans un monde où l’information est partout accessible ? Cette question concerne directement les élèves, les étudiants et leurs enseignants, confrontés à la place croissante des outils numériques dans les apprentissages.
Apprendre « par cœur » ne désigne pas ici une simple répétition mécanique, mais l’intégration de connaissances suffisamment stabilisées pour être mobilisées dans la compréhension.
Qu’est-il encore nécessaire d’apprendre ?
On pourrait penser que l’accès généralisé à l’information rend inutile l’apprentissage par cœur. Pourquoi mémoriser ce que l’on peut retrouver en quelques secondes ? Cette idée repose pourtant sur une confusion : disposer d’une information ne signifie pas la comprendre. Comme l’ont montré les travaux de Naomi Baron sur la lecture et les environnements numériques, l’accès facilité aux contenus ne garantit ni leur appropriation ni leur intégration dans un cadre de connaissances structuré.
À lire aussi : Déléguer la lecture à l’IA : quels savoirs et plaisirs sacrifions-nous ?
Pour interpréter une information, il faut déjà disposer de repères, de concepts, de connaissances préalables. Ces connaissances permettent de construire une représentation cohérente de ce que l’on lit ou entend, en reliant les informations entre elles et à des expériences passées. Sans ces structures internes, les informations externes restent inertes, voire trompeuses. Elles peuvent aussi être mal interprétées ou prises pour fiables sans être correctement évaluées, qu’il s’agisse de contenus en ligne ou de réponses générées par des intelligences artificielles.
La mémoire ne sert pas seulement à stocker des données, mais à organiser le savoir et à lui donner sens. Elle permet également d’anticiper, de comparer, de relier des informations entre elles et d’élaborer des raisonnements. Accéder à une réponse ne garantit ni son interprétation correcte ni sa mise en relation avec d’autres connaissances. Un étudiant peut ainsi obtenir une explication juste d’un phénomène scientifique sans pour autant en saisir les enjeux, faute de maîtriser les concepts nécessaires pour l’intégrer dans un ensemble cohérent.
Cela conduit à distinguer plusieurs types de connaissances. Certaines peuvent être largement externalisées : des faits isolés, des dates, des informations ponctuelles. D’autres, en revanche, doivent être internalisées. C’est le cas des concepts fondamentaux, du vocabulaire – notamment disciplinaire –, des grandes structures explicatives – qui permettent d’organiser et de relier les connaissances entre elles –, ainsi que des procédures automatisées comme le décodage en lecture ou le calcul. Ces connaissances ont en commun de structurer la compréhension plutôt que d’ajouter simplement des informations. Elles ne sont pas simplement utiles : elles sont nécessaires pour comprendre, raisonner et apprendre.
Le vocabulaire d’une discipline, par exemple, ne sert pas seulement à nommer des objets : il permet de structurer la pensée et d’accéder à des distinctions conceptuelles. De même, les automatismes comme le décodage en lecture ou le calcul libèrent des ressources cognitives indispensables à des raisonnements plus complexes.
Des connaissances pour penser avec les outils
Il serait illusoire, dans ce contexte, de chercher à se passer des outils dont nous disposons, tant ils font partie intégrante de nos activités cognitives. Les technologies numériques et l’intelligence artificielle ne remplacent pas ces connaissances internes : elles les prolongent. Elles s’intègrent à ce que l’on peut appeler des assemblages cognitifs, dans lesquels la pensée se distribue entre le cerveau, les outils, les interactions avec autrui et l’environnement, et où l’accès à l’information s’articule en permanence avec les connaissances déjà présentes en mémoire.
Mais pour que ces assemblages fonctionnent, encore faut-il qu’il y ait quelque chose à assembler : une base de connaissances et de structures internes permettant d’interpréter, de sélectionner et d’organiser l’information. Dans ces assemblages, consulter un moteur de recherche, interroger une intelligence artificielle ou relire un document ne sont pas des opérations extérieures à la pensée, mais des prolongements de celle-ci.
Dès lors, la question n’est plus de savoir s’il faut apprendre par cœur ou non, mais de déterminer ce qui doit être appris pour que l’accès au savoir reste possible. Les institutions éducatives, à travers des dispositifs comme le socle commun de connaissances et de compétences, tentent d’apporter des réponses à cette question. Mais à l’ère de l’intelligence artificielle, cette question mérite d’être reposée.
Cela suppose de repenser non seulement ce que l’on apprend, mais aussi les critères qui guident ces choix. Apprendre par cœur ne disparaît pas : il change de fonction. Il ne s’agit plus d’accumuler des informations, mais de construire les structures qui rendent le monde intelligible.
Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.04.2026 à 07:41
Moyen-Orient : au-delà du choc énergétique, une crise mondiale pour les ressources minérales
Texte intégral (2724 mots)
La crise économique née dans le sillage de la guerre en Iran n’est pas seulement un choc pétrolier et gazier. Elle fragilise l’ensemble des chaînes d’approvisionnement de ressources minérales cruciales, tant pour l’agriculture mondiale que pour la transition énergétique.
Le conflit qui secoue le Moyen-Orient depuis le 28 février 2026 provoque une onde de choc sur l’ensemble des marchés mondiaux des ressources minérales, au-delà des impacts sur les marchés du pétrole et du gaz. La région, point de passage stratégique pour le transport maritime de par son positionnement géographique, joue en effet un rôle clé dans l’approvisionnement en aluminium, en soufre et en hélium. En effet, leur production nécessite du gaz naturel. Cela affecte aussi, plus indirectement, d’autres métaux dont l’industrie dépend soit du pétrole, soit du soufre, comme le nickel, le titane ou le cuivre.
Les restrictions du transport dans le détroit d’Ormuz, par lequel ont transité près de 34 % du pétrole brut mondial en 2025 ainsi que 19 % du gaz naturel liquéfié, agissent comme un verrou géopolitique dont les effets se répercutent sur toutes les chaînes de valeur industrielles, bien au-delà des hydrocarbures et des produits pétrochimiques.
Nous travaillons pour l’Observatoire français des ressources minérales pour les filières industrielles (Ofremi), coordonné par le BRGM, impliquant également le CEA, l’IFPEN, l’Ifri et l’Ademe. Cet observatoire peut apporter un éclairage stratégique sur cette crise en offrant une lecture globale des chaînes d’approvisionnement en ressources minérales, au-delà des seules dynamiques énergétiques.
Par son expertise sur les métaux et minéraux critiques au travers de l’ensemble de leurs chaînes de valeur, l’Ofremi met en évidence les effets systémiques et souvent sous‑estimés de ce type de conflit sur l’ensemble des secteurs stratégiques pour notre économie. Nous vous proposons dans cet article un tour d’horizon des effets de la crise sur plusieurs matières critiques : l’hélium, l’aluminium, le soufre, le nickel, le cuivre et le titane
Hélium : une pénurie mondiale inédite
L’hélium est un sous-produit du traitement du gaz naturel lors de sa liquéfaction. Environ un tiers de la production mondiale d’hélium provient du site de Ras Laffan, au Qatar.
La rupture d’approvisionnement risque d’être fortement impactante à terme pour l’industrie, car cet élément est indispensable à la fabrication de semi-conducteurs, ainsi qu’à une partie des équipements médicaux.
Ainsi, Taïwan, la Corée du Sud et la Chine sont particulièrement exposés, tout comme les équipements de santé européens (aimants supraconducteurs présents dans les appareils IRM notamment), si des circuits d’approvisionnement alternatifs ne sont pas identifiés à moyen terme.
Aluminium : une industrie régionale paralysée et des tensions sur les prix à prévoir
La production d’aluminium métal à partir d’alumine, elle-même issue de la bauxite, requiert beaucoup d’énergie. On la produit généralement là où elle est disponible à bas coût, dans des fonderies fonctionnant au gaz naturel. C’est pourquoi environ 10 % des capacités mondiales de production d’aluminium se situent dans le Golfe persique. Le manque de gaz et l’impossibilité d’importer l’alumine d’Australie entraînent donc des arrêts de production, comme chez les Qataris Qatalum (joint-venture entre le norvégien Hydro), Qamco (qui maintiendra sa production à 60 % de sa capacité) et Alba (Aluminium Barhain BSC), dont l’arrêt contrôlé de trois lignes de procédés réduira de 19 % sa production annuelle.
Cette situation risque d’accroître la hausse des prix de l’aluminium, déjà sous tension depuis un an. Au 1er avril 2026, le prix de l’aluminium coté à la bourse de Londres avait augmenté de près de 45 % sur un an. Le phénomène devrait encore être amplifié par la hausse des prix de l’énergie, la baisse de l’offre en provenance du Moyen-Orient et de potentielles spéculations.
L’Europe et les États-Unis dépendent des importations en aluminium provenant du golfe Persique, et sont donc particulièrement vulnérables aux changements du marché.
Soufre : un maillon critique qui menace l’agriculture mondiale, mais pas seulement
Dans le golfe Persique, le soufre n’est quasiment pas extrait de mines : il est coproduit à partir des hydrocarbures, en particulier du gaz naturel et du pétrole, riches en soufre. Les pays du Golfe fournissent un quart du soufre mondial. Or, le soufre est essentiel à la fabrication des engrais phosphatés, mais aussi d’acide sulfurique, indispensable à la métallurgie du cuivre et du nickel et à de nombreux procédés industriels.
Des ruptures d’approvisionnement pourraient provoquer une flambée des prix des engrais et, à plus long terme, des tensions sur le secteur agricole ainsi que des réactions protectionnistes, notamment de la Chine, qui est aujourd’hui le principal producteur mondial de soufre.
Nickel : l’Indonésie en difficulté
Les usines indonésiennes utilisant la lixiviation haute pression (procédé appelé High-Pressure Acid Leaching, ou HPAL) produisent 70 % des produits intermédiaires à base de nickel utilisés pour les batteries. Or, cette industrie utilise de l’acide sulfurique produit à partir du soufre importé du Moyen-Orient.
Avec des stocks couvrant à peine un mois, certaines installations ont déjà suspendu leur production. Cette situation tendue pourrait perturber la chaîne mondiale des batteries haute performance pour les véhicules électriques.
À lire aussi : Quelle technologie de batterie pour les voitures électriques ? Un dilemme de souveraineté industrielle pour l’Europe
Cuivre et titane : des impacts pour l’instant indirects
Le cuivre n’est pas directement menacé, mais sa production dépend elle aussi de l’acide sulfurique, utilisé par les procédés métallurgiques. Comme le prix du cuivre dépend fortement de l’état de l’économie mondiale, il pourrait reculer si celle-ci est freinée par la hausse des prix du pétrole.
Pour ce qui est du titane, L’Arabie saoudite possède une usine d’éponges de titane (forme poreuse et irrégulière de titane ure, obtenu par réduction du tétrachlorure de titane, qui est une des formes de titane faisant l’objet de commerce mondial), située au bord de la mer Rouge. Il s’agit d’un matériau critique pour l’industrie aéronautique.
Si ce site industriel est peu exposé actuellement, il pourrait le devenir dans le cas d’une extension du conflit du côté de la mer Rouge.
Un choc global aux répercussions durables
La crise au Moyen-Orient ne saurait pas être réduite à un simple épisode géopolitique : elle révèle la sensibilité structurelle des chaînes d’approvisionnement mondiales, en déclenchant une cascade de vulnérabilités. Pétrole, gaz, hélium, soufre, aluminium, nickel… autant de ressources essentielles dont la disponibilité conditionne les secteurs industriels, notamment ceux porteurs de la transition énergétique.
Si le conflit s’inscrit dans la durée, les tensions pourraient s’amplifier, entraînant une hausse généralisée des coûts de production pour les entreprises, une augmentation durable des prix et des risques d’approvisionnement dans certains secteurs. La sécurisation des approvisionnements en ressources minérales, par la diversification des lieux de production, est plus que jamais d’actualité.
Antoine Lebrault, chargé de communication au BRGM, a participé à l’écriture de cet article.
Cet article a été réécrit sur la base d’une note de l’Ofremi à diffusion restreinte, avec les contributions de Marc-Antoine Eyl-Mazzega et Thibault Michel (Ifri), Emmanuel Hache (IFPEN) et Stéphane Bourg, Claire André-Luquet, Gaétan Lefebvre, Katherine Leroy, Paul Notom, Éric Pujol, Aurélien Reys (BRGM).
Bialkowski Anne a reçu des financements de l'ANR dans le cadre du projet OFREMI
Mathieu Leguerinel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 16:52
Parkinson : comprendre comment les protéines toxiques s’accumulent dans les neurones
Texte intégral (1616 mots)
À l’heure actuelle, il n’existe aucun traitement curatif contre la maladie de Parkinson. La découverte de la fonction, longtemps passée inaperçue, d’une protéine impliquée dans la maladie permet de mieux comprendre son émergence, et pourrait ouvrir de nouvelles pistes thérapeutiques.
La maladie de Parkinson continue à progresser. On estime qu’elle affectera en 2050 plus de 25 millions de personnes dans le monde, contre 11,8 millions en 2021. Selon ces évaluations, la situation de la France, qui figure parmi les dix pays du monde les plus touchés, ne devrait pas s’améliorer.
Rien d’étonnant à cela : à l’heure actuelle, il n’existe aucun traitement capable de guérir cette affection. Les médicaments disponibles ne peuvent que diminuer les symptômes qui frappent les patients. Pour espérer changer les choses, il est impératif de mieux comprendre les mécanismes de la maladie.
C’est ce à quoi nous travaillons avec mon équipe. Nos recherches ont permis de révéler qu’une protéine associée à la maladie – la parkine – était capable d’interagir avec l’ADN. La découverte de ce rôle permet de lever le voile sur certains mécanismes de la maladie, et pourrait conduire à l’identification de nouvelles pistes thérapeutiques.
À l’origine de la maladie, une chute de la production de dopamine
La progression de la maladie de Parkinson s’explique à la fois par le vieillissement de la population et par l’amélioration des méthodes de diagnostic. Les conséquences médicales, sociales et économiques considérables de cette pathologie en font un enjeu majeur de santé publique. À l’heure actuelle, cependant, de nombreuses zones d’ombres persistent quant ses causes.
On sait que cette affection prend racine dans une région du cerveau appelée la substance noire. C’est là que sont localisés des neurones d’un type particulier, appelés « neurones dopaminergiques ». Comme leur nom l’indique, ils sont à l’origine de la production de dopamine.
Cette molécule, qui agit à la fois comme un neurotransmetteur (un messager chimique transportant les informations entre les cellules nerveuses) et comme une hormone, joue un rôle central dans de nombreux processus. Elle est, par exemple, impliquée dans la régulation du plaisir et dans le circuit de la récompense. La dopamine est aussi très importante pour le contrôle du mouvement, ainsi que pour de nombreuses autres fonctions : la motivation, l’apprentissage, l’attention, la régulation émotionnelle, la réponse au stress et les fonctions cognitives.
Lorsque les neurones qui la produisent dégénèrent, sa production chute, ce qui est à l’origine des symptômes moteurs de la maladie de Parkinson : tremblements, lenteur des mouvements, rigidité musculaire. Si ces symptômes sont bien connus, on sait moins que la maladie s’accompagne aussi de symptômes dits « non moteurs » : perte de l’odorat, constipation, dépression, difficultés cognitives…
Autant de signaux qui compliquent le diagnostic et la prise en charge des patients au fil de l’évolution de leur maladie. L’établissement précoce du diagnostic est particulièrement important, car pour freiner au maximum la dégradation des capacités des malades, il faut administrer les traitements disponibles au plus tôt. Des traitements qui sont, comme nous allons le voir, encore largement perfectibles.
Des traitements à améliorer
Les traitements disponibles à l’heure actuelle reposent principalement sur l’administration de L-DOPA, un précurseur de la dopamine (c’est-à-dire une molécule qui, après modification, pourra être transformée en dopamine). Ces médicaments permettent de soulager les symptômes, parfois de façon spectaculaire, mais ne freinent pas la progression de la maladie.
Pour aller plus loin, il est donc indispensable de comprendre ce qui se passe à l’intérieur des neurones. Pour cela, les chercheurs s’intéressent à différentes protéines. Au sein de notre équipe, nous travaillons à élucider le rôle d’un trio de molécules dont chaque membre joue un rôle central dans l’apparition et la progression de la maladie de Parkinson : la parkine, l’alpha-synucléine et la glucocérébrosidase.
Notre objectif est de clarifier la façon dont ces trois cibles prioritaires interagissent, afin d’identifier de nouvelles pistes thérapeutiques, tant pour les formes sporadiques que familiales de la pathologie. Pour comprendre comment ces trois protéines peuvent mener au développement de la maladie, il faut revenir sur le rôle qu’elles assument au sein des cellules.
Une nouvelle fonction pour la parkine
En temps normal, l’alpha-synucléine est une protéine bénéfique, puisqu’elle empêche la mort des cellules nerveuses. Cependant, lorsqu’elle est mutée, modifiée chimiquement ou insuffisamment éliminée, elle s’accumule dans les neurones, où elle forme progressivement des agrégats toxiques. Ces amas, qui perturbent le fonctionnement neuronal, sont considérés comme l’une des signatures majeures de la maladie de Parkinson.
Pourquoi et comment l’alpha-synucléine s’accumule-t-elle ? Nos travaux, qui portent sur la parkine, autre membre du trio de protéines précité, ouvrent des pistes pour répondre à cette question.
Dans les cellules nerveuses, la parkine favorise l’élimination des protéines en excès. Or, en 2009, nous avons démontré qu’elle assumait aussi une autre fonction : elle est également capable de contrôler l’expression de certains gènes dans les cellules.
Cette découverte a bouleversé le dogme établi, selon lequel cette protéine assumait une seule et unique fonction. Ce qui a d’importantes implications dans le développement de la maladie de Parkinson.
Des dérèglements en cascade
Lorsque la parkine est altérée – à cause de mutations, du vieillissement ou d’autres mécanismes – plusieurs processus cellulaires se dérèglent. C’est non seulement le cas de la régulation de la production d’alpha-synucléine, mais aussi de celle du troisième membre de notre trio de protéines : la glucocérébrosidase. Or, en temps normal, cette enzyme joue notamment un rôle essentiel dans la dégradation de l’alpha-synucléine (ainsi que d’autres composés cellulaires).
Actuellement, nous poursuivons nos travaux, avec pour objectif d’estimer la part due à la parkine dans la régulation directe et indirecte du gène de l’alpha-synucléine.
Si la parkine ne joue plus son rôle de régulatrice de l’expression des gènes, la production d’alpha-synucléine est perturbée, ce qui conduit à son agrégation (par divers mécanismes que nous n’expliciterons pas ici).
Qui plus est, l’inactivation de la parkine provoque une diminution de l’expression du gène de la glucocérébrosidase, ce qui entrave les processus de dégradation impliqués dans l’élimination des protéines. Résultat : l’alpha-synucléine sous sa forme agrégée et toxique, s’accumule dans les cellules nerveuses (résultats en cours de publication).
Vers de nouvelles pistes thérapeutiques
Nos résultats soulignent que la capacité de la parkine à contrôler des gènes qui interviennent dans la dégradation des protéines toxiques (via la régulation de la glucocérébrosidase) est cruciale.
Cette capacité est non seulement impliquée dans le développement de la maladie de Parkinson, mais aussi, probablement, dans d’autres maladies neurodégénératives associées à des dysfonctionnements de la machinerie cellulaire responsable de la dégradation des protéines, par exemple la maladie d’Alzheimer.
À terme, nous espérons parvenir à mieux comprendre les mécanismes de régulation génique de l’alpha-synucléine, ainsi que le rôle joué par la parkine dans le développement des formes génétiques (liées aux mutations du gène de cette protéine) et sporadiques de la maladie de Parkinson (les formes les plus répandues).
Ces connaissances pourraient conduire à l’identification de nouvelles pistes thérapeutiques s’attaquant aux causes de la pathologie, et non plus seulement à ses symptômes.
Le projet SynaPark (ANR-20-CE16-0008) est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Cristine Alves Da Costa a reçu des financements de l’Agence nationale de la recherche dans le cadre du projet Synapark (ANR-20-CE16-0008).
09.04.2026 à 16:51
Quelles sont les chances de Jean-Luc Mélenchon à la présidentielle ?
Texte intégral (1704 mots)
Après les victoires de La France insoumise dans plusieurs villes importantes aux dernières municipales, notamment autour de figures de personnalités issues de l’immigration, le parti de Jean-Luc Mélenchon semble en position favorable pour aborder l’élection présidentielle. Mais son futur candidat a-t-il des chances de se qualifier au second tour ? Et dans ce cas, pourrait-il s’imposer face au candidat du Rassemblement national ? Entretien avec le politiste Rémi Lefebvre.
The Conversation : La France insoumise (LFI) a-t-elle progressé de façon significative avec les élections municipales 2026 ?
Rémi Lefebvre : Le bilan de LFI peut apparaître modeste au regard du nombre de villes conquises : une dizaine de villes sur 35 000 communes, c’est beaucoup moins que le Parti socialiste ou que le Parti communiste français qui ont des maires dans des centaines de villes. Mais il y a incontestablement une percée puisque LFI partait de zéro. Ils revendiquent environ 1 000 conseillers municipaux, une ville de 150 000 habitants, une autre de 100 000. Les villes gagnées peuvent devenir des laboratoires pour les années qui viennent, renforcer l’armature militante et territoriale du parti. Autant d’atouts en vue de l’élection présidentielle.
Autre élément majeur : LFI envoie un signal aux populations issues de l’immigration. Plusieurs maires noirs ont été élus : symboliquement, c’est très important car, de fait, il y a peu de maires noirs en France. Il faut savoir que le profil des députés LFI est très différent de ces nouveaux édiles : les députés sont issus des classes moyennes supérieures, urbains et diplômés. Il y avait bien eu Rachel Kéké, mais elle a été battue en 2024. Là, on voit apparaître un nouveau profil d’élus.
Les quartiers populaires, notamment les Français issus de l’immigration, ont-ils voté LFI ?
R. L. : La France insoumise n’a pas le monopole de cet électorat, qui demeure très abstentionniste. Mais il y a très clairement un phénomène de cristallisation autour de LFI. À Lille, Lahouaria Addouche, qui était la tête de liste LFI, a suscité un véritable engouement. Elle est ouvrière, d’origine maghrébine, cela a beaucoup plu dans les quartiers. Mes étudiants lillois ou certains cadres ont également été sensibles à son profil et à une proposition de renouvellement du personnel politique. LFI joue la carte du dégagisme face aux notables en place à travers la promotion de candidats issus de l’immigration. Cette approche a fonctionné localement dans de nombreux endroits.
Rappelons, avec le sociologue Olivier Masclet, qui travaillé sur la gauche et les quartiers, que le PS ou le PCF n’ont pas beaucoup promu ce type de profils. Balli Bagayoko est d’abord passé par le Parti communiste, sans succès, et La France insoumise l’a finalement récupéré.
LFI a théorisé son approche en parlant de « nouvelle France »…
R. L. : Je suis frappé par la capacité de Jean-Luc Mélenchon à alimenter le débat public et à structurer l’agenda médiatique et politique. Ses saillies, souvent violentes et volontairement polémiques, contribuent à son exposition, mais ses idées également, comme celle de « nouvelle France ». Ce concept désigne les jeunes, les quartiers, les diplômés : il évoque à la fois le métissage et le renouvellement générationnel. Il s’agit de se positionner par rapport au prétendu « grand remplacement » et d’installer un duel avec l’extrême droite en s’opposant à sa vision de la France. C’est un prolongement de l’idée de créolisation, défendue par Jean-Luc Mélenchon en 2020 (le terme est emprunté à Édouard Glissant, et désigne le brassage des cultures), mais cela va plus loin avec la construction d’un récit national, d’une conception de la communauté nationale.
À lire aussi : La République laïque de Jean‑Luc Mélenchon : un débat qui fracture la gauche et bien plus encore
Quels sont les atouts de La France insoumise pour la présidentielle de 2027 ?
R. L. : La France insoumise a trois forces : elle a un leader incontesté, un programme quasiment immuable, et une machine électorale très performante pour une élection présidentielle. La force militante est d’environ 100 000 personnes, avec 400 000 soutiens inscrits sur la plateforme. LFI, c’est aussi une armée numérique très importante : les abonnés YouTube de Mélenchon sont plus d’un million, et LFI développe sans cesse de nouveaux outils numériques. Au moment où les autres partis de gauche sont englués dans leurs divisions internes, LFI est en ordre de marche pour 2027 : tout est organisé, planifié, rationalisé. La capacité d’organisation et de mobilisation du parti est certainement renforcée par la dynamique des municipales. On peut donc s’attendre à une montée en puissance de LFI dans les mois qui viennent : la machine est déjà en marche.
Quelle est la vision stratégique de LFI en vue de la présidentielle et des législatives qui suivront probablement en 2027 ?
R. L. : LFI propose une fédération à gauche, avec une volonté de répartir les investitures aux élections législatives. C’est clairement orienté en direction des écologistes. Vu l’attentisme du PS et ses hésitations à s’engager dans une primaire, LFI va essayer de détacher les verts du PS. On peut s’attendre à ce que l’aile gauche des écologistes soit tentée de rallier LFI, ce fut déjà le cas pendant les municipales.
L’objectif de Mélenchon, c’est de tout faire pour empêcher la gauche non mélenchoniste de se structurer. Il s’agit de neutraliser le pôle unioniste de gauche (Faure, Tondelier, Ruffin, Autain) pour installer un duel avec le pôle social-démocrate (Hollande, Glucksmann, Guedj, Vallaud).
Quelles sont les chances de Jean-Luc Mélenchon, futur candidat à l’élection présidentielle ?
R. L. : Aujourd’hui, Jean-Luc Mélenchon est à 12 % ou 13 % d’intentions de vote dans les sondages. C’est plutôt un bon niveau pour un début de campagne. Il a un socle solide qui ne varie pas, malgré ses outrances verbales répétées. C’est un atout majeur, incontestablement. Mais peut-il élargir à partir de ce socle ? Peut-il reproduire l’extraordinaire siphonnage de voix liées au vote utile comme en 2022 ? L’idéal pour Jean-Luc Mélenchon serait que la gauche non mélenchoniste et le bloc central demeurent divisés et morcelés. Mais si le bloc central désigne un candidat unique ou si un candidat se détache, la donne change et le seuil d’accès au second tour s’élève. Par ailleurs, on peut imaginer un vote utile d’électeurs modérés dès le premier tour – y compris d’électeurs de gauche – pour un candidat comme Édouard Philippe qui, pour l’instant, semble le mieux placé pour battre le candidat RN au second tour.
L’un des enjeux majeurs de cette présidentielle sera de savoir qui réussira à capter le vote de centre gauche. Au soir de son élection au Havre, Édouard Philippe a envoyé des signaux en direction de l’électorat centriste modéré. Or, Boris Vallaud, François Hollande, Raphaël Glucksmann visent le même espace. Aujourd’hui, il est trop tôt pour anticiper les dynamiques de tous ces concurrents dans les mois à venir.
Et si Mélenchon arrive au second tour ?
R. L. : Jean-Luc Mélenchon est un solide candidat de premier tour, mais on ne perçoit pas de stratégie crédible pour le deuxième tour. Certains politistes ont imaginé que les abstentionnistes pourraient voter Mélenchon face à Bardella ou à Le Pen, lui permettant de l’emporter au second tour. J’ai du mal à y croire. En revanche, les municipales ont montré que la mobilisation à droite était très forte contre LFI. À Clermont-Ferrand, à Toulouse, à Brest, la perspective d’une victoire de LFI a surmobilisé l’électorat de droite, celui qui vote LR ou RN au premier tour. Le caractère répulsif de LFI est incontestable et devrait se confirmer dans le cadre d’un deuxième tour de présidentielle. Aujourd’hui, dans l’hypothèse d’un duel Bardella-Mélenchon au second tour, les hypothèses donnent 70 contre 30 environ. On ne peut anticiper des résultats un an avant le scrutin, mais l’issue d’un second tour Bardella-Le Pen face à Mélenchon ne laisse pas beaucoup de doutes.
L’élection présidentielle va se jouer sur le choix du candidat qui fera face à l’extrême droite au second tour, ce qui est très handicapant pour Jean-Luc Mélenchon.
Propos recueillis par David Bornstein.
Rémi Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 16:51
Médiation entre les États-Unis et l’Iran : le Pakistan sur le devant de la scène diplomatique mondiale
Texte intégral (2298 mots)

Alors que Donald Trump venait de menacer d’anéantir la civilisation iranienne, Washington et Téhéran ont finalement conclu, le 7 avril 2026, un cessez-le-feu temporaire de deux semaines, en échange de la réouverture du détroit d’Ormuz. Le Pakistan, fort de ses relations privilégiées avec les deux pays, a joué un rôle important dans les négociations et accueillera sur son territoire les discussions prévues ces tout prochains jours.
L’annonce du fragile cessez-le-feu passé entre les États-Unis, Israël et l’Iran fut premièrement communiquée via une publication du premier ministre pakistanais Shehbaz Sharif sur son compte X.
Il s’agit, en soi, d’une grande victoire diplomatique pour le Pakistan, quand bien même l’accord a rapidement été menacé par la poursuite et même l’intensification des bombardements israéliens sur le Liban.
Le Pakistan demeurera au cœur des négociations de paix, puisque des discussions entre les parties se tiendront sur son territoire à partir de ce 10 avril.
Islamabad est parvenu à réunir les deux adversaires en s’appuyant sur les relations de longue date qu’il entretient avec eux et sur des accords passés avec l’un comme avec l’autre. Ce faisant, il apparaît comme une puissance diplomatique avec laquelle compter.
La longue relation avec l’Iran
Le Pakistan et l’Iran entretiennent une amitié et une alliance anciennes. Partageant plus de 900 kilomètres de frontières, les deux pays ont, depuis la création du Pakistan en 1947, cherché plusieurs fois à s’aider mutuellement à résoudre des crises diplomatiques.
Durant la période monarchique de l’Iran, qui prit fin en 1979, le Pakistan bénéficia d’une médiation iranienne dans ses différends avec l’Afghanistan ainsi que d’un soutien actif de Téhéran lors des guerres qui l’opposèrent à l’Inde en 1965 et en 1971. La relation ne fut pas toujours pas exempte de tensions. Selon certaines sources, l’ancien premier ministre pakistanais Zulfikar Ali Bhutto (1973-1977) n’appréciait guère l’attitude hautaine du shah d’Iran.
Ces liens étroits se sont maintenus après la révolution islamique en Iran. Près de 20 % de la population pakistanaise est chiite et entretient depuis longtemps une relation étroite avec le régime iranien.
Téhéran s’est par ailleurs servi de ces communautés pour diffuser sa propre vision de l’islam et de la politique, en prenant toutefois soin de ne pas franchir certaines limites. Le régime a veillé à ce que les tensions ne dépassent pas un seuil au-delà duquel le gouvernement pakistanais le considérerait comme un facteur de déstabilisation et une menace pour sa propre sécurité.
En raison de cette histoire commune et de cette proximité géographique, le régime iranien est particulièrement disposé à écouter son homologue pakistanais.
Sécurité régionale et nationale
Contribuer à une stabilisation de la situation en Iran est d’autant plus crucial pour le Pakistan que ce dernier souhaite absolument éviter une fragmentation de son voisin de l’ouest en plusieurs petits États.
Le Baloutchistan, la plus grande province du Pakistan, connaît une recrudescence des violences armées commises par le groupe séparatiste Armée de libération du Baloutchistan (BLA). Ses combattants ont attaqué de nombreuses installations militaires, des forces de l’ordre et des fonctionnaires, en particulier ceux originaires de la province du Pendjab (la plus importante sur le plan démographique et économique).
À lire aussi : Who are the Baloch Liberation Army? Pakistan train hijacking was fuelled by decades of neglect and violence
Le Pakistan a conscience qu’un Iran affaibli ou fragmenté pourrait renforcer l’attrait pour l’idéologie de la BLA. Islamabad refuse d’envisager la création d’un grand Baloutchistan qui engloberait des territoires des deux côtés de ses frontières avec l’Iran.
Autre considération : le Pakistan craint que son arsenal nucléaire ne devienne la prochaine cible des puissances étrangères, et cherche ainsi à désamorcer les tensions dans l’ensemble de la région.
La situation géographique du Pakistan est également à prendre en compte. Islamabad ne veut surtout pas se retrouver en étau entre un Iran qui serait contrôlé par Israël et une Inde qui est déjà une proche alliée de Tel-Aviv.
Il est probable que le régime iranien soit conscient de ces préoccupations et comprenne que la médiation du Pakistan repose sur ses propres inquiétudes quant à la sûreté du pays. Mais, du point de vue iranien, ce n’est pas forcément une mauvaise chose : cela signifie que toutes les pistes sont explorées pour parvenir à un cessez-le-feu et à un règlement durable.
Des amis dans le camp MAGA
Le Pakistan jouit d’une réelle crédibilité aux yeux de l’administration Trump. Cela s’explique principalement par le rôle prépondérant que l’armée pakistanaise a joué dans l’élaboration de la politique étrangère du pays. Cette influence, sensible dès la naissance du Pakistan il y a près de 80 ans, s’est encore renforcée récemment.
En 2022, le général Asim Munir a pris ses fonctions de chef d’état-major de l’armée. Il a été promu au grade de maréchal à la suite de la « mini-guerre » qui a opposé le Pakistan à l’Inde en mai 2025.
À lire aussi : Inde-Pakistan : vers une nouvelle guerre de grande ampleur ?
En poste pour les cinq prochaines années et possiblement jusqu’en 2035, il s’est imposé comme le général le plus puissant à la tête du Pakistan depuis des décennies.
Munir a noué des relations cordiales avec le président états-unien Donald Trump. Il s’est rendu à deux reprises au siège de l’administration, où il a notamment été reçu dans le bureau Ovale.
Munir a également influencé la politique du Pakistan à l’égard du Golfe, notamment en ce qui concerne la signature d’un accord stratégique de défense mutuelle avec l’Arabie saoudite en septembre 2025. Cet accord s’appuie sur des décennies de coopération en matière de défense entre les deux pays. Il stipule clairement que toute attaque contre l’un des deux pays sera considérée comme une attaque contre les deux.
Bien que le Pakistan ait pris soin de souligner qu’il n’étend pas son parapluie nucléaire à l’Arabie saoudite, cet accord témoigne d’une dissuasion régionale partagée et de la capacité des deux États à collaborer contre leurs adversaires.
La signature de cet accord fut suivie de celle d’un accord de défense stratégique entre l’Arabie saoudite et les États-Unis, lors de la visite du prince héritier Mohammed ben Salmane à Washington, en novembre 2025.
Une alliance est donc désormais formée entre les États-Unis, l’Arabie saoudite et le Pakistan.
La Chine, autre alliée
Dans le même temps, le Pakistan maintient des relations militaires, économiques et politiques solides avec la Chine. Pékin s’est montré favorable à une désescalade du conflit dans le Golfe, en raison de sa forte dépendance à l’égard du pétrole provenant de la région. Cet intérêt fut clairement exprimé lors de la visite du ministre pakistanais des affaires étrangères Ishaq Dar en Chine, le 31 mars dernier. Peu avant, il avait rencontré ses homologues saoudien, égyptien et turc, confirmant que le Pakistan bénéficie à la fois du soutien de toutes les grandes puissances à majorité musulmane et de la Chine.
En contribuant à une solution possible au conflit en Iran d’une façon telle que Donald Trump peut mettre sa médiation en avant et donc ne pas perdre la face, Islamabad s’impose comme le grand vainqueur diplomatique de la séquence actuelle.
Samina Yasmeen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 16:50
Comment l’Union européenne s’arme-t-elle face à la politique darwiniste de Trump ?
Texte intégral (1806 mots)
Dans la vision du monde du locataire de la Maison-Blanche, les prédateurs, à commencer par les États-Unis, ne font aucun cas de l’Union européenne. Or, à y regarder de plus près, l’UE manifeste de plus en plus sa capacité à résister aux appétits de Washington en se faisant le héraut du respect du droit international.
Au-delà de ses positions erratiques, le président américain n’en finit pas de déboussoler l’Union européenne (UE). Les coups de boutoir répétés de Donald Trump sont d’autant plus déstabilisants qu’ils visent les alliés historiques des États-Unis. Le renouvellement de ses menaces, le 1er avril 2026, de quitter l’Otan en réponse au refus des Européens d’aider militairement son armée à débloquer le détroit d’Ormuz est une nouvelle manifestation d’une désinvolture toxique dans l’usage des rapports de force.
Cette politique darwiniste faite de mépris et d’humiliation se prend à cartographier la scène internationale en « espèces étatiques ». D’un côté, des puissances prédatrices, chacune destinée à se reproduire. De l’autre, des proies soumises, toutes condamnées à disparaître. C’est ainsi que, de manière sidérante, le président a pu menacer, le 6 avril, de « faire disparaître la civilisation iranienne ».
Faiblesses et atouts de l’UE
Sur cette échelle de valeurs, l’UE n’a manifestement pas vocation à s’imposer. Alors que la guerre en Ukraine perdure et que les conflits s’enchaînent sur la planète, les discours de l’administration américaine ne cessent de dévaluer l’Europe. Si l’Union entend déjouer ce sombre sort, elle doit impérativement se pencher sur les écueils qui entravent sa pleine maturation.
Il est vrai que le nombre croissant des États membres rend périlleuse l’expression d’une seule voix dans les domaines régaliens, surtout en période de crises. Mais le mécanisme du vote à la majorité qualifiée pourrait s’appliquer plus largement, ainsi que le recours aux coopérations renforcées. Depuis plusieurs années déjà, Berlin et Paris proposent la constitution de différents groupes « pionniers », capables d’entraîner dans leur sillage d’autres partenaires.
La coalition des volontaires pour sécuriser l’Ukraine et le groupe « E6 », qui rassemble les six plus grandes économies de l’UE – Allemagne, France, Italie, Pays-Bas, Pologne et Espagne pour consolider les leviers économiques de l’UE attestent de cette volonté de doter l’espace communautaire d’une souveraineté stratégique. Trois phases récentes laissent croire à un réveil des consciences d’un certain nombre de pays pour travailler à une force de projection de l’UE sur la scène internationale.
Défense du Groenland, extension du parapluie nucléaire français et implication au Moyen-Orient
Primo, la séquence groenlandaise qui a opposé frontalement le Danemark à Donald Trump a largement mobilisé l’UE. Sur un front politique, les instances bruxelloises ont su faire bloc pour affirmer haut et fort la souveraineté danoise sur le territoire arctique autonome. Et sur un front militaire, l’envoi de contingents européens, organisé par Copenhague avec le ferme soutien de Paris, a ressuscité l’idée d’un pilier européen au sein de l’Otan.
Si l’opération « Arctic endurance » reste modeste en termes logistiques, elle souligne avant tout les velléités de résistance aux assauts américains. Malgré cela, les discussions en cours entre les États-Unis et le Danemark sur l’extension à quatre bases (contre une seule actuellement, la base spatiale de Pituffik) de la présence militaire au Groenland – ce qui permettrait au président Trump de prétendre à une sortie honorable de la crise groenlandaise – pourraient au contraire consolider la dépendance européenne.
D’autant que l’administration Trump donne régulièrement des signes d’autoritarisme. La politique de Washington se montre en effet poreuse aux théories du juriste allemand Carl Schmitt, qui dans les années 1930, développe le concept de libéralisme autoritaire. Aussi retrouve-t-on, dans le langage comme dans l’action des représentants américains, les principes d’un « État fort pour une économie saine », d’une dualité assumée entre « ami et ennemi » et d’une référence aux prises territoriales comme autant de gestes messianiques. En outre, le milliardaire Peter Thiel, appui constant de Trump, n’a aucun scrupule à faire valoir ses lectures bibliques pour évoquer des « guerres sacrées » lors de ses conférences en Europe. Quant à Pete Hegseth, dont le titre officiel de « secrétaire d’État à la défense » a été récemment modifié en « secrétaire à la guerre », il assume pleinement le terme de croisade. Arborant un tatouage de la Croix de Jérusalem et se prévalant d’un soutien de Dieu à son projet, il explique sans ambages que les États-Unis jouissent de l’« arsenal de la foi » : en d’autres termes, d’un magistère de la force.
À lire aussi : États-Unis : quand les imaginaires religieux justifient (ou non) la guerre en Iran
Secundo, le discours très remarqué d’Emmanuel Macron sur l’ouverture du parapluie nucléaire français à des États membres de l’UE va dans le sens d’une autonomie européenne accrue. Tout en s’affranchissant de la doctrine de ses prédécesseurs relative à la « stricte suffisance » de l’arsenal français, le président Macron promeut l’idée d’un accroissement de moyens pour rendre crédible cette « dissuasion avancée ». La France prend donc l’initiative de penser la défense euro-européenne au plan continental à partir de ses propres atouts nationaux.
À lire aussi : Dissuasion nucléaire : tournant majeur dans la stratégie française et européenne
Et, tertio dans le cadre du conflit iranien, Paris assume, là encore, le rôle d’une avant-garde stratégique avec le déploiement en Méditerranée d’une force navale qu’aucun autre pays de l’UE n’est en mesure d’aligner. En réponse au découplage politique croissant entre les États-Unis et l’UE, la réaction française à l’intervention américaine se prévaut du droit international. Tout en cherchant à contribuer au maintien d’un équilibre régional, la France entend rappeler l’ADN de l’Europe : le respect de valeurs normatives. Et c’est désormais une réponse relativement cohérente que l’UE apporte au conflit iranien basée sur la désescalade diplomatique.
Le refus d’un engagement militaire offensif et la défense des intérêts économiques et sécuritaires européens
Mais cet activisme français doit composer avec un certain nombre d’entraves venant principalement d’Allemagne. Outre la division spectaculaire entre Paris et Berlin sur l’accord avec le Mercosur, les divergences s’accumulent sur des sujets stratégiques comme l’énergie (Paris considérant, contrairement à son partenaire, que la production électrique passe par un parc nucléaire garant d’une indépendance géopolitique) ou sur l’industrie d’armement de l’UE (Berlin prenant ses distances de nombreux programmes lancés en commun avec Paris comme l’avion et le char du futur).
Enfin, la diplomatie apporte son lot de contrariétés sur l’échiquier moyen-oriental. Quand l’Allemagne décline la reconnaissance de la Palestine et modère sa position à l’égard d’Israël, hier à Gaza et aujourd’hui au Liban, la France, elle, adopte une posture des plus critiques à l’encontre du gouvernement israélien.
La refondation de l’UE n’est donc pas acquise. Pour autant, elle reste vitale. Car la rupture avec le monde d’hier, basé sur un système de règles internationales que les États-Unis bafouent après en avoir été eux-mêmes les garants, s’impose à tous. En clair, le logiciel européen n’est plus adapté aux déviances actuelles. Dans ce grand jeu de bascule, l’UE peut s’inspirer des résolutions d’un autre partenaire nord-américain qui l’invite à se repenser. Malmené lui aussi par Washington, le Canada propose une voie médiane d’inspiration gaullienne. Lors du dernier Forum de Davos, le premier ministre Mark Carney s’est posé en héraut des puissances moyennes, toutes celles que le darwinisme de Donald Trump verrait volontiers disparaître.
Cette voie alternative qui exige un projet politique, un dirigeant européen aurait pu la clamer. Encore faut-il commencer par le commencement : construire un leadership. Et la perspective de l’élection présidentielle française en 2027 rend le projet plus incertain encore. Sans timonier à la barre, tracer un chemin parait illusoire. Qui plus est en pleine tourmente.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.04.2026 à 16:49
Iran : un nécessaire changement de régime ?
Texte intégral (3909 mots)
Si Donald Trump affirme régulièrement que le régime de Téhéran a déjà changé, puisque bon nombre de ses dirigeants ont été éliminés, il n’en est rien dans les faits. Au contraire, une aile encore plus dure s’est emparée du pouvoir. Le président américain, connu pour son penchant pour la tractation, vient d’annoncer un cessez-le-feu et pourrait bien finir par trouver un accord de long terme avec les nouveaux responsables. La population iranienne, dont une grande majorité abhorre le système en place, serait la grande perdante d’un tel scénario.
Depuis le début des opérations militaires lancées contre l’Iran par les États-Unis et Israël, le 28 février dernier, se pose la question des buts de ce conflit. Les objectifs mis en avant par le président Trump sont restés flous et changeants, si l’on se rapporte à ses déclarations successives. Ces derniers temps semble se dessiner l’idée que l’administration américaine pourrait trouver une sorte de terrain d’entente ou de sortie de crise avec le régime iranien. Ce dernier a d’ailleurs été présenté comme un « nouveau régime » par le président américain.
Il est vrai que le personnel dirigeant a changé, étant donné les assassinats ciblés – dont ceux du Guide suprême Ali Khamenei et d’Ali Larijani, l’un des principaux dignitaires de la République islamique – qui ont été effectués dès le début du conflit. Mais à en croire la Maison-Blanche, le changement de régime serait un fait accompli et la communauté internationale aurait désormais affaire à un autre régime, sous-entendu, plus « modéré ». Or, ce n’est aucunement le cas.
Le résultat des frappes américano-israéliennes : un durcissement du régime iranien
Les leaders qui semblent aujourd’hui en charge sont tout autant issus du régime que leurs prédécesseurs. Ils ne font pas partie d’un quelconque camp « réformiste » qui existerait au sein de l’élite dirigeante et s’inscrivent, en réalité, dans la continuité. C’est en effet l’aile dure des du Corps des gardiens de la révolution qui a pris le contrôle des fonctions clés de l’État et marginalisé l’administration civile du président Pezeshkian. Elle a, aussi, joué un rôle majeur dans la nomination du nouveau Guide, Mojtaba Khamenei.
Ce dernier ne répond pourtant guère aux qualités requises par la Constitution de la République islamique pour occuper cette fonction. C’est d’ailleurs ce qu’a déclaré à l’Assemblée des experts Ali Asghar Hejazi, un haut responsable de la sécurité du bureau de l’ex-Guide suprême, avant d’ajouter que la succession héréditaire était en outre incompatible avec les principes énoncés par Ali Khamenei lui-même. Résultat : Hejazi semble aujourd’hui être dans le collimateur des gardiens.
Mojtaba Khamenei, quant à lui, ne s’est pas montré publiquement depuis plusieurs semaines, si bien que certains émettent des doutes sur le fait qu’il soit en état de diriger le régime, voire en vie. Quoi qu’il en soit, un « conseil militaire » composé de hauts officiers des gardiens exercerait désormais un contrôle total sur la structure décisionnelle centrale, imposant un cordon de sécurité autour de Mojtaba Khamenei.
Un régime irréformable
Outre le fait que l’on n’ait donc pas, en réalité, affaire à des « réformistes » et que même si c’était le cas, il est douteux que la population iranienne – la grande absente des débats sur l’Iran – les accepterait étant donné le rejet massif de l’ensemble du régime qui s’est exprimé en décembre 2025/janvier 2026, la question de fond reste de savoir si ce régime qui s’inscrit dans la continuité, même s’il semble dériver vers une sorte de dictature islamo-militaire sous l’égide des gardiens de la révolution, est réellement « réformable », quels que soient les moyens utilisés. Il faut malheureusement répondre par la négative. C’est en tout cas l’enseignement que l’on peut tirer des 47 années d’existence de la République islamique.
Depuis 47 ans, des observateurs ont périodiquement évoqué de possibles « ouvertures » du régime iranien. Dès la disparition de Ruhollah Khomeyni en 1989 et l’arrivée d’Hachemi Rafsandjani au poste de président (1989 à 1997), a ainsi été évoquée l’idée d’un possible « Thermidor en Iran » pour reprendre le titre d’un ouvrage de Fariba Adelkhah, Jean-François Bayart et Olivier Roy publié en 1992. Il n’en a rien été.
Un peu plus tard, en 1997, l’élection à la présidence de Mohammad Khatami avait à nouveau suscité un espoir de réforme. L’homme était présenté comme un « réformateur », plus ouvert sur le monde. Ne mettait-il pas en avant officiellement le « dialogue des civilisations » ? Nombreux sont les observateurs à avoir pensé à ce moment qu’une évolution positive du régime était possible. Une fois encore, il a fallu déchanter.
Ses deux mandats consécutifs, de 1997 à 2005, ont été marqués non seulement par la persistance de la répression – plus de 150 titres de presse professionnels (hors presse estudiantine) ont par exemple été suspendus durant sa présidence et il a cautionné la politique de filtrage d’Internet qui s’est développée à cette période –, mais aussi par l’élimination d’intellectuels et d’opposants politiques dissidents dans ce qui a été qualifié d’« assassinats en chaîne ».
L’illusion réformiste de cette période s’est totalement dissipée avec le retour au pouvoir des « conservateurs » avec l’élection de Mahmoud Ahmadinejad en 2005 puis l’écrasement du Mouvement vert qui s’était développé à la suite de sa réélection très contestée en 2009 et avait vu des millions d’Iraniens descendre dans la rue.
Ahmadinejad restera au pouvoir jusqu’en 2013. Ses présidences seront marquées par un conservatisme radical, un isolement international accru, des difficultés économiques croissantes et la multiplication des exécutions. Les présidents suivants, quelle que soit leur étiquette – Hassan Rohani (2013-2021), considéré au départ comme un « réformateur », Ebrahim Raïssi (2021-2024), présenté comme un ultraconservateur, puis Massoud Pezeshkian (depuis 2024), qualifié de « réformateur modéré » –, n’ont pas fait évoluer le régime dans un quelconque sens de réforme, d’ouverture ou de modération.
Aucun des dirigeants actuels – tels Mohammad Ghalibaf, qui apparaît comme l’homme fort du moment, ou Ahmad Vahidi, le commandant en chef des Corps des gardiens de la révolution – n’a un profil de réformateur. L’auraient-ils que cela ne changerait rien si l’on s’appuie comme nous venons de le faire sur l’expérience de l’ensemble des présidents depuis la formation de la République islamique.
La réalité est simple : ce régime, s’il a su se monter souple à certains moments pour des raisons tactiques – comme l’avait, par exemple, bien sous-entendu Ali Khamenei au moment de la signature de l’accord de Vienne sur le nucléaire en 2015 –, est en réalité fondamentalement irréformable. Il ne peut en effet se transformer d’une quelconque manière sans perdre son essence « révolutionnaire » même. C’est ce que savent très bien les Iraniens et ce que de nombreux analystes, commentateurs ou décideurs se refusent d’admettre pour diverses raisons.
Que veulent les Iraniens ?
Et si on écoutait la voix des Iraniens ? Depuis l’hiver 2017-2018, on a vu apparaître de manière croissante lors des mouvements de protestation qui se sont multipliés dans le pays la référence à la dynastie Pahlavi. Cela a aussi été le cas de manière récurrente et étendue lors des vastes manifestations qui ont secoué tout l’Iran en décembre 2025 et janvier 2026 avant qu’une répression sanglante ne s’abatte sur les manifestants.
Comme l’ont bien analysé Oliver Bast et Pollet Samvelian dans un article récent publié dans la Croix, la popularité du fils de l’ancien shah d’Iran – dont le nom est le seul parmi d’autres personnalités possibles à avoir émergé lors des protestations de cet hiver – traduit non pas une quelconque « nostalgie », mais une forte défiance envers l’idée même de la possibilité d’une transition réformiste de la République islamique. Le camp dit réformateur est en effet aujourd’hui discrédité, notamment en raison de son impuissance au sein d’un système politique en réalité totalement verrouillé. Le nom de Reza Pahlavi fonctionne dans cette analyse comme un signal envoyé par la population iranienne : celui de la rupture. Il ne dit pas seulement « autre chose », il dit « autre monde », relèvent ces auteurs.
S’il n’est évidemment pas simple de sonder l’opinion publique dans l’un des pays les plus répressifs au monde, cette analyse rejoint néanmoins les études effectuées avant même la répression de janvier 2026 et la guerre actuelle par le Groupe d’analyse et de mesure des attitudes en Iran (Gamaan), une fondation de recherche indépendante à but non lucratif enregistrée aux Pays-Bas. Selon son rapport d’analyse sur les « préférences politiques des Iraniens en 2024 » publié en août 2025, toutes provinces confondues, qu’il s’agisse de zones rurales ou urbaines, de toutes les tranches d’âge et des deux sexes, environ 70 à 80 % des personnes interrogées déclaraient qu’elles ne voteraient pas pour ce régime, tandis que seuls 11 % des sondés lui exprimaient clairement leur soutien.
Depuis, le régime a mené une répression extrêmement violente et sanglante en début d’année 2026, faisant des dizaines de milliers de victimes et n’hésitant pas à faire appel à des milices étrangères pour cette basse besogne. Il s’agit de la pire répression de l’histoire de la République islamique. Elle ne peut que lui avoir aliéné encore davantage de citoyens.
Si l’on suit les enquêtes de Gamaan, de nombreux Iraniens faisaient déjà une distinction claire entre, d’une part, l’idée même de l’Iran et, d’autre part, la République islamique. Ils considéraient le régime comme un élément étranger, une force d’occupation. Une opinion exprimée à travers des slogans, tels que « Notre ennemi est ici même, ils mentent en disant que c’est l’Amérique » et « Ni Gaza, ni le Liban, je ne donnerai ma vie que pour l’Iran » – des positions soutenues respectivement par 73 % et 64 % des personnes interrogées lors de l’enquête menée par Gamaan en 2021. On remarquera d’ailleurs qu’en dépit des opérations militaires israélo-américaines qui ont immanquablement provoqué des destructions et fait des victimes civiles, et contrairement à ce qui se passe en général dans ce type de situation, on ne relève actuellement aucun « effet de ralliement » massif autour du régime.
Déjà lors de la « guerre des 12 jours » de juin 2025, environ 44 % de la population tenait la République islamique d’Iran pour responsable du déclenchement de la guerre. 33 % en attribuaient la responsabilité à Israël et 16 % estimaient que les deux parties étaient également responsables. Très inquiet de la situation actuelle, le régime, affaibli et divisé, a d’ailleurs à nouveau fait appel à ses supplétifs étrangers (notamment les milices irakiennes) pour l’aider à maintenir l’ordre — voire faire régner la terreur – face à sa propre population.
L’impératif de la clarté
Le constat d’un rejet massif de la population iranienne à l’égard du régime étant posé, reste à en tirer les conclusions, c’est-à-dire, essentiellement pour l’administration Trump, à déclarer clairement qu’un des objectifs majeurs de l’opération « Epic Fury » est de créer les conditions nécessaires pour permettre un véritable changement de régime. Un message clair et sans ambiguïté accompagné d’une mise en œuvre réelle de cet objectif – en ciblant par exemple spécialement l’aile la plus dure du régime tout en laissant des portes ouvertes à ceux qui sont le moins compromis – pourrait avoir de nombreuses vertus à la fois en direction de la population iranienne et aussi de ce qui reste de l’ancien régime.
Pour la population, ce signal pourrait apaiser l’incertitude actuelle liée aux ambiguïtés de l’administration Trump quant à ses objectifs et au risque que le président américain ne trouve finalement un terrain d’entente avec le régime iranien, comme il l’a fait dans le cas du Venezuela. C’est la plus grande crainte en Iran, étant donné que ce développement laisserait la population en tête-à-tête avec son bourreau de janvier, celui-ci étant avide de prendre sa revanche sur des citoyens qui ne l’ont guère soutenu dans le cadre du conflit. En revanche, la perspective, même plus lointaine, d’un changement répondant aux attentes exprimées par les Iraniens pourrait à la fois les aider à mieux supporter le coût des opérations militaires du fait de l’espoir d’un changement de régime, mais aussi ouvrir la voie à une mobilisation massive au moment opportun.
Par ailleurs, au sein d’un régime qui n’est pas monolithique et unitaire et qui a été affaibli par trente-huit jours de bombardements, ce positionnement clair pourrait avoir pour vertu d’accroître la pression et les divisions déjà visibles au stade actuel, d’instiller le doute et d’inciter aux défections. Comme le relevait récemment Mohsen Sazegara, l’un des fondateurs des gardiens de la révolution, aujourd’hui en exil, une évaluation interne menée par le ministère iranien du renseignement en 2025 indiquait en effet qu’environ la moitié des membres de base des gardiens de la révolution considéraient leur appartenance à l’organisation comme un simple emploi. Ce ne sont donc pas des « jusqu’au-boutistes », surtout si on leur offre une porte de sortie. Parmi l’autre moitié, animée par des convictions idéologiques ou politiques, une large majorité était, selon Sazegara, insatisfaite en raison de la corruption des commandants, des politiques erronées de la direction et du fait que leur organisation avait été dressée contre le peuple.
Ces conditions offrent un large éventail de possibilités et de stratégies pour faciliter un changement de régime et une transition politique. Sazegara note par exemple que les États-Unis pourraient exercer de fortes pressions pour que la création d’un Conseil national de réconciliation – et les étapes qui en découleraient – soit une condition sine qua non de la fin de la guerre. Cela accroîtrait considérablement la pression sur les tenants actuels du régime, non seulement de la part de la population, mais aussi d’une grande partie des structures gouvernementales et des forces armées. Des « figures de rassemblement » pourraient peut-être, dans ce scénario, également jouer un rôle – éventuellement transitoire – dans la mise en place d’un régime alternatif en Iran. Reza Pahlavi a exprimé son souhait de retourner en Iran, mais il a surtout déjà présenté en avril 2025 un plan de transition complet, l’Iran Prosperity Project (IPP), élaboré par une équipe de plus de 100 conseillers et experts. Ce dernier vise à la stabilisation du pays, au maintien des services essentiels ainsi qu’à la préparation à la transition vers un État laïque et démocratique. Les possibilités ne sont donc pas inexistantes.
Encore faudrait-il que Donald Trump choisisse de se montrer clair sur ce point – ce qui est loin d’être acquis. N’en déplaise à son instinct, à une partie de son électorat et à certains commentateurs, malgré les difficultés, les défis et les débats sur la manière d’atteindre cet objectif, il s’agit de la seule possibilité pour à la fois répondre aux attentes de la majorité de la population iranienne et espérer apaiser, à terme, une région qui en a bien besoin. L’autre terme de l’alternative est le maintien du régime actuel, avec sa dérive islamo-militaire. Ce dernier est certes affaibli à court terme. Mais il va demeurer problématique et pour sa population et pour son environnement régional. Il aura sans aucun doute compris que sa meilleure chance de survie est, en interne, de faire quelques concessions tactiques, tout en s’appuyant en réalité sur la force et le contrôle – voire sur des milices étrangères comme il l’a déjà fait – et, à l’international, de développer le plus rapidement possible des capacités nucléaires. Cela lui permettrait de renforcer ses moyens de pression et de contrôle sur le détroit d’Ormuz afin de mieux assurer, en cas de besoin, l’application renouvelée de la politique de prise d’otage de l’économie mondiale, qu’il vient d’expérimenter avec succès dans cette zone.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.04.2026 à 16:49
Les paysages sonores : un patrimoine naturel méconnu
Texte intégral (4050 mots)
Les paysages sonores font partie de la richesse de notre patrimoine naturel, ils restent cependant méconnus et peu considérés dans les politiques de conservation de la biodiversité.
Nos journées commencent très souvent par un son, celui d’un réveil qui tressaille, d’une radio qui s’allume, d’un téléphone qui vibre, ou d’une voix qui nous dit « Debout, c’est l’heure ! » Les yeux encore fermés, arrivent déjà d’autres manifestations acoustiques : une porte qui claque, une voiture qui passe, un oiseau qui chante, des voisins qui discutent dans la rue ou sur le chemin.
Même si nous sommes des organismes dont la modalité d’exploration du monde est essentiellement visuelle, nous sommes en constante alerte auditive : nous écoutons, parfois sans nous en rendre compte, pour esquiver, trouver, avancer, communiquer ou, plus simplement, profiter d’une musique.
Nous évoluons en continu dans des environnements sonores composés de vibrations de machines pour nous déplacer ou construire (on parle de « technophonie »), de voix humaines (« anthropophonie »), de vocalisations animales non humaines (« biophonie »), de tapotements de pluie, de bruissements de vent ou de grondements océaniques (« géophonie »).
Chaque mélange acoustique, plus ou moins structuré, plus ou moins agréable, qui peut être terrestre, aquatique ou souterrain, constitue un paysage sonore. Le concept scientifique de paysage sonore est apparu au cours des années 1970, notamment dans le livre le Paysage sonore : le monde comme musique, écrit par le musicien et universitaire canadien Murray Schafer. Le paysage sonore peut être défini comme un ensemble de sons issus de sources vibrantes actives en un lieu donné et à un instant donné.
Il existe une infinité de paysages sonores puisque chaque lieu sur Terre est unique et parcouru à un instant T par un ensemble singulier de vibrations sonores. Ces paysages sonores sont perçus, analysés et interprétés par tous les organismes vivants dotés de récepteurs de pression ou de mouvements de particules, qu’ils soient relativement simples, comme les tympans de certains papillons nocturnes qui détectent les cris des chauves-souris qui les chassent, ou très sophistiqués, comme les oreilles asymétriques de certaines chouettes qui savent localiser très précisément les petits rongeurs dont elles se nourrissent.
Plus généralement, les mammifères, les oiseaux, les amphibiens, les reptiles, les poissons, les insectes, les araignées, les crustacés et même certains mollusques et cnidaires, comme les moules et les méduses, écoutent et analysent les paysages sonores qu’ils traversent et qui les traversent. Chaque interprétation des paysages sonores est également unique puisqu’elle dépend des capacités physiologiques et cognitives de chaque individu.
À lire aussi : Perte d’audition : quand les sons de la nature disparaissent
A l’écoute des forêts protégées de France : le projet Sonosylva
En France, les paysages sonores sont le reflet de la grande diversité des territoires hexagonaux, corses et ultramarins, depuis de simples zones vertes périurbaines, occupées par quelques chants d’oiseaux, jusqu’aux immenses forêts tropicales d’Amazonie truffées de coassements de grenouilles et stridulations d’insectes, en passant par les récifs coralliens des îles du Pacifique crépitants de crevettes pistolets dont la fermeture soudaine de leur pince hypertrophiée produisent des claquements en faisant imploser des bulles d’air.
Un tiers de la surface de ces socio-écosystèmes français est protégé par des structures de conservation de la nature, qu’elles soient locales (arrêtés préfectoraux de protection de biotope, réserves de biodiversité intégrales, réserves nationales naturelles), nationales (parcs nationaux) ou européennes (zones Ramsar, zones Natura 2000).
Ces aires protégées ont été, dans la plupart des cas, construites et délimitées à partir des critères d’inventaire faunistique et/ou floristique, ou d’habitats particuliers, en référence notamment aux directives européennes Habitats-Faune-Flore et Oiseaux. Cependant, de ces espaces émanent des paysages sonores qui forment un patrimoine naturel national méconnu dont les valeurs doivent être définies pour être mieux considérées et protégées.
Afin de répondre aux besoins d’information des politiques publiques et des citoyens sur l’état de la biodiversité, un schéma directeur de la surveillance de la biodiversité terrestre a été publié par le gouvernement français en 2024. Dans ce cadre national, une expérimentation de trois ans menée par l’Office français de la biodiversité (OFB) et le Muséum national d’histoire naturelle (MNHN) a pour ambition de documenter et analyser les paysages sonores des forêts protégées de France hexagonale et de Corse.
Ce projet, Sonosylva, repose sur la collaboration de plus de 200 agents employés dans 80 structures couvrant un ensemble de 110 forêts. Ces acteurs de la préservation de la biodiversité ont installé des magnétophones autonomes au cœur de leur territoire forestier afin d’enregistrer les paysages sonores, une minute tous les quarts d’heure, un jour sur deux, du printemps à l’automne, en 2024, en 2025 et, encore cette année, en 2026. Cet observatoire scientifique participatif recueille chaque saison plus d’un million de fichiers audio, soit plus de 16 000 heures de paysages sonores forestiers.
Si l’analyse de cette immense base de données ne fait que commencer, une enquête a déjà été conduite auprès de 162 participants afin de cerner leur intérêt pour ce patrimoine. Comment les paysages sonores naturels sont-ils perçus ? Peuvent-ils faire partie des politiques de conservation, de préservation et de sensibilisation des aires protégées ?
Une perception des paysages sonores conditionnée par les territoires
La majorité des gestionnaires considère que leurs aires protégées se caractérisent par un paysage sonore unique participant à l’identité et au patrimoine de leurs territoires. Ainsi, l’un des répondants remarque que le site dont il a charge « possède des marqueurs sonores emblématiques et riches (faune, bétail domestique, océan). L’éloignement des zones urbaines et la superficie restreinte de la zone publique nous permet de garder un environnement sonore propice à la quiétude sur site ».
Cette empreinte acoustique résulte de l’association de sons naturels et anthropiques, leurs variations spatiales et temporelles étant liées à des facteurs météorologiques, écologiques et sociétaux. Les gestionnaires considèrent par ailleurs les sons dérangeants différemment selon leur ancrage local. Les bruits constants, hors de portée, comme ceux d’une route, d’un couloir aérien ou d’une activité industrielle, sont relativement bien acceptés, pouvant être même considérés comme un simple « bruit de fond ».
Les bruits ponctuels, attribués à un dérangement de voisinage, comme ceux d’une circulation locale, de groupes de visiteurs aux discussions un peu intenses ou d’une activité de récréation telle que la musique, sont, eux, appréciés négativement. Il existe donc un traitement bien distinct entre les bruits distants incontrôlables et les bruits de proximité évitables.
Un manque d’actions de sensibilisation et de formation
L’enquête révèle également un décalage important entre l’intérêt croissant des gestionnaires pour les paysages sonores et un sentiment d’impuissance lié au manque de formation et d’applications concrètes ayant un impact sur les politiques publiques nationales ou locales des territoires, comme le note un participant :
« Démarche pertinente, le paysage sonore et la pollution sonore ne sont que peu parcourues dans nos métiers, alors que ce devrait être pris davantage en compte. Me concernant, je ne m’y penche pas faute de compétences. Des initiations ou formations sur ces sujets pourraient être une bonne base. »
La mise en valeur et la protection des paysages sonores semblent de fait difficiles par l’absence de sensibilisation à l’échelle du pays et par un manque de ressources d’aide à la gestion et à la communication sur la valeur sonore des sites protégés. La thématique du paysage sonore est notamment absente des documents les plus essentiels, comme les guides d’élaboration des plans de gestion des espaces naturels (document CT88). Les structures administratives chargées de protéger les espaces naturels souffrent également de ressources humaines et financières limitées, ne permettant pas aujourd’hui de considérer les paysages sonores, leurs richesses et les pollutions qui les menacent, comme des priorités de gestion.
Les nuisances sonores génèrent des conflits
Les bruits liés aux activités humaines dans les aires protégées, notamment les forêts du projet Sonosylva, génèrent des conflits principalement liés à une propriété essentielle du son : il est non exclusif. Il est, en effet, presque impossible d’empêcher un individu, qu’il soit humain ou non humain, d’émettre un son, et il est également très difficile de contrôler la propagation du son dans l’environnement. Le son, quel qu’il soit, n’a pas de frontières : il traverse les paysages de manière incontrôlable. Un paysage sonore n’a pas de cadre comme un paysage visuel, il est fluide plus que solide, il s’écoule plus qu’il ne stagne.
Les gestionnaires font aussi face à une problématique d’échelle dans la gestion des conflits liés aux sons. Certaines décisions d’aménagement national, comme les tracés des nouvelles lignes ferroviaires ou autoroutes, ne prennent pas en compte les conséquences sur le paysage sonore à l’échelle locale.
À l’inverse, les problématiques locales peuvent conduire à des changements nationaux positifs : le récent « exode urbain » a occasionné des conflits de voisinage avec certains néoruraux dérangés par les grenouilles, les coqs ou les cigales ce qui a conduit, en janvier 2021, à l’inscription des sons et des odeurs des milieux naturels et ruraux dans le premier article du Code de l’environnement, en tant que partie du « patrimoine commun de la nation ».
De nouveaux conflits sonores peuvent apparaître dans les aires protégées, mais alors ce sont les visiteurs humains qui sont susceptibles de déranger : bruits de moteurs (voitures, motos, quads), bruits de fêtes (repas, rave parties) ou de voix peuvent à la fois affecter les espèces non humaines et les autres humains venus chercher un espace de quiétude. :
Ainsi, l’un des participants observe :
« Ces dernières années (en lien avec l’augmentation de la fréquentation), de nombreuses perturbations sonores (visiteurs avec des instruments de musique, des enceintes portatives, des chiens très bruyants). Les groupes de visiteurs sont eux-mêmes très bruyants et ne se rendent souvent pas compte de la portée de leur cri et de leur dérangement. »
Et un autre remarque que « des sons de véhicules motorisés sont audibles depuis le site d’installation de l’enregistreur, notamment ceux de motos, qui sont particulièrement perceptibles. On note également plusieurs passages d’avions de chasse par jour au-dessus du site ».
Agir pour les paysages sonores
Il semblerait que nous assistions à une progressive montée de la conscience collective sur l’impact cumulatif des bruits dans la vie quotidienne comme l’illustrent les rapports de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), de l’Agence européenne pour l’environnement, et de l’Organisation mondiale de la santé (OMS).
Les gestionnaires témoignent d’une volonté de changement qui se manifeste par la création de conférences ou de colloques sur l’aménagement du territoire de manière à intégrer les paysages sonores dans les politiques publiques de préservation de la biodiversité, dans une perspective « Une seule santé » (« One Health », en anglais). Des réflexions sont aussi en cours, notamment dans l’agglomération de Lille (Nord), afin d’intégrer la trame blanche qui cherche à assurer la continuité sonore au même titre que les trames verte et bleue, brune et noire qui préservent les continuités des habitats, des sols et des ciels nocturnes.
En France, des zones de sensibilisation sont mises en place dans différentes réserves nationales naturelles ou parcs nationaux (démarche Quiet-Attitude dans le parc national du Mercantour), des interdictions d'enceintes connectées, (réglementation du parc national des Calanques), ou encore des actions pédagogiques pour sensibiliser au patrimoine sonore (projet Biodiversité sonore de l’Ana–Conservatoire d’espaces naturels en Ariège).
Cependant, ces actions restent relativement marginales. Afin de mieux intégrer les paysages sonores dans les politiques publiques, nous suggérons une réflexion sur les réglementations afin qu’elles limitent au mieux la présence de bruit. Au-delà de ces règles d’usage, nous proposons la création de zones d’écoute du vivant motivées par l’émerveillement plus que par la proscription.
Dans ces zones d’écoute, il s’agirait de favoriser des solutions de réduction des bruits à la source, en limitant par exemple l’usage des machines (transports) et en suggérant un comportement discret (petits groupes). Déjà expérimentés il y a quelques années par le parc naturel régional du Haut-Jura, ces lieux mettraient en valeur l’existence de paysages sonores remarquables permettant de passer d’un comportement dominant dérangeant à une attitude attentive aux autres et respectueuse des sites et de leurs paysages sonores.
Les paysages sonores constituent aujourd’hui une facette méconnue de notre patrimoine naturel pour laquelle il reste presque tout à faire : intégration dans les politiques publiques d’aménagement du territoire, intégration dans les plans de conservation de la biodiversité à petites et à grandes échelles, et, bien sûr, pédagogie pour tous les publics afin d’améliorer notre écoute du monde vivant.
Julie Trottier est membre de du groupe d'experts sur la tenure de l'eau de la FAO (Nations Unies). Elle a reçu des financements de l'Agence Nationale de la Recherche et de l'Agence Française de Développement.
Cyprian Czaban, Jérôme Sueur, Ludovic Crochard, Nicolas Hette-Tronquart et Sylvain Haupert ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
09.04.2026 à 16:48
Mais à quoi sert encore le Livret A ?
Texte intégral (1866 mots)
C’est un paradoxe : le taux de rémunération du Livret A est régulièrement l’objet de critiques pour sa faiblesse relative. Simultanément, il reste le placement préféré des Français, détenu par 8 sur 10 d’entre eux. Peut-être parce que ce n’est pas qu’une question de rendement financier. Et que ce livret plus que bicentenaire remplit des fonctions essentielles dans l’économie, avec un encours total de… 450 milliards d’euros.
Le Livret A est né le 22 mai 1818, à Paris, avec la création de la première Caisse d’épargne. Depuis, il est le produit d’épargne préféré des Français, puisqu’ils sont près de 57 millions (83 % de la population) à en posséder un aujourd’hui. Au début de 2026, l’encours total frôlait 450 milliards d’euros.
Une popularité sans égal
La popularité du Livret A s’explique par sa simplicité d’ouverture, sa parfaite liquidité, son absence de fiscalité et de risque.
Chaque Français, quel que soit son âge, peut ouvrir un Livret A (et un seul !) dans la banque de son choix avec un capital initial de 10 euros (1,50 euros à la Banque postale), soit le montant du solde minimum. Le plafond est fixé à 22 950 euros. Le Livret A a un quasi « jumeau », le Livret de développement durable et solidaire (LDDS) qui obéit aux mêmes règles, mais avec un plafond maximal de 12 000 euros. Le livret A est également accessible à certaines personnes morales (associations, syndicats de copropriétaires et organismes HLM), mais non aux entreprises.
À lire aussi : Épargne : les Français toujours accro au livret A malgré des envies de risque et de rendement
Les fonds sont disponibles sans préavis à la différence d’autres supports d’épargne, tels que l’assurance vie, c’est dire que c’est un placement très liquide. Le retrait minimal est de 10 euros (1,50 euros à la Banque postale). Il est possible de retirer des espèces directement au guichet ou à un distributeur automatique de billets.
Pas d’impôt et peu de risques
Les intérêts perçus sont exonérés d’impôt sur le revenu et de prélèvements sociaux. Autrement dit, le rendement nominal est strictement égal au rendement brut. Le taux d’intérêt servi à l’épargnant est fixe entre deux semestres. Chaque détenteur peut alors calculer le montant des intérêts (calculés par quinzaine et capitalisés au 31 décembre de chaque année).
Enfin, le Livret A est un actif sans risque, car l’épargne placée est protégée par le Fonds de garantie des dépôts et de résolution en cas de faillite de la banque.
Ces avantages font du Livret A le support privilégié pour l’épargne de précaution des ménages, c’est-à-dire un matelas de sécurité immédiatement mobilisable pour faire face à un imprévu. Pour de nombreux Français, il s’agit d’ailleurs du seul support d’épargne. D’où son caractère singulier. Bien évidemment, ces qualités indéniables sont contrebalancées par un rendement faible qui peut faire l’objet de polémiques.
Un faux débat récurrent
Le taux d’intérêt du Livret A est fixé par l’État qui se réfère au calcul effectué par la Banque de France deux fois par an. Depuis 2021, le taux est la moyenne semestrielle du taux d’inflation (hors prix du tabac) et des taux interbancaires à court terme (€STR), avec un arrondi au dixième de point le plus proche.
Cette formule implique que le taux d’intérêt plancher du Livret A est de 0,5 %. Elle implique également que, à certaines périodes, le rendement réel (taux nominal auquel on retranche l’inflation) du Livret A soit négatif : cela implique une perte de pouvoir d’achat de l’argent ainsi épargné. Ce fut le cas notamment lors de la période post-Covid (voir graphique).
Depuis le 1er février 2026, le taux nominal est ainsi fixé à 1,5 % (contre 1,7 % auparavant), ce qui implique un rendement réel d’environ à 0, 8 %. Du point du seul rendement, le Livret A n’est donc pas le produit le plus intéressant. En comparaison, les contrats d’assurance-vie en euros ont rapporté, en moyenne, 2,65 % en 2025.
Sur la même période, le CAC 40 a progressé de plus de 10 %. Rappelons toutefois qu’à l’inverse le rendement nominal des dépôts à vue est nul, donc toujours inférieur à celui du Livret A.
Une contrepartie
La faiblesse du rendement du Livret A n’est donc que la contrepartie de ses avantages. En détenant des encours parfaitement sécurisés, les épargnants doivent accepter un rendement réel faible. En finance, ce n’est pas vraiment une surprise. Plus de rendement implique nécessairement de prendre plus de risque, comme l’a souligné le Prix Nobel d’économie William Sharpe. Le Livret A est alors un support adéquat pour les épargnants manifestant une forte aversion pour le risque.
La faiblesse du rendement ne doit pas, non plus, occulter le rôle économique et social que joue le Livret A pour l’économie française par l’intermédiaire de la Caisse des dépôts et des banques.
Le rôle de la Caisse des dépôts
Les quelque 450 milliards d’euros placés sur le Livret A ne dorment pas paisiblement. Ils alimentent un circuit de financement de prêts à long terme qui doit simultanément rester liquide pour faire face aux demandes de retraits. Ainsi l’annonce de la baisse du taux au 1er février s’est-elle accompagnée d’une décollecte de 1,87 milliard d’euros en janvier 2026.
Près de 65 % des fonds sont centralisés à la Caisse des dépôts, qui transforme des dépôts liquides en financements longs, notamment par des prêts au logement social et à la politique de la ville. Le Livret A n’est donc pas une caisse fermée. C’est un dispositif de transformation des dépôts liquides en financements longs, sous contrainte de liquidité.
Pour la Caisse des dépôts et sa Banque des territoires, l’enjeu est massif puisque le stock de prêts sur fonds d’épargne atteint 202 milliards d’euros en 2024, dont 180 milliards consacrés au logement social et à la politique de la ville. Pour la seule année 2024, 28,5 milliards d’euros de prêts ont été accordés.
Une ressource structurante
Le Livret A est ainsi une ressource structurante pour le financement du logement social et d’investissements territoriaux de long terme. Concrètement, ces financements couvrent la construction et la réhabilitation de logements sociaux, mais aussi les résidences étudiantes et, dans certains cas, des équipements médico-sociaux, tels que les Ehpad, pour accompagner le vieillissement de la population française.
Mais l’effet du Livret A ne s’arrête pas à la sphère publique. La part non centralisée, soit 35 % des encours, reste au bilan des banques distributrices. Cet autre versant, plus discret, implique que l’épargne réglementée contribue aussi au financement de l’économie.
Le Livret A et le crédit bancaire
La part non centralisée demeure au passif du bilan des banques et constitue une ressource de financement. La loi impose que ces ressources soient orientées vers le financement des petites et moyennes entreprises (PME), de la transition énergétique et de l’économie sociale et solidaire, avec des obligations de reporting public.
La Banque de France chiffre à 245,6 milliards d’euros l’encours conservé au bilan fin 2024. Pour la même année, les prêts nouveaux aux PME atteignent 116,7 milliards d’euros et l’encours total de crédits aux PME 568,5 milliards d’euros. Il s’agit donc d’un fléchage par enveloppe plutôt qu’un « tuyau » euro-pour-euro. En effet, la part non centralisée alimente une enveloppe de ressources au bilan bancaire, et le fléchage se vérifie par des montants agrégés, non par une correspondance euro-pour-euro entre un dépôt et un prêt.
Le Livret A remplit donc une double fonction. D’un côté, il offre aux ménages une épargne de précaution simple et sécurisée. De l’autre, il alimente un circuit de financement collectif, du logement social au crédit bancaire aux PME. Cette ambivalence explique sa place particulière.
Jean-Marc Figuet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 16:47
La crise écologique est-elle vraiment le produit d’un excès d’humains sur Terre ? Relire « The Population Bomb »
Texte intégral (2184 mots)

La mort du biologiste Paul Ralph Ehrlich le 13 mars 2026, a remis en lumière The Population Bomb, un classique de la littérature écologique publié en 1968. Les auteurs rappellent ici que la « surpopulation » n’est pas un simple fait naturel, mais un objet profondément politique. Depuis Thomas Robert Malthus, la restriction démographique reste un sujet d’actualité brûlant.
Pour la première fois en France depuis 1945, le nombre de naissances est devenu inférieur aux décès en 2025 ; l’indicateur de fécondité atteint 1,56 enfant par femme, son plus faible niveau depuis la Première Guerre mondiale.
Dès 2024, le président Emmanuel Macron appelait à un « réarmement démographique » pour répondre au vieillissement de la population. Dans le même temps, à propos de Mayotte, était soulevée la question de la « surpopulation » ou de la « pression démographique » sur l’île française.
Bien que ces diagnostics portent sur des échelles territoriales différentes, selon les contextes, la population peut être présentée comme une ressource à développer ou un problème à contenir. Le débat n’est pas nouveau. Coécrit par les biologistes américains Paul R. Ehrlich (1932-2026) et Anne H. Ehrlich, The Population Bomb reprend les principaux postulats malthusiens, en les replaçant dans le contexte de la crise écologique.
Alors que le malthusianisme classique fonde l’idée de surpopulation sur la rareté des ressources agricoles, le néo-malthusianisme du XXe siècle l’inscrit dans le cadre plus large des limites environnementales.
Trop d’humains
Anne et Paul Ehrlich coécrivent cet ouvrage dans un contexte marqué par le renouveau du néo-malthusianisme d’après-guerre et par l’affirmation d’une écologie attentive aux limites de la planète, dont témoignera notamment le rapport Meadows de 1972.
Très influent et polémique, l’ouvrage installe une idée devenue familière : les crises alimentaires et écologiques seraient d’abord le produit d’un excès d’humains sur Terre. Si le livre est connu pour ses prédictions catastrophistes, l’essentiel est ailleurs. The Population Bomb a transformé la manière de poser le problème, en présentant la surpopulation comme un fait scientifique, une réalité objective dictée par des contraintes naturelles, et appelant dès lors des réponses politiques fortes.
Leur point de départ est celui de la biologie des populations. Dès le premier chapitre de The Population Bomb – structuré autour « Trop d’humains », « Trop peu de nourriture » et « Une planète mourante » –, ils s’intéressent aux dynamiques de croissance, aux interactions entre population et environnement, ainsi qu’aux contraintes écologiques. L’ouvrage en donne d’emblée la clé de lecture :
« Les Américains commencent à prendre conscience que les pays en développement sont confrontés à une crise démographique et alimentaire inévitable. »
Parmi ces sections, « Trop d’humains » joue un rôle central. La population humaine y est d’abord traitée comme une variable naturelle à l’échelle mondiale, avant d’être envisagée dans ses dimensions sociales, économiques et politiques.
La bataille pour nourrir l’humanité est perdue
Dans The Population Bomb, le constat est sans appel : « la bataille pour nourrir toute l’humanité est perdue ».
Les crises alimentaires ne sont pas d’abord pensées comme des défaillances économiques, mais comme le rapport de l’homme à la nature ; la croissance démographique conduit à une pénurie de ressources. La hausse du prix de la nourriture résulterait de la mise en culture de terres moins fertiles, elles-mêmes conséquence de la croissance démographique :
« Nous savons déjà qu’il est impossible d’augmenter suffisamment la production alimentaire pour faire face à la croissance démographique continue. »
Anne et Paul Ehrlich déploient un registre catastrophiste, fait d’échéances rapprochées, de famines et d’effondrements sociaux. L’argument ne se limite pas aux pays en développement. Les sociétés riches sont aussi concernées, sous d’autres formes :
« Plutôt que de souffrir de pénuries alimentaires, ces pays en subissent les conséquences sous la forme d’une dégradation de l’environnement et d’une difficulté croissante à se procurer les ressources nécessaires pour maintenir leur niveau de vie. »
Cette approche ne signifie pas une absence du politique. La surpopulation est posée comme un fait objectif, quasi indiscutable, issu de lois naturelles, appelant ensuite des réponses politiques fortes. Le débat ne porte pas tant sur la définition du problème que sur les moyens d’y répondre.
Contrôle des naissances
Dans les derniers chapitres de l’ouvrage, Anne et Paul Ehrlich appellent explicitement à l’action coercitive de l’administration des États-Unis plutôt qu’à des mesures incitatives : contrôle des naissances grâce à la contraception, y compris la stérilisation forcée, droit à l’avortement ou réorientation de l’aide internationale.
Dans son discours de 1965, le président états-unien Lyndon Johnson appelait à traiter le problème de l’explosion démographique et de la rareté des ressources avec un contrôle des naissances. La réalité démographique contemporaine est loin d’être homogène. De nombreux pays développés font aujourd’hui face au vieillissement de leur population – Japon, France ou États-Unis –, tandis que d’autres régions concentrent l’essentiel de la croissance démographique mondiale et de la jeunesse. Le nombre d’habitants de l’Afrique subsaharienne pourrait dépasser les deux milliards en 2050.
Surtout, les pressions écologiques ne dépendent pas uniquement du nombre d’habitants, mais aussi des modes de production, de consommation, ainsi que de la concentration spatiale des activités économiques. Deux populations de taille comparable peuvent avoir des impacts très différents.
Effet Malthus
Parler de « surpopulation » ne renvoie jamais à une humanité indifférenciée. Cette catégorie suppose, implicitement, des écarts entre populations selon les territoires et les conditions sociales. Dès l’Essai sur le principe de population de Thomas Robert Malthus, la croissance démographique est pensée comme une loi naturelle. Elle s’accompagne d’une prise de position politique explicite : la critique des politiques d’assistance, notamment les « Poor Laws » accusées d’encourager la reproduction des plus pauvres.
Cette manière de poser le problème ne disparaît pas complètement avec le néo-malthusianisme. Dans The Population Bomb, Thomas Robert Malthus n’est pas mobilisé de manière explicite. Le problème est posé à l’échelle globale, sans désignation de groupes sociaux, tout en orientant implicitement le diagnostic vers certains territoires en développement. Aujourd’hui encore, cette logique se prolonge sous des formes plus diffuses, que certains travaux désignent comme un « effet Malthus ». Concrètement, les inégalités sociales et territoriales sont reformulées en termes apparemment naturalisés, à travers des diagnostics globaux qui évitent de nommer les populations concernées.
Parler d’un monde où il y aurait « trop d’humains » suppose donc, même tacitement, que certaines dynamiques démographiques sont plus problématiques que d’autres.
I = P × A × T
En 1971, Paul Ehrlich proposait avec le professeur de sciences de l’environnement John Holdren une formulation plus large de l’impact environnemental, souvent résumée par l’équation I = P × A × T. Impact environnemental (I) = taille de la population (P), richesse de la population (A) et technologie (T).
Cette équation fait dépendre l’impact environnemental du produit de la population, l’abondance – mesurée par la consommation par tête –, et de la technologie. Cette approche, reprise notamment dans The Population Explosion, reconnaît le rôle des choix économiques et techniques, que l’ouvrage de 1968 tendait à subordonner à la seule dynamique démographique.
Les débats se sont ensuite recentrés sur la mesure des contributions de ces facteurs au réchauffement climatique. Dans les années 1990, l’identité de Kaya permet de mesurer empiriquement les émissions de gaz à effet de serre en les reliant à la population, au produit intérieur brut par habitant, à l’intensité énergétique de la production et au contenu carbone de l’énergie. Plutôt que de se limiter au facteur démographique, elle met en évidence la nécessité de découpler la croissance de la consommation des émissions de gaz à effet de serre, notamment par la décarbonation.
La crise écologique impose des limites à l’exploitation des ressources, mais celles-ci tiennent moins à une supposée « surpopulation » qu’aux impacts environnementaux des modes de production et de consommation sur le climat. Autrement dit, l’enjeu n’est pas tant le nombre d’humains que la manière dont les sociétés organisent production, décarbonation, répartition et sobriété de la consommation des ressources.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.04.2026 à 16:46
« Biloute », « tchot »… : les mots du Nord à l’épreuve des parlers jeunes
Texte intégral (1963 mots)
Les parlers du nord de la France sont-ils en train de se figer en souvenir d’un autre temps ? Ou continuent-ils à se manifester dans les usages contemporains, y compris là où on ne les attend pas ?
À partir d’une enquête de terrain menée dans plusieurs établissements des Hauts-de-France entre 2016 et 2025, il est possible d’observer non pas un retour massif de patois, mais une circulation complexe de quelques formes septentrionales (entendre par là, parlers « du Nord ») au sein de répertoires linguistiques hétérogènes.
À lire aussi : Que reste-t-il de nos argots ?
Dès 1971, le linguiste Pierre Guiraud notait que des mots d’origine dialectale (issus de variétés linguistiques régionales distinctes du français « standard ») pouvaient être relayés par l’argot. Timothy Pooley, autre linguiste, évoquait un peu plus tard une possible « dépicardisation » , soit une disparition du picard – celui-ci étant une langue régionale d’oïl historiquement parlée dans le nord de la France et en Belgique. Faut-il y voir un déclin irrémédiable ou plutôt la transformation d’un héritage ?
Un petit noyau nordiste dans des « parlers jeunes »
Les jeunes du Nord parlent-ils encore « patois » ? Dans les corpus recueillis (listes lexicales co-construites, entretiens, observations) dominent les emprunts à l’arabe, à l’anglais et au rromani. Pour autant, un noyau de régionalismes du Nord persiste et, parmi eux, les substantifs et appellatifs « biloute » (gars, mec) et « tchot » (petit), « chicour » (champion), le déterminant « ch’ », la locution verbale « dire quoi », ou encore le verbe « finquer » (fumer). Le relevé révèle par ailleurs des flottements étymologiques : certaines origines sont discutables – de même que les termes employés pour les décrire : patois, dialecte, régionalisme.
Premier enseignement que nous livre cette étude : ces mots ne subissent aucune manipulation morphologique notable. Par exemple, pas de verlanisation bien connue des pratiques argotiques contemporaines. Là où l’argot contemporain aime à transformer, le régionalisme nordiste est inséré sans cette modification.
Deuxième enseignement : leur vitalité est inégale. « Biloute » et « tchot » sont massivement compris, et encore employés par une partie des locuteurs interrogés en 2025 dans l’étude citée plus tôt. « Finquer » est plus fragile. « Chicour » donne lieu à des définitions divergentes (de « champion » spécialisé uniquement à son sens littéral, à « frimeur »). Pour désigner ces savoirs linguistiques diffus, les linguistes parlent par exemple de « compétence latente », souvent sous-estimée par les locuteurs.
Patrimoine affectif, stigmate social
Les discours épilinguistiques (discours au sujet de la langue) recueillis éclairent cette situation. Les formes régionales sont fréquemment associées à la famille, au « patrimoine » du Nord. Elles relèvent donc d’une mémoire territoriale.
Mais cette valorisation affective coexiste avec une forte dépréciation sociale : l’idée même du « chti », nous informe un lycéen interrogé, renvoie à l’image des « anciens », mais aussi… aux « bouseux ». On oscille alors entre « condescendance et attendrissement », si nous reprenons les mots du linguiste Pierre Rézeau. L’accent du Nord, même s’il n’est pas le seul, fait l’objet de moqueries récurrentes. On retrouve ici ce que Philippe Blanchet nomme la « glottophobie » : la stigmatisation des manières de parler. Le paradoxe est d’ailleurs souvent frappant ; des locuteurs peuvent se moquer d’un accent qu’ils partagent eux-mêmes. L’insécurité linguistique persiste, et explique en partie la faible revendication explicite des régionalismes dans les usages ordinaires.
À l’inverse, les pratiques argotiques contemporaines souvent associées aux « banlieues » bénéficient parfois d’une sorte de prestige paradoxal pour certains jeunes locuteurs interrogés dans la même étude ; elles incarnent souvent (mais pas toujours) l’opposition, et aiment se distinguer par « rupture », au contraire du patois.
Argot et dialecte : un même travail de différenciation
Pour autant, opposer frontalement argot et patois serait simplificateur. Un argot contemporain, comme un dialecte, est localisé, marqué socialement et investi d’une forte charge identitaire. De même, tous deux participent d’un déplacement du Soi par rapport à l’Autre : inclusion des pairs, distinction vis-à-vis de l’extérieur.
Cela peut nous conduire à penser que les régionalismes du Nord intégrés aux « parlers jeunes » n’apparaissent pas comme des fossiles folkloriques, mais fonctionnent plutôt comme des indices discrets de connivence. L’argot peut relever davantage de l’opposition, le patois davantage de la proximité… mais ils partagent un même ressort symbolique.
De nouveaux canaux de légitimation
Les arts et médias contemporains jouent un rôle non négligeable dans ces circulations. Le rap, devenu un genre musical d’importance, agit comme instance de légitimation linguistique. Si des artistes comme Jul ont diffusé des régionalismes méridionaux (« tarpin », « fraté »), certains évoquent très ponctuellement le Nord. C’est ainsi que nous pouvons noter la présence de le « chnord » (présence un tant soit peu erronée, « ch » étant déjà un déterminant), chez Freeze Corleone qui n’est pas du Nord.
Mais nous trouvons aussi notamment les Nordistes BEN plg et ZKR, issus d’un espace urbain identifié comme un foyer actif de production rap et argotique, soit souvent Roubaix, et dont les usages font apparaître des formes localement ancrées (par exemple, « zig » pour désigner un individu), et bien que certaines soient issues, au départ, de ressources empruntées à l’arabe (par exemple, « tneket », qui signifie incroyable). Toutes ces occurrences réinvestissent l’imaginaire territorial du Nord. Nous pourrions également citer le groupe Paula Fargue qui met en valeur patois et accent du Nord.
Les réseaux sociaux ou les publicités contribuent à donner de l’importance à certaines formes. Des expressions virales, portées par des influenceurs ou des émissions de téléréalité, pourraient y acquérir une visibilité nationale.
Les formes régionales y trouvent parfois une nouvelle scène, comme ce fut le cas du mot « drache » dans une campagne publicitaire récente d’une marque de cosmétiques. Ces « tiers » médiatiques modifient l’équation : ce qui était perçu comme ringard peut devenir tendance, à condition d’être adoubé par une figure d’autorité culturelle.
Enfin, nous n’oublierons pas le rôle du dictionnaire : « drache » est justement entré dans celui-ci il y a quelques années, avec la marque lexicographique « régionalisme ». En légitimise-t-il l’usage ?
Quel avenir pour les parlers septentrionaux ?
Les données recueillies révèlent une ambivalence bien connue de la sociolinguistique : attachement affectif d’un côté, distance sociale de l’autre. Les jeunes interrogés n’expriment pas de crainte de voir disparaître le patois et n’en font pas une cause à défendre. En revanche, ils mobilisent certains mots comme des ressources ponctuelles, souvent chargées d’affect.
Le « renouvellement » dont nous pourrions parler ne prend donc pas la forme d’un retour à un parler dialectal homogène. Il réside dans la réinterprétation au sein d’un répertoire où se côtoient arabe dialectal, anglicismes, rromanismes… et héritages locaux.
À l’heure où les langues sont souvent pensées en termes de concurrence ou de remplacement, cette situation invite à une autre lecture : celle d’une cohabitation mouvante, celle de répertoires linguistiques avec styles à activer en fonction de la situation. Quelques mots résistent, certains voyagent et reviennent par le biais du numérique… et l’accent persiste. C’est peut-être ici que se joue l’avenir des parlers régionaux chez les « jeunes » : moins dans la fidélité déclarée que dans les usages rares mais tenaces, et labiles… vivants, en somme.
Nous n’oublierons pas, quoi qu’il en soit, que le picard (comme le flamand occidental dont nous n’avons pas parlé ici) peuvent être enseignés au sein de l’éducation nationale depuis 2022. On peut donc imaginer que cela contribue progressivement à faire disparaître la possible insécurité voire la honte liée à l’accent ou au vocabulaire patoisant. En acquérant davantage de connaissances sur l’histoire et la richesse de ces pratiques linguistiques, les locuteurs pourraient développer davantage l’envie de son recours, ce qui pourrait donner lieu à un nouvel essor des pratiques linguistiques régionales à observer.
Anne Gensane ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 11:29
Le greenwashing dans la loi : comment repérer les promesses environnementales douteuses ?
Texte intégral (2131 mots)
Faire le tri parmi les promesses environnementales dont les entreprises nous inondent est devenu quasiment impossible. Pourtant, le greenwashing est une pratique interdite, dont les contours sont de plus en plus strictement définis par la loi. L’Agence de la transition écologique, l’Ademe, propose quelques repères pour le détecter et le combattre.
En octobre 2025, le tribunal judiciaire de Paris condamnait TotalEnergies à « cesser la diffusion de communication trompeuse », ciblant ses allégations d’« ambition de neutralité carbone d’ici 2050 », la société affirmant être une « actrice majeure de la transition ».
Face au flot d’allégations environnementales qui inondent notre quotidien dans la publicité, dans la communication des entreprises en général, sur les réseaux sociaux ou sur les emballages des produits que nous achetons, nous sommes souvent démunis. Comment faire le tri entre les affirmations légitimes et fiables et celles, trompeuses ou mensongères, qui relèvent du « greenwashing » (ou écoblanchiment) ?
Le Larousse définit ce terme, depuis 2023, comme :
« [L’]utilisation fallacieuse d’arguments faisant état de bonnes pratiques écologiques dans des opérations de marketing ou de communication. »
Cette confusion a des effets délétères sur la mise en œuvre de la transition écologique. En effet, le greenwashing dégrade considérablement la confiance des citoyens envers les marques et les pouvoirs publics et décrédibilise, dans le même temps, les efforts réels que certaines structures mettent en place, ce qui pourrait freiner leur engagement.
Heureusement, comme le montre la condamnation de TotalEnergies, le problème ne se résume pas à un enjeu moral : le greenwashing est interdit par la loi. Connaître ses contours juridiques peut nous aider à mieux le repérer et à mieux le combattre. Afin d’encourager davantage les entreprises qui font réellement des efforts en faveur de l’environnement, l’Agence de la transition écologique (Ademe) a élaboré un guide anti-greenwashing, qui doit aider les entreprises à respecter la loi et adopter des pratiques vertueuses.
Un arsenal juridique robuste
Le greenwashing couvre toutes les formes de décalage entre le discours et la réalité des actes, relativement à l’empreinte environnementale de ses produits ou à ses engagements environnementaux dans le cadre de sa démarche de responsabilité sociétale des entreprises (RSE).
À ce titre, il relève légalement de la lutte contre les pratiques commerciales trompeuses. Ces dernières sont interdites par une directive européenne de 2005 et transposées en droit français dans le Code de la consommation.
Depuis, d’autres règles plus strictes ont été adoptées. La France, précurseuse en la matière, a adopté des dispositions contre le greenwashing dans la loi Anti-gaspillage pour une économie circulaire (Agec) en 2020 et la loi Climat et résilience de 2021.
Au niveau européen, la directive de 2024 qui vise à « donner aux consommateurs les moyens d’agir en faveur de la transition verte grâce à une meilleure protection contre les pratiques déloyales et grâce à une meilleure information » doit être transposée en droit français, les nouvelles dispositions devant entrer en application le 27 septembre 2026. Cette directive définit notamment de façon très précise l’allégation environnementale.
Ces textes définissent et encadrent la notion d’allégation environnementale, qui s’étend ainsi à toutes formes de mentions (texte, image, représentation graphique, symbole, label, dénomination sociale ou dénomination de produit…), de communication et toute organisation (y compris des professionnels).
Elles interdisent l’usage de certaines mentions génériques ne pouvant pas être démontrées, comme « biodégradable », « respectueux de l’environnement », « non toxique », « non nocif », « non polluant », « écologique » ou autres allégations similaires. Elles encadrent également strictement certaines affirmations comme « neutre en carbone » ou « recyclable ».
Au-delà de ces lois contraignantes, des textes de « droit souple » (c’est-à-dire, n’ayant pas d’effets contraignants par eux-mêmes) peuvent être pris en compte par les juridictions pour interpréter les textes de loi. Dans cet esprit, l’Ademe a, par exemple, publié un avis d’experts en 2022 sur la communication relative à la neutralité carbone. Cet avis formule un certain nombre de recommandations à l’intention de tous les acteurs du secteur privé et du secteur public.
Enfin, des normes internationales ISO ainsi que des règles déontologiques aiguillent les pratiques de communication autour de l’environnement. C’est par exemple le cas de la recommandation relative au développement durable de l’Autorité de régulation professionnelle de la publicité (ARPP).
Un phénomène d’ampleur encore sous-estimé
En France, c’est la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) qui se charge de détecter et sanctionner les cas de greenwashing. Or, le bilan des enquêtes qu’elle a menées en 2023 et 2024 a mis en évidence l’ampleur du phénomène.
Sur plus de 3 200 entreprises, 15 % des professionnels contrôlés présentaient des manquements graves à la réglementation. Plus de 430 entreprises ont ainsi été gratifiées d’une injonction de mise en conformité et 74 se sont vu infliger des sanctions (amendes administratives ou procès-verbaux). Plus de 500 avertissements ont également été adressés pour des informations manquantes ou imprécises.
Sur le périmètre de la publicité, l’Ademe et l’ARPP réalisent par ailleurs une étude qui porte sur plusieurs centaines de publicités environnementales pendant 4 mois depuis 2007. Selon les années, le taux de visuels non conformes à la recommandation développement durable de l’ARPP varie entre 6 et 12 % – ce qui est beaucoup plus important que dans d’autres bilans thématiques menés par cette instance.
En outre, ces chiffres sont sans doute sous-estimés, car certains supports promouvant ces allégations environnementales demeurent à ce stade mal étudiés. C’est notamment le cas sur les réseaux sociaux (influenceurs), lors des prises de paroles de dirigeants, dans les rapports d’impact ou RSE, sur les sites Web et sur les offres d’emploi.
Les signes d’alerte pour détecter le greenwashing
Preuve que ces pratiques affectent la crédibilité des organisations et en particulier des entreprises, seuls 40 % des consommateurs français déclaraient en 2025 « faire globalement confiance aux marques », contre 58 % en 2004.
Dans ce contexte, il apparaît urgent que les citoyens soient mieux armés pour trier le bon grain de l’ivraie, dans le flot de communications qui les inondent. Face à une allégation environnementale, plusieurs signes peuvent alerter.
De façon générale, il s’agit de se méfier face aux communications qui véhiculent des promesses inappropriées, déloyales et excessives, d’être vigilants vis-à-vis des allégations ambiguës ou mal justifiées, qui n’apportent aucune preuve de ce qu’elles avancent, ou aux messages qui incitent à des comportements ou des modes de vie contraires à la transition écologique, tout en se parant de vertu environnementale.
De même, les éléments sonores ou visuels trompeurs, notamment les belles images et la représentation d’éléments naturels comme l’eau, la forêt, le ciel, le soleil, la banquise, que ce soit en vidéo, en photo, sous forme de pictogramme ou d’émoticônes, sont souvent utilisés pour « verdir » l’image d’un produit, sans que ces vertus ne soient étayées.
Ce qui permet d’identifier les produits plus vertueux
À l’inverse, des signes distinctifs positifs peuvent nous aider à repérer les performances environnementales des produits.
Différents textes législatifs ou réglementaires imposent aux fabricants ou aux importateurs d’indiquer certaines informations de nature environnementale sur les produits qu’ils mettent sur le marché. Ces informations obligatoires, comme l'indice de réparabilité, l'indice de durabilité ou l'étiquette énergie, donnent aux consommateurs les moyens de comparer les produits d’une même catégorie sur la base d’informations comparables relatives à leurs niveaux d'impacts, lors de l'achat des produits concernés (TV, smartphones, lave-linge, ordinateur…).
L’affichage environnemental, prévu par la loi Climat et résilience de 2021, doit permettre d’informer les citoyens sur les impacts environnementaux des produits qu’ils achètent de façon claire et transparente. D'application volontaire et encadrée, ce coût environnemental traduit, sous forme d’une valeur chiffrée, l’impact sur l’environnement tout au long du cycle de vie du produit. Il est, à ce stade, en cours de déploiement sur certaines catégories de produits, mais il est appelé à se généraliser à terme aux principaux produits de consommation et services.
Les labels sont un autre outil qui peuvent nous aider à faire un choix éclairé – autant qu’il peut nous perdre. Pour pouvoir s’y fier, il faut savoir se repérer dans la jungle des labels existants – plus de 350 ont été recensés par l’Ademe. Pour nous guider, l’agence recommande de privilégier en priorité ceux qui sont conformes à la norme ISO 14024 et a dressé 7 critères pour reconnaître un label de confiance. Elle a par ailleurs publié un outil en ligne qui rassemble de façon non exhaustive des labels garantissant vraiment un impact limité du point de vue environnemental, classés par catégories de produits. Il est à noter également que la directive européenne citée plus haut renforce également les règles applicables aux labels en imposant une vérification par un tiers.
Une communication juste et transparente
Certaines entreprises sont tentées, face à ces réglementations, de tomber dans le « greenhushing », c’est-à-dire de réduire fortement toute communication sur les innovations leur permettant de réduire leur impact environnemental pour éviter le problème. Une telle attitude contribuera aussi à freiner la transition écologique : communiquer sur ces avancées est essentiel. Simplement faut-il le faire en ayant conscience que les mots et les images ont un sens et une influence sur les imaginaires, et que cette responsabilité doit être prise en compte.
Pour les aiguiller, des outils comme le guide anti-greenwashing et les tests en ligne existent pour se poser les bonnes questions en amont, renforcer les procédures de relecture et de validation, et renforcer une communication plus responsable. Les entreprises ont tout intérêt à éviter le piège du greenwashing au profit d’une communication juste, responsable et honnête sur les efforts qu’elles font et ceux qu’il leur reste à faire. Il ne s’agit pas de se montrer parfaites, mais d’être transparentes sur les atouts de leurs produits, leurs engagements en matière de RSE et leur marge de progression. C’est le seul moyen de regagner la confiance des consommateurs, mais aussi, en interne, des salariés.
Valérie Martin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.04.2026 à 10:39
Has multilateralism hit a dead end? Could International organisations be collateral damage of the war in Iran?
Texte intégral (1655 mots)
One of the most striking aspects of the war with Iran is the extent to which it has highlighted the irrelevance of international organisations and multilateral approaches to resolving global conflicts.
If we take war as an indicator of the viability of the rules-based international order established after World War II, then we may well conclude that the “patient” is showing a very weak pulse.
The United Nations and the European Union are two organisations that epitomise the post-1945 global normative order – an order which is founded on principles such as the rule of law, non-aggression, and respect for sovereign states’ territorial integrity and political independence.
These principles, and the international organisations that embody then, are among the first casualties of the US-Israeli military campaign. How did this happen and what could be done in order to revitalise the patient?
The United Nations – a tale of a great power struggle and double standards
Beginning with the UN, the war with Iran has made it abundantly clear that the system of collective security system established after 1945 is largely disabled when a major power decides to go it alone. The UN Security Council was designated as the guardian of international peace and security, yet has been paralysed by the veto powers of its permanent members, which have time and again used their influence to shield their own actions and those of their allies from international scrutiny.
When the US and Israel launched strikes against Iran in late February 2026, the Security Council initially failed to come up with any kind of meaningful response, let alone authorise any measures to de-escalate the crisis. Instead, the conflict unfolded outside the framework of international law, with unilateral military actions becoming the norm rather than remaining the exception.
The Security Council eventually adopted a resolution on March 11, which focused narrowly on condemning Iran’s attacks on Gulf states. The resolution, passed with 13 votes in favour and abstentions from Russia and China, labelled Iran’s actions as “egregious attacks” and demanded an immediate halt to its regional aggression.
While the resolution is an important signal that the patient is still alive and that the UN has some residual willingness to protect the fundamental norms on which it was built, the resolution’s one-sided approach underscores the Security Council’s persistent double standards: the resolution makes no mention of the initial US-Israeli strikes on Iran that triggered the escalation, nor does it address the broader context of the conflict, such as the legality of those strikes or the killing of Iran’s supreme leader.
The deafening silence of the UN Security Council in the face of US and Israeli breaches of peremptory international law suggests, once more, the use of double standards and further undermines the credibility of the UN Security Council as the guardian of international peace and security.
However, while the Council is currently more or less paralysed, there is a procedure that could revitalise the UN in this geopolitical crisis, namely the Uniting for Peace procedure.
This mechanism empowers the UN General Assembly in the case of Security Council deadlock. If this has not been used yet in the Iran crisis, it is because there has not been sufficient political will to do so.
The EU: an actor with geopolitical ‘muscle’ but no willingness to use it
Another noteworthy (yet unsurprising) aspect of the Iranian conflict is the complete irrelevance of the European Union as a mediator and peacemaker.
The founding impetus for the EU was to build peace on the basis of multilateral cooperation and the non-violent resolution of disputes.
The EU sees itself as a normative power which seeks to project its values worldwide through the use of soft power but tends to shy away from applying coercion.
Unfortunately, the world we live in is one where the most powerful states in the system have decided that violence is now the preferred tool for pursuing foreign policy objectives – either by removing unfriendly regimes from power or by usurping foreign territories through armed aggression.
In this dog-eat-dog world, Europe seems helpless. The EU was neither consulted in the run-up to the Iran war, nor is it actively taking part in hostilities. Instead, it is watching from the sidelines, issuing futile calls for restraint and sabotaging itself in internal quarrels. This is regrettable, given Europe’s historical leadership in negotiating the Iran nuclear deal.
Why does the EU find itself watching from the sidelines in the most important geopolitical event of 2026?
For one, because it – again – has failed to speak with one voice. Member states have adopted divergent positions, with some expressing support of US-Israeli actions and others calling for restraint.
Spain, for instance, has risked open conflict with the Trump administration over the use of its military bases for the war effort, while other critical players, including Germany and France have expressed a certain degree of sympathy for the air strikes.
While it is easy to criticise the EU for its lack of unity on important geopolitical questions, this multiplicity of voices is actually an intended design feature of this hybrid entity, which combines both supranational and intergovernmental elements in its institutional architecture.
At the same time, this design feature actively undermines EU agency in important geopolitical matters. Another factor condemning the EU to futility in geopolitical crises is Europe’s dependency on the US for security and the lack of a common defence policy underpinned by a European army.
However, the biggest obstacle to EU agency in geopolitics is neither institutional nor material. It is psychological. There is no will to lead, no will to use a muscular approach to counter Trump’s blatant disregard of multilateralism and international law (values that are at the heart of Europe’s identity), and a naive belief that the transatlantic relationship will somehow repair itself.
Instead of leveraging its economic and diplomatic weight to push back against unilateral US actions, the EU has often defaulted to reactive, conciliatory gestures, hoping that transatlantic harmony will somehow be restored by goodwill alone. This reflects a fundamental miscalculation: the belief that the US, under Trump or any other leader, will eventually recognise and reward European loyalty, even as Washington’s actions demonstrate the opposite.
The good news is that this can be changed. Mindsets can be changed, identities can be reconstructed, and agency can be built.
The patient is weak, yet there is hope
So no, multilateralism isn’t dead. International organisations such as the UN and the EU have not only put in place norms and mechanisms that would allow them to play a critical role in geopolitical crises, they also have enormous resources at their disposal that would enable them to play such a role.
The patient’s pulse is thus weak, but there are effective remedies available to strengthen it. Now, we must muster the political will to implement them.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Theresa Reinold ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:46
Does listening to audiobooks improve learning?
Texte intégral (1548 mots)
Whether it’s documents in textbooks or fiction studied in literature classes, reading print remains a pillar in learning. But the audiobook craze opens up new possibilities.
Could listening to literary works become part of the curriculum as opposed to reading them? Is reading comprehension the same for listening to a text as it is for reading a book?’
Reading vs listening: seemingly limited differences
A meta-analysis published in the Review of Educational Research and taking into account the results of 46 studies conducted between 1955 and 2020, including a total of 4,687 child and adult participants, Virginia Clinton-Lisell, university lecturer and researcher in Educational Psychology at the University of North Dakota, found that levels of understanding do not differ significantly when the same texts are read or listened to.
This result can be compared to a study by Madison Berl and her colleagues, published in 2010 in the journal Brain and Language, showing that children aged 7 to 12 years activate common brain regions when listening to and reading stories.
These regions notably include a frontotemporal network involved in semantic and syntactic processing shared between the two exploration modalities, which the authors describe as the “comprehension cortex.”
A comparable network, to which the parietal region was added, was also activated among adults who listened to or read the same story in the study by Fatma Deniz et al., published in 2019 in The Journal of Neuroscience.
Reading allows you to go at your own pace
However, the Clinton-Lisell meta-analysis also highlights that understanding is more improved in reading than in listening when participants can read at their own pace. Reading indeed offers the possibility to freely adjust your reading speed: slowing down when encountering a difficulty, going back or checking information. This cognitive control is not an option when listening to a text whose rhythm is predetermined, without the possibility of naturally backtracking.
Reading proves especially more effective than listening when evaluating general and inferential comprehension, which is not the case for literal comprehension.
Listening comes with an imposed rhythm and auditory structure, which makes it more difficult to implement comprehension strategies and generate inferences (conclusions based on evidence and reasoning) – or links between the ideas derived from the text and our personal knowledge and memories.
Reading, on the contrary, offers greater freedom around mental organisation and promotes interpretative creativity, supported by processes for regulating attention and cognitive control.
When it comes to getting students to develop deeper thinking, reading remains the most effective modality. It stimulates the creation of inferences, essential for establishing the coherence of a text – which guarantees fine and deep understanding.
Listening and its emotional dimension
However, listening to a text has certain advantages, particularly in terms of the experience it offers.
It involves perception of voices, intonations and prosodies which, for people who are sensitive to them, adds a more direct affective and emotional dimension than silent reading. It can make texts more easily accessible to students with reading difficulties, reducing visual load and supporting continuity of attention.
However, listening also demands auditory attention, which is in itself a specific skill, mobilising both working memory and sustained attention. The task requires the listener to maintain sustained vigilance when facing a continuous verbal flow, which can represent a challenge for some students, especially those with difficulties in concentration or auditory processing. In this respect, listening promotes auditory immersion that generally improves the overall understanding of the narrative, even if it does not always offer the same degree of control for getting to grips with the details of the text.
A voice recording can strengthen the listener’s engagement and enrich the reception of a narrative text by accentuating the presence of the characters and the pace of how the story unfolds. Reading, on the other hand, allows for a form of inner dialogue and suspends time, which is conducive to reflection.
In Lire le monde, anthropologist Michèle Petit very subtly describes the power of the reading experience at any age. In the chapter entitled “What is the purpose of reading?” she evokes several of its virtues, including how reading allows us to withdraw from the chaos, to open ourselves up to other worlds and to self-construct. The section “Lifting your eyes away from your book” illustrates this singular experience particularly well: reading a text allows us to conjure up a thought, an image or a memory – whereas listening, which is comparatively more linear, favours less.
Forming a virtuous cognitive assemblage
In several of her books – the most recent being Bacteria to AI: Human Futures with Our Nonhuman Symbionts (2025), Professor of Literature Katherine Hayles puts forward the concept of “cognitive assembly” to denote hybrid systems in which humans interact with technologies that extend their mental abilities. While this framework primarily pertains to the relationship between humans and computers, it can be expanded to include how we become one with reading and listening material.
Reading a text or listening to it fall under distinct forms of cognitive assemblies; each one taps differently into our senses, attention, memory and emotions. Learning to recognise these differences – and choosing the most suitable option for different purposes (in-depth reading or immersive listening) and our preferences (for visual and tactile, even olfactory, or auditory pursuits) – amounts to forming a virtuous cognitive assembly, capable of leveraging the richness of each mode of interaction with language and culture.
For schools, the challenge is not whether to choose between reading and listening, but to teach students to recognise the inherent value of each learning mode and think about how to combine the two.
Awareness of the different modes of exploring a text is part of differentiated instruction that is attentive to specific learning styles. It paves the way for fostering metacognition in education: observing each individual’s own way of learning, adjusting pace, and choosing the most suitable medium to fit a given context.
Knowing when to read, when to listen and how to switch from one to the other – or even combine the two modes – is about learning to adjust your way of learning, and, more broadly, to think for yourself.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Frédéric Bernard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:45
Une nouvelle piste pour stocker l’énergie solaire… et fournir de l’électricité quand le soleil s’absente
Texte intégral (2209 mots)
L’énergie solaire est associée à des problèmes d’intermittence, car elle ne génère d’électricité que quand le soleil brille. Certains dispositifs photovoltaïques pourraient permettre de stocker le rayonnement solaire sous forme de chaleur, puis de récupérer l’énergie sous forme d’électricité.
Il est devenu courant de voir des panneaux solaires sur les toits des maisons et des hangars, grâce à la baisse du prix des cellules en silicium et à leur taille compacte. Cependant, l’énergie solaire est intermittente, comme beaucoup d’autres types d’énergie renouvelable. Lors des périodes de production maximale, comme les journées estivales ensoleillées, le réseau d’électricité sature d’énergie, tandis que lors des périodes de faible production, comme le soir et en hiver, l’offre diminue alors même que la demande est la plus élevée. C’est pourquoi, afin de garantir la disponibilité de l’énergie à la demande, des solutions de stockage doivent être intégrées au réseau.
La technologie la plus utilisée pour le stockage à l’échelle du réseau électrique est le stockage hydroélectrique par pompage, mais le nombre de sites favorables en France est limité et déjà largement exploité, du fait des contraintes géographiques.
Une autre technologie courante est la batterie électrochimique : l’exemple le plus commun est celui des batteries lithium-ion des téléphones portables et des voitures. À plus grande échelle, des entreprises, par exemple Enedis, commencent à investir dans de grands parcs de batteries pour soutenir le réseau électrique. La technologie dominante pour ces très grandes batteries est la technologie lithium-fer-phosphate.
En grande partie pour cette raison, l’Agence internationale de l’énergie (IEA) dans un report récent prévoit une croissance de 42 % de la demande de lithium en 2040 par rapport à 2020. Or, l’extraction du lithium soulève des enjeux géopolitiques et humanitaires. Récemment, la possibilité d’ouvrir d’une mine dans l’Allier a intensifié le débat en France : si ces mines ont des impacts négatifs sur l’eau potable, la biodiversité et les sols, peut-on réellement soutenir qu’elles nous aideraient vers un futur durable ?
Peut-on stocker l’énergie autrement et assurer la stabilité du réseau électrique ?
Le stockage thermique : une alternative aux batteries électrochimiques
Les barrages hydroélectriques et les batteries électrochimiques ne constituent pas la seule solution pour le stockage de l’énergie. Une alternative est le stockage thermique, où l’énergie est stockée sous forme de chaleur.
C’est par exemple le principe des chauffe-eau solaires. À plus grande échelle, le stockage thermique est surtout appliqué en combinaison avec des centrales solaires à concentration (CSP), comme le Crescent Dunes Solar Energy Project aux États-Unis ou l’Andasol Solar Power Station en Espagne. Cependant, le CSP reste une technologie marginale, car ces grandes centrales nécessitent un investissement initial très important et les coûts de maintenance sont élevés.
Dans ce type d’installations, la première étape est la conversion d’énergie solaire en chaleur au moyen de grands miroirs – soit paraboliques, soit petits, plats et suivant le soleil – qui concentrent le rayonnement solaire pour chauffer un fluide (conventionnellement du sel fondu). La chaleur est convertie en électricité lors de la deuxième étape, où la chaleur stockée dans le fluide entraîne une turbine.
Malheureusement, la conversion de la chaleur en énergie utile, comme l’électricité, est particulièrement difficile : l’efficacité de la conversion est limitée fondamentalement par ce qu’on appelle « la loi de Carnot ». Par exemple : à 300 °C, le maximum théorique de l’efficacité est environ 50 %, ce qui signifie que l’efficacité réelle est encore plus basse. En comparaison, l’efficacité des batteries lithium-ion, qui ne passent pas par la case « chaleur », peut surpasser 90 %.
« Détourner » les cellules photovoltaïques pour convertir le rayonnement de la chaleur en électricité
Mais il existe une autre façon de convertir la chaleur en électricité : en utilisant le rayonnement émis par tout objet chaud (qui dépend de la température).
Tandis que les cellules photovoltaïques traditionnelles que l’on voit sur les toits et dans les fermes solaires convertissent le rayonnement solaire lui-même, l’idée de ce qu’on appelle les systèmes thermophotovoltaïques (abréviés TPV) est de récupérer le rayonnement infrarouge émis par n’importe quel objet chauffé – et qui stocke donc l’énergie sous forme de chaleur – et de la convertir en électricité.
Par exemple, le silicium fond à 1 414 °C et le graphite peut être chauffé jusqu’à plus de 2 000 °C. Ces matériaux émettent alors un rayonnement infrarouge, que l’on peut collecter grâce à des cellules photovoltaïques spéciales (comme des cellules en indium-gallium-arséniure). À de telles températures, la limite de Carnot est repoussée jusqu’à 83 % et 87 % respectivement. En pratique, les expériences réalisées au MIT, aux États-Unis, ont démontré une efficacité de plus de 40 %.
Différents dispositifs thermophotovoltaïques
Le dispositif le plus mature à ce jour n’utilise pas le rayonnement solaire pour chauffer le milieu de stockage, mais simplement l’électricité. Il est donc similaire à une batterie lithium-ion, mais effectue des conversions d’énergie successives « électricité → chaleur → électricité » au lieu de « électricité → énergie chimique → électricité ». De tels dispositifs promettent d’être compétitifs en raison de leurs coûts relativement faibles et aujourd’hui commencent à être commercialisés à l’échelle industrielle.
Il serait encore plus intéressant de chauffer le milieu de stockage directement avec le rayonnement solaire, comme pour le CSP conventionnel, afin que le système devienne une source d’énergie renouvelable non intermittente.
Pour cette raison, nous avons réalisé le premier prototype expérimental de ce dispositif, dont le milieu de stockage est chauffé à l’aide d’un rayonnement solaire concentré, et suit donc une conversion « solaire → chaleur → électricité ». Un avantage important de notre dispositif est qu’il pourrait être rentable à une échelle beaucoup plus réduite que les systèmes CSP actuels, du fait du remplacement de la turbine par les cellules thermophotovoltaïques (TPV).
Cependant, l’efficacité globale de ce nouveau type de batterie thermique (soleil → chaleur → électricité) — et notamment l’efficacité des cellules thermophotovoltaïques elles-mêmes (pour la conversion finale de chaleur en électricité) — doit encore être améliorée au laboratoire, afin que cette technologie devienne plus compétitive.
Vera Moerbeek a reçu des financements de l'École doctorale "énergie et environnement" (ED305).
08.04.2026 à 17:44
« For shhure » : quand l’accent étranger devient politique
Texte intégral (1626 mots)
La deuxième édition du Festival des accents se tiendra du 9 au 11 avril 2026 à Marseille, dans les Bouches-du-Rhône. L’occasion de s’intéresser à la question de la politisation des accents, souvent utilisés comme un marqueur de légitimité.
On garde à l’esprit les discussions autour du « for shhure » d’Emmanuel Macron, de Jean-Luc Mélenchon se demandant si on dit « Troump » ou « Trümp », ou de l’anglais de Melania Trump au Conseil de sécurité de l’ONU. Dans un monde globalisé, les débats sur les identités nationales s’intensifient et l’accent devient un marqueur politique clé. Entre légitimité contestée et mécanismes de rejet, la prononciation révèle combien la langue demeure politique.
Les façons de parler : un sujet en politique
En étudiant le cas du conseil municipal de Montreuil (Seine-Saint-Denis), la phonéticienne Charlotte Kouklia a montré comment l’expression vocale permettait de révéler dominance, hostilité et expressivité dans le débat politique. L’accent peut ainsi devenir le centre de phénomènes de domination.
En France, l’accent des politiques est scruté par la sphère publique participant à ces phénomènes de domination. L’envergure internationale d’Anne Hidalgo, ancienne maire de Paris, a souvent été remise en question du fait de son accent dit « français » lorsqu’elle s’exprime en anglais. Cela a notamment été le cas lors des Jeux olympiques 2024. En cela, elle rejoint une liste conséquente de figures politiques françaises qui ont reçu des critiques, ou des compliments, sur leur accent en anglais.
Le cas d’Emmanuel Macron est intéressant dans le sens où certains commentateurs peuvent lui reprocher de vouloir faire trop international et pas assez français, ou le contraire, selon son degré d’accent du moment. Dans le même temps, en 2021 à Marseille, on l’entendait prononcer quelques mots de son discours avec un accent dit « du sud » qui témoignerait d’une volonté de proximité régionale. L’accent « atypique » des personnalités publiques est souvent repris par les journalistes au sein de récits : celui de Jean Castex, par exemple, a été présenté comme un rapprochement politique du gouvernement d’Emmanuel Macron avec « les régions ».
Il convient de rappeler que les individus disposent d’une pluriphonie – la capacité des individus à avoir un éventail de sons dans son répertoire – ou peuvent convoquer une convergence phonologique – la capacité à s’adapter en contexte à d’autres façons de prononcer. Aussi, les manières de parler ne sont pas stables. Or, avoir des accents en politique n’est pas neutre.
Mettre à l’écart ses adversaires par leur accent
Lors des élections présidentielles de 2012, l’accent d’Eva Joly, alors candidate franco-norvégienne des écologistes, a été attaqué par l’écrivain Patrick Besson dans un pamphlet. Il y remettait en question sa crédibilité à la plus haute élection nationale en imitant à l’écrit son accent et en questionnant sa maîtrise du français. La candidate y a répondu dans une vidéo promouvant la diversité, mais la polarisation sur ses compétences linguistiques liées à sa légitimité aux élections avait déjà contaminé le débat public.
Certains hommes politiques aiment imiter les accents des autres. C’est le cas de Donald Trump, qui a plusieurs fois adopté un accent « français » quand il rapportait des propos d’Emmanuel Macron lors de conférences de presse, et de Boris Johnson, qui emploie dans ses mémoires une orthographe déformée de l’anglais afin de représenter son accent jugé « étranger ».
Parfois, l’accent peut aussi devenir un prétexte pour ne pas répondre à une question dérangeante. Donald Trump mentionne ainsi régulièrement l’accent de journalistes comme posant un problème de compréhension – que l’accent soit afghan ou français. Jean-Luc Mélenchon avait présenté une stratégie similaire face à une journaliste d’une antenne toulousaine de France 3. Donald Trump fait même appel à un interprète pour répéter ce que dit le premier ministre indien, pourtant anglophone.
Donald Trump n’est, en tout cas, pas gêné par l’accent de sa First Lady, Melania Trump, avec son accent dit « slovène ». Ce « deux poids, deux mesures » n’est pas passé inaperçu auprès des internautes, qui soulignent que tous les accents dits « étrangers » n’ont pas la même valeur en politique. Ce même président des États-Unis prétend d’ailleurs qu’il aurait plus facilement été élu président s’il avait eu un accent britannique, renvoyant au prestige supposé de cette variété.
Pourtant, lors d’une conférence de presse en 2025, l’élue républicaine pro-Trump Marjorie Taylor Greene a qualifié une question d’illégitime en raison de la nationalité britannique de la journaliste, nationalité identifiée par le biais de l’accent. La politicienne a expliqué par la suite qu’elle voulait bien répondre à la question si elle était posée par un journaliste américain, avec un accent américain donc.
Plus récemment, un citoyen américain a été arrêté par ICE, la police contestée de l’immigration états-unienne, car un officier avait développé des soupçons relatifs à sa nationalité basés uniquement sur sa façon de parler, donc son accent.
L’accent est donc impliqué dans la construction et la destruction de la légitimité dans la sphère publique.
Accents, délégitimation et déshumanisation
L’accent est mobilisé pour questionner la légitimité d’un individu, que ce soit celle à poser une question à une élue ou celle d’être sur le sol américain. L’accent fonctionne donc comme une arme d’altérisation, permettant de souligner une différence chez un individu, pour le positionner comme illégitime mais aussi comme un ennemi. Identifier des ennemis potentiels de l’État à travers l’accent de cette manière n’est pas sans rappeler d’autres périodes sombres de l’histoire.
L’accent – ou plutôt les façons de parler – c’est une trace, une trace des histoires de vie ou des parcours. Il raconte les contacts avec d’autres langues, d’autres cultures, et plus généralement la diversité et le multiculturalisme dans un monde globalisé. L’accent peut aussi devenir un stigmate pour rappeler à l’autre qu’il est un étranger et lui faire entendre son illégitimité à avoir une place dans la société.
Alors que des discours, parfois réactionnaires ou nationalistes, opposent des récits concurrents, l’accent joue un rôle clé : il permet de définir qui appartient à une communauté ou, au contraire, de marquer son exclusion. Comme le montre l’exemple du schibboleth (une phrase qui ne peut être prononcée « correctement » que par les membres d’un groupe), la prononciation peut révéler l’appartenance à un groupe social. Ainsi, un simple accent ou une prononciation peut devenir un marqueur d’exclusion. Reconnaître ces mécanismes permet d’éviter que la langue ne serve à discriminer plutôt qu’à unir.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.04.2026 à 17:43
Recourir à une IA quand on n’est pas médecin n’aide pas à poser un meilleur diagnostic
Texte intégral (1835 mots)
De plus en plus de gens consultent les agents conversationnels dopés à l’intelligence artificielle pour répondre aux questions du quotidien. Ces nouveaux outils sont également sollicités pour fournir des informations en lien avec la santé. Pourtant, ils sont encore très loin de pouvoir remplacer les médecins, comme le révèle une nouvelle étude.
Désormais, pour obtenir des conseils sur des sujets aussi variés que la cuisine ou la façon de remplir leur déclaration d’impôts, des millions de personnes se tournent vers des agents conversationnels (chatbots, en anglais) basés sur l’intelligence artificielle (IA). Un nombre croissant d’individus leur pose également des questions concernant leur santé. Or, comme le rappelait récemment le médecin-chef du Royaume-Uni, lorsqu’il s’agit de prendre des décisions médicales, une telle démarche peut s’avérer risquée.
Dans une étude récente, mes collègues et moi-même avons évalué dans quelle mesure les chatbots reposant sur des grands modèles de langage (LLM) sont réellement capables d’aider le grand public à faire face à certains problèmes de santé courants. Nos résultats, frappants, démontrent que les chatbots que nous avons testés ne sont pas encore en mesure d’endosser le rôle de médecin.
Utiliser un chatbot ne permet pas de prendre de meilleures décisions en matière de santé
Avant tout, soulignons qu’une objection fréquente face à des recherches telles que celles que nous avons menées est d’affirmer que l’IA évolue plus vite que le cycle de publication académique : au moment où un article paraît, les modèles étudiés ont souvent déjà été mis à jour, rendant ses conclusions obsolètes. Pourtant, des études menées dans le contexte du triage médical (processus visant à déterminer à la phase initiale de la prise en charge d’un patient, la filière adaptée à son état en matière de délai et de type de soins, ndlr) et portant sur des versions plus récentes de ces systèmes suggèrent que les mêmes problèmes persistent.
Nos travaux ont consisté à soumettre à des participants de brèves descriptions de situations médicales courantes. Les volontaires ont été répartis de manière aléatoire en deux groupes. Les membres du premier groupe devaient interagir avec l’un des trois chatbots que nous avions sélectionnés (des chatbots courants, facilement accessibles pour le grand public), tandis que ceux de l’autre groupe pouvaient recourir aux sources qu’ils avaient l’habitude de consulter ordinairement, chez eux. À l’issue de l’interaction, nous leur posions deux questions : quelle affection était la plus compatible avec les symptômes décrits ? Et, en conséquence, vers quelle structure de soins valait-il mieux se tourner ?
Les utilisateurs de chatbots se sont révélés moins aptes à identifier la bonne affection que ceux qui n’en avaient pas utilisé. Ils ne se montraient pas non plus meilleurs que le groupe témoin pour déterminer la bonne modalité de recours aux soins. En d’autres termes, interagir avec un chatbot n’a pas permis aux participants de prendre de meilleures décisions en matière de santé.
Des connaissances solides, mais des résultats décevants
Ces résultats ne signifient pas que les connaissances médicales des modèles de chatbots testés sont lacunaires : les LLM sont, en effet, capables de passer facilement des examens de certification médicale. D’ailleurs, une fois que nous avons mis de côté l’élément humain, en soumettant directement les mêmes scénarios aux chatbots, leurs performances se sont sensiblement améliorées.
Sans intermédiaire humain, les modèles ont identifié les affections pertinentes dans la grande majorité des cas et suggéré le plus souvent des modalités de recours aux soins appropriées.
Pourquoi, alors, les résultats se dégradent-ils dès lors que des utilisateurs réels entrent en jeu ? L’analyse des échanges a mis en lumière plusieurs écueils. Il arrivait fréquemment que les chatbots mentionnent la bonne hypothèse diagnostique au fil de la conversation, sans que les participants ne la retiennent ou ne la restituent dans leur réponse finale.
Dans d’autres cas, les utilisateurs transmettaient des informations parcellaires, ou bien le chatbot interprétait mal des détails essentiels. L’échec ne relevait donc pas d’un simple manque de connaissances médicales. Il tenait à un problème de communication entre l’être humain et la machine.
Ne pas confondre la théorie et la pratique
Cette étude démontre qu’avant de déployer de nouvelles technologies dans des environnements où les enjeux sont importants, les décideurs politiques doivent impérativement avoir des données collectées « en condition réelles » pour estimer les véritables performances des outils concernés. C’est évidemment le cas dans le secteur de la santé.
Nos résultats mettent en évidence que bon nombre des évaluations actuellement menées pour déterminer l’intérêt de l’IA en médecine présentent d’importantes lacunes. En effet, les modèles de langage obtiennent souvent d’excellents résultats lorsqu’il s’agit de répondre à des questions d’examen structurées, ou durant des interactions simulées entre différents modèles.
Mais l’usage réel de ces outils est bien plus complexe que cela. Dans la réalité, les patients décrivent leurs symptômes de façon vague ou incomplète. Ils peuvent aussi mal comprendre les explications qui leur sont données, ou poser leurs questions selon un ordre imprévisible. Un système dont les résultats lors des tests d’évaluations s’avèrent impressionnants peut se comporter très différemment une fois confronté à de véritables utilisateurs.
Cette étude souligne également un point fondamental sur la nature même de la pratique clinique. En tant que médecin généraliste, mon travail ne se limite pas à mobiliser des faits mémorisés antérieurement. La médecine est souvent décrite comme un art autant qu’une science. Une consultation n’a pas pour seul objet d’établir le bon diagnostic : elle consiste à interpréter le récit du patient, à sonder l’incertitude et à prendre des décisions qui sont le résultat d’une négociation.
Cette complexité du colloque singulier entre le médecin et son patient est depuis longtemps reconnu par les enseignants en médecine. Pendant des décennies, les futurs médecins ont été formés selon le modèle de Calgary-Cambridge. Celui-ci implique d’instaurer une relation de confiance avec le patient, de recueillir les informations en le questionnant et en l’écoutant avec la plus grande attention, de comprendre ses préoccupations et ses attentes, de lui expliquer clairement les conclusions et de s’accorder avec lui sur un plan de prise en charge.
Ces processus reposent sur l’établissement d’une connexion humaine, rendue possible grâce à une communication sur mesure, faite d’exploration précautionneuse, afin d’aboutir à l’établissement d’un jugement façonné par le contexte et la confiance. Toutes ces qualités ne peuvent pas être facilement appréhendées par des techniques de reconnaissance de formes (techniques à la base des modèles d’IA, qui permettent à l’ordinateur de détecter, à partir de données brutes ou prétraitées, la présence de formes ou de régularités, ndlr)
Les chatbots IA, des assistants plus que des médecins
Nos travaux ne démontrent pas que l’IA n’a pas sa place dans le secteur de la santé – loin de là. La leçon à retenir est qu’il est crucial de comprendre ce que ces systèmes savent faire à l’heure actuelle, et où se situent leurs limites.
Les chatbots actuels doivent être davantage considérés comme des assistants que comme des médecins. Ils excellent dans l’organisation de l’information, la synthèse de textes et la structuration de documents complexes. Des tâches qui sont précisément celles pour lesquelles les modèles de langage s’avèrent déjà utiles au sein des systèmes de santé, qu’il s’agisse de rédiger des comptes rendus cliniques, de synthétiser des dossiers médicaux ou de générer des lettres d’adressage, par exemple.
Les promesses de l’IA en médecine demeurent réelles, mais à court terme, son rôle sera vraisemblablement plus un rôle de soutien qu’une véritable révolution. On ne peut pas attendre des chatbots qu’ils soient la porte d’entrée dans le système de soins. Ils ne sont pas encore en mesure de poser des diagnostics ni d’orienter les patients vers les prises en charge pertinentes.
Certes, l’IA est déjà capable de réussir des examens de médecine. Mais de même que réussir un examen du Code de la route ne fait pas de vous un conducteur compétent, exercer la médecine ne se limite pas à répondre correctement à des questions.
Retrouver son chemin au cœur de la complexité qui se dissimule derrière chaque rencontre clinique requiert de savoir faire preuve d’empathie et de discernement. Cela reste encore l’apanage des humains. Pour l’heure, du moins.
Rebecca Payne travaille sur le projet REMEDY, financé par Health and Care Research Wales, et bénéficie également d'une bourse Clarendon-Reuben de l'université d'Oxford. Elle est membre du Royal College of General Practitioners et membre senior de la Faculty of Medical Leadership and Management.
08.04.2026 à 17:42
Ces élus issus de l’immigration confrontés au racisme
Texte intégral (1907 mots)
Une nouvelle génération de maires appartenant aux minorités visibles s’est imposée lors des élections municipales de mars 2026. Leur présence s’inscrit dans un mouvement très lent, lié au travail de longue haleine des militants des quartiers populaires. Les charges racistes contre ces élus, et en particulier contre Bally Bagayoko, maire de Saint-Denis, en Seine-Saint-Denis, sont particulièrement violentes. Certains élus témoignent : relents colonialistes, climat islamophobe, soupçons de sorcellerie…
Un ensemble de réactions racistes émanant de médias d’extrême droite, repris par plusieurs chaînes nationales (Cnews, RMC, France 5) et par des responsables politiques ont accueilli, lors du dernier scrutin municipal, l’élection de maires racisé·es et les manifestations de joie qui se sont exprimées dans leurs villes. Les réactions officielles se sont fait attendre. Sofienne Karroumi à Aubervilliers, Aly Diouara à La Courneuve, Demba Traoré au Blanc-Mesnil, Mélissa Youssouf à Villepinte (Seine-Saint-Denis), Imène Souid-Ben Cheikh à Orly (Val-de-Marne), Bassi Konaté à Sarcelles (Val-d’Oise), Adama Gaye à Mantes-la-Jolie (Yvelines), Kadir Mebarek à Melun (Seine-et-Marne), mais aussi au-delà de l’Île-de-France : Omar Yaqoob à Creil (Oise), Abdel-Kader Guerza à Dreux (Eure-et-Loir), Idir Boumertit à Vénissieux (Rhône)… Ils, plus souvent qu’elles, sont aujourd’hui premiers magistrats de leurs villes respectives. Ils et elles ont en commun d’appartenir à des minorités ethnoraciales et de représenter des territoires populaires.
Que disent ces réactions de la représentation en politique, de son évolution et de ses inerties ?
Un lent mouvement de reconnaissance
« La politique est un univers d’hommes privilégiés, âgés, diplômés et issus des catégories supérieures de la société », constatait le politiste Rémi Lefebvre – il faudrait préciser d’hommes blancs. L’élection de ces nouveaux et nouvelles maires vient bousculer, partiellement, cet ordre établi et les représentations qui l’accompagnent.
Leur arrivée en responsabilité n’est pas, pour autant, soudaine. Elle renvoie à un lent mouvement et une difficile reconnaissance du travail de militant·es des quartiers populaires. Dans une enquête portant sur la Seine Saint-Denis, département populaire, historiquement marqué par le communisme municipal et par l’histoire de l’immigration, nous montrions au niveau local une progression significative de la part des élus racisé·es entre les élections de 2001 (9 %) et celles de 2020 (36 %).
Il aura, néanmoins, fallu attendre 2014 pour qu’une commune de Seine-Saint-Denis, Stains, élise son premier maire racisé, Azzedine Taïbi. Le plafond de verre pour l’accès à la fonction de premier magistrat venait de se craqueler. Le mouvement s’est poursuivi avec l’élection de sept maires racisés en 2000 puis de 13, dont deux femmes, lors du dernier scrutin – les sept sortants ayant tous été réélus. Cette dynamique d’ouverture est donc bien confirmée en Seine Saint-Denis comme, plus largement, dans les banlieues populaires. Elle reflète, encore bien timidement, la diversité ethnoraciale de leurs populations.
Cette ouverture ne se traduit cependant pas par une meilleure représentation des femmes qui restent largement sous-représentées : 4 femmes maires sur les 39 villes du département, dont deux racisées. Les classes populaires demeurent par ailleurs largement exclues de la représentation politique.
Contrairement aux préjugés qui assimilent personne racisée et personne sans diplôme, appartenant aux classes populaires, ces maires racisé·es sont à l’image de l’ensemble des maires des villes de plus de 30 000 habitants que la profession initiale rattache majoritairement aux catégories supérieures et intermédiaires. Ils et elles sont néanmoins le plus souvent issus de familles populaires, ont grandi et habitent dans les territoires qui les ont socialisés politiquement.
Une diversité de parcours
À rebours des représentations médiatiques qui font de ces nouvelles et nouveaux maires, vu·es du seul critère racial, un ensemble homogène, c’est aussi la diversité de leurs trajectoires qui est confirmée. Leur élection est souvent associée à La France insoumise (LFI) et présentée comme une irruption soudaine dans la vie politique alors que leurs parcours renvoient à un ancrage et à un engagement de long terme dans leurs quartiers et leurs villes.
Leurs affiliations politiques sont plurielles, et ils et elles entretiennent des relations complexes avec les partis politiques souvent prêts à les instrumentaliser mais plus réticents à les reconnaître. Plusieurs ont conduit des « listes citoyennes » ou « diverses » réunissant l’appui de plusieurs partis.
Dans la seule ville de La Courneuve par exemple, s’affrontaient trois candidat·es racisé·es, tous trois issu·es de la Cité des 4 000 : Aly Dioura, Nadia Chahboune, Oumarou Doucouré. Le premier a construit son implantation dans le tissu associatif local : amicale de locataires, aide aux devoirs dans une association de quartier. Très critique vis-à-vis des partis politiques, il a investi la politique représentative en marquant d’emblée son indépendance, participant à la création du mouvement citoyen La Seine Saint-Denis au cœur. Il s’est présenté sous cette bannière aux élections départementales de 2021 et législatives de 2022. Deux ans plus tard, en 2024, il est investi par LFI et élu député. C’est aussi une liste LFI qu’il conduit pour les municipales de 2026 qui lui permet de devenir maire.
Nadia Chahboune, de son côté, conduit la liste soutenue par le maire communiste qui ne se représente pas. Elle est aussi issue du milieu associatif ; elle a créé et présidé deux associations sportives en direction des femmes avant d’être sollicitée par le maire communiste pour les élections de 2020. Elle occupe alors un poste de maire adjointe pendant un mandat. Contrairement à Aly Diouara, elle souhaite garder son indépendance vis-à-vis des partis politiques. Quant à Oumarou Doucouré, il est membre du Parti socialiste, conseiller technique au cabinet du président du Conseil départemental et présente une trajectoire partisane plus classique qui le conduit au poste de premier adjoint au cours du mandat 2020-2026 puis à mener une liste investie par le PS aux dernières municipales. Ces trois parcours illustrent des relations différentes avec le champ partisan, faites d’oppositions, de collaborations et de tentatives d’émancipation.
Les sept maires racisé·es élu·es en 2020 et réélu·es en 2026 témoignaient également d’une relation complexe aux partis politiques. Parmi les cinq qui s’affirment de gauche, on relève un compagnon de route, Abdel Saadi, et un membre du Parti communiste français (PCF) ayant rendu sa carte en 2022, Azzedine Taïbi (Stains), un membre du PS ayant fait ses classes au PCF, Karim Bouamrane (Saint-Ouen), et deux maires ayant conduit des listes citoyennes. L’un, Mohamed Gnabaly (L’Île-Saint-Denis), a depuis rejoint Les Écologistes (ex-EELV) tandis que l’autre, Dieunor Excellent (Villetaneuse), avait préalablement flirté avec le Parti radical de gauche (PRG) et le PS et continue de collaborer avec les élu·es de ces partis au sein de l’intercommunalité. Les deux maires de droite racisés élus en 2020 avaient été investis par Les Républicains (LR) où ils avaient fait leurs classes. Pour autant, l’un, Rolin Cranoly (Gagny), a quitté ce parti en 2024 ne se reconnaissant pas dans l’alliance avec le Rassemblement national (RN) préconisée par son président d’alors, tandis que l’autre, Zartoshte Bakhtiary (Neuilly-sur-Marne), a conduit au dernier scrutin municipal une liste d’union du centre.
Des prédécesseurs déjà confrontés au racisme
La charge raciste contre Bally Bakayoko, maire de Saint-Denis, a été particulièrement violente ; elle est couplée avec un mépris de classe et une stigmatisation des banlieues populaires. Azzedine Taïbi faisait déjà état du climat islamophobe qui avait marqué sa campagne en 2014. Dieunor Excellent racontait que des bruits courraient sur son usage de la sorcellerie lors de son élection en 2020. Tous deux ont reçu plusieurs fois menaces et insultes qui les ont conduits à porter plainte. Meriem Derkaoui, qui a succédé au maire communiste d’Aubervilliers en cours de mandat en 2016, a été confrontée au doute instillé par les médias, quand le Parisien, par exemple, titre « Madame la Maire franco-algérienne… réintégrée », à propos d’une procédure qui s’est déroulée vingt ans auparavant.
Le scénario se reproduit et se durcit au fur et à mesure que des personnes racisées arrivent en responsabilité. À cela s’ajoutent toutes les expressions d’un racisme ordinaire que rencontrent nombre d’élu·es à l’instar de cette maire adjointe :
« Ah, c’est subtil, c’est très subtil. Au début, on doute en [se] disant que ce n’est pas possible. Au début, on écorche votre nom, puis on vous demande de le répéter ; quand vous dites une phrase, on vous demande de la répéter deux ou trois fois ; c’est de venir vous voir et vous demander si vous faites le ramadan. »
Ou de cette autre élue :
« J’arrive dans des services où des [personnes] ont fait des bacs plus dix, ou plus sept, la petite Noire qui arrive, qui est leur cheffe, parfois peut-être c’était compliqué pour certains d’accepter. »
L’élection de ces nouvelles et nouveaux maires représente un pas important vers une représentation politique dans laquelle les habitant·es des quartiers populaires puissent se reconnaître.
Mais le déferlement de réactions racistes aux relents colonialistes témoigne aussi à rebours de la prégnance des discriminations raciales, de classe et de genre, des rapports de domination qui structurent la représentation politique et, au-delà, la société française. Ces nouveaux et nouvelles maires ont contribué à ouvrir la porte de la représentation, à ouvrir de nouveaux imaginaires et possibles politiques. Les laissera-t-on remplir la charge qui leur a été confiée par les électeurs et électrices ?
La pression médiatique et politique à laquelle ils et elles sont confronté·es, les procès en légitimité et en communautarisme, les inévitables rapports de force à venir quand ils voudront appliquer leurs programmes représentent un véritable défi démocratique auquel certain·es de leurs prédécesseurs élu·es en 2020 ont déjà dû faire face. Cette dynamique d’ouverture et de reconnaissance, pour se consolider, restera à confirmer et à amplifier au cours des prochaines échéances électorales, locales, mais aussi nationales.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.04.2026 à 17:41
Robert F. Kennedy Jr et l’art politique de la fabrique du doute
Texte intégral (1867 mots)
Le 9 septembre 2025, Robert F. Kennedy Jr, ministre de la santé de Donald Trump, publiait la stratégie MAHA (Make America Healty Again) : « Rendre sa santé à l’Amérique. » Pourtant, sa rhétorique semble exprimer autre chose : celle du maintien d’un doute permanent.
Robert F. Kennedy Jr n’est pas seulement un homme politique controversé. C’est une personnalité qui a su transformer le scepticisme en véritable identité politique et qui a appris à se servir du discours de la transparence comme arme de doute envers la santé publique elle-même.
Son ascension jusqu’au poste élevé qu’il occupe aujourd’hui n’est pas qu’une histoire de dénonciation du principe de la vaccination. Elle est celle d’une production du doute : phrase après phrase, métaphore après métaphore, jusqu’à ce que l’incertitude s’immisce dans le quotidien.
La biographie de Kennedy commence par une autorité héritée. Né en 1954, il est le neveu de John F. Kennedy et le fils de Robert F. Kennedy. Aujourd’hui, il porte un nom qui résonne encore avec l’idéalisme américain. Pourtant, comme le souligne le Monde, son nom à lui est progressivement devenu associé à un activisme teinté de théories complotistes et au vaccinoscepticisme – une fusion délicate entre dynastie et dissidence.
Pendant des décennies, la carrière publique de Kennedy ne s’est pas centrée sur la médecine mais sur l’environnement. C’est en exerçant les fonctions d’avocat et de militant écologiste qu’il s’est forgé une crédibilité, luttant contre les entreprises polluantes et poursuivant en justice des entreprises industrielles accusées d’empoisonner les rivières et les communautés.
Cette période de sa vie est importante aujourd’hui car elle fournit le cadre moral qui continue aujourd’hui de façonner son discours : les industries puissantes oppressent les innocents, les autorités de régulation échouent, et le justicier, seul, expose la vérité.
Problème : Kennedy semble avoir repris ce modèle – propre à l’environnement – pour l’appliquer au domaine de la santé publique. Selon lui, les vaccins sont moins des outils médicaux que des symboles d’une corruption institutionnelle.
La fabrique d’une rhétorique
C’est au milieu des années 2000 que Kennedy commence à promouvoir des idées remettant en cause l’innocuité des vaccins. En 2016, il cofonde l’une des organisations antivax les plus influentes du pays : le World Mercury Project, devenu en septembre 2018 Children’s Health Defense, dont il sera ensuite le « chairman » (président du conseil).
Certains fact-checkers relèvent par ailleurs qu’il établit souvent des liens entre l’autisme et les vaccins, alors même que l’inexistence de ces liens a été démontrée scientifiquement.
Langage du doute : lire entre les lignes
Mais ce qui singularise Kennedy est avant tout sa méthode rhétorique. En effet, il se présente rarement comme un antivax. Au contraire, il modère ses discours par des mots bien choisis, qui lui offrent une sorte de « bouclier linguistique ».
« Je suis pour la sécurité sanitaire. Je ne suis pas anti-vaccin… tous mes enfants sont vaccinés. »
Cette affirmation n’est pas fortuite. Elle est stratégique. En rejetant cette étiquette tout en entretenant le soupçon, Kennedy donne l’impression que le doute est raisonnable, voire responsable. Il en résulte une banalisation de la méfiance sans qu’il n’ait jamais à en assumer les conséquences.
Lors de la pandémie de Covid-19, cette rhétorique s’est significativement intensifiée. La revue scientifique Nature a qualifié Kennedy d’un des principaux diffuseurs de fausses informations concernant les vaccins, aux États-Unis. De même, le média NPR a analysé la façon dont il a attisé la méfiance envers les institutions de santé publique pendant la crise.
Lors de cette période, son discours se caractérise par une rhétorique populiste constante, opposant les citoyens ordinaires aux élites corrompues. La vaccination n’est plus présentée comme une intervention médicale, mais comme un symbole de coercition. « Soumettez-vous au gouvernement, faites ce qu’on vous dit », dénonce-t-il, déplorant qu’il n’y ait « aucun débat possible ».
Opposer la science à la « quête de la vérité »
Ce discours est politiquement efficace, précisément parce qu’il change la donne. Le débat ne porte plus sur des aspects épidémiologiques, mais sur des concepts comme la liberté, la trahison et l’intégrité morale. La science est présentée non pas comme une méthode mais comme une institution dont il faut se méfier.
Le propos de Kennedy repose sur un minutieux entretien du doute.
« Il n’y a pas de preuve », concède-t-il, avant de faire volte-face : « Nous ne savons pas encore ce qui en est la cause, alors ne devrions-nous pas garder l’esprit ouvert ? » La manœuvre est subtile : le consensus est présenté comme une conclusion hâtive, le scepticisme comme une vertu intellectuelle.
Kennedy va plus loin en redéfinissant la science elle-même. « La science ne dit rien », déclare-t-il. « La science est un débat. » Cette posture épistémique a des conséquences graves : si la science n’est qu’une dispute sans fin, alors aucune preuve ne pourra jamais trancher définitivement un désaccord. Le doute devient, dès lors, structurel.
Pour légitimer sa méfiance, Kennedy s’appuie davantage sur des récits moraux que sur une méthodologie rigoureuse. Il invoque volontiers Francis Kelsey (1914-2015), la scientifique de l’US Food and Drug Administration (FDA) qui s’était opposée à l’autorisation de la thalidomide, et la salue car elle « remettait la science en question ». La suggestion implicite est claire : la voix discordante d’aujourd’hui pourrait être le héros de demain. Mais l’analogie est trompeuse. Remettre en question la négligence réglementaire n’équivaut en aucun cas à remettre en cause des décennies de données sur les vaccins.
Lorsqu’on le contredit directement, Kennedy oppose au consensus scientifique des études « alternatives », promettant que s’il a tort, il « présentera des excuses publiques », insistant sur le fait qu’« il existe également d’autres études encore ». La conclusion est ainsi sans cesse repoussée et la discussion est conçue pour ne jamais aboutir.
Plus significatif encore, la rhétorique de Kennedy a commencé à remodeler les institutions elles-mêmes après son arrivée au ministère de la Santé. Des législateurs l’ont accusé de déstabiliser la gouvernance vaccinale après qu’il eut limogé les 17 membres d’un important comité consultatif, qualifiant cette décision d’inédite et d’irresponsable.
L’Association états-unienne de santé publique a averti que ses antécédents témoignaient d’un net penchant pour la désinformation et d’un manque de rigueur scientifique. La revue médicale The Lancet est allée plus loin, affirmant que son influence pourrait accroître la réticence mondiale à la vaccination, citant l’épidémie de rougeole aux îles Samoa comme un exemple tragique d’une méfiance amplifiée jusqu’à la catastrophe.
Kennedy n’agit pas seul. Il est porté par tout un écosystème qui le présente comme un défenseur persécuté de la vérité. Le rapport que lui a consacré la sénatrice démocrate Elizabeth Warren décrit par ailleurs son leadership comme la mise en œuvre d’une stratégie de déstabilisation anti-vaccinale. Ce qui en ressort n’est pas simplement un scepticisme individuel, mais un mouvement dont la méfiance est le fondement et où l’exigence de transparence devient une arme politique.
La vraie question que RFK Jr impose à la vie publique n’est pas de savoir si les vaccins sont sûrs – une question maintes fois tranchée par des preuves scientifiques – mais si les sociétés démocratiques peuvent survivre à l’érosion délibérée d’une réalité commune.
Un dissident de la santé publique
À un certain point, le sujet dépasse la simple personne du ministre de la santé, et interroge la culture qui permet à de telles affirmations de prospérer.
Comment le doute devient-il une identité ? Comment la remise en question se transforme-t-elle en une forme de pouvoir ?
Et que se passe-t-il lorsque le langage de la science devient un champ de bataille plutôt qu’une méthode ?
Dans un tel monde, la science cesse de fonctionner comme un outil commun d’établissement des faits. Elle devient au contraire un terrain de joute rhétorique : des acteurs rivaux revendiquent l’autorité de la science, chacun présentant sa propre version de celle-ci. Il en résulte non pas de la clarté, mais un conflit permanent, où le mot lui-même devient une arme dans la lutte pour savoir qui a le droit de définir la réalité.
Si Kennedy a commencé sa carrière comme militant écologiste, il est devenu un dissident de la santé publique. Désormais, il est quelque chose de plus inquiétant : un acteur politique dont l’influence ne réside pas dans la résolution de l’incertitude, mais dans son maintien.
La question la plus urgente n’est peut-être pas ce que croit Robert F. Kennedy Jr C’est ce que sa rhétorique rend possible.
Fatima-Zahra Aklalouch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:41
La contamination chimique des cires d’abeille, un problème sanitaire qui passe sous les radars
Texte intégral (3232 mots)

Substance clé de la ruche, la cire agit aussi comme piège à polluants, ce qui pourrait menacer la santé des abeilles. Une expertise de l’Agence nationale de sécurité sanitaire, ou Anses, montre que la quasi-totalité des cires présente des contaminations chimiques, avec des niveaux plus élevés dans les circuits commerciaux que chez les apiculteurs qui recyclent leur propre cire d’une année à l’autre.
On le sait : la pérennité des écosystèmes dépend de la santé des pollinisateurs. Les abeilles en sont les représentantes emblématiques, leur déclin suscite l’inquiétude de la société et de la communauté scientifique. En cause, l’évolution des paysages, l’usage de produits chimiques en agriculture et en apiculture, notamment antiparasitaires pour lutter contre l’acarien Varroa destructor.
Or, la cire produite par les abeilles, substance de nature lipophile (c’est-à-dire présentant une affinité chimique pour les graisses), fixe et diffuse les substances chimiques contaminantes. En ce sens, elle peut constituer un biomarqueur de la contamination environnementale de la colonie d’abeilles.
Les jeunes abeilles produisent naturellement de la cire, mais le coût énergétique de sa fabrication peut diminuer la quantité de miel produit. L’ajout de cire dans la ruche leur donne un coup de pouce précieux pour édifier les alvéoles. Pour cela, les apiculteurs disposent chaque année sur les cadres de la ruche des feuilles de cire gaufrée, qui servent alors de base aux abeilles ouvrières.
Pour des raisons économiques, ces feuilles sont généralement produites à partir de cire recyclée : les cires sont collectées en même temps que la récolte de miel, fondues puis réutilisées. Ce recyclage peut entraîner l’accumulation progressive de contaminants chimiques susceptibles d’être nocifs pour les abeilles.
Les bonnes pratiques apicoles de l’Institut de l’abeille et de la pollinisation (Itsap) préconisent que seuls les opercules de cire (les pellicules de cire utilisées pour fermer les alvéoles) produits dans l’année par les abeilles soient recyclés, mais la cire étant un produit rare, certains apiculteurs s’approvisionnent auprès de fournisseurs tiers.
Pour mieux comprendre l’ampleur du problème, l’Agence nationale de sécurité sanitaire (Anses) a récemment mené une expertise pour dresser l’état des lieux des contaminants chimiques présents dans les cires utilisées en apiculture, en France hexagonale.
Pas de contrôle des cires importées, faute de définition réglementaire
La France importe ainsi environ 1 000 tonnes de cire par an, essentiellement de Chine. Or, en raison de l’absence de définition réglementaire de la cire d’abeille à usage apicole, il n’existe pas de contrôle spécifique pour ce produit, en dehors des contrôles documentaires classiques (portant sur l’exactitude, l’exhaustivité et la validité des déclarations en douane) effectués en postes frontières.
L’exposition chronique, par la cire, du couvain et des abeilles aux contaminants qu’elle contient, est susceptible d’avoir un impact sur leur développement, leur santé et leur survie. Et cela, à tous les stades de développement (larves, nymphes et adultes), ce qui peut menacer la santé de la colonie entière.
Il n’existait, jusqu’alors, aucun état des lieux de la contamination des cires en France ni d’évaluation chiffrée du risque posé pour la santé des abeilles.
À lire aussi : Pourquoi l’abeille est-elle devenue le symbole de la lutte contre les pesticides ?
Les contaminations chimiques découvertes
Dans le but de mieux connaître l’état des contaminations des différents types de cires en France, deux études de terrain successives ont été conduites, en plus d’une revue de la bibliographie.
La première a été menée auprès des apiculteurs professionnels (étude CIMEQA) et la seconde (une convention de recherche-développement, ou CRD, cosignée par l’Itsap et l’Anses), auprès des apiculteurs de loisir.
En effet, ces deux groupes n’ont pas les mêmes pratiques :
Les apiculteurs professionnels (possédant plus de 150 ruches) sont majoritairement autosuffisants en cire : leur rucher leur en procure suffisamment pour qu’ils puissent la recycler et fournir la quantité nécessaire au renouvellement des cadres de leurs ruches. En apportant leur production annuelle au cirier (industriel ou artisan préparant la cire ou des produits en cire), ils peuvent récupérer les feuilles de cire gaufrée issues du recyclage de leur propre cire.
Les apiculteurs de loisir (possédant moins de 150 ruches) ne sont généralement pas autosuffisants. Différents circuits de recyclage et d’achats de cire s’offrent à eux : les ciriers, les collectifs d’apiculteurs, les enseignes spécialisées en apiculture et, enfin, les enseignes non spécialisées (type magasin de jardinage-bricolage).
Il en ressort que la quasi-totalité des échantillons analysés est contaminée, quelle que soit la population d’apiculteurs étudiée.
En comparaison des cires qu’emploient les apiculteurs professionnels, les cires distribuées dans le commerce présentent des niveaux de contamination supérieurs. Il apparaît toutefois que les contaminants les plus fréquemment retrouvés dans ces deux catégories de cires sont globalement les mêmes : le tau-fluvalinate, le coumaphos, le propargite et le piperonyl butoxide (PBO).
Il s’agit de résidus de produits phytopharmaceutiques, de médicaments vétérinaires, de biocides et d’éléments traces métalliques, qui sont d’origine environnementale ou apicole. Dans le second cas, ils sont souvent liés à la lutte contre l’acarien Varroa destructor.
Ces analyses confirment des fréquences d’occurrence importantes des médicaments vétérinaires, actuellement ou auparavant autorisés (tau-fluvalinate, coumaphos, thymol pour la seule étude l’ayant recherché, métabolites de l’amitraze, fluméthrine).
D’autres résultats étaient moins prévisibles, comme la présence de pyréthrinoïdes (utilisés comme insecticides, notamment en agriculture), des composés organophosphorés ou organochlorés, qui sont des polluants organiques persistants. Parmi les substances les plus préoccupantes, des pyréthrinoïdes ont été retrouvés dans plus de 40 % des échantillons des cires gaufrées commercialisées.
Les cires vendues par les enseignes généralistes sont davantage à risque
L’Anses a ensuite calculé le risque pour les abeilles à partir des DL50 (c’est-à-dire une dose provoquant 50 % de mortalité pour les populations d’abeilles) de chacune des substances chimiques identifiées dans les échantillons et dans les concentrations où elles y ont été retrouvées. Plus la DL50 est faible, plus la substance est toxique.
L’outil en ligne BeeToxWax, développé par l’Université de Liège, a été utilisé. Il permet de calculer instantanément un quotient de risque (QR) qualifiant la toxicité de la cire et sa possible réutilisation en apiculture en fonction de seuils définis dans la littérature scientifique.
Les seuils étaient les suivants :
QR < 250 : risque chimique jugé acceptable, cire considérée comme étant de bonne qualité pour l’apiculture ;
250 < QR < 5 000 : toxicité significative, la cire est classée comme étant de qualité intermédiaire pour l’apiculture ;
QR > 5 000 : toxicité élevée, la cire est considérée comme étant de mauvaise qualité pour l’apiculture.
Verdict ? Les résultats obtenus sont plus favorables pour les cires issues de l’autorenouvellement des apiculteurs professionnels. Seuls 4,5 % des échantillons issus de cet autorenouvellement présentaient un score de QR supérieur à 5 000.En revanche, les cires du commerce dépassent ce seuil pour 38,8 % des échantillons étudiés.
Au final, les cires les moins contaminées sont retrouvées essentiellement parmi les cires des apiculteurs professionnels : dans ce groupe, 81 % des cires ont un score de QR inférieur à 250, contre 30 % des cires provenant de l’étude CRD (apiculeurs de loisir).
Pour les différentes voies d’approvisionnement, enfin, les meilleurs résultats ont été obtenus pour les cires provenant des groupements d’apiculteurs, puis des ciriers. Les cires issues des enseignes spécialisées et surtout celles des généralistes obtiennent le moins bon score.
À lire aussi : Abeilles à miel : comment les humains ont bouleversé leur histoire et leur diversité
De l’importance des bonnes pratiques apicoles
Ainsi, la qualité toxicologique d’une cire est en partie liée à son circuit d’approvisionnement et à son origine géographique.
La cire utilisée par les apiculteurs autosuffisants est de bien meilleure qualité que celle du commerce. De même, les cires labellisées AB présentent une meilleure qualité que les cires conventionnelles. Enfin, les feuilles de cire gaufrées confectionnées exclusivement à partir d’opercules sont de meilleure qualité que les feuilles confectionnées à partir de mélanges contenant toutes les cires de cadres et/ou d’origines diverses.
La part de risque attribuable aux médicaments apicoles rappelle l’importance du respect des bonnes pratiques en termes d’application et de posologie. La fluméthrine (pyréthrinoïde), acaricide autorisé pour lutter contre le varroa qui parasite les abeilles, doit faire l’objet d’une attention particulière quant aux doses d’application. En cas de dépassement, une dégradation exponentielle de la qualité de la cire s’ensuit, et cela d’autant plus en association avec le PBO, qui augmente l’activité insecticide de cette molécule, que l’on retrouve dans 77,6 % des échantillons analysés chez les apiculteurs de loisir.
Même en retirant la part de risque liée aux médicaments vétérinaires, la qualité toxicologique des cires reste dégradée. Les substances présentant les parts de risque le plus élevé sont, pour les deux études, des pyréthrinoïdes. Là aussi, la présence du PBO augmente leur activité insecticide et augmente le risque chimique. Or, les connaissances et les outils disponibles aujourd’hui ne permettent pas d’évaluer de telles synergies.
De nombreux contaminants sont présents dans les cires alors qu’ils ne sont plus – ou n’ont jamais été autorisés – en Europe. Le maintien de leurs usages dans certains pays tiers, voire leurs usages détournés et mésusages en France ou ailleurs dans le monde, rappelle la nécessité de contrôler efficacement la provenance et la qualité des cires disponibles sur le marché français. Les enquêtes conduites ont démontré la meilleure qualité des cires d’origine française contre celles d’origine UE ou hors UE.
La conservation des molécules dans la cire recyclée nécessite de remettre dans le circuit des cires de la meilleure qualité possible. Pour cela, l’apiculteur est le premier intervenant à agir par l’application des bonnes pratiques apicoles et la surveillance régulière et attentive de ses colonies. Le rapport d’expertise de l’Anses compte de nombreuses recommandations à destination de tous les acteurs de la filière apicole, et en premier lieu des apiculteurs.
L’autrice de ce texte adresse ses remerciements au groupe de travail Cires de l’Anses : Carole Peroz (présidente du groupe de travail), Lionel Grisot (vice-président), Frédéric Delbac, Yves Le Conte, Monique L’Hostis, Anne-Claire Martel, Freddie-Jeanne Richard, Christophe Roy, Claude Saegerman et Cyril Vidau ainsi qu’à Caroline Boudergue (adjointe à la cheffe d’unité Anses).
Julie Chiron ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 17:40
Se conformer aux normes de genre, ça commence dès le plus jeune âge
Texte intégral (1747 mots)
Très tôt sensibles aux normes de genre, les enfants ne se contentent pas d’en être des observateurs, ils les intériorisent. Comment cela se manifeste-t-il ? Et comment cela évolue-t-il avec l’âge ?
Beaucoup de personnes ont déjà ressenti cette pression subtile qui les pousse à vouloir paraître « assez viriles » ou « assez féminines » aux yeux des autres. Des études ont démontré que cette pression peut avoir des conséquences tant sur le plan personnel que social.
Lorsque les hommes ont le sentiment que leur virilité est mise en question, ils peuvent réagir par des comportements agressifs et nuisibles. Lorsque les femmes s’écartent des stéréotypes de la féminité – ou même lorsqu’elles envisagent simplement de le faire –, elles subissent souvent des réactions négatives.
En tant que chercheurs étudiant la manière dont les stéréotypes et les normes de genre affectent les individus, de façon souvent inattendue, nous nous sommes interrogés sur les processus qui poussent les enfants à se conformer à ces normes stéréotypées. Quand cela commence-t-il, et de quelle manière cela peut-il se manifester ?
Dans une étude récemment publiée, menée avec notre collègue Andrei Cimpian, nous avons constaté que, lorsque les enfants perçoivent que leur sentiment d’appartenance en tant que « membre à part entière » d’un groupe de genre est menacé, ils se sentent poussés à se conformer à des rôles de genre, avec des conséquences durables.
Les questions des filles et celles des garçons
En nous inspirant de recherches menées auprès d’adultes, nous avons estimé que la meilleure façon d’évaluer la motivation des enfants à se conformer aux normes de genre consistait à remettre en question leur statut de membre « représentatif » de leur groupe de genre.
Pour ce faire, nous avons demandé à 147 enfants, âgés de 5 à 10 ans, à New York, de jouer à deux jeux, un « jeu de questions pour filles » et un « jeu de questions pour garçons ». Chacun comportait des questions difficiles sur des sujets stéréotypés selon le genre, telles que « Laquelle de ces fleurs est un coquelicot ? » (Jeu des questions pour filles) et « Laquelle de ces équipes de football a été championne en 2016 ? » (Jeu des questions pour garçons).
Nous avons réparti les enfants de manière aléatoire pour qu’ils reçoivent des commentaires suggérant que leurs performances étaient soit conformes aux stéréotypes de genre, soit atypiques par rapport à ceux-ci, cette dernière catégorie constituant notre version d’une menace pesant sur leur conformité de genre. Par exemple, un garçon placé dans cette condition de menace recevait un commentaire indiquant qu’il avait brillé au « Jeu des questions pour filles », mais qu’il avait échoué au « Jeu des questions pour garçons ».
Nous avons ensuite évalué comment ils réagissaient à ce retour d’information. Le garçon allait-il partager publiquement ou cacher sa réussite dans un « Livre des gagnants du Jeu des questions pour filles » ? Allait-il porter fièrement un autocollant « Gagnant du Jeu des questions pour filles », ou préférait-il changer d’autocollant ? Allait-il s’inquiéter de ce que ses camarades allaient penser ?
Quelles réponses aux menaces sur la conformité aux normes de genre ?
Nous avons identifié trois façons distinctes dont les enfants réagissaient face à des menaces pesant sur leur conformité de genre.
Tout d’abord, les filles et les garçons de tous âges sont particulièrement préoccupés par le fait de ne pas s’intégrer à leur groupe de genre. Cela signifie qu’ils s’attendent à davantage de rejet de la part de leurs pairs et manifestent une faible estime de soi.
Deuxièmement, certains enfants s’efforcent de montrer activement qu’ils s’intègrent dans leur groupe de genre. Les plus jeunes filles accentuent leur féminité, tandis que les garçons plus âgés accentuent leur masculinité. Par exemple, les garçons plus âgés nous ont dit qu’ils préféraient les figurines d’action aux poupées, ou qu’ils voulaient rejouer au « jeu des questions pour garçons » plutôt qu’au « jeu des questions pour filles ».
Cela va dans le sens de recherches antérieures montrant que de nombreuses jeunes filles sont plongées dans une « culture des princesses » et particulièrement soucieuses de prouver leur féminité, même si cette tendance s’estompe avec l’âge. À l’inverse, les garçons plus âgés apprennent de plus en plus, à mesure qu’ils grandissent, que la masculinité est un statut social précaire qui se gagne difficilement et doit être activement prouvé.
Troisièmement, les garçons de tous âges évitaient de paraître atypiques par rapport à leur groupe de genre, en se distanciant activement de tout ce qui était féminin. Nous n’avons pas observé chez les filles une tendance similaire à se distancier de tout ce qui était masculin.
Cette réaction reflète un double standard culturel aux États-Unis : on encourage souvent les filles à être sportives, à s’affirmer ou à ressembler à des « garçons manqués », alors que les garçons ne disposent pas d’équivalent socialement acceptable ; il n’existe pas de version masculine positive du terme « garçon manqué ». L’expression qui s’en rapproche le plus est « poule mouillée », qui n’est généralement pas considérée comme un compliment.
Aider les enfants à entretenir une relation plus saine avec les normes de genre
Nos résultats montrent que les fondements de cette recherche de conformité de genre à l’âge adulte – y compris certaines de ses manifestations les plus néfastes, telles que certaines formes d’agressivité masculine et certaines angoisses féminines sur les poursuites de carrière dans les domaines dominés par les hommes – se mettent en place dès le plus jeune âge.
Dès l’âge de 5 ans, les garçons repèrent qu’il est préférable pour eux d’éviter les comportements vus comme « féminins ». Vers 7 ans, ils semblent comprendre que la masculinité est un statut qu’il faut activement prouver et défendre, et cette mentalité peut se manifester par de l’agressivité, des violences sexuelles et une réticence à demander de l’aide à l’âge adulte.
Pour les filles, nos résultats suggèrent qu’elles sont motivées à prouver leur féminité de manière stéréotypée dès le plus jeune âge, mais que cela peut s’estomper ensuite. Cela s’explique peut-être par le fait que les filles sont parfois encouragées à se lancer dans des domaines historiquement vus comme « masculins », tels que le sport et les sciences et technologies. Ou bien elles se rendent compte que la masculinité permet aux hommes – et aux garçons – de réussir dans ces domaines, et cherchent donc à s’en rapprocher en s’éloignant de la féminité.
Il est toutefois possible que, dans d’autres contextes, les filles subissent davantage de pression pour incarner la féminité et éviter la masculinité – c’est-à-dire pour se conformer aux stéréotypes féminins – d’une façon que nous n’avons pas pu mettre en évidence dans notre étude. Nous ne comprenons pas non plus pourquoi les réactions des filles face à la perception de menaces sur la conformité de genre pourraient s’atténuer avec l’âge, étant donné que les femmes adultes sont elles aussi affectées par ces menaces. Notre prochain objectif est d’étudier plus en détail comment la conformité de genre se développe dans des contextes géographiques et culturels plus diversifiés, ainsi que chez des enfants aux identités de genre plus variées.
En somme, nous pensons que l’enfance pourrait constituer une période critique pour intervenir. Les programmes qui aident les enfants, en particulier les garçons, à se forger une identité solide qui ne repose pas sur la conformité aux normes pourraient les aider à entretenir une relation plus saine avec les normes de genre. De cette manière, les enfants pourraient être moins enclins à réagir aux menaces perçues envers leur conformité de genre d’une manière qui leur serait préjudiciable à l’âge adulte.
Néanmoins, ce qui est clair, c’est que les enfants ne se contentent pas d’observer les normes de genre : ils les intériorisent, les défendent activement et commencent à le faire plus tôt que ce que l’on pense.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
08.04.2026 à 17:40
Les stratégies de légitimation économique d’une offre culturelle, le cas du Louvre-Lens
Texte intégral (2063 mots)
Les récentes élections municipales ont montré comment les investissements culturels pouvaient être instrumentalisés dans un débat politique ; comme à Lens, dans le Pas-de-Calais. Le Louvre local a été accusé de ne pas profiter suffisamment aux habitants de la ville. Cela pose la question de l’utilité des équipements culturels. Faut-il la mesurer en fonction de considérations économiques, sociales ou culturelles ?
Dans un contexte d’élections municipales tendues, en particulier dans la ville de Lens (Pas-de-Calais), l’offre culturelle proposée dans cette ville a été l’objet de questions. Un article de Télérama interroge notamment la réussite de la revitalisation culturelle annoncée avec l’implantation du musée du Louvre-Lens.
Comme le montre cet article, l’opposition au conseil municipal ne se prive pas de pointer des résultats en demi-teinte pour le Louvre-Lens, en particulier lorsque l’on regarde les chiffres des entrées au musée et la part du public international, moins importante qu’annoncé.
Cependant, il est peu aisé – voire dangereux – de quantifier des résultats d’une offre culturelle, telle qu’un musée, dans une localisation où la population, principalement issue des classes populaires, n’est que peu, voire n’est pas, familière des institutions muséales. Ce phénomène de quantification menace directement un champ culturel déjà en tension et soumis à de nombreuses coupes budgétaires ces dernières années. Cela pourrait encourager une hiérarchisation des acteurs culturels et une potentielle instrumentalisation de la culture.
À lire aussi : Le Centre Pompidou, le musée superstar en équilibre précaire, avant fermeture pour travaux
Deux discours de légitimation
Notre travail sur le processus de légitimation du Louvre-Lens dans la ville de Lens et la région du bassin minier, publié en 2024, montre justement les dynamiques économiques et culturelles de l’implantation du musée. Depuis 2004, début de la médiatisation du projet d’implantation de ce musée, le contexte local exerce une forte influence sur les deux types de légitimation du Louvre-Lens, développés en parallèle par les acteurs médiatiques, politiques, socio-économiques et culturels : une légitimation économique et une légitimation culturelle.
La stratégie de légitimation économique est souvent au cœur des discours, en particulier des acteurs politiques, pour défendre – ou critiquer – un projet d’offre culturelle. Présenté comme un levier de revitalisation économique pour le bassin minier et ses habitants, le musée allait assurer « la survie économique » de la région au début des années 2000 (La Voix du Nord, 21 juillet 2004). Cette stratégie et sa réception sont alors fortement influencées par le contexte local. Les difficultés socio-économiques des habitants accentuent les attentes autour du Louvre-Lens mais également les tensions, avec la crainte d’un investissement trop lourd pour une région qui connaît déjà des difficultés.
Des retombées économiques insuffisantes ?
Quelques années après l’ouverture du musée, à partir du milieu des années 2010, le bilan économique n’a pas tenu toutes ses promesses, ce qui déclenche des critiques dans la sphère médiatique qui pointe « un impact limité sur l’économie locale » (Le Monde, 21 août 2016) et le décalage perçu entre les promesses des acteurs publics et le développement économique réel.
Pour mieux comprendre l’importance de l’argument économique dans les discours sur le Louvre-Lens, les apports du marketing culturel peuvent s’avérer utiles. Dans les années 1990-2000, des travaux sur le concept de la « ville créative » ou sur la théorie de la « classe créative » émergent. Ces travaux supposent que le développement d’activités créatives et culturelles dans une ville génère un développement économique, favorise l’inclusion sociale et améliore les conditions de vie des habitants.
Si ces concepts ont séduit les décideurs politiques, de nombreux travaux scientifiques les ont critiqués, en particulier pour le flou relatif à leur application concrète. De plus, une grande majorité des [travaux] supportant l’argument économique se base toujours sur le même exemple de revitalisation culturelle, celui du musée Guggenheim à Bilbao, grandement médiatisé et repris dans les discours politiques comme un modèle à suivre.
Le poids du contexte
Mais ce modèle ne s’exporte pas facilement, tant les spécificités propres à chaque territoire, leurs contextes historique, politique, social, économique, spatial ou encore culturel sont cruciaux pour mieux appréhender le développement d’une offre culturelle locale.
En parallèle de ce processus de légitimation économique particulièrement mobilisé par des acteurs politiques, économiques et médiatiques, la légitimation culturelle s’inscrit plutôt dans un objectif de démocratisation culturelle, afin d’encourager l’appropriation du Louvre-Lens par les habitants. Dès le début du projet de développement du musée, le Louvre-Lens est représenté comme une compensation pour une ville et une région souvent délaissée par les pouvoirs publics depuis la désindustrialisation. Ainsi, Guy Delcourt, maire socialiste de la ville et vice-président du conseil général du Pas-de-Calais, estimait que le choix du gouvernement annoncé le 29 novembre par le premier ministre lors d’une visite dans la ville n’est que justice pour un département qui a « toujours été oublié sur le bord de la route, y compris par nos amis du Nord ».
Des traces matérielles du passé préservées
La dimension symbolique de cette implantation, en lien avec le passé minier du territoire, est renforcée par sa dimension spatiale. Qu’il s’agisse de son lieu d’implantation (un ancien carreau de fosse) ou des traces matérielles préservées et valorisées (signalisation de l’ancien puits de mine, conservation de la trace des anciens rails qui servaient au transport du charbon).
La dimension spatiale d’un musée influence significativement ses représentations et sa fréquentation. Dans ce cadre, les travaux en marketing culturel et en urbanisme décrivent souvent une architecture de musée qui serait conçue et pensée par des acteurs publics et des architectes à des fins de développement touristique sans réelles considérations ou implication des habitants, freinant ainsi leur fréquentation et les efforts de démocratisation culturelle. Cependant, dans le cas du Louvre-Lens, sa dimension spatiale a contribué à inscrire le musée dans une histoire et une identité commune, celle du bassin minier.
À la suite de l’ouverture du musée, sa légitimation culturelle s’est renforcée grâce aux différentes actions développées par le Louvre-Lens, telles que des expositions sur le RC Lens, le club de football local, sur la Pologne faisant écho à l’importante communauté polonaise sur le territoire, ou encore à travers la mise en place de cartels conçus avec plus de 200 habitants pour encourager la démarche collaborative.
Les associations locales mobilisées
Ces actions favorisent la collaboration des habitants et des associations locales, répondant à l’objectif d’ancrage territorial du Louvre-Lens. Cette légitimation culturelle est finalement assez peu remise en cause dans les discours médiatiques et par les habitants, qui sont de plus en plus nombreux à visiter le Louvre-Lens chaque année. En 2024, selon le rapport d’activité du Louvre-Lens, 74 % des visiteurs viennent des Hauts-de-France et 30 % résident aux alentours du musée, une proportion en augmentation ces dernières années (28 % en 2023 et 25 % en 2022). À titre de comparaison, selon le rapport d’activité du Mucem en 2024, 39 % de leurs visiteurs viennent de la région Sud, et 28 % résident à Marseille.
Dans le processus de légitimation du Louvre-Lens, si la légitimation culturelle a tendance à être reléguée au second plan par certains acteurs : médiatiques, politiques en particulier, elle s’avère être en réalité au cœur de la réussite actuelle du musée auprès de la population locale, et donc du développement du territoire.
En effet, l’analyse des discours médiatiques autour du Louvre-Lens montre que sa légitimation économique a été plus fortement discutée au commencement du projet dans les années 2000, puis à l’inauguration du musée en 2012. Elle est ensuite de moins en moins questionnée au fil des années, au profit de discours représentant le Louvre-Lens comme une réussite culturelle, acceptée et légitime. Cependant, l’argument économique ressurgit régulièrement, à des moments de forts enjeux politiques, comme en témoigne récemment le contexte actuel des municipales.
Clarifier les retombées
Les discours médiatiques et politiques contribuent à alimenter les tensions en omettant des éléments essentiels à la pleine compréhension des retombées économiques, rendant l’argument économique peu clair. Le Louvre-Lens a fêté ses 13 ans en fin d’année 2025 ; si cela représente une durée relativement courte à l’échelle d’un musée, il n’en va pas de même à l’échelle des habitants. La temporalité des retombées économiques doit être prise en compte et communiquée à la population locale afin d’éviter toute ambiguïté sur le temps nécessaire au développement économique.
La revitalisation des territoires doit être approchée de manière nuancée, car les enjeux économiques et sociaux n’affectent pas tous les acteurs de la même manière. Les acteurs privés et les investisseurs immobiliers sont les premiers à bénéficier des retombées économiques, puis, dans une moindre mesure, les habitants. Il est donc essentiel de clarifier comment l’ensemble des acteurs bénéficie du développement économique du territoire, qu’il s’agisse de la population locale, du tissu associatif ou encore des entreprises privées.
La même approche s’applique aux espaces géographiques. Par exemple, les infrastructures développées autour du Louvre-Lens, telles que le parc du musée, la Louvre-Lens Vallée ou la rénovation des accès routiers, ont un impact beaucoup plus direct sur les quartiers aux alentours du musée que sur les quartiers les plus éloignés, pouvant créer des tensions au sein de la population ou une forme d’incompréhension envers ce type d’investissements.
La thèse de Melvin Grefils a été cofinancée par l'université de Lille (50%) et le conseil régional Hauts-de-France (50%). Ce travail a également bénéficié d'une convention de collaboration avec le musée du Louvre-Lens.
Hélène Gorge et Nil Özçaglar-Toulouse ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
08.04.2026 à 17:37
Quand Internet sauve un musée : l’exemple du Musée des tissus de Lyon
Texte intégral (1710 mots)

Signer une pétition, relayer un message, partager une image : ces gestes ordinaires peuvent-ils infléchir le destin d’une institution culturelle menacée de fermeture ? À l’heure des réseaux sociaux, certaines mobilisations dépassent leur ancrage local pour toucher des publics inattendus. Mais qu’est-ce qui transforme une indignation diffuse en véritable levier d’action collective ?
En 2015, un musée prestigieux situé au cœur de Lyon (Rhône) est menacé de fermeture. Le Musée des tissus et des arts décoratifs, qui abrite l’une des plus importantes collections textiles du monde, risque de disparaître faute de financements. Deux ans plus tard, il est finalement sauvé. Entre-temps, une mobilisation citoyenne inattendue s’est développée, largement portée par Internet.
Cet épisode illustre une transformation des formes d’engagement autour du patrimoine. Comment une mobilisation née en ligne peut-elle contribuer à préserver un site culturel ? Et que révèle ce cas sur les nouvelles dynamiques de militantisme dans le domaine du patrimoine ? Nous avons mené une étude pour tenter de répondre à ces questions.
Un musée au cœur de l’histoire lyonnaise
Le Musée des tissus est intimement lié à l’histoire économique et culturelle de Lyon. Au XVIIIᵉ siècle, la ville devient l’un des principaux centres mondiaux de la production de soie. Les célèbres canuts, les ouvriers tisserands lyonnais, jouent alors un rôle central dans cette industrie. Créé au XIXᵉ siècle, le musée conserve et met en valeur le patrimoine textile, en retraçant l’histoire des savoir-faire liés aux étoffes.
Ses collections rassemblent aujourd’hui plus de deux millions de pièces textiles couvrant près de 4 500 ans d’histoire, provenant de nombreuses régions du monde. Tissus anciens, vêtements, échantillons industriels ou créations contemporaines témoignent de l’évolution des techniques et des styles à travers les siècles. Grâce à cette richesse patrimoniale, le musée attire à la fois des chercheurs, des professionnels du textile et des visiteurs intéressés par l’histoire des arts décoratifs.
Menace de fermeture et mobilisation en ligne
Au début des années 2010, l’équilibre financier du musée devient fragile. L’institution est gérée par la chambre de commerce et d’industrie de Lyon, qui subit alors une baisse importante de ses ressources. Cette situation conduit l’organisme à envisager l’arrêt du financement du musée. Plusieurs scénarios sont étudiés pour assurer la pérennité du site : transfert de la gestion à la Ville de Lyon, au ministère de la culture ou encore à d’autres institutions culturelles. Mais aucune solution ne se concrétise rapidement. Progressivement, l’hypothèse d’une fermeture devient de plus en plus probable.
C’est dans ce contexte qu’une pétition est lancée sur Internet par Daniel Fruman, collectionneur de textiles, pour demander le maintien du musée. Au départ, l’initiative est modeste. Mais la mobilisation se diffuse rapidement via les réseaux sociaux. Des associations locales, des historiens de l’art, des professionnels du textile et d’autres citoyens relaient la pétition et publient leurs propres messages pour défendre le musée. Les médias s’emparent progressivement du sujet, contribuant à élargir la visibilité du mouvement. Au fil des mois, la mobilisation dépasse largement le cadre local. Plus de 130 000 personnes signent finalement la pétition, avec des soutiens provenant de plus de 130 pays.
Quelques manifestations physiques sont également organisées à Lyon, toutefois elles rassemblent seulement quelques centaines de participants. Une campagne de communication plus visuelle est aussi menée dans l’espace urbain, notamment à travers des affiches dessinées par l’artiste Alex Beretta avec le slogan « Yes We CANut ». Celle-ci est ensuite largement relayé sur les réseaux sociaux. L’essentiel de l’engagement pour sauver le musée des tissus se structure ainsi en ligne.
Ainsi, après près de deux ans de mobilisation et de négociations de la direction avec les pouvoirs publics, une solution est finalement trouvée : la Région Auvergne-Rhône-Alpes, la chambre de commerce et plusieurs acteurs du secteur textile s’engagent à soutenir financièrement la poursuite des activités du musée.
Pourquoi cela a-t-il fonctionné ?
Le succès de cette mobilisation tient d’abord aux formes de discours qui ont été mobilisées. Notre étude met en évidence quatre grandes manières de défendre la cause : expliquer l’importance du musée (éduquer), désigner des responsables (dénoncer), invoquer des valeurs collectives (moraliser) et projeter un avenir possible (projeter).
Ces stratégies reposent elles-mêmes sur trois registres d’interprétation : le patrimoine (mettre en avant la richesse des collections ou leur valeur historique), l’identité (souligner le lien avec Lyon ou l’histoire des canuts) et une critique des logiques économiques (dénoncer des décisions guidées par la rentabilité plutôt que par la culture).
Ces catégories ne sont pas propres à ce cas. On les retrouve dans d’autres mobilisations, mais, ici, leur combinaison est particulièrement efficace, car elle permet de toucher des publics très différents.
Une première catégorie de participants est composée de personnes directement attachées au Musée des tissus : visiteurs, amateurs d’art, historiens ou professionnels du textile. Leur engagement repose souvent sur une expérience personnelle du lieu et une proximité avec ses collections.
Mais la mobilisation dépasse largement ce cercle. D’autres participants, parfois éloignés géographiquement ou n’ayant jamais visité le musée, s’approprient également la cause. Leur implication illustre un élargissement du mouvement au-delà de ses publics initiaux, avec des formes d’engagement moins liées à une expérience directe du musée.
Au final, le mouvement développe des discours qui ne sont pas homogènes. Ils forment une véritable polyphonie. Contrairement aux mouvements sociaux traditionnels, souvent structurés autour d’un leadership et d’un message centralisé, le discours a ici partiellement échappé au fondateur de la pétition. Cette décentralisation, loin d’affaiblir le mouvement, a permis d’élargir la base de soutien et donc de rendre le mouvement de plus en plus visible dans l’espace public et médiatique.
De plus, cette diversité fonctionne parce qu’elle s’ancre dans la nature même de l’objet défendu. Le musée constitue un patrimoine riche de significations multiples : chacun peut y projeter ses propres valeurs, qu’il s’agisse d’histoire, d’identité ou de défense de la culture. Cette capacité d’appropriation explique en grande partie l’ampleur prise par la mobilisation.
Mais beaucoup de campagnes échouent : des pétitions pour sauver des cinémas de quartier ou des éléments de petit patrimoine rural restent souvent sans effet. Leur mobilisation demeure largement locale, portée par des publics déjà convaincus, et peine à toucher des audiences plus larges. Surtout, ces causes n’entrent pas suffisamment en résonance avec des publics éloignés, qui ne s’y reconnaissent pas ou n’y projettent pas de signification particulière. Faute de circulation au-delà du territoire concerné, ces initiatives restent peu visibles et ne parviennent pas à exercer une pression suffisante sur les décideurs publics.
Enfin, il faut nuancer : la mobilisation numérique crée un bruit médiatique et politique, mais sans financement ou engagement public concret, elle reste insuffisante. Les coupes budgétaires récentes dans les Pays de la Loire montrent que, malgré l’émotion et le partage en ligne, l’Internet seul ne sauve pas un patrimoine.
Déborah Philippe a reçu des financements du Fonds National Suisse (FNS) pour des projets de recherche passés. Les fonds obtenus sont sans rapport avec l'article soumis à The Conversation ou l'étude académique sur lequel il se base.
Damien Chaney ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 11:30
Absinthe: what the ban on France’s aromatic spirit teaches us about modern day blaming and shaming
Texte intégral (1589 mots)
The potent emerald-green blend of wormwood, green anise and fennel, known as “the Green Fairy”, was once celebrated by the French society, including artists from Baudelaire to Van Gogh. By the early 1900s, France consumed more absinthe than the rest of the world put together. Yet within decades, it was banned and deemed a “national poison”.
What happened? Our analysis (recently published in Organization Studies of historical archives, newspapers, medical publications, and propaganda materials spanning 1870 to 1915, reveals a systematic scapegoating process which unfolds throughout three escalating cycles.
How absinthe became France’s public enemy
The process began with genuine social concerns surrounding the beverage, against a backdrop of alarming alcoholism rates, military defeat against Prussia, and anxieties about national decline.
Scientists, though their research was inconclusive, coined “absinthism” as a distinct pathology, claiming absinthe caused unique symptoms, including epilepsy and madness.
Here is where the dynamics become fascinating. Faced with growing anti-alcohol sentiment, producers of similar beverages – aperitifs made from nearly identical ingredients, such as anis, pastis and anisette, strategically distanced themselves from absinthe.
Advertising posters from the 1880s explicitly contrasted “healthy” tonics with “deadly” absinthe, showing death lurking behind absinthe drinkers, while beautiful women accompanied those choosing competing products. Wine producers joined the attack for economic reasons. After a devastating vine disease – phylloxera – had destroyed French vineyards, they needed to reclaim market share. Framing their struggle as patriotic – wine as French heritage versus absinthe as foreign poison – they allied with temperance movements and politicians.
Finally, even absinthe producers turned on each other. Producers from Pontarlier, the traditional production region, attacked “bad absinthe” from Paris, hoping to save themselves by sacrificing others. This internal fracturing sealed absinthe’s fate. When World War I broke out, the ban came swiftly, presented as a victory for French civilisation.
Our research identifies a recurring pattern. First, genuine social anxieties emerge, about health, national identity, public security. Then, a convenient target is identified, one similar enough to the “acceptable” actors to bear their sins, yet different enough to be expelled.
Crucially, potential scapegoats actively reposition themselves, joining the accusers to escape blame. This creates escalating momentum as the target group shrinks and attacks intensify. We term the pattern “stigma opportunity structures” – conditions that open windows for further targeting. France’s military defeat, the vineyard disease, and, eventually, war each facilitated the process.
Recognising modern day scapegoating
While the prohibition of absinthe in France in 1915 seems to be a distant historical episode, these dynamics remain disturbingly active today. Scapegoating operates as a powerful social mechanism. It often turns uncertainty, fear or political conflict into social blaming directed at certain persons or groups, based on thin, selective or simply false stories being told or repeated as if they were true. First and foremost, the effectiveness of scapegoating lies in that evidence is often beside the point for pointing fingers, creating moral panic, and potentially producing social harm.
The COVID-19 pandemic provided a stark contemporary demonstration. Fears of infection led, in many cases, to verbal or physical attacks on people of Asian descent, whom some people came to fear as spreaders of the coronavirus. Rumours, fear and false beliefs about transmission fuelled discrimination against patients and marginalised groups, driven less by evidence than by anxiety and misinformation. Crucially, this stigmatisation was not corrected by subsequent scientific clarification or political authority about how the virus actually spread.
People of Asian descent continued to face hostility long after epidemiological consensus had been established. The absinthe case shows the same pattern: once a scapegoat is identified, the ongoing momentum shapes how evidence is perceived, rather than being corrected by it.
Unfounded rage against the social media machine?
An unfolding case in real time is instructive – the debate over social media and youth mental health.
Rates of anxiety, depression, and self-harm among adolescents have risen sharply in many Western countries since around 2012.
The question is: what caused this? An obvious answer is: social media. Among parents who are at least somewhat concerned about teenage mental health, 44% say social media have the biggest negative impact on teens today. The US Surgeon General has issued advisories warning of potential harms, and legislators have rushed to propose bans and restrictions. Jonathan Haidt’s bestselling book, The Anxious Generation, has become a manifesto for this view, arguing that the great rewiring of childhood through smartphones is causing an epidemic of mental illness. Yet the scientific picture is far murkier than the public consensus suggests.
Studies show social media use is associated with higher rates of depression, anxiety and suicidal behaviour among teens, but side effects are often modest and scientists continue to debate how much of the youth mental health crisis can be directly attributed to social media.
This is not to say that social media is harmless. There are legitimate concerns about algorithmic amplification, sleep disruption, and the vulnerabilities of youth. But the rush to assign blame may have outpaced the evidence. What makes this case revealing is the gap between conviction and proof. The belief that social media is destroying a generation has taken on the quality of common sense, repeated so often that questioning it feels contrarian or even irresponsible.
Blaming social media allows us to avoid harder questions about economic precarity, educational pressure, the decline of community institutions, and the failures of mental health systems.
Blame as common sense?
The pattern is recognisable: genuine anxiety, a convenient target, actors distancing themselves from the most criticised ones, and political actors seeking visible solutions. This does not mean we should ignore concerns about technology’s effects on young people. But it does mean we should be suspicious of our own certainty and impulses.
When a society is anxious and looking for explanations, the most visible target tends to attract the most hostility, regardless of whether it deserves it.
The desire to identify clear culprits for complex problems is deeply human. But the absinthe case and its many contemporary echoes remind us that certainty about who is to blame often reflects the social dynamics of scapegoating rather than careful attention to evidence.
In a world awash with anxieties about health, immigration, identity, and inequality, caution is necessary now more than ever.
The Green Fairy’s fate reminds us that blaming feels righteous in the moment. A century later, absinthe is legal again in France, its dangers largely mythological.
What will we think, looking back, about today’s convenient culprits?
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Tao Wang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.04.2026 à 10:31
Palimpseste d’Archimède : comment une page perdue a refait surface à Blois
Texte intégral (2882 mots)

On la pensait perdue à jamais : une page du palimpseste d’Archimède vient d’être retrouvée au Musée des beaux-arts de Blois, dans le Loir-et-Cher. Le chercheur qui a identifié ce feuillet issu du manuscrit du Xᵉ siècle rassemblant les traités du géomètre raconte sa découverte par un hasard fécond (mâtiné d’une bonne mémoire) et propose des pistes pour retrouver deux autres feuillets encore manquants.
Le 9 mars 2026, le CNRS a annoncé que j’avais identifié, dans les réserves du Musée des beaux-arts de Blois, un feuillet du palimpseste d’Archimède considéré comme perdu. Je voudrais revenir ici sur cette histoire et sur ce qu’elle révèle : dans le silence des collections publiques et privées, avec la numérisation massive, combien de trésors restent encore invisibles, faute d’avoir été cherchés ?
Le palimpseste d’Archimède est un manuscrit du Xᵉ siècle qui rassemble sept traités du géomètre de Syracuse – dont la Méthode des théorèmes mécaniques, seul texte où il explique comment il a trouvé ses résultats avant de les démontrer. Héritier, comme beaucoup de textes antiques, d’une chaîne inconnue de recopies remontant aux originaux perdus d’Archimède (IIIᵉ siècle avant notre ère), il est le plus ancien exemplaire conservé de ses textes et, pour certains, le seul témoin. En 1229, des moines ont effacé ce trésor – probablement à l’aide d’une pierre ponce – pour y réécrire un livre de prières. Le parchemin, fabriqué dans ce cas à partir de peau de chèvre ou de mouton, valait cher (ce seul codex contenait l’équivalent d’une cinquantaine de bêtes). C’est ainsi que naissent les palimpsestes, du grec palimpsêstos (« gratté de nouveau »).
1906 : la première redécouverte
C’est le philologue danois Johan Ludvig Heiberg qui redécouvrit le texte d’Archimède à Constantinople en 1906 en déchiffrant à l’œil nu le texte effacé, puis qui fit photographier le manuscrit à la lumière blanche et ultraviolette. La découverte fit la première page du New York Times. Ses photographies, conservées aujourd’hui à la Bibliothèque royale du Danemark, ainsi que leur déchiffrement par Heiberg, restèrent longtemps la seule trace documentaire du codex, car le palimpseste disparut peu de temps après.
Il ne refit surface que plusieurs décennies plus tard, dans une collection privée française, avant d’être vendu aux enchères chez Christie’s en 1998 pour deux millions de dollars.
Le nouveau propriétaire le confia au Walters Art Museum de Baltimore, aux États-Unis, où, au début des années 2000, des expériences d’imagerie multispectrale – consistant à photographier le manuscrit sous différentes longueurs d’onde de lumière (visible, ultraviolette, infrarouge, puis rayons X) pour en tirer des informations complémentaires invisibles à l’œil nu – permirent de lire beaucoup mieux les traités d’Archimède, et de découvrir des textes qu’aucun œil humain n’avait lus depuis des siècles – dont un commentaire aux Catégories d’Aristote et un discours de l’orateur Hypéride. Mais trois feuillets parmi les 177 recensés par Heiberg avaient disparu entre-temps. Depuis lors, ils étaient considérés comme perdus à jamais.
Une blague de bureau qui permet de retrouver un trésor
En octobre 2025, je discutais avec des collègues du fait que Blois avait longtemps abrité une partie des bibliothèques royales de France. Par jeu, je lançai : « Tiens, cherchons s’il y a un palimpseste à Blois. » Je saisis les mots dans Arca, la bibliothèque numérique de l’Institut de recherche et d’histoire des textes. Une notice apparut : un parchemin au Musée des beaux-arts de Blois, inventaire 73.7.52.
En regardant les images numérisées, quelque chose dans l’écriture me frappa. C’est une déformation professionnelle : les années passées à fréquenter les manuscrits anciens développent une sorte de mémoire visuelle involontaire, comme on peut reconnaître une chanson à partir des premières secondes. De surcroît, l’une des faces portait une figure géométrique. Je déchiffrai le texte lisible : un passage du De la sphère et du cylindre. Je sortis les photographies de Heiberg. La comparaison fut sans appel. L’écriture, les figures, le texte lui-même : tout concordait. J’avais devant moi le feuillet 123 du palimpseste d’Archimède.
Ce que dit la page – et ce qu’elle cache
Le feuillet contient les propositions 39 à 41 du premier livre du traité. Une face est lisible ; l’autre est recouverte d’une enluminure représentant le prophète Daniel entre deux lions. Celle-ci fut vraisemblablement exécutée vers 1942 à l’instigation de son propriétaire Salomon Guerson, dans une tentative désespérée d’en augmenter la valeur pour la vendre afin d’échapper aux persécutions antisémites.
La science moderne sait regarder à travers ces obstacles. Dans les prochains mois, j’espère mener une campagne d’imagerie multispectrale puis de cartographie par fluorescence de rayons X – une technique qui détecte les résidus métalliques de l’encre ancienne sous des couches opaques, sans endommager le parchemin. Ces méthodes, bien plus performantes qu’au début des années 2000, pourraient aussi permettre de relire des passages du palimpseste restés illisibles lors de la campagne de Baltimore.
Deux feuillets manquent encore
Les trois feuillets disparus ont probablement été découpés en France vers 1942. Si l’un d’eux a survécu dans les réserves d’un musée et a pu être identifié en quelques secondes de recherche numérique, les deux autres peuvent très bien avoir suivi des trajectoires comparables.
Le feuillet que j’ai reconnu avait été légué au musée en 1973 par le collectionneur André Frank (on ignore comment il l’avait acquis) et n’avait pas été identifié pour ce qu’il était. Les deux autres feuillets se trouvent peut-être dans une bibliothèque, un musée, une collection privée – en France ou dans les pays voisins. Des parchemins grecs avec, d’un côté, plusieurs couches de texte et peut-être aussi des figures géométriques et des enluminures, de l’autre. Peut-être exactement ce que vous possédez ?
L’aide possible des collectionneurs
Les manuscrits anciens, en particulier les palimpsestes, sont rares et précieux. Mais la numérisation ne les endommage pas, et augmente au contraire leur valeur en révélant leurs contenus. Elle permet qu’une reproduction soit déposée dans une base de données accessible.
Le feuillet de Blois a été retrouvé parce qu’André Frank l’avait légué au musée, et parce que l’institution l’avait catalogué et numérisé – sans même savoir ce qu’elle possédait. Sans cette infrastructure de partage, ma recherche dans Arca n’aurait rien donné.
Les parchemins sont aussi fragiles : humidité, variations de température, matériaux acides peuvent en quelques décennies effacer ce que vingt siècles ont préservé. L’IRHT-CNRS, la BNF, les Archives nationales ou l’équipe du projet ERC PALAI, dont je suis responsable, peuvent conseiller gratuitement tout collectionneur souhaitant protéger ses biens.
L’appui indispensable des chercheurs
Il serait injuste de faire reposer sur les seuls collectionneurs la responsabilité des trésors qui dorment. Des milliers d’établissements (bibliothèques municipales, musées de province, fonds d’archives ecclésiastiques, collections universitaires) conservent des manuscrits que personne n’a regardés depuis trop longtemps. Les raisons de cette sous-exploration sont compréhensibles : pression à la publication, spécialisation croissante, difficulté à financer des recherches exploratoires. On ne dépose pas un projet ANR sur une recherche d’aiguille dans une botte de foin.
Et pourtant, c’est précisément ce type de recherche – patiente, buissonnière, fondée sur une curiosité sans objet défini – qui produit les découvertes les plus inattendues. Consacrer quelques heures par semaine à explorer des catalogues numériques et à écrire aux conservateurs de fonds peu consultés n’est pas du temps perdu.
Nous ne savons pas ce que nous avons. La numérisation des collections publiques est une révolution silencieuse (mais elle s’arrête aux portes des collections privées). L’œuvre d’Archimède a survécu par une série d’accidents heureux : des copistes minutieux, un philologue danois attentif, un musée qui a conservé sans le savoir un fragment de génie. À chaque maillon, quelqu’un a fait le bon choix – ou le hasard a bien fait les choses. Aujourd’hui, nous n’avons plus besoin du hasard. Il ne manque que la volonté. Et parfois, un coup de fil.
Pour signaler un palimpseste ou demander un conseil en conservation, écrire à : cnrs-palai@cnrs.fr.
Victor Gysembergh a reçu des financements de Sorbonne Université, la Mairie de Paris et l'Union européenne (ERC grant PALAI, n° 101170952).