LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

13.10.2025 à 12:25

Derrière la promesse d’autonomie du travail hybride, de vrais risques de surcharge cognitive

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education

Offrant flexibilité, autonomie et meilleure articulation des temps de vie, l’hybridation est source d’une hyperconnectivité, propice à la surcharge cognitive.
Texte intégral (1588 mots)

La multiplication des outils numériques peut produire de nouvelles formes de stress au travail, quand ils sont utilisés dans le cadre du travail hybride. Quelles en sont les raisons ? Comment y remédier ?


L’hybridation s’est pérennisée et apparaît comme une forme durable d’organisation du travail. Près de 75 % des cadres adaptent désormais leurs jours de télétravail à leurs missions. Ce mode d’organisation est désormais incontournable, car de nombreux salariés et notamment les cadres : 67 % d’entre eux déclarent qu’ils seraient mécontents d’une réduction du télétravail et 82 % d’une suppression. Du côté des employeurs, 70 % des entreprises privées de plus de 250 salariés, révèlent que ne pas proposer le télétravail constitue un frein pour le recrutement d’après l’étude APEC de mars 2025 Il s’agit d’un élément fort de la marque employeur.

L’hybridation recouvre plusieurs réalités : le nomadisme, le travail à domicile, le coworking. Il offre une forme de flexibilité dans l’organisation et une meilleure articulation des temps de vie. Pourtant, derrière cette apparente flexibilité se cache cependant une hyperconnectivité. L’hyperconnectivité correspond à un usage important des outils numériques notamment en dehors de toute obligation contractuelle et durant une amplitude horaire excédant les dispositions acceptables et décrites dans le Code du travail.


À lire aussi : Le télétravail est-il devenu le bouc émissaire des entreprises en difficulté ?


L’usage des outils numériques accroît la porosité entre les sphères privée et professionnelle particulièrement en situation hybride, pouvant ouvrir la voie à des troubles psychosociaux, comme le stress chronique, l’isolement ou l’épuisement. De nouvelles formes de harcèlement peuvent également se révéler à distance, associées au technostress.

Le multitâche : juste une illusion, à peine une sensation

C’est une forme de « servitude volontaire » qui contribue à cette hyperconnectivité et augmente l’amplitude des journées de travail – parfois sans même que les télétravailleurs en aient conscience. L’hyperconnectivité correspond à un usage important des outils numériques notamment en dehors de toute obligation contractuelle et durant une amplitude horaire excédant les dispositions acceptables et décrites dans le Code du travail.

Face à l’accélération de ces sollicitations numériques constantes, certains s’imposent un autocontrôle constant pour être capables de répondre à tout, à tout moment, dans un souci de performance ou de reconnaissance, soumis à des injonctions de disponibilité et de réactivité. Les sollicitations en visio et demandes de reporting augmentent (observatoire du télétravail).

Certains souffrent d’une forme de syndrome du bon élève ! Ceci pourrait soulever des problèmes de santé au travail.

Les limites du cerveau humain

Pour faire face aux exigences de ces environnements hyperconnectés, notre cerveau sollicite intensément ses réseaux attentionnels, notamment ceux de la vigilance. Cela entraîne des situations de « multitâche » auxquelles il est en réalité très mal adapté. Contrairement aux idées reçues, notre cerveau n’est pas multitâche, il ne traite pas les informations en parallèle, mais en série, c’est-à-dire l’une après l’autre, en basculant rapidement entre elles. S’il est extrêmement rapide et puissant, capable de passer d’une tâche à l’autre en quelques dizaines de millisecondes, cela n’est pas sans coût.

Chaque changement demande une réinitialisation coûteuse en énergie mentale. Plus les interruptions s’enchaînent, surtout lorsqu’elles échappent à notre contrôle, plus ce « carburant attentionnel » s’épuise vite. Comme une voiture qui consomme davantage en ville qu’à vitesse constante, notre cerveau brûle son énergie à force de passer d’un mail à une réunion, d’une notification à un rapport. La conséquence de ce phénomène ? Nous nous épuisons plus vite et commettons davantage d’erreurs. Il est donc plus que temps, d’une part, de prendre conscience des contraintes neurobiologiques de notre cerveau afin d’améliorer les méthodes de travail en mode hybride, et d’autre part, de développer les compétences nécessaires pour mieux collaborer.

D’ailleurs, une étude menée auprès de plus de 1500 étudiants montre que 63 % pensent pouvoir gérer plusieurs tâches simultanément. Pourtant, lorsque des étudiants bénéficient d’un apprentissage explicite et d’une mise en situation concrète, ils ne sont plus que 22 % à maintenir cette croyance.

Xerfi Canal 2022.

Former à l’attention : une urgence dans un monde fragmenté

Des programmes existent pour renforcer certaines compétences mentales clés :

  • la flexibilité cognitive : capacité à passer d’un objectif à un autre rapidement ou encore à envisager un sujet sous différents angles ;

  • le monitoring attentionnel : capacité à suivre, modifier et améliorer ses stratégies attentionnelles ;

  • la réactivité : capacité à réagir rapidement face à des situations ou sollicitations inattendues et à ajuster ses priorités en fonction ;

  • la planification : capacité à hiérarchiser des tâches et à les effectuer dans le temps imparti tout en respectant les délais.

Ces compétences permettent de mieux s’adapter à l’environnement numérique, de limiter la surcharge et de préserver l’énergie mentale.

Un cadre à rappeler collectivement

Les risques posés par le travail numérique ont été pris au sérieux par les pouvoirs publics. Dès 2015, le rapport Mettling s’est intéressé à la transformation numérique et préconisait de « compléter le droit à la déconnexion par un devoir de déconnexion du salarié ». Le droit à la déconnexion a ensuite été inscrit dans la loi du 8 août 2016 (article L. 2242-17 du Code du travail). Il garantit aux salariés la possibilité de ne pas être sollicités en dehors des horaires de travail. Ce droit est une protection contre les dérives de l’hyperconnexion.

L’employeur encourt d’ailleurs des sanctions pénales (emprisonnement et amende) s’il n’a pas respecté son obligation de négocier sur la qualité de vie au travail incluant le droit à la déconnexion (art. L.2243-2). Il s’agit d’organiser la déconnexion par accord, charte, notes de service en formalisant une utilisation responsable des outils de travail à distance, en permettant le respect des horaires légaux et des temps de pause (déconnexion automatique avec envoi différé des mails par exemple).

La culture du résultat doit ainsi prendre le pas sur celle du présentéisme. Les managers doivent veiller à :

  • évaluer la charge réelle de travail,

  • organiser les conditions d’exercice à distance,

  • repérer les éventuelles inégalités entre collaborateurs,

  • mesurer et prévenir aux risques psychosociaux.

Au-delà de la liberté promise, une nouvelle forme d’aliénation numérique se développe en mode hybride. Malgré des perspectives encourageantes en matière d’organisation des temps de vie, il impose en contrepartie une vigilance accrue quant à ses impacts sur la santé mentale et cognitive des travailleurs.

Former à l’attention, reconnaître les risques de surcharge, garantir un droit effectif à la déconnexion : autant de conditions indispensables pour que flexibilité ne rime pas avec épuisement.

Sans accompagnement, sans régulation, sans pédagogie, l’épuisement cognitif présente un risque pour la santé mentale des télétravailleurs.

Travailler en mode hybride, oui mais à condition de veiller à notre santé mentale !


Cet article a été rédigé avec Dr Nawal Abboub, cofondatrice et directrice scientifique de Rising Up et cocréatrice du Core Skills Scan.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.10.2025 à 12:25

Les secrets de la domination de l’Université Harvard au classement de Shanghai

Michel Ferrary, Professeur de Management à l'Université de Genève, Chercheur-affilié, SKEMA Business School

La plus puissante université des États-Unis domine le classement de Shanghai grâce à une excellence scientifique, les fonds de ses mécènes et le prestige associé à son nom.
Texte intégral (2011 mots)
Sur les cinq dernières années, Harvard a déposé 204 560 publications, dont 16 873 dans des revues à comité de lecture. JannisTobiasWerner/Shutterstock

L’élection de Donald Trump met à mal le « business model » de l’Université d’Harvard. Cette université domine le classement de Shanghai grâce à son excellence scientifique, une fondation gérant 53,2 milliards de dollars et un réseau de 420 000 diplômés. À partir de la « théorie des capitaux » de Bourdieu, une étude cherche à comprendre comment la plus prestigieuse université domine son champ scientifique.


Le classement de Shanghai mesure l’excellence scientifique des universités dans le monde. Sur les dix premières, huit sont états-uniennes ; l’université d’Harvard trône à son sommet depuis 2003. Comment expliquer la domination de cette organisation privée à but non lucratif dans un champ universitaire réputé très concurrentiel ?

Avec Rachel Bocquet et Gaëlle Cotterlaz-Rannard, à partir de la « théorie des capitaux » de Pierre Bourdieu, nous décodons le modèle économique, ou business model, des universités de recherche états-uniennes. L’enjeu est de comprendre comment la plus prestigieuse et la plus puissante d’entre elles domine son champ scientifique.

L’excellence scientifique d’Harvard, symboliquement reconnue par le classement de Shanghai, résulte de l’accumulation et de la conversion de capital économique, social, culturel et symbolique. La dimension systémique qui fonde la robustesse du business model le rend difficilement reproductible. Il est lié à cette capacité d’accumuler simultanément les quatre formes de capitaux et de les interconvertir.

Près de 204 560 publications au cours des cinq dernières années

La théorie de Bourdieu articule quatre formes de capitaux : le capital économique, le capital culturel, le capital social et le capital symbolique. Le dernier étant la reconnaissance sociétale de la possession des trois autres. Chaque forme de capital contribue à l’accumulation des autres formes de capital par un processus d’inter-conversion ; le capital culturel est converti en capital économique, social ou symbolique et inversement.

Harvard est une université de recherche. Ses 2 445 professeurs et 3 048 chercheurs affiliés ont pour mission première de produire des connaissances scientifiques – capital culturel. Sur les cinq dernières années, la plateforme Web of Science recense pour Harvard 204 560 publications, dont 16 873 dans des revues à comité de lecture, ce qui en fait l’université qui produit le plus de connaissances scientifiques. Ses chercheurs sont les plus cités par la communauté scientifique.

Ce capital culturel est converti en capital économique par l’obtention de financement : 6,5 milliards de dollars en 2024. La faculté de médecine est l’une des universités états-uniennes qui obtient le plus de financement de l’État fédéral (National Institut of Health).

Fondation de 53,2 milliards de dollars

Ce capital culturel fait l’objet d’une reconnaissance sociétale par l’attribution à ses chercheurs de récompenses prestigieuses : prix Nobel, médaille Fields, prix Turing, prix Pulitzer, etc. Cette reconnaissance correspond à une conversion du capital culturel en capital symbolique, ce qui renforce le prestige de l’institution.

Accumulation des capitaux symboliques, sociaux, économiques et culturels liés à l’Université d’Harvard. Fourni par l'auteur

Ce capital symbolique contribue par sa conversion à l’accumulation des autres formes de capitaux, notamment en capital économique en favorisant les donations à la fondation de l’université par des individus ou des entreprises.

En 2024, l’endownment (capital économique) issu de donations représente 53,2 milliards de dollars, soit le plus important fond de dotation au monde pour une université. En 2024, la rentabilité des investissements de la fondation est de 9,6 %. Ces revenus permettent de verser 2,4 milliards de dollars à l’université, soit 40 % de son budget, pour financer des projets de recherche.

Sélection des meilleurs étudiants

Le capital symbolique est également converti en capital économique en justifiant des frais d’inscription importants. En 2025, une inscription au bachelor d’Harvard coûte 61 670 dollars par an, soit une des institutions les plus chères des États-Unis. Les frais d’inscription au programme MBA sont de 81 500 de dollars par an et ceux de la Harvard Law School sont de 82 560 dollars. Certaines grandes fortunes peuvent faire des donations à Harvard pour faciliter l’admission de leur progéniture.


À lire aussi : Harvard face à l’administration Trump : une lecture éthique d’un combat pour la liberté académique


Le prestige académique attire d’excellents étudiants et contribue à l’accumulation de capital social. Pour être admis dans son bachelor, Harvard exige le plus haut score SAT des universités états-uniennes (1500-1580). Son taux d’admission des candidats de 3 % est le plus faible du pays.

Lorsqu’ils sont diplômés, ces étudiants irriguent la société dans ses sphères scientifique – Roy Glauber, George Minot –, politique – huit présidents des États-Unis sont diplômés d’Harvard –, économique pour créer ou diriger de grandes entreprises – Microsoft, JP Morgan, IBM, Morgan Stanley, Amazon, Fidelity Investments, Boeing, etc. –, littéraire – William S. Burroughs, T. S. Eliot – et artistique – Robert Altman, Natalie Portman.

Harvard Alumni Association

Tous ces diplômés, notamment en adhérant à la Harvard Alumni Association, correspondent à une accumulation de capital social qui représente un réseau de 420 000 personnes. L’université mobilise ce réseau pour des levées de fonds, des participations à ses instances de gouvernance ou des évènements.

L’homme d’affaires Kenneth Griffin illustre ce mécanisme. En 1989, Il est diplômé d’Harvard en économie. Il fonde Citadel LLC, un des hedge funds les plus réputés des États-Unis et, accessoirement, devient la 34e fortune mondiale. Il a donné 450 millionsde dollars à son alma mater (université) : 300 millions à la faculté des arts et des sciences et 150 millions à Harvard College. Son objectif est de financer la recherche et de subventionner des étudiants issus de milieux défavorisés. La célébrité de Kenneth Griffin dans les milieux financiers incite des étudiants à venir à Harvard et, à terme, entretenir le processus d’accumulation et de conversion lorsqu’ils travailleront dans la finance.

L’université instaure une compétition symbolique entre ses diplômés sur les montants donnés à la fondation. Les plus importants donateurs sont reconnus par le prestige de voir leur nom attribué à un bâtiment du campus, voir à une faculté. En 2015, John Paulson, diplômé de la Harvard Business School et fondateur d’un des hedge funds les plus importants des États-Unis, a donné 400 millions de dollars à la faculté d’ingénierie et des sciences appliquées qui est devenu la Harvard John A. Paulson School of Engineering and Applied Sciences.

Face à Trump, la vulnérabilité du « business model »

L’élection du président Trump ouvre une période d’hostilité avec Harvard en menaçant son modèle économique.

La première raison est fiscale. Les donations à la fondation de l’université offrent des avantages fiscaux importants aux donateurs en matière de déductions. La fondation est exonérée sur les bénéfices réalisés par nombre de ses investissements. Une révocation de ces deux avantages par l’administration des États-Unis réduirait les montants disponibles pour financer la recherche et la production de capital culturel.

La seconde est liée aux financements fédéraux de la recherche. En 2024, Harvard a reçu 686 millions de dollars de l’État fédéral. Leur suppression limiterait la capacité de l’université à développer des connaissances scientifiques.

La troisième résulte des poursuites pour discrimination menées par l’administration Trump, qui peut nuire à la réputation de l’université et détourner d’Harvard certains donateurs, chercheurs ou étudiants. Kenneth Griffin et Leonard Blavatnik, deux importants donateurs, ont décidé de suspendre leurs dons en raison des accusations d’antisémitisme portées contre Harvard. En 2024, les dons ont diminué de 193 millions dollars, notamment en raison de ces accusations.

La suppression pour Harvard de la possibilité d’attribuer des certificats d’éligibilité, ou DS 2019, aux étudiants étrangers, notamment aux doctorants et post-doctorants, limiterait le nombre d’individus contribuant à la recherche. En 2025, l’Université d’Harvard compte 10 158 étrangers, dont 250 professeurs et 6 793 étudiants, soit 27,2 % de l’ensemble des étudiants.


À lire aussi : Moins d’étudiants étrangers aux États-Unis : une baisse qui coûte cher aux universités


The Conversation

Michel Ferrary ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.10.2025 à 12:25

Pour relever certains défis de l’entreprise, le doctorat peut être la solution

Michel Kalika, Professeur émérite, iaelyon School of Management – Université Jean Moulin Lyon 3

Jean-Pierre Helfer, Professeur Management génral, IAE Paris – Sorbonne Business School; Université Paris 1 Panthéon-Sorbonne

Le Doctorate of business administration (DBA) vise à apporter une aide aux entreprises, mais reste un diplôme assez peu connu. Il crée des ponts entre le monde des affaires et celui de la recherche.
Texte intégral (1354 mots)

Oubliez tous vos préjugés sur le doctorat. Le Doctorate of business administration (DBA) peut apporter une aide aux entreprises. Précisions sur ce diplôme peu connu qui crée des ponts entre le monde des affaires et celui de la recherche.


Dans un contexte caractérisé par la multiplication des crises (géopolitiques, environnementales, économiques, sanitaires, etc.), les entreprises doivent remettre en cause leurs processus de décision et leurs business models. Pour cela, elles se heurtent à un obstacle : les connaissances passées des employés et des dirigeants sont frappées d’une obsolescence accélérée.

Un certain nombre de managers déjà titulaires de MBA ou de maîtrises, soit des programmes très professionnels mais sans le pas de côté indispensable à la réflexion et à l’action, s’engagent alors dans un parcours doctoral afin de trouver de nouvelles réponses. L’expérience acquise dans un secteur ou un métier permet en effet de prendre la mesure des changements en cours.


À lire aussi : Recherche ou innovation ? Avec les thèses Cifre, plus besoin de choisir


Récemment, un manager membre du Comex d’une grande entreprise internationale du secteur électronique nous a contactés, sa direction lui ayant confié la mission de refondre les business models des différentes divisions pour les adapter au changement climatique inévitable.

Deux sous-questions se posent alors :

  • Un parcours doctoral est-il utile à un manager, et plus généralement à une organisation ?

  • Quel parcours doctoral choisir, entre doctorat traditionnel (sigle anglais, PhD) et Doctorate of Business Administration (DBA) ?

L’intérêt d’un doctorat

Concernant la première question, l’expérience des auteurs, qui ont dirigé ensemble plus d’une soixantaine de thèses de doctorat, ainsi que le récent Livre blanc « La recherche en Management au bénéfice des entreprises », qui présente le récit et les résultats d’une vingtaine de parcours doctoraux de managers en activité, apportent une réponse sans ambiguïté. Des managers ayant une expérience professionnelle significative peuvent bénéficier grandement d’une porte ouverte vers la performance en s’engageant dans une thèse de doctorat sur un sujet en lien avec leur pratique.

Le premier DBA a été créé en France en 1993 par GEM, et les programmes (environ une vingtaine aujourd’hui) se sont véritablement développés depuis une dizaine d’années. Les candidats viennent d’organisations, privées ou publiques. Ils occupent des fonctions très diverses, ils peuvent être consultants. Mais ils ont tous en commun d’être animés par un désir commun de prise de recul.

Cette démarche les autorise à prendre un recul utile par rapport aux routines organisationnelles. Par ailleurs, la possibilité de travailler en grande symbiose pendant plusieurs années avec des professeurs habilités à diriger des recherches est toujours fructueuse. De cette façon, il est possible d’associer expérience managériale, richesse du terrain et apport conceptuel et méthodologique des encadrants.

Une prise de recul sur l’expérience

La réponse à la deuxième question, celle du choix du format, suppose en préalable de clarifier les différences entre doctorat traditionnel et Doctorate of business administration, même si, bien évidemment, certaines caractéristiques les rapprochent. Au plan international, EQUAL (organisme international qui fédère AACSB, AMBA, EFMD et une vingtaine d’associations académiques) précise clairement l’existence de deux parcours doctoraux dans son document « Guidelines for Doctoral Programmes in Business and Management ».

Dans le domaine du management, le doctorat traditionnel concerne plutôt de jeunes chercheurs financés pour réaliser une thèse et intégrer ensuite à temps plein une institution d’enseignement supérieur (université ou école). Si, en revanche, l’objectif du doctorant est de prendre du recul sur son expérience, de la capitaliser en produisant des connaissances nouvelles utiles à son organisation ou à son secteur, tout en restant en activité, le DBA apparaît plus adapté.

L’organisation pédagogique diffère également : le doctorat suppose un travail à temps plein, alors que le DBA est conçu à temps partiel, compatible avec une activité professionnelle. Les deux parcours ont en commun de reposer sur une réflexion conceptuelle, de mobiliser la littérature existante, une méthodologie de recherche et une analyse de données de terrain. En revanche, ils diffèrent par l’objectif majeur de la thèse. Le doctorat traditionnel poursuit principalement une finalité conceptuelle et académique, matérialisée par des publications dans des revues scientifiques internationales en vue d’une carrière académique. Le DBA, quant à lui, trouve son importance dans la formulation de recommandations managériales et la création indispensable d’un impact organisationnel et sociétal.

Le rôle du directeur de thèse amendé

De plus, dans le doctorat traditionnel, le rôle du directeur de thèse est déterminant dans le choix du sujet, tandis que dans le DBA, c’est le doctorant-manager qui se présente avec son expérience, son sujet et son accès au terrain.

Fnege 2025.

Un autre élément de distinction est propre au contexte français : le doctorat est un diplôme national préparé au sein des Écoles Doctorales universitaires. Le DBA, créé par Harvard en 1953, reconnu internationalement par les organismes d’accréditation (AACSB, AMBA, EFMD), reste en France un diplôme d’établissement qu’il soit universitaire ou d’école.

Cela dit, les trajectoires ne sont pas toujours linéaires. Certains titulaires de doctorat en management rejoignent l’industrie, tandis que certains DBA s’orientent vers une carrière académique, soit en prolongeant leur DBA par un doctorat, soit en complétant leur parcours par des publications académiques.

Au regard de l’expérience internationale et nationale, le DBA peut contribuer très positivement à répondre aux défis actuels des organisations publiques et privées. Une récente enquête auprès d’une soixantaine de diplômés indique que les domaines d’impact les plus cités sont : transformation digitale (18 %), gestion du changement (15 %), planification stratégique (30 %), résolution de problèmes organisationnels (20 %). En effet, ce programme crée un pont entre deux mondes qui – on peut le regretter – s’ignorent trop souvent : celui de la recherche académique et celui des pratiques managériales.

Un pont existait déjà avec les thèses Cifre, mais celles-ci s’adressent à de jeunes diplômés, qui font leur thèse dans une entreprise que, bien souvent, ils découvrent, quand la thèse de DBA s’adresse au manager en DBA travaillant déjà dans l’entreprise qui est son terrain d’investigation.

The Conversation

Michel Kalika a créé le DBA a l université Paris Dauphine en 2008 et le DBA du Business Science Institute en 2012. Les deux co-auteurs ont coordonne le livre blanc de la Fnege sur le DBA .

Jean-Pierre Helfer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.10.2025 à 12:25

Un mauvais collègue peut-il devenir un bon manager ? Non, mais oui !

Isabelle Barth, Secrétaire général, The Conversation France, Université de Strasbourg

Et l’inimaginable survint : ce mauvais collègue incompétent a été promu manager. Pas de panique, il arrive que certains se révèlent lors d’une promotion. Mais il faut bien accompagner l’équipe.
Texte intégral (1570 mots)

Le monde n’est pas toujours juste, et ce ne sont pas toujours les plus compétents qui sont récompensés. Comment faire quand un mauvais collègue est promu ? Est-ce forcément synonyme de catastrophe ? ou bien arrive-t-il que le boulet d’hier se réalise en devenant encadrant ? C’est à toutes ces questions qu’on n’ose pas toujours poser que s’attelle notre experte du management.


Existe-t-il une justice immanente dans le monde du travail qui ferait qu’un collègue qui se comporte mal ne pourra jamais devenir manager ? On aimerait bien… mais il n’en est rien. Et parfois (souvent ?) même, au contraire, ce mauvais comportement peut l’aider à obtenir ce qui est considéré comme une promotion.

Quant à savoir s’il (ou elle) sera un bon manager, la réponse est plus nuancée, mais cela reste du domaine du possible ! C’est parce que cette perspective est dérangeante qu’elle nous fait perdre beaucoup de nos repères. Mais il faut savoir la regarder en face pour affronter, voire déjouer, ces situations qui peuvent être très difficiles.

Le « mauvais collègue » : incompétent et/ou toxique

Un mauvais collègue est quelqu’un qui n’est pas apprécié par l’équipe, et donc pas intégré. Il peut, en revanche, être bien vu par le manager. Les motifs de cette mauvaise appréciation, voire de ce rejet par l’équipe, sont, dans la très grande majorité des cas, liés à deux formes d’incompétences :

  • l’incompétence métier quand le « mauvais collègue » ne fait pas son travail et nuit à la performance du collectif parce qu’il est incompétent (mal recruté, pas formé). Ce collègue peut en revanche être charmant et considéré comme sympathique. Mais, factuellement, c’est un « boulet » qui grève la performance du collectif.

  • l’incompétence relationnelle, quand le collègue possède les compétences du métier mais a un comportement désagréable, voire toxique.

Les deux cas de figure sont bien évidemment cumulables : certains mauvais collègues réussissent à la fois à être incompétent dans leur métier et posséder un relationnel détestable !


À lire aussi : Devenir manager ne fait plus rêver… sauf les enfants issus d’un milieu populaire


Le premier réflexe serait de recommander de remédier à la situation. Dans un monde parfait, le manager soutenu par les RRH cherche les causes d’une telle situation, trouve des solutions et il devient possible d’imaginer une réintégration dans l’équipe du « mauvais collègue ». Mais si rien n’y fait ? Ou si, on n’a ni le temps ni l’envie de faire évoluer la situation ?

On va alors chercher à se débarrasser du « mauvais collègue ». Il y a bien sûr le licenciement, la rétrogradation, ou bien le changement de poste ou d’équipes. Mais il existe un scénario fréquemment observé de l’évolution vers le management.

Et le « mauvais collègue » devint manager

C’est étonnant, mais finalement assez courant, sans qu’il existe des statistiques sur le sujet. On peut alors identifier au moins trois cas de figure :

  1. Le syndrome de Dilbert a été imaginé par le dessinateur et humoriste Scott Adams qui dit qu’une personne incompétente a toutes les chances d’être promue manager, car c’est là où son incompétence aura le moins d’impact.

C’est mal connaître les dégâts d’un mauvais management, mais c’est un réflexe qu’on observe malheureusement très souvent. Le profil du « mauvais collègue » est alors surévalué par son manager pour se donner toutes les chances que son départ soit rapide !

  1. Le collègue désagréable ou incompétent passe des concours pour devenir manager… et les réussit ! Or, les connaissances ne garantissent en rien la compétence de manager.

  2. Tout le monde le déteste, sauf… le grand patron ! Ils ont fait la même grande école, ils sont cousins, ils jouent au tennis ensemble… Et il est hors de question de le laisser tomber à cause de collègues grincheux.

Le poste de manager : une révélation ?

Une fois qu’il devient manager, le « mauvais collègue » peut-il devenir un bon encadrant ? Mais Qu’entend-on par un « bon manager » ? C’est un professionnel qui possède du leadership et sait motiver ses équipes. Il donne du sens au travail de chacun de ses collaborateurs, il écoute, fait preuve de bienveillance au sens où il ne cherche pas des coupables en cas de problème. Il sait aussi prendre des décisions, être équitable. L’ensemble de ces compétences managériales ne sont pas les mêmes que celles attendues d’un opérationnel.

Il peut arriver qu’évoluant vers un poste de management le « mauvais collègue » révèle des talents cachés ! Après tout, les meilleurs coachs sportifs ne sont pas tous de grands champions (c’est même souvent le contraire !).

Même si c’est loin d’être une règle absolue, on constate deux phénomènes en entreprise qui contribuent à rendre cela possible :

  • « la fonction crée la compétence », et c’est vrai que souvent, on voit des personnes évoluer très positivement à la prise de nouvelles fonctions.

  • l’adéquation entre la personne et le contexte étant incontournable, un changement d’entreprise, de service, de management (N+1 du nouveau manager) peuvent être à l’origine de revirements étonnants.

Pour toutes ces raisons, et sans en faire une généralité ni une règle absolue : un mauvais collègue peut devenir un bon, et, pourquoi pas, un très bon manager ! Pourtant, quelle que soit l’évolution, la « promotion » provoque malaise et perte de repères !

Anticiper les dégâts collatéraux

L’évolution d’un collègue considéré comme « mauvais » vers un poste de manager, sans préjuger de la suite, est profondément perturbante. Elle donne un sentiment d’injustice : « il était mauvais, et il est récompensé ! »

Cela va à rebours de toutes les injonctions entendes depuis la petite enfance : « il faut travailler dur pour avoir de bonnes notes », « il faut avoir de bonnes notes pour passer dans la classe supérieure », « il faut être compétent pour être recruté »…

Lefebvre Dalloz 2025.

La compétence est au cœur de la méritocratie. Et l’incompétent doit être sanctionné, du moins, s’il persiste à l’être. C’est une perte de repères car c’est l’incompétence qui a alors de la valeur !

La trappe de la compétence

À l’inverse, de nombreux hypercompétents témoignent qu’ils ont le sentiment d’être dans une nasse. Ils sont en quelque sorte « collés » à leur poste car, sans eux, le service ne pourrait pas fonctionner ! Cette « trappe de la compétence » est la source d’une grande souffrance et peut amener à du désengagement, et un mal-être profond relevant des risques psycho-sociaux.

Pour éviter ces dérives et ces promotions qui n’ont aucun sens, le manager doit intervenir avant. Il doit affronter le mauvais collègue pour poser avec lui les termes du problème. Pour cela, il est incontournable d’objectiver les situations où des dérives et des dysfonctionnements ont été observés.

Il faut ensuite bien peser les différentes issues, en sachant résister à celle de la promotion qui peut laisser des traces durables dans l’équipe.

Cela demande du temps, car la voie du dialogue est longue. Il faut aussi du courage, car il n’est pas simple de mettre un collaborateur devant ses failles. Entre déni et désir d’évacuer un problème complexe, le non-choix de la promotion vers le management est une voie qu’on retrouve souvent. Le risque est grand de la systématisation. C’est comme cela que naissent les kakistocraties.

The Conversation

Isabelle Barth ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

13.10.2025 à 12:25

Paroles de salariés Asperger : sept clés pour comprendre leur quotidien

Alexandre Richet, Doctorant en science de gestion, Université de Caen Normandie

Sept différences avec des salariés dans la norme, ou neurotypiques, suffisent pour mieux comprendre leur place dans l’entreprise. Et si on donnait la parole aux premiers concernés ?
Texte intégral (1376 mots)
Les salariés concernés par le syndrome Asperger aiment les règles écrites, pas les sous-entendus. « Tout le monde pense que c’est intuitif, mais pour moi ça ne l’est pas », témoigne une personne interviewée. Veja/Shutterstock

Sept différences avec des salariés dans la norme, ou neurotypiques, suffisent pour mieux comprendre la place dans l’entreprise des salariés Asperger. Et si on donnait la parole aux premiers concernés ?


Dans l’ombre des grands discours savants sur la « neurodiversité », il y a des vies très simples : des vies de travail, des vies de salariés Asperger. Ce syndrome concerne environ 1 personne sur 132 dans le monde.

Classé dans les troubles du spectre de l’autisme, il se traduit par une autre manière de communiquer et de percevoir les interactions sociales. Concrètement, les personnes concernées parlent souvent de façon très directe, comprennent mal l’implicite ou le second degré, mais développent une rigueur et une passion remarquables dans leurs centres d’intérêt.

Treize participants ont accepté de partager leur expérience professionnelle au cours de plus de sept heures d’entretiens réalisés dans le cadre d’un travail doctoral. Résultat : une fresque à la fois complexe et simple, teintée d’une logique imparable mais essentielle. Sept différences suffisent pour mieux comprendre leur place dans l’entreprise. Les voici :

1. Le travail n’est pas juste un salaire

Pour beaucoup, travailler c’est vivre. Pas seulement gagner de l’argent.

« Le travail, pour moi, c’est vraiment une passion. »

Certains deviennent « fan » de leur travail, au point d’oublier de manger ou de se reposer.

« Je suis complètement accro au travail. Chez nous, ça ouvre à 7 heures donc, à 6 h 50, je suis devant la grille. »

On dirait presque une histoire d’amour : l’entreprise devient une maison, un refuge, parfois même une famille.

2. Le détail comme signature

Les personnes concernées par l’autisme Asperger aiment quand les choses sont bien faites. Ici, le détail n’est pas une obsession maladive, mais une véritable marque de fabrique.

« Je suis tellement perfectionniste que du coup, même mon chef, j’arrive à l’agacer. »

Cette exigence est précieuse pour l’entreprise, même si elle déroute parfois les collègues. Car derrière la remarque piquante, il n’y a qu’une envie : aider, jamais accuser.

3. Un contrat clair, rien de plus

Les salariés Asperger aiment les règles écrites, pas les sous-entendus.

« Tout le monde pense que c’est intuitif, mais pour moi, ça ne l’est pas. »

Une pause-café ? Si ce n’est pas dans le contrat, ce n’est pas obligatoire. Et comme le dit une enquêtée avec humour :

« Si c’est une exigence pour la boîte que je sois coiffée et maquillée tous les matins, qu’ils me payent l’heure et demie que je vais y passer. »

Ici, le contrat de travail, c’est le contrat papier. Le reste ? de la confusion inutile.

4. Le manager comme capitaine bienveillant

Un bon manager n’est pas un chef autoritaire, mais un facilitateur.

« Un bon manager, c’est quelqu’un qui peut interrompre la réunion et dire : tiens, Pierre, qu’est-ce que tu en penses ? »

Parfois même, il est vu comme un repère affectif :

« Vaut mieux dire “bienveillant”, mais c’est même plus loin encore, c’est vraiment attentif, un peu parental, j’allais presque dire : un peu nounou, nourrice, psychologue, qui connaît les difficultés. »

Pas de paternalisme ici, mais une vraie relation de confiance, qui rend le travail plus simple et plus humain.

5. Les aménagements : simples et efficaces

Les ajustements demandés ne sont pas des privilèges, mais des outils de production.

« J’ai installé un tapis de gym dans mon bureau, donc parfois les téléconférences, je les fais allonger. »

Un casque antibruit, un bureau plus calme, un horaire flexible… Ce sont de petites choses, à faible coût, qui changent tout pour le salarié – porteur ou non d’un handicap – et, par ricochet, pour l’entreprise.


À lire aussi : Efficacité, constance, faible absentéisme… tout ce que les autistes Asperger apportent à l’entreprise


6. Le piège du « toujours plus »

Dire non ? Très difficile. Refuser une mission ? Presque impossible.

« Même si je suis fatigué, si j’y passe trois ou quatre nuits blanches, il fallait que je le fasse. »

Cette énergie impressionne, mais elle épuise. L’épuisement professionnel n’est pas rare, et porte même le nom de burn out autistique. Le rôle du manager est essentiel : poser des limites, protéger, rappeler qu’un bon salarié est aussi un salarié qui dure.

7. Le collectif comme horizon

Ce qui compte le plus, ce n’est pas la carrière individuelle. C’est le groupe :

« C’est encore au-dessus parce que, en fait, on va acquérir la connaissance de l’autre que l’on n’a pas et, en même temps, on va apporter à l’autre ce que l’autre n’a pas non plus. »

Travailler, c’est construire ensemble, sans écraser les autres. La solidarité n’est pas une option, mais une règle d’or.

Stabilité émotionnelle

Ces sept différences dessinent un tableau simple : un besoin de stabilité émotionnelle. Les salariés Asperger ne demandent pas des privilèges, seulement des règles claires, compréhensibles, un management attentif et quelques aménagements concrets. En retour, les entreprises gagnent des collaborateurs loyaux, précis, constants. Pas des machines froides, mais des personnes engagées, parfois fragiles, mais donnant toujours le meilleur d’elles-mêmes.

Après tout, qui se lève le matin en se disant : « Aujourd’hui, je vais mal faire mon travail » ? Personne. Les salariés concernés par le syndrome Asperger non plus. Et c’est peut-être ça, la vraie ressemblance qui nous unit : avoir envie de bien faire.

Alors oui, les personnes Asperger osent le dire, osent être vraies, intègres, gêner et se dresser face à l’injustice sociale. Leur franchise ne doit pas être vue comme un obstacle, mais comme une force qui éclaire ce que beaucoup taisent.

Au fond, n’est-ce pas ce que nous recherchons tous ? Bien faire, offrir le meilleur de nous-mêmes et ressentir cette fierté intime devant l’œuvre accomplie – qu’il s’agisse d’un métier, d’un geste ou d’un ouvrage. Derrière chaque action juste, chaque travail soigné, se cache le désir universel d’humanité et de dignité.

The Conversation

Alexandre Richet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.10.2025 à 09:04

Et si la dette publique servait d’abord à rendre les citoyens plus heureux ?

Francis Munier, Maître de Conférences, économiste, Université de Strasbourg, Université de Strasbourg

La dette publique est trop appréhendée par la question de son montant. La question est aussi de savoir pour quels usages cette dette est contractée.
Texte intégral (1920 mots)

La focalisation du débat sur le montant de la dette publique occulte une question importante. Les dépenses publiques contribuent-elles au bonheur des citoyens ? Il ne s’agit pas seulement de dépenser moins, mais aussi de dépenser mieux, et pour le plus grand nombre.


En 1944, le Conseil national de la Résistance rédigeait le programme « Les jours heureux », véritable projet de reconstruction sociale et économique. Ce texte fondateur affirmait une vision ambitieuse de l’action publique, celle d’un État garantissant à chacun les conditions d’une vie digne, en misant sur les services publics, la solidarité nationale et la justice sociale.

Dans le contexte actuel de polycrises, cette ambition conserve toute sa pertinence et ceci malgré une donne totalement différente. Elle invite à interroger les finalités du budget de l’État et à le repenser comme un levier de bien-être collectif. Dans quelle mesure les dépenses publiques améliorent-elles réellement la qualité de vie ? S’endetter peut se justifier si cela prépare un avenir meilleur, mais encore faut-il définir ce « meilleur ».

Au-delà du PIB

Les recherches en économie du bonheur offrent des outils conceptuels et empiriques précieux. Elles permettent de dépasser une conception fondée par trop sur l’offre, en intégrant des indicateurs alternatifs au PIB pour notamment évaluer l’impact des dépenses publiques sur la qualité de vie des citoyens.

Car le paradoxe est saisissant : alors même que la dette publique continue d’augmenter, la précarité persiste, les inégalités se creusent, les urgences débordent, les conditions dans l’éducation se dégradent, l’anxiété et la colère collective grandissent, et les canicules s’enchaînent. La dépense publique semble de moins en moins en phase avec les attentes sociales. Cette déconnexion alimente une défiance croissante à l’égard des institutions.

L’efficacité de l’État, une variable clé

Or, selon Benjamin Radcliff, les études montrent bien que les personnes vivant dans des pays où la part des dépenses sociales rapportées au PIB est élevée sont généralement plus satisfaites de leur vie, mais sous réserve de la qualité du gouvernement et de la confiance dans ce gouvernement. L’efficacité de l’État est donc une variable clé dans la perception positive de la fiscalité et de la dette publique.


À lire aussi : Pourquoi la situation politique rend les Français malheureux


Repenser le budget public pour rendre les gens plus heureux passe d’abord par l’utilisation de données, recueillies à travers des enquêtes où les citoyens évaluent leur bien-être subjectif. Dès 2009, le rapport Stiglitz-Sen-Fitoussi soulignait les limites du PIB comme indicateur de progrès, et appelait à une évaluation plus fine des politiques publiques à travers des indicateurs sociaux, environnementaux et subjectifs. Cette réflexion a nourri de nombreuses initiatives, telles que le programme Beyond GDP, l’indice de vivre mieux de l’OCDE, ou encore les travaux de l’observatoire du bien-être en France, sur la perception que les Français ont de leur qualité de vie.

Plus de dette pour plus de bonheur ?

Ce changement de paradigme conduit à une redéfinition des objectifs de la dette et de la dépense publique. Richard Layard et ses collègues de la London School of Economics, proposent de mesurer l’efficacité des politiques publiques en fonction du nombre d’années de bien-être générées par euro investi. Cette approche, fondée sur des données empiriques, permet objectivement de comparer les interventions publiques. Une révolution de méthode, appuyée par des données concrètes, dont nous donnons ci-après quelques exemples.

Certaines politiques ont un rendement particulièrement élevé en termes de bien-être. À l’évidence, le traitement des « maladies du bonheur » en référence au livre de Hugues Lagrange (dépression, anxiété, stress, mal-être comme forme de « pathologies des Modernes »)) apparaît très efficace. Il permet aux personnes de retrouver un emploi, de l’autonomie et une meilleure qualité de vie, et en cela une réduction de coûts sociaux. Au Royaume-Uni, les programmes de « prescription sociale » ont permis de réduire de 28 % les consultations médicales et de 24 % les passages aux urgences.

L’éducation, un domaine stratégique

Francesco Sarracino et Kelsey O’Connor rappellent qu’à Philadelphie, la reconversion de friches industrielles en espaces verts a entraîné une baisse de 41 % des cas de dépression, de 63 % des troubles mentaux, et de 29 % des violences armées. À New York, une augmentation de 20 % de la surface de forêts urbaines a réduit la prématurité et le faible poids de naissance. Ces résultats soulignent l’impact des politiques d’aménagement sur la santé publique.

L’éducation représente un autre domaine stratégique. Les enquêtes Pisa montrent que les élèves qui se déclarent heureux réussissent mieux. De même, le bien-être subjectif des enseignants influence directement la performance des élèves. Miser sur des environnements scolaires épanouissants, des soutiens psychologiques et un climat de confiance et de reconnaissance offre donc un rendement élevé pour un coût modéré sur le long terme.

Le bien-être n’est pas l’ennemi de la croissance

Contrairement à certaines idées reçues, l’investissement dans le bien-être n’est pas antagoniste à la performance économique. Les travaux de Gaël Brulé et Francis Munier montrent qu’un environnement propice à la créativité favorise à la fois l’innovation et le bien-être subjectif. De même, les comportements écologiques sont associés à une plus grande satisfaction personnelle, ce qui renforce l’acceptabilité sociale de la transition écologique.

Investir dans ces politiques produit donc un rendement élevé en bonheur et en efficacité, tout en générant des économies sur le long terme. Car, les personnes plus heureuses sont plus productives, plus enclines à nouer des relations sociales, plus coopératives, mais également plus innovantes et écologiques. En somme, un cercle vertueux propice pour cibler les dépenses publiques et réduire la dette publique.

La centralité des inégalités

Dans cette perspective, la question des inégalités demeure centrale. Kate Pickett et Richard Wilkinson démontrent que les sociétés les plus égalitaires sont aussi les plus sûres, les plus éduquées et les plus heureuses. Loin de ne concerner que les populations les plus fragiles, l’inégalité fragilise l’ensemble du tissu social, en générant défiance, anxiété et violences, avec des effets délétères sur la réussite scolaire et les comportements à risques. Il s’agit d’un enjeu collectif majeur.

Nous ne sommes pas tous égaux face au bonheur. Certains, par nature ou par circonstances personnelles, peuvent y accéder plus facilement. Lorsque la société elle-même aggrave cette inégalité, cela est inacceptable. La société ne peut modifier les inégalités naturelles, mais doit chercher à les compenser. C’est une source de progrès collectif via des politiques ambitieuses comme une redistribution juste et une obligation sociale pour les pouvoirs publics.

Lorsque les dépenses publiques sont orientées vers des politiques qui améliorent durablement le bien-être, elles renforcent aussi l’adhésion à l’impôt, car les citoyens perçoivent concrètement les bénéfices de leur contribution.

Pierre Boyer souligne que lorsque la confiance dans les institutions est élevée, les habitants sont à la fois plus heureux et favorables à une fiscalité forte. L’impôt y est vu comme un investissement collectif. Il faut plaider pour une fiscalité fondée sur la confiance et la justice, qui renforce le lien social et le bien-être, et finance les dépenses publiques.

Cité de l’économie, 2015.

Les travaux de Gabriel Zucman pour l’instauration d’une taxe de 2 % sur la richesse des ultrariches semblent aller dans ce sens. Ce mécanisme de redistribution semble compatible avec les données sur le bien-être. En effet, Angus Deaton et Daniel Kahneman ont montré que le bien-être émotionnel augmente avec le revenu jusqu’à environ 75 000 dollars annuels, seuil au-delà duquel il se stabilise. A priori, cette taxe n’entamerait donc pas significativement le bonheur des plus fortunés.

Pour un rééquilibrage intergénérationnel

Enfin, les études révèlent un fait préoccupant : les moins de 30 ans se déclarent aujourd’hui nettement moins heureux que les générations précédentes. Ce renversement historique alerte sur un possible effritement du contrat social. Il appelle à un rééquilibrage intergénérationnel des politiques publiques aussi bien sur le plan budgétaire et fiscal que symbolique.

Un changement de cap est nécessaire. Faire du bien-être subjectif une boussole politique permettrait de replacer les citoyens au cœur des décisions publiques et renforcer la légitimité des politiques publiques.

Face aux crises écologique, économique, sociale et générationnelle, cette réorientation apparaît comme à la fois urgente, pragmatique et humaine pour créer des sociétés plus heureuses, plus justes, plus innovantes et plus durables, tout en assurant une soutenabilité de la dette publique.

The Conversation

Francis Munier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.10.2025 à 09:01

Les pharmacies disposent de peu de leviers pour se redresser

Aniss Louchez, Docteur en économie, Université de Lille

La contraction du marché des médicaments remboursés, principale source de revenus des pharmacies, met à mal leur modèle économique.
Texte intégral (1705 mots)
Le chiffre d’affaires moyen d’une pharmacie en zone urbaine se situe entre 1 million et 1,2 million d’euros. MikeDotta/Shutterstock

La contraction du marché des médicaments remboursés, principale source de revenus des pharmacies, met leur modèle économique en danger. Ces offices disposent de quelques leviers régulés en raison de la nature même des officines. Lesquels ?


La pharmacie de ville, également appelée officine, est un acteur essentiel de l’offre de soins ambulatoire. Elle joue un rôle essentiel en fournissant des biens médicaux – médicaments et dispositifs médicaux – et des services de prévention, tels que la vaccination, à la population. La pharmacie bénéficie en France d’un monopole légal qui empêche la fourniture de produits de santé par d’autres acteurs.

Cette mesure vise à garantir la qualité des soins, selon l’économiste de la santé Charles Phelps. Elle se justifie par la nécessité de bénéficier d’un expert pour guider le patient selon l’Inspection générale des finances (IGF). La pharmacie est une structure particulière qui doit concilier une mission de santé publique avec l’impératif entrepreneurial d’assurer sa soutenabilité économique.

Cette soutenabilité se fragilise depuis plusieurs décennies. De 2014 à 2024, le nombre de pharmacies est passé de 21 772 à 19 627, selon le Conseil national de l’ordre des pharmaciens (Cnop), soit une baisse de 1 % par an pendant dix ans. Le nombre d’habitants par pharmacie est passé de 3 037 à 3 368 et pourrait atteindre 4 148 en 2050.

Cette contraction objective un malaise économique grandissant qui a motivé les récentes grèves des pharmaciens le 30 mai 2024, 16 août 2025 et 18 septembre 2025, largement suivies par plus de 80 % des pharmacies du pays. Pour comprendre la persistance et l’aggravation de ces tensions, cet article vise à replacer les pharmacies dans leur cadre macroéconomique et présenter les mécanismes d’ajustement à leur disposition.

Croissance de la demande de médicaments

L’activité des pharmacies est principalement adossée au marché du médicament remboursé qui représente 72,3 % du chiffre d’affaires (CA) en 2023, selon le cabinet KPMG. Le reste de l’activité est représenté par trois types de produits. Les médicaments non remboursés et les dispositifs médicaux – 14,6 % du CA –, la parapharmacie – 11,2 % du CA – et les tests et la vaccination Covid – 1,9 % du CA.

La demande de médicaments, principale source de revenus, est portée par le vieillissement de la population qui va se poursuivre jusque 2070, selon l’Insee. Avant 2021, le nombre de boîtes de médicament connaissait une croissance annuelle comprise entre 2,6 et 4,4 %, selon les Comptes nationaux de la Santé (CNS).

Contraction du marché des médicaments

Le marché du médicament s’est contracté de 32,1 milliards à 29,8 milliards d’euros, faisant de ce poste le principal contributeur à la maîtrise des dépenses de santé. Cette contraction est partiellement compensée par les fermetures de pharmacies, stabilisant le chiffre d’affaires moyen entre 1 million et 1,2 million d’euros. La stabilité des recettes masque l’augmentation des charges – salaires, coûts des fournitures, loyers, assurances, logiciels de gestion – portée par l’inflation, et amenant à une réduction des marges.

Cette pression transparaît dans les fermetures dont presque la moitié affectait des pharmacies de moins de 1 million de chiffre d’affaires, selon le Conseil national de l’ordre des pharmaciens (Cnop), alors qu’elles représentaient moins de 14,5 % des pharmacies, selon KPMG.

Dans un contexte de contraction de leur activité principale, il est important de présenter les mécanismes d’ajustement dont disposent les pharmacies.

Mécanismes d’ajustement

Pour assurer sa soutenabilité, une entreprise peut adapter son activité en ajustant les volumes de production et les prix. Ces mécanismes sont régulés en raison de la nature particulière du médicament.

En dehors des préparations magistrales, en raison de l’impératif de qualité, de sécurité et d’efficacité, les pharmacies ne peuvent pas modifier ou développer un médicament, il s’agit du rôle de l’industrie pharmaceutique.

Ajustement par les volumes

La pharmacie ne peut pas augmenter son nombre de boites de médicaments remboursés. Celui-ci est soumis à des prescriptions qui amènent les prescripteurs – médecins, infirmiers, dentistes, etc. – à définir l’activité des pharmacies. L’accentuation des pénuries de médicaments limite les possibilités d’augmentation globale de l’activité. En parallèle, la publicité est quasiment inexistante afin de garantir l’éthique dans la dispensation des soins.

Une pharmacie ne peut que difficilement optimiser sa localisation géographique, en raison de la réglementation. Les créations de nouvelles pharmacies sont quasi impossibles depuis une ordonnance de 2018, faisant suite à un avis de l’Inspection générale interministérielle du secteur social (Igas). Seules les opérations de transfert (déménagement) sont autorisées et régulées, limitant leur recours. Si depuis 2023 l’article L. 162-31-1 du Code de la Sécurité sociale permet la création d’antennes de pharmacie, un local de dispensation déporté dans une autre commune, ce dispositif demeure peu usité. La première ouverture ayant eu lieu en juillet 2024.

Si la vente en ligne sur Internet est perçue comme une solution par l’Igas, celle-ci est également régulée par le Code de la santé publique, adossée à une pharmacie physique et limitée en volume de médicaments impliqués.

Il est à noter que ces enjeux spatiaux amènent principalement à une redistribution du volume d’activité. La captation d’une clientèle supplémentaire se fait au détriment des autres pharmacies, exposant à des risques de cannibalisation entre pharmacies.

Ajustement par les prix

Afin d’assurer une certaine rentabilité, les firmes peuvent adapter leurs prix. La situation des pharmacies quant à ces mécanismes dépend du type de produit.

Les produits remboursés – médicaments et dispositifs médicaux – ont un prix administré, afin de garantir l’accessibilité financière aux traitements pour la population et la société. Cette situation empêche le pharmacien d’ajuster les prix de vente et limite la friction entre pharmacies.

Le pharmacien peut toutefois « négocier » des marges arrière. Si le partage de la valeur est réglementé par des marges administrées, des possibilités de remises sont prévues et plafonnées à 40 % du prix fabricant hors taxe (PFHT). Cela permet de limiter les frictions avec les fournisseurs et le coût de négociation. Ces marges arrière constituent un moyen de soutenir les pharmacies de ville, sans affecter le prix de vente du médicament, au détriment des acteurs en amont de la fourniture de médicaments.

Les médicaments non remboursés ont un prix librement fixé par le pharmacien. L’économiste de la santé Céline Pilorge souligne que les mécanismes de compétition sur les prix sont peu effectifs, sans doute en raison de leur faible part dans le chiffre d’affaires des pharmacies. Il en est de même pour la parapharmacie qui, ne faisant pas partie du monopole pharmaceutique, fait l’objet d’une compétition avec d’autres structures que des pharmacies.

Pérennité des pharmacies en jeu

La pharmacie de ville est un offreur de soins ambulatoire important dans le système de santé. Les dynamiques macroéconomiques de longs termes soulignent la contraction du marché du médicament, principale source de revenus des pharmacies. En face à l’épuisement de mécanismes d’ajustement limités, la pérennité des pharmacies est mise en jeu.

Cette situation interroge sur le partage de la valeur, ainsi que sur le maintien d’un service de santé de proximité pour la population. De plus, la capacité à investir de nouvelles missions de prévention apparaît comme difficile, en l’absence de révision des modes de rémunération des pharmacies.

The Conversation

Aniss Louchez a reçu des financements de l'ISITE-ULNE pour le financement de sa thèse de recherche en économie.

PDF

12.10.2025 à 09:00

Quand une idée en économie devient populaire : les ressorts cachés de sa diffusion

Valérie Mignon, Professeure en économie, Chercheure à EconomiX-CNRS, Conseiller scientifique au CEPII, Université Paris Nanterre – Alliance Paris Lumières

Marc Joëts, Profressor of Finance and Machine Learning, IÉSEG School of Management

Le succès d’un article en économie ne dépend pas que de sa qualité intrinsèque. Si elle importe, la visibilité d’un article dépend d’autres facteurs.
Texte intégral (1495 mots)
Qu’est-ce qui fait qu’un article reste dans la bibliothèque ? ou qu’il en sort et devient une référence ? (sur la photo, la bibliothèque Sainte-Geneviève à Paris). Marie-Lan NGuyen/Wikimédia, CC BY

En économie, comme dans d’autres sciences, les idées les plus populaires ou les plus connues sont-elles forcément les meilleures ? La question peut sembler étonnante. Pourtant, s’interroger sur ce qui fait qu’une nouvelle idée, popularisée dans un article, prend ou pas n’est pas anodin.


Toutes les découvertes scientifiques ne connaissent pas le même destin. Certaines deviennent incontournables et marquent durablement leur discipline, tandis que d’autres tombent dans l’oubli. L’économétrie, qui constitue l’atelier statistique des sciences économiques et financières, illustre bien ce phénomène. Elle fournit les outils indispensables pour tester des hypothèses, mesurer l’impact d’une crise, évaluer une réforme fiscale ou toute autre mesure de politique économique, anticiper les mouvements des marchés financiers, etc. Sans ces méthodes, impossible de distinguer une simple coïncidence d’une véritable relation économique. Mais pourquoi certaines innovations en économétrie se diffusent-elles largement alors que d’autres restent confidentielles ou tombent dans l’oubli ?

Des idées populaires

Dans une étude récente, nous analysons plus de 17 000 articles parus entre 1980 et 2020 dans les principales revues d’économétrie afin d’identifier les « ingrédients » qui transforment une idée en « star » académique, c’est-à-dire en référence incontournable.


À lire aussi : Tuer les « zombie papers » : peut-on débarrasser la science des articles rétractés ?


Bien sûr, la qualité scientifique est une condition nécessaire et un facteur clé. Mais elle ne suffit pas. L’histoire de la science est marquée par ce que l’on appelle l’« effet Matthieu » : les chercheurs déjà reconnus ont plus de chances de voir leurs travaux cités et valorisés, indépendamment de leur qualité relative. La visibilité d’une idée dépend donc aussi d’autres facteurs.

Nous montrons ainsi que deux dimensions jouent un rôle décisif, la connectivité thématique et la connectivité sociale. La connectivité thématique renvoie au fait qu’une idée gagne en popularité lorsqu’elle relie plusieurs domaines de recherche, en construisant des ponts entre des approches distinctes (par exemple, entre modèles de volatilité et crises financières). Elle attire alors l’attention de communautés diverses, qui trouvent dans ce croisement des outils utiles à leurs propres travaux.

S’agissant de la connectivité sociale, les chercheurs bien insérés dans les réseaux académiques, souvent grâce aux collaborations et à la cosignature d’articles, voient leurs travaux circuler plus rapidement et plus largement. Publier en équipe accroît les chances d’être lu et cité, car chaque coauteur diffuse l’article dans ses propres cercles. Ainsi, une idée devient populaire quand elle agit comme un pont, à la fois entre thèmes et entre chercheurs.

Les paradoxes de la diffusion

Nos résultats révèlent toutefois un paradoxe. Plus une idée est connectée, plus elle a de chances de devenir populaire et influente… mais seulement jusqu’à un certain point. Au-delà, trop de connexions finissent par brouiller son identité et diluer son impact. Autrement dit, multiplier indéfiniment les collaborations ou les croisements disciplinaires n’assure pas automatiquement plus de succès : l’excès peut au contraire nuire à la lisibilité et à la reconnaissance d’une contribution.

De même, si la cosignature est généralement un atout et un levier puissant de visibilité, la multiplication des auteurs ne garantit pas automatiquement plus de reconnaissance et d’influence. Elle peut même parfois réduire la clarté du message ou affaiblir l’influence individuelle des chercheurs impliqués.

Une science de réseaux

Notre étude met aussi en lumière un effet de temporalité. La connectivité thématique produit ses effets rapidement, dès les premières années suivant la publication. La connectivité sociale, elle, agit davantage sur le long terme : il faut environ six ans pour que les réseaux académiques commencent à amplifier significativement la diffusion d’une idée.

Ces dynamiques différenciées permettent de mieux comprendre comment certaines contributions connaissent un succès immédiat, alors que d’autres s’installent plus progressivement dans la littérature, à mesure que les réseaux de coauteurs et de citations relaient leurs apports. Ainsi, un article novateur reliant plusieurs méthodes peut susciter rapidement l’attention, mais son inscription durable dans la littérature dépendra de la réputation et du réseau de ses auteurs.

La popularité scientifique ne dépend pas seulement de la rigueur ou de l’originalité intrinsèque des travaux. Elle repose aussi sur la capacité à s’inscrire dans des réseaux thématiques et sociaux, et à trouver le bon équilibre entre visibilité et lisibilité.

Une méthodologie originale

Pour parvenir à ces résultats, nous avons mobilisé des méthodes innovantes. À l’aide de techniques de traitement automatique du langage (Structural Topic Models), nous avons cartographié les thématiques des articles et mesuré leur connectivité. Nous avons aussi utilisé des outils d’analyse de réseaux afin de caractériser la position des chercheurs dans les structures de coauteurs. Enfin, nous avons appliqué des modèles économétriques adaptés aux données de citations, en particulier le modèle hurdle negative binomial, qui permet de tenir compte du grand nombre d’articles jamais cités et de la forte dispersion des distributions de citations.

Fondation nationale pour l’enseignement de la gestion des entreprises (Fnege) Médias, 2025.

La robustesse de nos résultats a été confirmée par des tests sur d’autres modèles statistiques et par des analyses de sensibilité, renforçant la validité des conclusions.

La finance également concernée

Ces mécanismes ne concernent pas uniquement la communauté scientifique et les revues spécialisées. L’économétrie irrigue l’ensemble de l’économie et de la finance. Ses outils et méthodes sont essentiels pour aider les banques centrales dans leurs décisions de politique monétaire, éclairer la régulation des marchés financiers ou encore évaluer les politiques publiques.

Ainsi, la diffusion, ou au contraire l’oubli, d’une idée en économétrie peut avoir des conséquences bien réelles sur la manière dont nous analysons les phénomènes économiques et dont nous gouvernons nos sociétés. Une innovation méthodologique qui se diffuse largement peut influencer la façon d’évaluer une crise, d’anticiper des bulles financières ou d’apprécier les effets de la transition énergétique.

Notre étude rappelle que la science est aussi une affaire de réseaux. Les idées les plus populaires ne sont pas nécessairement les meilleures, mais celles qui savent tisser des liens entre disciplines et circuler dans les bons cercles académiques. La prochaine grande innovation existe peut-être déjà. Reste à savoir si elle trouvera les ponts nécessaires pour devenir incontournable.

The Conversation

Valérie Mignon est conseiller scientifique au CEPII, membre du Cercle des économistes, présidente de la section 05 (sciences économiques) du CNU et secrétaire générale de l'AFSE.

Marc Joëts ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.10.2025 à 08:59

Inondations : satellites et « jumeaux numériques » pour mieux anticiper et agir vite

Raquel Rodriguez Suquet, Ingénieure d'applications d'Observation de la Terre, Centre national d’études spatiales (CNES)

Vincent Lonjou, expert applications spatiales, Centre national d’études spatiales (CNES)

Les nouvelles technologies pour savoir où et quand l’eau peut monter, et quelles infrastructures sont en zone à risque.
Texte intégral (3370 mots)

Les précipitations violentes accroissent le risque d’inondations rapides et difficiles à prévoir. Pour mieux se préparer, il faut bien connaître le terrain. En combinant de nombreuses techniques d’imagerie satellite et de modélisation, les chercheurs et experts créent des « jumeaux numériques », c’est-à-dire des répliques virtuelles du territoire. Celles-ci permettent de mieux savoir où et quand l’eau peut monter, et quelles infrastructures sont en zone à risque.


Entre le 26 janvier et le 1er février 2025, des crues exceptionnelles ont touché le département de l’Ille-et-Vilaine avec des hauteurs d’eau record par endroits. Au total, 110 communes ont été reconnues en état de catastrophe naturelle, et des milliers de logements, commerces, entreprises, ont été sinistrés.

Un autre département fréquemment touché par les orages est celui du Var. Le département avait déjà essuyé la tempête Alex en 2020 et ses 50 centimètres de précipitations cumulées en 24 heures à Saint-Martin-Vésubie. Cette année, en mai, ce sont 25 centimètres de pluie qui sont tombés au Lavandou en une heure seulement.

Avec le changement climatique, les évènements hydrométéorologiques sont de plus en plus fréquents et de plus en plus intenses. Les inondations constituent un risque naturel majeur — 43 % des risques naturels mondiaux dans le monde entre 1995 et 2015 — avec une augmentation notable des aléas survenus au cours des dernières années.

En associant données de pointe d’observation de la Terre et modèles physiques et numériques, les jumeaux numériques permettent de mieux prédire les inondations et les risques associés, d’estimer les dommages potentiels et de concevoir des mesures de prévention efficaces pour protéger les biens et les populations.

Gestion de crise et anticipation : un rôle pour le secteur spatial en cas d’inondations

Le caractère soudain et rapide des inondations requiert une réponse très rapide des services de gestion de crise et, pour cela, une excellente préparation et anticipation des impacts potentiels de ces crises est nécessaire.

Deux principaux programmes basés sur des données d’observation de la Terre sont au service de la gestion de crise. La Charte internationale Espace et catastrophes majeures est opérationnelle depuis 2020 et met à la disposition des équipes de secours et d’urgence des images satellites dans les heures qui suivent une catastrophe majeure, n’importe où dans le monde.

En Europe, le Copernicus Emergency Mapping Service fournit un produit de cartographie rapide en appui à la gestion de crise, et un produit de cartographie de risques et de reconstruction destiné à la prévention de risques, à la préparation de crise et à la gestion post-sinistre. Ce service a par exemple été activé par la protection civile française lors des inondations dans le département d’Ille-et-Vilaine de cette année.

carte de la zone inondée avec la profondeur d’eau
Cartographie rapide (réalisée en sept heures après l’acquisition satellite) de la hauteur et de l’étendue des inondations dans le département de l’Ille-et-Vilaine, fourni par le service de cartographie rapide de Copernicus, à partir de l’imagerie satellite radar à haute et à très haute résolution (Sentinel 1, IcEye, COSMO-SkyMed, PAZ, Terrasar-X, RADARSAT). Service de cartographie rapide de Copernicus, projet EMSR788, CC BY

Lors de l’événement majeur concernant la tempête Alex à Saint-Martin-Vésubie en 2020, la sécurité civile française a activé également le service de cartographie rapide dès le 3 octobre 2020. Pour cet événement, le Centre national d’études spatiales (Cnes) a aussi immédiatement programmé les satellites Pléiades (capables de fournir des photographies de très haute résolution dans un temps très court) pour imager la zone pendant 8 jours minimum. Ainsi, en seulement quelques heures, de premières images ont été livrées, permettant au SERTIT de générer la cartographie des dégâts correspondante pour aider à la gestion de crise.

Utilisation de l’imagerie satellite pour la gestion de crise et l’identification des zones impactées lors des inondations à Saint-Martin-Vésubie (Alpes-Maritimes), en octobre 2020. Raquel Rodriguez-Suquet, Fourni par l'auteur

En effet, le risque d’inondation correspond à la conjugaison, en un même lieu, d’un aléa (phénomène naturel aléatoire comme l’inondation) avec les enjeux (humains, biens, économiques et environnementaux) susceptibles de subir des dommages. L’ampleur du risque dépend fortement de la vulnérabilité des enjeux exposés, autrement dit de leur résistance face à un évènement donné.

Outre le contexte climatique, les phénomènes d’inondations sont aggravés depuis des décennies par l’aménagement inadapté du territoire. Populations et biens s’accumulent dans des zones inondables, ce qui provoque notamment la construction de nouvelles routes et centres commerciaux, le développement de l’agriculture intensive, la déforestation ou encore la modification du tracé des cours d’eau. De surcroît, l’imperméabilisation des surfaces amplifie le ruissellement de l’eau et ne fait qu’aggraver encore la situation. Ces aménagements contribuent malheureusement trop souvent encore à la destruction des espaces naturels qui absorbent l’eau en cas de crues et qui sont essentiels au bon fonctionnement des cours d’eau.

Ceci nécessite d’impliquer une chaîne complexe d’acteurs — de l’observation satellite aux équipes sur le terrain.

schéma
Aléas, enjeux et risques d’inondation. Ministère de la transition écologique et de la cohésion des territoires, 2021, Fourni par l'auteur

Observer la Terre pour mieux apprécier les risques d’inondation

Les impacts des inondations peuvent être réduits par une meilleure culture du risque, un système d’alerte précoce, une cartographie précise des zones à risque, des prévisions fondées sur la modélisation, ainsi que par des aménagements du territoire et des infrastructures de protection adaptée – en ligne avec la politique de prévention des risques en France.

Ces informations provenant de données (in situ, IoT, drones, satellites, aéroportées…), et de modèles physiques très précis.

Les moyens d’observation in situ permettent de faire des mesures très précises de la hauteur, du débit et de la vitesse de l’eau alors que les moyens aéroportés (drone ou avion) permettent d’observer l’étendue de l’inondation. Or, il est très compliqué – voire impossible – de faire voler un avion ou un drone dans des conditions météorologiques dégradées. Par conséquent, ces observations sont complétées depuis l’espace. Par exemple, l’imagerie radar permet de faire des observations pendant la nuit et à travers les nuages.

Les données satellites apportent de nombreuses informations, par exemple la mesure du niveau d’eau de réservoirs, l’étendue d’eau ou encore la qualité de l’eau.

schéma
Les satellites et l’observation de l’eau sur Terre. Traduit et adapté de Papa et coll., Surveys in Geophysics, 2023, Fourni par l'auteur

Malheureusement, aujourd’hui, ces missions ont une faible résolution temporelle par rapport au besoin d’observation des inondations au moment de la crise elle-me : la fréquence de « revisite » des satellites est de quelques jours au mieux. Les satellites Sentinel 2 par exemple permettent de photographier la Terre entière en 5 jours, alors que le satellite SWOT revient sur la même zone tous les 21 jours. De plus, il n’est pas rare que les passages des satellites ne correspondent pas aux dates de pic des crues pendant la gestion de la crise.

Bien entendu, malgré ces limitations actuelles, il est clair que les données satellites sont déjà d’un grand apport pour la prévention des inondations, la préparation de la crise, et l’analyse postimpact de la crise.

Combiner les observations et faire appel aux modélisations

Aujourd’hui, c’est donc une combinaison des données in situ, drone, aéroportées et spatiales qui permet d’améliorer la description des inondations.

Mais l’observation seule ne permet pas de réaliser des prévisions fiables : l’utilisation des modèles physiques est incontournable pour mieux représenter la dynamique de l’écoulement dans son ensemble, pour faire des prévisions à court terme — ainsi que des projections à long terme sous les différents scénarios dans un climat futur.

Ces combinaisons entre données et modèles permettent de fournir des représentations précises de la dynamique d’écoulement de l’événement d’inondation ainsi que des prévisions pour simuler un comportement futur tel qu’un changement climatique, avec plusieurs scénarios possibles, ainsi que le déploiement de stratégies d’adaptations.

C’est ainsi que sont nés les « jumeaux numériques ».

Les jumeaux numériques pour les inondations

Un jumeau numérique est une combinaison d’une « réplique numérique » d’une zone réelle, associée à des capacités de modélisation et de simulation de plusieurs scénarios de phénomènes climatiques.

S’agissant des inondations, l’objectif de ces simulations est de disposer d’un outil d’aide à la décision dans toutes les phases du cycle de gestion du risque : prévention, surveillance et protection ; alerte et gestion de crise ; analyse post-crise ; reconstruction, résilience et réduction de la vulnérabilité.

Un jumeau numérique permet de faire trois familles d’analyses :

  • What now ? Un scénario de réanalyse des épisodes passés pour améliorer la compréhension de la dynamique des événements (plan de prévention, aménagement du territoire, assurance…) ;

  • What next ? Un scénario de prévision en temps réel des crues et des inondations qui représente la façon dont les inondations évolueront dans le futur à court terme à partir de l’état actuel (sécurité civile, gestion de crise…) ;

  • What if ? Un scénario d’évaluation de l’impact de l’inondation qui représente la façon dont le débit des cours d’eau et les étendues inondées pourraient évoluer sous différents scénarios hypothétiques dans le contexte de changement climatique.

Ainsi, l’Agence spatiale européenne (ESA) et la NASA développent des jumeaux numériques à l’échelle globale pour intégrer les données et modèles des environnements naturels et des activités humaines afin d’accompagner les politiques publiques sur les risques naturels.

À titre d’exemple, le CNES et ses partenaires ont mis en place un démonstrateur de jumeau numérique consacré à l’étude des inondations fluviales par débordement, qui permet de surveiller, détecter et prévoir de manière fiable les inondations à une échelle locale et globale, tandis qu’un autre jumeau numérique se concentre sur les zones côtières dans un contexte de changement climatique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

12.10.2025 à 08:59

Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?

Alice Mirailler, Ph.D. Candidate, Laboratoire de Mécanique des Contacts et des Structures LaMCoS, INSA Lyon – Université de Lyon

Ana-Maria Trunfio-Sfarghiu, Chercheuse, INSA Lyon – Université de Lyon

Usure des pneus, des freins et même de la chaussée sont des sources de pollution souvent ignorées. Cette pollution concerne aussi les voitures électriques.
Texte intégral (2369 mots)

Alors que la 50e édition du salon EquipAuto, salon international des pros de l’automobile, s’ouvre à Paris ce 14 octobre, penchons-nous sur l’autre problème de pollution, grandissant, posé par toutes les voitures, même électriques : les émissions hors échappement, dues à l’usure des freins, des pneus et de la chaussée. La question est indépendante de l’enjeu de réduire les émissions à l’échappement des voitures neuves, qui ont déjà fortement diminué du fait des progrès techniques. Une norme européenne, qui doit entrer en vigueur en 2026, entend les réduire, mais sa mise en œuvre pourrait ne pas livrer les effets escomptés.


Au 1er janvier 2024, le parc routier français était constitué de 39,3 millions de voitures particulières, de 6,5 millions de véhicules utilitaires légers (VUL), de 625 000 poids lourds et de 94 000 autobus et autocars en circulation.

Dans les contextes de forte densité du trafic, les émissions polluantes liées au transport routier restent un enjeu majeur de santé publique. En France, les véhicules particuliers sont à l’origine de plus de la moitié des émissions de gaz à effet de serre du secteur des transports. En 2019, ils représentaient 26 % des émissions nationales d’oxyde d’azote (NOx), un polluant irritant pour les voies respiratoires, et 22 % des émissions nationales de CO2.

Si les émissions à l’échappement, dues à la combustion dans les moteurs, ont été progressivement réduites grâce aux normes antipollution successives, une attention croissante est désormais portée aux émissions dites hors échappement, issues notamment de l’usure des freins, des pneus et de la chaussée.

La future norme Euro 7, qui entrera en vigueur à partir de 2026, marque une étape importante en intégrant pour la première fois ces sources de pollution non négligeables… sans pour autant résoudre tous les problèmes.

Émissions hors échappement : de quoi parle-t-on ?

Au cours des dernières années, des recherches scientifiques et industrielles ont permis d’importantes diminutions des émissions à l’échappement des véhicules récents, essence ou diesel. Cela résulte de l’allègement des véhicules, de la réduction de la consommation des moteurs thermiques et de l’installation des filtres à particules (FAP) pour limiter les émissions issues de la combustion du carburant.

Ce qui pèse désormais davantage dans l’empreinte environnementale des voitures, ce sont les émissions hors échappement. Elles regroupent les particules provenant de l’abrasion des freins et des pneus ainsi que de la remise en suspension des poussières sur la chaussée au passage des véhicules.

Si elles ne représentaient que 16 % des particules avec un diamètre inférieur à 10 micromètres (μm) (PM10) totales émises par le transport routier en 1990, cette part a atteint 71 % en 2022. Pour les particules avec un diamètre inférieur à 2,5 μm, ce chiffre est passé de 9 % en 1990 à 57 % en 2022.

Or, les réduire constitue un défi : la sécurité routière dépend justement de l’adhérence des pneus et de l’efficacité du freinage – deux sources inévitables de particules.

Quel impact sur notre santé ?

Lorsque les particules émises par les véhicules sont inhalées, elles se déposent dans différentes régions du système pulmonaire en fonction de leur taille. Les plus dangereuses pour la santé sont les PM1, c’est-à-dire les particules dont le diamètre est inférieur à 1 micromètre, car elles peuvent pénétrer profondément jusqu’aux alvéoles pulmonaires.

Plusieurs études ont démontré que les particules engendrées par le freinage sont des PM1 (de diamètre inférieur à 1 micromètre), voire des particules ultrafines dans le cas des poids lourds (inférieures à 100 nanomètres) et, par conséquent, capables d’atteindre ces alvéoles.

Système de collecte via un sac à dos. Ana-Maria Trunfio-Sfarghiu/Alice Mirailler, Fourni par l'auteur

Peu d’études toutefois se sont penchées sur la toxicité des particules non issues de l’échappement sur le système pulmonaire. Pour pallier ce manque, un dispositif innovant a été développé par des scientifiques afin de collecter ces particules pendant deux heures directement dans une solution biologique.

Conçu initialement sous forme de sac à dos pour permettre la collecte en différents points de la ville de Lyon (Rhône), ce système a ensuite été adapté sur un véhicule afin de réaliser des prélèvements en conditions réelles de circulation.

Les premiers résultats suggèrent que les particules de freinage de taille inférieure à 1 micromètre (principalement composées de fer, de cuivre, de baryum et d’antimoine) pourraient présenter un risque sanitaire notable. Leur petite taille leur permet d’interagir avec le surfactant pulmonaire (c’est-à-dire, la matière tensioactive sécrétée dans les poumons) ainsi qu’avec les macrophages alvéolaires. Cette interaction pourrait induire, sur le long terme, une altération progressive de la fonction pulmonaire.

Véhicule équipé d’un système de collecte. Ana-Maria Trunfio-Sfarghiu/Mayeul Bièche, Fourni par l'auteur

Il est possible qu’une exposition répétée à de faibles doses puisse favoriser le développement de pathologies chroniques, telles que la fibrose pulmonaire, par un processus lent d’accumulation et de réponse inflammatoire persistante.

La norme Euro 7, une réponse appropriée ?

Les émissions hors échappement seront intégrées pour la première fois dans la future norme Euro 7, ce qui constitue une avancée significative vers une évaluation plus complète et rigoureuse des sources de pollution atmosphérique liées aux véhicules.

La norme Euro 7 entrera en vigueur en novembre 2026 pour les voitures et les véhicules utilitaires légers. Pour tous les types de véhicules, la limite maximale des émissions de particules PM10 (de diamètre inférieur à 10 micromètres) serait fixée à 7 mg/km à partir de 2026 et à 3 mg/km à partir de 2035.

L’établissement de cette nouvelle norme soulève cependant une difficulté fondamentale d’ordre physique. Comme évoqué précédemment, des travaux ont démontré que les particules émises lors du freinage sont majoritairement des PM1, avec des tailles inférieures à 1 micromètre. Elles ne tombent donc pas sous le coup de cette réglementation.

De plus, ces particules présentent une masse extrêmement faible, souvent négligeable, ce qui rend les limites actuelles exprimées en milligramme par kilomètre (mg/km) peu adaptées pour quantifier précisément les émissions. Il serait donc pertinent que la réglementation évolue vers une prise en compte fondée sur le nombre de particules émises par kilomètre, afin de mieux refléter la réalité et les impacts potentiels de ces émissions ultrafines.

Les avancées scientifiques et technologiques dans la compréhension et dans la maîtrise des émissions liées au freinage progressent encore à un rythme souvent jugé insuffisant face aux exigences réglementaires et aux impératifs économiques du secteur automobile. En conséquence, les constructeurs proposent actuellement des solutions dont l’efficacité et les impacts restent encore partiellement évalués, parmi lesquelles :

le freinage électromagnétique : il réduit l’usure et les émissions en freinage normal, mais les freins mécaniques restent sollicités lors des freinages d’urgence, engendrant des émissions importantes ;

les filtres à particules à la source : ils peuvent limiter la dispersion des poussières, mais leur impact sur le contact frictionnel entre plaquette et disque – et donc, sur la sécurité – nécessite une validation rigoureuse ;

la modification des matériaux des plaquettes : elle peut réduire leur usure mais également augmenter la production de nanoparticules, dont les effets sanitaires restent mal connus et font l’objet de recherches en cours.

La mobilité électrique, pas forcément une panacée

Selon une analyse publiée par le Centre interprofessionnel technique d'études de la pollution atmosphérique (Citepa), les véhicules électriques émettent un peu moins de particules liées à l’usure des freins grâce au freinage régénératif (c’est-à-dire, s’appuyant sur un système de récupération d’énergie).

Cependant, leur masse plus importante entraîne une augmentation des émissions de particules provenant de l’abrasion des pneus et de la chaussée. Ces deux effets tendent à s’équilibrer, de sorte que les émissions totales de particules des véhicules électriques à grande autonomie sont comparables à celles des véhicules thermiques récents, qui émettent désormais très peu de particules à l’échappement.

Les véhicules électriques soulèvent, par ailleurs, d’importantes interrogations concernant la disponibilité des ressources nécessaires à la fabrication des batteries et concernant les enjeux environnementaux et techniques liés à leur recyclage.

Dès lors, la sobriété apparaît comme l’une des voies les plus cohérentes : réduire nos déplacements lorsque cela est possible et amorcer la transition d’une société centrée sur la consommation vers un modèle plus respectueux de l’environnement.

The Conversation

Ana-Maria TRUNFIO-SFARGHIU a reçu des financements de CNRS et Ministère de la recherche publique (financements liées à la thèse d'Alice Mirailler, son salaire et un petit accompagnement) + chaires INSA Lyon avec VOLVO et MICHELIN

Alice Mirailler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.10.2025 à 09:11

Les adolescents face aux écrans, entre contrôle et « scrolling » : regards croisés de lycéens entre la France et la Chine

Runsen Cao, Doctorant en sciences de l'information et de la communication, Université Bordeaux Montaigne

Dans tous les pays du monde, la gestion des écrans au quotidien soulève nombre de dilemmes chez les adolescents. Regards d’une enquête en France et en Chine.
Texte intégral (1415 mots)

Tout autour du monde, les écrans prennent de plus en plus de place dans la vie des jeunes. Si la manière dont ces derniers sont encadrés diffère d’un pays à l’autre, partout leurs pratiques quotidiennes des écrans les confrontent à nombre de dilemmes. C’est ce que fait ressortir une enquête auprès de lycéens français et chinois.


Le volume de temps et d’engagement consacré « aux écrans » est une des caractéristiques de la culture juvénile actuelle. Si les parents sont animés de multiples craintes concernant les smartphones et autres dispositifs numériques, cette préoccupation n’est pas réservée aux Français. En Chine, où 97,2 % des adolescents ont accès à Internet, même dans les zones rurales, protéger et éduquer les jeunes au numérique constitue également un enjeu de société fondamental.

Or, le contrôle des usages à l’école en Chine est beaucoup plus strict qu’en France. La plupart des lycées chinois interdisent totalement le téléphone personnel. Pour les élèves d’internat, certains établissements proposent des boîtes fermées à l’extérieur des salles de cours pour garder les téléphones jusqu’à la fin de journée.

Au-delà des interdictions et des discours de prévention (la « pause numérique », le rapport de la commission d’enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs, publié le 11 septembre 2025, sans parler des innombrables publications sur les « dangers des écrans ») ou de répression, pourquoi ne pas consulter les adolescents eux-mêmes ? Comment vivent-ils leurs expériences du numérique au quotidien ?

La comparaison entre la France et la Chine sur ce point peut être éclairante, au regard de la différence des contextes de contrôle. Dans le cadre d’une enquête de terrain qualitative conduite auprès de lycéens dans différentes villes de France et de Chine, nous avons pu donner la parole aux adolescents d’environnements sociaux très différents, non seulement sur leurs pratiques mais aussi sur leurs ressentis et sur leurs émotions.

Ennui et sentiment de culpabilité

Pour beaucoup de lycéens français et chinois, passer du temps sur leur téléphone est devenu un automatisme, comme le dit Katherine, élève française en classe de seconde :

« En général, je pense que, lorsqu’on s’ennuie ou qu’on ne sait pas trop quoi faire, on a tout de suite le réflexe de prendre le téléphone. »

C’est particulièrement le cas dans le contexte post-pandémique, selon Xiaoke, élève chinoise de première :

« Je m’ennuyais tellement à la maison et je n’avais pas de moyen de sortir. Du coup je ne pouvais m’amuser qu’avec les produits électroniques*. »

S’ils profitent d’une riche palette de divertissements grâce aux technologies, aux jeux vidéo, aux vidéos (aussi bien les courtes, appelées « shorts », au format vertical, que les longues) ou encore aux messages échangés avec des amis – comme résumé dans l’expression chinoise « jouer (玩 wán) avec le téléphone », qui renvoie à toute activité récréative sur le téléphone (regarder, scroller ou encore « être sur son téléphone » pour la France) –, les adolescents n’entretiennent pas uniquement un rapport ludique au numérique. Ils font la distinction entre ce qui est purement divertissant et ce qui est éventuellement utilitaire, non seulement pour le travail scolaire, mais également pour nourrir leur curiosité sur le monde.

C’est le cas pour cet élève français de terminale, qui perfectionne son anglais à travers la série Peaky Blinders, ou encore pour Hang, élève chinois en première, qui s’intéresse aux vidéos de vulgarisation de savoirs en mathématiques et en philosophie, sur Bilibili (plateforme vidéo chinoise).

Ils sont souvent confrontés à des dilemmes quant à leurs propres usages, mais pas forcément de la même manière. Les lycéens français, qui ont souvent moins de contraintes dans l’usage de leur téléphone, ont conscience d’un usage parfois excessif, notamment à travers le scrolling, qui représente pour certains, comme pour cette élève française en première, une perte de temps :

« Ça ne fait rien, à part bouffer mon temps et mon cerveau. »

Toutefois, il est souvent difficile pour eux de s’arrêter, comme le soulignent beaucoup de recherches, avec le développement d’un sentiment de culpabilité. C’est ce qu’éprouve cette élève française en terminale, qui compense ce sentiment par une stratégie qui consiste à regarder plus de contenus éducatifs et culturels :

« J’essaie de me limiter, je regarde des vidéos culturelles sur YouTube. »

Des « usages de revanche »

Pour les lycéens chinois, face à la réglementation très stricte des usages du téléphone, le dilemme porte sur le choix d’utiliser ou non son téléphone en cachette. La plupart des élèves enquêtés avouent qu’ils ont apporté leur téléphone au lycée malgré l’interdiction. Mais ils ne parviennent pas à en profiter, comme en témoigne un élève chinois en première :

« Autant ne pas l’amener, vu que je n’en profite même pas. »

L’interdiction totale suscite parfois des « usages de revanche », comme évoqué par Lan, lycéen en internat, qui passe quasiment tout son dimanche sur le téléphone, étant donné son usage très limité en cachette dans la semaine.

D’ailleurs, une forme de jeu de cache-cache se met souvent en place avec les parents. Certains, comme Yuan, également en internat, se plaignent d’avoir été « trahis » par les parents qui ont prévenu le lycée qu’il avait probablement apporté son smartphone, car ils ne le trouvaient pas à la maison. D’autres, comme Wan, lycéenne en internat, se félicitent du soutien des parents qui comprennent son besoin de lignes de fuite après une journée d’étude fatigante. Les usages du téléphone reflètent donc aussi la qualité des rapports de confiance avec les parents.

Entre introspection, discipline et contrôle extérieur, les lycéens construisent leur rapport au numérique sous contrainte dans des contextes sociaux différents. L’éducation consiste, pour Kant, en soins, discipline culture. Le philosophe privilégie la référence à cette dernière par rapport aux deux premières. La culture pourrait devenir un point de départ pour repenser l’éducation à l’ère du numérique.

Les jeunes en fin d’adolescence sont non seulement des mineurs dont les pratiques numériques sont à réguler et à éduquer de manière normative, mais également et surtout des sujets en train de se construire à partir d’expériences informationnelles très diverses, qui méritent une attention fine, au-delà des discours de panique. Ces expériences, dans leur diversité, sont largement comparables, voire communes, dépassant les différences des contextes culturels et normatifs.


N. B. : Les prénoms des jeunes cités dans cet article ont été changés pour préserver leur anonymat.

*« Produits électroniques »: l’expression désigne en langue chinoise tous les appareils connectés à Internet.

The Conversation

Runsen Cao ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.10.2025 à 08:34

Un sommeil de mauvaise qualité peut accélérer le vieillissement cérébral, selon une nouvelle étude

Abigail Dove, Postdoctoral Researcher, Neuroepidemiology, Karolinska Institutet

Une nouvelle étude révèle que mal dormir pourrait faire vieillir le cerveau plus vite qu’il ne le devrait – un effet mesurable grâce à l’imagerie cérébrale et lié, en partie, à l’inflammation.
Texte intégral (1675 mots)
Un sommeil de mauvaise qualité ne se traduit pas seulement par de la fatigue : cela pourrait aussi accélérer le vieillissement du cerveau. Ekaterina Karpacheva/Shutterstock

Une nouvelle étude révèle qu’un sommeil de mauvaise qualité pourrait faire vieillir le cerveau plus vite qu’il ne le devrait – un effet mesurable grâce à l’imagerie cérébrale et lié, en partie, à l’inflammation.


Nous passons près d’un tiers de notre vie à dormir, mais le sommeil est tout sauf une perte de temps. Ce n’est pas une période d’inactivité, mais un processus actif et essentiel qui restaure le corps et protège le cerveau. Lorsque le sommeil est perturbé, le cerveau en subit les conséquences – parfois subtiles, mais qui s’accumulent au fil des années.

Dans une nouvelle étude, mes collègues et moi avons analysé les habitudes de sommeil et les données d’IRM cérébrale de plus de 27 000 adultes britanniques âgés de 40 à 70 ans. Nous avons constaté que les personnes dormant mal présentaient un cerveau qui paraissait sensiblement plus âgé que leur âge réel ne le laisserait supposer.

Mais que signifie exactement le fait qu’un cerveau « paraisse plus vieux » ? Si nous vieillissons tous au même rythme chronologique, notre horloge biologique, elle, peut avancer plus ou moins vite. Grâce aux progrès récents de l’imagerie cérébrale et de l’intelligence artificielle, il est désormais possible aux chercheurs d’estimer l’« âge cérébral » d’une personne à partir des schémas visibles sur ses IRM — tels que la perte de tissu cérébral, l’amincissement du cortex ou encore les lésions des vaisseaux sanguins.

Dans notre étude, cet âge cérébral a été estimé à partir de plus de 1 000 marqueurs d’imagerie. Nous avons d’abord entraîné un modèle d’apprentissage automatique sur les scans des participants les plus en bonne santé — ceux dont le cerveau correspondait le mieux à leur âge chronologique. Une fois le modèle capable de reconnaître les signes d’un vieillissement « normal », nous l’avons appliqué à l’ensemble de la cohorte.

Un âge cérébral supérieur à l’âge réel peut signaler un écart par rapport à un vieillissement sain. Des travaux antérieurs ont déjà établi qu’un cerveau d’apparence plus âgée est associé à un déclin cognitif accéléré, à un risque accru de démence et même à une mortalité prématurée plus élevée.

Le sommeil est un phénomène complexe, et aucune mesure isolée ne peut à elle seule refléter sa qualité globale. Nous nous sommes donc concentrés sur cinq aspects du sommeil autorapportés par les participants : leur chronotype (plutôt « matinal » ou « nocturne »), la durée habituelle du sommeil (de sept à huit heures étant considérées comme optimale), la présence d’insomnie, le ronflement et la somnolence diurne excessive.

Ces facteurs peuvent interagir entre eux. Par exemple, une personne souffrant d’insomnie fréquente peut également ressentir une somnolence diurne plus importante, et avoir un chronotype tardif peut entraîner une durée de sommeil plus courte. En combinant ces cinq paramètres dans un « score de sommeil sain », nous avons obtenu une vision plus complète de la santé globale du sommeil.

Les participants présentant quatre ou cinq comportements sains formaient le groupe au sommeil « sain », ceux ayant deux ou trois comportements sains constituaient le groupe « intermédiaire », et ceux n’en présentant aucun ou un seul appartenaient au groupe au sommeil « médiocre ».

Les résultats étaient clairs : pour chaque point perdu au score de sommeil sain, l’écart entre l’âge cérébral et l’âge chronologique augmentait d’environ six mois. En moyenne, les personnes au sommeil médiocre avaient un cerveau paraissant presque un an plus vieux que prévu, alors que celles au sommeil sain ne présentaient pas de tel écart.

En analysant chaque paramètre séparément, nous avons observé que le chronotype tardif et une durée de sommeil anormale étaient les principaux contributeurs à un vieillissement cérébral accéléré.

Un an peut sembler peu, mais en matière de santé cérébrale, c’est significatif. Même de légères accélérations du vieillissement du cerveau peuvent, à long terme, accroître le risque de déclin cognitif, de démence et d’autres troubles neurologiques.

La bonne nouvelle, c’est que les habitudes de sommeil peuvent être modifiées. Bien que tous les troubles du sommeil ne soient pas faciles à corriger, quelques stratégies simples — maintenir un horaire de coucher régulier, limiter la consommation de caféine, d’alcool et l’utilisation d’écrans avant le coucher, et favoriser un environnement calme et sombre — peuvent améliorer la qualité du sommeil et protéger la santé du cerveau.

Femme regardant son téléphone dans son lit
Posez ce téléphone ! Ground Picture/Shutterstock

Comment le sommeil influence-t-il la santé du cerveau ?

Une explication pourrait résider dans l’inflammation. De plus en plus de preuves indiquent que les troubles du sommeil augmentent le niveau d’inflammation dans l’organisme, ce qui peut nuire au cerveau en endommageant les vaisseaux sanguins, en favorisant l’accumulation de protéines toxiques et en accélérant la mort des cellules cérébrales.

Nous avons pu explorer ce lien grâce aux échantillons sanguins collectés au début de l’étude sur les participants, riches en informations sur différents biomarqueurs inflammatoires. En les intégrant à nos analyses, nous avons constaté que l’inflammation expliquait environ 10 % du lien entre le sommeil et le vieillissement cérébral.

D’autres mécanismes pourraient aussi intervenir

Une autre piste concerne le système glymphatique – le réseau de nettoyage des déchets du cerveau, principalement actif durant le sommeil. Lorsque celui-ci est perturbé ou insuffisant, ce système fonctionne moins bien, laissant s’accumuler des substances nocives.

Il est également possible que le fait de mal dormir augmente le risque d’autres pathologies néfastes pour le cerveau, notamment le diabète de type 2, l’obésité ou les maladies cardiovasculaires.

Notre étude, l’une des plus vastes et complètes du genre, s’appuie sur une population importante, une approche multidimensionnelle de la qualité du sommeil et une estimation détaillée de l’âge cérébral fondée sur des milliers d’indicateurs IRM. Bien que des recherches antérieures aient déjà montré qu’un sommeil de mauvaise qualité est associé au déclin cognitif et à la démence, notre recherche montre aussi qu’il est lié à un cerveau qui semble plus âgé, ce qui est dû, en partie, à l’inflammation.

Le vieillissement cérébral est inévitable, mais nos comportements et nos choix de mode de vie peuvent influencer son évolution. Les implications de nos recherches sont claires : pour préserver la santé de notre cerveau, faisons du sommeil une priorité.

The Conversation

Abigail Dove bénéficie d'un financement de la part d'Alzheimerfonden, Demensfonden et de la Fondation Loo et Hans Osterman pour la recherche médicale.

PDF

11.10.2025 à 08:31

Donald Trump et Pete Hegseth appellent 800 généraux à combattre « l’ennemi intérieur »

Olivier Sueur, Enseigne la compétition stratégique mondiale et les enjeux transatlantiques, Sciences Po

Trump et Hegseth ont réuni leurs généraux pour « mettre fin aux dérives woke » et pour aligner l’armée sur leurs objectifs politiques – en vue de la déployer dans les villes états-uniennes.
Texte intégral (1612 mots)

Jamais l’ensemble des généraux américains n’avaient été convoqués pour écouter le président du pays et leur ministre de tutelle comme ce fut le cas ce 30 septembre à Quantico (Virginie). Cette réunion historique a vu Donald Trump et Pete Hegseth tenir à des hauts gradés silencieux un discours aux intonations martiales et virilistes dont l’objectif réel était de les préparer à diriger des opérations militaires… à l’intérieur même des États-Unis, dans les villes dirigées par des démocrates.


Le 30 septembre 2025, le secrétaire américain à la guerre Pete Hegseth a prononcé devant 800 officiers généraux américains réunis à Quantico, en Virginie, un discours mémorable, qui a été suivi d’une intervention du président – et commandant en chef des armées, Donald Trump.

Cette réunion avait fait en amont l’objet des spéculations les plus folles, et son déroulement nourrit désormais moqueries et parodies sur les réseaux sociaux. Convoquée début septembre, soit avec un préavis très court, une réunion de chefs militaires américains de cette ampleur n’a pas de précédent connu. Elle mérite une véritable analyse pour en comprendre l’exacte signification, de même que son importance structurante pour les trois prochaines années.

Une réunion annoncée au dernier moment, mais préparée depuis longtemps

Commençons par resituer le contexte de cette réunion.

Premièrement, l’administration Trump a procédé à une première épuration parmi les plus hauts gradés de l’armée : le chef d’état-major des armées le général C. Q. Brown, la cheffe d’état-major de la Marine Lisa Franchetti, le directeur du renseignement militaire Jeffrey Kruse, l’amirale commandant les garde-côtes Linda Fagan… une dizaine de départs de responsables de premier plan a été enregistrée depuis février.

Deuxièmement, le secrétaire à la guerre a pris, le 5 mai 2025, une directive ordonnant la réduction du nombre d’officiers généraux cinq étoiles de 20 %, soit un passage de 37 à 30 du nombre d’officiers généraux de la garde nationale d’au moins 20 %, et du nombre d’officiers généraux des forces armées de 10 % (de 838 à environ 700).

Troisièmement, le département de la défense a été rebaptisé « département de la guerre », le 5 septembre 2025, sur décision du président Trump.

Quatrièmement, deux documents structurants pour l’organisation de ce ministère sont en cours d’achèvement cet automne, à savoir la stratégie nationale de défense (National Defense Strategy) et la révision de la configuration mondiale des forces (Global Force Posture Review). Ces documents doivent aboutir à une réduction significative du volume des forces stationnées à l’étranger et se traduire par une bascule de leur déploiement de l’Europe vers l’Indo-Pacifique.

L’annonce d’un « changement de culture »

Au vu de l’ensemble de ces éléments, une forme de nervosité, voire d’appréhension, de la part des participants n’apparaissait pas illégitime. Et ils n’ont pas été déçus : Pete Hegseth a fait de son intervention le « jour de libération des guerriers de l’Amérique », paraphrasant le « jour de la libération » proclamé par Donald Trump, le 2 avril 2025, lors de ses annonces en matière de droits de douanes.

Son objectif révélé dès la première minute de son intervention est d’« avoir les bonnes personnes et la bonne culture au département de la guerre », car c’est le personnel qui fait la politique d’une organisation (« Personnel is policy »). Il dénonce ensuite longuement la « dérive woke » au sein des forces armées américaines – promotions sur la base d’appartenance raciale ou de quotas de genre, politiquement correct, mois de l’identité, programmes Diversity, Equity, and Inclusion (DEI), femmes dans les unités combattantes, transsexuels, gros, barbus, cheveux longs… Bref, tout y passe, et Hegseth promet d’y porter le fer avec énergie.

Tout cela n’est en aucun cas une surprise puisqu’il s’agit ni plus ni moins que de la politique engagée au niveau national par le président Trump – et annoncée lors de sa campagne.

En revanche, ce qui est passionnant dans ce discours, c’est son caractère programmatique. D’abord, le secrétaire à la guerre annonce que ses services se dotent des moyens de mettre en œuvre cette rééducation culturelle des militaires américains à l’égard de l’« idéologie woke » grâce à l’envoi aux participants de dix directives formalisant les orientations énoncées ci-dessus et portant, notamment, sur le rétablissement de standards physiques masculins uniformes en matière de préparation militaire : c’est sur ce modèle qu’eux, officiers généraux, seront évalués.

Ensuite, il annonce à son auditoire que ce changement de culture implique un changement de génération parmi eux, et donc de nouveaux départs, allant jusqu’à inviter ceux qui se sentent en désaccord avec ses propos à démissionner. Dans un contexte de réduction du nombre de postes offerts à la promotion, voilà qui invite à l’introspection.

Ce discours organise le réalignement culturel des forces armées américaines sur les orientations du gouvernement, à l’image de ce qu’indiquait le règlement des armées françaises de 1933 : « Il importe que les ordres soient exécutés littéralement, sans hésitation, ni murmure. »

Objectif désigné : les villes démocrates

Pourquoi ce réalignement ? C’est l’intervention subséquente de Donald Trump qui y répond : bien que particulièrement décousue, elle est l’occasion d’annoncer fort à propos une augmentation des salaires des militaires de 3,8 %, mais surtout de désigner aux officiers généraux leur adversaire, à savoir l’« invasion intérieure » (« Invasion from within »).

De manière spécieuse, le président liste même les cibles qu’il qualifie de « zones de guerre ». Il s’agit des villes tenues par « la gauche radicale démocrate » et nommément désignées : San Francisco, Chicago, New York, Los Angeles, Portland et Seattle. Il prend appui sur les précédents historiques d’utilisation des forces armées pour le maintien de l’ordre intérieur par les présidents George Washington, Abraham Lincoln, Grover Cleveland ou George W. Bush. Il rappelle enfin aux officiers généraux présents, comme l’avait d’ailleurs fait Pete Hegseth à deux reprises, leur serment de prise de fonctions qui prévoit la lutte contre l’ennemi intérieur :

« Je jure [ou affirme] solennellement que je soutiendrai et défendrai la Constitution des États-Unis contre tous les ennemis, étrangers et intérieurs. »

Une insistance à replacer dans le cadre culturel américain, où une importance majeure est accordée aux serments depuis la guerre d’Indépendance et la guerre de Sécession.

Comme on le comprend aisément, la plupart des commentaires ratent l’essentiel. L’administration Trump prépare les forces armées américaines, d’une part, à une intervention massive dans les grandes villes administrées par les démocrates au prétexte de lutter contre les ennemis intérieurs et, d’autre part, à disposer d’une institution militaire à la fois obéissante et partageant les valeurs du gouvernement, en vue des prochaines échéances politiques du pays, notamment électorales… toutes choses qui avaient manqué lors du coup d’État avorté du 6 janvier 2021.

The Conversation

Olivier Sueur ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.10.2025 à 08:26

Sommes-nous plus bêtes que nos parents ?

Corentin Gonthier, Professeur de psychologie, Nantes Université

Existe-t-il une réelle baisse de l’intelligence en France ? Il semble que répondre par l’affirmative relève plus d’opinions politiques que de la science.
Texte intégral (2689 mots)

Vous avez peut-être entendu parler du déclin de l’intelligence ? C’est cette idée selon laquelle le quotient intellectuel moyen a tendance à diminuer dans le monde occidental. De quoi s’alarmer sur l’état du monde, les politiques publiques, l’éducation et l’avenir de la jeunesse ! Ce déclin existe-t-il vraiment ?


Le déclin de l’intelligence est à la mode depuis quelques années. Le documentaire « Demain, tous crétins ? » diffusé par Arte en 2017 a diffusé cette polémique en France. La presse s'en est rapidement emparée à travers des titres alarmistes, comme « Le QI des Français en chute libre », « Et si l'humanité était en train de basculer dans l'imbécillité ? », ou même « Alerte ! Le QI des Asiatiques explose, le nôtre baisse ».

On s’est inquiété, et comme dans toute panique morale, des coupables ont été désignés. Selon leurs orientations politiques, les commentateurs ont blâmé les pesticides et perturbateurs endocriniens, la désaffection pour la lecture, la réforme de l’orthographe, la construction européenne, ou bien sûr, l’exposition aux écrans.

Une intelligence globale en hausse

Avant de chercher pourquoi l’intelligence déclinerait, encore faut-il être sûrs qu’elle décline. Cette idée d’une diminution de l’intelligence est pour le moins surprenante, car l’intelligence moyenne a plutôt augmenté au cours du XXe siècle. Plusieurs centaines d’études impliquant des millions de participants dans plus de 70 pays montrent qu’en moyenne, chaque génération fait mieux que la précédente sur les tests d’intelligence. Si on préfère parler en termes de quotient intellectuel (QI : le score global à travers un ensemble d’épreuves d’intelligence – sa moyenne est fixée à 100, la plupart des gens se situent entre 85 et 115), le quotient intellectuel moyen a augmenté d’environ 3 points tous les dix ans depuis le début du XXe siècle.

Cette augmentation de l’intelligence moyenne à chaque génération s’appelle l’effet Flynn. On connaît l’effet Flynn depuis les années 1930, et on l’attribue aux grandes améliorations du XXe siècle , telles que la baisse de la malnutrition et des maladies infantiles, ou le développement de la scolarisation. Aujourd’hui, il est ralenti dans les pays développés, mais continue à pleine vitesse dans les pays en voie de développement (les scores d’intelligence y augmentent deux fois plus vite, environ, que dans le monde occidental).

Que notre effet Flynn ralentisse ou s’interrompe, rien d’étonnant : la scolarisation et les qualités de notre système sanitaire ne progressent plus à grande vitesse. Mais un déclin de l’intelligence ? De petites baisses sont bien retrouvées par une poignée d’études, mais elles sont sans commune mesure avec les gains du XXe siècle. L’exemple de la Norvège (Figure 1) est frappant : ces données de grande qualité (jusqu’au début du XXIe siècle, la Norvège a évalué l’intelligence de l’ensemble de sa population masculine dans le cadre du service militaire obligatoire) montrent bien une petite diminution dans les années 2000, mais elle tient plus de la fluctuation aléatoire.

Scores moyens d’intelligence en Norvège, rapportés à une base 100 en 1938. Données adaptées de Sundet et al. (2004, 2014). Fourni par l'auteur

Une étude pour le moins critiquable

D’où vient, alors, l’idée que l’intelligence s’effondrerait en France ? La littérature ne contient qu’une unique étude d'Edward Dutton et Richard Lynn portant sur un échantillon de 79 personnes. C’est un très petit échantillon pour déclencher une panique morale, bien sûr : 79 personnes ne sont pas vraiment représentatives de la France dans son ensemble. Quand on crée un test d’intelligence, on l’étalonne plutôt sur un échantillon d’au moins 1000 personnes pour avoir une bonne estimation de la moyenne (c’est le cas de l’échelle d’intelligence pour adultes de Wechsler, la WAIS, la plus utilisée en France).

Mais le problème de cette étude est surtout dans sa méthode et dans ses résultats. Notre petit groupe de 79 personnes a passé deux tests d’intelligence en 2009 : un ancien test d’intelligence (la WAIS-III, étalonnée en 1999), et un test plus récent (la WAIS-IV, étalonnée en 2009). En comparant les résultats de ce groupe de 79 personnes à la moyenne de l’échantillon de référence pour chacun de ces tests, Dutton et Lynn constatent que les résultats de ce groupe sont légèrement plus faibles que la moyenne sur l’ancien test d’intelligence, et légèrement plus élevés que la moyenne sur le nouveau test ; ils en déduisent qu’il était plus difficile d’obtenir un bon score sur le test de 1999… donc que l’intelligence moyenne a diminué entre 1999 et 2009.

Sur le principe, le constat de Dutton et Lynn est correct : nous avons tendance à faire moins bien sur les anciens tests d’intelligence (nous avons répliqué ce résultat à un peu plus grande échelle). Mais le problème est qu’il y a d’autres raisons qu’un déclin de l’intelligence pour expliquer que les gens fassent moins bien en 2009 sur un test paru en 1999.

Pour bien comprendre, il faut s’intéresser au contenu du test. Un test d’intelligence de type WAIS est composé d’un ensemble d’épreuves qui mesurent des choses différentes : le raisonnement logique abstrait (ce qu’on entend généralement par « intelligence » : compléter une série de figures géométriques, reproduire un dessin abstrait à l’aide de cubes…), mais aussi les connaissances (vocabulaire, culture générale…), la mémoire, ou encore la vitesse de traitement de l’information. Dans l’étude de Dutton et Lynn, les scores sont en fait rigoureusement stables dans le temps pour le raisonnement logique abstrait, la mémoire ou la vitesse de traitement, qui ne déclinent donc pas : les seuls scores qui sont plus faibles en 2009 qu’en 1999, ce sont les scores de connaissances. On retrouve exactement la même chose dans d’autres pays, comme la Norvège : le raisonnement logique abstrait est constant dans le temps tandis que les scores de connaissance deviennent plus faibles sur les anciens tests.

Les tests doivent régulièrement être mis à jour

L’intelligence générale ne décline donc pas, ni en France ni dans le monde occidental. Dans ce cas peut-on au moins se plaindre que les connaissances ont décliné : la culture se perd, les jeunes n’apprennent plus rien ? Même pas : si les gens font moins bien sur les anciennes versions des tests d’intelligence, c’est tout simplement parce que les questions deviennent obsolètes avec le temps. La WAIS-III demandait aux Français de calculer des prix en francs, de comparer les caractéristiques des douaniers et des instituteurs, de citer des auteurs célèbres du XXe siècle. Avec le temps, ces questions sont devenues plus difficiles. Les scores au test ont baissé, mais pas l’intelligence elle-même. Nous avons montré que cette obsolescence suffit à expliquer intégralement les résultats de Dutton et Lynn.

Voici un petit exemple, tiré du tout premier test d’intelligence : il s’agit d’un texte à compléter, destiné à évaluer la présence d’une déficience chez de jeunes enfants. Pouvez-vous faire aussi bien qu’un enfant de 1905 en retrouvant les neuf mots manquants ?

Il fait beau, le ciel est —1—. Le soleil a vite séché le linge que les blanchisseuses ont étendu sur la corde. La toile, d’un blanc de neige, brille à fatiguer les —2—. Les ouvrières ramassent les grands draps ; ils sont raides comme s’ils avaient été —3—. Elles les secouent en les tenant par les quatre —5— ; elles en frappent l’air qui claque avec —6—. Pendant ce temps, la maîtresse de ménage repasse le linge fin. Elle a des fers qu’elle prend et repose l’un après l’autre sur le —7—. La petite Marie, qui soigne sa poupée, aurait bien envie, elle aussi, de faire du —8—. Mais elle n’a pas reçu la permission de toucher aux —9—.

Les mots « amidonnés » (3), « poêle » (7), et « fers » (9) vous ont probablement posé plus de problèmes qu’à un enfant de 1905 ; mais vous conviendrez sûrement que cette difficulté ne dit pas grand-chose de votre intelligence. Les scores d’intelligence sur ce test ont bien décliné, mais c’est plutôt l’évolution technologique du repassage qui rend le test obsolète. De la même façon, la probabilité qu’une personne dotée d’une intelligence moyenne (QI=100) réponde correctement à une question de la WAIS portant sur la pièce de théâtre Faust était de 27 % en 1999, elle est de 4 % en 2019. Ainsi, les scores aux tests de connaissance déclinent naturellement dans le temps, au fur et à mesure que la culture évolue. C’est même pour cette raison que de nouvelles versions des tests d’intelligence paraissent régulièrement : la WAIS est remise à jour tous les dix ans environ (et la WAIS-V devrait paraître en 2026).

Une « erreur » qui sert un agenda politique

Confondre un déclin de l’intelligence avec l’obsolescence des questions du test, c’est tout de même une grosse erreur. Comment Dutton et Lynn ont-ils pu la commettre ? C’est que l’erreur n’est pas innocente, et que ces deux auteurs ne sont pas tout à fait neutres. La discipline d’Edward Dutton est la théologie, Richard Lynn est connu pour défendre l’idée qu’il existe des différences génétiques d’intelligence entre les sexes et les origines ethniques ; les deux ont été éditeurs en chef d’une célèbre revue suprémaciste blanche (Mankind Quarterly) et leurs travaux alimentent directement les mouvements d’extrême droite.

Pour bien saisir l’agenda politique des auteurs, le mieux est peut-être de citer les explications qu’ils envisagent pour un déclin de l’intelligence. Deux extraits, issus des livres de Richard Lynn pour l’illustrer :

« … un grand nombre de gouvernements occidentaux ont contribué au déclin de l’intelligence depuis les années 1960, à travers une politique d’état-providence encourageant les femmes d’intelligence basse, de mauvaise moralité et de faible éducation à avoir des bébés… ».

« … l’immigration de masse de peuples non-européens en Europe de l’ouest, aux États-Unis et au Canada est un sérieux problème dysgénique… ils ont, en moyenne, une plus faible intelligence et une plus faible moralité… ils deviendront une majorité de la population en Europe de l’ouest… l’intelligence continuera à décliner… et la Chine deviendra une superpuissance mondiale »

Les réformes envisagées par les auteurs pour limiter le déclin de l’intelligence en Europe occidentale sont cohérentes avec leur orientation politique : on y trouve, par exemple, « abolir la sécurité sociale », « se retirer de la convention des Nations unies de 1951 sur l’accueil des réfugiés », ou encore « introduire des politiques publiques pour accroître la fertilité de ces femmes (intelligentes) qui ont été éduquées au point de perdre leur fonction reproductive ».

Aujourd’hui, nous avons la certitude qu’il n’y a pas réellement de déclin de l’intelligence en France, même si l’effet Flynn est bel et bien interrompu. Le déclin de l’intelligence dans le monde occidental n’est pas un sujet scientifique, mais plutôt un sujet politique – un argument idéal que les déclinistes utilisent pour faire peur, désigner des coupables, et promouvoir des réformes hostiles au changement.

Si cette idée a autant de succès, c’est probablement qu’elle parle à nos tendances profondes : au second siècle de notre ère, Hésiode se plaignait déjà que les nouvelles générations laissent plus de place à l’oisiveté que les précédentes. Si nous bénéficions d’un droit inaliénable à critiquer les valeurs et les goûts musicaux de nos enfants, une chose est sûre : ils ne sont pas moins intelligents que nous.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Corentin Gonthier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.10.2025 à 23:42

Pourquoi la « business pride » du Medef n’aura pas lieu

Michel Offerlé, Sociologie du politique, École normale supérieure (ENS) – PSL

Un meeting « énorme », censé défendre les patrons devait se tenir ce lundi 13 octobre : il a été reporté. Le patronat, sous pression et divisé, apparaît fébrile.
Texte intégral (2518 mots)

Les patrons sont sous pression alors que les appels à taxer les hauts patrimoines se multiplient, notamment avec une taxe Zucman sur les plus riches d’entre eux. Un meeting « énorme », censé défendre les intérêts patronaux, devait se tenir ce lundi 13 octobre : il a finalement été reporté par le Medef. Alors que la crise politique perdure, les patrons, généralement adeptes du lobbying discret, semblent remontés, mais divisés et hésitants sur la marche à suivre.


En 2009, Charlie Hebdo faisait sa une avec une caricature de Cabu montrant Laurence Parisot tenant une pancarte proclamant « Nos stock-options », devant un fond : « Sarkozy, t’es foutu le Medef est dans la rue ! » Le Figaro du 5 octobre 1999 éditait une photographie en première page représentant une foule assemblée, avec au premier rang un homme d’une cinquantaine d’années coiffé d’un haut chapeau vert sur le lequel était inscrit, « Respect ».

Ces images de patrons dans la rue sont rares. Ce 13 octobre 2025, les patrons, ou plutôt certains patrons, devaient se réunir au Palais omnisport de Paris-Bercy (Accor Arena) pour une initiative peu banale, annonçant un « meeting énorme ». Patrick Martin, président du Medef, a finalement décidé de reporter ce rendez-vous en raison, selon lui, de la démission du premier ministre Sébastien Lecornu. Pourquoi cette mobilisation et pourquoi cette reculade ?

Lobbying et discrétion patronale

Les patrons ne sont pas professionnellement la catégorie sociale qui se mobilise le plus fréquemment dans la rue ou dans des meetings. Ils utilisent peu l’action collective visible, dans ce que les sociologues appellent « les répertoires de l’action collective ». Ils ont accès (pour les plus grands d’entre eux surtout) à des moyens d’action plus feutrés et plus furtifs (ce qu’on appelle la « quiet politics ») dans toutes ses variétés et dimensions, qui leur permettent d’interpeller les décideurs de manière discrète, voire très privée. C’est ce que l’on désigne habituellement par lobbying.

L’Association française des entreprises privées (Afep) est le parangon de ces tentatives d’influence, mais ses démarches publiques vont pourtant rarement au-delà des communiqués ou des conférences de presse.

Les patrons sont (rarement) dans la rue

Des chefs d’entreprise ont pu participer individuellement à des manifestations de rue (pour l’école privée en 1984 ou contre le mariage pour tous en 2013, mais pas en tant que patrons. On pourra aussi en avoir vu parmi les Bonnets rouges ou les gilets jaunes.

Le 5 octobre 1999, le Figaro place à la une les patrons qui manifestent contre les 35 heures. Le Figaro, Fourni par l'auteur

L’appel à la rue est l’apanage des seuls petits patrons qui l’ont utilisé pour des raisons dissemblables, dans les années 1950 lors des mobilisations poujadistes, autour de Gérard Nicoud à la fin des années 1960 ou dans les années 1990 avec la figure controversée de Christian Poucet. La mobilisation par réseaux sociaux des « pigeons » en 2012, suivie, de celles moins relayées de divers volatiles la même année, a fait exception aussi en utilisant des moyens innovants. Il y aura encore des manifestations patronales depuis 2000, celles des buralistes ou localement celles du bâtiment, ou autour du collectif Sauvons nos entreprises en 2014.

Malgré son opposition à la politique du début du quinquennat Hollande, le Medef n’ira pas au-delà de réunions publiques à Lyon, dans le Rhône, (avec cartons jaunes et sifflets) et à Paris (avec des petits drapeaux « Libérez l’entreprise »), et la CGPME d’une opération organisée devant Bercy avec une agence d’événementiel sur le thème du cadenas (« PME cadenASSEZ »).

La lente sortie des restrictions liées au Covid a vu fleurir les actions de rue à Lyon ou encore à Paris en 2020 ou le très original die in de Toulouse, en Haute-Garonne (France Bleu titrait « À Toulouse, place du Capitole, un millier de petits commerçants crient leur peur de mourir », en novembre 2020) initiative prise avec les métiers du spectacle, sur la thématique de la mort des entreprises (les manifestants transportant des cercueils et s’habillant en noir).

Mobilisations exceptionnelles contre la gauche en 1982 et en 1999

Les deux grands meetings de 1982 et de 1999 sont donc exceptionnels. Le 14 décembre 1982, le Conseil national du patronat français (CNPF, ancêtre du Medef) et les autres organisations patronales organisent, contre la politique économique et sociale de la gauche, les « États généraux des entreprises au service de la nation ». Ainsi, 25 000 patrons viennent à Villepinte et « adoptent » la Charte de Villepinte, cahiers de revendications et de propositions. L’opération est aussi interne, le président du CNPF, Yvon Gattaz, est alors contesté par certaines fédérations, et renforce alors sa légitimité :

« Tout le monde est venu, comme le grand Condé est venu auprès de Louis XIV après sa dissidence sous la Fronde », déclarait-t-il avec emphase, en 2007 (entretien avec l’auteur).

Le 4 octobre 1999, c’est contre les 35 heures (« Tout le monde ne chausse pas du 35 ») qu’Ernest-Antoine Seillière, président du tout nouveau Mouvement des entreprises de France (Medef, créé de manière militante l’année précédente à Strasbourg), contribue à rassembler quelque 30 000 personnes selon les organisateurs :

« J’ai monté en province des réunions, des congrès, des shows, des rassemblements absolument sans cesse », affirmait le patron des patrons, tout en soulignant le plaisir qu’il prenait à la tribune (entretien avec l’auteur, 2009).

Dans les deux cas, ce sont une succession de discours militants plus ou moins décapants et de témoignages « d’entrepreneurs de terrain » qui constituent la réussite de ces événements classiques, avec écrans géants et quelques pancartes plus ou moins contrôlées.

Le meeting « énorme » 13 octobre 2025

Le meeting du 13 octobre 2025, annoncé comme « énorme », aurait pu se nourrir de ces précédents, ainsi que des prestations très travaillées de Laurence Parisot (remarquée en 2007 à Bercy ou en 2008 au Parlement européen), et aurait été nécessairement jaugé en fonction des performances passées.

Ses organisateurs avaient tenté d’en formuler la réception :

« Une forme républicaine, pacifique, qui rassemblera le patronat au-delà du Medef. On ne descendra pas dans la rue. On réunira massivement, comme ce fut le cas par le passé, sous forme de meeting, des milliers de chefs d’entreprise de tout profil (…) Pour bien signifier que nous refusons d’être la variable d’ajustement de politiques qui nous paraissent contraires à la bonne marche de l’économie et à l’intérêt du pays », expliquait ainsi Patrick Martin, l’actuel président du Medef.

Il s’agissait pour ce dernier de mettre en scène les récentes propositions issues du « Front économique » dont le dirigeant a pris l’initiative. Mais aussi de proposer ce que l’on pourrait qualifier de « business pride » (marche patronale des fiertés). On ne saurait en effet oublier que cette volonté de mobilisation exprime une cristallisation d’un vieux mal-être patronal français.

En effet, depuis de très nombreuses années, les porte-paroles du patronat et certains grands patrons développent un discours de victimisation, d’incompréhension face à ce qu’ils estiment être la surdité et l’incompétence de l’ensemble des politiques. Il s’agissait donc – non seulement d’interpeller le gouvernement et l’ensemble des partis politiques –, mais aussi d’affirmer la fierté d’être entrepreneur.

(Re)faire entendre la voix des patrons

Les précédentes grandes mobilisations avaient eu lieu sous des gouvernements de gauche. Celle de 2025 a éclos dans une autre conjoncture politique, peu lisible et incertaine. Elle fait écho aux prises de parole répétée des organisations patronales et de patrons médiatiques, dans l’espace public depuis la dissolution (MM. Arnault, Trappier, Pouyanné, Niel, ou encore Leclerc et Pigasse).

Avec la victoire de Donald Trump, les analyses relatives à la « trumpisation des patrons français » se sont multipliées, soulignant l’acceptation latente ou la cooptation de Jordan Bardella, président du Rassemblement national, comme moindre mal face à la menace de La France insoumise (LFI) ou du Nouveau Front populaire (NPF), ou encore face à la taxe Zucman (dont l’auteur a été vilipendé par Patrick Martin et Bernard Arnault) imposant les ultrariches.

Il y a sans doute plusieurs colères patronales, puisque leurs intérêts et leurs quotidiens sont incomparables et plusieurs anticipations de l’avenir (la catégorie patronale est la plus hétérogène de toutes les professions et catégories socioprofessionnelles). Tous les patrons ne peuvent pas se faire entendre de la même manière.

L'ombre du RN sur le meeting

Les déclarations de Michel Picon (président de l’U2P), fréquemment sollicité par les médias, sonnent comme une rupture de l’unité patronale (la « finance » contre « le travail »). La crainte d’une salle peu garnie et atone a sans doute pesé sur cette décision de report, mais la possibilité d’un cavalier seul des petites et moyennes entreprises dans les relations sociales à venir apparaît comme l’une des « peurs » du Medef, dont la représentativité tient plus au bon plaisir de l’État qu’à un rapport des forces militantes.

Il est vraisemblable que certains grands patrons ont rappelé à l’ordre leur « commis » et que certaines fédérations ont donné de la voix au sein du Medef.

L’explication officielle de Patrick Martin, expliquant le report du meeting par sa volonté de contribuer à « l’apaisement du pays » après la démission de Sébastien Lecornu n’est donc pas la seule explication à ce retournement.

L’ombre du RN planait aussi sur le meeting de Bercy. Les petits et tout petits patrons peuvent s’y retrouver, et les grands anticipent de possibles accommodements comparables à ceux de Giorgia Meloni et du patronat italien, quand d’autres radicalisent leur discours par l’acquisition de médias (Vincent Bolloré ou Pierre-Édouard Stérin, voire le raidissement de Bernard Arnault, également propriétaire de journaux).

Reporter le meeting de Bercy, c’est aussi se donner le temps de voir venir. Car les patrons sont suspendus à une conjoncture politique où ils vont devoir choisir : considérer l’arrivée possible au pouvoir du RN comme un danger, ou cultiver la politique du moindre mal.


Michel Offerlé est l’auteur de Ce qu’un patron peut faire, (Gallimard, 2021), et de Patron (Anamosa, 2024).

The Conversation

Michel Offerlé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.10.2025 à 14:40

Entretien avec Simon Sakaguchi, prix Nobel de médecine

Gemma Ware, Host, The Conversation Weekly Podcast, The Conversation

Listen to Shimon Sakaguchi, one of the 2025 Nobel laureates in medicine, talk about his research on The Conversation Weekly podcast.
Texte intégral (4108 mots)

Dans les années 1980, Shimon Sakaguchi, alors jeune chercheur en immunologie, peinait à obtenir des financements pour ses recherches. Aujourd’hui, ses travaux pionniers, qui ont permis de lever le voile sur la façon dont notre système immunitaire détermine à quoi s’attaquer (et à quel moment), viennent d’être récompensés par le prix Nobel de physiologie ou médecine. Dans cet entretien, il revient sur cette découverte majeure et ses implications médicales.


Le 6 octobre 2025, le Japonais Shimon Sakaguchi et les Américains Mary Brunkow et Fred Ramsdell se sont vus décerner le prix Nobel de physiologie ou médecine pour leurs travaux sur les lymphocytes T régulateurs (aussi appelés lymphocytes Treg), une classe particulière de cellules immunitaires qui empêchent notre système immunitaire de s’en prendre à notre propre corps.

Dans cet épisode du podcast The Conversation Weekly, Shimon Sakaguchi nous raconte comment il est parvenu à cette découverte, ainsi que son intérêt médical.

La transcription en francais de ce podcast est disponible en bas de cette page.


L’histoire commence par une intuition, née à la suite d’expérimentations réalisées par des collègues de Shimon Sakaguchi, au sein de l’Institut de recherche sur le cancer d’Aichi, à Nagoya. Ces derniers avaient procédé à l’ablation du thymus des souris nouvellement nées, trois jours après leur naissance. On savait déjà à cette époque que ce petit organe, situé derrière le haut du sternum chez l’être humain, jouait un rôle important dans le développement de l’autotolérance immunitaire. C’est en effet dans le thymus que les lymphocytes T qui risqueraient de s’attaquer à l’organisme sont isolés et détruits.

Si l’on retire le thymus d’une souris normale pendant la période néonatale, il semblait logique de s’attendre à ce qu’elle présente une déficience immunitaire, car ses lymphocytes auraient dû avoir disparu. Mais c’est exactement le contraire qui s’est produit chez les souris dont on avait ôté le thymus : elles ont développé des maladies auto-immunes, autrement dit des maladies au cours desquelles le système immunitaire s’en prend au corps qu’il est censé protéger. Ces maladies se sont avérées très similaires à celles observées chez l’être humain.

Ce résultat a intrigué Shimon Sakaguchi. En effet, contrairement aux souris opérées par ses collègues, les patients victimes de maladies auto-immunes possèdent toujours leur thymus. Le chercheur a alors émis l’hypothèse de l’existence d’un mécanisme commun entre les deux situations, qui expliquerait à la fois la survenue de maladies auto-immunes spontanées chez l’être humain, et le fait que des souris auxquelles on a enlevé le thymus développent néanmoins des maladies auto-immunes.

Via une nouvelle expérience, Shimon Sakaguchi a tenté d’empêcher l’emballement du système immunitaire de souris dépourvues de thymus. Pour cela, il a prélevé des lymphocytes T sur des souris génétiquement identiques aux souris opérées, et les a réinjectées à ces dernières. Ainsi traitées, les souris sans thymus ne développaient plus de maladie auto-immune. Conclusion du chercheur : « Cela suggérait qu’il devait exister une population de lymphocytes T capable d’empêcher le développement de ces maladies ».

Mais dans les années 1980, obtenir des fonds pour mener de telles recherches n’était pas chose aisée, car « la communauté des spécialistes en immunologie était très sceptique quant à l’existence de telles cellules », explique Shimon Sakaguchi. Parti pour plusieurs années aux États-Unis, le chercheur reconnaît avoir eu « beaucoup de chance » lorsqu’une fondation privée a accepté de soutenir ses travaux.

Dix ans de recherche supplémentaires ont été nécessaires avant qu’il puisse publier, en 1995, un article scientifique relatant sa découverte des lymphocytes T régulateurs. On sait aujourd’hui que ceux-ci sont en quelque sorte les agents de sécurité de l’organisme. Ils contrôlent les réactions indésirables et maintiennent l’équilibre du système immunitaire via un processus appelé tolérance périphérique. Leur dysfonctionnement peut être à l’origine de maladies auto-immunes. Les travaux ultérieurs de Shimon Sakaguchi et de ses co-récipiendaires du prix Nobel, Mary Brankow et Fred Ramsdell, ont permis de découvrir le gène Foxp3, qui contrôle spécifiquement les lymphocytes Treg.

Des maladies auto-immunes aux cancers, un fort potentiel

Au début de sa carrière,Shimon Sakaguchi s’intéressait aux maladies auto-immunes et à leurs origines. « Mais au fil de mes recherches, nous avons progressivement compris que les lymphocytes Treg constituaient un sujet plus important », souligne-t-il. On sait désormais que ces cellules sont impliquées dans la manière dont se développent les cancers, ainsi que dans la tolérance du greffon, en cas de transplantation d’organe.

Shimon Sakaguchi et ses collaborateurs travaillent également sur de nouvelles façons d’exploiter les lymphocytes Treg à des fins thérapeutiques, ainsi que sur la mise au point de protocoles permettant de convertir les lymphocytes T « auto-agressifs » en lymphocytes Treg, ce qui permettait espèrent de cibler spécifiquement les maladies auto-immunes dont ils sont responsables.

Son espoir est que, parmi les nombreux essais cliniques actuellement en cours dans le domaine de l’immunothérapie anticancéreuse en lien avec ces travaux, certains aboutissent à des solutions concrètes pour améliorer la prise en charge des patients. Il est également fasciné par de récents résultats de recherche qui suggèrent que les lymphocytes Treg seraient aussi impliqués dans les maladies liées à l’inflammation. Pour influer sur le potentiel de réparation des tissus endommagés, il pourrait être intéressant d’agir sur eux : « Les maladies neurodégénératives telles que la maladie d’Alzheimer ou la maladie de Parkinson sont associées à une inflammation. En ciblant uniquement ce type d’inflammation, nous pourrions peut-être [parvenir à] arrêter la progression de la maladie ou la retarder. Nous espérons que cette piste s’avérera réelle », conclut-il.


Cet épisode de The Conversation Weekly a été produit par Mend Mariwany et Katie Flood et est animé par Gemma Ware. Le mixage et la conception sonore ont été réalisés par Michelle Macklem et la musique du générique par Neeta Sarl.


Traduction française :


TC : Notre système immunitaire est une merveilleuse mécanique. Il est composé de nombreuses composantes qui interagissent, en particulier les anticorps et les lymphocytes T (des cellules immunitaires de type « globules blancs » qui interviennent à la fois dans la destruction des cellules infectées, la coordination de la réponse immunitaire et la mémorisation des infections). Ils nous protègent lorsque nous contractons une infection virale comme le Covid-19 ou la grippe, ou lorsque la consommation d’un curry douteux déclenche une intoxication alimentaire.

Mais chez certaines personnes, le système immunitaire dysfonctionne et s’emballe. Au lieu de cibler les bactéries ou les virus qui les menacent, il s’attaque à leur organisme, s’en prenant à leurs propres cellules. Quand cela arrive, des maladies auto-immunes peuvent se développer, telles que la polyarthrite rhumatoïde ou le diabète de type 1.

Comment notre système immunitaire sait-il contre quoi se battre, et à quel moment le faire ? Dans les années 1980, les scientifiques pensaient avoir trouvé la réponse. Ils avaient découvert que, lorsque de nouveaux lymphocytes T sont créés dans notre thymus (un petit organe situé à l’arrière de la partie supérieure du sternum), ceux qui risquent d’attaquer nos propres tissus sont éliminés. Les lymphocytes T survivants sont ensuite relâchés dans notre corps, où ils n’attaquent que les intrus. Ce concept est appelé la « tolérance au soi ».

Mais un jeune scientifique japonais, Shimon Sakaguchi, ne s’est pas satisfait de cette explication. Il a décidé de creuser davantage. Il soupçonnait que des lymphocytes T « auto-agressifs » pouvaient parvenir à s’échapper du thymus et se répandre dans l’organisme. Selon lui, un autre mécanisme existait pour faire face à ce cas de figure et contrôler lesdits lymphocytes T. Ce mécanisme fondamental aurait aussi expliqué la survenue de maladies auto-immunes spontanées chez l’être humain.

Il s’avère que Sakaguchi avait raison. En début de semaine, il a été l’un des trois scientifiques récompensés par le prix Nobel de médecine ou physiologie 2025 pour leur découverte des lymphocytes T régulateurs, appelés Treglymphocytes Treg.

Ces cellules immunitaires d’un type particulier sont en quelque sorte des gardes du corps de l’organisme ; leur rôle est d’aider à maintenir le système immunitaire en équilibre. Désormais, ces recherches alimentent des essais cliniques destinés à mettre au point des traitements pour lutter contre le cancer, le diabète, ou pour prévenir le rejet de greffes d’organes.

Je suis Gemma Ware, de The Conversation, un site d’actualité et d’analyse indépendant qui associe journalistes et universitaires. Bienvenue dans The Conversation Weekly, le podcast où des experts vous expliquent comment nous en sommes arrivés là.

TC : Shimon Sakaguchi, vous êtes professeur émérite à l’Immunology Frontier Research Centre de l’université d’Osaka au Japon et corécipiendaire du prix Nobel de physiologie ou médecine de cette année. Félicitations et bienvenue à The Conversation.

SS : Merci beaucoup.

TC : Je crois comprendre que vous étiez dans votre laboratoire lorsque vous avez reçu l’appel vous annonçant que vous aviez remporté le prix. Comment se sont passés les jours qui ont suivi ?

SK : C’était une merveilleuse surprise. J’ai ensuite reçu énormément de messages de félicitations du monde entier. C’est vraiment incroyable, et enthousiasmant.

TC : Revenons au début des années 1980. Vous travailliez alors à l’Institut de recherche sur le cancer d’Aichi, à Nagoya, au Japon. Comment en êtes-vous venu à vous intéresser au fonctionnement du système immunitaire ? SS : J’étais très intéressé par la tolérance immunologique. Le système immunitaire nous protège des microbes qui tentent de nous envahir. Mais d’un autre côté, parfois, il se retourne contre nous et provoque des maladies auto-immunes. Donc le système immunitaire est à la fois bon et mauvais. Le fait qu’il ne s’en prenne pas à nous, c’est ce que l’on appelle la tolérance au soi. Comprendre comment cette tolérance immunitaire est établie et maintenue, constitue un des thèmes clés de la recherche en immunologie.

TC : Vous vous intéressiez à une expérience menée auparavant par certains de vos collègues sur des souris nouveau-nées. Ils avaient retiré le thymus de ces souris trois jours après leur naissance. Comme le thymus est essentiel au développement de la tolérance immunitaire (c’est d’ailleurs de là que vient le nom des « lymphocytes T », le T étant pour « thymus »), ils pensaient que leur système immunitaire aurait été affaibli. Mais en réalité, ce qui s’est produit, c’est que leur système immunitaire s’est emballé et que les souris ont développé des maladies auto-immunes. Qu’est-ce qui vous intriguait tant dans cette expérience ?

SS : L’expérimentation qu’ils ont menée était très intéressante. En effet, si vous enlevez le thymus de souris normales pendant la période néonatale, vous vous attendriez à ce qu’elles présentent une déficience immunitaire, puisqu’elles n’ont alors plus de lymphocytes. Mais il s’est passé tout le contraire : elles ont développé des maladies auto-immunes. Des maladies très similaires à celles que l’on observe chez l’être humain. Il se passait donc là quelque chose d’intéressant. Évidemment, chez les patients humains [qui développent des maladies auto-immunes], le thymus n’a pas été retiré. Il devait donc exister un mécanisme commun capable d’expliquer [le résultat observé chez les souris ayant subi une ablation du thymus] et les maladies auto-immunes spontanées chez l’humain.

TC : Vous avez alors décidé d’une autre approche, pour voir si vous pouviez empêcher le système immunitaire des souris sans thymus de s’emballer. Vous avez prélevé des lymphocytes T sur des souris génétiquement identiques et les avez introduits dans l’organisme de celles auxquelles on avait enlevé le thymus. Qu’avez-vous découvert ?

SS : C’est tout à fait cela, et de cette façon, la survenue de maladies a pu être prévenue. Cela suggérait donc qu’il devait exister une population de lymphocytes T capable d’empêcher le développement des maladies [auto-immunes]. Une sorte de population « suppressive ».

TC : Racontez-nous ce moment où vous avez réalisé que les souris allaient bien et que vous aviez réussi à les protéger des maladies auto-immunes. Qu’avez-vous ressenti ?

SS : De l’excitation, et le sentiment qu’il s’agissait de quelque chose d’important. Puis que si nous analysions plus en profondeur ce phénomène, il pourrait peut-être nous apprendre un principe immunologique fondamental à propos de la tolérance. Je me disais que si je pouvais découvrir cela, disons, dans les dix ans, ce serait formidable. C’est là tout ce que j’espérais à cette époque.

TC : Aviez-vous conscience à ce moment-là d’avoir fait une grande découverte ?

SS : Une grande découverte ? Disons que dans le domaine de l’immunologie, c’était certainement quelque chose, car c’était essentiel pour comprendre les maladies immunologiques. Quant à savoir si c’était une « grande découverte » ou non… Cela allait dépendre de notre capacité à démontrer que nous pouvions guérir de telles maladies ou en empêcher le développement. À cette époque, il restait encore à savoir comment nous allions pouvoir généraliser ce que nous avions trouvé.

TC : Avez-vous rencontré des difficultés, dans les années 1980, pour poursuivre ces travaux de recherche ?

SS : Il n’a pas été facile d’obtenir des financements, car la communauté des spécialistes en immunologie était très sceptique quant à l’existence de tels lymphocytes. Mais à cette période, j’ai passé près de dix ans aux États-Unis, où j’ai eu beaucoup de chance, car une fondation privée, la Lucille P. Markey Foundation, a soutenu mes recherches pendant huit ans. Le soutien de jeunes chercheurs par des fondations privées était bien plus courant aux États-Unis qu’au Japon. J’espère que ce type de pratique ou de système se poursuivra, non seulement aux États-Unis, mais aussi au Japon.

TC : Vous aviez donc mené cette expérience sur des souris et réalisé qu’il existait un type particulier de lymphocyte T. Mais comprendre plus précisément de quoi il retournait vous a pris environ une décennie. Une fois que vous y êtes parvenu, vous avez baptisé ces lymphocytes T des lymphocytes T régulateurs, ou lymphocytes Treg. Il s’agit donc d’un type particulier de lymphocytes T, qui empêchent notre système immunitaire de surréagir et d’attaquer notre corps. Vous avez publié votre article sur les lymphocytes T régulateurs en 1995. Comment a-t-il été reçu à l’époque ?

SS : Avant cette date, les gens considéraient qu’il s’agissait d’un phénomène intéressant. Mais ce n’est que lorsque nous sommes parvenus à définir cette population grâce à un marqueur spécifique que tout le monde a pu observer les mêmes cellules que nous. Avant cela, les autres chercheurs ne pouvaient pas vérifier que ce que nous affirmions était vrai. Nous avons démontré que ces lymphocytes étaient exprimés fortement, et de façon constitutive. Chacun a ensuite pu reproduire nos expériences et le confirmer.

TC : En gros, ces lymphocytes T régulateurs que vous aviez identifiés circulent et empêchent tout lymphocyte T agressif qui se serait échappé du thymus d’attaquer notre corps. Si nous n’en possédons pas, nous risquons de développer une maladie auto-immune. Mais aujourd’hui, nous savons aussi que le rôle joué par les lymphocytes Treg est beaucoup plus large que cela. Pourquoi est-ce si important ?

SS : J’avais un intérêt pour les maladies auto-immunes, et leurs origines. C’était ce qui motivait mes recherches, ce qui en constituait la force directrice. Mais au fil de mes travaux, j’ai compris que les lymphocytes Treg étaient importants non seulement en matière de maladies auto-immunes, mais aussi pour l’immunité tumorale, la tolérance vis-à-vis des greffons, et plus récemment, la réparation des tissus. Ils ont donc de multiples fonctions. Tout ça est aujourd’hui très enthousiasmant.

TC : Revenons à l’époque où vous identifiiez ces lymphocytes T régulateurs. Vos collègues et corécipiendaires du Nobel, Mary Bruncko et Fred Ramsdell, travaillaient aux États-Unis à comprendre les gènes derrière une maladie auto-immune rare et invalidante. Dans le cadre de ces travaux, ils ont découvert le gène qui contrôle le fonctionnement des lymphocytes T régulateurs. Vous souvenez-vous de la publication de leur article, en 2001 ? Quelle a été votre réaction ?

SS : Nous avions remarqué cet article. Un gène avait été identifié et une anomalie ou mutation de ce gène provoquait non seulement des maladies auto-immunes, mais aussi des allergies et des maladies inflammatoires chroniques de l’intestin. Donc un seul gène était responsable de multiples pathologies immunologiques. Ledit gène avait été découvert, mais les auteurs n’avaient pas montré comment cette anomalie génétique entraînait ces maladies immunologiques.

Nous avons immédiatement commencé nos recherches sur ce gène, appelé FoxP3. Nous avons postulé qu’il devait être lié à la fonction ou au développement des Treg. Nous avons donc commencé diverses expérimentations, et publié nos résultats deux ans plus tard : nous avons démontré que ce gène était spécifique des lymphocytes T régulateurs.

TC : Les connaissiez-vous personnellement ? Étiez-vous en contact avec eux, scientifiquement parlant ?

SS : Non, je ne les connaissais pas à l’époque. Mais bien sûr, nous nous sommes rencontrés lors de congrès scientifiques, en particulier Fred Ramsdell. Ils avaient publié leurs découvertes et les présentaient également dans des colloques.

TC : Nous commençons seulement à comprendre ce que vos découvertes pourraient apporter en matière d’amélioration de la santé. Quelles sont, selon vous, les pistes de recherche les plus prometteuses et sur quoi travaillez-vous actuellement ?

SS : Les Treg sont spécialisées dans la suppression immunitaire. Cela signifie qu’en les renforçant ou en les multipliant, elles pourraient être utilisées pour traiter des maladies immunologiques, notamment les maladies auto-immunes, les allergies ou le syndrome de l’intestin irritable.

Ce qui est enthousiasmant, c’est que plus de 200 essais cliniques sont en cours : on prélève chez les patients des Treg naturellement présents dans leur organisme, on les multiplie puis et on les leur réinjecte.

Mais nous menons aussi des projets plus ambitieux : nous essayons de convertir des lymphocytes T effecteurs ou mémoires spécifiques d’une maladie — donc des « mauvais » lymphocytes — en Treg. Nous espérons de cette façon aboutir à une suppression spécifique d’un antigène ou d’une maladie (le terme « antigène » désigne tout élément étranger à l’organisme capable de déclencher une réponse immunitaire, ndlr).

TC : Ces « mauvais » lymphocytes T qui attaquent l’organisme, vous voulez les transformer en Treg pour qu’ils deviennent des gardes du corps ?

SS : Exactement. C’est ce que nous poursuivons actuellement.

TC : Quelles maladies ciblez-vous ?

SS : Diverses maladies auto-immunes, par exemple des maladies auto-immunes du foie, dont l’hépatite auto-immune, pour laquelle le seul traitement actuellement disponible est l’administration de corticostéroïdes (corticothérapie, ndlr).

TC : D’autres équipes s’intéressent aussi au cancer. Pouvez-vous expliquer comment cela fonctionnerait ?

SS : C’est un autre espoir en matière de recherche sur les lymphocytes Treg. Ces derniers sont abondants et très fortement activés dans les tissus cancéreux. La réponse immunitaire dirigée contre les cellules cancéreuses est de ce fait inhibée.

L’idée est de trouver une façon de réduire la quantité de Treg et ainsi améliorer la réponse immunitaire antitumorale. Nous espérons à terme parvenir à développer une petite molécule administrable par voie orale qui serait capable de renforcer ladite réponse en faisant diminuer le nombre de lymphocytes Treg présents dans les tissus tumoraux. Nous sommes encore loin de l’objectif, mais ce type de recherche nous intéresse au plus haut point.

TC : En lisant vos travaux, on se rend compte à quel point ils s’appuient sur les recherches de ceux qui vous ont précédé, non seulement au sein de votre propre laboratoire, mais aussi ceux qui ont œuvré durant les décennies précédentes, et qui pour certains ont aussi obtenu un prix Nobel. Qu’aimeriez-vous que l’on fasse de vos découvertes à l’avenir ?

SS : Eh bien, mon espoir immédiat est que les Treg deviennent un outil efficace pour traiter diverses maladies immunologiques, ou que l’on parvienne à les cibler dans le cadre d’immunothérapies anticancéreuses. J’espère que cela deviendra très prochainement une réalité clinique. Dans le même temps, des recherches récentes ont montré que ces lymphocytes ont aussi d’autres fonctions, en plus de leur rôle immunosuppresseur.

Concrètement, cela signifie qu’ils pourraient présenter un intérêt au-delà des maladies immunologiques, notamment dans le traitement de maladies neurodégénératives telles que les maladies d’Alzheimer ou de Parkinson, dans lesquelles l’inflammation joue un rôle. En ciblant cette inflammation, nous pourrions peut-être ralentir leur progression.

C’est une piste très intéressante, nous espérons qu’elle se confirmera, et que cette approche pourra fonctionner pour ce type de pathologies.

The Conversation

Shimon Sakaguchi est le fondateur scientifique et directeur de RegCell, une start-up japonaise qui travaille sur des traitements basés sur les lymphocytes T régulateurs. Il est également conseiller scientifique pour la société de biotechnologie Coya Therapeutics. Il a reçu des financements de l'Agence japonaise pour la recherche et le développement médicaux, de la Société japonaise pour la promotion de la science et pour des recherches collaboratives avec CHUGAI PHARMACEUTICAL, Otsuka Pharmaceutical et RegCell.

PDF

10.10.2025 à 11:37

La Fête de la science 2025 met toutes les intelligences à l’honneur

Laurent Bainier, Directeur de la rédaction The Conversation France, The Conversation

La Fête de la science 2025 explore le thème des « Intelligence(s) », de l’humaine à l’artificielle.
Lire + (322 mots)

Il est entre parenthèses, mais il donne tout son sens au thème. En ajoutant un « s » à « intelligence », pour son édition 2025, la Fête de la science (dont « The Conversation » est cette année encore partenaire) nous propose d’explorer toutes les formes d’intelligence.

Dans notre dossier spécial, vous trouverez donc aussi bien des articles sur l’IA, sur l’intelligence culturelle ou celle des animaux.

Mais en vidéo, cette année, nous avons voulu mettre l’accent sur deux formes bien spécifiques d’intelligence.

Tout d’abord celle qui permet de lutter contre la bêtise humaine. En poussant les portes de l’Inria, nous avons découvert les travaux de Célia Nouri, doctorante en intelligence artificielle, à la croisée du traitement automatique du langage et des sciences sociales. Elle développe des modèles de détection prenant en compte le contexte social et communautaire des propos haineux, modèle qui sert à mieux lutter contre le harcèlement en ligne.

Le Cnes nous a également ouvert ses portes et avec elles, l’horizon de nos préoccupations. Jacques Arnould, théologien et spécialiste en éthique du Centre national d’études spatiales, il nous encourage à réfléchir aux intelligences extraterrestres. Si demain nous devions en rencontrer, comment arriverions-nous à leur faire reconnaître notre intelligence ? Des pistes de réponse dans cette vidéo.

Jacques Arnould, expert du Cnes en matière d’éthique.
The Conversation
PDF

09.10.2025 à 15:33

Santé mentale : en finir avec la stigmatisation des troubles psychiques

Thibault Jaubert, Chercheur post-doctoral en psychologie sociale et de la santé, Université Savoie Mont Blanc; Université Paris Cité

Annique Smeding, Professeure des universités en psychologie sociale, Université Savoie Mont Blanc

Arnaud Carre, Professeur des Universités, Psychologue, Université Savoie Mont Blanc

Comment lutter contre les stéréotypes et les discriminations qui ciblent les personnes concernées par la dépression, la schizophrénie ou d’autres troubles en santé mentale ?
Texte intégral (2019 mots)

Les personnes concernées par la dépression, la schizophrénie ou d’autres troubles liés à l’altération de la santé mentale sont victimes de stéréotypes et comportements discriminatoires en raison de leur maladie. La Journée mondiale de la santé mentale du 10 octobre, sous l’égide de l’Organisation mondiale de la santé, est l’occasion de décrypter les causes de cette stigmatisation et de présenter des pistes explorées par la recherche pour la combattre.


Les troubles mentaux correspondent à des altérations de la santé mentale affectant le fonctionnement émotionnel, cognitif et social. Alors qu’on estime que près de la moitié de la population mondiale sera concernée au cours de sa vie dans la prochaine décennie, il faut faire face à un fardeau supplémentaire : la stigmatisation liée aux troubles mentaux.


À lire aussi : Troubles mentaux : quand la stigmatisation d’aujourd’hui reflète les conceptions d’hier


Être la cible de stigmatisations, c’est faire face à des stéréotypes négatifs, des préjugés et des comportements discriminatoires. Ce sont des freins majeurs à l’accès aux soins et au rétablissement.

Comment expliquer cette stigmatisation ? Et surtout, comment y remédier ? Des pistes concrètes existent.

Troubles mentaux et stigmatisation : un phénomène préoccupant et impactant

La stigmatisation des troubles mentaux pousse de nombreuses personnes concernées à minimiser ou à dissimuler leur condition, par crainte d’être jugées ou rejetées.

Contrairement à d’autres formes de handicap qualifiées de visibles, les troubles mentaux sont souvent peu apparents, ce qui les rend faciles à dissimuler. En parallèle, cette stigmatisation peut s’intérioriser, et les personnes ayant un trouble mental peuvent parfois intégrer les stéréotypes qui les visent.

Connu sous le terme d’« auto-stigmatisation », cet effet « Why try » (« À quoi bon essayer ») amène les personnes à se sentir incapables de changer leur condition. Ses conséquences ont un coût important pour les personnes concernées en retardant le recours aux soins, le rétablissement, mais aussi en favorisant l’isolement social.

Lutter contre la stigmatisation des personnes ayant un trouble mental représente un levier stratégique pour la mise en œuvre d’interventions à large échelle. Ce combat participe donc d’un défi en santé publique, au même titre que l’amélioration des parcours de soins, l’innovation thérapeutique (non médicamenteuse comme pharmacologique) et la mise en place d’actions de promotion et de prévention (comme préconisée par la « Feuille de route Santé mentale et psychiatrie, 2018 »).

Cela s’inscrit dans un contexte où les coûts – autant humains (personnels et familiaux), sociaux qu’économiques – sont considérables. En France, le coût annuel direct et indirect des troubles mentaux avait ainsi été estimé à 163 milliards d’euros pour l’année 2018.

D’où vient la stigmatisation des troubles mentaux ?

Une première cause de stigmatisation réside dans l’ensemble des croyances que les individus entretiennent vis-à-vis des troubles mentaux. Deux prédominent dans l’opinion publique : l’idée selon laquelle les individus ayant un trouble mental seraient responsables de leur trouble ; et le fait que les troubles mentaux sont perçus comme plus dangereux.

Par exemple, les personnes concernées par des troubles de l’humeur comme la dépression sont perçues comme ne parvenant pas ou ne faisant pas suffisamment d’efforts pour contrôler leurs pensées, leurs émotions ou leurs actions. Les troubles psychotiques, tels que la schizophrénie, sont associés à un risque perçu de violence ou de comportement imprévisible.

Ces croyances favorisent des émotions négatives, comme la peur ou la colère, ce qui encourage les comportements discriminatoires à l’égard des personnes ayant un trouble mental.

Lutter contre les croyances et développer des compétences socioaffectives

Les interventions qui promeuvent une compréhension de la complexité des troubles – incluant des causes biologiques, psychologiques et sociales – peuvent contribuer à remettre en question ces croyances.

Ce levier permet de déconstruire le stéréotype selon lequel les individus seraient responsables de leur état de santé mentale ou pourraient en sortir par un simple effort de volonté. Sensibiliser sur le rôle des facteurs, tels que les traumatismes précoces, les vulnérabilités économiques et sociales et les causes génétiques, aide à déconstruire les idées erronées d’autoresponsabilité et de dangerosité.

Au-delà des croyances, une seconde cause de stigmatisation tient aux compétences socioaffectives. Entre autres, le fait de ressentir de l’anxiété, de ne pas percevoir suffisamment de similarité et d’empathie envers les personnes ayant des troubles mentaux sont des facteurs favorisant la stigmatisation. Cela traduit souvent une difficulté à se représenter l’expérience vécue par les personnes concernées, à reconnaître leurs émotions et leurs besoins.

Les interventions encourageant le contact direct ou indirect avec des personnes ayant un trouble mental s’avèrent efficaces à court et moyen terme pour diminuer la stigmatisation. Leur potentiel s’explique par le fait qu’elles favorisent le développement de ces compétences. Cependant, des recherches sont nécessaires pour en évaluer les effets à long terme.

Explorer les atouts de la réalité virtuelle

Enfin, la réalité virtuelle s’affiche comme un autre levier d’action innovant. Elle permet aux individus de s’immerger dans des simulations interactives qui reproduisent des expériences associées à certains troubles mentaux (hallucinations auditives, épisodes anxieux).

Des recherches sont encore nécessaires. Mais si ses atouts étaient confirmés, la réalité virtuelle pourrait renforcer la compréhension de ce que signifie vivre avec un trouble mental au quotidien. Ces environnements immersifs semblent en effet réduire la stigmatisation sans nécessiter un contact direct réel.

Adapter les interventions de déstigmatisation aux contextes et aux publics

Il est important de préciser que l’efficacité des interventions de lutte contre la stigmatisation dépend évidemment de plusieurs facteurs, dont leur adéquation au contexte et aux publics visés. Les programmes de sensibilisation combinant connaissances et savoirs sont adaptés aux plus jeunes puisqu’ils sont peu coûteux, facilement intégrables en contexte scolaire, et semblent produire des effets chez les 10-19 ans.

Pour assurer leur efficacité, ces initiatives doivent être menées par des professionnels de santé, ou bien des enseignants ou personnes concernées expertes dûment formées. Auprès des adultes en revanche, les approches fondées sur le contact direct et mobilisant l’empathie apparaissent plus pertinentes.

Alors que certaines représentations, notamment dans les œuvres de science-fiction ou les faits divers médiatisés, véhiculent des messages caricaturaux et alarmistes qui renforcent certaines croyances, les ressources numériques et culturelles peuvent jouer un rôle dans la diffusion de représentations plus nuancées et inclusives des troubles.

De plus, la prise de parole de personnalités participe à la normalisation du sujet dans l’espace public au travers d’initiatives, telles que Pop & Psy. Des plateformes d’information, comme Psycom ou Santé mentale-Info service, facilitent l’accès à des contenus informatifs et de premières ressources accessibles au plus grand nombre.

Un enjeu d’inclusion sociale et de santé publique

La stigmatisation de la santé mentale soulève des enjeux relatifs à l’inclusion des personnes confrontées à diverses formes de vulnérabilité, et interroge plus largement les conditions de notre vivre-ensemble. En ce sens, déstigmatiser les troubles mentaux ne relève pas d’une simple sensibilisation individuelle, mais constitue un enjeu d’inclusion sociale et de santé publique.

Pour être efficaces, les politiques de lutte contre la stigmatisation doivent adopter une approche combinant la diffusion de connaissances sur les déterminants de la santé mentale, les initiatives fondées sur l’expérience (comme le contact direct ou la réalité virtuelle), tout en impliquant l’action coordonnée des acteurs éducatifs, médiatiques, et ceux de la santé.


Nicolas Rainteau, psychiatre au Centre hospitalier spécialisé de la Savoie, spécialiste de la réhabilitation psycho-sociale, membre associé à l’Université Savoie-Mont-Blanc, est coauteur de cet article.

The Conversation

Thibault Jaubert a reçu des financements de Fondation ARHM et Chaire BEST Santé Mentale.

Arnaud Carre a reçu des financements de la Fondation Université Savoie Mont Blanc.

Annique Smeding ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 15:33

Décoloniser les pratiques scientifiques : le cas du désert d’Atacama au Chili

Adrien Tavernier, Scientist in environmental sciences, Universidad de Atacama

Gabriel A. Pinto, Postdoctoral Researcher, Université Libre de Bruxelles (ULB)

Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ?
Texte intégral (2358 mots)

Est-il moral, éthique, voire tout simplement acceptable, que des projets de recherche soient menés dans des pays du « Sud global » sans qu’aucun scientifique local soit impliqué ? Une étude vient apporter une quantification de cette problématique dans la zone de la Puna sèche et du désert d’Atacama, en Amérique latine.


Tout travail de recherche scientifique implique, initialement, une revue bibliographique. Le but de ce travail préliminaire est de parcourir la littérature afin de compiler les informations susceptibles d’étayer la question principale à laquelle une équipe scientifique souhaite répondre.

C’est au cours de cette recherche bibliographique que notre équipe, travaillant sur la caractérisation environnementale de la Puna sèche et du désert d’Atacama, en Amérique du Sud, a eu l’impression que la plupart des travaux publiés jusqu’alors avaient été réalisés par des équipes étrangères, sans aucune implication de chercheurs appartenant à une institution locale.

Pour ramener la situation à la France, serait-il possible et acceptable que les Puys d’Auvergne ou la Mer de Glace soient étudiés exclusivement par des équipes issues d’organismes de recherche argentins, chiliens, péruviens ou boliviens sans participation de chercheurs appartenant à des institutions françaises ?

Localisation géographique de la Puna sèche (rouge) et du désert d’Atacama (jaune). Fourni par l'auteur

La Puna sèche et le désert d’Atacama sont des régions du globe à cheval sur quatre pays (Argentine, Bolivie, Chili et Pérou). Ces zones géographiques particulières ont pour caractéristique principale une aridité extrême qui façonne des paysages que beaucoup qualifierait spontanément de « lunaires » ou de « martiens ». Ces deux régions correspondent en effet à ce que l’on appelle, dans le jargon scientifique, des analogues planétaires : des lieux géographiques présents sur Terre mais qui peuvent s’apparenter à des environnements extraterrestres.

La Puna sèche et le désert d’Atacama sont ainsi considérés comme de bons analogues terrestres de Mars et pourraient présenter, à l’heure actuelle, des conditions physico-chimiques proches de ce que la planète rouge aurait pu connaître au cours de son histoire géologique. Ce sont donc de formidables laboratoires naturels pour les domaines des sciences planétaires et de l’astrobiologie. Leur rareté suscite également l’intérêt des scientifiques du monde entier.

Comparaison entre un paysage terrestre dans le désert d’Atacama lors d’une campagne de recherche de météorites et un paysage martien capturé par le rover Curiosity. Partie supérieure : Luigi Folco/Partie inférieure : NASA/JPL-Caltech/MSSS, CC BY

Comment passer d’une vague impression à une certitude de la prépondérance de travaux étrangers sur la zone géographique concernée ? Notre équipe francochilienne composée de géologues, de géophysiciens, d’astrophysiciens et de biologistes a mis en place une méthode systématique de comparaison des articles basés, d’une manière ou d’une autre, sur les caractéristiques exceptionnelles de la Puna sèche et du désert d’Atacama, dans les domaines des sciences planétaires et de l’astrobiologie.

Les résultats de cette étude ont été publiés en 2023 dans la revue Meteoritics and Planetary Science et notre impression a été confirmée : plus de 60 % des articles l’ont été sans impliquer un chercheur appartenant à une institution nationale d’un des pays abritant la Puna sèche et/ou le désert d’Atacama (5 369 articles analysés sur la sélection générale en sciences de la Terre, 161 pour les sciences planétaires et l’astrobiologie). Le déséquilibre mis en évidence est similaire à d’autres disciplines scientifiques et ne se limite pas à cette région.

La valorisation scientifique du patrimoine naturel de certains pays, sans contribution majeure des chercheurs locaux, suscite de plus en plus d’inquiétudes dans une partie de la communauté scientifique. Au cours de ce travail, nous avons découvert les termes relativement récents (depuis les années 2000) de sciences hélicoptères, sciences parachutes, sciences safari ou sciences néocoloniales (terme privilégié dans la suite de cet article) qui permettent de mettre des noms sur ces pratiques caractérisées par la mise en œuvre de projets de recherches scientifiques menées par des équipes de pays développés (Nord global) dans des pays en développement ou sous-développés (Sud global) sans aucune implication des chercheurs locaux.

Ces pratiques tendent à être considérées comme contraires à l’éthique et le sujet devient un thème de discussions et de publications au sein des sciences dures : le plus souvent sous forme de diagnostic général, mais aussi en termes de quantification.

Certaines revues scientifiques, dont Geoderma (référence du domaine en science du sol) a été l’un des pionniers à partir de 2020, ont pris l’initiative d’un positionnement sans équivoque contre les pratiques de sciences néocoloniales ouvrant la voie à la modification des lignes éditoriales afin de prendre en compte la nécessité d’impliquer les chercheurs locaux dans les publications scientifiques.

C’est le cas par exemple de l’ensemble des journaux PLOS qui exigent, depuis 2021, le remplissage d’un questionnaire d’inclusion de chercheurs locaux pour une recherche menée dans un pays tiers, exigence qui a depuis fait des émules au sein du monde de l’édition scientifique.

L’exigence éthique vis-à-vis des recherches menées dans des pays étrangers devient donc un standard éditorial important mais pas encore majeur. D’autres leviers pourraient cependant être activés comme des cadres législatifs nationaux ou internationaux restrictifs imposant la participation de chercheurs locaux dans des travaux de terrain menés par des scientifiques étrangers.

En France par exemple, la mise en place de programmes de recherche dans des territoires exceptionnels comme les îles Kerguelen (territoire subantarctique français de l’océan Indien) ou la terre Adélie en Antarctique nécessite que le projet soit porté par un scientifique, agent titulaire d’un organisme de recherche public français. Des modèles permettant d’éviter cette problématique d’appropriation culturelle d’un patrimoine naturel scientifique par des chercheurs appartenant à des institutions étrangères existent donc déjà et constituent autant de ressources sur lesquelles se fonder afin de limiter ces pratiques de sciences néocoloniales. Il nous semblerait cependant nécessaire que la communauté scientifique procède à une introspection de ces pratiques.

C’est tout l’enjeu de l’étude que nous avons menée et des travaux similaires qui se généralisent depuis quelques années : rendre ces pratiques de sciences néocoloniales visibles, notamment en quantifiant le phénomène, afin que cette problématique soit débattue au sein de la communauté. Cela a notamment permis à notre équipe de se poser des questions fondamentales sur ses pratiques scientifiques et de (re)découvrir les apports conséquents menés, depuis plus de 60 ans, par les sociologues et les épistémologues sur les racines profondes et historiques pouvant lier colonialisme, impérialisme et science et plus généralement des relations entre centre et périphérie (par exemple les déséquilibres, au sein d’un même pays, entre institutions métropolitaines ou centrales vis-à-vis des institutions régionales).

L’exemple des analogues terrestres de la Puna sèche et du désert d’Atacama illustre ainsi les écarts économique, scientifique et technologique creusés progressivement entre le Nord et le Sud global. Les sciences planétaires et l’astrobiologie, ont été historiquement liées au développement technologique de programmes spatiaux ambitieux et extrêmement coûteux dont souvent les principales ambitions n’étaient pas scientifiques. Les pays du Sud global n’ont ainsi pas eu l’opportunité de profiter de la conquête spatiale de la seconde moitié du XXe siècle pour développer une communauté scientifique locale en sciences planétaires et en astrobiologie.

Des efforts sont actuellement menés au sein du continent sud-américain afin de pallier cette situation et ainsi faciliter l’identification d’interlocuteurs scientifiques locaux par des chercheurs d’institutions étrangères souhaitant mener des recherches en sciences planétaires ou en astrobiologie en Amérique du Sud. Des démarches vertueuses entre certains chercheurs sud-américains et leurs homologues du Nord global ont aussi été menées afin de développer ex nihilo des initiatives de recherche locales dans des domaines spécifiques des sciences planétaires et de l’astrobiologie (par exemple, vis-à-vis d’un cas que notre équipe connaît bien, la recherche sur les météorites au Chili).

Dans le domaine de l’astronomie, à la marge donc des sciences planétaires et de l’astrobiologie, la mise en place des grands observatoires internationaux sur le sol chilien a permis la structuration d’une communauté locale d’astronomes et représente ainsi un bon exemple de début de coopération fructueuse entre le Nord et le Sud global. N’oublions pas de citer aussi le développement remarquable et exemplaire de l’astrobiologie au Mexique, dans les pas des scientifiques mexicains Antonio Lazcano et Rafael Navarro-González, qui démontre qu’une structuration locale indépendante reste possible et peut induire une dynamique positive pour l’ensemble du continent sud-américain.

Toutes ces initiatives restent cependant trop rares ou encore trop déséquilibrées au profit d’un leadership du Nord global et ne peuvent, selon nous, se substituer à une introspection profonde des pratiques de recherche scientifique. Dans un contexte où la légitimité des sciences est contestée, cet effort d’autocritique émanant de la communauté scientifique ne nous semblerait pas superflu.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

09.10.2025 à 15:32

Les défis du réarmement de l’Europe : réveil stratégique ou chaos organisé ?

Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)

Le réarmement européen est nécessaire, au vu de la menace russe et des doutes pesant sur la pérennité de la protection fournie par les États-Unis.
Texte intégral (2787 mots)

Après des décennies passées à cueillir les « dividendes de la paix », les Européens réarment à grande vitesse, mais de façon désorganisée, voire confuse. Or, la sécurité du continent dépend de la mise en œuvre d’une politique militaire pensée de façon collective et fondée sur une industrie de défense qui deviendrait nettement moins dépendante des États-Unis.


Face à la rhétorique agressive de la Russie, à ses provocations verbales et à ses opérations d’intimidation de plus en plus fréquentes, les États européens réarment. L’attitude illisible de l’administration Trump les incite encore davantage à prendre leur destin en main en matière de défense.

Mais les achats d’armements se font en ordre dispersé. Les Européens (membres de l’UE ou non) continuent de largement dépendre des États-Unis dans ce domaine ; et leur industrie de défense se développe avec une grande lenteur, malgré de progrès récents.

La fin d’une illusion

La guerre en Ukraine a été un révélateur pour les Européens. Après plus de trois décennies de désarmement prononcé pour toucher les fameux « dividendes de la paix » post-guerre froide, les budgets augmentent, accompagnés d’annonces sur des commandes de chars, d’avions de combat, de missiles.

La réactivation des réserves est mise en avant, tout comme la relance des industries d’armement. Ce mouvement, bien que tardif, illustre un gros progrès. L’Europe ne se considère plus comme un continent riche, trop heureux de confier sa protection (notamment nucléaire) aux États-Unis, sans avoir à livrer de véritables efforts propres. En cela, les critiques venues de Washington relatives au manque d’investissements des pays européens dans leur défense étaient parfaitement justifiées.

Mais ce réarmement, aussi nécessaire soit-il, se fait dans le désordre et dans la précipitation, car il est plus guidé par la peur ou par la prise de conscience que par la planification. L’UE, certes, dépense davantage, mais ne réussit pas à définir une vision d’ensemble pour bâtir une défense, sinon intégrée, tout au moins organisée.

Selon l’Institut international de recherche sur la paix de Stockholm (SIPRI), les dépenses militaires européennes ont augmenté de manière historique de 17 % en 2024, atteignant 693 milliards de dollars. La totalité des pays de l’UE, à l’exception de Malte, ont accru leurs budgets militaires. L’Allemagne, longtemps à la traîne en matière de dépenses militaires, a bondi de 28 %, à 88,5 milliards, devenant le quatrième investisseur militaire mondial, ce qui aurait été absolument inimaginable il y a seulement quelques années.

La Pologne est le pays qui consacre le plus gros pourcentage de son PIB à la défense : 4,2 % aujourd’hui contre 2 % en 2021, ce qui marque un effort colossal. L’objectif est d’atteindre 5 % en 2026. En moyenne, même si le chiffre paraît moins spectaculaire, les pays de l’UE ont progressé de 0,2 % en termes de pourcentage du PIB, passant à une moyenne de 1,3 % à 1,5 % en deux ans.

Les fameux dividendes de la paix sont désormais bien derrière nous. La sécurité extérieure redevient centrale, comme au temps de la guerre froide, mais dans un désordre qui fragilise notre souveraineté collective.

Un réarmement en ordre dispersé

Sur la carte du réarmement européen, on distingue autant de stratégies que d’États. L’Allemagne investit son Zeitenwende (changement d’ère) dans des achats auprès des États-Unis : avions F-35, missiles Patriot, hélicoptères CH-47 Chinook…

La France, avec une loi de programmation militaire 2024-2030 de 413 milliards d’euros, mise sur l’autonomie et la dissuasion nucléaire, et reste tournée vers son industrie nationale, particulièrement complète.

L’Italie et l’Espagne modernisent leur marine et leur aéronautique (programmes FREMM, Eurofighter), tout en demeurant très liées à l’Oraganisation du traité de l’Atlantique Nord (Otan). Les pays baltes et scandinaves se concentrent sur la défense territoriale (fortification des frontières) et les infrastructures d’accueil de troupes alliées.

L’Europe se réarme de manière anarchique : les Tchèques achètent des boucliers antimissiles, les Allemands lancent des satellites, la Lituanie achète des drones turcs ou israéliens, sans qu’un effort de coordination et de rationalisation des achats n’apparaisse.

Certes, cette diversité reflète des besoins réels et pressants, car les différents pays n’éprouvent pas le même sentiment d’urgence, du fait de la géographie mais également des menaces perçues comme directes ou plus lointaines, ou en raison des traditions militaires. Mais l’absence de coordination produit une fragmentation industrielle et opérationnelle. Les armées européennes utilisent aujourd’hui près de 180 systèmes d’armes différents, contre une trentaine aux États-Unis. Cette hétérogénéité augmente les coûts, complexifie la logistique – avec d’innombrables pièces détachées différentes et les compétences multiples qu’il est nécessaire d’entretenir – et, in fine, rend très délicate l’interopérabilité, c’est-à-dire la capacité des systèmes d’armes et donc des armées à travailler ensemble.

Achats d’équipements auprès d’acteurs extérieurs

La Pologne illustre les contradictions qu’engendrent les besoins immédiats de sécurité et l’incohérence stratégique. Ce grand pays, encore en avance sur l’Allemagne en matière de dépenses militaires, est devenu la locomotive militaire de l’Europe, au moins de l’Est, mais au prix d’une dépendance massive à des fournisseurs non européens.


À lire aussi : Le réarmement massif de la Pologne : causes, conséquences et controverses


En août 2025, Varsovie a signé avec la Corée du Sud un contrat portant sur la livraison de 180 chars K2 Black Panther, pour environ 6,5 milliards de dollars, après un premier contrat d’également 180 chars en 2022 ; 61 chars seront assemblés localement sous licence. En parallèle, Varsovie achète à Séoul des obusiers K9 et des avions FA-50, mais n’oublie pas ses alliés américains en acquérant des chars Abrams.

La Pologne s’est donc tournée vers des fournisseurs capables de livrer rapidement des armes de qualité lui permettant une montée en puissance réelle. Ces avantages sont malheureusement accompagnés pour ce pays d’inconvénients réels. La Pologne dépend de la logistique étrangère, et la maintenance de matériels variés se complexifie tant en termes de pièces détachées que de compétences diverses sur des matériels différents.

Mais Varsovie n’est pas seule dans cette situation. Nous le savons déjà : via l’Otan, les États-Unis sont dominants dans la sécurité européenne. Leur parapluie nucléaire en est une forte illustration. De plus, les États-Unis sont, sur le plan industriel, le principal fournisseur des pays européens. Les avions F-35, expression de cette domination, sont désormais l’avion standard de plusieurs forces aériennes européennes. L’Allemagne a prévu 35 appareils, dont les premières livraisons interviendront en 2026, la Belgique en a commandé 34, la Pologne 32 et le Danemark 27, déjà en cours de réception. La Finlande a signé pour 64 exemplaires, livrés progressivement jusqu’en 2030, tandis que la Grèce prévoit jusqu’à 40 avions. La Norvège et les Pays-Bas ont chacun acquis 52 appareils, déjà pour la plupart opérationnels. L’Italie dispose d’environ 90 F-35, le Royaume-Uni en a prévu 138, dont une soixantaine déjà livrés. Enfin, la Suisse en a commandé 36 exemplaires, livrables à partir de 2027, et la République tchèque 24, dont les premières livraisons sont attendues vers 2031.

On le voit, de nombreux pays européens ont préféré privilégier la relation avec les États-Unis, quitte à acheter un système d’armes verrouillé. En effet, les F-35 lient leurs utilisateurs au réseau logistique américain en termes de maintenance, de formation et de mise à jour logicielle.

Cette dépendance technologique pose un problème stratégique majeur, a fortiori lorsque les États-Unis sont dirigés par une administration chaotique et imprévisible et dont l’engagement au sein de l’Otan semble plus que fragile : l’Europe ne contrôle ni ses codes sources, ni sa maintenance, ni ses calendriers d’évolution. En cas de crise transatlantique, cette vulnérabilité pourrait, en quelques semaines, dégrader très fortement les performances de sa flotte de F-35.

Ainsi, l’Europe, incapable de se détacher de la tutelle de Washington, achète sa sécurité en quelque sorte à crédit politique, sans garantie solide. Emmanuel Macron l’a souligné à la Sorbonne, en avril 2024 : « Le moment est venu pour l’Europe de devenir puissance. » Parole précieuse, mais sans grande portée tant que l’Europe se contente d’être une cliente, vulnérable aux intentions de Washington.

La dépendance vis-à-vis des États-Unis pourrait être pleinement justifiée si nous ne disposions pas de la base technique et industrielle pour posséder une véritable autonomie stratégique en matière de défense. La réalité est tout autre ; Airbus, Dassault, Thales, Leonardo, Safran, MBDA, Rheinmetall, Nexter sont autant de champions mondiaux. L’Europe dispose du savoir-faire en quantité, mais manque de coordination et de volonté politique.

Les programmes Scaf (Système de combat aérien du futur) et MGCS (char européen) symbolisent ces lenteurs. Le premier devait incarner l’avenir de la supériorité aérienne européenne. Pourtant, ce projet cumule retards et tensions entre industriels et États membres. Le second, censé succéder au Leopard 2 et au Leclerc, connaît également de grandes difficultés. L’incapacité des Européens à s’entendre profite de manière quasi automatique à leurs concurrents. Les prototypes de chars et de chasseurs des États-Unis et de la Corée du Sud pourraient être opérationnels autour des années 2030. Dans ce cadre, l’ironie est lourde : l’Europe risque de devenir acheteuse de technologies qu’elle aurait pu inventer.

L’UE tente de réagir en mettant sur pied le Fonds européen de défense (Fedef) et l’Agence européenne de défense (AED). Cependant, leurs moyens sont dérisoires (environ 8 milliards d’euros sur la période 2021-2027) et ils sont dénués de véritable gouvernance politique et budgétaire.

Nous le comprenons, la question n’est pas industrielle. L’Europe a la base technique et industrielle. Le problème est politique : les pays européens acceptent-ils de partager entre eux leur souveraineté ? Ils en sont capables, le passé l’a montré, mais la situation géopolitique actuelle nous empêche de tergiverser plus longtemps.

L’autre question essentielle est relative aux États-Unis : l’Europe peut-elle, tout en restant leur alliée, s’affranchir, au moins partiellement, de leur tutelle ? Aucun pays n’apporte de réponse identique à cette question centrale.

Les conditions de la souveraineté militaire

Plusieurs axes s’imposent pour construire une industrie de défense européenne qui entraînera un esprit de défense européen : harmoniser les normes ; mutualiser les achats ; conditionner les contrats étrangers ; créer un « Buy European Act » (équivalent du Buy American Act, une loi américaine de 1933), qui obligerait l’Europe à privilégier les entreprises et produits fabriqués en Europe dans ses marchés publics, et notamment dans la défense ; renforcer le Fedef et élaborer une doctrine commune.

Compte tenu des rapports très différents que les pays entretiennent avec Washington, il est important de montrer à toutes les parties prenantes que ces mesures ne visent pas à se découpler des États-Unis, mais seulement à rééquilibrer la relation transatlantique. Une alliance forte repose sur des partenaires autonomes et libres.

Réarmer est nécessaire. Il ne s’agit pas seulement d’aider l’Ukraine, même si cette dimension demeure. Il s’agit de tenir à distance la Russie, dont on peut parier de la permanence de l’agressivité pendant des décennies.

Réarmer ne couvre pas tout le champ de la défense. Cette dernière engage aussi la diplomatie, la technologie, l’énergie, la résilience des sociétés. Or, malgré les appels et le début de certaines réalisations, l’Europe reste très dépendante en matière d’énergie (gaz américain), de semi-conducteurs (Taïwan et Corée du Sud), du numérique (Gafam)… Une entité politique sans souveraineté ne peut être une puissance. Une souveraineté militaire – ce qui constitue déjà un véritable défi – sans souveraineté industrielle, énergétique et numérique est une illusion.

Pour autant, le réarmement européen met fin à la naïveté stratégique née des années 1990 et, probablement, à l’opportunisme économique dégagé des contraintes de défense. Mais il ne sera durable que s’il s’accompagne d’un sursaut collectif. Un sursaut collectif qui impose de penser l’Europe non plus seulement comme un marché, mais également comme une source de puissance.

L’Europe est une puissance économique avec des moyens et des cerveaux. Elle peut acquérir une souveraineté en matière de défense tout en continuant de coopérer avec les États-Unis, à considérer désormais non plus comme des amis mais comme des alliés. Les États-Unis demeurent un partenaire essentiel, mais n’ont pas à mettre l’Europe sous tutelle. L’Europe-puissance que nous appelons de nos vœux aura pour conséquence de ne plus accepter ce type de relations.

L’Europe est riche et capable. Mais il lui manque la cohésion, la volonté d’agir et la compréhension de la notion de puissance. Elle réarme. Cette évolution est satisfaisante. Mais elle doit réarmer ensemble dans le cadre d’un projet, au risque, sinon, de demeurer un géant économique, sous parapluie américain, parapluie de plus en plus troué d’ailleurs.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 15:32

Europe is allowing itself to be dominated by the US. It just isn’t admitting as much

Sylvain Kahn, Professeur agrégé d'histoire, docteur en géographie, européaniste au Centre d'histoire de Sciences Po, Sciences Po

Being honest about US influence during Donald Trump’s second term could help Europe resist it.
Texte intégral (1330 mots)

For 80 years, Europe maintained an asymmetric yet cooperative relationship with the United States. This imbalance, long accepted as the price of stability and protection, has shifted dramatically under US President Donald Trump. What was once a strategically uneven interdependence has become an unbreakable grip, which is used to exert pressure while being denied by its victims.

In my book, l’Atlantisme est mort ? Vive l’Europe ! (Is Atlanticism Dead? Long Live Europe!), I describe this shift by introducing the concept of “emprisme”: a permitted grip in which Europeans, believing themselves to be partners, become dependent on a power that dominates them without their full awareness.

Emprisme does not merely refer to influence or soft power, but an internalised strategic subordination. Europeans justify this dependence in the name of realism, security, or economic stability, without recognising that it structurally weakens them.

In Trump’s worldview, Europeans are no longer allies but freeloaders. The common market enabled them to become the world’s largest consumer zone and strengthen their companies’ competitiveness, including in the US market. Meanwhile, through NATO, they let Washington bear the costs of collective defence.

The result? According to Trump, the US – because it is strong, generous, and noble – is being “taken advantage of” by its allies. This narrative justifies a shift: allies become resources to exploit. It is no longer cooperation, but extraction.

Ukraine as a pressure lever

The war in Ukraine perfectly illustrates this logic. While the EU mobilized to support Kyiv, this solidarity became a vulnerability exploited by Washington. When the Trump administration temporarily suspended Ukrainian access to US intelligence, the Ukrainian army became blind. Europeans, also dependent on this data, were left half-blind.

The administration’s move was not a mere tactical adjustment, but a strategic signal: European autonomy is conditional.

In July 2025, the EU accepted a deeply unbalanced trade agreement imposing 15% tariffs on its products, without reciprocity. The Turnberry agreement was negotiated at Trump’s private estate in Scotland – a strong symbol of the personalization and brutalization of international relations.

At the same time, the US stopped delivering weapons directly to Ukraine. Europeans now buy American-made arms and deliver them themselves to Kyiv. This is no longer partnership, but forced delegation.

From partners to tributaries

In the logic of the MAGA movement, which is dominant within the Republican Party, Europe is no longer a partner. At best, it is a client; at worst, a tributary.

In this situation, Europeans accept their subordination without naming it. This consent rests on two illusions: the idea that this dependence is the least bad option, and the belief that it is temporary.

Yet many European actors – political leaders, entrepreneurs, and industrialists – supported the Turnberry agreement and the intensification of US arms purchases. In 2025, Europe accepted a perverse deal: paying for its political, commercial and budgetary alignment in exchange for uncertain protection.

It is a quasi-mafia logic of international relations, based on intimidation, brutalization and the subordination of “partners”. Like Don Corleone in Frances Ford Coppola’s The Godfather, Trump seeks to impose an unpredictable American protection in exchange for an arbitrary price set unilaterally by the US.

Emprisme and imperialism: two logics of domination

It is essential to distinguish emprisme from other forms of domination. Unlike President Vladimir Putin’s Russia, whose imperialism relies on military violence, Trump’s US does not use direct force. When Trump threatens to annex Greenland, he exerts pressure but does not mobilize troops. He acts through economic coercion, trade blackmail, and political pressure.

Because Europeans are partially aware of this and debate the acceptable degree of pressure, this grip is all the more insidious. It is systemic, normalized, and thus hard to contest.

Putin’s regime, by contrast, relies on violence as a principle of government – against its own society and its neighbours. The invasion of Ukraine is its culmination. Both systems exercise domination, but through different logics: Russian imperialism is brutal and direct; US emprisme is accepted, constraining, and denied.

Breaking the denial

What makes emprisme particularly dangerous is the denial that accompanies it. Europeans continue to speak of the transatlantic partnership, shared values, and strategic alignment. But the reality is one of accepted coercion.

This denial is not only rhetorical: it shapes policies. European leaders justify trade concessions, arms purchases, and diplomatic alignments as reasonable compromises. They hope Trump will pass, that the old balance will return.

But emprisme is not a minor development. It is a structural transformation of the transatlantic relationship. And as long as Europe does not name it, it will keep weakening – strategically, economically and politically.

Naming emprisme to resist it

Europe must open its eyes. The transatlantic link, once protective, has become an instrument of domination. The concept of emprisme allows us to name this reality – and naming is already resisting.

The question is now clear: does Europe want to remain a passive subject of US strategy, or become a strategic actor again? The answer will determine its place in tomorrow’s world.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Sylvain Kahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 15:32

L’intelligence, un concept aux multiples facettes

Romuald Blanc, MCU-Psychologue clinicien, Université de Tours

Le concept d’intelligence continue à échapper au consensus scientifique. Pourtant, depuis plus de cent vingt ans, divers modèles ont été élaborés pour tenter d’en cerner les contours. Voici les plus importants d’entre eux.
Texte intégral (2194 mots)

Qu’est-ce que l’intelligence ? Comment la définir, et l’évaluer ? Il n’existe pas de réponse simple à ces questions, qui ont fait l’objet de nombreux travaux de recherche. Voici quelques pistes de réflexion.


L’intelligence est un concept complexe, qui englobe plusieurs sortes de capacités cognitives, comme la résolution de problèmes, la pensée abstraite, l’apprentissage et l’adaptation.

Elle ne se limite pas aux performances scolaires, mais inclut aussi des dimensions émotionnelles (l’ajustement émotionnel aux autres, la capacité à agir sur ses propres émotions ou « autorégulation émotionnelle »), sociales (l’adaptation sociale et prise en compte des règles et des conventions sociales qui régissent les relations humaines) et pratiques (l’adaptation au quotidien).

Pour cette raison, définir l’intelligence et l’évaluer est une tâche ardue. Les experts eux-mêmes peinent encore à s’accorder sur sa nature (unique ou multiple), son origine (innée ou acquise) ou ses mécanismes (concernant les processus cognitifs sous-jacents).

Si de nombreux modèles d’intelligence ont été proposés, jusqu’à présent, aucun consensus scientifique incontesté n’a émergé. Globalement, 3 grandes façons de définir l’intelligence se dessinent : les modèles factoriels, les approches dites « multiples » et les modèles neurocognitifs. Voici ce qu’il faut en retenir.

Les modèles factoriels

Parmi les modèles factoriels, citons le modèle mis au point par Charles Edward Spearman, psychologue britannique. Développé en 1904, il repose sur le calcul d’un facteur général d’intelligence (appelé « facteur g »). Celui-ci serait commun à toutes les tâches cognitives, tandis que pour chaque activité il existerait des facteurs spécifiques : un facteur verbal pour le langage, un facteur spatial, etc. Ces « facteurs mentaux » sont déterminés grâce à une méthode mathématique appelée analyse factorielle.

Le modèle de Spearman implique que toutes les performances intellectuelles sont corrélées. L’intelligence serait donc une capacité unique. Bien que critiqué pour son caractère réducteur, il reste une référence dans la psychométrie et la conception des tests de quotient intellectuel.

Dans les années 1930, Louis Leon Thurstone, un psychologue américain, conteste cette vision. Il affirme que l’intelligence n’est pas une capacité unique, mais un ensemble de compétences mentales primaires indépendantes. En se basant sur des analyses factorielles de tests d’intelligence qu’il a fait passer à des étudiants, il détermine qu’il existerait 7 aptitudes mentales primaires : la compréhension verbale, la fluidité verbale, les aptitudes numériques, la visualisation spatiale, la mémoire, la vitesse perceptive et le raisonnement inductif.

En 1963, dans la lignée de ces travaux, le psychologue anglo-américain Raymond Bernard Cattell défend l’idée que l’intelligence générale se divise en deux catégories principales : l’intelligence fluide, qui correspond à notre capacité à traiter de nouvelles informations, à apprendre et à résoudre des problèmes ; et l’intelligence cristallisée, qui s’apparente à nos connaissances stockées, accumulées au fil des ans.

Ce dernier modèle a influencé de nombreux tests d’intelligence modernes, comme les échelles d’intelligence de Wechsler. Il explique pourquoi certaines personnes âgées peuvent exceller dans des domaines nécessitant des connaissances établies, malgré une baisse de leurs capacités de raisonnement abstrait. Il est utilisé en psychologie cognitive et en neurosciences pour étudier le vieillissement cognitif.

Les approches multiples de l’intelligence

En se positionnant face aux modèles antérieurs, jugés réducteurs, le psychologue états-unien Howard Gardner a développé, au début des années 1980, un autre modèle de l’intelligence, intégrant les composantes sociales et culturelles. Son intérêt pour des populations atypiques telles que les enfants dits « prodiges », les « idiots-savants », ou encore les personnes avec autisme lui ont permis de prendre en considération des différentes facettes de l’activité cognitive, en respectant des différences de chacun selon ses forces, ses faiblesses et ses styles cognitifs.

Il définit ainsi huit grandes facettes de l’intelligence : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle et naturaliste. Gardner propose que chacun peut développer ces intelligences à différents niveaux et qu’il existe de nombreuses façons d’être intelligent dans chacune de ces catégories.

Bien que novateur, ce modèle est critiqué pour son manque de fondement scientifique et la subjectivité de ses catégories. Certains chercheurs y voient plutôt des talents que de véritables formes d’intelligences, et son efficacité pédagogique reste à démontrer. Des critiques suggèrent que la théorie des intelligences multiples manque de fondements scientifiques solides et repose sur des catégories subjectives, souvent perçues davantage comme des talents ou des traits de personnalité que comme des formes distinctes d’intelligence.

En 1985, le psychologue américain Robert Sternberg propose un modèle triarchique de l’intelligence, intégrant des aspects cognitifs, créatifs et pratiques. Il distingue trois formes d’intelligence : analytique (résolution de problèmes logiques), créative (pensée originale et adaptation à la nouveauté) et pratique (adaptation au quotidien, intelligence sociale).

Contrairement à Spearman et Thurstone, qui envisagent l’intelligence comme un ensemble de capacités cognitives mesurables (facteur g ou aptitudes primaires), Sternberg la conçoit comme un processus adaptatif. Être intelligent, c’est savoir s’adapter à de nouvelles situations, choisir des environnements favorables et les modifier si nécessaire.

Réussir à s’intégrer dans un nouvel environnement culturel illustre par exemple cette intelligence pratique et contextuelle. Là où Spearman ou Thurstone y verraient l’expression d’aptitudes générales (raisonnement, compréhension), Sternberg y voit surtout la mise en œuvre de stratégies d’adaptation à un contexte changeant.

La théorie de Sternberg est plus étayée empiriquement que celle de Gardner, car ses composantes (analytique, créative, pratique) peuvent être testées et appliquées en éducation ou en milieu professionnel, pour mieux évaluer les compétences individuelles. La typologie proposée par Gardner, séduisante, est en revanche moins validée scientifiquement.

Si Sternberg reste plus opérationnel et crédible sur le plan scientifique, les deux approches complètent les modèles psychométriques, en mettant l’accent sur l’adaptation et le contexte.

Les modèles neurocognitifs de l’intelligence

Les modèles les plus récents d’intelligence s’appuient sur les connaissances acquises notamment grâce aux progrès effectués en neuro-imagerie (notamment grâce à l’IRM fonctionnelle, qui permet d’observer le fonctionnement cérébral lors de la réalisation d’une tâche donnée).

Ces modèles mettent en avant le rôle des réseaux cérébraux et des fonctions cognitives. Parmi les principaux, on peut citer :

  • la théorie de l’intégration fronto-pariétale : selon cette théorie, l’intelligence serait basée sur l’intégration, c’est-à-dire le traitement coordonné et harmonieux des informations entre différentes régions du cerveau, notamment entre le cortex pariétal (impliqué dans le raisonnement et le traitement spatial) et le cortex préfrontal (impliqué dans le contrôle exécutif, c’est-à-dire la régulation et la coordination des pensées, des actions et des émotions pour atteindre un but) ;

  • le modèle des fonctions exécutives : ce modèle souligne le rôle clé de la mémoire de travail (capacité à maintenir et manipuler temporairement des informations), de la flexibilité cognitive (capacité à changer de stratégie ou de point de vue) et de l’inhibition (capacité à résister à des automatismes ou distractions). Ces fonctions, essentielles pour la planification et l’adaptation, sont fortement associées au cortex préfrontal ;

  • les approches bayésiennes : elles mettent en avant l’idée que le cerveau agit comme un système prédictif, c’est-à-dire qu’il formule en permanence des hypothèses sur le monde à partir de ses expériences passées, puis les ajuste en fonction des nouvelles informations sensorielles (par exemple, lorsque nous marchons dans une rue et que nous entendons un bruit de moteur derrière nous, notre cerveau prévoit qu’une voiture approche. Si le bruit s’éloigne au lieu de se rapprocher, il met à jour son modèle interne pour ajuster sa prédiction) ;

  • le modèle des réseaux en petits mondes : ce modèle repose sur l’idée que l’intelligence dépend de l’efficacité des connexions neuronales et de la plasticité cérébrale. Le cerveau humain est organisé selon une architecture dite en petit monde, c’est-à-dire un réseau dans lequel les neurones (ou régions cérébrales) sont à la fois fortement connectés localement (favorisant la spécialisation) et efficacement reliés à distance (favorisant l’intégration globale de l’information). Cela signifie qu’il existe des différences interindividuelles : certaines personnes présentent des réseaux cérébraux plus efficaces, caractérisés par un équilibre optimal entre connectivité locale et connectivité globale, ce qui serait associé à de meilleures performances cognitives et à un quotient intellectuel plus élevé. Cependant, cette efficacité n’est pas figée : elle peut être modifiée par l’expérience, l’apprentissage, l’entraînement cognitif ou encore par des changements développementaux (enfance, adolescence) et neurobiologiques (plasticité synaptique, myélinisation). En d’autres termes, le cerveau peut réorganiser ses connexions pour améliorer la circulation de l’information.

Tous ces modèles postulent que l’intelligence est distribuée : elle reposerait sur l’interaction entre différentes régions du cerveau.

La théorie de l’intégration fronto-pariétale et le modèle des fonctions exécutives sont bien étayés empiriquement, grâce à des données de neuro-imagerie et des tâches expérimentales standardisées. Les approches bayésiennes offrent un cadre explicatif puissant, mais plus théorique et difficile à tester directement. Enfin, le modèle des réseaux en petits mondes est empiriquement mesurable, mais surtout corrélationnel.

Ces modèles ne s’opposent pas aux approches développementales classiques, ils les complètent en proposant une explication cérébrale et fonctionnelle des mécanismes qui sous-tendent le développement de l’intelligence

Une absence de consensus

À la fois universelle et plurielle, l’intelligence est un concept complexe, polymorphe et multidimensionnel. L’évaluer n’est pas chose aisée. Sa richesse ne peut être appréhendée à la seule aune de tests standardisés tels que le quotient intellectuel, car celui-ci ne prend pas en compte toutes les formes d’intelligence, ignorant notamment l’intelligence émotionnelle ou créative.

Une compréhension complète de l’intelligence exige de ce fait une approche globale et nuancée. À ce titre, les divers modèles de l’intelligence offrent une vision enrichissante de la complexité de ce concept, en proposant de reconnaître et de valoriser les différentes compétences et talents que chaque individu possède.

En nous incitant à adopter une perspective plus large sur l’intelligence, ils nous aident à mieux comprendre et à soutenir le développement des capacités des individus dans toute leur diversité.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Romuald Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 15:31

Le genre sous algorithmes : pourquoi tant de sexisme sur TikTok et sur les plateformes ?

Hélène Bourdeloie, Sociologue, maîtresse de conférences en sciences de l’information et de la communication, Université Sorbonne Paris Nord; Centre national de la recherche scientifique (CNRS)

Le rapport parlementaire sur TikTok pointe la prolifération de contenus sexistes sur la plateforme. L’occasion de s’interroger sur la manière dont le monde numérique renforce les stéréotypes de genre.
Texte intégral (2629 mots)
Le rapport de la commission parlementaire sur les effets psychologiques de TikTok sur les mineurs montre notamment que la plateforme laisse proliférer des contenus aggravant les stéréotypes de genre.

Au-delà de ses effets délétères sur la santé mentale des jeunes, le récent rapport de la commission parlementaire sur TikTok montre que la plateforme laisse proliférer des contenus sexistes, valorisant le masculin et dénigrant le féminin. Une occasion de s’interroger sur les mécanismes qui, au cœur des plateformes numériques, amplifient les stéréotypes de genre, bien loin des promesses émancipatrices portées par l’essor de l’Internet grand public des années 1990.


Alex Hitchens est un influenceur masculiniste, coach en séduction, actuellement fort de 719 000 abonnés sur TikTok. Son effarant succès est emblématique du rôle des algorithmes de recommandation dans l’amplification des discours réactionnaires. La récente commission d’enquête parlementaire sur les effets psychologiques de TikTok a donc logiquement convoqué l’influenceur star – parmi plusieurs autres aux discours tout aussi douteux – pour l’entendre en audition. Et le 11 septembre 2025, elle a rendu son rapport. Celui-ci met clairement en cause la responsabilité des algorithmes des plateformes dans la diffusion de contenus problématiques aggravant les stéréotypes de genre


À lire aussi : TikTok et les jeunes : rentabilité et fabrique du mal-être


Cette réalité s’inscrit dans un contexte plus large renvoyant à l’état du sexisme et des inégalités entre les hommes et les femmes dans toutes les sphères de la société. Ainsi, le Baromètre sexisme 2023 du Haut conseil à l’égalité (HCE) signale la présence d’une nouvelle vague d’antiféminisme. On y apprend que 33 % des hommes considèrent que le féminisme menace leur place et rôle dans la société, et 29 % d’entre eux estiment être en train de perdre leur pouvoir.

L’Internet émancipateur, une promesse déçue

De telles données ne sont pas sans interroger la promesse émancipatrice des débuts de l’Internet. Loin d’être un espace neutre, à l’intersection du technique et du social, l’Internet est en effet sans cesse modelé par des décisions humaines, des choix politiques et des logiques économiques. Celles-ci influencent nos usages et nos comportements, qu’il s’agisse de nos manières de construire notre identité de genre (selfies, filtres, mise en scène de la féminité/masculinité), de nos pratiques relationnelles et amoureuses (applications de rencontre, codes de séduction numérique), ou encore de notre rapport au corps et à l’intimité.

Alors qu’il était censé nous libérer de normes contraignantes, l’Internet semble finalement renforcer l’ordre patriarcal en laissant proliférer des stéréotypes qui valorisent le masculin et dénigrent le féminin. En favorisant la circulation de discours qui présentent des caractéristiques prétendument féminines comme biologiques, l’Internet peut contribuer à confondre sexe et genre, à naturaliser les différences de genre, et par conséquent à essentialiser les femmes et à les inférioriser.

Les chiffres du rapport du HCE sur l’invisibilité des femmes dans le numérique sont à ce titre plus qu’éloquents. A partir de l’analyse des 100 contenus les plus vus sur YouTube, TikTok et Instagram, il établit que sur Instagram, plus des deux tiers de ces contenus (68 %) véhiculent des stéréotypes de genre, tandis qu’un quart (27 %) comprend des propos à caractère sexuel et près d’un cinquième (22 %) des propos sexistes. TikTok n’échappe pas à cette tendance avec 61 % de vidéos exposant des comportements masculins stéréotypés et 42,5 % des contenus humoristiques et de divertissement proposant des représentations dégradantes des femmes.

Fin de l’utopie cyberféministe

Aux débuts de l’Internet grand public des années 1990, héritier de l’utopie technoculturelle des années 1960-1970, on pouvait penser que cette technologie redistribuerait les cartes en matière de genre, classe ou race. Le numérique promettait plus d’horizontalité, de fluidité, d’anonymat et d’émancipation.

Dans une perspective cyberféministe, ces espaces numériques étaient vus comme des moyens de dépasser les normes établies et d’expérimenter des identités plus libres, l’anonymat permettant de se dissocier du sexe assigné à la naissance.

Si plusieurs travaux ont confirmé cette vision émancipatrice de l’Internet – visibilité des minorités, expression des paroles dominées, levier de mobilisation – une autre face de l’Internet est venue ternir sa promesse rédemptrice.

Dans les années 2000, avec la montée en puissance des logiques marchandes, les Big Tech de la Silicon Valley – et en particulier les Gafam (Google, Apple, Facebook/Meta, Amazon, Microsoft) – ont pris le contrôle du réseau et cet espace décentralisé, ouvert et commun, est devenu la propriété économique de quelques entreprises. L’Internet a pris une autre forme : oligopolistique, verticale et néolibérale.

Banalisation des discours sexistes

Aujourd’hui, les plateformes numériques, à commencer par les réseaux sociaux, cherchent à capter et retenir l’attention des internautes pour la convertir en revenus publicitaires ciblés. Cette logique est notamment poussée par des plateformes, comme TikTok, qui, en personnalisant les fils d’actualité des utilisateurs, tendent à valoriser les contenus sensationnalistes ou viraux, qui suscitent un temps de visionnage accru, à l’exemple des contenus hypersexualisés.

Dès lors, si le sexisme n’est pas né avec le numérique, les algorithmes des plateformes offrent néanmoins un terreau favorable à sa prolifération.

Les plateformes (avec leurs filtres, formats courts, mécanismes de partage, systèmes de recommandation… – à l’exemple du filtre « Bold Glamour » de TikTok, censé embellir les visages sur la base de standards irréalistes et genrés) contribuent à perpétuer et amplifier les biais de genre et sexistes, voire à favoriser la haine et la misogynie chez les jeunes.

Une étude universitaire de 2024 illustre bien la manière dont les utilisateurs de TikTok sont surexposés aux contenus sexistes. Pour observer cela, des chercheuses et chercheurs ont créé des profils fictifs de garçons adolescents. Après seulement cinq jours, ils ont constaté que le niveau de contenus misogynes présentés sur les fils « Pour toi » de ces profils avait été multiplié par quatre, révélant un biais structurel dans le système de recommandation de TikTok.

La plateforme n’est dès lors pas seulement le miroir de clivages de sexe, mais aussi le symptôme du pullulement et de la banalisation des discours sexistes. Cette idéologie, enracinée dans les sous-cultures numériques phallocrates rassemblée sous le nom de « manosphère » et passant désormais des écrans aux cours de récréation, n’a pas de frontière.


À lire aussi : « Manosphère » : ce que les parents doivent savoir pour en parler avec leurs enfants


TikTok et les attentes genrées

Concernant TikTok, le rapport de 2023 du HCE sur l’invisibilité des femmes dans le numérique est on ne peut plus clair. Il montre que la plateforme privilégie structurellement les contenus correspondant aux attentes genrées les plus convenues. Les corps féminins normés, les performances de genre ou représentations stéréotypées, comme celle de la femme réservée, hystérique ou séductrice, y sont ainsi surreprésentées. En fait, les grandes plateformes les représentent sous un angle qui les disqualifie. Cantonnées à l’espace domestique ou intime, elles incarnent des rôles stéréotypés et passifs liés à la maternité ou l’apparence. Leurs contenus sont perçus comme superficiels face à ceux des hommes jugés plus légitimes, établissant une hiérarchie qui reproduit celle des sexes.

On se souvient ainsi du compte TikTok « @abregefrere ». Sous couvert de dénoncer le temps perdu sur les réseaux sociaux, ce compte s’amusait à résumer en une phrase le propos de créateurs et créatrices de contenus, le plus souvent issus de femmes. Créant la polémique, son succès a entraîné une vague de cyberharcèlement sexiste, révélateur d’une certaine emprise du masculinisme.


À lire aussi : #SkinnyTok, la tendance TikTok qui fait l’apologie de la maigreur et menace la santé des adolescentes


De telles représentations exacerbent les divisions genrées et les clivages entre communautés en ligne. Sur TikTok, est ainsi né Tanaland, un espace virtuel exclusivement féminin, pensé comme un renversement du stigmate associé à l’insulte misogyne « tana » (contraction de l’espagnol « putana »), et destiné à se protéger du cybersexisme. En miroir, a été créé Charoland, pays virtuel peuplé de femmes nues destinées à satisfaire le désir masculin ; une polarisation qui opère non seulement au détriment des femmes, mais aussi des hommes qui contestent le patriarcat.

Des effets délétères en termes d’inégalités et d’image de soi

Comme en témoigne le rapport 2025 du HCE, ce contexte peut conduire à polariser les enjeux d’égalité de genre et, ce faisant, à renforcer les inégalités et violences.

Ce sont ainsi les femmes et les minorités qui restent les plus exposées à la cyberviolence et au cyberharcèlement. Selon l’ONU, 73 % des femmes dans le monde ont déjà été confrontées à des formes de violence en ligne. Et selon l’enquête « Cyberviolence et cyberharcèlement », de 2022, en cours de renouvellement, les cyberviolences visent surtout les personnes les plus vulnérables comme les jeunes (87 % des 18-24 ans en ont ainsi subi), les personnes LGBTQI+ (85 %), les personnes racisées (71 %) et les femmes de moins de 35 ans (65 %).

Ces violences affectent particulièrement la santé mentale et l’image de soi des jeunes filles, soumises à une pression permanente à la performance esthétique et constamment enjointes à réfléchir à leur exposition en ligne. De fait, leurs corps et leurs sexualités sont plus strictement régulés par un ordre moral – contrairement aux hommes souvent perçus comme naturellement prédatoires. En conséquence, elles subissent davantage le body-shaming (« humiliation du corps »), le slut-shaming ou le revenge porn, stigmatisations fondées sur des comportements sexuels prétendus déviants.


À lire aussi : Que fait l’Europe face aux géants du numérique ?


Reflet de la société, le numérique n’a certes pas créé la misogynie mais il en constitue une caisse de résonance. Pharmakon, le numérique est donc remède et poison. Remède car il a ouvert la voie à l’expression de paroles minoritaires et contestatrices, et poison car il favorise l’exclusion et fortifie les mécanismes de domination, en particulier lorsqu’il est sous le joug de logiques capitalistes.


Un grand merci à Charline Zeitoun pour les précieux commentaires apportés à ce texte.

The Conversation

Hélène Bourdeloie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 15:31

Népal : La génération Z prend la rue et réinvente la contestation

Elodie Gentina, Professeur à IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille, IÉSEG School of Management

Au Népal, au mépris de la répression, une jeunesse connectée conteste le népotisme, redéfinit les formes de la démocratie et obtient des résultats tangibles.
Texte intégral (1915 mots)

À l’automne 2025, face à la censure numérique imposée par un régime népotique, des milliers de jeunes manifestants ont investi les rues de Katmandou, capitale du Népal. La répression a été brutale : au moins 72 morts, des dizaines de blessés. Porté par les réseaux sociaux, ce soulèvement s’inscrit dans une vague mondiale où les jeunesses connectées – du Maroc à Madagascar – réinventent la démocratie hors des cadres traditionnels et exigent d’être entendues.


Au Népal, l’histoire politique pourrait bien prendre un nouveau tournant. Dans ce pays de quelque 30 millions d’habitants accroché aux flancs de l’Himalaya, encore marqué par les cicatrices d’une guerre civile (1996-2006) qui a abouti à la mise en place d’une démocratie imparfaite et instable, une génération née après les combats s’affirme aujourd’hui.

Elle ne se range sous aucune bannière partisane, n’attend l’aval d’aucun chef et refuse les mots d’ordre venus d’en haut. Elle trace sa propre voie, connectée, autonome, soudée autour de ses codes et de ses écrans. Et cet automne 2025, cette jeunesse – la fameuse génération Z (personnes nées entre la fin des années 1990 et le début des années 2010) – a investi les rues, prenant tout le monde de court, à commencer par les dirigeants.

D’un royaume meurtri à une démocratie fragile

Pour mesurer ce qui se joue aujourd’hui, il faut d’abord se tourner vers le passé. Entre 1996 et 2006, le Népal a traversé une décennie de guerre civile d’une rare intensité, opposant les insurgés maoïstes au pouvoir monarchique. Ce conflit, qui a coûté la vie à plus de 13 000 personnes, s’est soldé par l’effondrement de la royauté et la naissance d’une République en 2008. Beaucoup y ont vu l’aube d’un nouvel avenir, fondé sur la justice, la stabilité et le développement.

Mais la réalité fut bien plus chaotique. En quinze ans, le pays a connu une succession de gouvernements sans lendemain, des institutions toujours fragiles et un pouvoir resté entre les mains des mêmes familles. La corruption, le favoritisme et l’absence d’horizons économiques ont peu à peu creusé un profond sentiment de désillusion. Jusque-là, la contestation prenait des formes attendues : syndicats, mouvements étudiants affiliés aux partis, mobilisations rurales ou actions maoïstes. Rien ne laissait imaginer l’irruption d’un soulèvement d’un tout autre visage.

Gen Z contre les « nepo kids » : la révolte d’une génération contre l’héritage du pouvoir

Environ 500 000 jeunes rejoignent chaque année la population active, bien plus que le nombre d’emplois disponibles. Le chômage des jeunes âgés de 15 à 24 ans au Népal est évalué à 20,8 %. Dans ces conditions, les opportunités sont rares, et des centaines de milliers de Népalais sont contraints de s’expatrier pour trouver du travail en Inde ou dans les pays du Moyen-Orient. L’idée d’un avenir meilleur dans leur propre pays leur semble de plus en plus inaccessible.


À lire aussi : Ce que la migration au Qatar signifie pour les travailleurs népalais


Quelques jours avant que les rues ne s’embrasent, un flot d’images a envahi les réseaux sociaux népalais : on y voyait les enfants de responsables politiques exhiber voitures de luxe, séjours à l’étranger et train de vie fastueux. Ces publications, largement partagées sous les hashtags #NepoKid ou #NepoBaby, ont fait l’effet d’une étincelle dans un pays déjà traversé par une profonde frustration. Elles mettaient crûment en lumière le fossé qui sépare les élites de la population, révélant un système où privilèges et passe-droits semblent se transmettre de génération en génération.

Dans un contexte de chômage massif et d’exil forcé pour une grande partie de la jeunesse, ces images sont vite devenues le symbole d’un pouvoir déconnecté et d’une injustice profondément enracinée. Le mouvement né sur les écrans s’est alors transformé en colère dans les rues, accélérant l’éclatement d’un soulèvement populaire. Le mouvement au Népal a souvent été présenté comme une révolte de la Gen Z contre les « nepo-babies » qui s’est intensifiée à la suite de l’interdiction des réseaux sociaux et d’une répression sanglante.

La vague de vidéos dénonçant les « nepo-kids » a exprimé une colère populaire face à des décennies de népotisme enraciné au Népal. Héritage de la dynastie autoritaire des Rana (1846-1951), ce système s’est perpétué malgré la démocratisation amorcée en 1990 : les partis n’ont pas su instaurer des institutions équitables ni représentatives. Le pouvoir reste ainsi concentré entre quelques familles influentes et alliances claniques (la famille Koirala, la dynastie Rala et les dynasties « claniques »), qui continuent de contrôler partis, ressources et postes clés.

Les jeunes citoyens exigent la fin de la corruption, une gouvernance plus juste et une véritable équité économique. Fait inédit dans l’histoire politique du pays : le 9 septembre 2025, le premier ministre Khadga Prasad Sharma Oli a présenté sa démission, avant d’être remplacé par Sushila Karki, ancienne présidente de la Cour suprême, à l’issue d’un vote… organisé sur la plateforme Discord. Elle est à la tête d’une équipe transitoire chargée de préparer les élections prévues pour mars 2026.

Le manga « One Piece », emblème de révolte de la génération Z

Cette révolte est horizontale, spontanée, mouvante, en l’absence de leaders reconnus ou autoproclamés. Les messages circulent en ligne, les décisions se construisent collectivement, presque en temps réel. La culture de cette génération imprègne aussi le mouvement. Sur les pancartes, on voit des mèmes, des clins d’œil à des séries ou à des mangas. Le drapeau des Straw Hat Pirates de One Piece, symbole de liberté et de résistance, flotte parmi les manifestants. La colère s’exprime avec humour, ironie et inventivité. Loin des discours idéologiques d’antan, cette jeunesse parle un langage qui lui ressemble.

Ce symbole One Piece n’a rien d’anodin : dans l’univers du célèbre manga, Luffy incarne la lutte contre l’oppression et le rêve d’un monde plus juste. Hors des pages de fiction, ce drapeau est devenu un véritable marqueur générationnel à travers toute l’Asie. Il suffit d’y inscrire quelques mots d’ordre pour qu’il se transforme en cri de ralliement. « La génération Z ne se taira pas » ou encore « Votre luxe, notre misère », pouvaient ainsi se lire sur les banderoles brandies par des milliers de jeunes Népalais début septembre 2025, après la suspension de plates-formes comme Facebook, X ou YouTube.

Mais les revendications de la génération Z au Népal vont bien au-delà de la seule question de la censure. Elles s’attaquent à un système politique verrouillé, gangrené par les privilèges héréditaires et incapable d’offrir un avenir. Elles réclament des emplois, de la transparence, une démocratie réelle et vivante. Elles exigent surtout une chose : que leur voix compte enfin.

Une rupture générationnelle qui dépasse le Népal

La jeunesse népalaise a provoqué un séisme politique. Et cela, sans chef, sans parti, sans programme détaillé.

Reste à savoir ce que ce soulèvement va devenir. Au Népal, le gouvernement en place a même été contraint de céder, remplacé par une équipe transitoire chargée de préparer les élections prévues pour mars 2026. L’histoire montre que les mouvements sans organisation claire peuvent vite s’essouffler ou être récupérés. Reste à savoir si la jeunesse mobilisée choisira d’entrer dans l’arène électorale en présentant ses propres candidats – une perspective qui pourrait marquer un tournant majeur dans la vie politique du pays.

La nouvelle génération a pris conscience de sa force collective. Elle sait désormais qu’elle peut se mobiliser rapidement, en dehors des cadres traditionnels, et obliger le pouvoir à réagir. Elle a aussi redéfini le vocabulaire de la contestation : culture numérique, humour, pop culture, créativité… autant d’armes nouvelles pour faire passer des messages politiques.

Ce qui se joue au Népal n’est d’ailleurs pas un cas isolé. De l’Indonésie au Chili, de l’Iran aux États-Unis, ces jeunes « digital natives », nés pendant l’ère d’Internet, contestent les structures établies avec les mêmes outils et les mêmes réflexes. Le Népal s’inscrit dans ce vaste mouvement mondial d’une génération qui ne veut plus attendre et qui contribue à réinventer la démocratie à l’ère du numérique. La politique telle que nous la connaissions – organisée autour de partis, de leaders et de structures hiérarchiques – est de moins en moins adaptée aux formes d’engagement des nouvelles générations. Pour elles, la politique est une pratique fluide, horizontale, souvent ludique, toujours connectée.

The Conversation

Elodie Gentina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 15:31

Pénuries, marges en berne, diversification difficile… Pourquoi les pharmacies françaises vacillent

Frédéric Jallat, Professor of Marketing and Academic Director of MSc. in Biopharmaceutical Management, ESCP Business School

Entre pénuries récurrentes et fermetures accélérées, les pharmacies révèlent la fragilité du système de santé français pris en étau entre contraintes budgétaires et besoins des patients.
Texte intégral (2273 mots)

Les pharmacies françaises se trouvent aujourd’hui au cœur d’un paradoxe : dernier maillon de proximité d’un système de santé sous tension, elles subissent de plein fouet les choix budgétaires et politiques liés au prix des médicaments. Entre fermetures accélérées, marges érodées, pénuries répétées, leur fragilité dit beaucoup des difficultés que traverse la politique de santé au plan national.


Au cœur de l’hiver 2024, de nombreux patients ont eu la désagréable surprise de se voir refuser à l’officine un antibiotique pourtant banal, l’amoxicilline. « Rupture de stock », expliquaient alors les pharmaciens, contraints de trouver des alternatives ou de renvoyer les malades vers leur médecin. Ces incidents, fréquemment répétés au niveau national, illustrent une réalité mal connue : les pharmacies, maillon de proximité du système de santé, se trouvent aujourd’hui aux prises avec un mouvement combinant politiques de prix, stratégies industrielles et arbitrages budgétaires dont elles ne maîtrisent pas les évolutions.

Derrière le comptoir, c’est un acteur économique et social qui subit directement les choix de l’État, les complexités de l’Assurance-maladie et certaines des contraintes auxquelles les laboratoires pharmaceutiques sont désormais confrontés. La pharmacie n’est pas seulement un commerce : elle est devenue le miroir des tensions qui traversent la politique du médicament en France.

Un système très régulé : le prix du médicament, une décision politique

Contrairement à d’autres produits, le prix des médicaments en France ne relève pas du marché, mais d’un arbitrage centralisé. C’est en effet le Comité économique des produits de santé (Ceps) qui fixe les tarifs, à l’issue de négociations complexes avec les laboratoires pharmaceutiques.

Cette régulation poursuit, en réalité, plusieurs objectifs contradictoires :

  • garantir l’accès aux traitements des patients par un remboursement de l’Assurance-maladie ;

  • maîtriser les dépenses publiques de santé, dans un contexte de déficit chronique de la Sécurité sociale ;

  • soutenir l’innovation des laboratoires, grâce au développement de thérapies coûteuses issues de la biotechnologie notamment.

L’équilibre est difficile à tenir. Favoriser l’innovation implique d’accepter des prix élevés pour certains médicaments, tout en imposant des baisses régulières sur les molécules plus anciennes ou les génériques. Ce mécanisme place les officines dans une position de dépendance totale : leur rentabilité est directement conditionnée par ces décisions politiques qu’elles ne contrôlent aucunement.


À lire aussi : Médicaments innovants : la France face à la guerre des prix lancée par Trump


Un jeu d’acteurs sous tension

La politique du médicament ne se joue donc pas seulement dans les antichambres du ministère de la santé ou dans les couloirs du Parlement, mais au cœur d’un rapport de forces permanent et plus ample entre acteurs :

  • l’État cherche à contenir le coût du médicament, en incitant la substitution des produits princeps par les génériques, notamment ;

  • les laboratoires mènent un lobbying intense pour préserver leurs marges, tout en menaçant parfois de délocaliser ou de réduire la production sur le territoire – plus encore dans un climat international délétère où le président Trump utilise les droits de douane comme une arme de déstabilisation massive des politiques de développement régional des laboratoires au profit des États-Unis ;

  • l’Assurance-maladie pousse à rationaliser la consommation, à réduire les volumes et à encadrer les prescriptions ;

  • les syndicats de pharmaciens défendent la survie du réseau officinal, dénonçant l’érosion continue des marges de la profession ;

  • les patients-citoyens, enfin, se retrouvent au centre de ce jeu d’influence : leurs perceptions des prix, du reste à charge et des génériques est régulièrement mobilisée comme argument par les uns et par les autres.

Chaque décision de baisse de prix ou de modification des taux de remboursement devient ainsi l’objet de conflits où se croisent intérêts économiques, enjeux budgétaires et considérations politiques que les pharmaciens ne maîtrisent nullement.

Les officines, révélateurs des contradictions du système

Dans ce contexte complexe et perturbé, les pharmacies apparaissent donc comme des victimes collatérales de la politique du médicament, et ce, d’un triple point de vue.

1. Des marges sous pression

Leur modèle économique est extrêmement encadré. Les marges sur les médicaments remboursables sont fixées par décision politique, non par une libre concurrence. Les baisses décidées par le Ceps se répercutent immédiatement sur la trésorerie des pharmaciens.

2. Une difficile gestion des pénuries

À cette contrainte financière s’ajoute la multiplication des ruptures de stock. Les pénuries ont été multipliées par 30 en dix ans, au point de devenir un phénomène structurel, selon la feuille de route ministérielle 2024–2027.

En 2023, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) recensait près de 5 000 ruptures de stock ou risques de rupture, soit un tiers de plus qu’en 2022 et six fois plus qu’en 2018.

À chaque fois, les pharmaciens sont contraints d’expliquer aux patients pourquoi certains produits sont indisponibles, et doivent improviser dans l’urgence en ayant parfois à gérer des situations psychologiquement difficiles. Une mission chronophage, source de frustration voire d’agressivité de la part de leurs patients-clients.

3. Une diversification insuffisante

Pour compenser ce manque à gagner, les pharmacies ont développé de nouvelles activités : vaccination, tests, conseils en prévention, vente de parapharmacie. Mais ces relais de croissance ne suffisent pas à stabiliser un modèle économique fragilisé par la régulation.

En France, en effet, le réseau officinal se délite d’année en année : au 1ᵉʳ janvier 2025, on comptait 20 242 pharmacies, soit 260 de moins qu’en 2024 et 1 349 de moins qu’en 2015. En une décennie, plus de 6 % des officines ont disparu…

Les territoires ruraux, déjà fragilisés par un ample phénomène de désertification médicale, sont les plus touchés. Faute de repreneur, de nombreuses officines ferment, accentuant les inégalités d’accès aux soins. Dans certains villages, la pharmacie peut souvent représenter le dernier service de santé disponible. Comme le bureau de poste ou l’épicerie locale, la fermeture d’une pharmacie est aussi un lieu de vie sociale qui disparaît.

Une dimension sociale, politique et symbolique

La pharmacie n’est pas un commerce comme les autres. Elle incarne un service de santé de proximité, accessible (car encore sans rendez-vous) présent dans de nombreux quartiers. Et c’est précisément cette valeur symbolique et sociale qui rend le débat explosif.

Chaque ajustement tarifaire est scruté par les syndicats, repris par les médias et discuté au Parlement. La récente décision du gouvernement de réduire le taux de remboursement des médicaments courants de 65 % à 60 % a suscité une vive inquiétude. Derrière ces chiffres, ce sont à la fois les patients (qui voient leur reste à charge augmenter) et les officines (qui anticipent une nouvelle pression sur leurs marges) qui sont concernés.

En 2024, la marge brute moyenne est passée sous les 30 % du chiffre d’affaires, un seuil historiquement bas, alors même qu’elle se situait encore à 32 % quelques années plus tôt. Si le chiffre d’affaires moyen des officines s’est élevé à plus de 2,5 millions d’euros, en hausse de 5 % par rapport à 2023, cette progression a surtout été portée par des médicaments coûteux à faible marge, représentant déjà 42 % des ventes remboursables. Dans le même temps, les charges ont bondi de près de 12 %.

Une enquête syndicale affirme que 75 % des pharmacies ont vu leurs disponibilités baisser en 2024, et qu’une sur cinq fonctionne désormais en déficit de trésorerie. Selon Philippe Besset, président de la Fédération des syndicats pharmaceutiques de France (FSPF), « les officines ne peuvent pas survivre si les pouvoirs publics continuent de rogner [les] marges [de celles-ci] tout en [leur] confiant de nouvelles missions ».

La colère des pharmaciens : un signal politique

En mai 2024, les pharmaciens ont décidé de faire entendre leur voix. Près de 90 % des pharmacies (de France hexagonale et ultramarine, ndlr) ont baissé le rideau le temps d’une journée, dans une mobilisation massive et inédite destinée à alerter les pouvoirs publics sur la dégradation de leurs conditions économiques.

Leur message était clair : dénoncer des marges insuffisantes, une explosion des charges et une gestion des pénuries devenue insupportable. Au-delà, s’exprimait aussi la peur d’une dérégulation accrue – via la vente en ligne ou l’arrivée de nouveaux acteurs de la distribution.

Plusieurs collectifs de pharmaciens ont exprimé l’idée de ne pas être relégués au rang de simples intermédiaires, mais bien d’être reconnus comme des acteurs de santé publique indispensables et spécifiques. Plusieurs actions ont été menées l’été dernier qui ont fait suite à la première mobilisation professionnelle inédite de 2024. À l’initiative de l’appel de l’Union des syndicats de pharmaciens d’officine (USPO) du 23 juin 2025, trois actions majeures ont été entreprises :

Grâce à cette mobilisation professionnelle sans précédent, les pharmaciens ont remporté une victoire symbolique importante. Le premier ministre d’alors, François Bayrou, a choisi de les écouter et a suspendu, pour un minimum de trois mois, l’arrêté sur le plafond des remises génériques, malgré l’opposition de Bercy.

Les officines françaises incarnent à elles seules le dilemme du système de santé national : concilier innovation pharmaceutique, maîtrise des dépenses publiques et équité d’accès aux soins. Elles sont à la fois le dernier commerce de proximité dans bien des territoires et le révélateur des contradictions d’une politique du médicament soumise à de multiples pressions, parfois contradictoires.

Leur fragilité croissante – marges érodées, fermetures multipliées en zone rurale, gestion quotidienne des pénuries – n’est pas une question marginale, mais un enjeu politique et social majeur. Comme l’a montré la mobilisation historique de mai 2024 et de l’été 2025, les pharmaciens refusent d’être réduits à de simples distributeurs. Leur avenir dépend désormais de la capacité des pouvoirs publics à inventer un compromis durable entre logiques économiques et exigences de santé publique.

On peut donc, à bon escient, se poser la question de savoir si la survie des officines n’est pas devenue le véritable baromètre de la santé démocratique de notre système de soins.

The Conversation

Frédéric Jallat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 15:30

De Byzance à nos tables : l’étonnante histoire de la fourchette, entre moqueries, scandales et châtiment divin

Darius von Guttner Sporzynski, Historian, Australian Catholic University

De l’objet de scandale à l’ustensile incontournable : comment la fourchette a voyagé de Byzance jusqu’en Lituanie et a fini à côté de nos assiettes, portée par plusieurs siècles d’évolution des usages à table.
Texte intégral (2999 mots)
Banquet du duc de Lancaster Jean de Gand (1340-1399), prétendant au trône de Castille, (à gauche) et du roi de Portugal et de l’Algarve Jean&nbsp;I<sup>er</sup> (1385-1433) (au centre), lors des négociations qui aboutiront au traité de Windsor (_Chronique d’Angleterre_, vol. 3, fin du XIVᵉ siècle). Wikimedia Commons

Née dans l’Empire byzantin, adoptée en Italie puis diffusée en Europe grâce à des mariages royaux et à l’influence de grandes reines, comme Bonne Sforza (1494-1557) ou Catherine de Médicis (1519-1589), la fourchette est devenue au fil des siècles un symbole de propreté, de civilité et de raffinement.


Aujourd’hui, on prend à peine conscience de saisir une fourchette. Elle fait partie d’un service de couverts standard, aussi indispensable que l’assiette elle-même. Mais il n’y a pas si longtemps, cet ustensile désormais bien banal était accueilli avec méfiance et moquerie, allant jusqu’à causer un scandale.

Il a fallu des siècles, des mariages royaux et une pointe de rébellion culturelle pour que la fourchette passe des cuisines de Constantinople (l’actuelle Istanbul) aux tables d’Europe.

Un ustensile scandaleux

Les premières versions de la fourchette ont été retrouvées dans la Chine de l’âge du bronze et dans l’Égypte antique, bien qu’elles aient probablement servi surtout à la cuisson et au service des aliments. Les Romains disposaient de fourchettes élégantes en bronze et en argent, mais là encore principalement pour la préparation des repas.

Une fourchette verte à deux dents
Fourchette de service en bronze de la Rome antique, vers le IIᵉ et le IIIᵉ siècle de notre ère. Metropolitan Museum of Art

Manger avec une fourchette – surtout une petite fourchette personnelle – restait rare. Au Xe siècle, les élites byzantines l’utilisaient librement, choquant leurs invités venus d’Europe occidentale. Et vers le XIe siècle, la fourchette de table commença à faire son apparition lors des repas à travers l’Empire byzantin.

Fourchettes en bronze fabriquées en Perse (VIIIᵉ-IXᵉ siècles). Wikimedia

En 1004, Maria Argyropoulina (985–1007), sœur de l’empereur Romanos III Argyros, épousa le fils du Doge de Venise et provoqua un scandale en refusant de manger avec ses doigts. Elle se servait d’une fourchette en or. Plus tard, le théologien Pierre Damien (1007–1072) déclara que la vanité de Maria, qui utilisait des « fourchettes en métal artificiel » au lieu des doigts donnés par Dieu, avait provoqué le châtiment divin de sa mort prématurée, survenue dans sa vingtaine.

Pourtant, au XIVe siècle, la fourchette était devenue courante en Italie, en partie grâce à l’essor des pâtes. Il était beaucoup plus facile de manger des filaments glissants avec un instrument à dents qu’avec une cuillère ou un couteau. L’étiquette italienne adopta rapidement la fourchette, surtout parmi les riches marchands. Et c’est par cette classe aisée que la fourchette fut introduite dans le reste de l’Europe au XVIe siècle, grâce à deux femmes.

Le rôle de Bonne Sforza

Née dans les puissantes familles Sforza de Milan et d’Aragon de Naples, Bonne Sforza (1494–1557) grandit dans un monde où les fourchettes étaient utilisées et, mieux encore, à la mode. Sa famille était rompue aux raffinements de l’Italie de la Renaissance : l’étiquette de cour, le mécénat artistique, l’habillement ostentatoire pour hommes et femmes, et les repas élégants.

Lorsqu’elle épousa Sigismond Iᵉʳ, roi de Pologne et grand-duc de Lituanie en 1518, devenant reine, elle arriva dans une région où les usages à table étaient différents. L’usage des fourchettes y était largement inconnu.

Fourchettes, cuillères et bols fabriqués à Venise, au XVIᵉ siècle. The Trustees of the British Museum, CC BY-NC-SA

Dans les cours de Lituanie et de Pologne, l’usage des couverts restait limité. Cuillères et couteaux servaient pour les soupes, les ragoûts et la découpe de la viande, mais la plupart des aliments étaient consommés avec les mains, aidés de pain ou de « tranchoirs » – de grosses tranches de pain rassis servant à absorber les jus des plats.

Cette méthode, à la fois économique et profondément ancrée dans les traditions culinaires de la noblesse, reflétait une étiquette sociale où les plats communs et le repas partagé étaient la norme. La cour de Bonne introduisit les manières italiennes dans la région, apportant davantage de légumes, du vin italien et, surtout, la fourchette de table.

Si son usage était probablement limité au départ aux occasions formelles ou aux cérémonies de cour, il fit forte impression. Au fil du temps, et surtout à partir du XVIIe siècle, la fourchette se généralisa parmi la noblesse de Lituanie et de Pologne.

Catherine de Medicis et la France

Catherine de Médicis (1519–1589) naquit au sein de la puissante famille florentine des Médicis, nièce du pape Clément VII. En 1533, à l’âge de 14 ans, elle épousa le futur Henri II de France dans le cadre d’une alliance politique entre la France et la papauté, quittant ainsi l’Italie pour rejoindre la cour de France.

Catherine de Médicis introduisit les fourchettes en argent et les usages culinaires italiens à la cour.

Comme pour Bonne Sforza, ces nouveautés faisaient partie de son trousseau. Elle arriva d’Italie avec des cuisiniers, des pâtissiers, des parfumeurs, mais aussi des artichauts, des truffes et une vaisselle raffinée. Son sens culinaire contribua à transformer les repas de cour en véritables spectacles.

Si la légende a sans doute amplifié son influence, de nombreux plats aujourd’hui considérés comme emblématiques de la cuisine française trouvent en réalité leur origine dans sa table italienne : la soupe à l’oignon, le canard à l’orange ou encore le sorbet.

Une fourchette italienne du XVᵉ siècle. The Met

La « bonne façon » de manger

Voyageur insatiable, Thomas Coryate (1577–1617) rapporta au début du XVIIe siècle des récits d’Italiens utilisant des fourchettes, une pratique qui paraissait encore ridiculement affectée dans son pays.

En Angleterre, l’usage de la fourchette au début du XVIIe siècle passait pour un signe de prétention. Même au XVIIIe siècle, on considérait qu’il était plus viril et plus honnête de manger avec un couteau et les doigts.

Mais à travers l’Europe, le changement était en marche. La fourchette commença à être perçue non seulement comme un ustensile pratique, mais aussi comme un symbole de propreté et de raffinement.

En France, elle devint un reflet de la civilité de cour. En Allemagne, les fourchettes spécialisées se multiplièrent aux XVIIIe et XIXe siècles : pour le pain, les cornichons, la glace ou le poisson.

En Angleterre, son usage finit par devenir un marqueur social : la « bonne façon » de la tenir distinguait les gens polis des malappris.

Vieil homme assis sur un tabouret avec une poêle et une fourchette (1888), du peintre belge Jos Ratinckx (1860-1937). Rijksmuseum

Avec l’essor de la production de masse au XIXe siècle, l’acier rendit les couverts abordables et la fourchette devint omniprésente. À cette époque, le débat ne portait plus sur la question d’en utiliser une, mais sur la manière correcte de s’en servir. Les manuels de savoir-vivre dictaient désormais les règles : pas question de ramasser les aliments comme avec une cuillère, ni de les piquer sauvagement, et toujours tenir la fourchette dents vers le bas.

Il fallut des scandales, des toquades royales et des siècles de résistance pour que la fourchette s’impose à table. Aujourd’hui, il est presque impossible d’imaginer manger sans elle.

The Conversation

Darius von Guttner Sporzynski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 15:30

Le marketing viral du chocolat de Dubaï

Anne Parizot, Professeur des universités en sciences de l'information et de la communication émérite, Université Bourgogne Europe

Une tablette de chocolat artisanal, née à Dubaï et popularisée sur TikTok, est devenue en quelques mois un phénomène mondial. Plus encore qu’un produit, c’est un nom qui fait vendre.
Texte intégral (2109 mots)
Le chocolat de Dubaï illustre les dilemmes contemporains&nbsp;: entre innovation culinaire et marketing viral, entre authenticité et imitation, entre inspiration et contrefaçon. KatMoys/Shutterstock

Une tablette de chocolat artisanal, née à Dubaï et popularisée sur TikTok, est devenue en quelques mois un phénomène mondial. Entre marketing viral, copies industrielles, le « chocolat de Dubaï » illustre les tensions contemporaines entre authenticité, imitation et contrefaçon dans l’alimentation mondialisée. Plus encore qu’un produit, c’est un nom qui fait vendre.


Chocolat de Dubaï ? Si vous n’en n’avez jamais entendu parler, peut-être n’êtes-vous ni gourmand ni accro aux réseaux sociaux. Pourtant, il fait le buzz depuis 2024.

Le « Dubai chocolate », créé par l’entrepreneuse anglo-égyptienne Sarah Hamouda, associe chocolat au lait, crème pistache-tahini et cheveux d’ange (kadayif). Ce qui frappe : son goût, sa texture onctueuse et croustillante, mais surtout la rapidité avec laquelle il s’est imposé comme un symbole culinaire de Dubaï. Baptisé « Can’t get knafeh of It » signifiant « On ne peut plus s’en passer », il a explosé en popularité après une vidéo TikTok devenue virale, de Maria Vehera (2023).

Sur les réseaux sociaux, le chocolat de Dubaï est conçu comme un spectacle visuel relevant du « food porn ». Gros plans, ralentis et zooms exaltent textures, couleurs et gestes rituels : ouverture de l’emballage, cassure de la tablette, coulants et craquants. L’esthétisation extrême transforme la dégustation en scène sensuelle, associée à l’exotisme d’une expérience rare, presque interdite.

Du luxe artisanal à la copie industrielle

Face à l’engouement de ce produit à l’origine artisanal, les marques se sont emparées du concept : en France, Lindt, la célèbre marque de chocolat suisse, Lidl propose sa propre version à prix bas, relayée sur TikTok ou Jeff de Bruges développe des déclinaisons de la tablette classique.

Une trajectoire typique : un produit culinaire innovant, viral et artisanal bascule vers une industrialisation massive, avec ses imitations et risques de contrefaçon. Si certains s’attachent à ces saveurs, d’autres ont senti un autre goût. « Ça a le goût de l’argent », a plaisanté le présentateur Al Roker dans l’émission « Today » après l’avoir goûté en direct. Plaisantait-il vraiment ?

Buzz ou tromperie ?

L’importance des mots du chocolat a été soulignée par les chercheurs Laurent Gautier, Angelica Leticia Cahuana Velasteguí et Olivier Méric, et ici c’est le nom de ce chocolat qui suscite le débat. « Chocolat de Dubaï » peut laisser croire que les tablettes sont produites aux Émirats. Or, beaucoup viennent en réalité de Turquie ou d’Europe et peuvent donc induire le consommateur en erreur.

La justice allemande a rendu deux jugements contradictoires. À Cologne, l’appellation « Dubai Chocolate » sur des tablettes turques a été jugée trompeuse. À Francfort, au contraire, les juges ont estimé qu’il renvoyait à une recette culinaire plus qu’à une origine géographique. En France, le Code de la consommation est clair : une pratique commerciale trompeuse est interdite si l’emballage suggère une origine fausse ou ambiguë. Pour éviter ce risque, certaines marques comme Lindt utilisent la formule prudente « Dubaï Style ».

Le buzz a engendré une économie parallèle avec des versions contrefaites ; les douanes autrichiennes saisissent plus de 2 500 tablettes lors de contrôles frontaliers. Ces copies exposent les consommateurs à des risques sanitaires que souligne la revue UFC-Que choisir. Le succès du produit repose plus sur le marketing viral des réseaux sociaux que sur ses qualités gustatives.

Quand le nom fait vendre

Au-delà des saveurs, c’est le nom qui alimente le succès – et parfois la confusion. « Dubaï » agit comme une marque imaginaire, synonyme de luxe, de prestige et d’exotisme. Le produit original mise sur un storytelling sophistiqué : mélange gourmand, raffiné, savoir-faire, texture fondante, masse de cacao… Chocolat Dubaï c’est partager un peu de la magie de Dubaï, une saveur nouvelle, expérience gustative.

Trois formulations circulent aujourd’hui, porteuses d’un sens implicite différent. Le jeu sur les prépositions et sur les adjectifs est au cœur du storytelling culinaire. Comme l’a montré le sémiologue Roland Barthes, la nourriture est aussi un discours.

« Dubaï » fonctionne comme une marque imaginaire :

  • « Chocolat de Dubaï » : la préposition « de » suggère une origine géographique et une authenticité. Comme pour « vin de Bordeaux », le consommateur attend un produit provenant effectivement des Émirats. Cette formulation pose des problèmes juridiques lorsque le chocolat est fabriqué ailleurs. Les marques doivent donc être déposées pour être protégées et l’indication géographique (IG) est essentielle.

  • « Chocolat Dubaï » (sans préposition) fonctionne comme un raccourci puissant associant un toponyme immédiatement reconnaissable à une catégorie universelle – chocolat. Le nom n’est pas une marque déposée, mais un surnom collectif, facile à retenir et à partager. On est dans l’onomastique – ou étude des noms propres – marketing, où la référence territoriale glisse vers l’imaginaire. La juxtaposition franco-anglaise – « Dubai chocolate » ↔ « Chocolat Dubaï » – crée un effet de résonance interlinguistique qui facilite la viralité.

  • « Chocolat Dubaï Style » insiste sur l’inspiration culinaire sans revendiquer l’origine. D’un point de vue linguistique, l’ajout de « style » signale l’inspiration culinaire et protège le fabricant du risque de tromperie, en signalant une imitation assumée. Mais le consommateur en est-il toujours conscient ?

Ces variations linguistiques révèlent un glissement métonymique : de la référence au lieu réel à un imaginaire global du luxe et de l’excès.

Le nom propre comme storytelling

L’onomastique alimentaire, ou étude des noms propres devient un instrument de storytelling, mais aussi un champ de bataille juridique et économique. Une entreprise joue clairement sur le nom sur un registre humoristique : la marque française Klaus et son « Doubs by Chocolate » détourne l’imaginaire du Golfe pour l’ancrer dans le terroir du Haut-Doubs.

L’entreprise franc-comtoise a bien compris le rôle essentiel de l’onomastique. Ce « Doubs by Chocolate » surfe sur la vague, mais le nom identifie clairement le chocolat comme un produit régional. L’origine signalée ne crée pas de risque juridique, tout en conservant une homophonie parfaite avec le fameux « Dubai chocolate ». En référence directe à Dubaï et à l’imaginaire idyllique de luxe et de volupté, avec toutes les précautions prises pour qu’il n’y ait pas mégarde, l’entreprise Klaus met en place un marketing déroutant évoquant le décalage.

Publicité pour la tablette Doubs By Chocolate de l’entreprise française Klaus. Klaus, FAL

Du viral au patrimonial ?

Traditionnellement, les produits alimentaires deviennent patrimoine à travers le temps, consolidés par des générations d’usage, protégés par des labels (AOP, IGP). Le Dubai chocolate inverse la logique. Son patrimoine n’est pas hérité, mais produit par la viralité. Les millions de vues et de partages jouent le rôle de validation. Ce n’est pas l’État ni l’Unesco qui consacrent le produit, mais l’algorithme et les réseaux sociaux. Ce phénomène illustre une tendance nouvelle : la patrimonialisation accélérée.

Autre singularité : le Dubai chocolate n’est pas lié à un terroir rural, comme le vin de Bordeaux. Il est rattaché à une « ville-monde ». Il devient l’équivalent culinaire d’un gratte-ciel ou d’un centre commercial : un symbole urbain. Cette urbanisation du patrimoine alimentaire montre que les métropoles ne sont plus seulement consommatrices de traditions, mais aussi créatrices d’icônes gastronomiques.

Confrérie culinaire mondiale

Mais peut-on parler de patrimoine pour un produit si récent ?

Oui, si l’on considère le patrimoine comme un ensemble de signes partagés et valorisés par une communauté. Dans ce cas, TikTok joue le rôle de confrérie culinaire mondiale. Mais ce patrimoine est fragile. Ce qui est consacré par la viralité peut être supplanté demain par une nouvelle mode.

Le chocolat de Dubaï illustre parfaitement les dilemmes contemporains : entre innovation culinaire et marketing viral, entre authenticité et imitation, entre inspiration et contrefaçon.

The Conversation

Anne Parizot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 14:16

Écrire à la main et faire des pauses aide à mémoriser

María del Valle Varo García, Research assistant professor, Universidad de Deusto

Le cerveau obéit à ses propres règles&nbsp;: écrire à la main stimule davantage les neurones que taper au clavier, et les vraies pauses favorisent la mémorisation.
Texte intégral (1934 mots)
Entre l’encre, le silence et le sommeil, le cerveau grave nos souvenirs. Farknot Architect/Shutterstock

Le cerveau a ses propres règles, tout comme notre façon d’apprendre et de mémoriser. Les réseaux neuronaux sont plus actifs quand on écrit à la main que quand on tape au clavier, et les pauses réelles aident à consolider les connaissances.


Arrêtons-nous un instant et observons le doux flux de ces mots sous nos yeux, ce va-et-vient silencieux et la voix qui les lit dans notre tête. Combien d’entre eux resteront gravés dans votre mémoire dans cinq minutes ? Et combien resteront, sans effort, dans notre mémoire demain ? La question n’est pas anodine. Nous vivons à une époque où la vitesse domine notre façon d’apprendre et, paradoxalement, aussi d’oublier.

Tous les mots ne sont pas traités au même rythme. Vous avez peut-être entendu dire qu’une personne peut lire entre 200 et 300 mots par minute, en écouter environ 150 ou en lire encore moins au toucher en braille. Mais cette vitesse n’est pas synonyme de compréhension : en fait, au-delà de 500 mots par minute, l’assimilation chute de manière drastique. Et ce qui est absorbé est-il vraiment conservé ? Pas nécessairement. Dévorer avidement des mots n’est pas la même chose que s’imprégner de leur essence.

Différents souvenirs en un seul

Pour que les mots prennent tout leur sens et se transforment en idées ou en concepts durables, ils doivent d’abord traverser l’espace fragile et éphémère de la mémoire opérationnelle, également appelée mémoire à court terme, chargée de maintenir l’information active pendant que le cerveau la traite. Mais cela ne suffit pas.

Pour que ce qui est retenu se stabilise, l’information doit être stockée dans un type de mémoire sémantique, affective, spatiale ou temporelle. Se souvenir de vacances implique une mémoire épisodique, teintée d’émotion et de lieu ; en revanche, savoir que la capitale de l’Italie est Rome renvoie à une mémoire sémantique, dépourvue de contexte personnel.

À la main ou au clavier ?

Il est difficile aujourd’hui de trouver un espace où le clavier n’a pas presque entièrement remplacé l’encre ou le graphite. Cependant, il convient de rappeler que l’écriture manuscrite reste un outil puissant pour le développement cognitif : écrire à la main active un réseau plus large de régions cérébrales (motrices, sensorielles, affectives et cognitives) que la dactylographie. Cette dernière, plus efficace en termes de vitesse, exige moins de ressources neuronales et favorise une participation passive de la mémoire de travail.

En revanche, l’utilisation active de la mémoire à court terme (à l’aide d’outils non numériques) s’avère plus bénéfique tant en classe que dans les contextes cliniques liés à la détérioration cognitive.

Les pauses sont sacrées

Le rythme et les pauses sont également déterminants dans ce passage de la mémoire de travail à la mémoire à long terme. Les pauses actives, ces brefs moments où nous interrompons notre étude pour nous étirer, marcher ou contempler quelque chose sans but immédiat, permettent au cerveau de réorganiser ce qui a été appris et de le consolider plus solidement.

Cependant, aujourd’hui, ces pauses sont souvent associées à des activités impliquant l’utilisation d’écrans : téléphones portables, télévision, tablettes. Si l’on pouvait faire une comparaison avec l’exercice physique, on pourrait s’imaginer dans une salle de sport où l’on court à 12 km/h pendant les pauses entre les séries. Il se passe quelque chose de très similaire lorsque nous utilisons nos pauses pour regarder des vidéos rapides, lire des titres ou naviguer sans but sur les réseaux sociaux : l’esprit ne se repose pas, ne se consolide pas, et l’attention se fragmente.

Le travail pendant le sommeil

Les neurosciences soulignent également le rôle crucial du sommeil dans la consolidation de la mémoire. Pendant le sommeil à ondes lentes, le cerveau entre dans un état de synchronisation neuronale caractérisé par la prédominance des ondes delta (0,5-4 Hz), qui favorisent la réactivation des traces mnésiques – traces qui restent dans l’esprit après une expérience et qui servent de base à la mémoire et à la possibilité de se souvenir.

Ces oscillations lentes créent un environnement à faible interférence sensorielle qui facilite le dialogue entre l’hippocampe et le néocortex. On a notamment observé que les ondes thêta (4-8 Hz), plus fréquentes pendant la phase REM (Rapid Eye Movement) et également présentes dans les phases NREM (Non-Rapid Eye Movement) légères, interviennent dans ce transfert. Plus précisément, elles permettent le passage des souvenirs de leur stockage temporaire dans l’hippocampe vers les régions corticales de stockage à long terme.

Sommeil à ondes lentes sur un électroencéphalogramme. Wikimedia, CC BY

De même, les fuseaux du sommeil, brefs schémas d’activité cérébrale qui se produisent pendant le sommeil léger, générés principalement par le thalamus, sont associés au renforcement des connexions neuronales pertinentes.

Diverses études utilisant la polysomnographie et la neuro-imagerie ont montré des corrélations entre la densité de ces fuseaux de sommeil et les performances dans les tâches de mémoire épisodique.

Il a été suggéré que ces oscillations agissent comme une sorte de « marqueur de pertinence » qui sélectionne les informations méritant d’être consolidées.

Ainsi, pendant notre sommeil, le cerveau exécute automatiquement un processus de réorganisation et de renforcement de la mémoire. Il donne la priorité à ce qui est significatif et élimine ce qui est non pertinent. Ce n’est pas un hasard si, au réveil, une mélodie ou une phrase apparemment insignifiante nous revient sans effort à l’esprit : ce sont les échos de ce travail nocturne minutieux qui écrit la mémoire.

Reprendre de bonnes habitudes

Comprendre comment nous apprenons nous révèle également comment nous devrions vivre. Il ne s’agit pas seulement de réduire l’utilisation des écrans, mais aussi de retrouver un rythme plus humain. Écrire à la main aide à activer les réseaux neuronaux en profondeur ; pensons, par exemple, aux notes prises en classe et à la façon dont, en les relisant, les idées resurgissent plus clairement.

D’autre part, il est recommandé de reprendre l’habitude de faire de véritables pauses, loin des appareils : observer le vol d’un oiseau, sentir sa respiration, étirer son corps.

Il est également utile de renforcer ce que l’on a appris par de brefs exercices de récupération active.

De plus, il ne faut pas sous-estimer le rôle du sommeil profond : c’est là que la mémoire mûrit et fixe ce qui a été appris. Ce n’est que lorsque nous lui accordons le temps nécessaire pour se reposer et assimiler que la connaissance s’enracine véritablement. Ainsi, les mots qu’il lit aujourd’hui pourront devenir des souvenirs vivants, capables de l’accompagner au-delà des cinq prochaines minutes, peut-être même toute sa vie.

The Conversation

María del Valle Varo García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 10:23

COP30 : Comment éviter que le plastique ne devienne le canot de sauvetage de l’industrie pétrolière ?

Marie-France Dignac, Directrice de recherches sur la biologie des sols, INRAE, Inrae

Jean-François Ghiglione, Directeur de recherche, Ecotoxicologue, Centre national de la recherche scientifique (CNRS)

Recyclage ou pas, le plastique reste un piège&nbsp;: il émet des gaz à effet de serre et renforce notre dépendance au pétrole. Un enjeu clé de la COP30 qui se tiendra au Brésil en novembre.
Texte intégral (2997 mots)

Issus à 99 % du pétrole, les plastiques alimentent la crise écologique et climatique tout au long de leur cycle de vie. Derrière l’image trop familière des déchets qui polluent les rivières puis les océans, la production et le recyclage des plastiques sont aussi source d’émissions considérables de gaz à effet de serre, de quoi compromettre les efforts mondiaux de réduction des émissions. Surtout, les plastiques, un débouché du pétrole, entretiennent la dépendance de l’économie aux énergies fossiles. Le risque serait qu’ils deviennent la planche de salut des industriels de la pétrochimie à l’occasion de la COP30 sur le climat, qui se déroulera du 10 au 21 novembre 2025, à Belem, au Brésil.


À partir du 10 novembre 2025, la COP30 sur le climat réunira les États membres de l’Organisation des Nations unies (ONU) au cœur de la forêt amazonienne, au Brésil. Il s’agit d’un rendez-vous majeur du multilatéralisme, où l’on espère que les ambitions régulièrement formulées par les États vont enfin se concrétiser.

Le contexte international n’est pas forcément au beau fixe pour cela. Face à des pays qui nient la science, ou qui se soucient peu de l’environnement et de la santé humaine et refusent de comprendre que leurs propres économies en paieront le prix à long terme, les pays engagés dans la transition vers une économie moins polluante et moins dépendante des énergies fossiles peinent à se faire entendre. Les négociations en vue d’un traité contre la pollution plastique, qui n'ont toujours pas abouti à un texte, en fournissent un exemple éloquent.

Les preuves scientifiques sont pourtant très claires quant aux impacts de la production de plastiques sur la perte de biodiversité et la pollution à l’échelle planétaire. D’autant plus que ces impacts sont en réalité bien plus larges : les plastiques impactent la santé humaine et exacerbent le dépassement de toutes les autres limites planétaires. En cela, ils aggravent la crise écologique et climatique déjà en cours.


À lire aussi : Jusqu’à quand pourrons-nous dépasser les limites planétaires ?


Pas de plastique sans pétrole

L’impact climatique du secteur de la pétrochimie est moins souvent mis en avant que celui des secteurs de l’énergie et des transports, plus proches des consommateurs. Il fait pourtant figure d’éléphant dans la pièce : entre 4 et 8 % de la production de pétrole est aujourd’hui utilisée pour fabriquer des produits plastique. Près de 99 % de ces produits sont fabriqués à partir de pétrole.

Depuis l’extraction et le transport des combustibles fossiles, jusqu’à la fabrication, l’utilisation et l’élimination des plastiques, ces matériaux génèrent des émissions qui contribuent au réchauffement climatique. Les plastiques sont ainsi directement responsables de 3,5 % des émissions globales de gaz à effet de serre, dont la plupart sont générées lors de leur production.

Le recyclage des plastiques, souvent mis en avant par ces industriels, n’a rien d’une solution miracle. Toutes les technologies de traitement des déchets plastiques sont émettrices de gaz à effet de serre :

Dans un scénario de statu quo, si la production et l’utilisation de plastiques continuent d’augmenter au rythme actuel (soit un doublement de la quantité de plastiques produits tous les 20 ans), les émissions de gaz à effet de serre provenant des plastiques pourraient représenter de 10 à 13 % du budget carbone total (c’est-à-dire, la quantité de gaz à effet de serre que l’on peut encore se permettre d’émettre tout en restant sous la barre d’une hausse de +1,5 °C à l’horizon 2050).

Des impacts indirects à large échelle

Et encore, les chiffres qui précèdent ne tiennent pas compte du fait que les plastiques participent directement à la mondialisation de l’économie. Ils permettent de transporter les biens et denrées sur de très longues distances et de ce fait favorisent une économie basée sur une production loin des zones de consommation, fortement émettrice de gaz à effet de serre.

La pollution plastique se retrouve dans les rivières, les océans ou sur terre, sous différentes tailles (macro, micro ou nanoplastiques), et peut persister pendant des siècles. Selon l’OCDE, environ 22 % des déchets plastiques finissent dans l’environnement, dont une grande partie dans l’océan, nuisant à la vie marine.

Les aliments, l’eau et l’air sont ainsi contaminés et les microplastiques finissent, à travers la chaîne alimentaire, également dans notre corps. Les preuves scientifiques de l’impact des plastiques sur la santé humaine sont de plus en plus solides.

Mais ce n’est pas tout. Les plastiques agissent également indirectement sur le réchauffement climatique. En effet, les débris plastiques en mer modifient les cycles du carbone et des nutriments. En agissant sur les processus microbiens, ils diminuent la productivité en nutriments à la surface de l’océan. Résultat : les « pompes à carbone » de l’océan, qui ont permis de piéger environ 31 % des émissions anthropiques de CO2 entre 1994 et 2007, fonctionnent moins bien.

Par ailleurs, une méta-analyse récente a montré que la présence de microplastiques dans l’eau ou dans les sols pourrait diminuer la photosynthèse, et donc limiter la production de biomasse carbonée. Avec des impacts sur la sécurité alimentaire, mais aussi sur les puits de carbone naturels et le climat.


À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?


Les leçons du traité contre la pollution plastique

Reconnaissant tous ces dangers des plastiques pour la santé humaine et la santé de l’environnement, un comité intergouvernemental de négociation (CIN) a été créé en mars 2022 afin d’élaborer un instrument international juridiquement contraignant pour mettre fin à la pollution plastique dans tous les environnements. Et ceci, en tenant compte de l’ensemble du cycle de vie des plastiques.

La deuxième partie de la cinquième réunion de ce comité (CIN-5.2) s’est tenue à Genève, du 5 au 14 août 2025. Les négociations étaient basées sur le projet de texte du président du CIN proposé à la fin de la première partie du CIN-5 à Busan, en 2024.

À l’occasion de la reprise des négociations en vue d’un traité contre la pollution plastique, à Genève, en août 2025, une installation artistique de Benjamin Von Wong (Le Fardeau du penseur) pour sensibiliser au problème du plastique a envahi la place des Nations où trône l’emblématique Broken Chair. Florian Fussstetter/UNEP, CC BY-NC-ND

Plusieurs éléments de ce projet de texte peuvent avoir une réelle efficacité pour mettre fin à la pollution plastique. Il s’agit notamment :

  • de réduire la production de plastique (article 6),

  • d’interdire les produits plastique et les substances chimiques dangereuses pour les humains ou pour l’environnement (article 3),

  • de concevoir des produits en plastique moins polluants (article 5),

  • de limiter les fuites vers l’environnement (article 7)

  • et enfin de protéger la santé humaine (article 19).

Mais de nombreux pays font pression pour que ces mesures soient rejetées : les mêmes désaccords politiques qui avaient bloqué les négociations précédentes se sont reproduits à Genève.

Une coalition de pays qui ont tout intérêt à ne pas réduire la production de pétrole

Presque tous les plastiques sont fabriqués à partir de combustibles fossiles, c’est pourquoi les pays qui refusent de prendre des mesures ambitieuses – notamment l’Arabie saoudite, la Russie et l’Iran – sont essentiellement des pays producteurs de pétrole ou dotés d’industries pétrochimiques puissantes.

Les intérêts économiques en jeu sont donc importants. Ce groupe de pays partage les mêmes idées – nommé pour cela le « like-minded group » – et refuse d’inclure de tels objectifs. Ils privilégient un accord visant à gérer les déchets, sans réduire leur production.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Mais ce faisant, ils dénigrent tous les modèles scientifiques sur l’évolution de la pollution plastique, qui montrent qu’il est nécessaire de réduire la quantité de plastique produite chaque année afin de réduire la pollution par les plastiques tout au long de leur cycle de vie. On a également pu noter la forte présence des lobbies des entreprises pétrolières et des fabricants de plastiques, qui ne cesse d’augmenter au fil des négociations.

Le manque de consensus à la fin des négociations du CIN-5.2 peut être vu comme un échec des négociations.

Toutefois, le rejet massif du texte faible proposé le 13 août a aussi montré qu’une grande majorité de pays ne sont pas prêts à accepter un traité vidé de sa substance.

De nombreux pays ont souligné que ce texte ne permettrait pas d’atteindre les objectifs pourtant fixés dans le mandat à l’origine de ces négociations, et ont appelé à des mesures ambitieuses en accord avec la science, notamment une réduction de la production de plastique et une régulation des produits et substances chimiques dangereux, pour protéger la santé humaine et de l’environnement. La majorité des pays s’est aussi déclarée favorable à la poursuite des discussions.

Le multilatéralisme a montré à Genève la capacité des pays à construire une coalition forte et ambitieuse, rassemblant près de 120 pays (les 75 pays de la Coalition de haute ambition (HAC) et leurs alliés) et basant ses positions sur les faits scientifiques.

Acter l’abandon des énergies fossiles décidé lors des dernières COP

Espérons que ces avancées se concrétisent avec la poursuite des discussions sur le traité contre la pollution plastique, et qu’elles soient prises en compte dans les négociations climatiques lors de la COP30. La production de plastique ne doit pas menacer les efforts réalisés par les États pour limiter le recours aux énergies fossiles dans les autres secteurs.

Comme il a été reconnu lors des dernières COP sur le climat, notamment la COP28 en 2023, le monde doit s’organiser pour sortir progressivement des énergies fossiles.

D’importants efforts de recherche ont été consacrés à cette transition dans les secteurs de l’énergie et des transports, qui utilisent la majeure partie des ressources fossiles pour produire de la chaleur, de l’électricité et des carburants. Les énergies renouvelables remplacent ainsi peu à peu les produits pétroliers dans le mix électrique, ainsi que dans le secteur des transports.

D’autres secteurs, par exemple l’industrie lourde, doivent se réinventer : en effet, ils sont davantage dépendants aux produits pétroliers dans leurs processus industriels mêmes.

À cet égard, la pétrochimie souffre d’un problème de fond : elle contribue à maintenir à un niveau élevé la demande en pétrole, qui constitue un intrant de ses procédés industriels. Les produits pétrochimiques devraient ainsi représenter plus d’un tiers de la croissance de la demande mondiale de pétrole d’ici 2030, et près de la moitié de celle-ci d’ici 2050.

Les plastiques ne doivent pas devenir le radeau de secours de l’industrie pétrolière. En plus de contribuer aux émissions globales de gaz à effet de serre, ils détruisent les sols, empoisonnent les eaux et nuisent aux organismes vivants, y compris les humains. Sur les sept milliards de tonnes de déchets plastiques générés dans le monde depuis l’invention de ce matériau, moins de 10 % ont été recyclés, et cinq milliards de tonnes se sont accumulés dans la nature.

Les industriels de la pétrochimie, de l’extraction des énergies fossiles et leurs alliés cherchent une fois de plus à déplacer le problème : la production de plastiques pose un problème sanitaire, écologique, et climatique majeur. Réduire la production de plastiques constitue un levier incontournable pour maîtriser leurs impacts sur la planète.

The Conversation

Marie-France Dignac a reçu des financements de l'Agence de la Transition Ecologique (ADEME) et de l'Agence Nationale de la Recherche (ANR).

Jean-François Ghiglione a reçu des financements de l'Agence nationale de la recherche (ANR), de l'ADEME, de l'OFB et de l'Agence de l'eau

PDF

09.10.2025 à 10:23

Comment le plastique est devenu incontournable dans l’industrie agroalimentaire

Mathieu Baudrin,, Sociologue sciences et des technologies, Direction Sciences sociales, économie et société, Anses, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

Baptiste Monsaingeon, Maître de conférence en sociologie, Université de Reims Champagne-Ardenne (URCA)

Bernadette Bensaude-Vincent, Philosophe, Université Paris 1 Panthéon-Sorbonne

Des serres aux emballages, le plastique a façonné l’industrie agroalimentaire. Pour en sortir, il est intéressant de se pencher sur les leçons du début du XXᵉ siècle.
Texte intégral (1631 mots)

Des serres agricoles aux bouteilles d’eau, en passant par la recette du pain de mie, le plastique a transformé en profondeur toute l’industrie agroalimentaire. Face au problème grandissant de la pollution plastique, on peut s’inspirer, à travers l’approche des « métabolismes urbains », de ce qui était fait au début du XXe siècle.


La production massive de plastiques est devenue un marqueur de la seconde moitié du XXe siècle, souvent dénommée « l’âge des plastiques ». Leur introduction dans les chaînes de valeur de l’agroalimentaire date des années 1930. Elle procédait de deux dynamiques.

  • La première est l’essor de l’industrie pétrolière et de l’automobile : les plastiques étant un co-produit du craquage du pétrole, les compagnies pétrochimiques recherchent activement à étendre le marché des plastiques, qui se prêtent à tous les usages comme leur nom l’indique.

  • La seconde est l’intensification de l’agriculture, au lendemain de la Deuxième Guerre mondiale, pour faire face à une démographie galopante.

Le recours aux matières plastiques, progressif mais massif, a profondément modifié les pratiques alimentaires et agricoles, sans parler des aliments eux-mêmes.

Aujourd’hui, les impacts sanitaires et environnementaux des plastiques, en particulier sous leur forme micro et nanoparticulaires, sont avérés. La gestion (dont notamment le recyclage) des déchets plastiques n’est pas la seule en cause : c’est bien l’existence même des plastiques qui est en jeu.

Mais les mesures de réduction ou d’interdiction de l’usage de matières plastiques dans l’industrie agroalimentaire, du champ jusqu’au domicile des consommateurs, ne sauraient être appliquées sans une réflexion globale sur les pratiques actuelles de production, de distribution et de consommation des denrées alimentaires.

Un antifongique ajouté au pain de mie pour lui éviter de moisir dans son emballage

L’emballage des aliments fut le premier et reste le principal usage des plastiques dans l’agroalimentaire. Il correspond à un moment historique de changement dans la façon de stocker et de transporter les aliments, notamment grâce à la réfrigération.

C’est également un moment de reconfiguration des circuits de distribution avec le développement des supermarchés. Les plastiques deviennent alors incontournables et contribuent à structurer le marché alimentaire mondial tel que nous le connaissons aujourd’hui.

En effet, les emballages permettent d’allonger la durée de conservation des aliments et, surtout, facilitent la consommation nomade d’aliments et de boissons.

Si la bouteille en verre a permis la marchandisation de l’eau en lui attribuant une marque et des qualités, c’est bien l’invention de la bouteille d’eau en polyethylene terephthalate (PET) qui, à la fin des années 1970, a répandu son usage à l’échelle mondiale.

Les plastiques modifient jusqu’aux aliments eux-mêmes. C’est le cas du pain de mie commercialisé en sachets plastiques. Dès 1937, la firme Dupont lance un projet de recherche et développement (R&D) qui débouche sur l’ajout de « mycoban », un antifongique, à la farine utilisée pour réduire le risque de moisissure.

Les plastiques ont donc profondément changé nos manières de manger et même la nature de ce que l’on mange. Ils ont favorisé les aliments transformés par une foule d’intermédiaires et contribué à creuser le fossé entre les producteurs et les consommateurs de viande ou poisson conditionnés, surgelés, ou emballés.

Comment sortir de l’« agriplastique » ?

En amont des supermarchés, les pratiques agricoles ont, à leur tour, été transformées par les plastiques. D’abord introduits dans les années 1950 comme substituts au verre dans les serres horticoles, ils se sont généralisés depuis les années 1970 pour les cultures maraîchères sous tunnels et l’ensilage du foin.

En Europe, l’expansion des plastiques a été facilitée par la politique agricole commune (PAC). Lancée en 1962 par la Communauté économique européenne (CEE), celle-ci était au départ destinée à encourager l’agriculture intensive et productiviste.

Or, les tunnels de plastique permettent justement de cultiver et de produire des fruits ou légumes dans des terrains peu propices et d’étendre les saisons de production. Depuis, les surfaces recouvertes par des serres ou tunnels en plastique en Espagne et en France n’ont cessé d’augmenter.

Mais cette plastification de certaines cultures s’accompagne aussi de mutations socioprofessionnelles. Dans les vastes plaines recouvertes de tunnels plastifiés abritant des cultures de fraises (ou autres) à haute valeur ajoutée, on fait appel à une main-d’œuvre souvent étrangère, saisonnière et bon marché. Celle-ci travaille dans des conditions difficiles.

Les plastiques ont ainsi envahi les pratiques de production et les circuits de distribution des denrées alimentaires. Le mot « agriplastique » témoigne de l’enchevêtrement d’éléments humains, économiques et techniques, dont la dynamique tend à se renforcer avec le temps. Cela aboutit, après plusieurs décennies, à ce que nous pourrions qualifier de verrou sociotechnique.

Que faire pour se libérer de cette omniprésence des plastiques dans l’agroalimentaire ? Les plastiques étant constitutifs des chaînes de valeurs décrites, il serait naïf de penser qu’on pourrait conserver cette organisation marchande tout en éliminant les matières plastiques.

Ce constat ne doit pas pour autant pousser les décideurs à l’inaction. Il invite plutôt à une réflexion d’envergure sur une possible réorganisation des chaînes de valeur agroalimentaires. Afin d’initier cette réflexion, nous proposons de revenir sur quelques leçons de l’histoire.

Le plastique et l’invention du déchet

Au début du XXe siècle, l’économie des flux de denrées alimentaires entre populations rurales et urbaines fonctionnait en boucles quasi fermées. Les matières rejetées par les uns étaient utilisées, par exemple sous forme d’engrais, par les autres.

Dans ce contexte, la notion même de déchets n’existe pas encore, puisque rien n’est ni mis au rebut ni traité comme déchet ultime (c’est-à-dire, un déchet qui ne peut plus être traité davantage dans les conditions technicoéconomiques du moment).

Les fèces humaines sont alors vues comme des engrais agricoles, les chiffons peuvent devenir du papier, les carcasses d’animaux de travail sont réutilisées pour fabriquer des colles et autres produits du quotidien.


À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet


La rupture de ces « métabolismes urbains », tels que décrits par Sabine Barles, correspond historiquement à l’avènement de la chimie de synthèse. Se met alors en place un complexe industriel qui produit à la fois des engrais, des produits phytopharmaceutiques et des plastiques, trois catégories de produits constitutifs des chaînes de valeurs agricoles actuelles.

Il n’est certes ni envisageable – ni même souhaitable – de reproduire à l’identique les métabolismes urbains du début du XXe siècle. Ils reposaient largement sur la mobilisation d’une main-d’œuvre nombreuse sous-payée vivant dans la misère, par exemple les chiffonniers.

En revanche, on peut retenir l’idée d’une approche systémique, globale et métabolique au lieu de se contenter de chercher un matériau de substitution aux plastiques qui soulèvera, à son tour, des difficultés similaires. Il s’agit donc de repenser, avec les acteurs concernés, l’ensemble des filières agroalimentaires pour viser la sobriété plastique.


Cet article s’appuie sur le rapport d’expertise « Plastiques utilisés en agriculture et pour l'alimentation » Inrae/CNRS, publié en mai 2025.

The Conversation

Baptiste Monsaingeon a reçu des financements de l'ANR pour divers projets de recherche publique liés aux déchets et aux plastiques.

Bernadette Bensaude-Vincent et Mathieu Baudrin, ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

08.10.2025 à 16:33

Les Français face à la peine de mort, une histoire passionnelle

Nicolas Picard, Chercheur associé au centre d'histoire du XIXème siècle, Université Paris 1 Panthéon-Sorbonne

Robert Badinter, grand défenseur de l’abolition de la peine de mort, entre au Panthéon, le 9&nbsp;octobre 2025. La prise en compte d’une opinion publique fluctuante a beaucoup pesé sur les débats politiques au cours du XXᵉ&nbsp;siècle.
Texte intégral (2110 mots)

Robert Badinter entre au Panthéon ce 9 octobre. Il fut la grande figure du combat contre la peine de mort au moment de son abolition en 1981. À l’époque, 62 % des Français y étaient pourtant favorables. Quel rôle l’opinion publique a-t-elle joué dans les débats relatifs à la peine capitale au cours du XXe siècle ? Quels ont été les déterminants – notamment médiatiques – de son évolution en faveur ou contre l’abolition ?


Ce jeudi 9 octobre, Robert Badinter entre au Panthéon, en hommage à son rôle dans l’abolition de la peine de mort, et, en juin 2026, Paris accueillera le 9e Congrès mondial contre la peine de mort. Cette abolition est inscrite dans la Constitution depuis 2007, après un vote quasi unanime des parlementaires (828 pour, 26 contre). Tout concourt à en faire aujourd’hui l’une des « valeurs de la République » les plus consensuelles, enseignée dans les manuels scolaires et défendue par la diplomatie française. L’abolition n’apparaît guère menacée, y compris à l’extrême droite : les partis politiques ne font plus figurer le rétablissement de la peine capitale dans leur programme, malgré les déclarations de certaines personnalités.

Pourtant, la peine de mort a suscité des débats particulièrement vifs dans notre pays. Indépendamment des arguments philosophiques et scientifiques sur sa légitimité et sur son efficacité dissuasive, ses partisans ont longtemps pu s’appuyer sur le « sentiment public » de la population, auquel la répression pénale devait nécessairement s’accorder. Les opposants ont, à l’inverse, souligné à quel point ce sentiment était versatile, superficiel, et difficilement évaluable. La question de l’adhésion populaire à la peine capitale s’est ainsi reconfigurée à plusieurs reprises au cours du siècle dernier.

L’échec de l’abolition en 1908 : une opinion publique manipulée ?

L’idée qu’une écrasante majorité de citoyens serait en faveur de la peine de mort est largement répandue au début du XXe siècle, ce qui pourtant n’allait pas de soi au XIXe. Victor Hugo, lors de son discours à l’Assemblée nationale en 1848, affirme que, lors de la révolution de février, « le peuple […] voulut brûler l’échafaud » et regrette que l’on n’ait pas été « à la hauteur de son grand cœur ».

En 1871, la guillotine est d’ailleurs effectivement incendiée par un groupe de gardes nationaux pendant la Commune. Ce sont des partis progressistes, se présentant comme des défenseurs des intérêts populaires, qui poussent le thème de l’abolition dans leurs programmes, des socialistes aux radicaux. Ces derniers mettent l’abolition à l’ordre du jour parlementaire en 1906. Le président Fallières commence alors à gracier systématiquement les condamnés à mort en attendant l’examen du projet.

L’échec des [abolitionnistes] en 1908, témoigne d’un revirement spectaculaire, dans lequel l’évocation, ou la fabrication, de l’opinion publique joue le rôle principal. En pleine crise sécuritaire, alors que la presse déborde de faits divers sanglants et s’inquiète de la menace croissante des « apaches », ces jeunes voyous des faubourgs prêts à tous les crimes, l’abolition et les grâces présidentielles sont prises pour cible. De grands titres de la presse populaire n’hésitent pas à susciter l’engagement de leurs lecteurs, selon une logique réclamiste (visant à créer un évènement destiné à attirer l’attention du plus grand nombre).

À l’occasion d’une sordide affaire de meurtre d’enfant, l’affaire Soleilland, le Petit Parisien organise un « référendum »-concours rassemblant 1 412 347 réponses, avec un résultat sans appel : 77 % sont contre l’abolition. La mobilisation « populaire » s’observe également dans les pétitions des jurys s’élevant contre l’abolition, et dans la recrudescence des condamnations capitales. Dans l’Hémicycle, les députés opposés au projet évoquent cet état d’esprit d’une population inquiète. Cette popularité de la peine de mort semble vérifiée par les « retrouvailles » enthousiastes du public avec le bourreau, lors de la quadruple exécution de Béthune (Pas-de-Calais), en 1909, qui met un terme au « moratoire » décidé par Fallières.

Ces campagnes de presse et de pétitions des jurys reflètent-elles bien l’état de l’opinion publique ? Les principaux quotidiens sont ici juges et parties, prenant fait et cause pour la peine de mort et appelant leurs lecteurs à appuyer leur démarche. Le choix de faire campagne sur ce thème est un moyen pour les patrons conservateurs de ces titres, comme Jean Dupuy, de mettre en difficulté le gouvernement Clemenceau. De même, les pétitions des jurys sont en grande partie inspirées par une magistrature traditionnellement conservatrice. Il est certain que l’« opinion publique » a été influencée, mais l’écho rencontré par ces entreprises dans la population suppose une certaine réceptivité de celle-ci. En tous les cas, cette crainte de l’opinion a suffi à modifier les positions de nombreux députés radicaux, ralliés aux « morticoles ».

Retournement de l’opinion à partir des années 1950

La période s’étendant de l’échec abolitionniste de 1908 à l’après-Seconde Guerre mondiale, marquée par les violences de masse, n’est guère propice à une reprise du débat. La Libération et l’épuration représentent sans doute le point d’acmé dans l’adhésion de la population au principe de la mise à mort. La haine contre les collaborateurs conduit, dans les premiers mois, à des lynchages et à une sévérité extrême des tribunaux chargés de l’épuration, mais aussi des cours d’assises ordinaires.

Néanmoins, passée cette vague vindicative, la peine de mort perd rapidement du terrain (du moins en France hexagonale). Au début des années 1950, le nombre de condamnations capitales s’effondre, passant de plusieurs dizaines à quelques unités par an, des propositions de loi en faveur de l’abolition sont régulièrement déposées, à gauche comme à droite, des comités militants se forment. Surtout, les Français ne semblent plus aussi réceptifs aux campagnes de presse prônant la sévérité. Alors que le journal Combat s’engage en avril 1950 pour élargir la peine capitale aux parents dont les maltraitances ont entraîné la mort de leurs enfants, les courriers des lecteurs poussent le quotidien à réorienter son propos pour dénoncer les « causes profondes du mal » : taudis, misère et alcoolisme.

C’est à cette époque que les sondages, nouvel outil venu des États-Unis, permettent d’objectiver l’opinion publique et posent régulièrement la question de la peine de mort. La courbe du soutien à l’abolition s’élève à partir du milieu des années 1950 : de 19 % en 1956, elle passe à 58 % en 1969, à la faveur de la prospérité économique retrouvée et de la contestation croissante des valeurs autoritaires. Nombre d’intellectuels s’engagent et influencent l’opinion par leurs œuvres, qu’il s’agisse des écrivains Albert Camus ou Marcel Aymé, du cinéaste André Cayatte ou de l’avocat Albert Naud. Avec le concile Vatican II (1962-1965), la diffusion d’un christianisme plus social et réformateur permet de rallier une partie des catholiques.

C’est à partir du début des années 1970, notamment après l’affaire de Clairvaux, pour laquelle Claude Buffet et Roger Bontems sont guillotinés, après trois ans sans exécution capitale, que la peine de mort regagne des partisans : 53 % sont en sa faveur en 1972, 62 % en septembre 1981, à la veille du vote de la loi d’abolition. Cette poussée s’observe alors même que de plus en plus d’autorités religieuses, d’associations et de personnalités publiques s’engagent contre la peine de mort.

1981 : de quelle opinion parle-t-on ?

Paradoxalement, l’abolition est ainsi votée dans un contexte de remontée des préoccupations sécuritaires. Mais que valent vraiment ces sondages ? Outre les traditionnelles critiques adressées à cet outil, les abolitionnistes soulignent l’écart existant entre ces chiffres et les réticences certaines des jurés à condamner à mort. Les condamnations capitales restent en effet exceptionnelles. Comme l’affirme Robert Badinter, la véritable abolition serait déjà en large partie à l’œuvre dans les prétoires : 16 condamnations pour l’ensemble des années 1970, et « seulement » 6 exécutions, alors que le thème de l’insécurité prospère dans les médias.

L’abolition est aussi tacitement acceptée par les électeurs, qui portent au pouvoir en 1981 un homme, François Mitterrand, et une majorité politique, qui n’ont pas fait mystère de leurs intentions en la matière. Certes, la peine de mort n’a sans doute pas été le déterminant majeur du vote, mais lors de l’émission télévisée « Cartes sur table », le candidat socialiste ne s’est pas dérobé, en affirmant clairement sa position. Durant la campagne des législatives de 1981 consécutive à la dissolution, le ministre de la justice Maurice Faure présente l’abolition comme un chantier prioritaire, ce qui ne nuit en rien à l’écrasante victoire socialiste. Fort de cette onction démocratique, son successeur, Robert Badinter, a cependant conscience qu’il faut saisir le moment. L’Assemblée nationale, et de manière plus étonnante le Sénat pourtant acquis à la droite, votent l’abolition à la fin du mois de septembre 1981.

Il faudra attendre 1998 pour voir, dans les sondages, la courbe du soutien à la peine de mort croiser celle du soutien à l’abolition. Dans le même temps, cependant, le thème du rétablissement de la peine capitale ne fait plus recette chez les parlementaires, malgré le dépôt de quelques propositions de loi. Sur le long terme, les bénéfices politiques d’une prise de position abolitionniste semblent largement l’emporter sur un engagement inverse. Les associations abolitionnistes mobilisent bien davantage et sont plus structurées que les partisans de la peine de mort. Ce paradoxe est-il la preuve de la superficialité de l’adhésion à la peine capitale, voire de la dissonance cognitive de citoyens qui affirment la soutenir mais qui admirent les responsables qui s’y opposent ?

Dans les dernières enquêtes, le soutien à la peine capitale progresse, passant d’un minimum de 32 % en 2009 à 49 % lors de la dernière mesure de ce type, en février 2025. Comparer les sondages de 1981, alors que des exécutions étaient encore possibles, et ceux de 2025, alors que la peine de mort s’enfonce dans un passé de plus en plus lointain et que la probabilité d’un rétablissement apparaît illusoire, n’a cependant guère de sens. On peut y voir surtout un corollaire du succès actuel des thèses sécuritaires, qui trouvent à s’épanouir dans d’autres dispositifs.

The Conversation

Nicolas Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

08.10.2025 à 16:32

Jack l’Éventreur, premier « cold case » de l’histoire ?

Jean Viviès, Professeur de littérature britannique, Aix-Marseille Université (AMU)

Sur ce tueur en série du XIXᵉ&nbsp;siècle, nous savons peu de choses, mais les recherches des historiens, des linguistes et des biochimistes se poursuivent, proposant de nouvelles pistes de réflexion.
Texte intégral (1810 mots)

Que sait-on vraiment de ce tueur en série ? Pas grand-chose : même son nom est une invention. Aujourd’hui, l’enquête se poursuit au travers des recherches de la science forensique – l’ensemble des méthodes d’analyse fondées sur les sciences afin de servir au travail d’investigation –, mais aussi du côté de la stylométrie – un domaine de la linguistique qui utilise la statistique pour décrire les propriétés stylistiques d’un texte. Sans compter le travail des historiennes et historiens qui se penchent aussi sur les victimes du tueur, largement invisibilisées, et réduites non sans misogynie à un statut de « femmes de mauvaise vie ».


Jack l’Éventreur (« Jack the Ripper ») fascine toujours, à en juger par le nombre de livres et de films qui lui sont consacrés. Il y a eu depuis, malheureusement, bien d’autres tueurs en série, mais dans l’imaginaire il reste le premier à être qualifié ainsi, et le plus célèbre. La raison principale est sans doute qu’il n’a jamais été identifié. Une centaine de noms de suspects ont été évoqués, à l’époque des enquêtes puis au fil des décennies : immigrés, médecins, aristocrates, et certains un peu plus vraisemblables que d’autres, Aaron Kosminski – un barbier polonais –, Montague Druitt, un avocat, ou encore le peintre Walter Sickert, mais aucune certitude n’a pu être établie. L’auteur de Sherlock Holmes, Conan Doyle, s’amusa même à imaginer un assassin féminin : « Jill the Ripper ».

De nouvelles analyses

Certaines pistes de recherche actuelles s’appuient sur des travaux scientifiques et proposent des angles nouveaux.

Parmi les matériaux à exploiter se trouve la masse de lettres signées Jack l’Éventreur. La première de ces lettres est célèbre, adressée à « Dear Boss », le 25 septembre 1888. Sur un ton provocateur et théâtral, l’auteur y nargue la police et annonce d’autres meurtres. Depuis quelques années, la linguistique « forensique », discipline nouvelle, s’est penchée sur cette lettre et sur celles qui suivirent, notamment sur les trois qui semblent à l’analyse émaner de la même plume, « Saucy Jacky », le 1er octobre, et « From Hell », le 15 octobre.

Ces trois lettres ont été reçues avant que l’affaire ne soit rendue publique et sont donc les plus intéressantes. Les linguistes ont néanmoins étudié tous les textes prétendument écrits par « Jack l’Éventreur » afin de déterminer s’ils avaient été rédigés par la même personne. Un corpus Jack the Ripper a été compilé à partir des 209 textes comportant au total 17 643 mots. Andrea Nini de l’Université de Manchester a notamment fait progresser la question avec les outils numériques de la stylométrie.

On rappellera ici que, en fait, Jack l’Éventreur n’est pas le nom de l’assassin, mais celui de l’auteur de la première lettre, très probablement écrite par un journaliste au moment des faits et envoyée, non pas à la police mais, élément révélateur, à une agence de presse londonienne, la Central News Agency.

Toujours dans le domaine de la science forensique, les progrès en matière de recherche d’ADN ont semblé un temps de nature à élucider l’affaire. L’étude d’un ADN, prélevé sur le châle taché retrouvé près du corps d’une victime (Catherine Eddowes) et récupéré par un inspecteur de police de l’époque, a été confiée à Jari Louhelainen, biochimiste de l’Université John-Moores de Liverpool en collaboration avec David Miller, spécialiste de la reproduction à l’Université de Leeds. Ils ont extrait du châle de l’ADN mitochondrial et ont décelé une correspondance (« match ») entre une descendante de la victime et celle d’un suspect déjà bien repéré, un immigré polonais (Kosminski).

Russell Edwards, le commanditaire de ces recherches et actuel propriétaire du châle, a présenté cette découverte dans son livre Naming Jack the Ripper, paru en 2014. Mais d’autres spécialistes soulignent la provenance plutôt douteuse du morceau de tissu (a-t-il réellement été récupéré sur le lieu du crime ?) et le fait qu’il ait été beaucoup manipulé pendant plus d’un siècle. Aucune certitude ne peut en fait être tirée de ces analyses ADN.

D’autres tentatives, telles celle de la romancière Patricia Cornwell, à partir d’échantillons d’ADN prélevés sur un timbre et sur des enveloppes, et mettant en cause le peintre Walter Sickert, ont été largement diffusées dans deux de ses livres dont Ripper : The Secret Life of Walter Sickert (2017), mais elles n’ont pas convaincu la plupart des experts.

Qui étaient vraiment les victimes ?

La nouveauté la plus importante se trouve du côté des études historiques proprement dites où une recherche récente a changé la focale, en s’intéressant non plus à la galaxie des suspects mais aux victimes, notamment aux cinq femmes des meurtres dits « canoniques ». Ces cinq femmes ont été jusqu’ici trop vite assimilées à des prostituées en raison de leur pauvreté. Pour trois d’entre elles, il n’existe pas d’élément avéré qui confirme leur condition de prostituées. Mary Ann Nichols, Annie Chapman, Elizabeth Stride, Catherine Eddowes et Mary Jane Kelly, puisque tels sont leurs noms, n’étaient pas véritablement des prostituées. Cette idée très répandue a été déconstruite, notamment par Hallie Rubenhold dans son livre The Five : The Untold Lives of the Women Killed by Jack the Ripper (2019).

L’historienne montre que c’est à propos de deux des victimes seulement, Mary Ann Nichols et la plus jeune, Mary Jane Kelly, que des preuves attestent qu’elles ont exercé de manière régulière la prostitution. Pour les trois autres, rien ne permet de l’affirmer. Il s’agissait avant tout de femmes pauvres, sans logement fixe, qui affrontaient une situation économique et sociale des plus difficile dans l’East End londonien des années 1880. Les registres de la police du temps de même que les différents témoignages ne confirment pas leur état de prostituées. Cette représentation s’est installée, inspirée de récits à sensation et de préjugés et stéréotypes assimilant pauvreté et immoralité. Leurs vies sont davantage marquées par la misère, l’alcoolisme, la violence domestique et l’instabilité sociale.

La majeure partie de la littérature consacrée à Jack l’Éventreur s’est fixée sur le tueur sans visage et au nom fictionnel au détriment de ses victimes. Un contre-récit des meurtres est néanmoins possible, rendant leur place à des victimes sans défense, accablées par l’extrême pauvreté dans le Londres victorien. Y voir, au-delà d’une fascinante énigme criminelle, qui demeure, une série de féminicides à resituer dans le cadre d’une histoire sociale et non dans les faits divers criminels change la perspective : on s’intéresse dès lors moins à la manière dont ces victimes sont mortes qu’à la manière dont elles ont vécu.

Certains écrivains avaient anticipé les travaux des historiens. Ainsi, Jack London, dans son livre quasi contemporain des événements The People of the Abyss (le Peuple de l’abîme, 1903), a décrit la misère extrême du quartier de Whitechapel après s’y être lui-même plongé et a dénoncé les conditions économiques qui exposaient les femmes à la violence.

Avant lui, George Bernard Shaw avait écrit au journal The Star dès les premiers meurtres en soulignant qu’ils avaient au moins le mérite de mettre en lumière les conditions de vie misérables de l’East End, que la bonne société victorienne ignorait. Ces crimes, qui se caractérisaient par des mutilations sexuelles, s’inscrivaient par ailleurs dans une époque où la sexualité était un enjeu essentiel de contrôle social.

Un personnage qui hante la fiction

Les travaux des chercheurs continuent dans leur registre propre de s’inscrire dans cette fascination de l’« underworld », un monde sous le monde. En parallèle la postérité du personnage de Jack l’Éventreur conserve depuis près de cent trente ans sa place dans l’imaginaire occidental. La littérature et le cinéma s’étaient vite emparés du personnage.

Reprenant l’intrigue imaginée, en 1913, par la romancière Marie Belloc, Alfred Hitchcock réalisa en 1927 The Lodger, dans lequel un mystérieux locataire assassine des jeunes femmes dans Londres. Certains films restent dans les mémoires comme From Hell (2001), d’Albert et Allen Hughes, ou Time After Time (C’était demain, 1979), de Nicholas Meyer. On y suit Jack l’Éventreur dans un San Francisco moderne, pourchassé par H. G. Wells auquel il a volé la machine à voyager dans le temps. Les téléfilms et séries, bandes dessinées ou jeux vidéo abondent. C’est donc à la fiction, qui a rivalisé d’emblée avec la science et à qui il revint aussi d’incarner l’Éventreur, de lui donner un visage et une identité qui ont échappé encore à ce jour aux multiples enquêtes, nourries de techniques et de perspectives nouvelles.

Les recherches des historiens, des linguistes, des biochimistes et des spécialistes de « ripperology » (terme dû à l’écrivain anglais Colin Wilson) se poursuivent ou se réorientent, modifiant au fil des décennies notre vision de la célèbre affaire. Pour autant, l’icône culturelle qu’est devenu Jack l’Éventreur, presque un personnage conceptuel, n’y fait pas obstacle en offrant à nombre de travaux novateurs la visibilité qu’ils méritent. Jack l’Éventreur au nom inventé est comme devenu l’inventeur de toute une nouvelle sphère de savoirs.

The Conversation

Jean Viviès ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

08.10.2025 à 16:28

Comment recycler la chaleur perdue dans les usines ?

Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon

L’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. On peut «&nbsp;upcycler&nbsp;» une partie de cette chaleur, et des projets visent même à la stocker, ou à l’utiliser pour générer de l’électricité.
Texte intégral (2368 mots)

Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.


Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.

Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).

Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.

La chaleur fatale : une énergie thermique émise par toutes les industries sous de nombreuses formes

Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.

Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.

Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.


À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).

Comment recycler la chaleur fatale ?

Heureusement, des solutions existent pour recycler la chaleur fatale.

L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.

Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.

Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.

Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.

Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.

Les pompes à chaleur : une solution pour la valorisation du gisement « basse température » de chaleur fatale

Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.

Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.


À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir


Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :

schéma
Le cycle thermodynamique (Brayton inverse) utilisé par les pompes à chaleur haute température qui utilisent du CO₂ supercritique pour la valorisation de chaleur fatale. Alexis Giauque, Fourni par l'auteur

Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).

La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.

On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.

Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.

La recherche scientifique au service de la décarbonation de l’industrie

Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.

Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».

Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.

Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.


Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)

PDF

08.10.2025 à 16:27

L’électronique de puissance : méconnue mais omniprésente et source de toujours plus de déchets électroniques

Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay

Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)

Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1

Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA

Marina Labalette, Cheffe de projet, IRT Saint Exupéry

Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)

Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA

L’électronique de puissance est une brique indispensable de la transition énergétique. Mais avec la multiplication des usages vient l’enjeu des fins de vie des composants, difficiles à recycler.
Texte intégral (2471 mots)

C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?


L’un des leviers de la transition énergétique et de la décarbonation de l’économie&nbsp est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.

L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).

Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.

Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.

L’électronique de puissance, maillon clé de la transition

L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.

Diversité des applications (en termes de puissance et de taille) utilisant de l’électronique de puissance. Fourni par l'auteur

Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.

Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.

En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :

  • pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,

  • pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,

  • jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.

La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.

Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.

En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.

Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.


À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau


Des matériaux difficiles à réparer et à recycler

On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.

Composition typique des éléments d’électronique de puissance. En vert, on retrouve les matériaux les plus recyclables, jusqu’au noir pour les éléments les moins recyclables. Thèse de Boubakr Rahmani, Fourni par l'auteur

Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.

Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.

La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.

Rendre l’électronique de puissance plus soutenable

La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.

En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.

En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.

Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.

Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.

Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.


À lire aussi : Comment rendre l’électronique plus soutenable ?


The Conversation

Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.

Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.

Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

08.10.2025 à 16:27

Sharjah, une « ville ordinaire » dans le Golfe ?

Roman Stadnicki, Maître de conférences HDR en géographie, membre de l'Equipe Monde Arabe et Méditerranée (Laboratoire CITERES) & chercheur associé au Centre Français de Recherche de la Péninsule Arabique (CEFREPA, Koweït), Université de Tours

Contrairement à Dubaï ou Abu Dhabi, Sharjah a misé sur une urbanisation plus sobre et raisonnée. Cette ville-émirat remet en question la course à la démesure et propose une autre vision de la modernité dans le Golfe.
Texte intégral (2933 mots)
Front de mer d’Al-Majaz à Sharjah. Stadnicki/2023, Fourni par l'auteur

Gratte-ciel le plus haut du monde, pistes de ski dans des centres commerciaux en plein désert… Les Émirats arabes unis sont connus pour leurs projets urbains hors norme et leur goût pour la démesure. Sharjah, troisième ville la plus peuplée du pays après Dubaï et Abu Dhabi, a opté pour un chemin différent.


Sharjah, avec ses presque deux millions d’habitants, est-elle un « anti-Dubaï », comme le suggère Marc Lavergne, l’un des rares géographes français à s’y être intéressé ?

Agglomérée à la capitale économique des Émirats arabes unis, mais séparée d’elle par une frontière administrative – Sharjah est l’un des sept émirats de la fédération des Émirats arabes unis, dirigé par Sultan bin Mohamed Al-Qasimi depuis 1972 – et surtout symbolique, elle semble en effet, selon Marc Lavergne, explorer une autre voie « qui ne s’exprime pas tant dans l’urbanisme, l’architecture ou la banalisation du luxe que dans les attitudes sociales, elles-mêmes encouragées par le souverain, en phase avec l’héritage culturel et social ainsi qu’avec la condition matérielle de son émirat ».

Cité portuaire et industrielle (sans pétrole), modeste aujourd’hui, mais capitale déchue d’un empire maritime hier (soit avant l’essor de Dubaï et d’Abu Dhabi au XXe siècle), Sharjah fait de la culture et de l’éducation les axes forts de sa politique depuis plusieurs décennies, c’est-à-dire bien avant l’implantation d’universités étrangères et de musées internationaux ailleurs dans le Golfe.

Les politiques urbaines qui s’appliquent aujourd’hui largement dans cette région, et qui visent à resserrer les liens communautaires et identitaires face au multiculturalisme et à la mondialisation, autour du développement de « musées-racines » ou de projets de Heritage villages dédiés aux histoires nationales, ne sont-elles pas aussi le fait d’une inspiration portée plus discrètement mais depuis plus longtemps par Sharjah ? La ville a par exemple organisé en mars 2025 la 22ᵉ édition des Heritage Days, un événement populaire qui vise à promouvoir ses traditions pré-pétrolières.

Les villes secondaires n’exercent-elles pas une influence propre sur les métropoles, à l’encontre des idées reçues relatives à un prétendu « modèle Dubaï », qui fonctionnerait comme une grille explicative de toutes les configurations urbaines de la région et qui se reproduirait à l’envi dans le Golfe et même au-delà, au fur et à mesure que s’étend le rayonnement de ses promoteurs et investisseurs et que se développe la ville-spectacle ?

Célébration du désert lors des Heritage Days de mars 2022 à Sharjah. Stadnicki/2022, Fourni par l'auteur

Contre le « modèle Dubaï »

Mais sommes-nous, dans le cas de Sharjah, réellement dans l’anti-modèle, ou bien dans l’expression d’une modernisation prudente, marquée par un rapport ambivalent au modèle métropolitain de Dubaï ? Trois stratégies de singularisation sont à relever : une forme de conservatisme ; la mise en valeur de l’art ; et le renouveau institutionnel-urbain.

En premier lieu, l’attitude conservatrice se retrouve dans un respect des traditions islamiques plus marqué que dans les émirats voisins (nombre important de mosquées, fermeture de la plupart des restaurants pendant le ramadan, conservation du vendredi comme jour chômé, consommation d’alcool interdite), mais aussi dans la volonté des acteurs politiques locaux de protéger la ville des excès de la mondialisation, afin d’éviter qu’elle soit « noyée dans la culture globale », comme le craignait un conseiller de l’Émir interrogé en 2022 par l’auteur de ces lignes.

« Trop de globalisation » tend inévitablement vers la superficialité et la perte d’identité, d’après ce dernier, qui s’est dit inquiet de la tendance actuelle des Émirats consistant à vouloir faire tenir ensemble, dans un même projet de territoire national, « la culture, le patrimoine, l’entertainment et la modernité ». Il prônait alors une forme de patriotisme local ainsi que des « relations culturelles profondes », comme celles qu’a nouées l’Émirat de Sharjah avec le continent africain, via l’Africa Institute notamment. Là sont les clés pour que Sharjah demeure, selon ses vœux, « une ville arabo-islamique cosmopolite ».

En deuxième lieu, l’Émirat investit dans l’art et la culture depuis le début des années 1980, notamment à travers la Sharjah Art Foundation qui organise la Biennale d’art contemporain. À cet événement culturel majeur s’ajoutent la Foire internationale du livre organisée chaque année depuis 1982 et, depuis 2013, le Festival international du cinéma pour la jeunesse, ainsi que l’ouverture d’une douzaine de musées et galeries dans la ville qui participent à l’animation du secteur Heart of Sharjah. La Sharjah Art Foundation implique directement la famille régnante et est dirigée par Hoor Al-Qasimi, fille de l’Émir. Sharjah se positionne ainsi sur une scène mondialisée tout en attirant des flux d’acteurs et d’amateurs à fort capital culturel.

Sharjah laisse à Dubaï, arrivée plus tardivement sur le « marché de l’art » (Art Dubai Fair depuis 2007, inauguration du quartier artistique Alserkal Avenue dans d’anciens entrepôts industriels d’Al-Quoz en 2008), la partie strictement commerciale.

En troisième lieu, un renouveau institutionnel est à relever en matière d’urbanisme. Ce phénomène se manifeste notamment par l’augmentation de parts de marché acquises ces dernières années par l’entreprise publique Shurooq, fondée au début des années 2010 et dirigée par une autre fille de l’Émir, Bodour Al-Qasimi. À travers l’élargissement de son champ d’action, qui va désormais de la réhabilitation du centre-ville aux nouveaux projets de gated communities périurbaines, en passant par le développement d’espaces publics (parcs Al-Muntaza et Al-Rahmaniyah, promenades Al-Majaz et Qasba) et de resorts touristiques sur la côte Est de l’Émirat (grâce à ses exclaves Kalba et Khor Fakkan, Sharjah est le seul des sept Émirats de la Fédération à regarder à la fois le golfe Persique et le golfe d’Oman), Shurooq assume le redéploiement de l’État dans toutes les sphères de l’aménagement du territoire.

La montée en puissance de l’entreprise est justifiée, d’après une cadre dirigeante que nous avons interrogée en 2023, par la nécessité de réguler le secteur de l’immobilier, jusque-là aux mains d’acteurs privés, d’installer un intermédiaire entre la population et l’État pour toutes les questions d’aménagement et d’urbanisme, ou encore de renforcer les liens avec toutes les autres institutions publiques en charge du territoire. Shurooq cherche donc à se placer au cœur du système institutionnel, à incarner autant la vision de l’Émir – ne pas basculer dans le « tout-commercial » et « garder ses racines » ainsi que le souci du « bien commun » et de la « croissance progressive », dans les termes de la cadre dirigeante – que les besoins de la population.

La démolition de l’urbanisme moderniste passablement délabré, pourtant déjà bien engagée à Sharjah, au profit d’un « master plan romantique et authentique » promis généralement par les promoteurs, n’est ainsi « pas souhaitable » selon cette femme qui reconnaît un attachement de la population à ce patrimoine récent, ainsi que le déploiement d’une « vie organique » en ces lieux ; « tout ne peut pas être planifié », insiste-t-elle à rebours des « visions stratégiques » descendantes de l’aménagement s’appliquant en général dans le pays.

L’entreprise Shurooq est malgré tout amenée à faire des compromis en s’associant, sous la forme de joint-ventures, à des promoteurs privés performants des Émirats arabes unis (Eagles Hills pour le projet d’aménagement de l’île Maryam et Diamond pour le nouveau quartier Sharjah Sustainable City, par exemple). Mais alors que la responsable rencontrée reconnaissait que Shurooq pouvait manquer d’expertise à ses débuts, ce qui justifiait ces partenariats, elle estime que son entreprise est désormais pleinement compétente et légitime pour porter seule des projets urbains sur le territoire de l’Émirat, sans toutefois réprouver ces partenariats public/privé en cours.

Tournant immobilier

Cette triple stratégie, conservatrice, artistique et institutionnelle, a tendance à distinguer Sharjah du reste des villes émiriennes, et même parfois à susciter l’admiration de certains acteurs urbains du pays. Un fonctionnaire du Département des Municipalités et des Transports d’Abu Dhabi nous exprimait ainsi en 2023 son intérêt pour le modèle de développement de Sharjah, soutenu par un Émir « lumineux », où « tout n’est pas régi par l’argent ».

Mais cette distinction s’estompe sur d’autres aspects du développement actuel de Sharjah. Frontalière de Dubaï, elle constitue un débouché naturel de la poussée métropolitaine dubaïote. Alors que la ville a longtemps tiré ses revenus de l’hébergement des travailleurs expatriés (employés à Dubaï mais aussi sur le port industriel de Hamriyah situé entre Sharjah et Ajman), ressource « peu valorisante », elle peut désormais doper son économie immobilière, sur un segment à plus forte valeur ajoutée : en 2023, l’Émirat de Sharjah a connu un essor remarquable de ses activités immobilières. Le total des transactions a dépassé les 19 milliards de dirhams émiratis (AED) (soit 4,8 milliards d’euros environ), marquant une augmentation significative de 14,6 % par rapport à l’année précédente. Des investisseurs de 97 nationalités différentes ont en outre participé au marché immobilier de l’Émirat au cours de la même année.

Les citoyens émiriens, en particulier, ont investi 11,1 milliards d’AED (2,8 milliards d’euros) dans 15 857 propriétés.

Non seulement les derniers produits livrés à Sharjah ressemblent de plus en plus à ceux de Dubaï – le cas de Sharjah Sustainable City, duplication de Dubai Sustainable City par le promoteur Diamond (associé à Shurooq pour le cas de Sharjah), en est un bon exemple –, mais les promoteurs de Sharjah viennent aussi pénétrer l’espace dubaïote.

Ainsi, en mars 2022, les deux promoteurs privés Arada et Alef ont occupé l’entrée principale du mall de Dubaï Festival City avec des maquettes géantes et des petits espaces de vente. La clientèle de Sharjah, coutumière de ces lieux, est principalement visée et, avec elle, les investisseurs refroidis par la flambée des prix à Dubaï, ainsi que, de plus en plus, la clientèle internationale qui pourrait supporter un léger décentrement par rapport à l’axe Dubaï/Abu Dhabi à condition de pouvoir accéder à des produits immobiliers offrant les mêmes standards à des tarifs inférieurs.

C’est à cette dernière clientèle que s’adressait prioritairement la chargée de communication du projet Hayyan (Alef), une gated community en construction à l’extrême sud de Sharjah, rappelant aux clients du mall qu’elle interceptait la possibilité offerte par la loi émirienne de revendre un bien acheté sur plan avant livraison du projet. Son homologue d’Arada, quant à lui, vantait les mérites de la nouvelle centralité urbaine Aljada, dont le slogan est « The new downtown of Sharjah » (voir ci-dessous), auprès des étudiants de Sharjah à qui leurs parents pourraient offrir un appartement dans ce nouveau quartier situé à proximité de l’Université américaine de Sharjah, la première des institutions académiques fondées sur le modèle américain dans le Golfe, ouverte depuis 1997.

Ces logiques de développement immobilier qui s’imposent aujourd’hui à Sharjah sous l’effet de la proximité de Dubaï remettront-elles en question, à terme, les velléités de distinction de cette ville secondaire des Émirats arabes unis ayant fait le choix revendiqué de la modernité prudente ? Sharjah connaîtra-t-elle elle-même cet effet de mimétisme puis de saturation ?

Ces interrogations, suscitées par la rapidité de la poussée urbaine dans le nord du pays ainsi que par les rapports complexes entre les métropoles Abu Dhabi et Dubaï et les villes secondaires satellisées et parfois même inféodées, justifient de poursuivre l’investigation de Sharjah.

Seule la mise en perspective de toutes les échelles territoriales permettra d’éclairer le fonctionnement des systèmes urbains dans le Golfe et d’en mettre au jour les différenciations socio-spatiales, au-delà d’une apparente homogénéité dans l’application locale des normes de la mondialisation économique.

En raisonnant à la manière de Jennifer Robinson, qui incite à varier les référents géographiques de la recherche urbaine internationale, Sharjah incarnerait un certain « ordinaire » golfien – divers, connecté et même contesté – qui a trop peu retenu l’attention des chercheurs, dont l’une des missions est pourtant de combler le vide représentationnel et la faible historicité.

L’importance des rapports transnationaux « Sud-Sud » qui caractérisent la ville depuis sa formation ; les contradictions générées par la cohabitation des attitudes conservatrices et des volontés d’ouverture ; l’organicité de la vie urbaine dans des territoires quotidiens cosmopolites assez faiblement contrôlés apparus en marge d’un urbanisme par projet plus fortement encadré ; tout cela invite non seulement à désexceptionnaliser le Golfe urbain, mais aussi à voir en Sharjah un archétype possible de la confrontation des modernités urbaines contemporaines.


Ouvrage de Roman Stadnicki à paraître en 2026 : Au-delà de Dubaï. Projeter et produire la ville moderne dans le monde arabe, Éditions de l’Aube, collection « Bibliothèque des territoires ».

The Conversation

Roman Stadnicki a reçu des financements du programme ANR Spacepol : https://spacepol.hypotheses.org/.

PDF

08.10.2025 à 16:26

L’opinion israélienne face à Gaza : déni, consentement ou aveuglement ?

Jérome Bourdon, Hstorien des médias, chercheur associé au CARISM, Université Paris-Panthéon-Assas; Tel Aviv University

Depuis le 7&nbsp;octobre 2023, la majeure partie des Israéliens semble n’avoir aucune empathie pour les victimes civiles à Gaza. Plusieurs facteurs explicatifs permettent de comprendre les causes de cette indifférence.
Texte intégral (3500 mots)

La majeure partie des Juifs israéliens paraît indifférente à l’égard des destructions colossales infligées par Tsahal aux Gazaouis, quand elle ne conteste pas en bloc le bilan humain avancé par les organisations internationales. Cinq principaux facteurs explicatifs permettent de mieux comprendre les ressorts de cette attitude.


L’interrogation court dans de nombreux médias, surtout européens : pourquoi l’opinion publique israélienne ne réagit-elle pas à la situation dramatique de Gaza, à la famine (internationalement reconnue depuis août 2025) et au massacre de dizaines de milliers de personnes, dont une grande majorité de civils fait qu’on ne prend plus guère la peine de réfuter en Israël mais qu’on justifie plutôt comme résultant d’une stratégie du Hamas consistant à s’abriter derrière la population gazaouie.

Cette question est délicate car elle touche non seulement à la critique du gouvernement ou de l’État, mais de la société israélienne même, à un moment où « Israël » (quoi qu’on désigne par le nom du pays) n’a jamais été autant critiqué, dans un débat hyperpolarisé. Les agissements de l’armée, du gouvernement, des colons, ont rendu pertinentes des analogies qui furent contestables, ou purement polémiques, comme « apartheid » bien sûr et, désormais, le terme « génocide », accepté de façon croissante tant par des historiens que par des juristes. Nous traiterons ici du cas d’Israël, mais il faut rappeler que les interrogations sur des opinions publiques confrontées à un massacre de masse perpétré par leur pays ont une longue histoire, qu’Israël vient aujourd’hui illustrer d’une façon particulière.

Dans la dernière semaine de juillet, selon le quotidien Maariv, 47 % des Israéliens considèrent l’affirmation selon laquelle Gaza est en proie à la famine comme un mensonge et le fruit de la propagande du Hamas ; 23 % reconnaissent la réalité de la famine et disent s’en soucier ; 18 % reconnaissent l’existence de la famine et disent ne pas s’en soucier ; et 12 % sont sans opinion. Selon l’Institut israélien pour la démocratie, 79 % des Israéliens juifs se disent peu ou pas troublés par les informations relatives à une famine à Gaza : mais y croient-ils ou pas ? La question est trop vague. Dans le même sondage, 79 % se disent persuadés qu’Israël fait des efforts substantiels pour atténuer les souffrances des Palestiniens, ce qui est aussi une façon de réduire la portée de ces souffrances, et du massacre. Ces chiffres ne concernent pas les citoyens palestiniens d’Israël, qui sont selon le même Institut, 86 % à se dire « troublés ou très troublés » par la catastrophe humanitaire à Gaza.


À lire aussi : Ce que masque l’expression « Arabes israéliens »


Ces sondages sont susceptibles d’interprétations diverses, mais ils montrent une société qui ne reconnaît que très partiellement la famine et y voit parfois une campagne de propagande du Hamas dont les médias étrangers sont perçus comme complices. Même s’ils reconnaissent la famine et le massacre, les Israéliens s’en déresponsabilisent de plusieurs façons. De surcroît, ils sont massivement partisans de ce qu’on appelle en hébreu le « transfert » des Gazaouis dans d’autres pays, c’est-à-dire d’un nettoyage ethnique.

De multiples facteurs permettent de comprendre la façon dont les Israéliens justifient de telles opinions et se dédouanent de toute culpabilité ou responsabilité pour le sort des Palestiniens – processus qu’un chercheur israélien analysa dès la seconde intifada (2000-2005). Certains de ces facteurs sont anciens mais ont été très amplifiés par le 7-Octobre. Ils sont plus ou moins spécifiques au pays.

Facteur 1 : le ralliement autour du drapeau

Le premier facteur, le ralliement autour du drapeau (Rally round the flag), n’est pas un phénomène propre à Israël ; en général, une guerre jugée comme étant juste confère un surcroît de légitimité et de popularité aux gouvernants, y compris parmi certains opposants ou indifférents. Étudié surtout aux États-Unis, ce ralliement génère ainsi des surcroîts de popularité remarquables autour de la figure du président.

En Israël, il s’est manifesté de façon puissante à deux moments.

D’abord, dans les mois qui suivent le 7-Octobre. Le soutien à la guerre est alors massif. Mais le cas israélien illustre aussi le caractère souvent peu durable de ce ralliement, qui a commencé à s’effriter, par paliers, lorsque la population comprend que le gouvernement donne la priorité à la poursuite de la guerre au détriment du retour des otages, ce qui est devenu tout à fait évident le 9 septembre 2025 avec le bombardement de Doha au Qatar, où siègent les négociateurs du Hamas.


À lire aussi : Israël peut-il invoquer la légitime défense pour justifier sa frappe au Qatar ?


L’autre moment est l’attaque de l’Iran par Israël, appuyé par les États-Unis (13-25 juin 2025). Quelles que soient les intentions déclarées (détruire Israël) et les capacités réelles de la République islamique, la diabolisation de ce régime – et de ses alliés (le Hezbollah au Liban, les Houthis au Yémen), traités comme de purs agents aux ordres de Téhéran – est ancienne dans les médias israéliens, qui ici ont reflété le point de vue martelé par Nétanyahou de longue date.

La popularité du premier ministre a connu un pic quand Tsahal a bombardé l’Iran, et l’opposition à l’attaque est demeurée tout à fait marginale, y compris chez beaucoup d’opposants à la guerre à Gaza.

Enfin, ce ralliement autour du drapeau concerne aussi la fidélité à une armée encore dépendante des citoyens et des réservistes : les Israéliens sont ici pris au piège de leur fidélité à Tsahal, refusant de voir à quel point leur armée a été pénétrée par un courant national-religieux ouvertement xénophobe et annexionniste, voire génocidaire, processus déjà analysé il y a dix ans et qui s’est accéléré depuis. Il est difficile de renoncer à cette fidélité, qui a été, et demeure, un ciment d’une société très fragilisée.


À lire aussi : Les guerres d’Israël et la question de la morale


Facteur 2 : l’obsession victimaire

Le deuxième facteur est plus spécifique au pays : entretenue par l’appareil d’État, les médias et le système éducatif, l’obsession victimaire, autour de la mémoire de la Shoah, a été réveillée et renforcée par le 7-Octobre, vite devenu en Israël une date saillante qui n’a plus besoin que l’année soit précisée (comme le 11 Septembre aux États-Unis).

Depuis, les visages et noms des otages, rejoints par ceux des centaines de soldats tombés à Gaza, sont omniprésents dans l’espace public israélien, aussi bien analogique (sur les arbres des villes, les vitrines des magasins) que numérique.

La plupart des Israéliens (et des pro-Israéliens en dehors d’Israël) traitent le 7-Octobre comme le point de départ de la guerre, voire comme un commencement absolu, comme s’il n’y avait pas eu, avant, toutes les guerres avec Gaza, la longue occupation, le décompte macabre des blessés et morts palestiniens de longues années durant.

Les actes d’extrême violence perpétrés ce jour-là par le Hamas envers les civils, le nombre élevé de morts et la mise en évidence de la vulnérabilité de l’armée ont tétanisé l’opinion.

Facteur 3 : la droitisation de la société israélienne

En troisième lieu, le 7-Octobre et la guerre ont accéléré le processus de droitisation d’une société qui fut un temps (au moins pour une moitié), disposée à une paix fondée sur un compromis avec les Palestiniens après les accords d’Oslo de 1993, compromis auquel même l’armée se rallia.

Après l’échec du processus en 2000, et la deuxième intifada, s’est installée l’idée qu’« il n’y a pas de partenaire » pour la paix – mot d’Ehud Barak, alors premier ministre, massivement repris depuis.

Cela a préparé le terrain à une déresponsabilisation israélienne par rapport aux Palestiniens. Aujourd’hui encore, on peut se dire « de gauche », mais si les Palestiniens veulent la guerre, alors… De surcroît, le 7-Octobre entraîne aussi une relecture de l’histoire, ravive le trauma des anciens combattants, contribue à ternir un peu plus l’image des Palestiniens, voire à revaloriser celle des colons.

Facteur 4 : l’effacement et la diabolisation des Palestiniens dans les médias israéliens

Quatrième facteur : les médias israéliens jouent un rôle majeur dans l’invisibilisation des Palestiniens de Gaza en tant qu’êtres humains auxquels on pourrait s’identifier, et dans leur assimilation à des « terroristes », terme plus employé que jamais (même si ce fut déjà le cas lors de la guerre du Liban de 1982).

Les grands médias ignorent les crimes de guerre que des soldats eux-mêmes ont rapportés, ainsi que les bombardements massifs des populations et des infrastructures. Les journalistes israéliens « embarqués » auprès des militaires (embedded) ne décrivent la guerre que du point de vue des difficultés et souffrances des soldats.

Les victimes civiles palestiniennes sont largement effacées de l’actualité. Dans ce contexte, la famine devient un problème de « hasbara », de « diplomatie publique » mal conduite. La droite et l’extrême droite israéliennes dénoncent une « campagne de la faim » organisée, à base de fakes, avec la « complicité » de l’ONU. On parle d’un « Gazawood », d’images largement mises en scène – un processus de déni des images de souffrance qui remonte à la deuxième intifada, quand avait été forgé le terme « Pallywood ».

Depuis le 7-Octobre, l’usage même du mot de « palestinien » a reculé. Dans les nombreux discours prononcés lors des manifestations contre Nétanyahou, ou pour le retour des otages, on ne l’entend pratiquement pas. Dans des déclarations génocidaires, des responsables israéliens ont utilisé des formules comme « animaux humains » (Yoav Gallant, alors ministre de la défense) ou « monstres » (Nétanyahou). En janvier 2024, le ministre du patrimoine Amichai Eliyahu a proposé de lancer une bombe atomique sur Gaza et, en août 2024, Bezalel Smotrich, ministre des finances, a souhaité aux Gazouis de mourir de faim.

Fin juillet 2025, on a pu croire à un tournant, à une reconnaissance de l’humanité palestinienne souffrante, autour d’un reportage où la présentatrice vedette du pays, Yonit Levi, a évoqué une « responsabilité morale » de son pays et montré des photos d’enfants faméliques à la Une de médias occidentaux.

Le 23 juillet, Ron Ben Ishai, célèbre correspondant de guerre écrit : « Il y a des enfants qui ont faim à Gaza », mais en conclut qu’il faut seulement changer la méthode de distribution de nourriture par le Gaza Humanitarian Fund (GHF), fondation américaine mise en place avec l’aide des Israéliens, et que les humanitaires internationaux avaient dénoncée dès sa mise en place en mai. Comme on sait, chaque distribution s’est accompagnée de la mort de Palestiniens sous les balles de l’armée.

À l’été, des centaines de manifestants commencent à brandir des photos d’enfants de Gaza, morts ou affamés, soit lors de grands rassemblements, soit lors de manifestations modestes.


À lire aussi : Israël-Gaza : des associations israéliennes militant pour la paix offrent une lueur d’espoir


Mais la prise de conscience est demeurée modeste. Si la majorité des Israéliens veulent aujourd’hui la fin de la guerre, c’est avant tout parce qu’ils espèrent que celle-ci signifiera le retour des otages survivants.

Les véritables critiques de la guerre savent de longue date qu’ils ont plus de chance d’être entendus en dehors d’Israël qu’au-dedans, alors même que ce sont d’abord les Israéliens qu’ils voudraient atteindre. Bien avant le 7-Octobre, l’ONG « Breaking the Silence » (fondée en 2004), qui collectait des témoignages de soldats sur les exactions commises dans les territoires occupés, s’est retrouvée plus sollicitée et citée à l’extérieur d’Israël qu’à l’intérieur.

En juillet, deux ONG israéliennes – B’tselem, qui recense les violations des droits de l’homme dans les territoires, et Physicians for Human Rights – ont reconnu ce qu’ils ont appelé « notre génocide ». Cette formulation a eu beaucoup plus d’écho dans les grands médias européens et américains que dans les médias israéliens.


À lire aussi : Israël-Hamas : le mouvement pour la paix a-t-il été assassiné le 7 octobre ?


Facteur 5 : obsession de la critique extérieure

Cinquième facteur, ancien lui aussi : la société israélienne est plus que jamais obsédée par la critique extérieure. Les médias israéliens négligent les soutiens médiatique et politiques qu’Israël reçoit, surtout à droite ou à l’extrême droite, ou n’en parlent qu’au moment où ce soutien apparaît perdu, contribuant à accentuer un sentiment qui confine à la paranoïa.

Les incidents antisémites et/ou anti-israéliens sont couverts en détail. Le spectre est large. Sont dénoncés aussi bien des actes manifestement antisémites comme des agressions de Juifs à Milan en juillet ou à Montréal en août, que des appels au boycott d’institutions, d’artistes ou d’intellectuels israéliens. Ainsi, le refus de certains chercheurs français de participer, en septembre, à un colloque au Musée d’Art juif de Paris en raison de la présence d’universitaires israéliens dont la venue est financée par leurs institutions qui apparaissent comme partenaires de l’événement a fait beaucoup de bruit.

Enfin, la presse israélienne est à peu près seule à couvrir le mauvais accueil ou le refus de servir des touristes israéliens, et les Israéliens voyageant beaucoup… Haaretz, journal devenu radicalement critique de la guerre, et très singulier dans le paysage médiatique israélien, couvre lui aussi ces incidents ou agressions, dès le printemps 2024.

Si l’écart entre les couvertures israélienne et internationale du conflit a toujours été grand, il s’agit aujourd’hui d’un gouffre. Les Israéliens et la plupart des Occidentaux (sauf ceux qui ne s’informent qu’à la droite et l’extrême droite) ne vivent simplement pas dans le même monde.

Ce fossé pourra-t-il être comblé ? En tout état de cause, il faudra bien, le jour venu, rendre des comptes, comme le dit Sarit Michaeli, secrétaire générale de Beit Tselem, au terme de ce reportage « micro-trottoir » du Guardian à Tel-Aviv.

En dernier lieu, malgré son coût économique et moral, les élites de l’armée, ainsi que des partis et personnalités politiques prêts à s’allier à Nétanyahou, ont un intérêt à la poursuite de la guerre – ce qui est bien sûr aussi le cas du chef du gouvernement, qui fuit ses procès en cours et rêve de réélection, dans une course folle et criminelle. Dans la guerre, l’armée n’en finit pas de se laver de son aveuglement face aux préparatifs du 7-Octobre par le Hamas, et fait reculer l’établissement d’une véritable commission d’enquête sur le massacre, maintes fois réclamée.

L’impuissance des observateurs étrangers

Ralliement autour du drapeau et de l’uniforme, obsession victimaire, droitisation de la société, effacement du peuple attaqué réduit à un groupe de terroristes actuels ou potentiels, obsession de la critique extérieure, intérêt des élites à la poursuite de la guerre qui peut aussi unir, au moins un temps, une nation en crise : isolés et parfois conjugués, ces facteurs se sont retrouvés dans d’autres moments génocidaires.

Ce qui est singulier, c’est moins le processus lui-même que la croissante attention internationale qu’il reçoit. Bien connue des spécialistes du génocide, l’impuissance des « bystanders », y compris ceux qui s’indignent, n’en est que plus remarquable, et non moins tragique que l’aveuglement de l’opinion israélienne.

The Conversation

Jérome Bourdon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

08.10.2025 à 16:25

Cadeaux virtuels, pression sociale, gamification : les TikTok Lives, des machines à capter l’attention et l’argent des ados

Marina Ferreira Da Silva, Enseignant-chercheur en Sciences de Gestion, Université de Rouen Normandie

Emilie Hoëllard, Maître de conférences en sciences de gestion, Université Le Havre Normandie

Les TikTok Lives favorisent une logique de dons impulsifs. Il importe d’identifier leurs stratégies pour mieux en protéger les adolescents.
Texte intégral (1712 mots)

TikTok s’appuie sur un modèle économique conçu pour capter l’attention et renforcer la dépendance de son audience. Le format des lives favorise en particulier une logique de dons impulsifs. Il importe d’identifier ces stratégies pour mieux en protéger les adolescents.


Jeudi 11 septembre 2025, la commission d’enquête parlementaire sur les effets psychologiques de TikTok chez les mineurs a rendu son rapport, alertant sur l’un « des pires réseaux à l’assaut de la jeunesse ». Plateforme la plus prisée par les jeunes, qui y passent en moyenne cent dix minutes par jour, TikTok s’appuie sur un modèle économique conçu pour capter l’attention et renforcer la dépendance de son audience, afin de maximiser ses revenus.

Si plus de 75 % de ses recettes proviennent encore de la publicité, les achats intégrés sur TikTok s’affichent désormais comme un levier de croissance majeur pour le réseau social : en France, ils ont représenté près de 80 millions d’euros en 2023, contre 52 millions en 2022. Ces achats in-app permettent notamment aux jeunes d’acheter des cadeaux virtuels pour les offrir à leurs créateurs de contenus favoris pendant les lives. Roses, donuts, lions, ou encore ballons de rugby : les cadeaux seront ensuite convertis en diamants, puis en argent réel, moyennant une commission de la plateforme.


À lire aussi : TikTok et les jeunes : rentabilité et fabrique du mal-être


Ce système particulièrement lucratif tant pour TikTok que pour les streamers transforme les directs en véritables courses aux cadeaux, où les jeunes spectateurs sont sans cesse poussés à la dépense. Quelles stratégies sont déployées pour attirer leur attention et stimuler les dons ?

Nos recherches, menées à partir de l’observation de 40 lives TikTok de créateurs français pendant une période de trois mois, montrent que la plateforme intègre dans ses fonctionnalités de nombreux leviers issus de l’univers des jeux en ligne.

Favoriser les dons impulsifs

À l’image des V-Bucks (sur Fortnite) ou des Gemmes (sur Brawl Stars), TikTok propose à ses utilisateurs d’acheter des « pièces », brouillant la perception du coût réel des cadeaux envoyés. En effet, l’utilisation d’une monnaie virtuelle crée une distance cognitive entre l’utilisateur et la valeur réelle de son don, et la mise en place de systèmes de packs accentue cette opacité. Il est donc difficile pour les jeunes d’évaluer en temps réel la valeur exacte des cadeaux envoyés.

Ce flou peut encourager les dons impulsifs, d’autant qu’il suffit d’un simple tapotement de doigt sur l’écran pour commencer le jeu avec un premier envoi (gratuit) de cœurs. C’est à la fois simple et valorisant, mais ce passage représente également un premier engagement qui augmente la probabilité d’accepter ensuite un engagement plus coûteux.

Les lives ont intégré de nombreux autres codes propres aux jeux en ligne, tels que les systèmes de classements, points et scores, barres de progression, ou encore défis à accomplir dans un temps limité. Ces mécaniques exploitent l’attrait des jeunes pour la compétition et la gratification immédiate, tout en transformant l’interaction en une expérience immersive et stimulante. L’interface joue un rôle central : animations colorées, pluie de cœurs, ou couleurs vives renforcent la dimension sensorielle et gratifiante de chaque don, rappelant l’univers des jeux de hasard. La facilité d’envoi des cadeaux, réduite à un simple tap, génère un réflexe quasi automatique, incitant le jeune à agir rapidement.

Les battles sont fréquemment mobilisées par les streamers pour gamifier l’expérience proposée. Elles reposent sur une mise en compétition en temps réel entre deux créateurs ou équipes, dont l’issue dépend directement des dons des spectateurs, convertibles en points, visibles sur une barre de progression ou un classement. La possibilité pour les spectateurs d’influencer directement le résultat renforce leur sentiment d’implication active, tout en générant une pression sociale.

La structure même des lives accentue ce phénomène : la durée limitée des sessions impose une pression temporelle, semblable à celle d’un jeu vidéo, où il faut atteindre un objectif dans un temps restreint. Aussi, en combinant interface immersive, gamification, pression des créateurs et contraintes temporelles, TikTok transforme les directs en environnements dans lesquels l’attention des jeunes est maximisée et les comportements de dépense sont fortement encouragés. Comme pour les jeux mobiles, il s’agit ainsi d’utiliser différentes techniques pour influencer le comportement des joueurs : ressources mises à disposition, répartition des récompenses offertes, fonctionnalités sociales ou encore offres à durée limitée.

Valorisation publique et pression sociale

La valorisation publique des donateurs permet d’encourager la communauté à envoyer des dons. En effet, lorsqu’un spectateur envoie un cadeau, son pseudonyme est affiché ou mentionné par le streamer (voire crié pour les « gros » cadeaux), des animations visuelles sont déclenchées, et il peut même bénéficier de remerciements personnalisés ou d’interactions privilégiées avec le créateur.

Cette reconnaissance immédiate incite le donateur à réitérer son geste pour retrouver ce moment d’attention et de visibilité. Offrir un cadeau devient un moyen de projeter une image idéalisée de soi sur le réseau social.

Cette dynamique prend une résonance particulière chez les adolescents, dont la construction identitaire est fortement conditionnée par le regard des pairs et par la recherche de reconnaissance sociale. Les créateurs s’attachent à répondre quasiment systématiquement aux questions ou commentaires formulés par les meilleurs donateurs, renforçant le sentiment de proximité et la valorisation sociale. Les spectateurs qui offrent des cadeaux de manière répétée apparaissent dans la liste des Top fans, ce qui peut accroître la fréquence des dons, et créer une compétition motivée par le besoin de reconnaissance et par la volonté de maintenir un lien privilégié avec le créateur de contenu.

Par ailleurs, lors des lives, le créateur organise et structure l’expérience de manière à mobiliser l’esprit d’équipe de sa communauté. En lançant des challenges, des battles, ou encore des défis, il encourage ses spectateurs à se regrouper pour atteindre un objectif commun, transformant l’interaction en un jeu collectif. Les stickers « rejoint mon fan club » proposés par les créateurs sont particulièrement significatifs de la leur volonté de structurer leur communauté autour d’un esprit collectif : il s’agit, moyennant une participation financière, de faire en sorte que le spectateur dépasse le simple statut de suiveur pour devenir un membre officiel de la communauté. La pression sociale est ainsi implicite, puisque pour se distinguer d’un membre « basique », il faut « monter en gamme » et offrir plus à son tiktokeur préféré.

Ainsi, les lives deviennent des espaces où la pression sociale et la dynamique de groupe sont exploitées pour maximiser l’engagement, et où les adolescents, par désir d’inclusion et de reconnaissance, sont particulièrement enclins à participer activement et à investir financièrement dans cette expérience collective.

Quelles mesures pour protéger les jeunes ?

Si TikTok indique qu’il est obligatoire d’avoir au moins 18 ans pour envoyer des cadeaux, la règle peut facilement être contournée par les jeunes, qui peuvent mentir sur leur âge lors de l’inscription.

Face à l’insuffisance des mesures de protection offertes par TikTok, le rapport parlementaire préconise d’aller plus loin en interdisant la plateforme aux mineurs de moins de 15 ans. La commission d’enquête souligne à juste titre la nécessité d’une régulation renforcée pour les protéger des risques liés à une exposition précoce aux mécanismes de monétisation et aux pressions sociales en ligne. Ce questionnement est d’autant plus nécessaire pour le cas des lives, puisque l’interaction sociale semble ici se réduire au don, rendant « normal » de payer pour être vu et apprécié.

Cependant, au-delà des aspects règlementaires, se pose la question de la responsabilité éducative. Dans un environnement numérique où les adolescents passent plusieurs heures par jour – bien souvent en dehors de toute supervision parentale ou institutionnelle – sur les réseaux sociaux, il apparaît essentiel qu’ils comprennent les mécanismes mobilisés pour les inciter à dépenser.

Cela passe notamment par une information claire sur les coûts réels des transactions réalisées, ainsi que par une sensibilisation aux logiques de manipulation comportementale propres aux systèmes de gamification et aux dynamiques de récompense sociale. Dans cette optique, la sensibilisation des adultes référents (parents, enseignants, éducateurs) apparaît également essentielle, afin que chaque acteur soit capable de décrypter ces mécaniques et d’accompagner les adolescents dans leur rapport aux plates-formes numériques.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

08.10.2025 à 16:25

Le faux procès des études supérieures trop longues

Guillaume Allègre, Économiste au département des études de l'OFCE, Sciences Po

Aux États-Unis et en France, la longueur des études dans l’enseignement supérieur est critiquée. Mais les jeunes étudient-ils vraiment plus longtemps&nbsp;? Pour quels bénéfices économiques et sociaux&nbsp;?
Texte intégral (2311 mots)

Étudier serait devenu un problème. Alors qu’aux États-Unis, des conservateurs proches de Donald Trump accusent l’université de retarder la fondation des familles, certains proposent en France de raccourcir la durée des études pour relancer l’activité et la natalité. Mais la durée des études a-t-elle vraiment augmenté ? Pour quels bénéfices économiques et sociaux ?


L’enseignement supérieur fait l’objet d’attaques nouvelles et plurielles. Il ne s’agit pas seulement d’une attaque concernant les libertés académiques ou la place respective du public et du privé. Il s’agit aujourd’hui de remettre en cause l’utilité même de l’enseignement supérieur.

Aux États-Unis, selon The Heritage Foundation, think tank conservateur proche de Donald Trump, l’État ne devrait pas financer l’enseignement supérieur dans la mesure où sa durée pousse à différer la fondation d’une famille (« Government subsidies for higher education and credentialism are exacerbating the decline by providing incentives to delay or forego family formation » [2024]).

Attaques contre l’enseignement supérieur

Dans un billet paru dans les Échos, le chroniqueur Julien Damon propose de « réduire l’enseignement supérieur » et reprend une partie de l’argument contre l’enseignement supérieur, y ajoutant un argument économique en termes d’activité :

« Diminuer le nombre d’années passées à l’université aurait des impacts évidents sur l’activité et de possibles effets sur la fécondité. […] Pourquoi se priver d’une idée favorable aux finances publiques, à l’activité et, potentiellement, à la fécondité ? »

Cette proposition fait écho à celle du parti politique Renaissance, dans un document programmatique nommé « Le camp de l’espoir », consistant à « réduire la durée moyenne de la formation initiale » (p. 41).

L’enseignement supérieur fait l’objet d’attaques venues de plusieurs fronts, mais qui se rejoignent idéologiquement : il est critiqué, car il éloignerait les jeunes de l’indépendance, de l’entreprise, de la société et du modèle familial traditionnel.

Le caractère idéologique de ce discours apparaît d’autant plus nettement à la lumière du graphique suivant, qui montre la distribution de l’âge de fin d’études selon les générations (Cf. direction de l’animation de la recherche, des études et des statistiques [Dares] du ministère du travail). Les données sont parlantes : l’âge moyen de fin d’études a cessé de croître à partir de la génération née en 1975. Il diminue même légèrement dans la période récente, notamment chez ceux qui suivent des cursus longs. Aujourd’hui, la proportion d’étudiants qui achèvent leurs études à 25 ans ou plus est inférieure à celle de 1975. Autrement dit, si problème il y a, il ne date pas d’hier mais remonte à plus de trente ans.

Une confusion regrettable

Pourquoi les critiques donnent-elles l’impression que les jeunes feraient des études de plus en plus longues ? En réalité, il ne faut pas confondre l’âge de fin d’études et l’accès aux diplômes. C’est là que s’inscrit le débat sur « l’inflation des diplômes », porté bien au-delà des clivages partisans, notamment par Marie Duru-Bellat dans cet entretien :

« La massification scolaire débouche sur une inflation des diplômes, qui tendent à perdre de leur valeur. C’est comme pour la monnaie : si le nombre de diplômes augmente, mécaniquement ces derniers n’assurent plus l’accès à des emplois qualifiés dont tout le monde rêve, bien payés et avec de bonnes conditions de travail, qui restent en nombre limité. Donc les diplômes perdent de la valeur. Mais cette notion est mal perçue dans notre pays, et plutôt taboue. Car pour certains progressistes, on ne peut jamais être trop éduqué. »

L’argument est connu : l’augmentation du nombre de diplômés réduirait la valeur relative des titres scolaires, générant une frustration, en particulier chez les « nouveaux diplômés » issus des milieux les moins favorisés scolairement. La massification scolaire serait ainsi un piège.

Des redoublements en baisse

Mais les données contredisent cette idée : en durée, les jeunes ne font pas plus d’études qu’avant. L’inflation des diplômes s’explique presque entièrement par la baisse des redoublements. Autrement dit, les étudiants obtiennent davantage de diplômes non pas parce qu’ils étudient plus longtemps, mais parce qu’ils redoublent moins et progressent plus régulièrement dans le système éducatif. La valeur relative des diplômes diminue donc mécaniquement.

Dès lors, au-delà des questions idéologiques, les deux vraies questions qui se posent sont : la politique volontariste de non-redoublement était-elle justifiée ? Et la durée actuelle des études est-elle socialement et individuellement légitime ?

La question du redoublement a été traitée de manière extensive dans le champ de la sociologie et des sciences de l’éducation. Le consensus est large, des sociologues de l’éducation à l’OCDE (sur la base des résultats Pisa) : la réduction du redoublement a eu des effets positifs sur la réussite Marie Duru-Bellat. On ne peut donc être à la fois favorable au non-redoublement et regretter l’inflation des diplômes.

Cela ne veut pas dire que l’importance que l’on donne actuellement aux diplômes ne pose pas problème. Les études peuvent à la fois être plus longue et plus égalitaires, et prendre moins de place dans la détermination du mérite individuel. L’objectif d’enseignement doit primer sur celui de sélection des élites. Le système éducatif ne doit pas être un mécanisme de reproduction du mérite où le « mérite éducatif » serait transmis de parents à enfants afin de légitimer la hiérarchie sociale.

Le rendement de l'éducation

Reste la question des rendements de l’éducation. La littérature est abondante. Les diplômés ont des salaires bien supérieurs aux non-diplômés. Selon la théorie du capital humain, ces salaires sont dus à une productivité supérieure acquise grâce à l’éducation. Selon la théorie du signal, le diplôme ne sert qu’à donner un signal à l’employeur que le ou la diplômée est talentueuse (Spence, 1973). Les salaires plus élevés des diplômés ne seraient pas le résultat de leur formation, mais du signal donné par leurs diplômes quant à leurs prédispositions.

Qu’en est-il ? Pour différencier ce qui est dû aux compétences acquises grâce à la formation de l’effet du signal d’un diplôme, les économistes ont exploité des « expériences naturelles ». Un exemple est celui d’Éric Maurin dans un article fameux article sur Mai-68. Cette année-là, le bac a été massivement distribué, permettant à une cohorte entière de prolonger ses études. Ces élèves, plus nombreux à avoir rejoint les bancs de l’université que les cohortes immédiatement précédentes et suivantes, ont fait des études en moyenne plus longues. Résultat : ces élèves ont connu des trajectoires professionnelles plus favorables, avec des revenus durablement plus élevés, et même un effet positif transmis à leurs enfants. Il vaut mieux être né d’un parent qui était en Terminale en 1968 qu’en 1966 ou 1970 ! Difficile de n’y voir qu’un simple signal.

Effet signal et gains de productivité

D’autres travaux, comme ceux de David Card, 2001,confirment ce résultat. Le consensus actuel, fondé sur de nombreuses « expériences naturelles », est que les rendements de l’éducation sont élevés. Pour un individu donné, les rendements privés de l’éducation sont de l’ordre de 8 % de salaire supplémentaire par année d’études, dont environ deux tiers relèvent d’un gain réel de productivité et un tiers d’un effet de signal (Aryal, Bhullere et Lange, 2019). Autrement dit, l’éducation reste un investissement rentable, à la fois pour les individus et pour la société.

Le vrai problème est ailleurs. Depuis la génération née en 1975, l’investissement dans l’éducation stagne. Cela pourrait contribuer à expliquer la faible croissance française actuelle. Pour reprendre les termes de Thomas Melonio et Xavier Timbeau, le capital humain est « l’immatérielle richesse des nations » (2006) :

« Nous constatons une forte augmentation du capital éducatif français depuis le début des années 1970, d’environ 60 points de PIB, pour culminer autour de 140 points de PIB au début des années 2000. […] En projection, nous estimons que ce stock a atteint un plafond, et devrait progresser modestement dans les vingt prochaines années avant de décliner sous l’effet du rétrécissement de la taille des cohortes et de la stagnation observée du niveau des diplômes. »

Réduire l’enseignement supérieur aujourd’hui reviendrait, pour les futures générations d’étudiant, à scier la branche sur laquelle nous sommes tous assis et se priver d’une source de financement des retraites des quinquagénaires actuels.

Inaccessible CDI

Quid de l’indépendance des jeunes ? Le recul de l’accès des jeunes à une vie autonome n’est pas dû à l’allongement des études initiales, mais à la période de transition entre la fin des d’études et l’obtention d’un emploi stable : stage, chômage, CDD, voire contrats d’occupation divers (COD). C’est dans cet entre-deux que se joue la difficulté.

Le graphique suivant retrace l’évolution du taux d’activité des 15-24 ans entre 1975 et 2023. Non seulement le taux d’activité des jeunes ne baisse plus, mais il repart même à la hausse dans la période récente.

Sur le temps long, le vrai problème est celui de la montée de l’emploi précaire. Cela apparaît nettement si l’on suit la trajectoire professionnelle des jeunes sortis de formation initiale en 2017, au cours de leurs six premières années de vie « active ». L’emploi à durée indéterminée (EDI) ne devient majoritaire (>50 %) qu’au bout de quatre ans environ après la sortie des études initiales ! L’obstacle, en termes d’autonomie, semble moins être l’enseignement supérieur que l’entrée dans la vie active. Ironie de l’histoire : en voulant rapprocher les jeunes des entreprises (multiplication des césures, stages, apprentissages), on les a éloignés du CDI.

Vers un revenu étudiant ?

Il est vrai que suivre des études supérieures retarde en moyenne l’âge du premier enfant. Mais cela n’entraîne pas une baisse de la fécondité. En 2009, l’indice conjoncturel de fécondité (ICF) était de 1,8 pour les diplômées du baccalauréat, et… exactement le même chiffre pour les diplômées du supérieur (INED.

Alors, que faire ? Pour renforcer à la fois l’autonomie et l’égalité des chances, je proposais déjà, dans un rapport Terra Nova de 2010, de donner aux jeunes les ressources nécessaires, notamment en termes de revenu étudiant (« L’autonomie des jeunes au service de l’égalité »). Ce dispositif de capital formation-insertion serait éventuellement financé par les étudiants eux-mêmes, une fois insérés dans la vie active (sous forme de prêts à remboursement contingents).

Plutôt que la coercition technocratique, c’est en renforçant leur autonomie que l’on permettra aux jeunes d’avoir le nombre d’enfants qu’ils souhaitent réellement. Le programme pour l’autonomie et l’égalité des jeunes demeure, hélas, d’une brûlante actualité.

The Conversation

Guillaume Allègre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

08.10.2025 à 16:14

Ultrafast-fashion et grands magasins : un pacte dangereux pour les consommateurs et la planète

Aurore Bardey, Professeur Associé en Marketing, Burgundy School of Business

À qui profitera l’accord signé entre Shein et plusieurs grands magasins français dont le BHV et cinq franchisés des Galeries Lafayette&nbsp;? Il n’est pas certain que le consommateur soit le grand gagnant.
Texte intégral (1869 mots)

Le fabricant d’ultrafast-fashion Shein, qui jusque-là vendait en ligne, arrive dans plusieurs grands magasins. Quel impact cela aura-t-il sur les consommateurs ? À qui profitera cette nouvelle association ? Au géant chinois ? ou aux enseignes tricolores ?


Le 1er octobre 2025, la Société des grands magasins (SGM) a officialisé son partenariat avec Shein : un premier « shop-in-shop » Shein ouvrira au BHV Marais et dans cinq Galeries Lafayette de province. Le groupe Galeries Lafayette s’est immédiatement désolidarisé de cette décision, évoquant un désaccord « contractuel et de valeurs » avec ces magasins franchisés.

Cette annonce a aussitôt déclenché un tollé : militants écologistes et universitaires dénoncent une mésalliance entre l’ultrafast-fashion et le temple du luxe que sont les Galeries Lafayette mais aussi le BHV. Ils ne sont pas les seuls : plusieurs fournisseurs ont quitté ou s'apprêtent à quitter le BHV en raison de cette alliance entre le magasin et Shein qu'ils jugent contraires à leurs valeurs. Par ailleurs, la Caisse des Dépôts a indiqué mettre fin aux négociations qu'elle menait, via sa filale la banque des territoires, avec le groupe propriétaire de ces six magasins (BHV et franchises des Galeries Lafayette).

Ce rapprochement soulève des enjeux majeurs pour les consommateurs, pour les enseignes et pour la planète. Afin de les comprendre, il faut d’abord revenir à ce qu’est l’ultrafast-fashion.

Le diable s’habille en fast-fashion ?

L’ultrafast-fashion représente l’aboutissement extrême d’un modèle déjà décrié. Elle repose sur une accélération inédite des cycles de production : des milliers de nouveaux modèles mis en ligne chaque jour, conçus et écoulés à une vitesse record. En 2023, Shein proposait jusqu’à 10 000 références quotidiennes. Derrière ce chiffre vertigineux se cache un système profondément délétère.


À lire aussi : Comment fait Temu pour proposer des prix aussi bas ?


Car l’industrie de la mode figure parmi les secteurs les plus polluants au monde. Elle contribue massivement au changement climatique, à la surexploitation des ressources naturelles et à la pollution globale. Elle serait responsable de 8 % à 10 % des émissions mondiales de CO2 et de près de 20 % des eaux usées industrielles. Sa production textile consomme environ 93 milliards de mètres cubes d’eau par an, soit 4 % des prélèvements mondiaux en eau douce. À l’autre bout de la chaîne, chaque année, environ 92 millions de tonnes de déchets textiles sont générés, dont moins de 1 % est recyclé en nouveaux vêtements.

Pourtant, le marketing de ces enseignes se moque de ces impacts. L’objectif de ces dernières est clair : non pas répondre à un besoin réel, mais créer de nouveaux besoins pour pousser les consommateurs à acheter toujours plus, toujours plus vite. Or, si l’on interroge les motivations d’achat, le constat est sans appel : le prix reste le critère numéro un. Dans un contexte d’inflation et de budgets contraints, l’enjeu pour beaucoup est d’être stylé sans se ruiner. Les études montrent que cette sensibilité au prix dépasse de loin les considérations éthiques ou environnementales, même chez les consommateurs qui se disent préoccupés par la durabilité.

Cette logique séduit particulièrement les jeunes générations, qui veulent accéder immédiatement à des vêtements tendance pour un faible coût. De plus, l’ultrafast-fashion s’appuie sur des outils numériques puissants pour stimuler la consommation : promotions éclair, notifications permanentes, mises en scène de la rareté… autant d’incitations qui encouragent l’achat impulsif. Ces pratiques, aujourd’hui dénoncées par les régulateurs européens, ne sont pas sans conséquence : elles alimentent la compulsion d’achat et fragilisent notre santé mentale.

Le coût psychologique : dissonance et insatisfaction

Porter des vêtements associés à la pollution ou au travail forcé ne relève pas d’un geste anodin : cela peut provoquer une tension psychologique définie comme la théorie de la dissonance cognitive. Beaucoup de consommateurs affirment vouloir adopter une consommation responsable, mais continuent malgré tout d’acheter des vêtements de fast-fashion. Ce décalage, génère souvent culpabilité, insatisfaction et même regret post-consommation.

Des recherches expérimentales confirment ce mécanisme. Porter un T-shirt présenté comme durable entraîne un meilleur bien-être psychologique. À l’inverse, la quête compulsive de nouveaux vêtements, alimentée par la fast-fashion, entretient un cycle d’insatisfaction chronique. Les recherches sur le matérialisme soulignent que ce rapport consumériste est négativement corrélé au bien-être.

Mais il existe une autre voie. Les travaux récents sur le minimalisme vestimentaire montrent qu’une réduction volontaire de la consommation améliore le bien-être. Nous avons par exemple observé que la création d’une garde-robe capsule réduit la charge cognitive des choix quotidiens et augmente la satisfaction de vie. Ces résultats rejoignent d’autres études sur le détachement matériel et la simplicité volontaire, qui mettent en évidence une association positive avec la satisfaction de vie.

En clair, consommer moins, et surtout réduire l’accumulation de vêtements, n’est pas une privation. C’est, au contraire, une source de liberté et de mieux-être. Ainsi, l’ultrafast-fashion se révèle doublement néfaste puisqu’à la fois elle nuit à la planète et fragilise aussi notre santé psychologique.

Quand la fast-fashion salit l’univers du luxe

Au-delà de ses effets psychologiques sur les consommateurs, l’alliance de Shein et de SGM menace également l’identité des enseignes concernées. Car le luxe ne se réduit pas à un prix élevé. Il repose sur un univers de valeurs et de symboles, combinant la rareté (offres limitées et exclusives), la qualité exceptionnelle (savoir-faire, matériaux nobles) et une forte valeur symbolique (statut social, identité). Acheter du luxe, ce n’est pas seulement acquérir un objet, c’est accéder à un monde de significations et d’émotions.

Ainsi, lorsqu’un consommateur entre aux Galeries Lafayette, il n’attend pas seulement un produit, mais une expérience : élégance, distinction, voire un instant de rêve. Alors que le groupe Galeries Lafayette parisien revendique une identité haut de gamme, son partenaire SGM choisit d’accueillir une enseigne d’ultrafast-fashion, introduisant une contradiction d’image au cœur même du réseau. Celui qui entre pour vivre une expérience de rareté et d’exception se retrouve face à la banalité d’une offre associée à la surconsommation et aux controverses environnementales et sociales.

France 24, 2025.

Cela peut provoquer trois réactions principales :

  • de la déception (l’expérience ne correspond plus à l’image attendue) ;

  • de la culpabilité (acheter chez Shein dans un lieu prestigieux accentue la contradiction entre valeurs et comportements) ;

  • une perte de confiance : l’enseigne accueillante est perçue comme ayant sacrifié son identité pour des raisons économiques.

En somme, cette alliance ne fragilise pas seulement les marques au plan marketing. Elle transforme aussi profondément l’expérience vécue par les consommateurs, au risque de briser le contrat symbolique qui faisait la force du luxe français.

Et notre porte-monnaie dans tout ça ?

À première vue, l’arrivée de Shein dans des lieux aussi emblématiques que les Galeries Lafayette pourrait sembler une bonne nouvelle pour de nombreux consommateurs. La marque incarnerait ainsi ce que beaucoup de consommateurs recherchent : être stylé sans se ruiner. Mais les achats répétés, souvent impulsifs, finissent par gonfler le budget mode global.

Plutôt que d’alimenter cette spirale de surconsommation, deux options offrent une réponse à la fois économique, écologique et psychologique : la seconde main et acheter moins mais mieux.

Ces comportements alternatifs rétablissent la cohérence entre valeurs et consommation, un facteur clé de bien-être. À l’inverse, céder à l’ultrafast-fashion entretient une contradiction douloureuse : se dire préoccupé par l’avenir de la planète tout en soutenant un modèle destructeur.

Choisir la seconde main ou le minimalisme vestimentaire, c’est donc à la fois alléger son empreinte écologique et retrouver du sens dans ses choix de vie. À l’inverse, l’alliance Shein-SGM cristallise les dérives d’un modèle, qui cherche à vendre toujours plus vite, au prix de la valeur symbolique des grands magasins, mais aussi de notre bien-être individuel et collectif.

The Conversation

Aurore Bardey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

08.10.2025 à 12:03

Pionnières de la parité politique : qui étaient les députées de 1945 ?

Anne-Sarah Bouglé-Moalic, Chercheuse associée au laboratoire HISTEME (Histoire, Territoires, Mémoires), Université de Caen Normandie

En octobre&nbsp;1945, en France, 33&nbsp;femmes font leur entrée à l’Assemblée nationale. Retour sur le parcours de ces pionnières à l’heure du vingt-cinquième anniversaire de la loi pour la parité politique.
Texte intégral (2087 mots)

En octobre 1945, en France, 33 femmes font leur entrée sur les bancs de l’Assemblée nationale. Qui sont-elles ? Dans quelle mesure leur entrée au Parlement bouscule-t-elle un imaginaire républicain très masculin ? Retour sur le parcours de ces pionnières alors qu’on célèbre également les 25 ans de la loi pour la parité politique.


Le 21 octobre 1945, des élections législatives sont organisées en France. Elles doivent permettre de nommer une assemblée constituante pour la IVe République. La France n’a plus connu d’élections législatives depuis neuf ans – les dernières avaient amené le Front populaire au pouvoir, en 1936.

Mais ce n’est pas la seule particularité de cette échéance de l’immédiat après-guerre. Pour la première fois dans son histoire, l’Assemblée nationale peut accueillir des femmes, non plus dans les balcons, mais bien au cœur de l’hémicycle. La réforme du 21 avril 1944, accordant aux femmes les mêmes droits politiques qu’aux hommes, leur permet en effet non seulement de devenir électrices, mais aussi de se porter candidates aux suffrages de leurs concitoyens.

C’est la deuxième fois, en 1945, que les Françaises peuvent prendre part au jeu politique, après les élections municipales des 29 avril et 13 mai. Mais l’enjeu est différent. Le mandat municipal est celui de la proximité, de la bonne gestion familiale que l’on associe sans trop de difficulté à l’image des femmes. Le mandat parlementaire incarne lui le peuple, la République ; il est aussi réputé plus violent.

Le Parlement est un monde d’hommes. Comment les femmes y ont-elles fait leur entrée ? Qui étaient-elles, ces grandes inconnues qui ont été les premières à représenter une démocratie enfin posée sur ses deux pieds ?

Avant 1945, des préjugés et des expériences locales

En 1945, la question de l’éligibilité des femmes n’est pas nouvelle dans la société française. Nombreuses sont les féministes à avoir utilisé leur candidature à diverses élections pour populariser la cause suffragiste. La première d’entre elles est Jeanne Deroin, en 1849 ! Le processus a été repris ensuite à de multiples reprises, comme par Louise Barberousse ou Eliska Vincent, dans les années 1880 et 1890, et très régulièrement au XXe siècle. On se souvient particulièrement de la candidature de la journaliste Jeanne Laloë, aux élections municipales de 1908 à Paris, ou de la campagne de Louise Weiss et de l’association la Femme nouvelle en 1935.

Des femmes ont d’ailleurs été élues à plusieurs reprises. Aux élections municipales de 1925, les communistes positionnent des femmes en haut de liste, rendant presque automatique leur élection en cas de succès. Elles sont une dizaine à être élues, et plusieurs à siéger plusieurs mois, jusqu’à l’invalidation de leurs élections. On peut citer Joséphine Pencalet, sardinière de Douarnenez (Finistère), Émilie Joly et Adèle Métivier à Saint-Pierre-des-Corps (Indre-et-Loire), Mme Tesson à Bobigny (alors dans le département de la Seine)…

D’autres expériences sont menées par des maires sensibles au suffragisme et souhaitant contourner la loi, tout en restant dans la légalité : ils nomment de conseillères municipales officieuses, siégeant au Conseil mais avec des droits restreints. Trois villes – Villeurbanne (Rhône), Dax (Landes) et Louviers (Eure) – organisent même des élections pour donner davantage de légitimité à ces conseillères.

Histoire du vote des femmes (INA Politique, 2012).

Les préjugés sur l’immixtion des femmes en politique étaient encore tenaces, à la fin de la IIIe République. Certains, notamment des sénateurs, avancent que les hommes perdront leur énergie virile au contact des femmes dans l’hémicycle, tandis que d’autres estiment que la nature faible, nerveuse, impressionnable des femmes est trop risquée. Soit les femmes en pâtiraient gravement, soit elles se transformeraient en hommes, soit elles provoqueraient un coup d’État en se laissant emporter par le plus fort.

Malgré tout, à l’automne 1945, les femmes sont bien appelées à devenir députées : un changement majeur pour permettre à la démocratie française de se déployer pleinement, mais dont les conséquences restent minimes.

Des élues aux profils variés

Les élections municipales de 1945 sont difficiles à décrypter. Les mauvaises conditions administratives font qu’on ignore le nombre de candidates tout comme le nombre d’élues réelles. Tout au plus pouvons-nous proposer des estimations : moins de 1 % de femmes maires et sans doute environ 3 % de conseillères municipales.

Il est plus facile d’observer l’élection du 21 octobre 1945. Elle est organisée au scrutin de liste, car il s’agit d’une élection à la proportionnelle. 310 femmes sont officiellement candidates. Au soir de l’élection, 33 d’entre elles sont élues. Elles représentent alors 5,6 % de l’Assemblée nationale : un chiffre bas, mais qui reste indépassé jusqu’en 1986.

La plupart de ces femmes ont été oubliées. Seuls quelques noms sont encore familiers, comme ceux de Germaine Poinso-Chapuis et de Marie-Madeleine Dienesch, toutes deux ministres, ou de Jeannette Vermeersch-Thorez, compagne du secrétaire général des communistes.

Les profils des élues sont très variés. Beaucoup ont une profession à une époque où être femme au foyer n’est pas rare. Elles sont ouvrières, avocates, institutrices, agrégées, employées, journalistes, infirmières… Elles ont entre 29 ans (Denise Bastide) et 56 ans (Marie Texier-Lahoulle). Elles sont élues dans toute la France, de la Guadeloupe à la Nièvre, même si elles sont relativement plus nombreuses à être élues dans la Seine.

Leurs appartenances politiques sont bien représentatives du spectre politique qui se dessine au début de cette nouvelle république : elles sont 17 communistes, 6 socialistes, 9 MRP et une de droite. Il est intéressant de constater que, alors que les opposants du vote agitaient le cléricalisme féminin et leur conservatisme, la majorité des femmes élues sont de gauche. C’est le fruit d’une politique de ces partis longtemps en faveur de l’émancipation des femmes. L’Union des femmes françaises (UFF), association émanant du Parti communiste français, créée en 1943, rassemble environ 600 000 adhérentes en 1945 : un vivier d’électrices autant que de candidates.

Des femmes engagées dans la Résistance

Le point commun qui unit la majorité de ces élues est leur rôle dans la Résistance. Femmes engagées pendant la guerre, elles se sont créées une aura politique qui a pu encourager certaines à se présenter… ou à être repérées par les partis en place lors de la constitution des listes de candidats. Ainsi, 27 d’entre elles ont mené des actions diverses de renseignement, de sabotage, d’accueil… Quelques-unes ont d’ailleurs été déportées. Plusieurs sont décorées de la Croix de guerre ou de la médaille française de la Résistance.


À lire aussi : Adolescentes et résistantes pendant la Seconde Guerre mondiale : naissance d’un engagement


On trouve parmi ces 33 députées quelques épouses d’hommes politiques ou de résistants. Il faut noter que cela n’est pas l’unique raison pour laquelle elles se sont présentées. Leur mérite personnel ne doit pas être diminué du fait de leurs connexions.

D’ailleurs, la plupart des élues de 1945 sont actives au Parlement. Ni potiches ni marionnettes, elles agissent avec les moyens qui sont les leurs sur des sujets qui leur tiennent à cœur. Par exemple, Émilienne Galicier, communiste résistante, est l’autrice de propositions de loi pour l’amélioration de la condition ouvrière, pour l’égalité des salaires femmes/hommes, la semaine de travail à quarante heures ou encore deux jours consécutifs de repos pour les femmes.

Francine Lefebvre, résistante catholique et membre du Mouvement républicain populaire (MRP), travaille au statut des délégués du personnel au sein des entreprises, elle réussit à obtenir les congés payés pour les femmes de vieux travailleurs, deux jours de congés payés supplémentaires pour les vendeuses des grands magasins condamnées à la station debout, ainsi que le relogement de familles nombreuses entassées dans des taudis.

Des pionnières à réinscrire dans l’imaginaire républicain

Si les premières élections de 1945 sont plutôt favorables aux femmes (elles font une entrée timide, mais remarquée), leur nombre décroît dans toutes les instances représentatives dès les années 1950, amorçant une rapide décrue et une stagnation au plus bas pendant les quinze premières années de la Ve République. Ainsi, 25 des 33 élues de 1945 siègent ainsi pendant les deux assemblées constituantes, de 1945 à 1946. Et 11 d’entre elles siègent pendant toute la IVe République, de 1946 à 1958 – un nombre important quand on sait que la deuxième législature, de juin 1951 à janvier 1956, ne comprend que 22 députées.

Seules trois siègent pendant au moins un mandat de la Ve République, démontrant une vraie longévité politique. Germaine Poinso-Chapuis marque l’histoire en étant la première femme ministre de plein exercice. Elle est nommée par Robert Schuman, ministre de la santé publique et de la population en 1947. Marie-Madeleine Dienesch est la deuxième femme occupant un poste gouvernemental sous la Ve République, entre 1968 et 1974, en tant que secrétaire d’État à l’éducation nationale, puis aux affaires sociales, puis à l’action sociale et à la réadaptation.

Elles étaient 33 en 1945, elles sont 208 en 2025. En quatre-vingts ans, l’accession des femmes aux fonctions électives a beaucoup progressé, en particulier depuis la loi sur la parité qui célèbre, en 2025, son quart de siècle. Alors que l’histoire des femmes a elle aussi vivement avancé ces dernières années, il semble important de redonner à ces 33 pionnières toute leur place dans l’imaginaire républicain, alors que celui-ci peut encore être considéré comme teinté de masculinité.

Peu connues, ces femmes devraient faire l’objet de davantage de recherches pour mieux connaître leur parcours et approfondir, peut-être, les difficultés auxquelles elles ont pu être confrontées. Leur rendre cette justice serait aussi une manière de compléter notre connaissance de l’histoire de la République, tout en célébrant leur audace.

The Conversation

Anne-Sarah Moalic Bouglé est membre de Démocrates et Progressistes.

PDF

08.10.2025 à 12:02

La troublante actualité du nouvel album de Woody Guthrie, sorti 58 ans après sa mort

Daniele Curci, PhD Candidate in International and American History, University of Florence

Dans ses chansons, Woody&nbsp;Guthrie, héraut des luttes sociales de l’Amérique de l’après-guerre, décrivait son époque. Mais celle-ci ressemble en bien des points à la nôtre…
Texte intégral (2422 mots)

Sorti cet été, l’album posthume de Woody Guthrie, figure emblématique de la musique folk des années 1940-1960, résonne puissamment avec la situation actuelle des États-Unis : plusieurs des titres qu’il contient, consacrés à l’expulsion de migrants mexicains, à une justice raciste ou encore aux injustices économiques, auraient pu être écrits ces derniers mois…


Le 14 août est sorti Woody at Home, Vol.1 & 2, le nouvel album de Woody Guthrie (1912-1967), probablement l’artiste folk américain le plus influent, auteur de la célèbre « This Land Is Your Land » (1940), qui dans cet album est proposée avec de nouveaux vers.

L’album contient des chansons – certaines déjà connues, d’autres inédites – que Guthrie enregistra avec un magnétophone offert par Howie Richmond, son éditeur, entre 1951 et 1952 et qui sont désormais publiées grâce à une nouvelle technologie qui a permis d’en améliorer la qualité sonore.

« Deportee »

La parution de l’album a été précédée par celle du single « Deportee (Plane Wreck at Los Gatos) », une chanson dont on ne connaissait jusqu’ici que le texte, que Guthrie écrivit en référence à un épisode survenu le 28 janvier 1948, lorsqu’un avion transportant des travailleurs saisonniers mexicains, de retour au Mexique, s’écrasa dans le canyon de Los Gatos (Californie), provoquant la mort de tous les passagers.

Un choix qui n’est pas anodin, comme l’a expliqué Nora Guthrie – l’une des filles du folk singer, cofondatrice des Woody Guthrie Archives et longtemps conservatrice de l’héritage politico-artistique de son père – lors d’un entretien au Smithsonian Magazine, dans lequel elle a souligné combien le message de son père reste actuel, au vu des expulsions opérées par l’administration de Donald Trump et, plus généralement, de ses tendances autoritaires, un thème déjà présent dans « Biggest Thing That Man Has Ever Done », écrite pendant la guerre contre l’Allemagne nazie.

Tout cela montre la vitalité de Woody Guthrie aux États-Unis. On assiste à un processus constant d’actualisation et de redéfinition de la figure de Guthrie et de son héritage artistique, qui ne prend pas toujours en compte le radicalisme du chanteur, mais qui en accentue parfois le patriotisme.

Un exemple en est l’histoire de « This Land Is Your Land » : de la chanson existent des versions comportant des vers critiques de la propriété privée, et d’autres sans ces vers. Dans sa première version, « This Land » est devenue presque un hymne non officiel des États-Unis et, au fil des années, a été utilisée dans des contextes politiques différents, donnant parfois lieu à des appropriations et des réinterprétations politiques, comme en 1960, lorsqu’elle fut jouée à la convention républicaine qui investit Richard Nixon comme candidat à la présidence ou, en 1988, lorsque George H. W. Bush utilisa la même chanson pour sa campagne électorale.

Guthrie lut le compte rendu de la tragédie du 28 janvier 1948 dans un journal, horrifié de constater que les travailleurs n’étaient pas appelés par leur nom, mais par le terme péjoratif de « deportees ».

Ce célèbre cliché pris par la photographe Dorothea Lange en Californie, en 1936, intitulé « Migrant Mother », montre Florence Thompson, 32 ans, alors mère de sept enfants, native de l’Oklahoma et venue dans le Golden State chercher du travail. Dorothea Lange/Library of Congress

Dans leur histoire, Guthrie vit des parallèles avec les expériences vécues dans les années 1930 par les « Oakies », originaires de l’Oklahoma, appauvris par les tempêtes de sable (dust bowls) et par des années de crise socio-économique, qui se déplaçaient vers la Californie en quête d’un avenir meilleur. C’était un « Goin’ Down The Road », selon le titre d’une chanson de Guthrie, où ce « down » signifiait aussi la tristesse de devoir prendre la route, avec toutes les incertitudes et les difficultés qui s’annonçaient, parce qu’il n’y avait pas d’alternative – et, en effet, le titre complet se terminait par « Feeling Bad ».

Parmi les difficultés rencontrées par les Oakies et les Mexicains, il y avait aussi le racisme et la pauvreté face à l’abondance des champs de fruits, comme lorsque les Mexicains se retrouvaient à cueillir des fruits qui pourrissaient sur les arbres (« The crops are all in and the peaches are rotting ») pour des salaires qui leur permettaient à peine de survivre (« To pay all their money to wade back again »).

Et, en effet, dans « Deportee », d’où sont extraites ces deux citations, Guthrie demandait avec provocation :

« Is this the best way we can grow our big orchards ?
Is this the best way we can grow our good fruit ?
To fall like dry leaves to rot on my topsoil
And be called by no name except “deportees” ? »

Est-ce la meilleure façon de cultiver nos grands vergers ?
Est-ce la meilleure façon de cultiver nos bons fruits ?
Tomber comme des feuilles mortes pour pourrir sur ma terre arable
Et n’être appelés que par le nom de « déportés » ?

Visions de l’Amérique et radicalisme

« We come with the dust and we go with the wind », chantait Guthrie dans « Pastures of Plenty » (1941, également présente dans Woody at Home), l’hymne qu’il écrivit pour les migrants du Sud-Ouest, dénonçant l’indifférence et l’invisibilité qui permettaient l’exploitation des travailleurs.

Guthrie, de cette manière, mesurait l’écart qui séparait la réalité du pays de la réalisation de ses promesses et de ses aspirations. Dans le langage politique des États-Unis, le terme « America » désigne la projection mythique, de rêve, de projet de vie qui entrelace l’histoire de l’individu avec celle de la Nation. En ce sens, pour Guthrie, les tragédies étaient aussi une question collective permettant de dénoncer la façon dont une minorité (les riches capitalistes) privait la majorité (les travailleurs) de ses droits et de son bien-être.

La vision politique de Guthrie devait beaucoup au fait qu’il avait grandi dans l’Oklahoma des années 1920 et 1930, où l’influence du populisme agraire de type jeffersonien – la vision d’une république agraire inspirée par Thomas Jefferson, fondée sur la possession équitable de la terre entre ses citoyens – restait très ancrée, et proche du Populist Party, un parti de la dernière décennie du XIXe siècle qui critiquait ceux qui gouvernaient les institutions et défendait les intérêts du monde agricole.

C’est également dans ce cadre qu’il faut situer le radicalisme guthrien qui prit forme dans les années 1930 et 1940, périodes où les discussions sur l’état de santé de la démocratie américaine étaient nombreuses et où le New Deal de Franklin Delano Roosevelt cherchait à revitaliser le concept de peuple, érodé par des années de crise économique et de profonds changements sociaux.

Guthrie apporta sa contribution en soutenant le Parti communiste et, à différentes étapes, le New Deal, dans la lignée du syndicat anarcho-communiste des Industrial Workers of the World (IWW) dont il avait repris l’idée selon laquelle la musique pouvait être un outil important de la militance. Dans le Parti, Guthrie voyait le ciment idéologique ; dans le syndicat, l’outil d’organisation des masses, car ce n’est qu’à travers l’union – un terme disposant d’un double sens dont Guthrie a joué à plusieurs reprises : syndicat et union des opprimés – qu’on parviendrait à un monde socialisant et syndicalisé.

« White America ? »

L’engagement de Guthrie visait également à surmonter les discriminations raciales. Ce n’était pas chose acquise pour le fils d’un homme que l’on dit avoir été membre du Ku Klux Klan et fervent anticommuniste, qui avait probablement participé à un lynchage en 1911.

D’ailleurs, le même Woody, à son arrivée en Californie dans la seconde moitié des années 1930, portait avec lui un héritage raciste que l’on retrouve dans certaines chansons comme dans la version raciste de « Run, Nigger Run », une chanson populaire dans le Sud que Guthrie chanta à la radio, dans le cadre de sa propre émission, en 1937. Après cela, Guthrie reçut une lettre d’une auditrice noire exprimant tout son ressentiment quant à l’utilisation du terme « nigger » par le chanteur. Guthrie fut tellement touché qu’il lut la lettre à la radio en s’excusant.

Il entreprit alors un processus de remise en question de lui-même et de ce qu’il croyait être les États-Unis, allant jusqu’à dénoncer la ségrégation et les distorsions du système judiciaire qui protégeaient les Blancs et emprisonnaient volontiers les Noirs. Ces thèmes se retrouvent dans « Buoy Bells from Trenton », également présente dans « Woody at Home », qui se réfère à l’affaire des Trenton Six : en 1948, six Noirs de Trenton (New Jersey) furent condamnés pour le meurtre d’un Blanc, par un jury composé uniquement de Blancs, malgré le témoignage de certaines personnes ayant vu d’autres individus sur les lieux du crime.

« Buoy Bells from Trenton » a probablement été incluse dans l’album pour la lecture qu’on peut en faire sur les abus de pouvoir et sur les « New Jim Crow », expression qui fait écho aux lois Jim Crow (fin XIXe–1965). Celles-ci imposaient dans les États du Sud la ségrégation raciale, légitimée par l’arrêt Plessy v. Ferguson (1896) de la Cour suprême, qui consacrait le principe « séparés mais égaux », avant d’être abolies par l’arrêt Brown v. Board of Education (1954), le Civil Rights Act (1964) et le Voting Rights Act (1965).

Popularisée par Michelle Alexander dans le livre The New Jim Crow (2010), la formule désigne le système contemporain de contrôle racial à travers les politiques pénales et l’incarcération de masse : en 2022, les Afro-Américains représentaient 32 % des détenus d’État et fédéraux condamnés, alors qu’ils ne constituent que 12 % de la population états-unienne, chiffre sur lequel plusieurs études récentes insistent. Cette chanson peut ainsi être relue, comme le suggère Nora Guthrie, comme une critique du racisme persistant, sous des formes institutionnelles mais aussi plus diffuses. Un exemple, là encore, de la vitalité de Guthrie et de la manière dont l’art ne s’arrête pas au moment de sa publication, mais devient un phénomène historique de long terme.

The Conversation

Daniele Curci ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.10.2025 à 17:34

Lecornu, Bayrou, Barnier: how the resignation of three French prime ministers signals a profound crisis in democracy

Rémi Lefebvre, Professeur de science politique université Lille 2, Université de Lille

Prime Minister Sébastien Lecornu’s decision to step down follows decades of disruption to politics in France.
Texte intégral (2475 mots)

France has been experiencing an unprecedented political crisis since President Emmanuel Macron dissolved parliament in June 2024. For political scientist Rémi Lefebvre, this deadlock is not only institutional: it reveals a crisis of representative governance fuelled by mistrust, social fragmentation and the erosion of majority rule.

Following the dissolution and the legislative elections that followed it, the governments of prime ministers Michel Barnier, François Bayrou and Sébastien Lecornu have all been unable to govern. Many commentators have suggested that this deadlock could be linked to a lack of compromise among political parties, or to unhelpful institutional rules. On the contrary, it seems that the disruption runs much deeper. The relationship with politics in France has changed in recent decades, and the current crisis is merely a symptom of the erosion and breakdown of the link between voter and representative itself.

A disrupted political routine

In France, particularly since the 1970s, we have become accustomed to the “majority system”: the president was elected by direct universal suffrage and needed a majority in parliament, which he generally obtained. Political life had a routine rhythm of alternating majorities. Then this system gradually broke down.

The lack of alternatives to this rhythm has led to a proliferation of political parties, creating chronic disillusionment in each political camp. The rise of the far right, which claims to embody a new path, is associated with the blurring of the left-right divide. In 2017, the arrival of Macron was seen as the result of the exhaustion of this divide and a response to the democratic crisis, driven by a rhetoric of “transcendence”.

But the president has exacerbated the crisis by pushing the margins to extremes and, ultimately, polarising political life while shifting his own position to the right. Macron has fuelled the far right, and he has weakened the left. While there are strong calls for compromise, on the left, the Socialist Party (PS) is under the thumb of La France Insoumise (France Unbowed or LFI) and constantly exposed to accusations of “treason”. The difficulty in building majorities, linked to the tripartite nature of political life, is exacerbated by internal fragmentation within each bloc.

However, this crisis cannot be understood solely in terms of political manoeuvring. We must also take into account changes in the relationship between voters and politics. Since the early 2000s, the very mechanism of elections has been called into question. The legitimacy given to those in power by elections is increasingly weak, as explained by historian Pierre Rosanvallon. This is reinforced by the widespread development of strategic voting: people are increasingly voting “usefully” in order to eliminate candidates, but voters are no longer really expressing their preferences, which weakens their commitment to the appointment of a representative and the legitimacy of that representative. Thus, the electoral process is fundamentally flawed: this is referred to as “negative” democracy. We eliminate more than we choose.

Fragmentation of society

Furthermore, the fragmentation of political identities partly reflects the fragmentation of society itself. The crisis of governance or governability is linked to a more individualised and fragmented society, exacerbated by inequalities and a form of separatism. Identities and divisions are more complex and less structured by homogeneous class identities, as explained by sociologist Gérard Mauger.

If political parties are unwilling to compromise, it is also because they do not want to disappoint the divided social groups that still support them and because they fear “betraying” distrustful voters and increasingly volatile and narrow electoral constituencies. Society is more polarised (the emotional polarisation caused by social media is undeniable), which also makes political compromises more difficult. We could add that the fragmentation and splintering of voters’ political identities is exacerbated by the weakness of the parties and their large number – there are now 11 parliamentary groups in the National Assembly, which is a record. One of the major consequences is that political parties are no longer able to organise public debate around a few coherent and simple visions.

Could the current political impasse be resolved by dissolution, negotiations, new parliamentary elections or even a presidential election? It is doubtful. Ultimately, it is possible that the carte blanche given to a French president, which comes via legislative elections that follow presidential polls, will no longer exist in the future. Political majorities are nowhere to be found, but perhaps neither are social and electoral majorities (ie alliances of social groups large enough to support political majorities).

Mistrust and disillusionment

The economic crisis we have been experiencing for the past year is part of an even broader trend, namely a considerable increase in mistrust of politics.

According to the 2025 barometer of political trust published by the Centre of Political Research at Sciences Po (CEVIPOF), around 20% of French people trust politicians. The French therefore consider the political class incapable of solving problems. They even consider it unworthy. It must be said that the spectacle on offer is rather unattractive, and it can be argued that the calibre of politicians is declining. Political scientist Luc Rouban has shown that this phenomenon fuels a desire to retreat into the private sphere along the lines of “leave us alone, we don’t care about politics”. The current crisis is therefore the product of this mistrust, and the political class’s inability to resolve it reinforces the phenomenon.

Disappointment and disillusionment have been building up for decades. The weakening of the left-right alternation that used to punctuate political life runs deep. Former president Nicolas Sarkozy served only one term, as did his successor François Hollande: both campaigned on volontarisme (the idea that the human will is capable of imposing change), but quickly disappointed. They pursued liberal economic policies that undermined the idea that politics could change things. Macron, who was re-elected, also disappointed. He fuelled the anti-elite sentiment that manifested itself powerfully during the “yellow vest” protests.

Ultimately, each camp is marked by disenchantment and produces mechanisms of polarisation. Thus, the Socialists produced LFI, which was the result of disappointment with the left in power. The far right is also, to a large extent, the result of political disillusionment. These two forces, LFI and Rassemblement National (the far-right National Rally), are hostile to any compromise.

Unavoidable challenges

This mistrust of politics is not specific to France, as political scientist Pierre Martin has shown in his analysis of the crisis facing governing parties. These mechanisms are present everywhere, in Europe and the US. Since the work of Colin Crouch, political scientists have even begun to talk about “post-democratic” regimes, where decisions are increasingly beyond the control of political power.

Globalisation, Europeanisation, and the power of large financial groups and lobbies have devalued political power and reduced its room for manoeuvre. However, politics raises expectations, and politicians attempt to re-enchant the electoral process by making promises at every election.

This situation is particularly difficult to accept in France, where there is a culture of very high expectations of the state. This crisis of volontarisme politique (which sees political leaders saying they will be capable of imposing change, but then failing to do so) is causing repeated disappointment. The latest CEVIPOF survey shows that mistrust is growing and is associated with a feeling of governmental and electoral impotence. The French believe that politics no longer serves any purpose: the sterile game of politics is spinning its wheels, with no impact on reality.

The current situation plays into the hands of the far right, as mistrust of politics fuels anti-parliamentarianism and also reinforces the idea that a political force that has not held office can be a solution.

In addition, a part of society finds itself aligned with right-wing issues: immigration, security, rejection of environmentalism, etc. In this context, the victory of the far right may seem inevitable. It has happened in the US, and it is difficult to imagine France escaping it, given the great fragmentation of the left, its pitfalls and its dead ends. However, if the far right comes to power – which would be a dramatic turn of events – it will also face the test of power and will certainly disappoint, without resolving the political crisis we are currently experiencing. Its electorate, which is very interclass (working class in the north, more middle class in the southeast), has contradictory expectations and it will be difficult to satisfy them.

Rebalancing democracy?

It would be naïve to believe in an “institutional solutionism” that would resolve this political crisis. Democracy cannot be reduced to electoral rules and institutional mechanisms. It is underpinned by values, culture, practices and behaviours.

Given this, a change to proportional representation would encourage voters to vote according to their convictions and marginalise “tactical voting”. The aim would be to better reflect voters’ political preferences through the voting system and to re-legitimise the electoral process.

A Sixth Republic would certainly help to regenerate institutions linked to an exhausted presidential system, as demonstrated by political scientist Bastien François. Nowadays, the verticality of power no longer works in a society shaped by horizontal dynamics. The image associated with the French president accentuates disappointment by creating a providential figure who cannot keep his promises. While the French are not in favour of abolishing direct universal suffrage for presidential elections, it is possible to limit the powers of the president – just as it is possible to reverse the calendar with legislative elections preceding presidential ones.

Many works, such as those by political scientist Loïc Blondiaux, also propose ways of thinking about a new balance between representative democracy and participatory democracy, a more continuous democracy that is less focused on elections. For a long time, elections were sufficient to ensure democracy, but that cycle is now over. This means tinkering and experimenting – with referendums, citizens’ conventions, etc. – in order to find a new balance between participation and representation. However, these solutions are complex to implement, whereas democracy through voting alone was very simple. Finally, democracy is a culture, and it is necessary to encourage participation at all levels by promoting a more inclusive, less competitive society, particularly in schools and businesses.

Another issue is that of political parties: citizens no longer join them because they are perceived as unattractive. Some studies suggest that they should be reformed and that their public funding, for example, should be rethought, with funding being made conditional on the diversity of elected representatives.

Democracy and the economy

Finally, a major democratic challenge is to regain control over the economic sphere. The debate on the Zucman tax highlights the political barrier that needs to be broken down: the power of the financial oligarchy. As long as political power has to bow down to finance, the deceptive logic of post-democracy will continue. However, inequalities have increased to such an extent that societies could demand a rebalancing. In this sense, post-democracy is not inevitable.

Economic forces will attempt to protect their positions and power, but, as political sociologist Vincent Tibérj shows, there is a very strong commitment to social justice and redistribution in France, even among the far right. Under pressure, the elites could therefore be forced to give in.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Rémi Lefebvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.10.2025 à 16:25

Entre l’État et le monde associatif, une alliance brisée

Timothée Duverger, Responsable de la Chaire TerrESS de Sciences Po Bordeaux, Sciences Po Bordeaux

Le 11&nbsp;octobre, les associations seront dans la rue pour protester contre les coupes budgétaires. Elles dénoncent également des atteintes aux libertés de la part de l’État.
Texte intégral (1936 mots)

Samedi 11 octobre 2025, les associations seront dans la rue pour dénoncer les violentes coupes budgétaires qui les menacent. C'est le résultat d'une lente dégradation des rapports entre le monde associatif et l’État. Par ailleurs, depuis la loi de 2021 instaurant un contrat d’engagement républicain (CER), certaines associations citoyennes sont sanctionnées par l’État, au détriment des libertés publiques.


Les associations battront le pavé lors d’une manifestation inédite, le 11 octobre 2025, pour défendre le fait associatif lui-même, et non une cause particulière. Cette mobilisation témoigne d’une crise profonde touchant à leur modèle économique mais aussi à la liberté associative, face à un État plus répressif. Elle en dit long sur la crise de l’État social comme sur l’état des libertés publiques en France. Comme si le tournant néolibéral des politiques publiques des années 1980 avait fini de saper l’alliance nouée après-guerre entre l’État et le monde associatif. Avec quelles conséquences ?

Une transformation de la relation État-associations

Le débat sur la réduction des déficits publics, mis à l’agenda en 2024, a révélé les mutations des aides publiques. Les associations ont longtemps été considérées comme une économie subventionnée. Or, non seulement la part des subventions publiques dans les ressources budgétaires des associations a baissé de 34 % à 20 % entre 2005 et 2020 au profit des recettes d’activité (vente de produits ou de services), mais en plus l’État préfère soutenir les entreprises que les associations au nom de la compétitivité.

L’économie sociale et solidaire (ESS), au sein de laquelle les associations concentrent la grande majorité des emplois et des ressources publiques, ne reçoit que 7 % des aides publiques aux entreprises alors qu’elle représente 13,7 % des emplois privés.

Ces orientations sont, de plus, porteuses d’iniquités de traitement. Le crédit d’impôt recherche (CIR), qui a financé à hauteur de 7,6 milliards d’euros la recherche et développement en 2024, exclut l’innovation sociale et, avec elle, les associations. Pour y remédier, on pourrait, par exemple, imaginer que les entreprises bénéficiaires en reversent 20 % à un fonds d’innovation sociale.

Dans le même sens, alors que la cotisation sur la valeur ajoutée des entreprises (CVAE) est en voie de disparition, la taxe sur les salaires pour les associations continue de s’appliquer, ce qui introduit une distorsion de concurrence avec des effets contreproductifs sur les conditions de rémunération et sur l’attractivité des emplois associatifs.

Cette régulation marchande aboutit à modifier en profondeur le modèle socioéconomique des associations, ce qui a deux conséquences majeures. D’une part, elle transforme les associations en prestataires de services publics. Entre 2005 et 2020, la part des commandes publiques dans leurs ressources budgétaires est ainsi passée de 17 % à 29 %, soit une inversion par rapport à l’évolution du poids des subventions.

Cela change également le rapport des associations avec les pouvoirs publics. Elles sont mises en concurrence avec des entreprises privées lucratives – ce qui a, par exemple, été à l’origine du scandale d’Orpea – et doivent, en plus, exécuter un marché plutôt que proposer des projets. D’autre part, la marchandisation de leurs ressources leur fait courir le risque de perdre leur caractère d’intérêt général, en étant soumises aux impôts commerciaux et en n’accédant plus aux dons défiscalisables, au détriment de leurs missions sociales.

Plan social imposé aux associations

Aujourd’hui, l’État impose donc un véritable plan social au monde associatif. Dans le contexte de réduction des déficits publics, pour lesquels les gouvernements successifs portent une lourde responsabilité, les coupes budgétaires s’appliquent d’abord aux associations. L’Union des employeurs de l’économie sociale et solidaire (Udes) a chiffré à 8,26 milliards d’euros les économies budgétaires impactant l’ESS lors du projet de loi de finances 2025.

Les effets de ces décisions sont immédiats. Selon une enquête réalisée auprès de 5 557  dirigeants associatifs, près d’un tiers des associations ont une trésorerie inférieure à trois mois et 45 % des subventions sont en baisse. Près d’un tiers des associations envisagent de réduire leurs effectifs et de diminuer leurs activités.

Alors que les associations représentent 1,8 million de salariés et que l’emploi associatif se caractérise par une prévalence du temps partiel et des contrats précaires ainsi que par des salaires plus bas, ces informations qui remontent du terrain inquiètent. Elles le sont d’autant plus que la baisse tendancielle des participations bénévoles est plus marquée dans les associations employeuses de l’humanitaire, du social et de la santé, qui concentrent la majorité des emplois.

Atteintes aux libertés publiques

À ces politiques d’austérité, il faut ajouter des atteintes aux libertés publiques. Elles s’inscrivent dans un contexte de défiance, illustré par la loi du 24 août 2021 confortant le respect des principes de la République, qui a instauré le contrat d’engagement républicain (CER) auquel doivent souscrire les associations qui veulent obtenir un agrément de l’État ou une subvention publique, ou encore accueillir un jeune en service civique.

Certes, les cas sont rares, mais ils témoignent d’une atmosphère répressive qui touche particulièrement les associations citoyennes. Le préfet de la Vienne a, par exemple, contesté l’attribution d’une subvention de la mairie de Poitiers à Alternatiba, en raison de l’organisation par cette association d’un atelier de formation à la désobéissance civile, tandis que le ministre de l’intérieur Gérald Darmanin a remis en cause le soutien public à la Ligue des droits de l’homme à la suite de ses critiques de l’action des forces de l’ordre lors des manifestations contre les bassines agricoles à Sainte-Soline (Deux-Sèvres).

Une enquête de l’Observatoire des libertés associatives fait état de sanctions institutionnelles, souvent liées à l’exercice de la liberté d’expression (prise de position, pétition, rencontre, manifestation, etc.). Ainsi, 9,6 % des répondants – et même 17,1 % des associations citoyennes – déclarent des sanctions matérielles (subventions, locaux, etc.) ou symboliques (participation à des événements, conventions, etc.). Des collectivités locales arrêtent brutalement certains programmes pour des raisons autant budgétaires qu’idéologiques, comme l’a illustré le cas médiatisé de la Région Pays de la Loire qui a supprimé 4,7 millions d’euros pour la culture, le sport et la vie associative.

À ce tableau, s’ajoute désormais la crainte d’une extrême droite accédant au pouvoir, extrême droite dont le programme de gouvernement prévoit de réserver les aides sociales aux Français en appliquant la « priorité nationale » pour l’accès au logement et à l’emploi. Autant de domaines dans lesquels les associations, très présentes, seraient sommées de « collaborer ». Les quelques expériences du RN à la tête d’exécutifs locaux comme les discours tenus dans les hémicycles des collectivités ou au Parlement laissent par ailleurs craindre une répression des associations environnementales, féministes ou de défense des droits ainsi qu’une instrumentalisation des politiques culturelles.

Le monde associatif, rempart de la République

Il y a cinquante ans, une circulaire du premier ministre de l’époque, Jacques Chirac, stipulait que « l’État et les collectivités publiques n’ont pas le monopole du bien public ». Elle rappelait le rôle de l’initiative associative pour répondre à des tâches d’intérêt général pour soutenir les personnes vulnérables (personnes âgées, personnes en situation de handicap, lutte contre la pauvreté, lutte pour l’insertion, etc.), pour réduire les inégalités et pour préserver le lien social (éducation populaire, culture, sport, etc.).

C’est là tout l’héritage légué par la régulation tutélaire de l’État, mise en place après-guerre en s’appuyant sur les initiatives associatives pour répondre aux besoins des populations. Le développement de l’État social est allé de pair avec celui des associations gestionnaires, que la loi de 1975 sur les institutions sociales et médico-sociales est venue moderniser.

Il faudrait ajouter que la loi de 1901 sur les associations est avant tout une loi relative aux libertés publiques. Elle fut conquise après un siècle de luttes afin de permettre à des personnes de s’associer sans autorisation ni déclaration préalable. Rappelons qu’auparavant, la loi Le Chapelier de 1791 interdisait les corporations, l’État ayant développé une longue tradition de répression des associations, particulièrement marquée lors des périodes de reflux républicain (sous la Restauration et le Second Empire notamment).

Défendre les associations, c’est défendre nos droits fondamentaux, comme la République qui s’enracine dans le corps social et qui permet la vitalité démocratique. Comme l’écrivait Alexis de Tocqueville, « dans les pays démocratiques, la science de l’association est la science mère ; le progrès de toutes les autres dépend des progrès de celle-là ».

The Conversation

Timothée Duverger ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.10.2025 à 16:25

Quand la rivalité entre Taïwan et la Chine s’invite dans le Pacifique

Pierre-Christophe Pantz, Enseignant-chercheur à l'Université de la Nouvelle-Calédonie (UNC), Université de Nouvelle Calédonie

Les petites îles du Pacifique font l’objet d’une attention marquée de Taïwan et de Pékin. Elles tentent souvent de jouer au mieux de cet intérêt, comme l’a montré leur récent Forum.
Texte intégral (2071 mots)

Le 54e Forum des îles du Pacifique, qui rassemble dix-huit États et territoires de cette zone – à savoir l’Australie, la Nouvelle-Zélande et l’essentiel de l’Océanie insulaire – a été le théâtre d’une nouvelle passe d’armes entre Pékin et Taipei. La République populaire de Chine y progresse, mais Taïwan parvient encore à y conserver des positions, trois de ces pays la reconnaissant officiellement (ce qui n’est le cas que de douze pays dans le monde au total).


Si la confrontation entre la Chine et les États-Unis se joue en mer de Chine méridionale, elle s’étend désormais jusque dans les petites îles du Pacifique, qui deviennent un baromètre des équilibres mondiaux entre coopération et confrontation.

Tandis que la pression militaire et stratégique exercée par la République populaire de Chine (RPC) s’intensifie autour de Taïwan (ou République de Chine), les autorités taïwanaises considèrent désormais l’année 2027 comme une échéance plausible pour une éventuelle invasion de l’île par Pékin. Une crainte partagée par Washington qui a estimé lors du Shangri-La Dialogue (mai 2025) que la Chine se prépare à « potentiellement utiliser la force militaire » et « s’entraîne tous les jours » en vue d’une invasion de Taïwan, avec une multiplication des manœuvres navales et aériennes autour de l’île.

Si ce face-à-face sino-américain se joue en mer de Chine méridionale, il a également des répercussions à plusieurs milliers de kilomètres de là, dans le Pacifique insulaire, où l’influence chinoise s’accentue depuis une quinzaine d’années. Pékin y mène une bataille plus discrète mais tout aussi stratégique : isoler diplomatiquement Taïwan et imposer sa « One-China Policy » (politique d’une seule Chine).

Carte des pays membres du Forum. Cliquer pour zoomer. Forumsec.org

Le Forum des îles du Pacifique, théâtre des rivalités

Réuni à Honiara (Îles Salomon) du 8 au 12 septembre 2025, le 54ᵉ Forum des Îles du Pacifique (FIP), qui regroupe 18 pays et territoires de cette vaste région, a été marqué par une décision inédite : à l’initiative des îles Salomon, pays hôte et allié indéfectible de Pékin, l’ensemble des « partenaires du dialogue » – dont Taïwan, les États-Unis et la Chine – ont été exclus du sommet.

Depuis 1992, Taïwan bénéficie pourtant de ce statut qui lui permet de rencontrer ses alliés du Pacifique en marge des réunions annuelles du Forum. Ce droit est inscrit dans le « communiqué d’Honiara » adopté par les dirigeants du Pacifique en 1992. Un statut que Pékin s’emploie depuis plusieurs années à remettre en cause, comme en témoigne le Forum organisé aux Tonga en 2024 où une mention du partenariat avec Taïwan avait même été supprimée du communiqué final après l’intervention de l’ambassadeur chinois Qian Bo – un succès diplomatique pour Pékin.

Le sommet de 2025 marque donc une nouvelle étape : certes, l’exclusion prive Taïwan de visibilité, mais les dirigeants du Forum ont finalement réaffirmé la décision de 1992, confirmant le statu quo.

Ce compromis illustre l’équilibre précaire entre pressions extérieures et cohésion régionale. Dans une région où l’aide publique au développement est particulièrement nécessaire, cette décision d’exclure les principaux partenaires et bailleurs de fonds de la principale institution régionale interroge, car elle fragilise le multilatéralisme du Forum et le menace de scission.

Le Pacifique insulaire, dernier bastion de Taïwan ?

Depuis la résolution 2758 de l’ONU (1971), qui a attribué le siège de la Chine à la RPC, Taïwan a perdu la quasi-totalité de ses soutiens diplomatiques. De plus de 60 États qui le reconnaissaient à la fin des années 1960, puis une trentaine dans les années 1990, il n’en reste que 12 en 2025, dont trois dans le Pacifique : Tuvalu, les îles Marshall et Palau.

Les défections récentes – Îles Salomon et Kiribati en 2019, Nauru en 2024 – montrent l’efficacité de la stratégie chinoise, qui combine incitations économiques, rétorsions politiques et actions d’influence.

Le Pacifique reste cependant un espace singulier : il concentre encore 25 % des derniers soutiens mondiaux à Taïwan, malgré sa forte dépendance aux aides extérieures.

La montée en puissance de l’influence chinoise

Depuis les années 2010, la Chine s’impose comme un acteur économique et diplomatique incontournable dans le Pacifique, la consacrant comme une puissance régionale de premier plan et mettant au défi les puissances occidentales qui considéraient cette région comme leur traditionnel pré carré.

Ses Nouvelles Routes et ceinture de la soie (Belt and Road Initiative, BRI) se traduisent par des investissements massifs dans des infrastructures essentielles : routes, hôpitaux, stades, télécommunications. Ces projets, souvent financés par des prêts, renforcent la dépendance économique des petites îles, ouvrant à Pékin de nouveaux leviers d’influence.

Sur le plan géostratégique, la Chine trace ainsi une cartographie où elle s’ouvre de vastes sections de l’océan Pacifique et s’en sert comme de relais pour projeter sa puissance et sécuriser ses intérêts dans la région. L’accord de sécurité signé en 2022 avec les Îles Salomon – autorisant le déploiement de personnel de sécurité chinois et l’accès de navires de guerre – illustre justement la progression de cette stratégie. Un pas qui alarme l’Australie et les États-Unis, qui redoutent l’établissement d’une base militaire chinoise dans une zone stratégique proche de leurs côtes.

Le réveil occidental ?

Les puissances occidentales voient dans cette percée un défi à leur propre sphère d’influence et tentent de réinvestir la région du Pacifique Sud afin de contrer l’hégémonie chinoise. Sous la présidence de Joe Biden (2021-2025), les États-Unis ont relancé leur présence diplomatique, organisé des sommets avec les îles du Pacifique et multiplié les annonces d’aides via l’initiative Partners in the Blue Pacific.

L’Australie et la Nouvelle-Zélande renforcent leurs programmes de coopération, tandis que le Japon et la France accroissent leurs investissements.

Parallèlement, les dispositifs de sécurité se multiplient : pacte AUKUS (Australie, Royaume-Uni, États-Unis), stratégie indo-pacifique française, QUAD (Quadrilateral security dialogue) et partenariats bilatéraux visent à contenir l’expansion chinoise.

Le Pacifique insulaire, longtemps périphérique, s’apparente désormais à un espace central de rivalité géopolitique.

Les îles du Pacifque : entre risques et opportunité

Pour les petits États insulaires (PEI), cette compétition représente à la fois une menace et une opportunité.

Conscients de l’effet de levier dont ils disposent en jouant sur la concurrence entre les grandes puissances, ils tentent néanmoins de préserver leur marge d’autonomie. Leur stratégie, résumée par la formule « amis de tous, ennemis de personne », cherche à éviter la polarisation et à maintenir la coopération régionale malgré des risques graduels : instrumentalisation du Forum, perte d’unité entre États insulaires, et surtout militarisation croissante d’un océan que les pays de la région souhaitent… pacifique, comme l’affirme la Stratégie 2050 pour le Pacifique bleu adoptée en 2022.

L’avenir du statut de Taïwan dans le Pacifique illustre parfaitement cette tension. Si Pékin compte poursuivre ses efforts pour réduire à peau de chagrin les irréductibles soutiens diplomatiques de Taipei, la réaffirmation du partenariat de développement par le FIP en 2025 montre que les États insulaires tentent de maintenir le cadre régional existant.

Si pour l’heure, le Pacifique insulaire reste encore un bastion – au moins symbolique – pour Taïwan et un terrain d’affrontement stratégique pour la Chine et les puissances occidentales, le défi pour les PEI sera de continuer à tirer parti de cette rivalité sans y perdre leur unité ni leur souveraineté. Leur capacité à préserver un Pacifique réellement « bleu » – à la fois ouvert, stable et pacifique – sera le véritable test des prochaines années de leur diplomatie régionale face aux rivalités des grandes puissances.

The Conversation

Pierre-Christophe Pantz ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓