09.10.2025 à 15:32
Romuald Blanc, MCU-Psychologue clinicien, Université de Tours
Qu’est-ce que l’intelligence ? Comment la définir, et l’évaluer ? Il n’existe pas de réponse simple à ces questions, qui ont fait l’objet de nombreux travaux de recherche. Voici quelques pistes de réflexion.
L’intelligence est un concept complexe, qui englobe plusieurs sortes de capacités cognitives, comme la résolution de problèmes, la pensée abstraite, l’apprentissage et l’adaptation.
Elle ne se limite pas aux performances scolaires, mais inclut aussi des dimensions émotionnelles (l’ajustement émotionnel aux autres, la capacité à agir sur ses propres émotions ou « autorégulation émotionnelle »), sociales (l’adaptation sociale et prise en compte des règles et des conventions sociales qui régissent les relations humaines) et pratiques (l’adaptation au quotidien).
Pour cette raison, définir l’intelligence et l’évaluer est une tâche ardue. Les experts eux-mêmes peinent encore à s’accorder sur sa nature (unique ou multiple), son origine (innée ou acquise) ou ses mécanismes (concernant les processus cognitifs sous-jacents).
Si de nombreux modèles d’intelligence ont été proposés, jusqu’à présent, aucun consensus scientifique incontesté n’a émergé. Globalement, 3 grandes façons de définir l’intelligence se dessinent : les modèles factoriels, les approches dites « multiples » et les modèles neurocognitifs. Voici ce qu’il faut en retenir.
Parmi les modèles factoriels, citons le modèle mis au point par Charles Edward Spearman, psychologue britannique. Développé en 1904, il repose sur le calcul d’un facteur général d’intelligence (appelé « facteur g »). Celui-ci serait commun à toutes les tâches cognitives, tandis que pour chaque activité il existerait des facteurs spécifiques : un facteur verbal pour le langage, un facteur spatial, etc. Ces « facteurs mentaux » sont déterminés grâce à une méthode mathématique appelée analyse factorielle.
Le modèle de Spearman implique que toutes les performances intellectuelles sont corrélées. L’intelligence serait donc une capacité unique. Bien que critiqué pour son caractère réducteur, il reste une référence dans la psychométrie et la conception des tests de quotient intellectuel.
Dans les années 1930, Louis Leon Thurstone, un psychologue américain, conteste cette vision. Il affirme que l’intelligence n’est pas une capacité unique, mais un ensemble de compétences mentales primaires indépendantes. En se basant sur des analyses factorielles de tests d’intelligence qu’il a fait passer à des étudiants, il détermine qu’il existerait 7 aptitudes mentales primaires : la compréhension verbale, la fluidité verbale, les aptitudes numériques, la visualisation spatiale, la mémoire, la vitesse perceptive et le raisonnement inductif.
En 1963, dans la lignée de ces travaux, le psychologue anglo-américain Raymond Bernard Cattell défend l’idée que l’intelligence générale se divise en deux catégories principales : l’intelligence fluide, qui correspond à notre capacité à traiter de nouvelles informations, à apprendre et à résoudre des problèmes ; et l’intelligence cristallisée, qui s’apparente à nos connaissances stockées, accumulées au fil des ans.
Ce dernier modèle a influencé de nombreux tests d’intelligence modernes, comme les échelles d’intelligence de Wechsler. Il explique pourquoi certaines personnes âgées peuvent exceller dans des domaines nécessitant des connaissances établies, malgré une baisse de leurs capacités de raisonnement abstrait. Il est utilisé en psychologie cognitive et en neurosciences pour étudier le vieillissement cognitif.
En se positionnant face aux modèles antérieurs, jugés réducteurs, le psychologue états-unien Howard Gardner a développé, au début des années 1980, un autre modèle de l’intelligence, intégrant les composantes sociales et culturelles. Son intérêt pour des populations atypiques telles que les enfants dits « prodiges », les « idiots-savants », ou encore les personnes avec autisme lui ont permis de prendre en considération des différentes facettes de l’activité cognitive, en respectant des différences de chacun selon ses forces, ses faiblesses et ses styles cognitifs.
Il définit ainsi huit grandes facettes de l’intelligence : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle et naturaliste. Gardner propose que chacun peut développer ces intelligences à différents niveaux et qu’il existe de nombreuses façons d’être intelligent dans chacune de ces catégories.
Bien que novateur, ce modèle est critiqué pour son manque de fondement scientifique et la subjectivité de ses catégories. Certains chercheurs y voient plutôt des talents que de véritables formes d’intelligences, et son efficacité pédagogique reste à démontrer. Des critiques suggèrent que la théorie des intelligences multiples manque de fondements scientifiques solides et repose sur des catégories subjectives, souvent perçues davantage comme des talents ou des traits de personnalité que comme des formes distinctes d’intelligence.
En 1985, le psychologue américain Robert Sternberg propose un modèle triarchique de l’intelligence, intégrant des aspects cognitifs, créatifs et pratiques. Il distingue trois formes d’intelligence : analytique (résolution de problèmes logiques), créative (pensée originale et adaptation à la nouveauté) et pratique (adaptation au quotidien, intelligence sociale).
Contrairement à Spearman et Thurstone, qui envisagent l’intelligence comme un ensemble de capacités cognitives mesurables (facteur g ou aptitudes primaires), Sternberg la conçoit comme un processus adaptatif. Être intelligent, c’est savoir s’adapter à de nouvelles situations, choisir des environnements favorables et les modifier si nécessaire.
Réussir à s’intégrer dans un nouvel environnement culturel illustre par exemple cette intelligence pratique et contextuelle. Là où Spearman ou Thurstone y verraient l’expression d’aptitudes générales (raisonnement, compréhension), Sternberg y voit surtout la mise en œuvre de stratégies d’adaptation à un contexte changeant.
La théorie de Sternberg est plus étayée empiriquement que celle de Gardner, car ses composantes (analytique, créative, pratique) peuvent être testées et appliquées en éducation ou en milieu professionnel, pour mieux évaluer les compétences individuelles. La typologie proposée par Gardner, séduisante, est en revanche moins validée scientifiquement.
Si Sternberg reste plus opérationnel et crédible sur le plan scientifique, les deux approches complètent les modèles psychométriques, en mettant l’accent sur l’adaptation et le contexte.
Les modèles les plus récents d’intelligence s’appuient sur les connaissances acquises notamment grâce aux progrès effectués en neuro-imagerie (notamment grâce à l’IRM fonctionnelle, qui permet d’observer le fonctionnement cérébral lors de la réalisation d’une tâche donnée).
Ces modèles mettent en avant le rôle des réseaux cérébraux et des fonctions cognitives. Parmi les principaux, on peut citer :
la théorie de l’intégration fronto-pariétale : selon cette théorie, l’intelligence serait basée sur l’intégration, c’est-à-dire le traitement coordonné et harmonieux des informations entre différentes régions du cerveau, notamment entre le cortex pariétal (impliqué dans le raisonnement et le traitement spatial) et le cortex préfrontal (impliqué dans le contrôle exécutif, c’est-à-dire la régulation et la coordination des pensées, des actions et des émotions pour atteindre un but) ;
le modèle des fonctions exécutives : ce modèle souligne le rôle clé de la mémoire de travail (capacité à maintenir et manipuler temporairement des informations), de la flexibilité cognitive (capacité à changer de stratégie ou de point de vue) et de l’inhibition (capacité à résister à des automatismes ou distractions). Ces fonctions, essentielles pour la planification et l’adaptation, sont fortement associées au cortex préfrontal ;
les approches bayésiennes : elles mettent en avant l’idée que le cerveau agit comme un système prédictif, c’est-à-dire qu’il formule en permanence des hypothèses sur le monde à partir de ses expériences passées, puis les ajuste en fonction des nouvelles informations sensorielles (par exemple, lorsque nous marchons dans une rue et que nous entendons un bruit de moteur derrière nous, notre cerveau prévoit qu’une voiture approche. Si le bruit s’éloigne au lieu de se rapprocher, il met à jour son modèle interne pour ajuster sa prédiction) ;
le modèle des réseaux en petits mondes : ce modèle repose sur l’idée que l’intelligence dépend de l’efficacité des connexions neuronales et de la plasticité cérébrale. Le cerveau humain est organisé selon une architecture dite en petit monde, c’est-à-dire un réseau dans lequel les neurones (ou régions cérébrales) sont à la fois fortement connectés localement (favorisant la spécialisation) et efficacement reliés à distance (favorisant l’intégration globale de l’information). Cela signifie qu’il existe des différences interindividuelles : certaines personnes présentent des réseaux cérébraux plus efficaces, caractérisés par un équilibre optimal entre connectivité locale et connectivité globale, ce qui serait associé à de meilleures performances cognitives et à un quotient intellectuel plus élevé. Cependant, cette efficacité n’est pas figée : elle peut être modifiée par l’expérience, l’apprentissage, l’entraînement cognitif ou encore par des changements développementaux (enfance, adolescence) et neurobiologiques (plasticité synaptique, myélinisation). En d’autres termes, le cerveau peut réorganiser ses connexions pour améliorer la circulation de l’information.
Tous ces modèles postulent que l’intelligence est distribuée : elle reposerait sur l’interaction entre différentes régions du cerveau.
La théorie de l’intégration fronto-pariétale et le modèle des fonctions exécutives sont bien étayés empiriquement, grâce à des données de neuro-imagerie et des tâches expérimentales standardisées. Les approches bayésiennes offrent un cadre explicatif puissant, mais plus théorique et difficile à tester directement. Enfin, le modèle des réseaux en petits mondes est empiriquement mesurable, mais surtout corrélationnel.
Ces modèles ne s’opposent pas aux approches développementales classiques, ils les complètent en proposant une explication cérébrale et fonctionnelle des mécanismes qui sous-tendent le développement de l’intelligence
À la fois universelle et plurielle, l’intelligence est un concept complexe, polymorphe et multidimensionnel. L’évaluer n’est pas chose aisée. Sa richesse ne peut être appréhendée à la seule aune de tests standardisés tels que le quotient intellectuel, car celui-ci ne prend pas en compte toutes les formes d’intelligence, ignorant notamment l’intelligence émotionnelle ou créative.
Une compréhension complète de l’intelligence exige de ce fait une approche globale et nuancée. À ce titre, les divers modèles de l’intelligence offrent une vision enrichissante de la complexité de ce concept, en proposant de reconnaître et de valoriser les différentes compétences et talents que chaque individu possède.
En nous incitant à adopter une perspective plus large sur l’intelligence, ils nous aident à mieux comprendre et à soutenir le développement des capacités des individus dans toute leur diversité.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Romuald Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Hélène Bourdeloie, Sociologue, maîtresse de conférences en sciences de l’information et de la communication, Université Sorbonne Paris Nord; Centre national de la recherche scientifique (CNRS)
Au-delà de ses effets délétères sur la santé mentale des jeunes, le récent rapport de la commission parlementaire sur TikTok montre que la plateforme laisse proliférer des contenus sexistes, valorisant le masculin et dénigrant le féminin. Une occasion de s’interroger sur les mécanismes qui, au cœur des plateformes numériques, amplifient les stéréotypes de genre, bien loin des promesses émancipatrices portées par l’essor de l’Internet grand public des années 1990.
Alex Hitchens est un influenceur masculiniste, coach en séduction, actuellement fort de 719 000 abonnés sur TikTok. Son effarant succès est emblématique du rôle des algorithmes de recommandation dans l’amplification des discours réactionnaires. La récente commission d’enquête parlementaire sur les effets psychologiques de TikTok a donc logiquement convoqué l’influenceur star – parmi plusieurs autres aux discours tout aussi douteux – pour l’entendre en audition. Et le 11 septembre 2025, elle a rendu son rapport. Celui-ci met clairement en cause la responsabilité des algorithmes des plateformes dans la diffusion de contenus problématiques aggravant les stéréotypes de genre
À lire aussi : TikTok et les jeunes : rentabilité et fabrique du mal-être
Cette réalité s’inscrit dans un contexte plus large renvoyant à l’état du sexisme et des inégalités entre les hommes et les femmes dans toutes les sphères de la société. Ainsi, le Baromètre sexisme 2023 du Haut conseil à l’égalité (HCE) signale la présence d’une nouvelle vague d’antiféminisme. On y apprend que 33 % des hommes considèrent que le féminisme menace leur place et rôle dans la société, et 29 % d’entre eux estiment être en train de perdre leur pouvoir.
De telles données ne sont pas sans interroger la promesse émancipatrice des débuts de l’Internet. Loin d’être un espace neutre, à l’intersection du technique et du social, l’Internet est en effet sans cesse modelé par des décisions humaines, des choix politiques et des logiques économiques. Celles-ci influencent nos usages et nos comportements, qu’il s’agisse de nos manières de construire notre identité de genre (selfies, filtres, mise en scène de la féminité/masculinité), de nos pratiques relationnelles et amoureuses (applications de rencontre, codes de séduction numérique), ou encore de notre rapport au corps et à l’intimité.
Alors qu’il était censé nous libérer de normes contraignantes, l’Internet semble finalement renforcer l’ordre patriarcal en laissant proliférer des stéréotypes qui valorisent le masculin et dénigrent le féminin. En favorisant la circulation de discours qui présentent des caractéristiques prétendument féminines comme biologiques, l’Internet peut contribuer à confondre sexe et genre, à naturaliser les différences de genre, et par conséquent à essentialiser les femmes et à les inférioriser.
Les chiffres du rapport du HCE sur l’invisibilité des femmes dans le numérique sont à ce titre plus qu’éloquents. A partir de l’analyse des 100 contenus les plus vus sur YouTube, TikTok et Instagram, il établit que sur Instagram, plus des deux tiers de ces contenus (68 %) véhiculent des stéréotypes de genre, tandis qu’un quart (27 %) comprend des propos à caractère sexuel et près d’un cinquième (22 %) des propos sexistes. TikTok n’échappe pas à cette tendance avec 61 % de vidéos exposant des comportements masculins stéréotypés et 42,5 % des contenus humoristiques et de divertissement proposant des représentations dégradantes des femmes.
Aux débuts de l’Internet grand public des années 1990, héritier de l’utopie technoculturelle des années 1960-1970, on pouvait penser que cette technologie redistribuerait les cartes en matière de genre, classe ou race. Le numérique promettait plus d’horizontalité, de fluidité, d’anonymat et d’émancipation.
Dans une perspective cyberféministe, ces espaces numériques étaient vus comme des moyens de dépasser les normes établies et d’expérimenter des identités plus libres, l’anonymat permettant de se dissocier du sexe assigné à la naissance.
Si plusieurs travaux ont confirmé cette vision émancipatrice de l’Internet – visibilité des minorités, expression des paroles dominées, levier de mobilisation – une autre face de l’Internet est venue ternir sa promesse rédemptrice.
Dans les années 2000, avec la montée en puissance des logiques marchandes, les Big Tech de la Silicon Valley – et en particulier les Gafam (Google, Apple, Facebook/Meta, Amazon, Microsoft) – ont pris le contrôle du réseau et cet espace décentralisé, ouvert et commun, est devenu la propriété économique de quelques entreprises. L’Internet a pris une autre forme : oligopolistique, verticale et néolibérale.
Aujourd’hui, les plateformes numériques, à commencer par les réseaux sociaux, cherchent à capter et retenir l’attention des internautes pour la convertir en revenus publicitaires ciblés. Cette logique est notamment poussée par des plateformes, comme TikTok, qui, en personnalisant les fils d’actualité des utilisateurs, tendent à valoriser les contenus sensationnalistes ou viraux, qui suscitent un temps de visionnage accru, à l’exemple des contenus hypersexualisés.
Dès lors, si le sexisme n’est pas né avec le numérique, les algorithmes des plateformes offrent néanmoins un terreau favorable à sa prolifération.
Les plateformes (avec leurs filtres, formats courts, mécanismes de partage, systèmes de recommandation… – à l’exemple du filtre « Bold Glamour » de TikTok, censé embellir les visages sur la base de standards irréalistes et genrés) contribuent à perpétuer et amplifier les biais de genre et sexistes, voire à favoriser la haine et la misogynie chez les jeunes.
Une étude universitaire de 2024 illustre bien la manière dont les utilisateurs de TikTok sont surexposés aux contenus sexistes. Pour observer cela, des chercheuses et chercheurs ont créé des profils fictifs de garçons adolescents. Après seulement cinq jours, ils ont constaté que le niveau de contenus misogynes présentés sur les fils « Pour toi » de ces profils avait été multiplié par quatre, révélant un biais structurel dans le système de recommandation de TikTok.
La plateforme n’est dès lors pas seulement le miroir de clivages de sexe, mais aussi le symptôme du pullulement et de la banalisation des discours sexistes. Cette idéologie, enracinée dans les sous-cultures numériques phallocrates rassemblée sous le nom de « manosphère » et passant désormais des écrans aux cours de récréation, n’a pas de frontière.
À lire aussi : « Manosphère » : ce que les parents doivent savoir pour en parler avec leurs enfants
Concernant TikTok, le rapport de 2023 du HCE sur l’invisibilité des femmes dans le numérique est on ne peut plus clair. Il montre que la plateforme privilégie structurellement les contenus correspondant aux attentes genrées les plus convenues. Les corps féminins normés, les performances de genre ou représentations stéréotypées, comme celle de la femme réservée, hystérique ou séductrice, y sont ainsi surreprésentées. En fait, les grandes plateformes les représentent sous un angle qui les disqualifie. Cantonnées à l’espace domestique ou intime, elles incarnent des rôles stéréotypés et passifs liés à la maternité ou l’apparence. Leurs contenus sont perçus comme superficiels face à ceux des hommes jugés plus légitimes, établissant une hiérarchie qui reproduit celle des sexes.
On se souvient ainsi du compte TikTok « @abregefrere ». Sous couvert de dénoncer le temps perdu sur les réseaux sociaux, ce compte s’amusait à résumer en une phrase le propos de créateurs et créatrices de contenus, le plus souvent issus de femmes. Créant la polémique, son succès a entraîné une vague de cyberharcèlement sexiste, révélateur d’une certaine emprise du masculinisme.
À lire aussi : #SkinnyTok, la tendance TikTok qui fait l’apologie de la maigreur et menace la santé des adolescentes
De telles représentations exacerbent les divisions genrées et les clivages entre communautés en ligne. Sur TikTok, est ainsi né Tanaland, un espace virtuel exclusivement féminin, pensé comme un renversement du stigmate associé à l’insulte misogyne « tana » (contraction de l’espagnol « putana »), et destiné à se protéger du cybersexisme. En miroir, a été créé Charoland, pays virtuel peuplé de femmes nues destinées à satisfaire le désir masculin ; une polarisation qui opère non seulement au détriment des femmes, mais aussi des hommes qui contestent le patriarcat.
Comme en témoigne le rapport 2025 du HCE, ce contexte peut conduire à polariser les enjeux d’égalité de genre et, ce faisant, à renforcer les inégalités et violences.
Ce sont ainsi les femmes et les minorités qui restent les plus exposées à la cyberviolence et au cyberharcèlement. Selon l’ONU, 73 % des femmes dans le monde ont déjà été confrontées à des formes de violence en ligne. Et selon l’enquête « Cyberviolence et cyberharcèlement », de 2022, en cours de renouvellement, les cyberviolences visent surtout les personnes les plus vulnérables comme les jeunes (87 % des 18-24 ans en ont ainsi subi), les personnes LGBTQI+ (85 %), les personnes racisées (71 %) et les femmes de moins de 35 ans (65 %).
Ces violences affectent particulièrement la santé mentale et l’image de soi des jeunes filles, soumises à une pression permanente à la performance esthétique et constamment enjointes à réfléchir à leur exposition en ligne. De fait, leurs corps et leurs sexualités sont plus strictement régulés par un ordre moral – contrairement aux hommes souvent perçus comme naturellement prédatoires. En conséquence, elles subissent davantage le body-shaming (« humiliation du corps »), le slut-shaming ou le revenge porn, stigmatisations fondées sur des comportements sexuels prétendus déviants.
À lire aussi : Que fait l’Europe face aux géants du numérique ?
Reflet de la société, le numérique n’a certes pas créé la misogynie mais il en constitue une caisse de résonance. Pharmakon, le numérique est donc remède et poison. Remède car il a ouvert la voie à l’expression de paroles minoritaires et contestatrices, et poison car il favorise l’exclusion et fortifie les mécanismes de domination, en particulier lorsqu’il est sous le joug de logiques capitalistes.
Un grand merci à Charline Zeitoun pour les précieux commentaires apportés à ce texte.
Hélène Bourdeloie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Elodie Gentina, Professeur à IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille, IÉSEG School of Management
À l’automne 2025, face à la censure numérique imposée par un régime népotique, des milliers de jeunes manifestants ont investi les rues de Katmandou, capitale du Népal. La répression a été brutale : au moins 72 morts, des dizaines de blessés. Porté par les réseaux sociaux, ce soulèvement s’inscrit dans une vague mondiale où les jeunesses connectées – du Maroc à Madagascar – réinventent la démocratie hors des cadres traditionnels et exigent d’être entendues.
Au Népal, l’histoire politique pourrait bien prendre un nouveau tournant. Dans ce pays de quelque 30 millions d’habitants accroché aux flancs de l’Himalaya, encore marqué par les cicatrices d’une guerre civile (1996-2006) qui a abouti à la mise en place d’une démocratie imparfaite et instable, une génération née après les combats s’affirme aujourd’hui.
Elle ne se range sous aucune bannière partisane, n’attend l’aval d’aucun chef et refuse les mots d’ordre venus d’en haut. Elle trace sa propre voie, connectée, autonome, soudée autour de ses codes et de ses écrans. Et cet automne 2025, cette jeunesse – la fameuse génération Z (personnes nées entre la fin des années 1990 et le début des années 2010) – a investi les rues, prenant tout le monde de court, à commencer par les dirigeants.
Pour mesurer ce qui se joue aujourd’hui, il faut d’abord se tourner vers le passé. Entre 1996 et 2006, le Népal a traversé une décennie de guerre civile d’une rare intensité, opposant les insurgés maoïstes au pouvoir monarchique. Ce conflit, qui a coûté la vie à plus de 13 000 personnes, s’est soldé par l’effondrement de la royauté et la naissance d’une République en 2008. Beaucoup y ont vu l’aube d’un nouvel avenir, fondé sur la justice, la stabilité et le développement.
Mais la réalité fut bien plus chaotique. En quinze ans, le pays a connu une succession de gouvernements sans lendemain, des institutions toujours fragiles et un pouvoir resté entre les mains des mêmes familles. La corruption, le favoritisme et l’absence d’horizons économiques ont peu à peu creusé un profond sentiment de désillusion. Jusque-là, la contestation prenait des formes attendues : syndicats, mouvements étudiants affiliés aux partis, mobilisations rurales ou actions maoïstes. Rien ne laissait imaginer l’irruption d’un soulèvement d’un tout autre visage.
Environ 500 000 jeunes rejoignent chaque année la population active, bien plus que le nombre d’emplois disponibles. Le chômage des jeunes âgés de 15 à 24 ans au Népal est évalué à 20,8 %. Dans ces conditions, les opportunités sont rares, et des centaines de milliers de Népalais sont contraints de s’expatrier pour trouver du travail en Inde ou dans les pays du Moyen-Orient. L’idée d’un avenir meilleur dans leur propre pays leur semble de plus en plus inaccessible.
À lire aussi : Ce que la migration au Qatar signifie pour les travailleurs népalais
Quelques jours avant que les rues ne s’embrasent, un flot d’images a envahi les réseaux sociaux népalais : on y voyait les enfants de responsables politiques exhiber voitures de luxe, séjours à l’étranger et train de vie fastueux. Ces publications, largement partagées sous les hashtags #NepoKid ou #NepoBaby, ont fait l’effet d’une étincelle dans un pays déjà traversé par une profonde frustration. Elles mettaient crûment en lumière le fossé qui sépare les élites de la population, révélant un système où privilèges et passe-droits semblent se transmettre de génération en génération.
Dans un contexte de chômage massif et d’exil forcé pour une grande partie de la jeunesse, ces images sont vite devenues le symbole d’un pouvoir déconnecté et d’une injustice profondément enracinée. Le mouvement né sur les écrans s’est alors transformé en colère dans les rues, accélérant l’éclatement d’un soulèvement populaire. Le mouvement au Népal a souvent été présenté comme une révolte de la Gen Z contre les « nepo-babies » qui s’est intensifiée à la suite de l’interdiction des réseaux sociaux et d’une répression sanglante.
La vague de vidéos dénonçant les « nepo-kids » a exprimé une colère populaire face à des décennies de népotisme enraciné au Népal. Héritage de la dynastie autoritaire des Rana (1846-1951), ce système s’est perpétué malgré la démocratisation amorcée en 1990 : les partis n’ont pas su instaurer des institutions équitables ni représentatives. Le pouvoir reste ainsi concentré entre quelques familles influentes et alliances claniques (la famille Koirala, la dynastie Rala et les dynasties « claniques »), qui continuent de contrôler partis, ressources et postes clés.
Les jeunes citoyens exigent la fin de la corruption, une gouvernance plus juste et une véritable équité économique. Fait inédit dans l’histoire politique du pays : le 9 septembre 2025, le premier ministre Khadga Prasad Sharma Oli a présenté sa démission, avant d’être remplacé par Sushila Karki, ancienne présidente de la Cour suprême, à l’issue d’un vote… organisé sur la plateforme Discord. Elle est à la tête d’une équipe transitoire chargée de préparer les élections prévues pour mars 2026.
Cette révolte est horizontale, spontanée, mouvante, en l’absence de leaders reconnus ou autoproclamés. Les messages circulent en ligne, les décisions se construisent collectivement, presque en temps réel. La culture de cette génération imprègne aussi le mouvement. Sur les pancartes, on voit des mèmes, des clins d’œil à des séries ou à des mangas. Le drapeau des Straw Hat Pirates de One Piece, symbole de liberté et de résistance, flotte parmi les manifestants. La colère s’exprime avec humour, ironie et inventivité. Loin des discours idéologiques d’antan, cette jeunesse parle un langage qui lui ressemble.
Ce symbole One Piece n’a rien d’anodin : dans l’univers du célèbre manga, Luffy incarne la lutte contre l’oppression et le rêve d’un monde plus juste. Hors des pages de fiction, ce drapeau est devenu un véritable marqueur générationnel à travers toute l’Asie. Il suffit d’y inscrire quelques mots d’ordre pour qu’il se transforme en cri de ralliement. « La génération Z ne se taira pas » ou encore « Votre luxe, notre misère », pouvaient ainsi se lire sur les banderoles brandies par des milliers de jeunes Népalais début septembre 2025, après la suspension de plates-formes comme Facebook, X ou YouTube.
Mais les revendications de la génération Z au Népal vont bien au-delà de la seule question de la censure. Elles s’attaquent à un système politique verrouillé, gangrené par les privilèges héréditaires et incapable d’offrir un avenir. Elles réclament des emplois, de la transparence, une démocratie réelle et vivante. Elles exigent surtout une chose : que leur voix compte enfin.
La jeunesse népalaise a provoqué un séisme politique. Et cela, sans chef, sans parti, sans programme détaillé.
Reste à savoir ce que ce soulèvement va devenir. Au Népal, le gouvernement en place a même été contraint de céder, remplacé par une équipe transitoire chargée de préparer les élections prévues pour mars 2026. L’histoire montre que les mouvements sans organisation claire peuvent vite s’essouffler ou être récupérés. Reste à savoir si la jeunesse mobilisée choisira d’entrer dans l’arène électorale en présentant ses propres candidats – une perspective qui pourrait marquer un tournant majeur dans la vie politique du pays.
La nouvelle génération a pris conscience de sa force collective. Elle sait désormais qu’elle peut se mobiliser rapidement, en dehors des cadres traditionnels, et obliger le pouvoir à réagir. Elle a aussi redéfini le vocabulaire de la contestation : culture numérique, humour, pop culture, créativité… autant d’armes nouvelles pour faire passer des messages politiques.
Ce qui se joue au Népal n’est d’ailleurs pas un cas isolé. De l’Indonésie au Chili, de l’Iran aux États-Unis, ces jeunes « digital natives », nés pendant l’ère d’Internet, contestent les structures établies avec les mêmes outils et les mêmes réflexes. Le Népal s’inscrit dans ce vaste mouvement mondial d’une génération qui ne veut plus attendre et qui contribue à réinventer la démocratie à l’ère du numérique. La politique telle que nous la connaissions – organisée autour de partis, de leaders et de structures hiérarchiques – est de moins en moins adaptée aux formes d’engagement des nouvelles générations. Pour elles, la politique est une pratique fluide, horizontale, souvent ludique, toujours connectée.
Elodie Gentina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Frédéric Jallat, Professor of Marketing and Academic Director of MSc. in Biopharmaceutical Management, ESCP Business School
Les pharmacies françaises se trouvent aujourd’hui au cœur d’un paradoxe : dernier maillon de proximité d’un système de santé sous tension, elles subissent de plein fouet les choix budgétaires et politiques liés au prix des médicaments. Entre fermetures accélérées, marges érodées, pénuries répétées, leur fragilité dit beaucoup des difficultés que traverse la politique de santé au plan national.
Au cœur de l’hiver 2024, de nombreux patients ont eu la désagréable surprise de se voir refuser à l’officine un antibiotique pourtant banal, l’amoxicilline. « Rupture de stock », expliquaient alors les pharmaciens, contraints de trouver des alternatives ou de renvoyer les malades vers leur médecin. Ces incidents, fréquemment répétés au niveau national, illustrent une réalité mal connue : les pharmacies, maillon de proximité du système de santé, se trouvent aujourd’hui aux prises avec un mouvement combinant politiques de prix, stratégies industrielles et arbitrages budgétaires dont elles ne maîtrisent pas les évolutions.
Derrière le comptoir, c’est un acteur économique et social qui subit directement les choix de l’État, les complexités de l’Assurance-maladie et certaines des contraintes auxquelles les laboratoires pharmaceutiques sont désormais confrontés. La pharmacie n’est pas seulement un commerce : elle est devenue le miroir des tensions qui traversent la politique du médicament en France.
Contrairement à d’autres produits, le prix des médicaments en France ne relève pas du marché, mais d’un arbitrage centralisé. C’est en effet le Comité économique des produits de santé (Ceps) qui fixe les tarifs, à l’issue de négociations complexes avec les laboratoires pharmaceutiques.
Cette régulation poursuit, en réalité, plusieurs objectifs contradictoires :
garantir l’accès aux traitements des patients par un remboursement de l’Assurance-maladie ;
maîtriser les dépenses publiques de santé, dans un contexte de déficit chronique de la Sécurité sociale ;
soutenir l’innovation des laboratoires, grâce au développement de thérapies coûteuses issues de la biotechnologie notamment.
L’équilibre est difficile à tenir. Favoriser l’innovation implique d’accepter des prix élevés pour certains médicaments, tout en imposant des baisses régulières sur les molécules plus anciennes ou les génériques. Ce mécanisme place les officines dans une position de dépendance totale : leur rentabilité est directement conditionnée par ces décisions politiques qu’elles ne contrôlent aucunement.
À lire aussi : Médicaments innovants : la France face à la guerre des prix lancée par Trump
La politique du médicament ne se joue donc pas seulement dans les antichambres du ministère de la santé ou dans les couloirs du Parlement, mais au cœur d’un rapport de forces permanent et plus ample entre acteurs :
l’État cherche à contenir le coût du médicament, en incitant la substitution des produits princeps par les génériques, notamment ;
les laboratoires mènent un lobbying intense pour préserver leurs marges, tout en menaçant parfois de délocaliser ou de réduire la production sur le territoire – plus encore dans un climat international délétère où le président Trump utilise les droits de douane comme une arme de déstabilisation massive des politiques de développement régional des laboratoires au profit des États-Unis ;
l’Assurance-maladie pousse à rationaliser la consommation, à réduire les volumes et à encadrer les prescriptions ;
les syndicats de pharmaciens défendent la survie du réseau officinal, dénonçant l’érosion continue des marges de la profession ;
les patients-citoyens, enfin, se retrouvent au centre de ce jeu d’influence : leurs perceptions des prix, du reste à charge et des génériques est régulièrement mobilisée comme argument par les uns et par les autres.
Chaque décision de baisse de prix ou de modification des taux de remboursement devient ainsi l’objet de conflits où se croisent intérêts économiques, enjeux budgétaires et considérations politiques que les pharmaciens ne maîtrisent nullement.
Dans ce contexte complexe et perturbé, les pharmacies apparaissent donc comme des victimes collatérales de la politique du médicament, et ce, d’un triple point de vue.
1. Des marges sous pression
Leur modèle économique est extrêmement encadré. Les marges sur les médicaments remboursables sont fixées par décision politique, non par une libre concurrence. Les baisses décidées par le Ceps se répercutent immédiatement sur la trésorerie des pharmaciens.
2. Une difficile gestion des pénuries
À cette contrainte financière s’ajoute la multiplication des ruptures de stock. Les pénuries ont été multipliées par 30 en dix ans, au point de devenir un phénomène structurel, selon la feuille de route ministérielle 2024–2027.
En 2023, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) recensait près de 5 000 ruptures de stock ou risques de rupture, soit un tiers de plus qu’en 2022 et six fois plus qu’en 2018.
À chaque fois, les pharmaciens sont contraints d’expliquer aux patients pourquoi certains produits sont indisponibles, et doivent improviser dans l’urgence en ayant parfois à gérer des situations psychologiquement difficiles. Une mission chronophage, source de frustration voire d’agressivité de la part de leurs patients-clients.
3. Une diversification insuffisante
Pour compenser ce manque à gagner, les pharmacies ont développé de nouvelles activités : vaccination, tests, conseils en prévention, vente de parapharmacie. Mais ces relais de croissance ne suffisent pas à stabiliser un modèle économique fragilisé par la régulation.
En France, en effet, le réseau officinal se délite d’année en année : au 1ᵉʳ janvier 2025, on comptait 20 242 pharmacies, soit 260 de moins qu’en 2024 et 1 349 de moins qu’en 2015. En une décennie, plus de 6 % des officines ont disparu…
Les territoires ruraux, déjà fragilisés par un ample phénomène de désertification médicale, sont les plus touchés. Faute de repreneur, de nombreuses officines ferment, accentuant les inégalités d’accès aux soins. Dans certains villages, la pharmacie peut souvent représenter le dernier service de santé disponible. Comme le bureau de poste ou l’épicerie locale, la fermeture d’une pharmacie est aussi un lieu de vie sociale qui disparaît.
La pharmacie n’est pas un commerce comme les autres. Elle incarne un service de santé de proximité, accessible (car encore sans rendez-vous) présent dans de nombreux quartiers. Et c’est précisément cette valeur symbolique et sociale qui rend le débat explosif.
Chaque ajustement tarifaire est scruté par les syndicats, repris par les médias et discuté au Parlement. La récente décision du gouvernement de réduire le taux de remboursement des médicaments courants de 65 % à 60 % a suscité une vive inquiétude. Derrière ces chiffres, ce sont à la fois les patients (qui voient leur reste à charge augmenter) et les officines (qui anticipent une nouvelle pression sur leurs marges) qui sont concernés.
En 2024, la marge brute moyenne est passée sous les 30 % du chiffre d’affaires, un seuil historiquement bas, alors même qu’elle se situait encore à 32 % quelques années plus tôt. Si le chiffre d’affaires moyen des officines s’est élevé à plus de 2,5 millions d’euros, en hausse de 5 % par rapport à 2023, cette progression a surtout été portée par des médicaments coûteux à faible marge, représentant déjà 42 % des ventes remboursables. Dans le même temps, les charges ont bondi de près de 12 %.
Une enquête syndicale affirme que 75 % des pharmacies ont vu leurs disponibilités baisser en 2024, et qu’une sur cinq fonctionne désormais en déficit de trésorerie. Selon Philippe Besset, président de la Fédération des syndicats pharmaceutiques de France (FSPF), « les officines ne peuvent pas survivre si les pouvoirs publics continuent de rogner [les] marges [de celles-ci] tout en [leur] confiant de nouvelles missions ».
En mai 2024, les pharmaciens ont décidé de faire entendre leur voix. Près de 90 % des pharmacies (de France hexagonale et ultramarine, ndlr) ont baissé le rideau le temps d’une journée, dans une mobilisation massive et inédite destinée à alerter les pouvoirs publics sur la dégradation de leurs conditions économiques.
Leur message était clair : dénoncer des marges insuffisantes, une explosion des charges et une gestion des pénuries devenue insupportable. Au-delà, s’exprimait aussi la peur d’une dérégulation accrue – via la vente en ligne ou l’arrivée de nouveaux acteurs de la distribution.
Plusieurs collectifs de pharmaciens ont exprimé l’idée de ne pas être relégués au rang de simples intermédiaires, mais bien d’être reconnus comme des acteurs de santé publique indispensables et spécifiques. Plusieurs actions ont été menées l’été dernier qui ont fait suite à la première mobilisation professionnelle inédite de 2024. À l’initiative de l’appel de l’Union des syndicats de pharmaciens d’officine (USPO) du 23 juin 2025, trois actions majeures ont été entreprises :
une manifestation devant le ministère de la santé, le 1er juillet 2025 ;
la fermeture des officines relayée par une campagne médiatique massive le 16 août dernier ;
une manifestation d’ampleur menée le 18 septembre au cours de laquelle 75 % des officines ont été fermées et 52 cortèges organisés, rassemblant 15 000 manifestants sur tout le territoire.
Grâce à cette mobilisation professionnelle sans précédent, les pharmaciens ont remporté une victoire symbolique importante. Le premier ministre d’alors, François Bayrou, a choisi de les écouter et a suspendu, pour un minimum de trois mois, l’arrêté sur le plafond des remises génériques, malgré l’opposition de Bercy.
Les officines françaises incarnent à elles seules le dilemme du système de santé national : concilier innovation pharmaceutique, maîtrise des dépenses publiques et équité d’accès aux soins. Elles sont à la fois le dernier commerce de proximité dans bien des territoires et le révélateur des contradictions d’une politique du médicament soumise à de multiples pressions, parfois contradictoires.
Leur fragilité croissante – marges érodées, fermetures multipliées en zone rurale, gestion quotidienne des pénuries – n’est pas une question marginale, mais un enjeu politique et social majeur. Comme l’a montré la mobilisation historique de mai 2024 et de l’été 2025, les pharmaciens refusent d’être réduits à de simples distributeurs. Leur avenir dépend désormais de la capacité des pouvoirs publics à inventer un compromis durable entre logiques économiques et exigences de santé publique.
On peut donc, à bon escient, se poser la question de savoir si la survie des officines n’est pas devenue le véritable baromètre de la santé démocratique de notre système de soins.
Frédéric Jallat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:30
Darius von Guttner Sporzynski, Historian, Australian Catholic University
Née dans l’Empire byzantin, adoptée en Italie puis diffusée en Europe grâce à des mariages royaux et à l’influence de grandes reines, comme Bonne Sforza (1494-1557) ou Catherine de Médicis (1519-1589), la fourchette est devenue au fil des siècles un symbole de propreté, de civilité et de raffinement.
Aujourd’hui, on prend à peine conscience de saisir une fourchette. Elle fait partie d’un service de couverts standard, aussi indispensable que l’assiette elle-même. Mais il n’y a pas si longtemps, cet ustensile désormais bien banal était accueilli avec méfiance et moquerie, allant jusqu’à causer un scandale.
Il a fallu des siècles, des mariages royaux et une pointe de rébellion culturelle pour que la fourchette passe des cuisines de Constantinople (l’actuelle Istanbul) aux tables d’Europe.
Les premières versions de la fourchette ont été retrouvées dans la Chine de l’âge du bronze et dans l’Égypte antique, bien qu’elles aient probablement servi surtout à la cuisson et au service des aliments. Les Romains disposaient de fourchettes élégantes en bronze et en argent, mais là encore principalement pour la préparation des repas.
Manger avec une fourchette – surtout une petite fourchette personnelle – restait rare. Au Xe siècle, les élites byzantines l’utilisaient librement, choquant leurs invités venus d’Europe occidentale. Et vers le XIe siècle, la fourchette de table commença à faire son apparition lors des repas à travers l’Empire byzantin.
En 1004, Maria Argyropoulina (985–1007), sœur de l’empereur Romanos III Argyros, épousa le fils du Doge de Venise et provoqua un scandale en refusant de manger avec ses doigts. Elle se servait d’une fourchette en or. Plus tard, le théologien Pierre Damien (1007–1072) déclara que la vanité de Maria, qui utilisait des « fourchettes en métal artificiel » au lieu des doigts donnés par Dieu, avait provoqué le châtiment divin de sa mort prématurée, survenue dans sa vingtaine.
Pourtant, au XIVe siècle, la fourchette était devenue courante en Italie, en partie grâce à l’essor des pâtes. Il était beaucoup plus facile de manger des filaments glissants avec un instrument à dents qu’avec une cuillère ou un couteau. L’étiquette italienne adopta rapidement la fourchette, surtout parmi les riches marchands. Et c’est par cette classe aisée que la fourchette fut introduite dans le reste de l’Europe au XVIe siècle, grâce à deux femmes.
Née dans les puissantes familles Sforza de Milan et d’Aragon de Naples, Bonne Sforza (1494–1557) grandit dans un monde où les fourchettes étaient utilisées et, mieux encore, à la mode. Sa famille était rompue aux raffinements de l’Italie de la Renaissance : l’étiquette de cour, le mécénat artistique, l’habillement ostentatoire pour hommes et femmes, et les repas élégants.
Lorsqu’elle épousa Sigismond Iᵉʳ, roi de Pologne et grand-duc de Lituanie en 1518, devenant reine, elle arriva dans une région où les usages à table étaient différents. L’usage des fourchettes y était largement inconnu.
Dans les cours de Lituanie et de Pologne, l’usage des couverts restait limité. Cuillères et couteaux servaient pour les soupes, les ragoûts et la découpe de la viande, mais la plupart des aliments étaient consommés avec les mains, aidés de pain ou de « tranchoirs » – de grosses tranches de pain rassis servant à absorber les jus des plats.
Cette méthode, à la fois économique et profondément ancrée dans les traditions culinaires de la noblesse, reflétait une étiquette sociale où les plats communs et le repas partagé étaient la norme. La cour de Bonne introduisit les manières italiennes dans la région, apportant davantage de légumes, du vin italien et, surtout, la fourchette de table.
Si son usage était probablement limité au départ aux occasions formelles ou aux cérémonies de cour, il fit forte impression. Au fil du temps, et surtout à partir du XVIIe siècle, la fourchette se généralisa parmi la noblesse de Lituanie et de Pologne.
Catherine de Médicis (1519–1589) naquit au sein de la puissante famille florentine des Médicis, nièce du pape Clément VII. En 1533, à l’âge de 14 ans, elle épousa le futur Henri II de France dans le cadre d’une alliance politique entre la France et la papauté, quittant ainsi l’Italie pour rejoindre la cour de France.
Catherine de Médicis introduisit les fourchettes en argent et les usages culinaires italiens à la cour.
Comme pour Bonne Sforza, ces nouveautés faisaient partie de son trousseau. Elle arriva d’Italie avec des cuisiniers, des pâtissiers, des parfumeurs, mais aussi des artichauts, des truffes et une vaisselle raffinée. Son sens culinaire contribua à transformer les repas de cour en véritables spectacles.
Si la légende a sans doute amplifié son influence, de nombreux plats aujourd’hui considérés comme emblématiques de la cuisine française trouvent en réalité leur origine dans sa table italienne : la soupe à l’oignon, le canard à l’orange ou encore le sorbet.
Voyageur insatiable, Thomas Coryate (1577–1617) rapporta au début du XVIIe siècle des récits d’Italiens utilisant des fourchettes, une pratique qui paraissait encore ridiculement affectée dans son pays.
En Angleterre, l’usage de la fourchette au début du XVIIe siècle passait pour un signe de prétention. Même au XVIIIe siècle, on considérait qu’il était plus viril et plus honnête de manger avec un couteau et les doigts.
Mais à travers l’Europe, le changement était en marche. La fourchette commença à être perçue non seulement comme un ustensile pratique, mais aussi comme un symbole de propreté et de raffinement.
En France, elle devint un reflet de la civilité de cour. En Allemagne, les fourchettes spécialisées se multiplièrent aux XVIIIe et XIXe siècles : pour le pain, les cornichons, la glace ou le poisson.
En Angleterre, son usage finit par devenir un marqueur social : la « bonne façon » de la tenir distinguait les gens polis des malappris.
Avec l’essor de la production de masse au XIXe siècle, l’acier rendit les couverts abordables et la fourchette devint omniprésente. À cette époque, le débat ne portait plus sur la question d’en utiliser une, mais sur la manière correcte de s’en servir. Les manuels de savoir-vivre dictaient désormais les règles : pas question de ramasser les aliments comme avec une cuillère, ni de les piquer sauvagement, et toujours tenir la fourchette dents vers le bas.
Il fallut des scandales, des toquades royales et des siècles de résistance pour que la fourchette s’impose à table. Aujourd’hui, il est presque impossible d’imaginer manger sans elle.
Darius von Guttner Sporzynski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:30
Anne Parizot, Professeur des universités en sciences de l'information et de la communication émérite, Université Bourgogne Europe
Une tablette de chocolat artisanal, née à Dubaï et popularisée sur TikTok, est devenue en quelques mois un phénomène mondial. Entre marketing viral, copies industrielles, le « chocolat de Dubaï » illustre les tensions contemporaines entre authenticité, imitation et contrefaçon dans l’alimentation mondialisée. Plus encore qu’un produit, c’est un nom qui fait vendre.
Chocolat de Dubaï ? Si vous n’en n’avez jamais entendu parler, peut-être n’êtes-vous ni gourmand ni accro aux réseaux sociaux. Pourtant, il fait le buzz depuis 2024.
Le « Dubai chocolate », créé par l’entrepreneuse anglo-égyptienne Sarah Hamouda, associe chocolat au lait, crème pistache-tahini et cheveux d’ange (kadayif). Ce qui frappe : son goût, sa texture onctueuse et croustillante, mais surtout la rapidité avec laquelle il s’est imposé comme un symbole culinaire de Dubaï. Baptisé « Can’t get knafeh of It » signifiant « On ne peut plus s’en passer », il a explosé en popularité après une vidéo TikTok devenue virale, de Maria Vehera (2023).
Sur les réseaux sociaux, le chocolat de Dubaï est conçu comme un spectacle visuel relevant du « food porn ». Gros plans, ralentis et zooms exaltent textures, couleurs et gestes rituels : ouverture de l’emballage, cassure de la tablette, coulants et craquants. L’esthétisation extrême transforme la dégustation en scène sensuelle, associée à l’exotisme d’une expérience rare, presque interdite.
Face à l’engouement de ce produit à l’origine artisanal, les marques se sont emparées du concept : en France, Lindt, la célèbre marque de chocolat suisse, Lidl propose sa propre version à prix bas, relayée sur TikTok ou Jeff de Bruges développe des déclinaisons de la tablette classique.
Une trajectoire typique : un produit culinaire innovant, viral et artisanal bascule vers une industrialisation massive, avec ses imitations et risques de contrefaçon. Si certains s’attachent à ces saveurs, d’autres ont senti un autre goût. « Ça a le goût de l’argent », a plaisanté le présentateur Al Roker dans l’émission « Today » après l’avoir goûté en direct. Plaisantait-il vraiment ?
L’importance des mots du chocolat a été soulignée par les chercheurs Laurent Gautier, Angelica Leticia Cahuana Velasteguí et Olivier Méric, et ici c’est le nom de ce chocolat qui suscite le débat. « Chocolat de Dubaï » peut laisser croire que les tablettes sont produites aux Émirats. Or, beaucoup viennent en réalité de Turquie ou d’Europe et peuvent donc induire le consommateur en erreur.
La justice allemande a rendu deux jugements contradictoires. À Cologne, l’appellation « Dubai Chocolate » sur des tablettes turques a été jugée trompeuse. À Francfort, au contraire, les juges ont estimé qu’il renvoyait à une recette culinaire plus qu’à une origine géographique. En France, le Code de la consommation est clair : une pratique commerciale trompeuse est interdite si l’emballage suggère une origine fausse ou ambiguë. Pour éviter ce risque, certaines marques comme Lindt utilisent la formule prudente « Dubaï Style ».
Le buzz a engendré une économie parallèle avec des versions contrefaites ; les douanes autrichiennes saisissent plus de 2 500 tablettes lors de contrôles frontaliers. Ces copies exposent les consommateurs à des risques sanitaires que souligne la revue UFC-Que choisir. Le succès du produit repose plus sur le marketing viral des réseaux sociaux que sur ses qualités gustatives.
Au-delà des saveurs, c’est le nom qui alimente le succès – et parfois la confusion. « Dubaï » agit comme une marque imaginaire, synonyme de luxe, de prestige et d’exotisme. Le produit original mise sur un storytelling sophistiqué : mélange gourmand, raffiné, savoir-faire, texture fondante, masse de cacao… Chocolat Dubaï c’est partager un peu de la magie de Dubaï, une saveur nouvelle, expérience gustative.
Trois formulations circulent aujourd’hui, porteuses d’un sens implicite différent. Le jeu sur les prépositions et sur les adjectifs est au cœur du storytelling culinaire. Comme l’a montré le sémiologue Roland Barthes, la nourriture est aussi un discours.
« Dubaï » fonctionne comme une marque imaginaire :
« Chocolat de Dubaï » : la préposition « de » suggère une origine géographique et une authenticité. Comme pour « vin de Bordeaux », le consommateur attend un produit provenant effectivement des Émirats. Cette formulation pose des problèmes juridiques lorsque le chocolat est fabriqué ailleurs. Les marques doivent donc être déposées pour être protégées et l’indication géographique (IG) est essentielle.
« Chocolat Dubaï » (sans préposition) fonctionne comme un raccourci puissant associant un toponyme immédiatement reconnaissable à une catégorie universelle – chocolat. Le nom n’est pas une marque déposée, mais un surnom collectif, facile à retenir et à partager. On est dans l’onomastique – ou étude des noms propres – marketing, où la référence territoriale glisse vers l’imaginaire. La juxtaposition franco-anglaise – « Dubai chocolate » ↔ « Chocolat Dubaï » – crée un effet de résonance interlinguistique qui facilite la viralité.
« Chocolat Dubaï Style » insiste sur l’inspiration culinaire sans revendiquer l’origine. D’un point de vue linguistique, l’ajout de « style » signale l’inspiration culinaire et protège le fabricant du risque de tromperie, en signalant une imitation assumée. Mais le consommateur en est-il toujours conscient ?
Ces variations linguistiques révèlent un glissement métonymique : de la référence au lieu réel à un imaginaire global du luxe et de l’excès.
L’onomastique alimentaire, ou étude des noms propres devient un instrument de storytelling, mais aussi un champ de bataille juridique et économique. Une entreprise joue clairement sur le nom sur un registre humoristique : la marque française Klaus et son « Doubs by Chocolate » détourne l’imaginaire du Golfe pour l’ancrer dans le terroir du Haut-Doubs.
L’entreprise franc-comtoise a bien compris le rôle essentiel de l’onomastique. Ce « Doubs by Chocolate » surfe sur la vague, mais le nom identifie clairement le chocolat comme un produit régional. L’origine signalée ne crée pas de risque juridique, tout en conservant une homophonie parfaite avec le fameux « Dubai chocolate ». En référence directe à Dubaï et à l’imaginaire idyllique de luxe et de volupté, avec toutes les précautions prises pour qu’il n’y ait pas mégarde, l’entreprise Klaus met en place un marketing déroutant évoquant le décalage.
Traditionnellement, les produits alimentaires deviennent patrimoine à travers le temps, consolidés par des générations d’usage, protégés par des labels (AOP, IGP). Le Dubai chocolate inverse la logique. Son patrimoine n’est pas hérité, mais produit par la viralité. Les millions de vues et de partages jouent le rôle de validation. Ce n’est pas l’État ni l’Unesco qui consacrent le produit, mais l’algorithme et les réseaux sociaux. Ce phénomène illustre une tendance nouvelle : la patrimonialisation accélérée.
Autre singularité : le Dubai chocolate n’est pas lié à un terroir rural, comme le vin de Bordeaux. Il est rattaché à une « ville-monde ». Il devient l’équivalent culinaire d’un gratte-ciel ou d’un centre commercial : un symbole urbain. Cette urbanisation du patrimoine alimentaire montre que les métropoles ne sont plus seulement consommatrices de traditions, mais aussi créatrices d’icônes gastronomiques.
Mais peut-on parler de patrimoine pour un produit si récent ?
Oui, si l’on considère le patrimoine comme un ensemble de signes partagés et valorisés par une communauté. Dans ce cas, TikTok joue le rôle de confrérie culinaire mondiale. Mais ce patrimoine est fragile. Ce qui est consacré par la viralité peut être supplanté demain par une nouvelle mode.
Le chocolat de Dubaï illustre parfaitement les dilemmes contemporains : entre innovation culinaire et marketing viral, entre authenticité et imitation, entre inspiration et contrefaçon.
Anne Parizot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 14:16
María del Valle Varo García, Research assistant professor, Universidad de Deusto
Le cerveau a ses propres règles, tout comme notre façon d’apprendre et de mémoriser. Les réseaux neuronaux sont plus actifs quand on écrit à la main que quand on tape au clavier, et les pauses réelles aident à consolider les connaissances.
Arrêtons-nous un instant et observons le doux flux de ces mots sous nos yeux, ce va-et-vient silencieux et la voix qui les lit dans notre tête. Combien d’entre eux resteront gravés dans votre mémoire dans cinq minutes ? Et combien resteront, sans effort, dans notre mémoire demain ? La question n’est pas anodine. Nous vivons à une époque où la vitesse domine notre façon d’apprendre et, paradoxalement, aussi d’oublier.
Tous les mots ne sont pas traités au même rythme. Vous avez peut-être entendu dire qu’une personne peut lire entre 200 et 300 mots par minute, en écouter environ 150 ou en lire encore moins au toucher en braille. Mais cette vitesse n’est pas synonyme de compréhension : en fait, au-delà de 500 mots par minute, l’assimilation chute de manière drastique. Et ce qui est absorbé est-il vraiment conservé ? Pas nécessairement. Dévorer avidement des mots n’est pas la même chose que s’imprégner de leur essence.
Pour que les mots prennent tout leur sens et se transforment en idées ou en concepts durables, ils doivent d’abord traverser l’espace fragile et éphémère de la mémoire opérationnelle, également appelée mémoire à court terme, chargée de maintenir l’information active pendant que le cerveau la traite. Mais cela ne suffit pas.
Pour que ce qui est retenu se stabilise, l’information doit être stockée dans un type de mémoire sémantique, affective, spatiale ou temporelle. Se souvenir de vacances implique une mémoire épisodique, teintée d’émotion et de lieu ; en revanche, savoir que la capitale de l’Italie est Rome renvoie à une mémoire sémantique, dépourvue de contexte personnel.
Il est difficile aujourd’hui de trouver un espace où le clavier n’a pas presque entièrement remplacé l’encre ou le graphite. Cependant, il convient de rappeler que l’écriture manuscrite reste un outil puissant pour le développement cognitif : écrire à la main active un réseau plus large de régions cérébrales (motrices, sensorielles, affectives et cognitives) que la dactylographie. Cette dernière, plus efficace en termes de vitesse, exige moins de ressources neuronales et favorise une participation passive de la mémoire de travail.
En revanche, l’utilisation active de la mémoire à court terme (à l’aide d’outils non numériques) s’avère plus bénéfique tant en classe que dans les contextes cliniques liés à la détérioration cognitive.
Le rythme et les pauses sont également déterminants dans ce passage de la mémoire de travail à la mémoire à long terme. Les pauses actives, ces brefs moments où nous interrompons notre étude pour nous étirer, marcher ou contempler quelque chose sans but immédiat, permettent au cerveau de réorganiser ce qui a été appris et de le consolider plus solidement.
Cependant, aujourd’hui, ces pauses sont souvent associées à des activités impliquant l’utilisation d’écrans : téléphones portables, télévision, tablettes. Si l’on pouvait faire une comparaison avec l’exercice physique, on pourrait s’imaginer dans une salle de sport où l’on court à 12 km/h pendant les pauses entre les séries. Il se passe quelque chose de très similaire lorsque nous utilisons nos pauses pour regarder des vidéos rapides, lire des titres ou naviguer sans but sur les réseaux sociaux : l’esprit ne se repose pas, ne se consolide pas, et l’attention se fragmente.
Les neurosciences soulignent également le rôle crucial du sommeil dans la consolidation de la mémoire. Pendant le sommeil à ondes lentes, le cerveau entre dans un état de synchronisation neuronale caractérisé par la prédominance des ondes delta (0,5-4 Hz), qui favorisent la réactivation des traces mnésiques – traces qui restent dans l’esprit après une expérience et qui servent de base à la mémoire et à la possibilité de se souvenir.
Ces oscillations lentes créent un environnement à faible interférence sensorielle qui facilite le dialogue entre l’hippocampe et le néocortex. On a notamment observé que les ondes thêta (4-8 Hz), plus fréquentes pendant la phase REM (Rapid Eye Movement) et également présentes dans les phases NREM (Non-Rapid Eye Movement) légères, interviennent dans ce transfert. Plus précisément, elles permettent le passage des souvenirs de leur stockage temporaire dans l’hippocampe vers les régions corticales de stockage à long terme.
De même, les fuseaux du sommeil, brefs schémas d’activité cérébrale qui se produisent pendant le sommeil léger, générés principalement par le thalamus, sont associés au renforcement des connexions neuronales pertinentes.
Diverses études utilisant la polysomnographie et la neuro-imagerie ont montré des corrélations entre la densité de ces fuseaux de sommeil et les performances dans les tâches de mémoire épisodique.
Il a été suggéré que ces oscillations agissent comme une sorte de « marqueur de pertinence » qui sélectionne les informations méritant d’être consolidées.
Ainsi, pendant notre sommeil, le cerveau exécute automatiquement un processus de réorganisation et de renforcement de la mémoire. Il donne la priorité à ce qui est significatif et élimine ce qui est non pertinent. Ce n’est pas un hasard si, au réveil, une mélodie ou une phrase apparemment insignifiante nous revient sans effort à l’esprit : ce sont les échos de ce travail nocturne minutieux qui écrit la mémoire.
Comprendre comment nous apprenons nous révèle également comment nous devrions vivre. Il ne s’agit pas seulement de réduire l’utilisation des écrans, mais aussi de retrouver un rythme plus humain. Écrire à la main aide à activer les réseaux neuronaux en profondeur ; pensons, par exemple, aux notes prises en classe et à la façon dont, en les relisant, les idées resurgissent plus clairement.
D’autre part, il est recommandé de reprendre l’habitude de faire de véritables pauses, loin des appareils : observer le vol d’un oiseau, sentir sa respiration, étirer son corps.
Il est également utile de renforcer ce que l’on a appris par de brefs exercices de récupération active.
De plus, il ne faut pas sous-estimer le rôle du sommeil profond : c’est là que la mémoire mûrit et fixe ce qui a été appris. Ce n’est que lorsque nous lui accordons le temps nécessaire pour se reposer et assimiler que la connaissance s’enracine véritablement. Ainsi, les mots qu’il lit aujourd’hui pourront devenir des souvenirs vivants, capables de l’accompagner au-delà des cinq prochaines minutes, peut-être même toute sa vie.
María del Valle Varo García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 10:23
Marie-France Dignac, Directrice de recherches sur la biologie des sols, INRAE, Inrae
Jean-François Ghiglione, Directeur de recherche, Ecotoxicologue, Centre national de la recherche scientifique (CNRS)
Issus à 99 % du pétrole, les plastiques alimentent la crise écologique et climatique tout au long de leur cycle de vie. Derrière l’image trop familière des déchets qui polluent les rivières puis les océans, la production et le recyclage des plastiques sont aussi source d’émissions considérables de gaz à effet de serre, de quoi compromettre les efforts mondiaux de réduction des émissions. Surtout, les plastiques, un débouché du pétrole, entretiennent la dépendance de l’économie aux énergies fossiles. Le risque serait qu’ils deviennent la planche de salut des industriels de la pétrochimie à l’occasion de la COP30 sur le climat, qui se déroulera du 10 au 21 novembre 2025, à Belem, au Brésil.
À partir du 10 novembre 2025, la COP30 sur le climat réunira les États membres de l’Organisation des Nations unies (ONU) au cœur de la forêt amazonienne, au Brésil. Il s’agit d’un rendez-vous majeur du multilatéralisme, où l’on espère que les ambitions régulièrement formulées par les États vont enfin se concrétiser.
Le contexte international n’est pas forcément au beau fixe pour cela. Face à des pays qui nient la science, ou qui se soucient peu de l’environnement et de la santé humaine et refusent de comprendre que leurs propres économies en paieront le prix à long terme, les pays engagés dans la transition vers une économie moins polluante et moins dépendante des énergies fossiles peinent à se faire entendre. Les négociations en vue d’un traité contre la pollution plastique, qui n'ont toujours pas abouti à un texte, en fournissent un exemple éloquent.
Les preuves scientifiques sont pourtant très claires quant aux impacts de la production de plastiques sur la perte de biodiversité et la pollution à l’échelle planétaire. D’autant plus que ces impacts sont en réalité bien plus larges : les plastiques impactent la santé humaine et exacerbent le dépassement de toutes les autres limites planétaires. En cela, ils aggravent la crise écologique et climatique déjà en cours.
À lire aussi : Jusqu’à quand pourrons-nous dépasser les limites planétaires ?
L’impact climatique du secteur de la pétrochimie est moins souvent mis en avant que celui des secteurs de l’énergie et des transports, plus proches des consommateurs. Il fait pourtant figure d’éléphant dans la pièce : entre 4 et 8 % de la production de pétrole est aujourd’hui utilisée pour fabriquer des produits plastique. Près de 99 % de ces produits sont fabriqués à partir de pétrole.
Depuis l’extraction et le transport des combustibles fossiles, jusqu’à la fabrication, l’utilisation et l’élimination des plastiques, ces matériaux génèrent des émissions qui contribuent au réchauffement climatique. Les plastiques sont ainsi directement responsables de 3,5 % des émissions globales de gaz à effet de serre, dont la plupart sont générées lors de leur production.
Le recyclage des plastiques, souvent mis en avant par ces industriels, n’a rien d’une solution miracle. Toutes les technologies de traitement des déchets plastiques sont émettrices de gaz à effet de serre :
leur incinération libère le carbone qui les constitue sous forme de CO2,
leur mise en décharge entraîne des émissions de méthane (Bauer et coll., 2022)
de façon générale, recycler les plastiques nécessite de grandes quantités d’énergie.
Dans un scénario de statu quo, si la production et l’utilisation de plastiques continuent d’augmenter au rythme actuel (soit un doublement de la quantité de plastiques produits tous les 20 ans), les émissions de gaz à effet de serre provenant des plastiques pourraient représenter de 10 à 13 % du budget carbone total (c’est-à-dire, la quantité de gaz à effet de serre que l’on peut encore se permettre d’émettre tout en restant sous la barre d’une hausse de +1,5 °C à l’horizon 2050).
Et encore, les chiffres qui précèdent ne tiennent pas compte du fait que les plastiques participent directement à la mondialisation de l’économie. Ils permettent de transporter les biens et denrées sur de très longues distances et de ce fait favorisent une économie basée sur une production loin des zones de consommation, fortement émettrice de gaz à effet de serre.
La pollution plastique se retrouve dans les rivières, les océans ou sur terre, sous différentes tailles (macro, micro ou nanoplastiques), et peut persister pendant des siècles. Selon l’OCDE, environ 22 % des déchets plastiques finissent dans l’environnement, dont une grande partie dans l’océan, nuisant à la vie marine.
Les aliments, l’eau et l’air sont ainsi contaminés et les microplastiques finissent, à travers la chaîne alimentaire, également dans notre corps. Les preuves scientifiques de l’impact des plastiques sur la santé humaine sont de plus en plus solides.
Mais ce n’est pas tout. Les plastiques agissent également indirectement sur le réchauffement climatique. En effet, les débris plastiques en mer modifient les cycles du carbone et des nutriments. En agissant sur les processus microbiens, ils diminuent la productivité en nutriments à la surface de l’océan. Résultat : les « pompes à carbone » de l’océan, qui ont permis de piéger environ 31 % des émissions anthropiques de CO2 entre 1994 et 2007, fonctionnent moins bien.
Par ailleurs, une méta-analyse récente a montré que la présence de microplastiques dans l’eau ou dans les sols pourrait diminuer la photosynthèse, et donc limiter la production de biomasse carbonée. Avec des impacts sur la sécurité alimentaire, mais aussi sur les puits de carbone naturels et le climat.
À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?
Reconnaissant tous ces dangers des plastiques pour la santé humaine et la santé de l’environnement, un comité intergouvernemental de négociation (CIN) a été créé en mars 2022 afin d’élaborer un instrument international juridiquement contraignant pour mettre fin à la pollution plastique dans tous les environnements. Et ceci, en tenant compte de l’ensemble du cycle de vie des plastiques.
La deuxième partie de la cinquième réunion de ce comité (CIN-5.2) s’est tenue à Genève, du 5 au 14 août 2025. Les négociations étaient basées sur le projet de texte du président du CIN proposé à la fin de la première partie du CIN-5 à Busan, en 2024.
Plusieurs éléments de ce projet de texte peuvent avoir une réelle efficacité pour mettre fin à la pollution plastique. Il s’agit notamment :
de réduire la production de plastique (article 6),
d’interdire les produits plastique et les substances chimiques dangereuses pour les humains ou pour l’environnement (article 3),
de concevoir des produits en plastique moins polluants (article 5),
de limiter les fuites vers l’environnement (article 7)
et enfin de protéger la santé humaine (article 19).
Mais de nombreux pays font pression pour que ces mesures soient rejetées : les mêmes désaccords politiques qui avaient bloqué les négociations précédentes se sont reproduits à Genève.
Presque tous les plastiques sont fabriqués à partir de combustibles fossiles, c’est pourquoi les pays qui refusent de prendre des mesures ambitieuses – notamment l’Arabie saoudite, la Russie et l’Iran – sont essentiellement des pays producteurs de pétrole ou dotés d’industries pétrochimiques puissantes.
Les intérêts économiques en jeu sont donc importants. Ce groupe de pays partage les mêmes idées – nommé pour cela le « like-minded group » – et refuse d’inclure de tels objectifs. Ils privilégient un accord visant à gérer les déchets, sans réduire leur production.
À lire aussi : Comment échapper à la malédiction de la rente fossile ?
Mais ce faisant, ils dénigrent tous les modèles scientifiques sur l’évolution de la pollution plastique, qui montrent qu’il est nécessaire de réduire la quantité de plastique produite chaque année afin de réduire la pollution par les plastiques tout au long de leur cycle de vie. On a également pu noter la forte présence des lobbies des entreprises pétrolières et des fabricants de plastiques, qui ne cesse d’augmenter au fil des négociations.
Le manque de consensus à la fin des négociations du CIN-5.2 peut être vu comme un échec des négociations.
Toutefois, le rejet massif du texte faible proposé le 13 août a aussi montré qu’une grande majorité de pays ne sont pas prêts à accepter un traité vidé de sa substance.
De nombreux pays ont souligné que ce texte ne permettrait pas d’atteindre les objectifs pourtant fixés dans le mandat à l’origine de ces négociations, et ont appelé à des mesures ambitieuses en accord avec la science, notamment une réduction de la production de plastique et une régulation des produits et substances chimiques dangereux, pour protéger la santé humaine et de l’environnement. La majorité des pays s’est aussi déclarée favorable à la poursuite des discussions.
Le multilatéralisme a montré à Genève la capacité des pays à construire une coalition forte et ambitieuse, rassemblant près de 120 pays (les 75 pays de la Coalition de haute ambition (HAC) et leurs alliés) et basant ses positions sur les faits scientifiques.
Espérons que ces avancées se concrétisent avec la poursuite des discussions sur le traité contre la pollution plastique, et qu’elles soient prises en compte dans les négociations climatiques lors de la COP30. La production de plastique ne doit pas menacer les efforts réalisés par les États pour limiter le recours aux énergies fossiles dans les autres secteurs.
Comme il a été reconnu lors des dernières COP sur le climat, notamment la COP28 en 2023, le monde doit s’organiser pour sortir progressivement des énergies fossiles.
D’importants efforts de recherche ont été consacrés à cette transition dans les secteurs de l’énergie et des transports, qui utilisent la majeure partie des ressources fossiles pour produire de la chaleur, de l’électricité et des carburants. Les énergies renouvelables remplacent ainsi peu à peu les produits pétroliers dans le mix électrique, ainsi que dans le secteur des transports.
D’autres secteurs, par exemple l’industrie lourde, doivent se réinventer : en effet, ils sont davantage dépendants aux produits pétroliers dans leurs processus industriels mêmes.
À cet égard, la pétrochimie souffre d’un problème de fond : elle contribue à maintenir à un niveau élevé la demande en pétrole, qui constitue un intrant de ses procédés industriels. Les produits pétrochimiques devraient ainsi représenter plus d’un tiers de la croissance de la demande mondiale de pétrole d’ici 2030, et près de la moitié de celle-ci d’ici 2050.
Les plastiques ne doivent pas devenir le radeau de secours de l’industrie pétrolière. En plus de contribuer aux émissions globales de gaz à effet de serre, ils détruisent les sols, empoisonnent les eaux et nuisent aux organismes vivants, y compris les humains. Sur les sept milliards de tonnes de déchets plastiques générés dans le monde depuis l’invention de ce matériau, moins de 10 % ont été recyclés, et cinq milliards de tonnes se sont accumulés dans la nature.
Les industriels de la pétrochimie, de l’extraction des énergies fossiles et leurs alliés cherchent une fois de plus à déplacer le problème : la production de plastiques pose un problème sanitaire, écologique, et climatique majeur. Réduire la production de plastiques constitue un levier incontournable pour maîtriser leurs impacts sur la planète.
Marie-France Dignac a reçu des financements de l'Agence de la Transition Ecologique (ADEME) et de l'Agence Nationale de la Recherche (ANR).
Jean-François Ghiglione a reçu des financements de l'Agence nationale de la recherche (ANR), de l'ADEME, de l'OFB et de l'Agence de l'eau
09.10.2025 à 10:23
Mathieu Baudrin,, Sociologue sciences et des technologies, Direction Sciences sociales, économie et société, Anses, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Baptiste Monsaingeon, Maître de conférence en sociologie, Université de Reims Champagne-Ardenne (URCA)
Bernadette Bensaude-Vincent, Philosophe, Université Paris 1 Panthéon-Sorbonne
Des serres agricoles aux bouteilles d’eau, en passant par la recette du pain de mie, le plastique a transformé en profondeur toute l’industrie agroalimentaire. Face au problème grandissant de la pollution plastique, on peut s’inspirer, à travers l’approche des « métabolismes urbains », de ce qui était fait au début du XXe siècle.
La production massive de plastiques est devenue un marqueur de la seconde moitié du XXe siècle, souvent dénommée « l’âge des plastiques ». Leur introduction dans les chaînes de valeur de l’agroalimentaire date des années 1930. Elle procédait de deux dynamiques.
La première est l’essor de l’industrie pétrolière et de l’automobile : les plastiques étant un co-produit du craquage du pétrole, les compagnies pétrochimiques recherchent activement à étendre le marché des plastiques, qui se prêtent à tous les usages comme leur nom l’indique.
La seconde est l’intensification de l’agriculture, au lendemain de la Deuxième Guerre mondiale, pour faire face à une démographie galopante.
Le recours aux matières plastiques, progressif mais massif, a profondément modifié les pratiques alimentaires et agricoles, sans parler des aliments eux-mêmes.
Aujourd’hui, les impacts sanitaires et environnementaux des plastiques, en particulier sous leur forme micro et nanoparticulaires, sont avérés. La gestion (dont notamment le recyclage) des déchets plastiques n’est pas la seule en cause : c’est bien l’existence même des plastiques qui est en jeu.
Mais les mesures de réduction ou d’interdiction de l’usage de matières plastiques dans l’industrie agroalimentaire, du champ jusqu’au domicile des consommateurs, ne sauraient être appliquées sans une réflexion globale sur les pratiques actuelles de production, de distribution et de consommation des denrées alimentaires.
L’emballage des aliments fut le premier et reste le principal usage des plastiques dans l’agroalimentaire. Il correspond à un moment historique de changement dans la façon de stocker et de transporter les aliments, notamment grâce à la réfrigération.
C’est également un moment de reconfiguration des circuits de distribution avec le développement des supermarchés. Les plastiques deviennent alors incontournables et contribuent à structurer le marché alimentaire mondial tel que nous le connaissons aujourd’hui.
En effet, les emballages permettent d’allonger la durée de conservation des aliments et, surtout, facilitent la consommation nomade d’aliments et de boissons.
Si la bouteille en verre a permis la marchandisation de l’eau en lui attribuant une marque et des qualités, c’est bien l’invention de la bouteille d’eau en polyethylene terephthalate (PET) qui, à la fin des années 1970, a répandu son usage à l’échelle mondiale.
Les plastiques modifient jusqu’aux aliments eux-mêmes. C’est le cas du pain de mie commercialisé en sachets plastiques. Dès 1937, la firme Dupont lance un projet de recherche et développement (R&D) qui débouche sur l’ajout de « mycoban », un antifongique, à la farine utilisée pour réduire le risque de moisissure.
Les plastiques ont donc profondément changé nos manières de manger et même la nature de ce que l’on mange. Ils ont favorisé les aliments transformés par une foule d’intermédiaires et contribué à creuser le fossé entre les producteurs et les consommateurs de viande ou poisson conditionnés, surgelés, ou emballés.
En amont des supermarchés, les pratiques agricoles ont, à leur tour, été transformées par les plastiques. D’abord introduits dans les années 1950 comme substituts au verre dans les serres horticoles, ils se sont généralisés depuis les années 1970 pour les cultures maraîchères sous tunnels et l’ensilage du foin.
En Europe, l’expansion des plastiques a été facilitée par la politique agricole commune (PAC). Lancée en 1962 par la Communauté économique européenne (CEE), celle-ci était au départ destinée à encourager l’agriculture intensive et productiviste.
Or, les tunnels de plastique permettent justement de cultiver et de produire des fruits ou légumes dans des terrains peu propices et d’étendre les saisons de production. Depuis, les surfaces recouvertes par des serres ou tunnels en plastique en Espagne et en France n’ont cessé d’augmenter.
Mais cette plastification de certaines cultures s’accompagne aussi de mutations socioprofessionnelles. Dans les vastes plaines recouvertes de tunnels plastifiés abritant des cultures de fraises (ou autres) à haute valeur ajoutée, on fait appel à une main-d’œuvre souvent étrangère, saisonnière et bon marché. Celle-ci travaille dans des conditions difficiles.
Les plastiques ont ainsi envahi les pratiques de production et les circuits de distribution des denrées alimentaires. Le mot « agriplastique » témoigne de l’enchevêtrement d’éléments humains, économiques et techniques, dont la dynamique tend à se renforcer avec le temps. Cela aboutit, après plusieurs décennies, à ce que nous pourrions qualifier de verrou sociotechnique.
Que faire pour se libérer de cette omniprésence des plastiques dans l’agroalimentaire ? Les plastiques étant constitutifs des chaînes de valeurs décrites, il serait naïf de penser qu’on pourrait conserver cette organisation marchande tout en éliminant les matières plastiques.
Ce constat ne doit pas pour autant pousser les décideurs à l’inaction. Il invite plutôt à une réflexion d’envergure sur une possible réorganisation des chaînes de valeur agroalimentaires. Afin d’initier cette réflexion, nous proposons de revenir sur quelques leçons de l’histoire.
Au début du XXe siècle, l’économie des flux de denrées alimentaires entre populations rurales et urbaines fonctionnait en boucles quasi fermées. Les matières rejetées par les uns étaient utilisées, par exemple sous forme d’engrais, par les autres.
Dans ce contexte, la notion même de déchets n’existe pas encore, puisque rien n’est ni mis au rebut ni traité comme déchet ultime (c’est-à-dire, un déchet qui ne peut plus être traité davantage dans les conditions technicoéconomiques du moment).
Les fèces humaines sont alors vues comme des engrais agricoles, les chiffons peuvent devenir du papier, les carcasses d’animaux de travail sont réutilisées pour fabriquer des colles et autres produits du quotidien.
À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet
La rupture de ces « métabolismes urbains », tels que décrits par Sabine Barles, correspond historiquement à l’avènement de la chimie de synthèse. Se met alors en place un complexe industriel qui produit à la fois des engrais, des produits phytopharmaceutiques et des plastiques, trois catégories de produits constitutifs des chaînes de valeurs agricoles actuelles.
Il n’est certes ni envisageable – ni même souhaitable – de reproduire à l’identique les métabolismes urbains du début du XXe siècle. Ils reposaient largement sur la mobilisation d’une main-d’œuvre nombreuse sous-payée vivant dans la misère, par exemple les chiffonniers.
En revanche, on peut retenir l’idée d’une approche systémique, globale et métabolique au lieu de se contenter de chercher un matériau de substitution aux plastiques qui soulèvera, à son tour, des difficultés similaires. Il s’agit donc de repenser, avec les acteurs concernés, l’ensemble des filières agroalimentaires pour viser la sobriété plastique.
Cet article s’appuie sur le rapport d’expertise « Plastiques utilisés en agriculture et pour l'alimentation » Inrae/CNRS, publié en mai 2025.
Baptiste Monsaingeon a reçu des financements de l'ANR pour divers projets de recherche publique liés aux déchets et aux plastiques.
Bernadette Bensaude-Vincent et Mathieu Baudrin, ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
08.10.2025 à 16:33
Nicolas Picard, Chercheur associé au centre d'histoire du XIXème siècle, Université Paris 1 Panthéon-Sorbonne
Robert Badinter entre au Panthéon ce 9 octobre. Il fut la grande figure du combat contre la peine de mort au moment de son abolition en 1981. À l’époque, 62 % des Français y étaient pourtant favorables. Quel rôle l’opinion publique a-t-elle joué dans les débats relatifs à la peine capitale au cours du XXe siècle ? Quels ont été les déterminants – notamment médiatiques – de son évolution en faveur ou contre l’abolition ?
Ce jeudi 9 octobre, Robert Badinter entre au Panthéon, en hommage à son rôle dans l’abolition de la peine de mort, et, en juin 2026, Paris accueillera le 9e Congrès mondial contre la peine de mort. Cette abolition est inscrite dans la Constitution depuis 2007, après un vote quasi unanime des parlementaires (828 pour, 26 contre). Tout concourt à en faire aujourd’hui l’une des « valeurs de la République » les plus consensuelles, enseignée dans les manuels scolaires et défendue par la diplomatie française. L’abolition n’apparaît guère menacée, y compris à l’extrême droite : les partis politiques ne font plus figurer le rétablissement de la peine capitale dans leur programme, malgré les déclarations de certaines personnalités.
Pourtant, la peine de mort a suscité des débats particulièrement vifs dans notre pays. Indépendamment des arguments philosophiques et scientifiques sur sa légitimité et sur son efficacité dissuasive, ses partisans ont longtemps pu s’appuyer sur le « sentiment public » de la population, auquel la répression pénale devait nécessairement s’accorder. Les opposants ont, à l’inverse, souligné à quel point ce sentiment était versatile, superficiel, et difficilement évaluable. La question de l’adhésion populaire à la peine capitale s’est ainsi reconfigurée à plusieurs reprises au cours du siècle dernier.
L’idée qu’une écrasante majorité de citoyens serait en faveur de la peine de mort est largement répandue au début du XXe siècle, ce qui pourtant n’allait pas de soi au XIXe. Victor Hugo, lors de son discours à l’Assemblée nationale en 1848, affirme que, lors de la révolution de février, « le peuple […] voulut brûler l’échafaud » et regrette que l’on n’ait pas été « à la hauteur de son grand cœur ».
En 1871, la guillotine est d’ailleurs effectivement incendiée par un groupe de gardes nationaux pendant la Commune. Ce sont des partis progressistes, se présentant comme des défenseurs des intérêts populaires, qui poussent le thème de l’abolition dans leurs programmes, des socialistes aux radicaux. Ces derniers mettent l’abolition à l’ordre du jour parlementaire en 1906. Le président Fallières commence alors à gracier systématiquement les condamnés à mort en attendant l’examen du projet.
L’échec des [abolitionnistes] en 1908, témoigne d’un revirement spectaculaire, dans lequel l’évocation, ou la fabrication, de l’opinion publique joue le rôle principal. En pleine crise sécuritaire, alors que la presse déborde de faits divers sanglants et s’inquiète de la menace croissante des « apaches », ces jeunes voyous des faubourgs prêts à tous les crimes, l’abolition et les grâces présidentielles sont prises pour cible. De grands titres de la presse populaire n’hésitent pas à susciter l’engagement de leurs lecteurs, selon une logique réclamiste (visant à créer un évènement destiné à attirer l’attention du plus grand nombre).
À l’occasion d’une sordide affaire de meurtre d’enfant, l’affaire Soleilland, le Petit Parisien organise un « référendum »-concours rassemblant 1 412 347 réponses, avec un résultat sans appel : 77 % sont contre l’abolition. La mobilisation « populaire » s’observe également dans les pétitions des jurys s’élevant contre l’abolition, et dans la recrudescence des condamnations capitales. Dans l’Hémicycle, les députés opposés au projet évoquent cet état d’esprit d’une population inquiète. Cette popularité de la peine de mort semble vérifiée par les « retrouvailles » enthousiastes du public avec le bourreau, lors de la quadruple exécution de Béthune (Pas-de-Calais), en 1909, qui met un terme au « moratoire » décidé par Fallières.
Ces campagnes de presse et de pétitions des jurys reflètent-elles bien l’état de l’opinion publique ? Les principaux quotidiens sont ici juges et parties, prenant fait et cause pour la peine de mort et appelant leurs lecteurs à appuyer leur démarche. Le choix de faire campagne sur ce thème est un moyen pour les patrons conservateurs de ces titres, comme Jean Dupuy, de mettre en difficulté le gouvernement Clemenceau. De même, les pétitions des jurys sont en grande partie inspirées par une magistrature traditionnellement conservatrice. Il est certain que l’« opinion publique » a été influencée, mais l’écho rencontré par ces entreprises dans la population suppose une certaine réceptivité de celle-ci. En tous les cas, cette crainte de l’opinion a suffi à modifier les positions de nombreux députés radicaux, ralliés aux « morticoles ».
La période s’étendant de l’échec abolitionniste de 1908 à l’après-Seconde Guerre mondiale, marquée par les violences de masse, n’est guère propice à une reprise du débat. La Libération et l’épuration représentent sans doute le point d’acmé dans l’adhésion de la population au principe de la mise à mort. La haine contre les collaborateurs conduit, dans les premiers mois, à des lynchages et à une sévérité extrême des tribunaux chargés de l’épuration, mais aussi des cours d’assises ordinaires.
Néanmoins, passée cette vague vindicative, la peine de mort perd rapidement du terrain (du moins en France hexagonale). Au début des années 1950, le nombre de condamnations capitales s’effondre, passant de plusieurs dizaines à quelques unités par an, des propositions de loi en faveur de l’abolition sont régulièrement déposées, à gauche comme à droite, des comités militants se forment. Surtout, les Français ne semblent plus aussi réceptifs aux campagnes de presse prônant la sévérité. Alors que le journal Combat s’engage en avril 1950 pour élargir la peine capitale aux parents dont les maltraitances ont entraîné la mort de leurs enfants, les courriers des lecteurs poussent le quotidien à réorienter son propos pour dénoncer les « causes profondes du mal » : taudis, misère et alcoolisme.
C’est à cette époque que les sondages, nouvel outil venu des États-Unis, permettent d’objectiver l’opinion publique et posent régulièrement la question de la peine de mort. La courbe du soutien à l’abolition s’élève à partir du milieu des années 1950 : de 19 % en 1956, elle passe à 58 % en 1969, à la faveur de la prospérité économique retrouvée et de la contestation croissante des valeurs autoritaires. Nombre d’intellectuels s’engagent et influencent l’opinion par leurs œuvres, qu’il s’agisse des écrivains Albert Camus ou Marcel Aymé, du cinéaste André Cayatte ou de l’avocat Albert Naud. Avec le concile Vatican II (1962-1965), la diffusion d’un christianisme plus social et réformateur permet de rallier une partie des catholiques.
C’est à partir du début des années 1970, notamment après l’affaire de Clairvaux, pour laquelle Claude Buffet et Roger Bontems sont guillotinés, après trois ans sans exécution capitale, que la peine de mort regagne des partisans : 53 % sont en sa faveur en 1972, 62 % en septembre 1981, à la veille du vote de la loi d’abolition. Cette poussée s’observe alors même que de plus en plus d’autorités religieuses, d’associations et de personnalités publiques s’engagent contre la peine de mort.
Paradoxalement, l’abolition est ainsi votée dans un contexte de remontée des préoccupations sécuritaires. Mais que valent vraiment ces sondages ? Outre les traditionnelles critiques adressées à cet outil, les abolitionnistes soulignent l’écart existant entre ces chiffres et les réticences certaines des jurés à condamner à mort. Les condamnations capitales restent en effet exceptionnelles. Comme l’affirme Robert Badinter, la véritable abolition serait déjà en large partie à l’œuvre dans les prétoires : 16 condamnations pour l’ensemble des années 1970, et « seulement » 6 exécutions, alors que le thème de l’insécurité prospère dans les médias.
L’abolition est aussi tacitement acceptée par les électeurs, qui portent au pouvoir en 1981 un homme, François Mitterrand, et une majorité politique, qui n’ont pas fait mystère de leurs intentions en la matière. Certes, la peine de mort n’a sans doute pas été le déterminant majeur du vote, mais lors de l’émission télévisée « Cartes sur table », le candidat socialiste ne s’est pas dérobé, en affirmant clairement sa position. Durant la campagne des législatives de 1981 consécutive à la dissolution, le ministre de la justice Maurice Faure présente l’abolition comme un chantier prioritaire, ce qui ne nuit en rien à l’écrasante victoire socialiste. Fort de cette onction démocratique, son successeur, Robert Badinter, a cependant conscience qu’il faut saisir le moment. L’Assemblée nationale, et de manière plus étonnante le Sénat pourtant acquis à la droite, votent l’abolition à la fin du mois de septembre 1981.
Il faudra attendre 1998 pour voir, dans les sondages, la courbe du soutien à la peine de mort croiser celle du soutien à l’abolition. Dans le même temps, cependant, le thème du rétablissement de la peine capitale ne fait plus recette chez les parlementaires, malgré le dépôt de quelques propositions de loi. Sur le long terme, les bénéfices politiques d’une prise de position abolitionniste semblent largement l’emporter sur un engagement inverse. Les associations abolitionnistes mobilisent bien davantage et sont plus structurées que les partisans de la peine de mort. Ce paradoxe est-il la preuve de la superficialité de l’adhésion à la peine capitale, voire de la dissonance cognitive de citoyens qui affirment la soutenir mais qui admirent les responsables qui s’y opposent ?
Dans les dernières enquêtes, le soutien à la peine capitale progresse, passant d’un minimum de 32 % en 2009 à 49 % lors de la dernière mesure de ce type, en février 2025. Comparer les sondages de 1981, alors que des exécutions étaient encore possibles, et ceux de 2025, alors que la peine de mort s’enfonce dans un passé de plus en plus lointain et que la probabilité d’un rétablissement apparaît illusoire, n’a cependant guère de sens. On peut y voir surtout un corollaire du succès actuel des thèses sécuritaires, qui trouvent à s’épanouir dans d’autres dispositifs.
Nicolas Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:32
Jean Viviès, Professeur de littérature britannique, Aix-Marseille Université (AMU)
Que sait-on vraiment de ce tueur en série ? Pas grand-chose : même son nom est une invention. Aujourd’hui, l’enquête se poursuit au travers des recherches de la science forensique – l’ensemble des méthodes d’analyse fondées sur les sciences afin de servir au travail d’investigation –, mais aussi du côté de la stylométrie – un domaine de la linguistique qui utilise la statistique pour décrire les propriétés stylistiques d’un texte. Sans compter le travail des historiennes et historiens qui se penchent aussi sur les victimes du tueur, largement invisibilisées, et réduites non sans misogynie à un statut de « femmes de mauvaise vie ».
Jack l’Éventreur (« Jack the Ripper ») fascine toujours, à en juger par le nombre de livres et de films qui lui sont consacrés. Il y a eu depuis, malheureusement, bien d’autres tueurs en série, mais dans l’imaginaire il reste le premier à être qualifié ainsi, et le plus célèbre. La raison principale est sans doute qu’il n’a jamais été identifié. Une centaine de noms de suspects ont été évoqués, à l’époque des enquêtes puis au fil des décennies : immigrés, médecins, aristocrates, et certains un peu plus vraisemblables que d’autres, Aaron Kosminski – un barbier polonais –, Montague Druitt, un avocat, ou encore le peintre Walter Sickert, mais aucune certitude n’a pu être établie. L’auteur de Sherlock Holmes, Conan Doyle, s’amusa même à imaginer un assassin féminin : « Jill the Ripper ».
Certaines pistes de recherche actuelles s’appuient sur des travaux scientifiques et proposent des angles nouveaux.
Parmi les matériaux à exploiter se trouve la masse de lettres signées Jack l’Éventreur. La première de ces lettres est célèbre, adressée à « Dear Boss », le 25 septembre 1888. Sur un ton provocateur et théâtral, l’auteur y nargue la police et annonce d’autres meurtres. Depuis quelques années, la linguistique « forensique », discipline nouvelle, s’est penchée sur cette lettre et sur celles qui suivirent, notamment sur les trois qui semblent à l’analyse émaner de la même plume, « Saucy Jacky », le 1er octobre, et « From Hell », le 15 octobre.
Ces trois lettres ont été reçues avant que l’affaire ne soit rendue publique et sont donc les plus intéressantes. Les linguistes ont néanmoins étudié tous les textes prétendument écrits par « Jack l’Éventreur » afin de déterminer s’ils avaient été rédigés par la même personne. Un corpus Jack the Ripper a été compilé à partir des 209 textes comportant au total 17 643 mots. Andrea Nini de l’Université de Manchester a notamment fait progresser la question avec les outils numériques de la stylométrie.
On rappellera ici que, en fait, Jack l’Éventreur n’est pas le nom de l’assassin, mais celui de l’auteur de la première lettre, très probablement écrite par un journaliste au moment des faits et envoyée, non pas à la police mais, élément révélateur, à une agence de presse londonienne, la Central News Agency.
Toujours dans le domaine de la science forensique, les progrès en matière de recherche d’ADN ont semblé un temps de nature à élucider l’affaire. L’étude d’un ADN, prélevé sur le châle taché retrouvé près du corps d’une victime (Catherine Eddowes) et récupéré par un inspecteur de police de l’époque, a été confiée à Jari Louhelainen, biochimiste de l’Université John-Moores de Liverpool en collaboration avec David Miller, spécialiste de la reproduction à l’Université de Leeds. Ils ont extrait du châle de l’ADN mitochondrial et ont décelé une correspondance (« match ») entre une descendante de la victime et celle d’un suspect déjà bien repéré, un immigré polonais (Kosminski).
Russell Edwards, le commanditaire de ces recherches et actuel propriétaire du châle, a présenté cette découverte dans son livre Naming Jack the Ripper, paru en 2014. Mais d’autres spécialistes soulignent la provenance plutôt douteuse du morceau de tissu (a-t-il réellement été récupéré sur le lieu du crime ?) et le fait qu’il ait été beaucoup manipulé pendant plus d’un siècle. Aucune certitude ne peut en fait être tirée de ces analyses ADN.
D’autres tentatives, telles celle de la romancière Patricia Cornwell, à partir d’échantillons d’ADN prélevés sur un timbre et sur des enveloppes, et mettant en cause le peintre Walter Sickert, ont été largement diffusées dans deux de ses livres dont Ripper : The Secret Life of Walter Sickert (2017), mais elles n’ont pas convaincu la plupart des experts.
La nouveauté la plus importante se trouve du côté des études historiques proprement dites où une recherche récente a changé la focale, en s’intéressant non plus à la galaxie des suspects mais aux victimes, notamment aux cinq femmes des meurtres dits « canoniques ». Ces cinq femmes ont été jusqu’ici trop vite assimilées à des prostituées en raison de leur pauvreté. Pour trois d’entre elles, il n’existe pas d’élément avéré qui confirme leur condition de prostituées. Mary Ann Nichols, Annie Chapman, Elizabeth Stride, Catherine Eddowes et Mary Jane Kelly, puisque tels sont leurs noms, n’étaient pas véritablement des prostituées. Cette idée très répandue a été déconstruite, notamment par Hallie Rubenhold dans son livre The Five : The Untold Lives of the Women Killed by Jack the Ripper (2019).
L’historienne montre que c’est à propos de deux des victimes seulement, Mary Ann Nichols et la plus jeune, Mary Jane Kelly, que des preuves attestent qu’elles ont exercé de manière régulière la prostitution. Pour les trois autres, rien ne permet de l’affirmer. Il s’agissait avant tout de femmes pauvres, sans logement fixe, qui affrontaient une situation économique et sociale des plus difficile dans l’East End londonien des années 1880. Les registres de la police du temps de même que les différents témoignages ne confirment pas leur état de prostituées. Cette représentation s’est installée, inspirée de récits à sensation et de préjugés et stéréotypes assimilant pauvreté et immoralité. Leurs vies sont davantage marquées par la misère, l’alcoolisme, la violence domestique et l’instabilité sociale.
La majeure partie de la littérature consacrée à Jack l’Éventreur s’est fixée sur le tueur sans visage et au nom fictionnel au détriment de ses victimes. Un contre-récit des meurtres est néanmoins possible, rendant leur place à des victimes sans défense, accablées par l’extrême pauvreté dans le Londres victorien. Y voir, au-delà d’une fascinante énigme criminelle, qui demeure, une série de féminicides à resituer dans le cadre d’une histoire sociale et non dans les faits divers criminels change la perspective : on s’intéresse dès lors moins à la manière dont ces victimes sont mortes qu’à la manière dont elles ont vécu.
Certains écrivains avaient anticipé les travaux des historiens. Ainsi, Jack London, dans son livre quasi contemporain des événements The People of the Abyss (le Peuple de l’abîme, 1903), a décrit la misère extrême du quartier de Whitechapel après s’y être lui-même plongé et a dénoncé les conditions économiques qui exposaient les femmes à la violence.
Avant lui, George Bernard Shaw avait écrit au journal The Star dès les premiers meurtres en soulignant qu’ils avaient au moins le mérite de mettre en lumière les conditions de vie misérables de l’East End, que la bonne société victorienne ignorait. Ces crimes, qui se caractérisaient par des mutilations sexuelles, s’inscrivaient par ailleurs dans une époque où la sexualité était un enjeu essentiel de contrôle social.
Les travaux des chercheurs continuent dans leur registre propre de s’inscrire dans cette fascination de l’« underworld », un monde sous le monde. En parallèle la postérité du personnage de Jack l’Éventreur conserve depuis près de cent trente ans sa place dans l’imaginaire occidental. La littérature et le cinéma s’étaient vite emparés du personnage.
Reprenant l’intrigue imaginée, en 1913, par la romancière Marie Belloc, Alfred Hitchcock réalisa en 1927 The Lodger, dans lequel un mystérieux locataire assassine des jeunes femmes dans Londres. Certains films restent dans les mémoires comme From Hell (2001), d’Albert et Allen Hughes, ou Time After Time (C’était demain, 1979), de Nicholas Meyer. On y suit Jack l’Éventreur dans un San Francisco moderne, pourchassé par H. G. Wells auquel il a volé la machine à voyager dans le temps. Les téléfilms et séries, bandes dessinées ou jeux vidéo abondent. C’est donc à la fiction, qui a rivalisé d’emblée avec la science et à qui il revint aussi d’incarner l’Éventreur, de lui donner un visage et une identité qui ont échappé encore à ce jour aux multiples enquêtes, nourries de techniques et de perspectives nouvelles.
Les recherches des historiens, des linguistes, des biochimistes et des spécialistes de « ripperology » (terme dû à l’écrivain anglais Colin Wilson) se poursuivent ou se réorientent, modifiant au fil des décennies notre vision de la célèbre affaire. Pour autant, l’icône culturelle qu’est devenu Jack l’Éventreur, presque un personnage conceptuel, n’y fait pas obstacle en offrant à nombre de travaux novateurs la visibilité qu’ils méritent. Jack l’Éventreur au nom inventé est comme devenu l’inventeur de toute une nouvelle sphère de savoirs.
Jean Viviès ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:28
Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon
Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.
Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.
Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).
Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.
Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.
Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.
Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).
Heureusement, des solutions existent pour recycler la chaleur fatale.
L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.
Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.
Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.
Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.
Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.
Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.
Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.
À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir
Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :
Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).
La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.
On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.
Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.
Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.
Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».
Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.
Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.
Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)
08.10.2025 à 16:27
Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay
Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)
Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1
Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA
Marina Labalette, Cheffe de projet, IRT Saint Exupéry
Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA
C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?
L’un des leviers de la transition énergétique et de la décarbonation de l’économie  est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.
L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).
Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.
Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.
L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.
Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.
Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.
En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :
pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,
pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,
jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.
La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.
Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.
En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.
Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.
À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau
On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.
Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.
Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.
La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.
La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.
En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.
En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.
Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.
Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.
Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.
À lire aussi : Comment rendre l’électronique plus soutenable ?
Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.
Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.
Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.