09.10.2025 à 15:32
Sylvain Kahn, Professeur agrégé d'histoire, docteur en géographie, européaniste au Centre d'histoire de Sciences Po, Sciences Po
For 80 years, Europe maintained an asymmetric yet cooperative relationship with the United States. This imbalance, long accepted as the price of stability and protection, has shifted dramatically under US President Donald Trump. What was once a strategically uneven interdependence has become an unbreakable grip, which is used to exert pressure while being denied by its victims.
In my book, l’Atlantisme est mort ? Vive l’Europe ! (Is Atlanticism Dead? Long Live Europe!), I describe this shift by introducing the concept of “emprisme”: a permitted grip in which Europeans, believing themselves to be partners, become dependent on a power that dominates them without their full awareness.
Emprisme does not merely refer to influence or soft power, but an internalised strategic subordination. Europeans justify this dependence in the name of realism, security, or economic stability, without recognising that it structurally weakens them.
In Trump’s worldview, Europeans are no longer allies but freeloaders. The common market enabled them to become the world’s largest consumer zone and strengthen their companies’ competitiveness, including in the US market. Meanwhile, through NATO, they let Washington bear the costs of collective defence.
The result? According to Trump, the US – because it is strong, generous, and noble – is being “taken advantage of” by its allies. This narrative justifies a shift: allies become resources to exploit. It is no longer cooperation, but extraction.
The war in Ukraine perfectly illustrates this logic. While the EU mobilized to support Kyiv, this solidarity became a vulnerability exploited by Washington. When the Trump administration temporarily suspended Ukrainian access to US intelligence, the Ukrainian army became blind. Europeans, also dependent on this data, were left half-blind.
The administration’s move was not a mere tactical adjustment, but a strategic signal: European autonomy is conditional.
In July 2025, the EU accepted a deeply unbalanced trade agreement imposing 15% tariffs on its products, without reciprocity. The Turnberry agreement was negotiated at Trump’s private estate in Scotland – a strong symbol of the personalization and brutalization of international relations.
At the same time, the US stopped delivering weapons directly to Ukraine. Europeans now buy American-made arms and deliver them themselves to Kyiv. This is no longer partnership, but forced delegation.
In the logic of the MAGA movement, which is dominant within the Republican Party, Europe is no longer a partner. At best, it is a client; at worst, a tributary.
In this situation, Europeans accept their subordination without naming it. This consent rests on two illusions: the idea that this dependence is the least bad option, and the belief that it is temporary.
Yet many European actors – political leaders, entrepreneurs, and industrialists – supported the Turnberry agreement and the intensification of US arms purchases. In 2025, Europe accepted a perverse deal: paying for its political, commercial and budgetary alignment in exchange for uncertain protection.
It is a quasi-mafia logic of international relations, based on intimidation, brutalization and the subordination of “partners”. Like Don Corleone in Frances Ford Coppola’s The Godfather, Trump seeks to impose an unpredictable American protection in exchange for an arbitrary price set unilaterally by the US.
It is essential to distinguish emprisme from other forms of domination. Unlike President Vladimir Putin’s Russia, whose imperialism relies on military violence, Trump’s US does not use direct force. When Trump threatens to annex Greenland, he exerts pressure but does not mobilize troops. He acts through economic coercion, trade blackmail, and political pressure.
Because Europeans are partially aware of this and debate the acceptable degree of pressure, this grip is all the more insidious. It is systemic, normalized, and thus hard to contest.
Putin’s regime, by contrast, relies on violence as a principle of government – against its own society and its neighbours. The invasion of Ukraine is its culmination. Both systems exercise domination, but through different logics: Russian imperialism is brutal and direct; US emprisme is accepted, constraining, and denied.
What makes emprisme particularly dangerous is the denial that accompanies it. Europeans continue to speak of the transatlantic partnership, shared values, and strategic alignment. But the reality is one of accepted coercion.
This denial is not only rhetorical: it shapes policies. European leaders justify trade concessions, arms purchases, and diplomatic alignments as reasonable compromises. They hope Trump will pass, that the old balance will return.
But emprisme is not a minor development. It is a structural transformation of the transatlantic relationship. And as long as Europe does not name it, it will keep weakening – strategically, economically and politically.
Europe must open its eyes. The transatlantic link, once protective, has become an instrument of domination. The concept of emprisme allows us to name this reality – and naming is already resisting.
The question is now clear: does Europe want to remain a passive subject of US strategy, or become a strategic actor again? The answer will determine its place in tomorrow’s world.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Sylvain Kahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:32
Romuald Blanc, MCU-Psychologue clinicien, Université de Tours
Qu’est-ce que l’intelligence ? Comment la définir, et l’évaluer ? Il n’existe pas de réponse simple à ces questions, qui ont fait l’objet de nombreux travaux de recherche. Voici quelques pistes de réflexion.
L’intelligence est un concept complexe, qui englobe plusieurs sortes de capacités cognitives, comme la résolution de problèmes, la pensée abstraite, l’apprentissage et l’adaptation.
Elle ne se limite pas aux performances scolaires, mais inclut aussi des dimensions émotionnelles (l’ajustement émotionnel aux autres, la capacité à agir sur ses propres émotions ou « autorégulation émotionnelle »), sociales (l’adaptation sociale et prise en compte des règles et des conventions sociales qui régissent les relations humaines) et pratiques (l’adaptation au quotidien).
Pour cette raison, définir l’intelligence et l’évaluer est une tâche ardue. Les experts eux-mêmes peinent encore à s’accorder sur sa nature (unique ou multiple), son origine (innée ou acquise) ou ses mécanismes (concernant les processus cognitifs sous-jacents).
Si de nombreux modèles d’intelligence ont été proposés, jusqu’à présent, aucun consensus scientifique incontesté n’a émergé. Globalement, 3 grandes façons de définir l’intelligence se dessinent : les modèles factoriels, les approches dites « multiples » et les modèles neurocognitifs. Voici ce qu’il faut en retenir.
Parmi les modèles factoriels, citons le modèle mis au point par Charles Edward Spearman, psychologue britannique. Développé en 1904, il repose sur le calcul d’un facteur général d’intelligence (appelé « facteur g »). Celui-ci serait commun à toutes les tâches cognitives, tandis que pour chaque activité il existerait des facteurs spécifiques : un facteur verbal pour le langage, un facteur spatial, etc. Ces « facteurs mentaux » sont déterminés grâce à une méthode mathématique appelée analyse factorielle.
Le modèle de Spearman implique que toutes les performances intellectuelles sont corrélées. L’intelligence serait donc une capacité unique. Bien que critiqué pour son caractère réducteur, il reste une référence dans la psychométrie et la conception des tests de quotient intellectuel.
Dans les années 1930, Louis Leon Thurstone, un psychologue américain, conteste cette vision. Il affirme que l’intelligence n’est pas une capacité unique, mais un ensemble de compétences mentales primaires indépendantes. En se basant sur des analyses factorielles de tests d’intelligence qu’il a fait passer à des étudiants, il détermine qu’il existerait 7 aptitudes mentales primaires : la compréhension verbale, la fluidité verbale, les aptitudes numériques, la visualisation spatiale, la mémoire, la vitesse perceptive et le raisonnement inductif.
En 1963, dans la lignée de ces travaux, le psychologue anglo-américain Raymond Bernard Cattell défend l’idée que l’intelligence générale se divise en deux catégories principales : l’intelligence fluide, qui correspond à notre capacité à traiter de nouvelles informations, à apprendre et à résoudre des problèmes ; et l’intelligence cristallisée, qui s’apparente à nos connaissances stockées, accumulées au fil des ans.
Ce dernier modèle a influencé de nombreux tests d’intelligence modernes, comme les échelles d’intelligence de Wechsler. Il explique pourquoi certaines personnes âgées peuvent exceller dans des domaines nécessitant des connaissances établies, malgré une baisse de leurs capacités de raisonnement abstrait. Il est utilisé en psychologie cognitive et en neurosciences pour étudier le vieillissement cognitif.
En se positionnant face aux modèles antérieurs, jugés réducteurs, le psychologue états-unien Howard Gardner a développé, au début des années 1980, un autre modèle de l’intelligence, intégrant les composantes sociales et culturelles. Son intérêt pour des populations atypiques telles que les enfants dits « prodiges », les « idiots-savants », ou encore les personnes avec autisme lui ont permis de prendre en considération des différentes facettes de l’activité cognitive, en respectant des différences de chacun selon ses forces, ses faiblesses et ses styles cognitifs.
Il définit ainsi huit grandes facettes de l’intelligence : linguistique, logico-mathématique, spatiale, kinesthésique, musicale, interpersonnelle, intrapersonnelle et naturaliste. Gardner propose que chacun peut développer ces intelligences à différents niveaux et qu’il existe de nombreuses façons d’être intelligent dans chacune de ces catégories.
Bien que novateur, ce modèle est critiqué pour son manque de fondement scientifique et la subjectivité de ses catégories. Certains chercheurs y voient plutôt des talents que de véritables formes d’intelligences, et son efficacité pédagogique reste à démontrer. Des critiques suggèrent que la théorie des intelligences multiples manque de fondements scientifiques solides et repose sur des catégories subjectives, souvent perçues davantage comme des talents ou des traits de personnalité que comme des formes distinctes d’intelligence.
En 1985, le psychologue américain Robert Sternberg propose un modèle triarchique de l’intelligence, intégrant des aspects cognitifs, créatifs et pratiques. Il distingue trois formes d’intelligence : analytique (résolution de problèmes logiques), créative (pensée originale et adaptation à la nouveauté) et pratique (adaptation au quotidien, intelligence sociale).
Contrairement à Spearman et Thurstone, qui envisagent l’intelligence comme un ensemble de capacités cognitives mesurables (facteur g ou aptitudes primaires), Sternberg la conçoit comme un processus adaptatif. Être intelligent, c’est savoir s’adapter à de nouvelles situations, choisir des environnements favorables et les modifier si nécessaire.
Réussir à s’intégrer dans un nouvel environnement culturel illustre par exemple cette intelligence pratique et contextuelle. Là où Spearman ou Thurstone y verraient l’expression d’aptitudes générales (raisonnement, compréhension), Sternberg y voit surtout la mise en œuvre de stratégies d’adaptation à un contexte changeant.
La théorie de Sternberg est plus étayée empiriquement que celle de Gardner, car ses composantes (analytique, créative, pratique) peuvent être testées et appliquées en éducation ou en milieu professionnel, pour mieux évaluer les compétences individuelles. La typologie proposée par Gardner, séduisante, est en revanche moins validée scientifiquement.
Si Sternberg reste plus opérationnel et crédible sur le plan scientifique, les deux approches complètent les modèles psychométriques, en mettant l’accent sur l’adaptation et le contexte.
Les modèles les plus récents d’intelligence s’appuient sur les connaissances acquises notamment grâce aux progrès effectués en neuro-imagerie (notamment grâce à l’IRM fonctionnelle, qui permet d’observer le fonctionnement cérébral lors de la réalisation d’une tâche donnée).
Ces modèles mettent en avant le rôle des réseaux cérébraux et des fonctions cognitives. Parmi les principaux, on peut citer :
la théorie de l’intégration fronto-pariétale : selon cette théorie, l’intelligence serait basée sur l’intégration, c’est-à-dire le traitement coordonné et harmonieux des informations entre différentes régions du cerveau, notamment entre le cortex pariétal (impliqué dans le raisonnement et le traitement spatial) et le cortex préfrontal (impliqué dans le contrôle exécutif, c’est-à-dire la régulation et la coordination des pensées, des actions et des émotions pour atteindre un but) ;
le modèle des fonctions exécutives : ce modèle souligne le rôle clé de la mémoire de travail (capacité à maintenir et manipuler temporairement des informations), de la flexibilité cognitive (capacité à changer de stratégie ou de point de vue) et de l’inhibition (capacité à résister à des automatismes ou distractions). Ces fonctions, essentielles pour la planification et l’adaptation, sont fortement associées au cortex préfrontal ;
les approches bayésiennes : elles mettent en avant l’idée que le cerveau agit comme un système prédictif, c’est-à-dire qu’il formule en permanence des hypothèses sur le monde à partir de ses expériences passées, puis les ajuste en fonction des nouvelles informations sensorielles (par exemple, lorsque nous marchons dans une rue et que nous entendons un bruit de moteur derrière nous, notre cerveau prévoit qu’une voiture approche. Si le bruit s’éloigne au lieu de se rapprocher, il met à jour son modèle interne pour ajuster sa prédiction) ;
le modèle des réseaux en petits mondes : ce modèle repose sur l’idée que l’intelligence dépend de l’efficacité des connexions neuronales et de la plasticité cérébrale. Le cerveau humain est organisé selon une architecture dite en petit monde, c’est-à-dire un réseau dans lequel les neurones (ou régions cérébrales) sont à la fois fortement connectés localement (favorisant la spécialisation) et efficacement reliés à distance (favorisant l’intégration globale de l’information). Cela signifie qu’il existe des différences interindividuelles : certaines personnes présentent des réseaux cérébraux plus efficaces, caractérisés par un équilibre optimal entre connectivité locale et connectivité globale, ce qui serait associé à de meilleures performances cognitives et à un quotient intellectuel plus élevé. Cependant, cette efficacité n’est pas figée : elle peut être modifiée par l’expérience, l’apprentissage, l’entraînement cognitif ou encore par des changements développementaux (enfance, adolescence) et neurobiologiques (plasticité synaptique, myélinisation). En d’autres termes, le cerveau peut réorganiser ses connexions pour améliorer la circulation de l’information.
Tous ces modèles postulent que l’intelligence est distribuée : elle reposerait sur l’interaction entre différentes régions du cerveau.
La théorie de l’intégration fronto-pariétale et le modèle des fonctions exécutives sont bien étayés empiriquement, grâce à des données de neuro-imagerie et des tâches expérimentales standardisées. Les approches bayésiennes offrent un cadre explicatif puissant, mais plus théorique et difficile à tester directement. Enfin, le modèle des réseaux en petits mondes est empiriquement mesurable, mais surtout corrélationnel.
Ces modèles ne s’opposent pas aux approches développementales classiques, ils les complètent en proposant une explication cérébrale et fonctionnelle des mécanismes qui sous-tendent le développement de l’intelligence
À la fois universelle et plurielle, l’intelligence est un concept complexe, polymorphe et multidimensionnel. L’évaluer n’est pas chose aisée. Sa richesse ne peut être appréhendée à la seule aune de tests standardisés tels que le quotient intellectuel, car celui-ci ne prend pas en compte toutes les formes d’intelligence, ignorant notamment l’intelligence émotionnelle ou créative.
Une compréhension complète de l’intelligence exige de ce fait une approche globale et nuancée. À ce titre, les divers modèles de l’intelligence offrent une vision enrichissante de la complexité de ce concept, en proposant de reconnaître et de valoriser les différentes compétences et talents que chaque individu possède.
En nous incitant à adopter une perspective plus large sur l’intelligence, ils nous aident à mieux comprendre et à soutenir le développement des capacités des individus dans toute leur diversité.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Romuald Blanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Hélène Bourdeloie, Sociologue, maîtresse de conférences en sciences de l’information et de la communication, Université Sorbonne Paris Nord; Centre national de la recherche scientifique (CNRS)
Au-delà de ses effets délétères sur la santé mentale des jeunes, le récent rapport de la commission parlementaire sur TikTok montre que la plateforme laisse proliférer des contenus sexistes, valorisant le masculin et dénigrant le féminin. Une occasion de s’interroger sur les mécanismes qui, au cœur des plateformes numériques, amplifient les stéréotypes de genre, bien loin des promesses émancipatrices portées par l’essor de l’Internet grand public des années 1990.
Alex Hitchens est un influenceur masculiniste, coach en séduction, actuellement fort de 719 000 abonnés sur TikTok. Son effarant succès est emblématique du rôle des algorithmes de recommandation dans l’amplification des discours réactionnaires. La récente commission d’enquête parlementaire sur les effets psychologiques de TikTok a donc logiquement convoqué l’influenceur star – parmi plusieurs autres aux discours tout aussi douteux – pour l’entendre en audition. Et le 11 septembre 2025, elle a rendu son rapport. Celui-ci met clairement en cause la responsabilité des algorithmes des plateformes dans la diffusion de contenus problématiques aggravant les stéréotypes de genre
À lire aussi : TikTok et les jeunes : rentabilité et fabrique du mal-être
Cette réalité s’inscrit dans un contexte plus large renvoyant à l’état du sexisme et des inégalités entre les hommes et les femmes dans toutes les sphères de la société. Ainsi, le Baromètre sexisme 2023 du Haut conseil à l’égalité (HCE) signale la présence d’une nouvelle vague d’antiféminisme. On y apprend que 33 % des hommes considèrent que le féminisme menace leur place et rôle dans la société, et 29 % d’entre eux estiment être en train de perdre leur pouvoir.
De telles données ne sont pas sans interroger la promesse émancipatrice des débuts de l’Internet. Loin d’être un espace neutre, à l’intersection du technique et du social, l’Internet est en effet sans cesse modelé par des décisions humaines, des choix politiques et des logiques économiques. Celles-ci influencent nos usages et nos comportements, qu’il s’agisse de nos manières de construire notre identité de genre (selfies, filtres, mise en scène de la féminité/masculinité), de nos pratiques relationnelles et amoureuses (applications de rencontre, codes de séduction numérique), ou encore de notre rapport au corps et à l’intimité.
Alors qu’il était censé nous libérer de normes contraignantes, l’Internet semble finalement renforcer l’ordre patriarcal en laissant proliférer des stéréotypes qui valorisent le masculin et dénigrent le féminin. En favorisant la circulation de discours qui présentent des caractéristiques prétendument féminines comme biologiques, l’Internet peut contribuer à confondre sexe et genre, à naturaliser les différences de genre, et par conséquent à essentialiser les femmes et à les inférioriser.
Les chiffres du rapport du HCE sur l’invisibilité des femmes dans le numérique sont à ce titre plus qu’éloquents. A partir de l’analyse des 100 contenus les plus vus sur YouTube, TikTok et Instagram, il établit que sur Instagram, plus des deux tiers de ces contenus (68 %) véhiculent des stéréotypes de genre, tandis qu’un quart (27 %) comprend des propos à caractère sexuel et près d’un cinquième (22 %) des propos sexistes. TikTok n’échappe pas à cette tendance avec 61 % de vidéos exposant des comportements masculins stéréotypés et 42,5 % des contenus humoristiques et de divertissement proposant des représentations dégradantes des femmes.
Aux débuts de l’Internet grand public des années 1990, héritier de l’utopie technoculturelle des années 1960-1970, on pouvait penser que cette technologie redistribuerait les cartes en matière de genre, classe ou race. Le numérique promettait plus d’horizontalité, de fluidité, d’anonymat et d’émancipation.
Dans une perspective cyberféministe, ces espaces numériques étaient vus comme des moyens de dépasser les normes établies et d’expérimenter des identités plus libres, l’anonymat permettant de se dissocier du sexe assigné à la naissance.
Si plusieurs travaux ont confirmé cette vision émancipatrice de l’Internet – visibilité des minorités, expression des paroles dominées, levier de mobilisation – une autre face de l’Internet est venue ternir sa promesse rédemptrice.
Dans les années 2000, avec la montée en puissance des logiques marchandes, les Big Tech de la Silicon Valley – et en particulier les Gafam (Google, Apple, Facebook/Meta, Amazon, Microsoft) – ont pris le contrôle du réseau et cet espace décentralisé, ouvert et commun, est devenu la propriété économique de quelques entreprises. L’Internet a pris une autre forme : oligopolistique, verticale et néolibérale.
Aujourd’hui, les plateformes numériques, à commencer par les réseaux sociaux, cherchent à capter et retenir l’attention des internautes pour la convertir en revenus publicitaires ciblés. Cette logique est notamment poussée par des plateformes, comme TikTok, qui, en personnalisant les fils d’actualité des utilisateurs, tendent à valoriser les contenus sensationnalistes ou viraux, qui suscitent un temps de visionnage accru, à l’exemple des contenus hypersexualisés.
Dès lors, si le sexisme n’est pas né avec le numérique, les algorithmes des plateformes offrent néanmoins un terreau favorable à sa prolifération.
Les plateformes (avec leurs filtres, formats courts, mécanismes de partage, systèmes de recommandation… – à l’exemple du filtre « Bold Glamour » de TikTok, censé embellir les visages sur la base de standards irréalistes et genrés) contribuent à perpétuer et amplifier les biais de genre et sexistes, voire à favoriser la haine et la misogynie chez les jeunes.
Une étude universitaire de 2024 illustre bien la manière dont les utilisateurs de TikTok sont surexposés aux contenus sexistes. Pour observer cela, des chercheuses et chercheurs ont créé des profils fictifs de garçons adolescents. Après seulement cinq jours, ils ont constaté que le niveau de contenus misogynes présentés sur les fils « Pour toi » de ces profils avait été multiplié par quatre, révélant un biais structurel dans le système de recommandation de TikTok.
La plateforme n’est dès lors pas seulement le miroir de clivages de sexe, mais aussi le symptôme du pullulement et de la banalisation des discours sexistes. Cette idéologie, enracinée dans les sous-cultures numériques phallocrates rassemblée sous le nom de « manosphère » et passant désormais des écrans aux cours de récréation, n’a pas de frontière.
À lire aussi : « Manosphère » : ce que les parents doivent savoir pour en parler avec leurs enfants
Concernant TikTok, le rapport de 2023 du HCE sur l’invisibilité des femmes dans le numérique est on ne peut plus clair. Il montre que la plateforme privilégie structurellement les contenus correspondant aux attentes genrées les plus convenues. Les corps féminins normés, les performances de genre ou représentations stéréotypées, comme celle de la femme réservée, hystérique ou séductrice, y sont ainsi surreprésentées. En fait, les grandes plateformes les représentent sous un angle qui les disqualifie. Cantonnées à l’espace domestique ou intime, elles incarnent des rôles stéréotypés et passifs liés à la maternité ou l’apparence. Leurs contenus sont perçus comme superficiels face à ceux des hommes jugés plus légitimes, établissant une hiérarchie qui reproduit celle des sexes.
On se souvient ainsi du compte TikTok « @abregefrere ». Sous couvert de dénoncer le temps perdu sur les réseaux sociaux, ce compte s’amusait à résumer en une phrase le propos de créateurs et créatrices de contenus, le plus souvent issus de femmes. Créant la polémique, son succès a entraîné une vague de cyberharcèlement sexiste, révélateur d’une certaine emprise du masculinisme.
À lire aussi : #SkinnyTok, la tendance TikTok qui fait l’apologie de la maigreur et menace la santé des adolescentes
De telles représentations exacerbent les divisions genrées et les clivages entre communautés en ligne. Sur TikTok, est ainsi né Tanaland, un espace virtuel exclusivement féminin, pensé comme un renversement du stigmate associé à l’insulte misogyne « tana » (contraction de l’espagnol « putana »), et destiné à se protéger du cybersexisme. En miroir, a été créé Charoland, pays virtuel peuplé de femmes nues destinées à satisfaire le désir masculin ; une polarisation qui opère non seulement au détriment des femmes, mais aussi des hommes qui contestent le patriarcat.
Comme en témoigne le rapport 2025 du HCE, ce contexte peut conduire à polariser les enjeux d’égalité de genre et, ce faisant, à renforcer les inégalités et violences.
Ce sont ainsi les femmes et les minorités qui restent les plus exposées à la cyberviolence et au cyberharcèlement. Selon l’ONU, 73 % des femmes dans le monde ont déjà été confrontées à des formes de violence en ligne. Et selon l’enquête « Cyberviolence et cyberharcèlement », de 2022, en cours de renouvellement, les cyberviolences visent surtout les personnes les plus vulnérables comme les jeunes (87 % des 18-24 ans en ont ainsi subi), les personnes LGBTQI+ (85 %), les personnes racisées (71 %) et les femmes de moins de 35 ans (65 %).
Ces violences affectent particulièrement la santé mentale et l’image de soi des jeunes filles, soumises à une pression permanente à la performance esthétique et constamment enjointes à réfléchir à leur exposition en ligne. De fait, leurs corps et leurs sexualités sont plus strictement régulés par un ordre moral – contrairement aux hommes souvent perçus comme naturellement prédatoires. En conséquence, elles subissent davantage le body-shaming (« humiliation du corps »), le slut-shaming ou le revenge porn, stigmatisations fondées sur des comportements sexuels prétendus déviants.
À lire aussi : Que fait l’Europe face aux géants du numérique ?
Reflet de la société, le numérique n’a certes pas créé la misogynie mais il en constitue une caisse de résonance. Pharmakon, le numérique est donc remède et poison. Remède car il a ouvert la voie à l’expression de paroles minoritaires et contestatrices, et poison car il favorise l’exclusion et fortifie les mécanismes de domination, en particulier lorsqu’il est sous le joug de logiques capitalistes.
Un grand merci à Charline Zeitoun pour les précieux commentaires apportés à ce texte.
Hélène Bourdeloie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Elodie Gentina, Professeur à IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille, IÉSEG School of Management
À l’automne 2025, face à la censure numérique imposée par un régime népotique, des milliers de jeunes manifestants ont investi les rues de Katmandou, capitale du Népal. La répression a été brutale : au moins 72 morts, des dizaines de blessés. Porté par les réseaux sociaux, ce soulèvement s’inscrit dans une vague mondiale où les jeunesses connectées – du Maroc à Madagascar – réinventent la démocratie hors des cadres traditionnels et exigent d’être entendues.
Au Népal, l’histoire politique pourrait bien prendre un nouveau tournant. Dans ce pays de quelque 30 millions d’habitants accroché aux flancs de l’Himalaya, encore marqué par les cicatrices d’une guerre civile (1996-2006) qui a abouti à la mise en place d’une démocratie imparfaite et instable, une génération née après les combats s’affirme aujourd’hui.
Elle ne se range sous aucune bannière partisane, n’attend l’aval d’aucun chef et refuse les mots d’ordre venus d’en haut. Elle trace sa propre voie, connectée, autonome, soudée autour de ses codes et de ses écrans. Et cet automne 2025, cette jeunesse – la fameuse génération Z (personnes nées entre la fin des années 1990 et le début des années 2010) – a investi les rues, prenant tout le monde de court, à commencer par les dirigeants.
Pour mesurer ce qui se joue aujourd’hui, il faut d’abord se tourner vers le passé. Entre 1996 et 2006, le Népal a traversé une décennie de guerre civile d’une rare intensité, opposant les insurgés maoïstes au pouvoir monarchique. Ce conflit, qui a coûté la vie à plus de 13 000 personnes, s’est soldé par l’effondrement de la royauté et la naissance d’une République en 2008. Beaucoup y ont vu l’aube d’un nouvel avenir, fondé sur la justice, la stabilité et le développement.
Mais la réalité fut bien plus chaotique. En quinze ans, le pays a connu une succession de gouvernements sans lendemain, des institutions toujours fragiles et un pouvoir resté entre les mains des mêmes familles. La corruption, le favoritisme et l’absence d’horizons économiques ont peu à peu creusé un profond sentiment de désillusion. Jusque-là, la contestation prenait des formes attendues : syndicats, mouvements étudiants affiliés aux partis, mobilisations rurales ou actions maoïstes. Rien ne laissait imaginer l’irruption d’un soulèvement d’un tout autre visage.
Environ 500 000 jeunes rejoignent chaque année la population active, bien plus que le nombre d’emplois disponibles. Le chômage des jeunes âgés de 15 à 24 ans au Népal est évalué à 20,8 %. Dans ces conditions, les opportunités sont rares, et des centaines de milliers de Népalais sont contraints de s’expatrier pour trouver du travail en Inde ou dans les pays du Moyen-Orient. L’idée d’un avenir meilleur dans leur propre pays leur semble de plus en plus inaccessible.
À lire aussi : Ce que la migration au Qatar signifie pour les travailleurs népalais
Quelques jours avant que les rues ne s’embrasent, un flot d’images a envahi les réseaux sociaux népalais : on y voyait les enfants de responsables politiques exhiber voitures de luxe, séjours à l’étranger et train de vie fastueux. Ces publications, largement partagées sous les hashtags #NepoKid ou #NepoBaby, ont fait l’effet d’une étincelle dans un pays déjà traversé par une profonde frustration. Elles mettaient crûment en lumière le fossé qui sépare les élites de la population, révélant un système où privilèges et passe-droits semblent se transmettre de génération en génération.
Dans un contexte de chômage massif et d’exil forcé pour une grande partie de la jeunesse, ces images sont vite devenues le symbole d’un pouvoir déconnecté et d’une injustice profondément enracinée. Le mouvement né sur les écrans s’est alors transformé en colère dans les rues, accélérant l’éclatement d’un soulèvement populaire. Le mouvement au Népal a souvent été présenté comme une révolte de la Gen Z contre les « nepo-babies » qui s’est intensifiée à la suite de l’interdiction des réseaux sociaux et d’une répression sanglante.
La vague de vidéos dénonçant les « nepo-kids » a exprimé une colère populaire face à des décennies de népotisme enraciné au Népal. Héritage de la dynastie autoritaire des Rana (1846-1951), ce système s’est perpétué malgré la démocratisation amorcée en 1990 : les partis n’ont pas su instaurer des institutions équitables ni représentatives. Le pouvoir reste ainsi concentré entre quelques familles influentes et alliances claniques (la famille Koirala, la dynastie Rala et les dynasties « claniques »), qui continuent de contrôler partis, ressources et postes clés.
Les jeunes citoyens exigent la fin de la corruption, une gouvernance plus juste et une véritable équité économique. Fait inédit dans l’histoire politique du pays : le 9 septembre 2025, le premier ministre Khadga Prasad Sharma Oli a présenté sa démission, avant d’être remplacé par Sushila Karki, ancienne présidente de la Cour suprême, à l’issue d’un vote… organisé sur la plateforme Discord. Elle est à la tête d’une équipe transitoire chargée de préparer les élections prévues pour mars 2026.
Cette révolte est horizontale, spontanée, mouvante, en l’absence de leaders reconnus ou autoproclamés. Les messages circulent en ligne, les décisions se construisent collectivement, presque en temps réel. La culture de cette génération imprègne aussi le mouvement. Sur les pancartes, on voit des mèmes, des clins d’œil à des séries ou à des mangas. Le drapeau des Straw Hat Pirates de One Piece, symbole de liberté et de résistance, flotte parmi les manifestants. La colère s’exprime avec humour, ironie et inventivité. Loin des discours idéologiques d’antan, cette jeunesse parle un langage qui lui ressemble.
Ce symbole One Piece n’a rien d’anodin : dans l’univers du célèbre manga, Luffy incarne la lutte contre l’oppression et le rêve d’un monde plus juste. Hors des pages de fiction, ce drapeau est devenu un véritable marqueur générationnel à travers toute l’Asie. Il suffit d’y inscrire quelques mots d’ordre pour qu’il se transforme en cri de ralliement. « La génération Z ne se taira pas » ou encore « Votre luxe, notre misère », pouvaient ainsi se lire sur les banderoles brandies par des milliers de jeunes Népalais début septembre 2025, après la suspension de plates-formes comme Facebook, X ou YouTube.
Mais les revendications de la génération Z au Népal vont bien au-delà de la seule question de la censure. Elles s’attaquent à un système politique verrouillé, gangrené par les privilèges héréditaires et incapable d’offrir un avenir. Elles réclament des emplois, de la transparence, une démocratie réelle et vivante. Elles exigent surtout une chose : que leur voix compte enfin.
La jeunesse népalaise a provoqué un séisme politique. Et cela, sans chef, sans parti, sans programme détaillé.
Reste à savoir ce que ce soulèvement va devenir. Au Népal, le gouvernement en place a même été contraint de céder, remplacé par une équipe transitoire chargée de préparer les élections prévues pour mars 2026. L’histoire montre que les mouvements sans organisation claire peuvent vite s’essouffler ou être récupérés. Reste à savoir si la jeunesse mobilisée choisira d’entrer dans l’arène électorale en présentant ses propres candidats – une perspective qui pourrait marquer un tournant majeur dans la vie politique du pays.
La nouvelle génération a pris conscience de sa force collective. Elle sait désormais qu’elle peut se mobiliser rapidement, en dehors des cadres traditionnels, et obliger le pouvoir à réagir. Elle a aussi redéfini le vocabulaire de la contestation : culture numérique, humour, pop culture, créativité… autant d’armes nouvelles pour faire passer des messages politiques.
Ce qui se joue au Népal n’est d’ailleurs pas un cas isolé. De l’Indonésie au Chili, de l’Iran aux États-Unis, ces jeunes « digital natives », nés pendant l’ère d’Internet, contestent les structures établies avec les mêmes outils et les mêmes réflexes. Le Népal s’inscrit dans ce vaste mouvement mondial d’une génération qui ne veut plus attendre et qui contribue à réinventer la démocratie à l’ère du numérique. La politique telle que nous la connaissions – organisée autour de partis, de leaders et de structures hiérarchiques – est de moins en moins adaptée aux formes d’engagement des nouvelles générations. Pour elles, la politique est une pratique fluide, horizontale, souvent ludique, toujours connectée.
Elodie Gentina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:31
Frédéric Jallat, Professor of Marketing and Academic Director of MSc. in Biopharmaceutical Management, ESCP Business School
Les pharmacies françaises se trouvent aujourd’hui au cœur d’un paradoxe : dernier maillon de proximité d’un système de santé sous tension, elles subissent de plein fouet les choix budgétaires et politiques liés au prix des médicaments. Entre fermetures accélérées, marges érodées, pénuries répétées, leur fragilité dit beaucoup des difficultés que traverse la politique de santé au plan national.
Au cœur de l’hiver 2024, de nombreux patients ont eu la désagréable surprise de se voir refuser à l’officine un antibiotique pourtant banal, l’amoxicilline. « Rupture de stock », expliquaient alors les pharmaciens, contraints de trouver des alternatives ou de renvoyer les malades vers leur médecin. Ces incidents, fréquemment répétés au niveau national, illustrent une réalité mal connue : les pharmacies, maillon de proximité du système de santé, se trouvent aujourd’hui aux prises avec un mouvement combinant politiques de prix, stratégies industrielles et arbitrages budgétaires dont elles ne maîtrisent pas les évolutions.
Derrière le comptoir, c’est un acteur économique et social qui subit directement les choix de l’État, les complexités de l’Assurance-maladie et certaines des contraintes auxquelles les laboratoires pharmaceutiques sont désormais confrontés. La pharmacie n’est pas seulement un commerce : elle est devenue le miroir des tensions qui traversent la politique du médicament en France.
Contrairement à d’autres produits, le prix des médicaments en France ne relève pas du marché, mais d’un arbitrage centralisé. C’est en effet le Comité économique des produits de santé (Ceps) qui fixe les tarifs, à l’issue de négociations complexes avec les laboratoires pharmaceutiques.
Cette régulation poursuit, en réalité, plusieurs objectifs contradictoires :
garantir l’accès aux traitements des patients par un remboursement de l’Assurance-maladie ;
maîtriser les dépenses publiques de santé, dans un contexte de déficit chronique de la Sécurité sociale ;
soutenir l’innovation des laboratoires, grâce au développement de thérapies coûteuses issues de la biotechnologie notamment.
L’équilibre est difficile à tenir. Favoriser l’innovation implique d’accepter des prix élevés pour certains médicaments, tout en imposant des baisses régulières sur les molécules plus anciennes ou les génériques. Ce mécanisme place les officines dans une position de dépendance totale : leur rentabilité est directement conditionnée par ces décisions politiques qu’elles ne contrôlent aucunement.
À lire aussi : Médicaments innovants : la France face à la guerre des prix lancée par Trump
La politique du médicament ne se joue donc pas seulement dans les antichambres du ministère de la santé ou dans les couloirs du Parlement, mais au cœur d’un rapport de forces permanent et plus ample entre acteurs :
l’État cherche à contenir le coût du médicament, en incitant la substitution des produits princeps par les génériques, notamment ;
les laboratoires mènent un lobbying intense pour préserver leurs marges, tout en menaçant parfois de délocaliser ou de réduire la production sur le territoire – plus encore dans un climat international délétère où le président Trump utilise les droits de douane comme une arme de déstabilisation massive des politiques de développement régional des laboratoires au profit des États-Unis ;
l’Assurance-maladie pousse à rationaliser la consommation, à réduire les volumes et à encadrer les prescriptions ;
les syndicats de pharmaciens défendent la survie du réseau officinal, dénonçant l’érosion continue des marges de la profession ;
les patients-citoyens, enfin, se retrouvent au centre de ce jeu d’influence : leurs perceptions des prix, du reste à charge et des génériques est régulièrement mobilisée comme argument par les uns et par les autres.
Chaque décision de baisse de prix ou de modification des taux de remboursement devient ainsi l’objet de conflits où se croisent intérêts économiques, enjeux budgétaires et considérations politiques que les pharmaciens ne maîtrisent nullement.
Dans ce contexte complexe et perturbé, les pharmacies apparaissent donc comme des victimes collatérales de la politique du médicament, et ce, d’un triple point de vue.
1. Des marges sous pression
Leur modèle économique est extrêmement encadré. Les marges sur les médicaments remboursables sont fixées par décision politique, non par une libre concurrence. Les baisses décidées par le Ceps se répercutent immédiatement sur la trésorerie des pharmaciens.
2. Une difficile gestion des pénuries
À cette contrainte financière s’ajoute la multiplication des ruptures de stock. Les pénuries ont été multipliées par 30 en dix ans, au point de devenir un phénomène structurel, selon la feuille de route ministérielle 2024–2027.
En 2023, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) recensait près de 5 000 ruptures de stock ou risques de rupture, soit un tiers de plus qu’en 2022 et six fois plus qu’en 2018.
À chaque fois, les pharmaciens sont contraints d’expliquer aux patients pourquoi certains produits sont indisponibles, et doivent improviser dans l’urgence en ayant parfois à gérer des situations psychologiquement difficiles. Une mission chronophage, source de frustration voire d’agressivité de la part de leurs patients-clients.
3. Une diversification insuffisante
Pour compenser ce manque à gagner, les pharmacies ont développé de nouvelles activités : vaccination, tests, conseils en prévention, vente de parapharmacie. Mais ces relais de croissance ne suffisent pas à stabiliser un modèle économique fragilisé par la régulation.
En France, en effet, le réseau officinal se délite d’année en année : au 1ᵉʳ janvier 2025, on comptait 20 242 pharmacies, soit 260 de moins qu’en 2024 et 1 349 de moins qu’en 2015. En une décennie, plus de 6 % des officines ont disparu…
Les territoires ruraux, déjà fragilisés par un ample phénomène de désertification médicale, sont les plus touchés. Faute de repreneur, de nombreuses officines ferment, accentuant les inégalités d’accès aux soins. Dans certains villages, la pharmacie peut souvent représenter le dernier service de santé disponible. Comme le bureau de poste ou l’épicerie locale, la fermeture d’une pharmacie est aussi un lieu de vie sociale qui disparaît.
La pharmacie n’est pas un commerce comme les autres. Elle incarne un service de santé de proximité, accessible (car encore sans rendez-vous) présent dans de nombreux quartiers. Et c’est précisément cette valeur symbolique et sociale qui rend le débat explosif.
Chaque ajustement tarifaire est scruté par les syndicats, repris par les médias et discuté au Parlement. La récente décision du gouvernement de réduire le taux de remboursement des médicaments courants de 65 % à 60 % a suscité une vive inquiétude. Derrière ces chiffres, ce sont à la fois les patients (qui voient leur reste à charge augmenter) et les officines (qui anticipent une nouvelle pression sur leurs marges) qui sont concernés.
En 2024, la marge brute moyenne est passée sous les 30 % du chiffre d’affaires, un seuil historiquement bas, alors même qu’elle se situait encore à 32 % quelques années plus tôt. Si le chiffre d’affaires moyen des officines s’est élevé à plus de 2,5 millions d’euros, en hausse de 5 % par rapport à 2023, cette progression a surtout été portée par des médicaments coûteux à faible marge, représentant déjà 42 % des ventes remboursables. Dans le même temps, les charges ont bondi de près de 12 %.
Une enquête syndicale affirme que 75 % des pharmacies ont vu leurs disponibilités baisser en 2024, et qu’une sur cinq fonctionne désormais en déficit de trésorerie. Selon Philippe Besset, président de la Fédération des syndicats pharmaceutiques de France (FSPF), « les officines ne peuvent pas survivre si les pouvoirs publics continuent de rogner [les] marges [de celles-ci] tout en [leur] confiant de nouvelles missions ».
En mai 2024, les pharmaciens ont décidé de faire entendre leur voix. Près de 90 % des pharmacies (de France hexagonale et ultramarine, ndlr) ont baissé le rideau le temps d’une journée, dans une mobilisation massive et inédite destinée à alerter les pouvoirs publics sur la dégradation de leurs conditions économiques.
Leur message était clair : dénoncer des marges insuffisantes, une explosion des charges et une gestion des pénuries devenue insupportable. Au-delà, s’exprimait aussi la peur d’une dérégulation accrue – via la vente en ligne ou l’arrivée de nouveaux acteurs de la distribution.
Plusieurs collectifs de pharmaciens ont exprimé l’idée de ne pas être relégués au rang de simples intermédiaires, mais bien d’être reconnus comme des acteurs de santé publique indispensables et spécifiques. Plusieurs actions ont été menées l’été dernier qui ont fait suite à la première mobilisation professionnelle inédite de 2024. À l’initiative de l’appel de l’Union des syndicats de pharmaciens d’officine (USPO) du 23 juin 2025, trois actions majeures ont été entreprises :
une manifestation devant le ministère de la santé, le 1er juillet 2025 ;
la fermeture des officines relayée par une campagne médiatique massive le 16 août dernier ;
une manifestation d’ampleur menée le 18 septembre au cours de laquelle 75 % des officines ont été fermées et 52 cortèges organisés, rassemblant 15 000 manifestants sur tout le territoire.
Grâce à cette mobilisation professionnelle sans précédent, les pharmaciens ont remporté une victoire symbolique importante. Le premier ministre d’alors, François Bayrou, a choisi de les écouter et a suspendu, pour un minimum de trois mois, l’arrêté sur le plafond des remises génériques, malgré l’opposition de Bercy.
Les officines françaises incarnent à elles seules le dilemme du système de santé national : concilier innovation pharmaceutique, maîtrise des dépenses publiques et équité d’accès aux soins. Elles sont à la fois le dernier commerce de proximité dans bien des territoires et le révélateur des contradictions d’une politique du médicament soumise à de multiples pressions, parfois contradictoires.
Leur fragilité croissante – marges érodées, fermetures multipliées en zone rurale, gestion quotidienne des pénuries – n’est pas une question marginale, mais un enjeu politique et social majeur. Comme l’a montré la mobilisation historique de mai 2024 et de l’été 2025, les pharmaciens refusent d’être réduits à de simples distributeurs. Leur avenir dépend désormais de la capacité des pouvoirs publics à inventer un compromis durable entre logiques économiques et exigences de santé publique.
On peut donc, à bon escient, se poser la question de savoir si la survie des officines n’est pas devenue le véritable baromètre de la santé démocratique de notre système de soins.
Frédéric Jallat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 15:30
Darius von Guttner Sporzynski, Historian, Australian Catholic University
Née dans l’Empire byzantin, adoptée en Italie puis diffusée en Europe grâce à des mariages royaux et à l’influence de grandes reines, comme Bonne Sforza (1494-1557) ou Catherine de Médicis (1519-1589), la fourchette est devenue au fil des siècles un symbole de propreté, de civilité et de raffinement.
Aujourd’hui, on prend à peine conscience de saisir une fourchette. Elle fait partie d’un service de couverts standard, aussi indispensable que l’assiette elle-même. Mais il n’y a pas si longtemps, cet ustensile désormais bien banal était accueilli avec méfiance et moquerie, allant jusqu’à causer un scandale.
Il a fallu des siècles, des mariages royaux et une pointe de rébellion culturelle pour que la fourchette passe des cuisines de Constantinople (l’actuelle Istanbul) aux tables d’Europe.
Les premières versions de la fourchette ont été retrouvées dans la Chine de l’âge du bronze et dans l’Égypte antique, bien qu’elles aient probablement servi surtout à la cuisson et au service des aliments. Les Romains disposaient de fourchettes élégantes en bronze et en argent, mais là encore principalement pour la préparation des repas.
Manger avec une fourchette – surtout une petite fourchette personnelle – restait rare. Au Xe siècle, les élites byzantines l’utilisaient librement, choquant leurs invités venus d’Europe occidentale. Et vers le XIe siècle, la fourchette de table commença à faire son apparition lors des repas à travers l’Empire byzantin.
En 1004, Maria Argyropoulina (985–1007), sœur de l’empereur Romanos III Argyros, épousa le fils du Doge de Venise et provoqua un scandale en refusant de manger avec ses doigts. Elle se servait d’une fourchette en or. Plus tard, le théologien Pierre Damien (1007–1072) déclara que la vanité de Maria, qui utilisait des « fourchettes en métal artificiel » au lieu des doigts donnés par Dieu, avait provoqué le châtiment divin de sa mort prématurée, survenue dans sa vingtaine.
Pourtant, au XIVe siècle, la fourchette était devenue courante en Italie, en partie grâce à l’essor des pâtes. Il était beaucoup plus facile de manger des filaments glissants avec un instrument à dents qu’avec une cuillère ou un couteau. L’étiquette italienne adopta rapidement la fourchette, surtout parmi les riches marchands. Et c’est par cette classe aisée que la fourchette fut introduite dans le reste de l’Europe au XVIe siècle, grâce à deux femmes.
Née dans les puissantes familles Sforza de Milan et d’Aragon de Naples, Bonne Sforza (1494–1557) grandit dans un monde où les fourchettes étaient utilisées et, mieux encore, à la mode. Sa famille était rompue aux raffinements de l’Italie de la Renaissance : l’étiquette de cour, le mécénat artistique, l’habillement ostentatoire pour hommes et femmes, et les repas élégants.
Lorsqu’elle épousa Sigismond Iᵉʳ, roi de Pologne et grand-duc de Lituanie en 1518, devenant reine, elle arriva dans une région où les usages à table étaient différents. L’usage des fourchettes y était largement inconnu.
Dans les cours de Lituanie et de Pologne, l’usage des couverts restait limité. Cuillères et couteaux servaient pour les soupes, les ragoûts et la découpe de la viande, mais la plupart des aliments étaient consommés avec les mains, aidés de pain ou de « tranchoirs » – de grosses tranches de pain rassis servant à absorber les jus des plats.
Cette méthode, à la fois économique et profondément ancrée dans les traditions culinaires de la noblesse, reflétait une étiquette sociale où les plats communs et le repas partagé étaient la norme. La cour de Bonne introduisit les manières italiennes dans la région, apportant davantage de légumes, du vin italien et, surtout, la fourchette de table.
Si son usage était probablement limité au départ aux occasions formelles ou aux cérémonies de cour, il fit forte impression. Au fil du temps, et surtout à partir du XVIIe siècle, la fourchette se généralisa parmi la noblesse de Lituanie et de Pologne.
Catherine de Médicis (1519–1589) naquit au sein de la puissante famille florentine des Médicis, nièce du pape Clément VII. En 1533, à l’âge de 14 ans, elle épousa le futur Henri II de France dans le cadre d’une alliance politique entre la France et la papauté, quittant ainsi l’Italie pour rejoindre la cour de France.
Catherine de Médicis introduisit les fourchettes en argent et les usages culinaires italiens à la cour.
Comme pour Bonne Sforza, ces nouveautés faisaient partie de son trousseau. Elle arriva d’Italie avec des cuisiniers, des pâtissiers, des parfumeurs, mais aussi des artichauts, des truffes et une vaisselle raffinée. Son sens culinaire contribua à transformer les repas de cour en véritables spectacles.
Si la légende a sans doute amplifié son influence, de nombreux plats aujourd’hui considérés comme emblématiques de la cuisine française trouvent en réalité leur origine dans sa table italienne : la soupe à l’oignon, le canard à l’orange ou encore le sorbet.
Voyageur insatiable, Thomas Coryate (1577–1617) rapporta au début du XVIIe siècle des récits d’Italiens utilisant des fourchettes, une pratique qui paraissait encore ridiculement affectée dans son pays.
En Angleterre, l’usage de la fourchette au début du XVIIe siècle passait pour un signe de prétention. Même au XVIIIe siècle, on considérait qu’il était plus viril et plus honnête de manger avec un couteau et les doigts.
Mais à travers l’Europe, le changement était en marche. La fourchette commença à être perçue non seulement comme un ustensile pratique, mais aussi comme un symbole de propreté et de raffinement.
En France, elle devint un reflet de la civilité de cour. En Allemagne, les fourchettes spécialisées se multiplièrent aux XVIIIe et XIXe siècles : pour le pain, les cornichons, la glace ou le poisson.
En Angleterre, son usage finit par devenir un marqueur social : la « bonne façon » de la tenir distinguait les gens polis des malappris.
Avec l’essor de la production de masse au XIXe siècle, l’acier rendit les couverts abordables et la fourchette devint omniprésente. À cette époque, le débat ne portait plus sur la question d’en utiliser une, mais sur la manière correcte de s’en servir. Les manuels de savoir-vivre dictaient désormais les règles : pas question de ramasser les aliments comme avec une cuillère, ni de les piquer sauvagement, et toujours tenir la fourchette dents vers le bas.
Il fallut des scandales, des toquades royales et des siècles de résistance pour que la fourchette s’impose à table. Aujourd’hui, il est presque impossible d’imaginer manger sans elle.
Darius von Guttner Sporzynski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.