15.12.2025 à 15:23
Pourquoi le vert est-il la couleur de la nature ?
Texte intégral (3738 mots)
Les couleurs chatoyantes d’un coquelicot ou d’une mésange attirent le regard, mais elles remplissent également d’innombrables fonctions pour le vivant. Dans son récent livre, « Toutes les couleurs de la nature », paru aux éditions Quae, Frédéric Archaux, ingénieur-chercheur à l’Inrae, explore ces questions couleur par couleur. Nous reproduisons ci-dessous le début du chapitre consacré à la couleur verte.
S’il ne fallait retenir qu’une seule couleur pour caractériser le vivant, ce serait assurément le vert, celui de la chlorophylle : la vie sur Terre n’aurait certainement pas été aussi florissante sans ce pigment révolutionnaire capable de convertir l’énergie du Soleil en énergie chimique.
Et sans les organismes photosynthétiques, des minuscules bactéries océaniques aux immenses séquoias, quel aurait été le destin des animaux ? Certains d’entre eux hébergent même dans leur propre organisme ces précieux alliés !
La photosynthèse ? Un « Soleil vert »
Notre appartenance au règne animal et notre régime alimentaire omnivore nous font oublier à quel point pratiquement tout le vivant repose sur un processus clé assuré presque exclusivement par d’autres règnes : la photosynthèse, ou comment convertir l’énergie lumineuse en énergie chimique stockée dans des molécules organiques.
Cette énergie permet ensuite de créer d’autres molécules, parfois très complexes, de faire marcher nos muscles, de maintenir notre température corporelle, etc. Le vert est la couleur par excellence de cette photosynthèse, celle du pigment majeur qui capte et convertit l’énergie lumineuse, la chlorophylle (du grec khloros, vert, et phullon, feuille).
Bien sûr, tous les organismes photosynthétiques ne sont pas verts, car d’autres pigments (non chlorophylliens) peuvent masquer la chlorophylle. Pour ne citer qu’un exemple parmi tant d’autres, la photosynthèse chez les algues rouges repose exclusivement sur la chlorophylle A (la plus répandue sur Terre et sous l’eau), mais ces algues produisent également des carotènes et des protéines (phycobiliprotéines) de couleurs bleue et rouge, qui capturent l’énergie lumineuse puis la transmettent à la chlorophylle.
Il n’y a donc pas une mais des chlorophylles, A, B, C, D et F (sans parler des sous-types cl, c2, c3…), et la liste n’est probablement pas terminée (la forme F a été découverte en 2010). Si la chlorophylle A est universelle, la forme B se retrouve surtout chez des plantes, la C chez des algues brunes, des diatomées et des dinoflagellés, la D et la F chez des cyanobactéries. Si la chlorophylle E manque à l’appel, c’est qu’elle a été extraite en 1966 d’une algue, mais n’a toujours pas été décrite !
Du côté de leur composition chimique, ces molécules sont très proches de l’hème de notre hémoglobine, mais avec plusieurs différences de taille : l’ion métallique piégé est un ion magnésium et non ferrique. Surtout, au lieu de capter l’oxygène atmosphérique, la chlorophylle, elle, en rejette en découpant des molécules d’eau pour récupérer les atomes d’hydrogène.
La cascade biochimique est particulièrement complexe : la chlorophylle est la pièce maîtresse, parfois présente en plusieurs centaines d’unités, de photosystèmes qui comprennent d’autres molécules par dizaines. La très grande majorité des molécules de chlorophylle absorbent des photons et transmettent cette énergie d’excitation par résonance aux molécules voisines.
Les chlorophylles absorbent les radiations bleue et rouge, réfléchissant le jaune et le vert : voilà l’explication de la couleur des plantes. Les deux pics d’absorption peuvent varier sensiblement selon les types de chlorophylle. De proche en proche, cette énergie parvient jusqu’à une paire de molécules de chlorophylle, dans le centre de réaction du photosystème dont l’ultime fonction est de produire, d’un côté, les protons H+ et, de l’autre, les électrons.
Ces protons ainsi libérés peuvent alors être combinés au dioxyde de carbone (CO2) de l’air et former du glucose, un sucre vital au métabolisme de la plante et de tous les étres vivants. La réaction, qui consomme de l’eau et du CO, relargue comme déchet du dioxygène (O2).
Au fond, la conséquence la plus importante de l’apparition de la photosynthèse a été d’accroître de manière considérable la production primaire sur Terre, alors que celle-ci était initialement confinée à proximité des sources hydrothermales produisant du dihydrogène et du sulfure d’hydrogène, la photosynthèse a permis au vivant de se répandre partout à la surface du globe, pourvu que s’y trouvent de la lumière et de l’eau.
La photosynthèse capte près de six fois l’équivalent de la consommation énergétique de toute l’humanité pendant que nous relarguons des quantités invraisemblables de CO, par extraction d’énergies fossiles (35 milliards de tonnes chaque année), les organismes photosynthétiques en stockent entre 100 milliards et 115 milliards de tonnes par an sous forme de biomasse. Le joyeux club des consommateurs de CO2, comprend, outre les cyanobactéries à l’origine de la photosynthèse, d’autres bactéries, les algues et les plantes (par endosymbiose d’une cyanobactérie qui liera entièrement son destin à celui de la cellule eucaryote au fil de l’évolution, donnant naissance aux chloroplastastes).
Pourtant, le rendement de la photosynthèse demeure modeste : de l’ordre de 5 % de l’énergie lumineuse incidente est effectivement transformée en énergie chimique, soit dix fois moins que les meilleurs panneaux photovoltaïques actuels.
Viens voir un petit vert à la maison
D’autres règnes du vivant ont fait de la place à ces organismes, au bénéfice de tous les protagonistes (symbioses) ou parfois au détriment des organismes photosynthétiques. Les lichens, qui comprennent environ 20 % des espèces de champignons connues, prennent des teintes variées, qui vont du gris au jaune, à l’orange, au rouge et au vert. Dans tous les cas, ces organismes qui s’accrochent (le mot « lichen » dérive du grec leikho, lécher) sont des assemblages d’espèces auxquels les scientifiques ne cessent d’ajouter des membres.
Pendant près de cent quarante ans, on a pensé qu’il s’agissait d’une simple association entre un champignon ascomycète et une algue, avant de découvrir que la colocation pouvait être partagée avec une cyanobactérie chlorophyllienne ou fixatrice d’azote, plusieurs algues, un autre champignon (une levure basidiomycète, l’autre grand embranchement des champignons), ou encore des protistes (des eucaryotes unicellulaires) et des virus.
En résumé, les lichens sont des mini-communautés qui peuvent regrouper trois règnes du vivant, sans compter les virus ! On continue cependant de placer ces communautés au sein des champignons, car seuls ces derniers réalisent une reproduction sexuée. La grande variabilité de la coloration des lichens provient de la résultante entre les pigments exprimés par tous les colocataires.
Quand des animaux volent les chloroplastes des algues
Le règne fongique n’a pas l’exclusivité de l’endosymbiose avec les algues, tel est aussi le cas par exemple des cnidaires.
On peut citer dans cet embranchement, qui comprend notamment les coraux, l’actinie verte, une anémone que l’on trouve de la Manche à la Méditerranée. Elle héberge dans ses bras verdâtres à pointe rosée des zooxanthelles, des algues photosynthétiques. L’anémone perd sa jolie coloration en l’absence de ses hôtes et dépérit.
Le mouton de mer est une curieuse limace de mer qui présente sur son dos des excroissances fusiformes vertes à pointe rose et jaune, appelées cérates. Cette espèce asiatique, qui mesure moins d’un centimètre, vit à faible profondeur. Elle parvient à ne pas digérer immédiatement les chloroplastes des algues chlorophylliennes qu’elle avale et à les faire migrer vers ses appendices dorsaux. Si le sujet est encore débattu, il semble que ces plastes continuent d’être fonctionnels et de fournir un complément en sucres bienvenu en période de disette.
Ce processus, appelé kleptoplastie (du grec kleptes, voleur), est connu, outre chez ces gastéropodes marins, chez deux autres vers plats et chez divers eucaryotes unicellulaires (certains foraminifères, dinoflagellės, ciliés, alvéolés), chez qui les plastes demeurent fonctionnels une semaine à deux mois après l’ingestion des algues.
Parente américaine de notre salamandre tachetée avec qui elle partage notamment une livrée noire rehaussée de points jaunes (la marque aposématique qu’elle est toxique), la salamandre maculée a noué, elle aussi, un partenariat avec une algue photosynthétique : Oophila amblystomatis.
L’œuf gélatineux dans lequel se développe l’embryon présente une coloration verte causée par la prolifération de l’algue. Il a été démontré expérimentalement que ces algues ont un effet très bénéfique sur la croissance et la survie des embryons de la salamandre, probablement grâce à l’oxygène que libère l’algue tandis que celle-ci bénéficie des déchets azotés produits par le métabolisme de l’embryon. Un véritable cas de symbiose donc.
Pendant plus d’un siècle, on a pensé que les algues présentes dans les mares fréquentées par l’amphibien colonisaient les œufs, mais l’imagerie de pointe associée à la recherche de l’ADN de l’algue dans les tissus des embryons a révélé une tout autre histoire : les algues envahissent les tissus de l’embryon durant son développement, où elles semblent s’enkyster.
La salamandre adulte continue d’ailleurs de contenir ces algues en vie ralentie, bien qu’en quantité de moins en moins importante avec le temps : on retrouve en particulier dans ses voies reproductrices et les femelles semblent capables de transmettre certaines d’entre elles directement à leurs œufs ! Les scientifiques cherchent encore à comprendre comment un vertébré est parvenu dans son évolution à se laisser envahir par une algue sans provoquer une attaque en règle de son système immunitaire !
À lire aussi : Les oiseaux migrent-ils vraiment à cause du froid ? Et font-ils le même trajet à l’aller et au retour ?
Frédéric Archaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 11:42
Le « quiet fighting » au travail : les signaux préinsurrectionnels dans une entreprise du CAC 40
Texte intégral (1927 mots)
Gare aux fausses promesses. Si les salariés semblent silencieux, des mouvements souterrains sont à l’œuvre qui pourraient aboutir à une nouvelle forme d’insurrection. Après le « quiet quitting » – ou démission silencieuse, le phénomène de « quiet fighting » pointe maintenant.
Alerte pour les grandes entreprises ! Le fossé entre les discours éthiques et les réalités opérationnelles nourrit à la fois un désengagement manifeste et une confrontation silencieuse qu’il faut traiter sans délai. À côté du quiet quitting, popularisé en 2022 comme la stricte limitation au périmètre du rôle et des efforts des collaborateurs, s’installe un quiet fighting plus insidieux, attisé par un sentiment d’injustice organisationnelle que le cadre théorique de Cropanzano et Folger permet de disséquer (cf. encadré 1).
Si les deux phénomènes possèdent un point commun, un déficit de justice interactionnelle, ces deux dynamiques ne forment pas un continuum. Quand le quiet quitting abaisse l’engagement au minimum, le quiet fighting combine dissidence empêchée et silence de résignation. L’une et l’autre peuvent préparer en sourdine à une confrontation avec l’entreprise. Notre enquête, prolongeant un premier travail réalisé dans le cadre d’une thèse de doctorat, établit que « l’hypocrisie organisationnelle » perçue autour des ambitions éthiques ouvre une brèche entre les entreprises et leurs collaborateurs, qui rejettent désormais l’éthique de façade.
Inégalités « justes » ou injustices illégitimes
Deux vagues d’entretiens approfondis, en 2024 et 2025 selon la méthode des incidents critiques, ont été conduites auprès d’une cinquantaine de collaborateurs volontaires dans le cadre d’une demande faite en commission « qualité de vie au travail » du Conseil social et économique d’un grand groupe du CAC 40. Plus de 120 incidents ont été recensés, croisant la vision de décideurs RH du siège (sur des sujets éthiques, diversité/discrimination) et de salariés d’une direction territoriale au plus près des opérations. Résultat clé : la majorité des situations relève aujourd’hui de sujets de « justice interactionnelle », bien davantage que de « justice distributive » ou « procédurale », telles qu’elles ont été conceptualisées par Cropanzano & Folger.
À lire aussi : « Quiet quitting » : au-delà du buzz, ce que révèlent les « démissions silencieuses »
Dans les organisations, les inégalités entre collaborateurs ne sont ni fortuites ni anormales. Elles sont souvent assumées, voire encouragées, comme des leviers d’incitation fondés sur la différenciation des performances et la hiérarchie des positions. Aux DRH d’en expliciter la légitimité et d’en travailler l’acceptabilité aux yeux des collaborateurs. Dans ce cadre, la grille des stratégies réactionnelles (Exit, Voice, Loyalty, Neglect) proposée par le socioéconomiste Albert Hirschman reste un outil utile pour éclairer les réactions des salariés face à des situations d’insatisfaction au travail (cf. encadré 2).
De la justice à la morale
Or notre étude montre que cette grille, si utile pour repérer et gérer les réactions des collaborateurs, ne suffit plus. La nature des injustices se déplace et suscite de nouvelles stratégies réactionnelles chez les salariés. Ce ne sont plus seulement les règles ou la répartition des résultats qui sont contestées, mais l’écart entre les discours éthiques et les pratiques organisationnelles. Quand l’expérience dément la promesse, le « contrat psychologique » se fissure et la question devient morale, touchant l’identité, la dignité, et une responsabilité qui dépasse les conflits transactionnels. Notre étude montre que l’on ne « négocie » plus une injustice morale jugée illégitime ; on la refuse.
Dans ce contexte, l’approche par l’EVLN apparaît incomplète. Elle saisit justement mal la dimension morale des conflits et l’incohérence ente les politiques affichées et les pratiques. L’épreuve de réalité est amplifiée par les exigences de publication extra-financière imposée par la directive de durabilité (CSRD), la vigilance citoyenne face au diversity/social washing et, en toile de fond, la tension décrite par le juriste Alain Supiot entre l’entreprise marchandise (ius proprietatis) et l’entreprise communauté morale (ius societatis) (cf. encadré 3).
Plus une organisation revendique une raison d’être morale, plus elle doit en apporter la preuve ; sinon, la loyauté de ses collaborateurs se mue en allégeance à contrecœur, porteuse de ressentiment.
Les sources du « quiet fighting »
Depuis les ordonnances « travail » de 2017, l’affaiblissement des médiations et de « dialogue social » ouvre un espace aux minorités actives décrites par Serge Moscovici. Dans notre étude, nous constatons qu’elles sont emmenées par des femmes racisées en position de cadres intermédiaires : elles formulent des récits cohérents et assument le risque de dissidence, mais se heurtent à des procédures neutralisantes et à l’absence de relais hiérarchiques. Il en résulte une [ dissidence empêchée] qui s’appuie en partie sur les travaux de la sociologue Maryvonne David-Jougneau : une mobilisation collective inachevée, dont l’influence reste pour le moment sans effet transformateur, mais qui contribue à accroître l’expérience organisationnelle et la capacité d’agir de ces cadres et des collectifs qu’elles animent.
À l’autre pôle émerge une colère souvent masculine, silencieuse et résignée. Ancrée dans un idéal méritocratique, elle repose sur la conviction que la performance, à elle seule, devrait protéger et « parler d’elle-même », sans qu’il soit besoin de la revendiquer. Cette colère est renforcée par l’attente, souvent déçue, d’une réparation portée par la DRH. Mais lorsque les circuits correctifs internes sont lents, incertains, ou centrés sur la conformité plutôt que sur l’explication et la reconnaissance du tort, la trahison institutionnelle s’impose et l’attente des collaborateurs devient ressentiment, prémisse d’un désir de revanche à fort potentiel déstabilisateur.
Ce silence de résignation, n’est pas un signe de paix sociale : il est la traduction d’une résistance contrainte, une colère froide qui prépare la confrontation, nourrie par l’empilement de micro-injustices, la polarisation, l’usure des institutions de dialogue et l’ascension d’acteurs minoritaires déterminés. Si l’explosion n’advient pas, c’est moins par loyauté que par contraintes économiques et sociales.
Une gouvernance à revoir
À l’échelle managériale, l’exigence est claire : gouverner par la justice interactionnelle. Cette gouvernance implique de :
aligner promesses et pratiques organisationnelles ;
expliquer les décisions sensibles et prévoir des voies d’escalade claires et sûres (manager N+1/N+2 → RH/Business Partner → référent éthique → dispositif d’alerte interne), assorties de garanties explicites de protection : interdiction de toute mesure liée au signalement (blâme, sanction, rétrogradation, baisse de variable, modification de poste, mise à l’écart, licenciement), confidentialité et possibilité d’anonymat, restitution motivée ;
proposer des médiations internes crédibles (médiateur interne formé, IRP ou Employee Resource Group) et en dernier ressort, des recours externes balisés : Inspection du travail, Défenseur des droits), pour pallier la faiblesse des instances de représentation du personnel ;
installer des capteurs précoces (baromètres qualitatifs, création d’espaces de délibération protégés) pour « reconnaître et réparer vite » toute inégalité illégitime ;
intégrer des objectifs de justice interactionnelle dans la performance sociale des dirigeants ;
répondre à la demande croissante des sciences de gestion : rendre compte non seulement de la classique matérialité financière, mais également de la matérialité d’impact, (effets négatifs de l’entreprise sur les parties prenantes), confirmant l’injonction de Supiot d’un ius societatis à assumer.
Réduire l’écart entre discours et réalité
Dans le sillage des travaux de la sociologue Laure Bereni, notre conclusion est une mise en garde aux organisations qui « jouent » encore avec l’éthique. L’écart entre discours et réalités, nourri par le social/diversity washing, alimente une conflictualité dans les organisations dont l’éthique devient l’étendard.
Le quiet fighting est un signal pré-insurrectionnel. Tandis que les coûts de sortie et l’incertitude du marché rendent l’exit improbable, le quiet fighting traduit une conflictualité interne croissante plutôt que des départs : ancré dans des enjeux moraux et identitaires, il s’exprime par une résistance à bas bruit et des coalitions discrètes. Les dirigeants disposent toutefois des leviers essentiels. Ils peuvent faire preuve plutôt que promettre, légitimer plutôt qu’imposer, soigner les interactions autant que les résultats. À ce prix, le quiet fighting s’éteindra et le conflit redeviendra une ressource. Répondre par la justice interactionnelle n’est pas un supplément d’âme mais une condition de viabilité sociale et économique et, désormais, un test décisif de crédibilité et de légitimité managériales.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.12.2025 à 11:41
Quand le management a fait des États-Unis une superpuissance
Texte intégral (3245 mots)

Une étude internationale, impliquant des chercheurs français, états-uniens et brésiliens, a mis au jour une histoire méconnue. Des années 1920 aux années 1960, le management a contribué à faire des États-Unis la puissance hégémonique que l’on connaît aujourd’hui. Son « momentum » : la Seconde Guerre mondiale. Ses armes : les managers formés dans les grandes écoles, les outils d’aide à la décision et la technostructure de l’État fédéral.
Explorer des archives, c’est évoluer dans un monde à la fois silencieux et étrange vu d’aujourd’hui. Comme l’explique l’historienne Arlette Farge dans son livre le Goût de l’archive (1989), le travail de terrain des historiens est souvent ingrat, fastidieux, voire ennuyeux. Puis au fil de recoupements, à la lumière d’une pièce en particulier, quelque chose de surprenant se passe parfois. Un déclic reconfigurant un ensemble d’idées.
C’est exactement ce qui est arrivé dans le cadre d’un projet sur l’histoire du management états-unien (HIMO) débuté en 2017, impliquant une douzaine de chercheurs français, états-uniens et brésiliens.
Notre idée ? Comprendre le lien entre l’histoire des modes d’organisation managériaux du travail et les épisodes de guerre aux États-Unis. D’abord orientée vers le XXe siècle, la période d’étude a été resserrée des années 1920 à la fin des années 1960, avec comme tournant la Seconde Guerre mondiale.
Du taylorisme au management
Au début de notre recherche en 2017, nous nous sommes demandé ce qui guidait cette métamorphose du management des années 1920 aux années 1960.
Au commencement était le taylorisme. On attribue à l’ingénieur américain Frederick Winslow Taylor (1856-1915) l’invention d’une nouvelle organisation scientifique du travail dans The Principles of Scientific Management. Ce one best way devient la norme. Au cœur de cette division du travail, la mutation des rôles des contremaîtres est essentielle.
Leur fonction est d’abord de s’assurer à la fois de la présence des ouvriers et du respect des gestes prescrits par les dirigeants. Avec le management, une révolution copernicienne est en marche. Les contremaîtres sont progressivement remplacés par les techniques de management elles-mêmes. Le contrôle se fait à distance, et devient de l’autocontrôle. Des outils et des systèmes d’information sont développés ou généralisés, comme les pointeuses. Peu à peu, toutes ces informations sont connectées à des réseaux… qui dessinent ce qui deviendra des réseaux informatiques. L’objectif : suivre l’activité en temps réel et créer des rapports à même d’aider les managers dans leur prise de décision.
Outils de gestion de projet
C’est ce que la philosophie nomme le représentationnalisme. Le monde devient représentable, et s’il est représentable, il est contrôlable. Sur un temps long, de nombreux outils de gestion de projet sont créés comme :
le diagramme de Gantt, formalisé et diffusé dans les années 1910 par l’ingénieur du même nom, afin de visualiser dans le temps les diverses tâches ;
le Program Evaluation and Review Technic (PERT), élaboré dans les années d’après-guerre pour analyser et représenter les tâches impliquées ;
ou les Key Performance Indicators (KPI), des indicateurs utilisés pour l’aide à la décision.
Nombre de ces techniques ou standards de management ont une genèse américaine comme l’ont montré notamment les travaux de Locke et Spender, Clegg, Djelic ou D’Iribarne. Des années 1910 aux années 1950, une importance croissante est accordée à la visualisation des situations.
À lire aussi : Les origines néolibérales de la mondialisation : retour sur l’émergence d’un ordre géopolitique aujourd’hui menacé
Notre intuition d’une obsession pour la représentation s’est affinée avec l’exploration d’archives liées aux réseaux du management, de l’Academy of Management, l’American Management Association, et la Society for Advancement of Management.
Management de l’armée
Dans son introduction de la conférence de l’Academy of Management de 1938, l’économiste Harlow Person, acteur clé de la Taylor Society, revient sur le rôle joué par la visualisation. Concrètement, une mission d’amélioration des processus administratifs est réalisée pour l’armée américaine durant la Première Guerre mondiale. L’organisation scientifique du travail déploie plus que jamais ses outils au-delà des chiffres et du texte.
Pendant la Seconde Guerre mondiale, l’obsession pour la représentation est au cœur de la stratégie militaire des États-Unis, en synergie vraisemblablement avec le management. Par exemple, la carte d’état-major doit représenter la situation la plus fidèle possible au champ de bataille. Chaque drapeau, chaque figurine représentant un bataillon ami ou ennemi, doit suivre fidèlement les mouvements de chacun lors du combat. Toutes les pièces évoluant en temps réel permettent au généralissime de prendre les meilleures décisions possibles.
Mise en place d’une technostructure par Franklin Roosevelt
Un président des États-Unis incarne cette rupture managériale dans la sphère politique : Franklin Roosevelt. Secrétaire assistant à la Navy dans sa jeunesse, il assimile l’importance des techniques d’organisation dans les arsenaux maritimes de Philadelphie et New York, pour la plupart mis en œuvre par les disciples de Frederick Winslow Taylor.
Après la crise de 1929, la mise en place de politiques centralisées de relance a pour conséquence organisationnelle d’installer une technostructure. Plus que jamais, il faut contrôler et réguler l’économie. Un véritable État fédéral prend naissance avec la mobilisation industrielle initiée dès 1940.
Lorsque le New Deal est mis en place, Franklin Roosevelt comprend que le management peut lui permettre de changer le rapport de force entre pouvoir exécutif et pouvoir législatif. Progressivement, il oppose la rationalité de l’appareil fédéral et son efficience à la logique plus bureaucratique incarnée par le Congrès. Concrètement, les effectifs de la Maison Blanche passent de quelques dizaines de fonctionnaires avant la Seconde Guerre mondiale à plus de 200 000 en 1943.
Le président des États-Unis dispose désormais de l’appareil nécessaire pour devenir « l’Arsenal de la démocratie », à savoir l’appareil productif des Alliés. Cette transformation contribue à faire des États-Unis la première puissance militaire mondiale au sortir de la Seconde Guerre mondiale, alors qu’elle n’était que 19e avant son commencement.
Standardisation mondiale par le management
Au-delà d’une obsession nouvelle pour la représentation tant organisationnelle que politique, la seconde dimension mise en lumière par cette recherche sur l’histoire du management est plus inattendue. Elle porte sur la mise en place d’une véritable géopolitique états-unienne par le management. Notre travail sur archive a permis de mieux comprendre la genèse de cette hégémonie américaine.
La standardisation des formations au management, en particulier par des institutions telles que la Havard Business School, a contribué subtilement à cette géopolitique américaine. Tout le développement de la connaissance managériale se joue sur le sol des États-Unis et l’espace symbolique qu’il étend sur le reste du monde, du MBA aux publications académiques, dont les classements placent aujourd’hui systématiquement les revues états-uniennes au sommet de leur Olympe.
Il en va de même pour le monde des cabinets de conseil en management de l’après-guerre, dominé par des structures américaines, en particulier pour la stratégie. En 1933, le Glass-Steagall Act impose aux banques la séparation des activités de dépôt de celles d’interventions sur les marchés financiers et de façon connexe, et leur interdit d’auditer et de conseiller leurs clients. Cela ouvre un espace de marché : celui du conseil externe en management, bientôt dopé par la mobilisation industrielle puis la croissance d’après-guerre.
Des cabinets se développent comme celui fondé par James McKinsey en 1926, professeur de comptabilité à l’université de Chicago. Son intuition : les entreprises souffrent d’un déficit de management pour surmonter la Grande Dépression et croître après la Seconde Guerre mondiale. De nombreux cabinets suivent cette tendance comme le Boston Consulting Group créé en 1963.
Près de 500 000 blessés industriels
Un des points les plus frappants de notre recherche est la conséquence du management sur le corps pendant le momentum de la Seconde Guerre mondiale. Plus de 86 000 citoyens des États-Unis meurent dans les usines entre 1941 et 1945, 100 000 sont handicapés sévères et plus de 500 000 sont blessés au travail.
Une partie de nos archives sur le Brooklyn Navy Yard de New York l’illustre tristement. Dans le silence, chacun et chacune acceptent une expérience de travail impossible en considérant que leur fils, leur maris, leurs neveux, leurs amis au combat vivaient des situations certainement bien pires. Le management se fait alors patriote, américain et… mortifère.
Au final, les managers ont continué à taire une évidence tellement visible qu’on ne la questionne que trop peu : celle de l’américanité de ce qui est également devenu « nos » modes d’organisation. Au service d’une géopolitique américaine par le management.
Le projet de recherche HIMO (History of Instittutional Management & Organization) mentionné dans cet article a reçu des financements du PSL Seed Fund, de QLife et des bourses de mobilité de DRM.
15.12.2025 à 11:41
Cinq proverbes qui façonnent notre vision du management
Texte intégral (2480 mots)

« À chaque jour suffit sa peine », « Rendre à César ce qui est à César », « Que chacun balaie devant sa porte », « À l’impossible nul n’est tenu », « Aide-toi et le ciel t’aidera », ces cinq proverbes irriguent notre quotidien et notre vie au travail. Que disent-ils de notre façon de concevoir le management ?
« À chaque jour suffit sa peine »
Le proverbe trouve son origine dans l’Évangile de Jésus-Christ selon saint Matthieu.
Bien sûr, le manager qui ne chercherait pas à anticiper ne remplirait pas totalement son rôle. Mais réaffirmer que chaque journée est en soi une fin, qu’il ne faille pas empiler les difficultés probables ou à venir, est aussi une manière de les traiter dans l’ordre, sans s’y perdre et sans perdre son équipe. Pour le dire autrement, il y a une gestion des temporalités qui nous invite à qualifier et requalifier, sans cesse et avec exigence, les urgences, en les distinguant de ce qui est important – comme nous invite la matrice d’Eisenhower.
Par exemple, la gestion inadaptée des courriels, qui sont pourtant, comme le rappelle la chercheuse en sciences de l’information et de la communication Suzy Canivenc, des outils de communication asynchrone (en dehors du temps réel), illustre notre incapacité à bien gérer notre temps.
Le rôle d’un manager n’est pas nécessairement de tout traiter, de tout lire, d’apporter à toute demande une réponse, de décider de tout. Un temps de germination peut être le bienvenu pour, tout à la fois, laisser se dissoudre d’elles-mêmes certaines requêtes (l’émetteur ayant trouvé la réponse par lui-même ou par une autre voie), voire, qu’une posture managériale souhaitable est précisément de ne pas donner réponse ou audience à tout.
Laisser « reposer à feu doux » un sujet problématique est une façon de ne pas traiter dans l’urgence, et de s’ôter le stress associé. S’en remettre au lendemain, c’est alors faire confiance à cette part de nous-mêmes qui, même au repos, fait que notre cerveau continue à œuvrer.
« Rendre à César ce qui est à César »
Cet emprunt à l’Évangile selon saint Luc pourrait nous inspirer cette réflexion : que chacun se contente de s’attirer les louanges qu’il mérite, sans éprouver le besoin de s’approprier celles d’autrui.
Si la reconnaissance est un enjeu majeur, il semble hélas que nombre d’organisations ont « la mémoire courte ». Elles oublient d’où elles viennent, ce qu’elles ont entrepris, et à qui elles le doivent. Les inspirateurs, les pionniers, les innovateurs ou les transformateurs n’ont pas toujours la reconnaissance qu’ils méritent. Prendre le temps de remercier, aussi, le concours d’un service support (l’informatique, les achats ou la communication), sans lequel un projet n’aurait pu être mené à bien, peut figurer ici.
Si l’on admet avec Adam Smith dans la Théorie des sentiments moraux et Axel Honneth dans la la Lutte pour la reconnaissance, que la reconnaissance est l’un des moteurs de nos vies, alors il convient de garder la trace, de n’oublier aucune contribution dans une réussite qui ne peut, jamais, être le fruit d’une seule entité et d’une seule personne.
« Que chacun balaie devant sa porte et les rues seront nettes »
L’exemplarité, comme le précise la professeure en comportement organisationnel Tessa Melkonian, invite à la congruence. Soit cet alignement entre ce que je dis, ce que je fais et ce que je communique de façon explicite et implicite. Un manager est reconnu pour sa capacité à incarner les valeurs et les postures attendues de chacun, à montrer la voie quand une décision nouvelle doit s’appliquer au collectif de travail.
De même, avant de prononcer une critique, il doit veiller à ce que sa propre pratique ne puisse faire l’objet d’une semblable observation. Devoir être exemplaire en tout requiert de l’énergie, de l’attention, de la constance. C’est une discipline, sans laquelle l’exigence devient un vœu pieux. Mais elle fonctionne dans une logique de réciprocité : ses collaborateurs doivent pouvoir eux-mêmes démontrer leur exemplarité avant de l’exposer à leurs propres critiques.
« À l’impossible nul n’est tenu »
Certaines missions, certaines tâches, excèdent les capacités d’une personne ou d’un collectif. Il est essentiel de le rappeler, dans une époque marquée par la quête de l’exploit et les logiques de « performance ».
Dans ce contexte, oser dire que l’échéance n’est pas tenable, sauf à dégrader la qualité des tâches (ce qui, dans certaines circonstances, peut parfaitement être audible), témoigne plutôt d’une forme de courage. Cette posture implique des contre-propositions, une voie de sortie, et non seulement une fin de non-recevoir.
Le droit à l’erreur prend ici toute sa place. Reconnaître aux équipes et se reconnaître ce même droit en tant que leader, comme nous y invite Tessa Melkonian, c’est l’un des marqueurs de l’époque. Comment rassurer une équipe sur ce droit si le manager lui-même ne sait pas évoquer ses propres échecs et ne s’autorise par des essais-erreurs ?
Il s’agit bien d’oser dire que l’on s’est trompé, que l’on a le droit de se tromper, mais le devoir de réparer, et, surtout, de ne pas reproduire la même erreur. Ici, plus qu’ailleurs peut-être, l’exemplarité managériale aurait un impact fort : entendre un dirigeant reconnaître publiquement une erreur pourrait faire beaucoup. L’ouvrage Un pilote dans la tempête, paru récemment, de Carlos Tavares, l’ancien PDG de Stellantis, constitue un témoignage éloquent de cette absence de remise en question – notamment pour ce qui concerne les décès dus aux dysfonctionnements de certains airbags.
« Aide-toi, le ciel t’aidera »
Ce proverbe popularisé par Jean de La Fontaine dans le Chartier embourbé introduit la notion de care en management. Issue des travaux pionniers de la psychologue Carol Gilligan, cette forme d’éthique nous invite à considérer les relations entre humains à travers le prisme de la vulnérabilité, de facto du soin, reçu et prodigué.
Comme nous le dit le philosophe Éric Delassus :
« L’incapacité à assumer sa vulnérabilité est la cause d’un grand nombre de difficultés dans le monde du travail, tant pour les managers que pour les managés. […] Qu’il s’agisse de difficulté propre au travail ou concernant la compatibilité entre vie professionnelle et vie personnelle ou familiale, on n’ose en parler ni à ses pairs ni à ses supérieurs de peur de passer pour incompétent, pour faible ou incapable. […] Alors, qu’en revanche, si chacun percevait sa propre vulnérabilité et celle des autres avec une plus grande sollicitude, personne n’hésiterait à demander de l’aide et à aider les autres. »
Il s’agit bien d’oser, simplement, requérir l’aide d’un collègue. En entreprise, demander un soutien demeure complexe. L’éthique du care nous ouvre une perspective inédite et bienvenue : aide ton prochain et réciproquement, sollicite son aide. Car l’autre ne m’aidera que si je lui permets de le faire, si j’accepte donc de me révéler dans toute ma vulnérabilité.
Benoît Meyronin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 11:40
Il n’est pas possible de gérer un club sportif professionnel comme une entreprise : voici pourquoi !
Texte intégral (1863 mots)
Même si l’argent joue un rôle important dans le sport de haut niveau, la gestion d’un club sportif, ni vraiment différent ni vraiment semblable à une autre entreprise, obéit à des contraintes particulières. Les raisons ne manquent pas pour expliquer pourquoi leur management ne peut être identique.
Du fait de la professionnalisation de l’univers du sport, la gestion d’un club sportif professionnel (CSP) semble tout à fait comparable à celle d’une entreprise. En France, dans les années 1990-2000, Anny Courtade, à la fois PDG de Locasud (la centrale d’achat des magasins Leclerc dans le sud-est de la France) et du Racing Club de Cannes (volley-ball féminin) a par exemple souvent été présentée comme un brillant exemple de réussite combinée.
Au vu de cet exemple, le transfert de compétences semble assez simple : il faut s’inspirer des facteurs clés de succès existants dans le monde des affaires, en s’adaptant à l’environnement du sport. Et pourtant… Nombreux sont, à l’inverse, les chefs d’entreprise (Laurent Tapie, Laurent Platini, Peter Lim…) qui ont brillamment réussi dans leurs activités professionnelles mais qui ont échoué dans le domaine sportif. Un argument souvent avancé pour expliquer ces échecs est l’aveuglement qui serait lié à la passion conduisant à des problèmes de gouvernance. Notre vision des choses est quelque peu différente pour les sports collectifs.
Des contraintes différentes
Si le management d’un club sportif professionnel (CSP) ne peut pas emprunter les mêmes voies qu’une entreprise classique, c’est d’abord parce que ces deux types d’organisation ne se ressemblent pas autant qu’il pourrait sembler de premier abord.
Les contraintes à gérer sont très différentes, à commencer par le cadre juridique. Si, comme toutes les entreprises, les CSP peuvent choisir des statuts juridiques (SASP ou SARL sportives), ils doivent aussi créer une association sportive pour être affiliés à leur fédération de tutelle. Un lien de dépendance en résulte, notamment en cas de conflit entre l’association et la société commerciale. Cette délégation obligatoire de l’activité professionnelle leur est imposée par le Code du sport (article 2 122-1 et suivants) qui diffère du code de commerce sur de nombreux points. Les modes de régulation sont aussi différents.
Une action scrutée par les supporters
Une autre divergence cruciale concerne l’exposition médiatique : faible pour la majorité des chefs d’entreprise, elle est très forte pour les dirigeants des CSP. Cela produit des obligations très éloignées. À la différence d’un chef d’entreprise qui communique rarement auprès d’un large public mais plutôt auprès d’acteurs ciblés (collaborateurs, actionnaires, fournisseurs, clients…), les décisions, les déclarations, les réactions d’un président de CSP sont scrutées en permanence et peuvent générer de nombreuses crises (médiatiques, avec les supporters, les partenaires…).
À lire aussi : Pernod Ricard et le PSG : quand le territoire se rappelle à l’entreprise
Par répercussion, les horizons temporels de l’action s’opposent : de très court-terme pour un président de CSP, plus lointain pour un chef d’entreprise. Ces différences influent sur leur notoriété, leur popularité, leurs relations avec les parties prenantes et donc leurs motivations. Souvent inconnues du grand public, celles-ci finissent souvent par transparaître et donc par avoir des conséquences sur la légitimité des uns et des autres. Les chefs d’entreprise tirent leur légitimité de leur efficacité économique et de la confiance inspirée aux investisseurs. Celle des présidents de CSP repose sur une combinaison beaucoup plus fragile entre légitimité institutionnelle, populaire, sportive et même souvent symbolique.
La majorité des CSP ambitionnent de maximiser leurs résultats sportifs (se maintenir dans la division dans laquelle ils évoluent, participer aux compétitions européennes) sous contrainte économique (du fait de leur budget ou des décisions des instances de régulation. Les entreprises cherchent à maximiser leurs résultats économiques en prenant en compte les contraintes réglementaires des pays où ils sont implantés.
Un rapport différent à l’incertitude
Indirectement, cela produit un rapport différent à l’incertitude. Les chefs d’entreprise mobilisent des techniques pour la limiter. Les présidents de CSP font de même dans leur gestion courante mais souhaitent la voir perdurer au niveau sportif – on parle même de la glorieuse incertitude du sport- pour maintenir l’intérêt des compétitions et donc des spectacles sportifs.
Autre différence : les marchés sur lesquels interviennent les entreprises sont le plus souvent libres et ouverts, les marchés sur lesquels évoluent les CSP sont davantage encadrés. L’existence de ces réglementations résulte en partie de la nature de la production : elle est jointe. Un CSP ne peut pas produire seul une rencontre sportive, il faut a minima deux équipes pour un match. Cela implique, obligatoirement, une forme de coopération entre les concurrents alors que les entreprises peuvent librement décider de leur stratégie.
La pression des résultats
Ces différences induisent que le management des unes et des autres ne peut pas être le même. Au niveau stratégique, la première différence, concerne la temporalité. Pour les chefs d’entreprise, l’horizon est le moyen ou long terme ; pour les présidents de CSP la saison sportive, soit plus qu’un trimestre. Dans ce domaine, la nature même de l’activité impose une gestion temporelle réactive avec de fréquents ajustements en fonction des blessures, des résultats, de l’évolution de l’effectif.
À l’inverse, dans de nombreuses entreprises, la notion de planification conserve un intérêt. Plus précisément, dans les CSP la diversification, est la seule option envisageable, la stratégie volume/coût étant hors de portée puisqu’il n’est pas possible d’augmenter de façon importante le nombre de matchs joués, ni de réduire drastiquement les coûts de fonctionnement, la majorité d’entre eux étant fixes.
En ce qui concerne le marketing et la gestion commerciale, si la majorité des entreprises définissent et choisissent un positionnement, peu de CSP le font. Les déterminants de l’image de marque diffèrent sur de nombreux points. Il en va de même des déterminants de la valeur perçue et donc indirectement de l’attractivité.
Le poids de l’histoire
Beaucoup plus que dans les entreprises, l’histoire du club joue un rôle dans la perception de la valeur de la marque par les « clients-fans », valeur difficile à apprécier. Les « expériences client » divergent également : elles sont « classiques » dans les entreprises ; dans les CSP « immersives ». Les interactions qui apparaissent entre les fans d’un club (simples spectateurs, supporters, partenaires, élus..) sont primordiales. Ces interactions n’existent quasiment pas dans les entreprises.
Du fait du caractère aléatoire de l’activité de « spectacle sportif », les CSP ont des difficultés pour obtenir d’importants concours bancaires. D’autres sources de financement doivent être recherchées. Trois se dégagent clairement :
la commercialisation de nombreux droits (entrés, TV, image, exposition, appellation, numériques) ;
l’apport en compte courant d’actionnaires ;
à cela s’ajoute pour le football, le trading joueurs soit la pratique consistant à vendre une partie des actifs immatériels détenus par les clubs, c’est-à-dire, certains joueurs « sous contrat ».
En dépit du recours à ces possibilités, l’équilibre budgétaire n’est pas toujours atteint en fin de saison dans les CSP. L’une des causes principales, qui distingue fondamentalement ce secteur de la majorité des autres, réside à la fois dans l’importance des coûts salariaux et dans leur caractère quasiment incompressibles.
Des RH sous contraintes
Pour ce qui est des ressources humaines, les mutations reposent sur des principes différents. Tout d’abord en ce qui concerne l’agenda : possible à tout moment dans l’entreprise, limitées à des périodes précises (mercato) dans les CSP. Les sommes engagées diffèrent également. Dans les entreprises, elles sont plus ou moins explicitement déterminées par des « grilles », dans les CSP elles sont le fruit d’âpres négociations.
Par ailleurs, dans les premières, le plus souvent la décision est prise par l’employeur. Elle l’est fréquemment par les joueurs dans les CSP, ce qui confronte les présidents de club à un dilemme spécifique : faut-il « laisser filer » le joueur au risque d’affaiblir l’équipe ou, au contraire, faut-il le conserver dans l’effectif contre sa volonté, au risque qu’il soit moins performant ?
La question des rémunérations se pose également dans des termes distincts, les possibilités de mesure de la productivité, l’influence de la médiatisation et le rôle des agents de joueurs en étant les principales explications.
Patrice Bouvet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.12.2025 à 17:59
Airbus : D’où vient la panne qui a conduit l’entreprise à immobiliser des milliers d’avions ?
Texte intégral (2103 mots)
Fin octobre, Airbus demande aux compagnies aériennes de maintenir au sol 6 000 A320, à la suite d’un incident survenu en vol. L’entreprise l’explique par une mise à jour logicielle qui serait plus sensible aux rayonnements cosmiques. Si ce genre de problèmes existe, ils sont cependant détectés immédiatement en temps normal.
Le 30 octobre dernier, un vol de Cancún vers le New Jersey de la compagnie JetBlue a rapidement chuté en plein vol, avant que les pilotes puissent rétablir sa trajectoire, au bout de quelques secondes. Après un atterrissage en urgence en Floride, quelques passagers ont reçu des soins. À la suite de cet incident, Airbus a dû changer en urgence un logiciel de pilotage dans 6000 appareils de la famille A320. On a évoqué une « perturbation par une particule isolée » et le rôle des éruptions solaires. Qu’en est-il ?
Le palliatif proposé par Airbus est de faire revenir la version de certains logiciels de pilotage à une version antérieure. Sur les forums spécialisés, on spécule sur les causes techniques de ce dysfonctionnement, sur d’éventuelles fonctionnalités ajoutées entre ces deux versions, qui seraient insuffisamment protégées contre les effets que des rayonnements cosmiques peuvent avoir dans les composants informatiques. Il vaut mieux, toutefois, attendre le rapport officiel de l’enquête sur l’incident. En attendant, nous pouvons revenir sur l’explication invoquée et en quoi elle peut surprendre.
Les rayons cosmiques, ennemis de nos systèmes électroniques
La Terre est en permanence bombardée par des particules venant de l’espace – du Soleil ou de corps plus lointains. La plupart de ces particules sont déviées par le champ magnétique terrestre, une autre partie est absorbée ou transformée par l’atmosphère, mais certaines d’entre elles peuvent atteindre la surface terrestre. Elles forment une partie de la radioactivité naturelle, et sont plus abondantes en périodes d’éruption solaire.
Ces particules arrivant de l’espace ont des effets variés. Dans les régions polaires, moins protégées par le champ magnétique terrestre, elles provoquent de magnifiques aurores dans le ciel de nuit. On leur attribue également les flashes lumineux que les astronautes perçoivent dans leurs yeux. Comme il s’agit de rayonnements ionisants, les particules reçues peuvent avoir des effets sur la santé. Ainsi, Thomas Pesquet, en six mois de séjour dans la station spatiale internationale, a bien dépassé le quota annuel maximum d’exposition aux radiations permis pour un travailleur français.
Les particules issues de l’espace peuvent provoquer des dysfonctionnements dans les circuits électroniques. Par exemple, dans les années 1990, des composants électroniques de puissance, notamment conçus pour des trains, grillaient pour des raisons mystérieuses. Pour trier parmi les diverses hypothèses envisagées, on a essayé ces composants à la surface et dans une mine de sel, sous 140 mètres de roche : les problèmes ne se produisaient pas dans la mine ! Une fois le problème identifié, on a pu concevoir des composants et des modes d’utilisation beaucoup moins vulnérables.
Qu’est-ce qu’une perturbation par une particule isolée ?
Il est plus courant que, plutôt que de griller un composant, les particules modifient une donnée qui y est stockée. Les ordinateurs retiennent les informations sous forme de 0 et de 1, et une particule peut provoquer le basculement d’un 0 en 1 ou l’inverse, ce qu’on appelle une « perturbation par une particule isolée », ou single event upset en anglais.
En 2003, dans la commune belge de Schaerbeek, une liste a obtenu lors d’une élection un excès de précisément 4 096 voix, ce qui correspond exactement au basculement d’un 0 en 1 à l’intérieur d’un nombre écrit en binaire. Un tel basculement s’expliquerait par un single event upset.
Bien évidemment, et notamment pour les applications aérospatiales, particulièrement exposées, on a développé des parades. Certaines parades sont matérielles : par exemple, les mémoires vives peuvent être munies de codes correcteurs d’erreurs fondés sur du matériel spécifique pour coder et décoder très rapidement. C’est habituellement le cas de la mémoire vive des serveurs, les machines qui stockent des données dans les data centers, mais pas des ordinateurs de bureau ou des portables, du fait de leur coût. Ces codes permettent de corriger à coup sûr certaines erreurs et, dans d’autres cas, d’au moins signaler qu’il s’est passé quelque chose d’incorrect.
D’autres parades sont logicielles : procéder régulièrement à certaines vérifications, dupliquer des données à conserver sur de longues durées, éviter de garder trop longtemps des données dans des mémoires vulnérables, enregistrer certaines informations importantes d’une façon telle que le basculement d’un chiffre fournit une valeur absurde, donc détectable… Les possibilités sont nombreuses. Il y a par ailleurs des protocoles de test, y compris consistant à placer les circuits dans le faisceau d’un accélérateur de particules (grand instrument de sciences physiques).
Des commandes de vol électriques touchées par une panne
Voyons maintenant les implications pour l’aviation. La transmission des ordres des pilotes de ligne à leurs gouvernes, les parties mobiles de l’avion qui permettent de contrôler sa trajectoire, se faisait historiquement par des systèmes de câbles, de poulies ou de circuits hydrauliques assez compliqués. Il faut en plus assurer la redondance, c’est-à-dire prévoir plusieurs modes de transmission en cas de panne. Depuis les années 1980, les nouveaux modèles d’avions utilisent des commandes de vol électriques, c’est-à-dire que ces transmissions mécaniques sont remplacées par des câblages et des calculateurs électroniques.
Ces calculateurs diminuent la charge de pilotage (ils automatisent des actions que les pilotes devraient sinon faire manuellement) et augmentent ainsi la sécurité. Ils peuvent vérifier si les pilotes commandent une manœuvre qui sortirait l’avion du domaine des manœuvres qu’il peut faire en sécurité, et peuvent par exemple prévenir le décrochage. La panne qui a valu le rappel des avions Airbus concerne un calculateur appelé ELAC, qui commande les élévateurs et les ailerons, qui sont respectivement des gouvernes situées sur le stabilisateur arrière de l’avion et sur l’arrière du bout des ailes.
Les commandes de vol sont particulièrement sécurisées
Un point qui peut tout d’abord nous rassurer est que les problèmes de particules venues de l’espace se produisent plutôt à haute altitude, lorsqu’il y a moins d’atmosphère protectrice, alors que les étapes les plus dangereuses dans un vol sont plutôt le décollage et l’atterrissage. Ceci n’excuse cependant pas le dysfonctionnement constaté. Voyons un peu pourquoi ce problème n’aurait pas dû se produire.
Les calculateurs informatisés d’aviation civile sont classés, suivant les standards internationaux de l’aviation civile, en cinq niveaux de criticité, selon la sévérité des conséquences possibles d’un dysfonctionnement : du niveau A, où un dysfonctionnement peut provoquer une catastrophe aérienne, au niveau E, où il n’y aurait pas de conséquences pour la sécurité de l’aéronef. Les commandes de vol électriques sont du niveau A, elles sont donc soumises aux normes les plus sévères. On peut donc raisonnablement supposer que les commandes de vol des A320 sont équipées de mécanismes de détection et/ou de remédiation de dysfonctionnements, y compris dus aux radiations.
Sur les Airbus A330/A340, par exemple, il existe deux niveaux de commande de vol, primaires et secondaires. Il y a trois boîtiers de commandes primaires, et lorsqu’un boîtier a subi un problème, il est temporairement désactivé – ce n’est pas grave, car il en a deux autres pour le relayer. S’il y avait un problème générique sur les commandes primaires, on pourrait fonctionner avec les commandes secondaires, qui utilisent d’autres types de composants.
Chaque boîtier de commande de vol primaire consiste en deux calculateurs, l’un qui commande les gouvernes, l’autre qui surveille celui qui commande – ils doivent produire environ les mêmes résultats, sinon le système détecte que quelque chose ne va pas. Normalement, sur un tel système, en cas de dysfonctionnement d’un des calculateurs, le problème est rapidement détecté, le boîtier est désactivé, on passe sur un autre et une chute comme celle qui s’est passée en octobre est impossible.
Pourquoi les systèmes n’ont-ils pas détecté le problème ?
J’ai personnellement travaillé sur l’analyseur statique Astrée, un outil destiné à vérifier que des logiciels de contrôle ne se mettent jamais dans des situations d’erreur. Il a notamment été utilisé par Airbus sur ses commandes de vol électriques. J’ai eu l’occasion, au fil des années, d’apprécier le sérieux et la volonté de cette société de se doter d’approches à la pointe de l’état de l’art en matière de technologies logicielles, notamment de vérification formelle.
Plus récemment, j’ai également travaillé sur des contre-mesures à des erreurs de fonctionnement informatique provoquées volontairement à l’aide de rayonnements électromagnétiques. Il existe en effet la possibilité que des personnes induisent volontairement des pannes afin de les exploiter dans un but frauduleux, c’est donc nécessaire de travailler à prévenir ces tentatives pour des cartes à puce et d’autres équipements sécurisés.
L’hypothèse qu’il s’agisse bien d’une perturbation par une particule isolée reste plausible, mais il est surprenant qu’il ait fallu plusieurs secondes pour traiter le problème. Le système de sécurité du boîtier de commande affecté par l’irradiation aurait dû détecter l’incident, le boîtier touché aurait dû être automatiquement désactivé et l’avion basculé sur un autre, en secours. Il faut donc attendre d’autres éléments pour déterminer si c’est la bonne explication, et comment cela a pu alors se produire, ou si d’autres scénarios sont à envisager.
David Monniaux a reçu des financements de l'ANR (PEPR Cybersécurité). En tant que co-développeur de l'analyseur Astrée, il touche une prime d'intéressement à la valorisation de ce logiciel, donc à ses ventes.
14.12.2025 à 17:58
Changer les algorithmes des réseaux sociaux suffit à réduire l’hostilité politique
Texte intégral (1107 mots)

Les fils d’actualité des réseaux sociaux sont conçus pour capter notre attention. Mais de simples ajustements dans les algorithmes qui les sous-tendent permettent d’apaiser le débat public.
Réduire la visibilité des contenus polarisants dans les fils d’actualité des réseaux sociaux peut diminuer de manière tangible l’hostilité partisane. Pour parvenir à cette conclusion, mes collègues et moi avons développé une méthode permettant de modifier le classement des publications dans les fils d’actualité, une opération jusque-là réservée aux seules plateformes sociales.
Le réajustement des fils pour limiter l’exposition aux publications exprimant des attitudes anti-démocratiques ou une animosité partisane a influencé à la fois les émotions des utilisateurs et leur perception des personnes ayant des opinions politiques opposées.
Je suis chercheur en informatique spécialisé dans l’informatique sociale, l’intelligence artificielle et le web. Comme seules les plateformes de réseaux sociaux peuvent modifier leurs algorithmes, nous avons développé et rendu disponible un outil web open source permettant de réorganiser en temps réel les fils d’actualité de participants consentants sur X, anciennement Twitter.
S’appuyant sur des théories des sciences sociales, nous avons utilisé un modèle de langage pour identifier les publications susceptibles de polariser les utilisateurs, par exemple celles prônant la violence politique ou l’emprisonnement des membres du parti adverse. Ces publications n’étaient pas supprimées ; elles étaient simplement classées plus bas dans le fil, obligeant les utilisateurs à défiler davantage pour les voir, ce qui a réduit leur exposition.
Nous avons mené cette expérience pendant dix jours, dans les semaines précédant l’élection présidentielle américaine de 2024. Nous avons constaté que limiter l’exposition aux contenus polarisants améliorait de manière mesurable ce que les participants pensaient des membres du parti adverse et réduisait leurs émotions négatives lorsqu’ils faisaient défiler leur fil d’actualité. Fait notable, ces effets étaient similaires quel que soit le parti politique, ce qui suggère que l’intervention bénéficie à tous les utilisateurs, indépendamment de leur affiliation.
Pourquoi c’est important
Une idée reçue veut que l’on doive choisir entre deux extrêmes : des algorithmes basés sur l’engagement ou des fils purement chronologiques. En réalité, il existe un large éventail d’approches intermédiaires, selon les objectifs pour lesquels elles sont optimisées.
Les algorithmes de fil d’actualité sont généralement conçus pour capter votre attention et ont donc un impact significatif sur vos attitudes, votre humeur et votre perception des autres. Il est donc urgent de disposer de cadres permettant à des chercheurs indépendants de tester de nouvelles approches dans des conditions réalistes.
Notre travail ouvre cette voie : il montre comment étudier et prototyper à grande échelle des algorithmes alternatifs, et démontre qu’avec les grands modèles de langage (LLM), les plateformes disposent enfin des moyens techniques pour détecter les contenus polarisants susceptibles d’influencer les attitudes démocratiques de leurs utilisateurs.
Quelles autres recherches sont menées dans ce domaine
Tester l’impact d’algorithmes alternatifs sur des plateformes actives est complexe, et le nombre de ces études n’a augmenté que récemment.
Par exemple, une collaboration récente entre des universitaires et Meta a montré que passer à un fil chronologique n’était pas suffisant pour réduire la polarisation. Un effort connexe, le Prosocial Ranking Challenge dirigé par des chercheurs de l’Université de Californie à Berkeley, explore des alternatives de classement sur plusieurs plateformes pour favoriser des résultats sociaux positifs.
Parallèlement, les progrès dans le développement des LLM permettent de mieux modéliser la façon dont les gens pensent, ressentent et interagissent. L’intérêt croît pour donner davantage de contrôle aux utilisateurs, en leur permettant de choisir les principes qui guident ce qu’ils voient dans leur fil – par exemple avec Alexandria, une bibliothèque des valeurs pluralistes ou le système de réorganisation de fil Bonsai. Les plateformes sociales, telles que Bluesky et X, s’orientent également dans cette direction.
Et après
Cette étude n'est qu'un premier pas vers la conception d’algorithmes conscients de leur impact social potentiel. De nombreuses questions restent ouvertes. Nous prévoyons d’étudier les effets à long terme de ces interventions et de tester de nouveaux objectifs de classement pour traiter d’autres risques liés au bien-être en ligne, comme la santé mentale et le sentiment de satisfaction. Les travaux futurs exploreront comment équilibrer plusieurs objectifs – contexte culturel, valeurs personnelles et contrôle par l’utilisateur – afin de créer des espaces en ligne favorisant des interactions sociales et civiques plus saines.
Retrouvez dans le Research Brief de The Conversation US une sélection travaux académiques en cours résumés par leurs auteurs.
Cette recherche a été partiellement financée par une subvention Hoffman-Yee du Stanford Institute for Human-Centered Artificial Intelligence.
14.12.2025 à 11:49
Dans l’Italie du XVIIIe siècle, les femmes s’insurgeaient contre le harcèlement sexiste et sexuel subi dans les confessionnaux
Texte intégral (1718 mots)
Blagues obscènes, questions intrusives, gestes déplacés : les archives inquisitoriales du Vatican montrent que le harcèlement sexuel au confessionnal était une réalité pour de nombreuses femmes dans l’Italie du XVIIIᵉ siècle – et que certaines ont osé le signaler.
L’Institut européen pour l’égalité entre les hommes et les femmes définit le harcèlement sexuel comme « la situation dans laquelle un comportement non désiré à connotation sexuelle, s’exprimant physiquement, verbalement ou non verbalement, survient avec pour objet ou pour effet de porter atteinte à la dignité d’une personne et, en particulier, de créer un environnement intimidant, hostile, dégradant, humiliant ou offensant ». Les agissements sexistes découlent du pouvoir et visent à exercer un contrôle psychologique ou sexuel. Dans les deux cas, les victimes se sentent souvent confuses, seules, et se croient parfois responsables des abus subis.
En tant qu’historienne, je cherche à comprendre comment les femmes ont vécu et affronté ces comportements intimidants. Je m’intéresse en particulier au harcèlement pendant la confession dans l’Italie du XVIIIe siècle. Les femmes catholiques se rendaient au confessionnal pour partager leurs doutes et leurs espoirs sur des sujets allant de la reproduction aux menstruations, mais elles étaient parfois confrontées à des remarques méprisantes ou déplacées qui les déstabilisaient.
Un déséquilibre des pouvoirs
Les archives du Vatican nous montrent que certains des hommes qui ont tenu ces propos avaient tendance à en minimiser la portée, les qualifiant de simples marques de camaraderie ou de curiosité, voire de vantardise. Ils ont pourtant rabaissé les femmes qui, après ces échanges, étaient bouleversées ou en colère. Ces femmes étaient souvent plus jeunes que leurs confesseurs, elles avaient moins de pouvoir et pouvaient subir des menaces les contraignant à se taire. Pourtant, les archives nous montrent également que certaines, jugeant ces échanges inappropriés, se sont opposées à ces abus.
Les archives contiennent les procès-verbaux des tribunaux de l’Inquisition, qui, dans toute la péninsule italienne, traitaient les signalements de harcèlement et d’abus dans les confessionnaux. Pour les femmes, la confession était primordiale car elle dictait la moralité. Le devoir d’un prêtre était de demander aux femmes si elles étaient de bonnes chrétiennes, et la moralité d’une femme était liée à sa sexualité. Les canons de l’Église enseignaient que le sexe devait être uniquement hétérosexuel, génital et se dérouler dans le cadre du mariage.
Mais si la sexualité était encadrée par un code moral de péché et de honte, les femmes étaient des agents sexuels actifs, apprenant par l’expérience et l’observation. Le fonctionnement interne du corps féminin était mystérieux pour elles, mais le sexe ne l’était pas. Alors que les hommes lettrés avaient accès à des traités médicaux, les femmes apprenaient grâce aux connaissances échangées au sein de la famille et avec les autres femmes. Cependant, au-delà de leur cercle quotidien, certaines femmes considéraient le confessionnal comme un espace sûr où elles pouvaient se confier, remettre en question leurs expériences et demander des conseils sur le thème de la sexualité. Les ecclésiastiques agissaient alors comme des guides spirituels, des figures semi-divines capables d’apporter du réconfort, ce qui créait un déséquilibre de pouvoir pouvant conduire à du harcèlement et des abus.
Signaler les cas de harcèlement
Certaines femmes victimes d’abus dans le confessionnal l’ont signalé à l’Inquisition, et les autorités religieuses les ont écoutées. Dans les tribunaux, les notaires ont consigné les dépositions et les accusés ont été convoqués. Au cours des procès, les témoins ont été contre-interrogés afin de corroborer leurs déclarations. Les condamnations variaient : un ecclésiastique pouvait être condamné à jeûner ou à faire des exercices spirituels, à être suspendu, exilé ou envoyé aux galères (travaux forcés).
Les archives montrent qu’au XVIIIe siècle en Italie, les femmes catholiques comprenaient parfaitement les blagues grivoises, les métaphores et les allusions qui leur étaient adressées. En 1736 à Pise, par exemple, Rosa alla trouver son confesseur pour lui demander de l’aide, inquiète que son mari ne l’aime pas, et il lui conseilla « d’utiliser ses doigts sur elle-même » pour éveiller son désir. Elle fut embarrassée et rapporta cet échange inapproprié. Les documents d’archives montrent fréquemment que les femmes étaient interrogées si leur mariage ne produisait pas d’enfants : on leur demandait si elles vérifiaient que leur mari « consommait par derrière », dans le même « vase naturel », ou si le sperme tombait à l’extérieur.
En 1779, à Onano, Colomba a rapporté que son confesseur lui avait demandé si elle savait que pour avoir un bébé, son mari devait insérer son pénis dans ses « parties honteuses ». En 1739, à Sienne, une femme de 40 ans sans enfant, Lucia, s’est sentie rabaissée lorsqu’un confesseur lui a proposé de l’examiner, affirmant que les femmes « avaient des ovaires comme les poules » et que sa situation était étrange, car il suffisait à une femme « de retirer son chapeau pour tomber enceinte ». Elle a signalé cet échange comme une ingérence inappropriée dans sa vie intime.
Les archives du confessionnal montrent des exemples de femmes à qui l’on disait : « J’aimerais te faire un trou » ; qui voyaient un prêtre frotter des anneaux de haut en bas sur ses doigts pour imiter des actes sexuels ; et à qui l’on posait la question suggestive de savoir si elles avaient « pris cela dans leurs mains » – et chacune de ces femmes comprenait ce qui était insinué. Elles comprenaient aussi que ces comportements relevaient du harcèlement. Autant d’actes et de paroles que les confesseurs considéraient, eux, comme du flirt – comme lorsqu’un prêtre invita Alessandra à le rejoindre dans le vignoble en 1659 – étaient jugés révoltants par les femmes qui rapportaient ces événements (Vatican, Archivio Dicastero della Fede, Processi vol. 42).
L’effet déconcertant des abus
À cette époque, le stéréotype selon lequel les femmes plus âgées n’avaient plus de sexualité était très répandu. En effet, on croyait que les femmes dans la quarantaine ou la cinquantaine n’étaient plus physiquement aptes à avoir des rapports sexuels, et leur libido était ridiculisée par la littérature populaire. En 1721, Elisabetta Neri, une femme de 29 ans qui cherchait des conseils pour soulager ses bouffées de chaleur qui la mettaient hors d’état de fonctionner, s’est entendu dire qu’à partir de 36 ans, les femmes n’avaient plus besoin de se toucher, mais que cela pouvait l’aider à se détendre et à soulager son état.
Les femmes étaient également interrogées de manière fréquente et répétée sur leur plaisir : se touchaient-elles lorsqu’elles étaient seules ? Touchaient-elles d’autres femmes, des garçons ou même des animaux ? Regardaient-elles les « parties honteuses » de leurs amies pour comparer qui « avait la nature la plus grande ou la plus serrée, avec ou sans poils » (ADDF, CAUSE 1732 f.516) ? Pour les femmes, ces commentaires représentaient des intrusions inappropriées dans leur intimité. D’après les harceleurs masculins, il s’agissait d’une forme de curiosité excitante et une façon de donner des conseils : un frère franciscain, en 1715, a ainsi démenti avoir fait des commentaires intrusifs sur la vie sexuelle d’une femme (ADDF, Stanza Storica, M7 R, procès 3).
En quête de conseils avisés, les femmes confiaient leurs secrets les plus intimes à ces érudits, et elles pouvaient être déconcertées par l’attitude que leurs confesseurs affichaient souvent. En 1633, Angiola affirmait avoir « tremblé pendant trois mois » après avoir subi des violences verbales (ADDF, vol. 31, Processi). Les remarques déplacées et les attouchements non désirés choquaient celles qui en étaient victimes.
Le courage de s’exprimer
Il est indéniable que la sexualité est un objet culturel, encadré par des codes moraux et des agendas politiques qui font l’objet de négociations constantes. Les femmes ont été sans cesse surveillées, leur corps et leur comportement étant soumis à un contrôle permanent. Cependant, l’histoire nous enseigne que les femmes pouvaient être conscientes de leur corps et de leurs expériences sexuelles. Elles discutaient de leurs doutes, et certaines se sont ouvertement opposées au harcèlement ou aux relations abusives.
Au XVIIIe siècle en Italie, les femmes catholiques n’avaient pas toujours les mots pour qualifier les abus dont elles étaient victimes, mais elles savaient reconnaître qu’elles ne vivaient pas toujours un échange « honnête » dans le confessionnal, et parfois elles ne l’acceptaient pas. Elles ne pouvaient pas y échapper, mais elles avaient le courage d’agir contre un tel abus.
Une culture d’abus sexuels est difficile à éradiquer, mais les femmes peuvent s’exprimer et obtenir justice. Les événements des siècles passés montrent qu’il est toujours possible de dénoncer, comme c’est encore le cas aujourd’hui.
Note de l’auteur : les références entre parenthèses dans le texte renvoient à des documents consultables conservés dans les archives du Vatican.
Giada Pizzoni a reçu une bourse Marie Skłodowska-Curie de la Commission européenne.
14.12.2025 à 11:48
Comment transformer l’aura des stars en multiplicatrice de dons
Texte intégral (1331 mots)

Une recherche met en lumière les stratégies permettant de transformer l’aura des célébrités en crédibilité à l'égard d’une cause d’intérêt général. Alors, ces leaders d’opinion permettent-ils aux associations de récolter davantage de dons ? D’influencer nos élans de générosité ? Explications en graphiques.
Les célébrités, et plus récemment les influenceurs, ne se contentent plus de divertir : ils orientent nos choix. Des marques que nous achetons, jusqu’aux positions que nous adoptons sur des enjeux éthiques, leur empreinte est partout. Ils s’imposent comme de véritables sources d’information pour les consommateurs.
Leur influence ne s’arrête pas aux décisions de consommation. Acteurs, humoristes ou streamers façonnent nos élans de générosité et les causes que nous choisissons de soutenir. De nombreuses personnalités mettent en avant leur engagement caritatif : Pierre Garnier avec Imagine for Margo, Florence Foresti avec la Fondation des femmes ou encore Omar Sy avec les Restaurants du cœur. Côté influenceurs, le ZEvent 2025 a marqué les esprits : en trois jours de marathon sur Twitch, plus de 16,2 millions d’euros ont été récoltés grâce à des figures comme ZeratoR, Kameto ou Baghera Jones.
Pour mieux comprendre ces mécanismes, nous avons mené une série d’études pour comprendre si l’aura des célébrités apportait une crédibilité envers la cause à soutenir. Concrètement, nous avons présenté à des consommateurs plusieurs personnalités, ambassadrices d’une cause, et analysé si elles avaient un impact positif sur la crédibilité des causes d’intérêt général.
Transformer l’aura en crédibilité
Notre première étude, intuitive, consiste à choisir une personnalité dont l’histoire est directement liée à la cause. Par exemple, des personnalités telles que Selena Gomez et Lady Gaga peuvent être des ambassadrices crédibles pour les causes liées à la santé mentale chez les jeunes, compte tenu des traumatismes qu’elles ont vécus dans leur jeunesse. Il en va de même pour le combat d’Emma Watson pour l’égalité homme-femme, renforcé par son expérience des traitements des jeunes femmes et adolescentes dans l’industrie cinématographique.
La seconde étude repose sur ce que les chercheurs appellent le transfert de sens. Dans ce processus, les symboles associés à une personne sont transférés à un produit, une marque ou une organisation. De cette manière, une personnalité peut apporter à la cause son aura culturelle, son univers ou ses valeurs symboliques à une cause, même sans lien direct apparent.
Quand la notoriété devient expertise
Dans une étude auprès de 200 répondants, nous avons testé l’impact de l’attractivité de la personnalité ambassadrice sur son niveau de crédibilité perçue envers la cause et le nombre de dons générés.
À cette fin, nous avons indiqué aux participants de l’étude que le tennisman Andy Muray était le nouvel ambassadeur de « Let’s Green Up ! », une ONG fictive. Dans un premier groupe, nous avons décrit le tennisman en insistant sur son attractivité et son aura. Dans un second groupe, nous avons présenté une description plus neutre du sportif. Nous avons ensuite mesuré la crédibilité perçue de la personnalité grâce à des affirmations telles que « Cet influenceur est une source d’information fiable » ou « Je peux faire confiance à cette personne ».
Les répondants avaient enfin la possibilité de faire un don à l’ONG proposée. Les résultats sont unanimes : la présence de cette aura est une condition essentielle au succès des campagnes de récolte de dons. Elle fait augmenter la chance de faire un don de 43 % à 54 %.
Un passé qui donne du poids
Au-delà de leur aura, certaines célébrités renforcent leur crédibilité en mettant en avant un lien personnel avec la cause qu’elles soutiennent. Lorsque Mika s’engage auprès d’associations venant en aide au Liban, son message gagne en force, car il souligne son attachement à ce pays d’origine.
Pour tester cette hypothèse, nous avons réalisé une seconde étude auprès de 402 répondants. Ces derniers pouvaient soutenir une cause associée à une personnalité, en faisant varier le type de cause et la personnalité. Pour ce faire, nous avons comparé l’efficacité de l’annonce quand la cause est soutenue par Léonardo DiCaprio, célébrité connue pour son aura, et Greta Thunberg, davantage connue pour son activisme. Nous avons d’abord comparé des groupes où ces personnalités soutenaient une campagne pour l’écologie, en lien avec le passé des deux célébrités, et une autre campagne soutenant l’accès à l’éducation. Nous avons ensuite mesuré la crédibilité de la personnalité ambassadrice.
Lorsque ce lien est mis en évidence, la crédibilité de la célébrité ou de l’influenceur envers la cause augmente donc davantage.
Le pouvoir du transfert symbolique
Même lorsqu’elles n’ont pas de lien direct avec une cause, les célébrités peuvent lui donner de la crédibilité en y associant leur univers symbolique. Un humoriste qui prête son image à une campagne solidaire, ou une chanteuse pop qui soutient la recherche médicale, n’est pas forcément expert du sujet. Ce transfert de sens, présenté plus haut, permet aux associations de toucher le public par ricochet, en capitalisant sur l’image culturelle de la personnalité.
Nous avons réalisé une troisième étude auprès de 400 répondants. L’idée : inviter les participants à soutenir une association pour l’écologie. Dans un groupe, la personnalité ambassadrice est Keanu Reeves et dans l’autre, Eminem. Nous avons pu établir au préalable que Eminem démontrait un capital symbolique plus important que Keanu Reeves. Dans les deux cas, nous avons fait varier l’attractivité et l’aura de la personnalité ambassadrice en la présentant dans une posture favorable ou neutre.
Les résultats montrent qu’une personnalité présentant un capital symbolique plus élevé, comme Eminem, est perçue comme étant davantage crédible, ce qui accroît leur capacité à générer un élan de générosité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.12.2025 à 11:47
Football : 30 ans après l’arrêt Bosman, quel bilan pour le marché des transferts ?
Texte intégral (2890 mots)
Le Belge Jean-Marc Bosman, joueur modeste des années 1990, restera peut-être dans l’histoire comme le footballeur qui aura eu le plus grand impact sur son sport. En effet, l’arrêt portant son nom, adopté il y a exactement trente ans, a permis aux joueurs en fin de contrat de rejoindre un autre club sans l’exigence d’une indemnité de transfert. Il a également mis fin à la règle qui prévalait jusqu’alors de trois étrangers maximum par équipe, ouvrant la voie à une aspiration des joueurs du monde entier vers les clubs les plus riches.
« Toi, avec ton arrêt, tu vas rester dans l’histoire, comme Bic ou Coca-Cola », avait dit Michel Platini à Jean-Marc Bosman en 1995. Platini n’avait sans doute pas tort.
Les faits remontent à 1990. Le contrat de travail de Bosman, footballeur professionnel du Royal Football Club (RFC) de Liège (Belgique), arrive à échéance le 30 juin. Son club lui propose un nouveau contrat, mais avec un salaire nettement inférieur. Bosman refuse et est placé sur la liste des transferts. Conformément aux règles de l’Union européenne des associations de football (UEFA) en vigueur à l’époque, le transfert d’un joueur, même en fin de contrat, s’effectue en contrepartie d’une indemnité versée par le club acheteur au club vendeur. Autrement dit, pour acquérir Bosman, le nouveau club devra verser une indemnité de transfert au RFC.
En juillet, l’Union sportive du littoral de Dunkerque (USL) en France est intéressée. Mais le club belge, craignant l’insolvabilité de l’USL, bloque l’opération. Bosman se retrouve sans employeur. Pis, il continue d’appartenir à son ancien club, lequel maintient ses droits de transfert. Par ailleurs, en vertu de la règle des quotas – trois étrangers maximum par équipe –, il est difficile pour le joueur de rejoindre un club dans un autre État de la Communauté européenne.
S’estimant lésé, Bosman saisit les tribunaux belges. L’affaire est par la suite portée devant la Cour de justice des Communautés européennes (CJCE).
Coup de tonnerre : le 15 décembre 1995, la CJCE tranche en faveur de Bosman.
Décision de la CJCE
La Cour précise que le sport professionnel, comme toute activité économique au sein de la Communauté européenne, est soumis au droit communautaire. Elle considère dès lors que toute disposition restreignant la liberté de mouvement des footballeurs professionnels ressortissants de la Communauté européenne est contraire à l’article 48 du Traité de Rome, lequel prévoit la libre concurrence et la liberté de circulation des travailleurs entre les États membres.
La CJCE reprend ses jurisprudences antérieures (arrêts Walrawe et Koch en 1974 et Doña en 1976) et déclare que les règles de quotas fondées sur la nationalité des joueurs ressortissants communautaires constituent des entraves au marché commun.
En outre, la Cour va plus loin dans son jugement et estime que les indemnités de transfert pour les joueurs en fin de contrat (encore appliquées par certains clubs européens en 1995) sont contraires au droit communautaire.
Enjeux et impacts de l’arrêt Bosman
Le socle de cette décision a été la standardisation ou plutôt l’universalité des règles sportives au niveau de l’UEFA (54 fédérations) et de la Fédération Internationale de Football Association, FIFA (211 fédérations), qui ont dû s’aligner sur la jurisprudence Bosman.
Ainsi, cet arrêt de la CJCE a conduit les instances du football à réformer le système des transferts (Réformes dites « Règlement du Statut et du Transfert des Joueurs », (RSTJ) 2001, 2005, 2017-2022). Conséquemment, l’arrêt Bosman a drastiquement accentué la libéralisation du marché des transferts.
Cela s’est traduit par la suppression des obstacles à la libre circulation des sportifs. Les joueurs en fin de contrat sont devenus libres de rejoindre un autre club sans que celui-ci soit tenu de verser une indemnité de transfert à leur ancien club. Fin de l’ « esclavage » sportif ! Fin également du « régime de quotas » pour les joueurs ressortissants communautaires au sein des effectifs dans les clubs européens !
De facto, il y a eu une augmentation du nombre de joueurs étrangers communautaires, désormais illimité pour les joueurs des pays de l’Union européenne (UE). C’est le cas également pour les joueurs de l’Espace économique européen et pour ceux issus des pays ayant un accord d’association ou de coopération avec l’UE à la suite des arrêts Malaja dans le basket en 2002, Kolpak dans le handball en 2003 et Simutenkov dans le football en 2005. Il en est de même, depuis l’accord de Cotonou en 2000 (remplacé par l’accord de Samoa en 2023), pour les détenteurs des nationalités de 47 pays d’Afrique, 15 pays des Caraïbes et 15 pays du Pacifique. En France, le nombre de joueurs considérés comme « extra-communautaires » est limité à quatre.
Par ailleurs, comme le souligne Vincent Chaudel, co-fondateur de l’Observatoire du Sport Business, l’arrêt Bosman a inversé le rapport de force entre joueurs et clubs. L’inflation des salaires, qui avait commencé dans les années 1980, s’est accélérée dès les premières années après cet arrêt, puis de manière exponentielle chez les superstars par la suite.
Selon le magazine Forbes, les cinq footballeurs les mieux rémunérés en 2024 étaient Cristiano Ronaldo (environ 262,4 millions d’euros), Lionel Messi (environ 124,3 millions d’euros), Neymar (environ 101,3 millions d’euros), Karim Benzema (environ 95,8 millions d’euros) et Kylian Mbappé (environ 82,9 millions d’euros). L’écart salarial entre les footballeurs et les footballeuses reste néanmoins encore béant.
À lire aussi : Equal play, equal pay : des « inégalités » de genre dans le football
L’arrêt Bosman a aussi fortement impacté la spéculation de la valeur marchande des superstars et des jeunes talents.
À lire aussi : À qui profite le foot ?
Au-delà, cet arrêt s’est matérialisé par l’extension de la libre circulation des joueurs formés localement dans un État membre de l’UE, au nom de la compatibilité avec les règles de libre circulation des personnes ; cette mesure a ensuite été étendue à d’autres disciplines sportives.
Une autre particularité concerne le prolongement de la jurisprudence Bosman aux amateurs et aux dirigeants sportifs.
Enfin, il est important de rappeler que si l’arrêt Bosman a permis à de nombreux acteurs du football (joueurs, agents, clubs, investisseurs, etc.) de s’enrichir, ce fut loin d’être le cas pour Jean-Marc Bosman lui-même. Dans un livre autobiographique poignant, Mon combat pour la liberté, récemment publié, l’ancien joueur raconte son combat judiciaire de cinq ans, ainsi que sa longue traversée du désert (trahisons, difficultés financières, dépressions, etc.) après la décision de la CJCE.
Perspectives : du 15 décembre 1995 au 15 décembre 2025, 30 ans de libéralisation
L’arrêt Bosman a dérégulé, explosé et exposé le marché des transferts. Le récent article de la Fifa consacré au marché estival de 2025 en témoigne : cet été-là, 9,76 milliards de dollars d’indemnités de transfert ont été versés dans le football masculin et 12,3 millions de dollars dans le football féminin.
Ainsi, l’arrêt a ouvert la voie à une libéralisation inédite des opérations, conduisant parfois à des montages financiers particulièrement complexes.
À lire aussi : Football financiarisé : l’Olympique lyonnais, symptôme d’un modèle de multipropriété en crise
Au-delà de l’explosion des indemnités de transfert, l’arrêt Bosman a creusé les inégalités entre les clubs, tant au niveau national qu’européen. Pendant que les clubs les moins riches servent de pépinières pour former les futurs talents, les clubs les plus riches déboursent des sommes astronomiques pour acquérir les meilleurs footballeurs : Neymar, 222 millions d’euros ; Mbappé, 180 millions d’euros ; Ousmane Dembelé et Alexander Isak, 148 millions d’euros ; Philippe Coutinho, 135 millions d’euros, etc. Cela se traduit par l’ultra-domination des gros clubs dans les championnats européens avec le risque d’un « déclin général de l’équilibre compétitif dans le football européen » selon l’Observatoire du football CIES.
Enfin, avec la libéralisation du marché des transferts, des réseaux internationaux se tissent – et par la même occasion s’enrichissent – pour dénicher les futures « poules aux œufs d’or ». L’Amérique du Sud, l’Afrique (notamment depuis l’accord Cotonou) et l’Europe de l’Est sont devenues les principaux exportateurs des footballeurs (certains partent à un âge très précoce à l’étranger et se retrouvent loin de leur famille) vers les clubs d’Europe de l’Ouest.
Pour conclure, il serait souhaitable de réguler le marché, d’assainir l’écosystème et d’apaiser les ardeurs. L’arrêt Diarra (qualifié de « Bosman 2.0 ») de la Cour de justice de l’Union européenne (CJUE) – anciennement la CJCE – le 4 octobre 2024 est une avancée dans ce sens. Bien que la Cour n’ait pas remis en cause tout le système des transferts, elle a enjoint la FIFA à modifier sa réglementation afin que les footballeurs ne soient plus sous le joug de leur club en cas de rupture unilatérale de leur contrat.
Les joueurs doivent pouvoir y mettre un terme sans craindre de devoir verser une indemnité « disproportionnée » à leur club, et sans que le nouveau club désireux de les recruter soit tenu de verser solidairement et conjointement cette indemnité en cas de rupture sans « juste cause ». Dans l’urgence, un cadre réglementaire provisoire relatif au RSTJ a été adopté par la FIFA en décembre 2024 – jugé pour autant non conforme à la décision de la CJUE.
Le monde du football a besoin d’une transformation systémique où le plafonnement des coûts de transfert, mais aussi la gestion vertueuse des clubs et des institutions, l’encadrement et l’égalité des salaires homme-femme, la prise en compte du bien-être psychologique des acteurs, etc. constitueraient un socle fort pour un renouveau du marché des transferts et de l’industrie du football dans sa globalité.
Mieux, l’industrie du football ne doit plus constituer un mobile pour creuser les écarts et les disparités sociales et sociétales.
Annexe : 11 dates et événements clés
1891 : J. P. Campbell de Liverpool est le premier agent à faire la promotion de joueurs auprès des clubs par des publicités via la presse.
1905 : William McGregor, ancien président du club d’Aston Villa et fondateur de la ligue anglaise déclare, en une formule visionnaire pour l’époque, « Football is big business ».
1930 : la première Coupe du Monde de football a lieu en Uruguay.
1932 : la mise en place du premier championnat professionnel de football en France avec des dirigeants employeurs et des joueurs salariés sans aucun pouvoir ainsi que l’établissement du contrat à vie des footballeurs, liés à leur club jusqu’à l’âge de 35 ans.
1961 : le salaire minimum des joueurs de football est supprimé. Cette décision a pour effet d’équilibrer le pouvoir de négociation entre joueurs et clubs.
Entre 1960 et 1964 : les salaires des joueurs de la première division française évoluent drastiquement (augmentation de 61 % par rapport à ceux des années 1950).
1963 : la Haute Cour de Justice anglaise dispose, dans l’affaire Georges Eastham, que le système de « conservation et transfert » est illégal.
1969 : la mise en place du contrat de travail à durée librement déterminée.
1973 : l’adoption de la Charte du football professionnel.
1991 : la première Coupe du monde de football féminin se déroule en Chine.
1995 : l’arrêt Bosman de la Cour de justice des Communautés européennes (CJCE) du 15 décembre 1995 crée un véritable bouleversement dans le système de transfert des joueurs au sein de l’UE – anciennement la Communauté européenne.
Moustapha Kamara a reçu une Bourse de recherche Havelange de la FIFA.
Allane Madanamoothoo et Daouda Coulibaly ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
13.12.2025 à 17:12
« Un an après le cyclone Chido, la situation de Mayotte reste critique »
Texte intégral (1692 mots)
Le cyclone Chido a ravagé le département français de Mayotte le 14 décembre 2024. Si l’État est intervenu massivement pour traiter l’urgence, les promesses de reconstruction structurelles semblent loin d’avoir été tenues. Entretien avec le géographe mahorais Fahad Idaroussi Tsimanda.
The Conversation : Un an après Chido, où en est la reconstruction ?
Fahad Idaroussi Tsimanda : Le 14 décembre 2024, le cyclone Chido a frappé Mayotte et endommagé 80 % du territoire mahorais (près de 60 % de l’habitat aurait été détérioré ou totalement détruit, mais aussi de nombreuses infrastructures, des territoires agricoles et naturels). Il s’agissait d’une catastrophe humanitaire majeure, malgré un bilan officiel limité à 40 morts et 41 disparus. Rapidement, l’État a mobilisé de forts moyens d’urgence après avoir déclaré l’état de calamité naturelle exceptionnelle. Sur place, plus de 4 000 personnels de la sécurité civile, de la police, de la gendarmerie et des armées ont été déployés. De l’aide humanitaire a été distribuée massivement – packs d’eau, patates, bananes, farine, huile, etc. La remise en état des routes et des principaux réseaux d’eau potable et d’électricité ont été effectifs au bout d’un mois environ.
Une forte mobilisation politique a également eu lieu dans le courant de l’année 2025. Pour formaliser et encadrer la reconstruction de l’île, le gouvernement a adopté une loi d’urgence en février 2025, puis une loi pour la refondation de Mayotte, fixant une trajectoire d’investissement de 4 milliards d’euros sur plusieurs années. Ces textes ont été complétés par des ordonnances visant à accélérer la reconstruction, notamment en adaptant temporairement les règles de construction pour faciliter la reconstruction des logements détruits.
Pourtant, notre constat est que, au-delà de l’urgence, la reconstruction structurelle n’a toujours pas eu lieu et la situation demeure critique sur place. Nous sommes encore très loin de ce que les Mahorais attendaient. Selon les chiffres de la députée Estelle Youssouffa, très peu d’argent a été dépensé : 25 millions d’euros seulement depuis le début de l’année, soit environ 0,6 % de l’enveloppe totale promise de 4 milliards d’euros.
J’ai pu constater que, dans le chef-lieu, Mamoudzou, plusieurs bâtiments publics (ceux du Département de Mayotte, la mairie, le commissariat, ceux de l’intercommunalité, etc.) sont toujours couverts de bâches. Au centre hospitalier de Mayotte, des travaux de toiture sont en cours, mais l’essentiel a en revanche été réalisé.
Pour ce qui concerne les particuliers, un prêt à taux zéro de reconstruction a été a été promis aux Mahorais, aux ménages sinistrés avec une enveloppe de 50 000 euros. Mais je ne connais personne autour de moi qui en ait bénéficié. Certains habitants ont déjà reconstruit, certains démarrent à peine leurs chantiers.
Je suis enseignant, et je constate que la situation des écoles est toujours très dégradée, avec beaucoup de salles de classe indisponibles ce qui conduit à charger les effectifs pour chaque classe. On estime que 40 % des établissements scolaires ont été détruits ou endommagés pendant le cyclone. Les classes fermées contraignent les élèves à un nombre d’heures de cours limités avec un système de rotation.
Les bidonvilles ont été ravagés par Chido. Que s’est-il passé dans ces quartiers depuis un an ? François Bayrou, le premier ministre de l’époque, s’était engagé à bloquer leur reconstruction. Est-ce le cas ?
F. I. T. : Dès le lendemain du passage de Chido, les familles de migrants vivant dans les bidonvilles ont reconstruit leurs maisons. Le préfet de Mayotte a interdit aux particuliers d’acheter des tôles s’ils ne pouvaient pas présenter de justificatif de domicile, afin d’empêcher la reconstruction de bidonvilles. Pourtant, il fut très facile de contourner cela avec le justificatif d’un voisin. Ceux qui avaient les moyens ont acheté des tôles et des chevrons. D’autres ont réutilisé les tôles déformées et ont débité des cocotiers tombés à terre pour les structures.
Imaginer reconstruire en dur dans ces quartiers est un leurre. Les personnes qui habitent dans les bidonvilles sont souvent en situation irrégulière, elles n’ont pas droit au logements sociaux qui sont de toute façon en nombre insuffisant. Quelle autre option est possible ? Selon les statistiques officielles, avant Chido, il existait environ neuf logements sociaux pour 1 000 habitants, ce qui est extrêmement faible. Or 40 % des logements sont en tôle à Mayotte et 77 % des habitants vivent sous le seuil de pauvreté national. Les bidonvilles, reconstruits à l’identique, sont toujours aussi fragiles et vulnérables face aux intempéries.
Après Chido, les migrants ont été pointés du doigt par une partie de la classe politique française. Le gouvernement Bayrou a légiféré pour durcir l’accès à la nationalité française et a promis plus de fermeté pour lutter contre l’immigration. Comment évolue la situation sur place ?
F. I. T. : Près de la moitié des personnes vivant à Mayotte sont des étrangers, dont de nombreux illégaux, installés dans les bidonvilles. Les opérations policières massives, comme Wambushu ou Place nette pour raser les bidonvilles et expulser massivement, n’ont pas été renouvelées en 2025. En revanche, les policiers aux frontières interviennent toujours en mer et au sein de l’île pour expulser les illégaux. Mais ces derniers reviennent : l’île est facilement accessible depuis les îles voisines en bateau et les frontières sont difficiles à contrôler.
Malgré les efforts de l’État, les arrivées illégales se poursuivent. Les migrants vivent toujours dans des logements précaires, avec un accès limité aux droits fondamentaux et des inégalités qui perdurent.
Les relations entre la France et les Comores jouent un rôle central dans cette problématique migratoire. Quel est l’état de ces relations ?
F. I. T. : En 2018, un accord a été conclu entre l’Union des Comores et la France. Il s’agissait pour la France d’aider les Comores sur le plan de l’agriculture, de l’éducation, de la santé – ceci à condition que le gouvernement comorien stoppe le départ des migrants depuis l’île d’Anjouan. Mais depuis, rien n’a changé. Le président de l’Union des Comores Azali Assoumani répète avec constante que la France doit abandonner Mayotte et l’île intégrer l’Union des Comores. Il affirme que Mayotte appartient aux Comores, sans doute pour satisfaire son électorat, alors que les habitants des Comores vivent dans une grande pauvreté.
Quel est l’état d’esprit des habitants de l’île que vous côtoyez ?
F. I. T. : Les Mahorais sont résilients. Après le cyclone, ils se sont entraidés, ils étaient solidaires. Ici, la vie suit son cours. Certains critiquent le gouvernement, mais, en général, les Mahorais sont confiants dans l’avenir. Ce qui est un sujet de tension, ce sont les phénomènes de violence qui impliquent parfois des migrants. Cela ne date pas de Chido. La question migratoire est montée en puissance depuis que l’île est un département français, en 2011.
Fahad Idaroussi Tsimanda ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.12.2025 à 09:02
Scolarité : Le privé fait-il mieux que le public ?
Texte intégral (2582 mots)
Lorsque l’on considère évaluations nationales et examens, les écoles privées affichent non seulement de meilleurs résultats que les écoles publiques, mais aussi de meilleurs taux de progression des élèves au fil de leur scolarité. Est-ce le simple reflet de leur composition sociale plus favorisée ? Ou faut-il y voir un « effet » propre à ces établissements ?
La question de l’école privée occupe aujourd’hui une place singulière dans le débat éducatif français. Elle revient d’ailleurs régulièrement au centre des discussions publiques, souvent au gré de polémiques autour des choix scolaires des ministres de l’éducation nationale eux-mêmes. La séquence s’est répétée récemment : Édouard Geffray, le nouveau ministre, a inscrit ses enfants dans le privé – comme ses prédécesseurs Amélie Oudéa-Castéra, en 2024, et Pap Ndiaye.
Si ces épisodes retiennent autant l’attention, c’est qu’ils cristallisent une tension devenue centrale : régulièrement crédité de meilleurs résultats scolaires que le secteur public, le secteur privé est largement financé par des fonds publics tout en étant autorisé à sélectionner ses élèves.
Ces différences de recrutement se traduisent par des écarts massifs dans la composition sociale des établissements entre public et privé. C’est ce que montrent les indices de position sociale (IPS) calculés par le ministère de l’éducation nationale en considérant les catégories socio-professionnelles des parents d’élèves.
Les graphiques ci-dessous traduisent ces disparités, académie par académie. Prenons l’exemple de Paris : l’IPS moyen des écoles publiques y est d’environ 118, contre 143 dans le privé sous contrat, soit un écart d’environ 25 points, l’un des plus élevés du pays. Autrement dit, les écoles privées parisiennes scolarisent un public en moyenne beaucoup plus favorisé socialement que les écoles publiques. Les distributions montrent également que le privé est concentré sur le haut de l’échelle sociale, tandis que le public accueille une population plus hétérogène, avec davantage d’élèves issus de milieux modestes.
Les meilleurs résultats des écoles privées aux évaluations nationales et aux examens viennent-ils réellement d’un « effet » propre au privé ou reflètent-ils avant tout la composition sociale plus favorisée de ses élèves ?
Des résultats scolaires plus élevés dans le privé
Les comparaisons internationales offrent un premier éclairage. Les évaluations PISA, menées auprès d’élèves de 15 ans, rappellent combien la France demeure l’un des pays où les résultats scolaires dépendent le plus du milieu social : près d’un cinquième des performances s’explique par l’origine sociale.
Dans ce contexte, les établissements privés – qui accueillent un public en moyenne plus favorisé – obtiennent logiquement de meilleurs scores bruts. Mais il s’agit d’une photographie instantanée, qui ne dit rien de la manière dont les élèves progressent dans le temps.
Lorsque l’on cesse de regarder uniquement les performances à un instant donné pour suivre les élèves au fil de leur scolarité, un autre constat apparaît. Du début à la fin du collège, les élèves scolarisés dans un établissement privé progressent plus que ceux du public, à milieu social comparable. Cette différence apparaît à la fois dans les évaluations de sixième et dans les notes finales du brevet : en moyenne, les trajectoires scolaires s’améliorent plus nettement dans le privé.
Lorsque l’on considère les épreuves terminales du brevet, dans les graphiques qui suivent, il apparaît que, dans chaque matière, les élèves scolarisés dans le privé sous contrat obtiennent en moyenne des notes plus élevées que ceux du public. Les distributions montrent également que les résultats des élèves du public sont plus dispersés, avec davantage d’élèves dans la partie basse de la distribution.
En examinant ces parcours de manière plus fine, un élément supplémentaire émerge : ces écarts ne sont pas uniformes selon le niveau initial. Une étude récente montre que l’avantage observé en fin de troisième est plus marqué pour les élèves initialement les plus faibles, en particulier en mathématiques. Autrement dit, les différences entre public et privé tiennent à la fois aux acquis de départ, mais aussi à la manière dont les élèves progressent au cours du collège.
Des progrès plus marqués au fil de la scolarité dans le privé
Un travail conduit par le service statistique du ministère de l’éducation nationale aboutit à un résultat très proche. En suivant une cohorte d’élèves du CP au début du lycée, ses auteurs montrent que, à contexte familial et scolaire comparable, la progression en français et en mathématiques au collège – et surtout en mathématiques – est plus élevée dans le privé que dans le public.
Ces différences de progression ne peuvent pas s’expliquer par certains facteurs souvent avancés dans le débat public. Les chiffres sont sans ambiguïté : les classes du privé comptent en moyenne 27,2 élèves, contre 24,7 dans le public ; le nombre d’élèves par enseignant y est plus élevé (14,6 contre 12,8) ; et le privé n’emploie pas davantage d’enseignants agrégés (4,5 % contre 13,4 % dans le public). Rien, dans ces indicateurs d’encadrement, ne suggère donc des conditions plus favorables dans le privé.
Les explications doivent être cherchées ailleurs. Deux pistes se dégagent. D’abord, la composition sociale : les établissements privés accueillent un public plus favorisé, ce qui peut mécaniquement tirer les résultats vers le haut et permettre d’enseigner à des niveaux plus élevés.
Ensuite, le libre recrutement des enseignants, qui permet de constituer des équipes pédagogiques plus cohérentes et plus stables, potentiellement mieux alignées sur un projet éducatif commun – un cadre qui peut là aussi soutenir un niveau d’exigence plus élevé.
Une composition sociale qui n’explique pas tout
Une fois posés ces constats, une question centrale demeure : dans quelle mesure les écarts public/privé s’expliquent-ils simplement par la composition sociale beaucoup plus favorisée des établissements privés ? Lorsqu’on compare des élèves de même origine sociale, et que l’on tient compte non seulement de leurs caractéristiques individuelles, mais aussi de la composition sociale des établissements et des classes dans lesquels ils sont scolarisés, l’avantage du privé sur le public ne diminue que très légèrement.
En pratique, seulement 15 à 23 % de l’avantage initial s’efface. Autrement dit, la composition sociale explique bien une partie de la différence… mais certainement pas tout. D’autres facteurs sont donc en jeu.
L’étude révèle un point essentiel : la composition sociale n’agit pas de la même manière selon l’origine des élèves. Pour les élèves issus de milieux favorisés, l’avantage apparent du privé tient surtout au fait qu’ils sont scolarisés dans des collèges où la part d’élèves aisés est nettement plus élevée que dans le public. Une fois que l’on compare des élèves favorisés inscrits dans des établissements au profil social similaire dans les deux secteurs, l’écart de performances entre public et privé devient quasi nul. Rien n’indique, en revanche, que ces élèves tirent leurs meilleures performances de spécificités pédagogiques propres au privé.
À l’inverse, pour les élèves issus de milieux modestes, la situation est tout autre : l’avantage du privé demeure nettement perceptible, même après avoir neutralisé les effets du milieu social et de l’environnement scolaire. Ce sont finalement ces élèves, pourtant très minoritaires dans le privé, qui tirent le plus de bénéfices de la scolarisation dans le privé en termes de résultats scolaires.
Interroger l’équité du système scolaire
S’ajoute une interrogation liée au fonctionnement même des établissements : si la composition sociale n’explique qu’une part modeste des écarts observés, où chercher les leviers restants ? Une piste souvent avancée concerne le mode de recrutement des enseignants, plus flexible dans le privé : dans le public, les enseignants sont affectés par l’administration, tandis que dans le privé sous contrat ce sont les chefs d’établissement qui recrutent directement les enseignants, ce qui leur laisse davantage de marge pour composer leurs équipes pédagogiques autour du projet d’établissement.
Rien n’interdit d’examiner ce que certaines pratiques propres au privé – par exemple le recrutement plus libre des enseignants par le chef d’établissement – pourraient inspirer au secteur public, comme l’expérimentation récente menée dans le cadre du plan « Marseille en grand ». Ce type de dispositif reste encore peu documenté par la recherche et constitue un terrain privilégié pour de futurs travaux.
Finalement, peut-on considérer comme durable un système où l’argent public soutiendrait, de fait, une organisation qui contribue à renforcer la ségrégation scolaire ? La question mérite d’être posée, ne serait-ce qu’au regard des principes mêmes inscrits dans le Code de l’éducation, selon lesquels « le service public de l’éducation […] contribue à l’égalité des chances et à lutter contre les inégalités sociales et territoriales en matière de réussite scolaire et éducative ».
L’enjeu est désormais de documenter précisément les mécanismes à l’œuvre, afin d’identifier quels leviers d’organisation scolaire pourraient, à terme, être mobilisés au service d’une plus grande équité du système éducatif.
Léonard Moulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.12.2025 à 13:09
Le sort de Warner Bros suspendu au duel Netflix–Paramount
Texte intégral (1517 mots)
Ce pourrait être un épisode d’une série américaine sur le monde des affaires. Qui, de Paramount ou de Netflix, mettra la main sur la Warner Bros ? Les deux projets n’ont pas les mêmes motivations. Surtout, l’un et l’autre devront faire avec le droit de la concurrence aux États-Unis, mais aussi en Europe, mondialisation oblige. Résumé des premiers épisodes, si vous avez manqué le début…
La nouvelle a frappé Hollywood de stupeur. Le 4 décembre dernier, Netflix annonçait l’acquisition des studios Warner Bros. (WB) pour 83 milliards de dollars, coiffant au poteau le favori Paramount. La situation s’est depuis compliquée : le patron de Paramount, David Ellison, a surenchéri avec une offre hostile à 108 milliards de dollars pour l’ensemble du groupe WB Discovery, incluant les studios ainsi qu’un bouquet – en déclin – de chaînes de télévision, dont la célèbre chaîne d’information CNN.
L’issue de cette bataille est incertaine à l’heure actuelle. Les deux opérations sont de nature différente. Un achat par Paramount impliquerait une triple fusion entre deux studios, deux plates-formes de streaming – Paramount+ (79 millions d’abonnés) et HBO+ (128 millions d’abonnés) – et deux bouquets de chaînes de télévision (dont CNN et CBS). Ce serait une fusion horizontale entre des acteurs en concurrence directe sur leurs marchés. L’impact social pourrait être très lourd : l’opération prévoit 6 milliards de dollars de synergies, en grande partie via la suppression de postes en doublon.
À lire aussi : Netflix, une machine à standardiser les histoires ?
Si Netflix mettait la main sur WB, ce serait principalement pour acquérir le vaste catalogue de WB et de HBO, les chaînes du câble étant exclues de l’offre du géant du streaming. Les synergies anticipées, de l’ordre de 3 milliards, concerneraient les dépenses technologiques pour les deux tiers et seraient constituées, pour le reste, d’économies sur les achats de droits de diffusion. Netflix pourrait ainsi librement diffuser Game of Thrones ou Harry Potter auprès de ses 302 millions d’abonnés dans le monde. Ce serait une fusion verticale combinant un producteur de contenus, WB, et un diffuseur, Netflix, qui éliminerait au passage un concurrent notable, HBO+.
Des précédents coûteux
Ce type d’opération pourrait rendre nerveux quiconque se rappelle l’histoire des fusions de Warner Bros. Déjà en 2001, le mariage de WB et d’AOL célébrait l’alliance du contenu et des « tuyaux » – pour utiliser les termes alors en vogue. L’affaire s’était terminée de piteuse manière par le spin-off d’AOL et l’une des plus grosses dépréciations d’actifs de l’histoire – de l’ordre de 100 milliards de dollars. Quinze ans plus tard, AT&T retentait l’aventure. L’union fut de courte durée. En 2021, le géant des télécoms se séparait de WB, qui se voyait désormais associé au groupe de télévision Discovery, sous la direction de David Zaslav, aujourd’hui à la manœuvre.
Pourquoi ce qui a échoué dans le passé marcherait-il aujourd’hui ? À dire vrai, la position stratégique de Netflix n’a rien à voir avec celle d’AOL et d’AT&T. Les fusions verticales précédentes n’ont jamais produit les synergies annoncées pour une simple raison : disposer de contenu en propre n’a jamais permis de vendre plus d’abonnements au téléphone ou à Internet. Dans les deux cas, le château de cartes, vendu par les dirigeants, et leurs banquiers, s’est rapidement effondré.
Un catalogue sans pareil
Une fusion de Netflix avec WB délivrerait en revanche des bénéfices très concrets : le géant du streaming ajouterait à son catalogue des produits premium – films WB et séries HBO – dont il est à ce jour largement dépourvu. L’opération permettrait de combiner l’une des bibliothèques de contenus les plus riches et les plus prestigieuses avec le média de diffusion mondiale le plus puissant qui ait jamais existé. L’ensemble pourrait en outre attirer les meilleurs talents, qui restent à ce jour largement inaccessibles à Netflix.
En pratique, certains contenus, comme la série Friends, pourraient être inclus dans l’offre de base pour la rendre plus attractive et recruter de nouveaux abonnés. D’autres films et séries pourraient être accessibles via une ou plusieurs options payantes, sur le modèle de ce que fait déjà Amazon Prime, augmentant ainsi le panier moyen de l’abonné.
Le rapprochement de deux stars du divertissement ferait à coup sûr pâlir l’offre de leurs concurrents, dont Disney mais aussi… Paramount. Et c’est là que le bât blesse. Les autorités de la concurrence, aux États-Unis et en Europe, approuveront-elles la formation d’un tel champion mondial ? Si la fusion est confirmée, les procédures en recours ne tarderont pas à arriver.
CNN dans le viseur
C’est l’argument avancé par David Ellison, le patron de Paramount, qui agite le chiffon rouge de l’antitrust pour convaincre les actionnaires de WBD : que restera-t-il du studio si la fusion avec Netflix est rejetée après deux ans de procédures ? Ted Sarandos, le co-PDG de Netflix, pourrait lui retourner la pareille, car une fusion horizontale avec Paramount ne manquerait pas d’éveiller, elle aussi, des inquiétudes – d’autant plus qu’elle serait largement financée par des capitaux étrangers venant du Golfe.
Le fils de Larry Ellison, deuxième fortune mondiale, réputé proche du président américain, s’est assuré le soutien financier du gendre de ce dernier, Jared Kushner. Si Donald Trump se soucie probablement assez peu du marché du streaming, il pourrait être sensible au sort réservé à la chaîne CNN, une de ses bêtes noires. En cas de victoire de Paramount, CNN pourrait être combinée avec CBS et sa ligne éditoriale revue pour apaiser le locataire de la Maison-Blanche. Du côté du vendeur, David Zaslav laisse les enchères monter. Il pourrait empocher une fortune – on parle de plus de 425 millions de dollars.
À cette heure, le sort de WB est entre les mains de cette poignée d’hommes. Des milliers d’emplois à Los Angeles, et ailleurs, sont en jeu. Une fusion WB/Netflix pourrait par ailleurs accélérer la chute de l’exploitation des films en salles, dans un contexte d’extrême fragilité : le nombre de tickets vendus dans les cinémas en Amérique du Nord a chuté de 40 % depuis 2019. Netflix pourrait choisir de diffuser directement sur sa plateforme certains films de WB, qui représente environ un quart du marché domestique du cinéma. Pour les films qui conserveraient une sortie en salle, la fenêtre d’exclusivité réservée aux exploitants pourrait se réduire à quelques semaines, fragilisant un peu plus leur économie. Hollywood retient son souffle.
Julien Jourdan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.12.2025 à 13:08
Le smic protège-t-il encore de la pauvreté ?
Texte intégral (1885 mots)
Vendredi 12 décembre 2025, le Groupe d’experts sur le smic publie un rapport sur l’impact du salaire minimum sur l’économie française. Son impact sur la pauvreté n’est cependant pas univoque. Le smic ne suffit pas à expliquer les trajectoires personnelles de plus en plus diverses. Le revenu disponible qui prend en compte les aides perçues et les dépenses contraintes est un critère plus juste.
La question revient cette année encore avec le rapport du Groupe d’experts du smic publié ce vendredi 12 décembre : le salaire minimum protège-t-il encore réellement de la pauvreté ? Pourtant, comme l’ont rappelé l’Insee et l’Institut des politiques publiques (IPP) dans plusieurs travaux plus ou moins récents, le salaire brut, seul, ne détermine pas la pauvreté. Ce qui importe, c’est le niveau de vie, c’est-à-dire le revenu disponible après transferts sociaux de toutes sortes (qui s’ajoutent), impôts et charges contraintes (qui se soustraient). Dans un contexte de renchérissement du logement (13 % d’augmentation de l’indice de référence des loyers, IRL) et d’hétérogénéité croissante des situations familiales, la question ne doit plus être posée en termes uniquement macroéconomiques.
La littérature académique reprend ce constat. Antony B. Atkinson souligne que la pauvreté ne renvoie pas simplement à un « manque de salaire », mais à un insuffisant accès aux ressources globales ; Patrick Moyes rappelle que la structure familiale modifie profondément le niveau de vie relatif. Quant à France Stratégie et l’Insee, après sa publication faisant l’état des lieux de la pauvreté en France, ils documentent la montée de ce qu’on appelle la pauvreté laborieuse, c’est-à-dire le fait de travailler sans pour autant dépasser les seuils de pauvreté et sans possibilité de profiter de l’ascenseur social.
À lire aussi : La pauvreté de masse : symptôme d’une crise de la cohésion sociale
Un amortisseur d’inflation ?
Notre premier graphique compare l’évolution du smic, des salaires et des prix depuis 2013. On y observe très nettement que le salaire minimum a servi d’amortisseur pendant la séquence inflationniste récente : ses revalorisations automatiques l’ont fait progresser aussi vite, souvent plus vite, que l’indice des prix à la consommation.
Figure 1 – Évolution du smic, du salaire mensuel de base (SMB), du salaire horaire de base des ouvriers et des employés (SHBOE) et de l’indice des prix à la consommation (IPC) hors Tabac – Sources : Dares, Insee, Rapport GES 2025 – Graphique de l’auteur.
Ce mouvement contraste avec celui des salaires moyens, dont la progression a été plus lente. Comme le soulignent plusieurs analyses de France Stratégie et de l’Organisation de coopération et de développement économiques (OCDE), cela a eu pour effet de resserrer la hiérarchie salariale, une situation déjà documentée lors de précédentes périodes de rattrapage du smic.
L’influence du temps de travail
Mais ce constat ne dit rien d’une dimension pourtant déterminante : l’accès au temps plein car une partie des salariés au smic n’y est pas à temps complet. Comme l’ont montré plusieurs travaux de l’Insee et de la direction de l’animation de la recherche, des études et des statistiques (Dares, ministère du travail), une proportion importante de travailleurs rémunérés au salaire minimum occupe des emplois à temps partiel, et souvent non par choix mais parce qu’aucun temps plein n’est disponible. C’est ce que les économistes appellent le temps partiel contraint.
Ce temps partiel modifie radicalement l’interprétation du smic : on parle d’un salaire minimum horaire, mais, concrètement, les ressources mensuelles ne reflètent pas ce taux. Un salaire minimum versé sur 80 % d’un temps plein ou sur des horaires discontinus conduit mécaniquement à un revenu inférieur et donc à une exposition accrue à la pauvreté.
Mais si l’on s’en tenait à cette comparaison, on pourrait conclure que le smic protège pleinement les salariés les plus modestes. Or, c’est précisément ici que la question se complexifie. Car la pauvreté ne dépend pas du seul salaire : elle dépend du revenu disponible et donc de l’ensemble des ressources du ménage. C’est ce que montrent les travaux sur la pauvreté laborieuse, un phénomène en hausse en France selon l’Observatoire des inégalités, environ une personne en situation de pauvreté sur trois occupe un emploi mais les charges familiales, le coût du logement ou l’absence de second revenu maintiennent le ménage sous les seuils de pauvreté.
Du smic au revenu disponible
Pour comprendre la capacité réelle du smic à protéger de la pauvreté, il faut observer ce qu’il devient une fois transformé en revenu disponible grâce aux données de l’Insee et de la Dares, c’est-à-dire le revenu après impôts, aides et charges incompressibles.
Le graphique suivant juxtapose trois situations familiales : une personne seule, un parent isolé avec un enfant et un couple avec un enfant dont les deux adultes perçoivent le smic.
Figure 2 – Revenu disponible et seuils de pauvreté selon trois profils de ménages rémunérés au smic Sources : Dares, Insee, Rapport GES 2025 – Graphique de l’auteur.
Dans le premier panneau, on observe qu’une personne seule rémunérée au smic dispose d’un revenu disponible supérieur au seuil de pauvreté à 60 % du revenu médian. La prime d’activité joue un rôle important, mais c’est surtout l’absence de charge familiale et de coûts fixes élevés qui explique ce résultat.
Ce profil correspond à la représentation classique du smic comme filet de sécurité individuel. Comme le confirment les données de l’Insee et les travaux de France Stratégie, la pauvreté laborieuse y est encore relativement limitée. Cependant, même seul, un actif au smic pourrait avoir des dépenses contraintes extrêmement élevées dans des zones à forte demande locative.
La pauvreté laborieuse
Le deuxième panneau raconte une histoire totalement différente. Le parent isolé, même à temps plein au smic se situe clairement en dessous du seuil de pauvreté, plus grave encore, son revenu disponible ne compense plus le salaire net via les transferts. C’est ici que la notion de pauvreté laborieuse prend tout son sens. Malgré un emploi et malgré les compléments de revenu, le ménage reste dans une situation de fragilité structurelle.
Selon l’Insee, les familles monoparentales sont aujourd’hui le groupe le plus exposé à la pauvreté et notamment à la privation matérielle et sociale, non parce qu’elles travaillent moins, mais parce qu’elles cumulent un revenu unique, des charges plus élevées et une moindre capacité d’ajustement.
Dans le troisième panneau, un couple avec un enfant et deux smic vit lui aussi en dessous de la ligne de pauvreté. Ce résultat laisse penser que la composition familiale, même accompagnée de deux smic crée une pauvreté structurelle sur les bas revenus ; aussi le graphique montre-t-il que la marge est finalement assez limitée. Une partie du gain salarial disparaît en raison de la baisse des aides et de l’entrée dans l’impôt, un phénomène bien documenté par l’IPP et par le rapport Bozio-Wasmer dans leurs travaux sur les « taux marginaux implicites ». Dans les zones de loyers élevés, un choc de dépense ou une hausse de charges peut faire basculer ces ménages vers une situation beaucoup plus précaire.
Situations contrastées
Une conclusion s’impose : le smic protège encore une partie des salariés contre la pauvreté, mais ce résultat est loin d’être uniforme. Il protège l’individu à plein temps et sans enfant, mais ne suffit plus à assurer un niveau de vie décent lorsque le salaire doit couvrir seul les charges d’un foyer, notamment dans les configurations monoparentales. Cette asymétrie est au cœur de la montée de la pauvreté laborieuse observée par l’Insee et documentée par l’Institut des politiques publiques.
Ces résultats rappellent que la pauvreté n’est plus seulement un phénomène d’exclusion du marché du travail. Elle touche des travailleurs insérés, qualifiés et en contrat stable, mais dont le salaire minimum, appliqué sur un volume horaire insuffisant ou absorbé par des dépenses contraintes, ne permet plus un niveau de vie supérieur aux seuils de pauvreté. Le smic se révèle alors davantage un plancher salarial individuel qu’un instrument de garantie sociale familiale.
À l’heure où la question du pouvoir d’achat occupe une place centrale et où la revalorisation du smic reste l’un des outils majeurs d’ajustement, ces conclusions invitent à réorienter le débat. Ce n’est pas seulement le niveau du smic qu’il faut interroger, mais sa capacité à constituer un revenu de référence pour des configurations familiales et territoriales très hétérogènes. Autrement dit, le smic joue encore sa fonction de stabilisateur individuel, mais il n’est plus suffisant seul pour protéger durablement certains ménages.
La question devient alors moins « De combien augmenter le smic ? » que « Comment garantir que le revenu disponible issu d’un emploi au smic permette effectivement d’éviter la pauvreté ? ».
Hugo Spring-Ragain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.12.2025 à 16:16
L’internationale trumpiste : la Stratégie de sécurité nationale 2025 comme manifeste idéologique
Texte intégral (2441 mots)
L’administration Trump vient de rendre publique sa Stratégie de sécurité nationale. Charge virulente contre l’Europe, affirmation de l’exceptionnalisme des États-Unis, présentation du président actuel en héros affrontant au nom de son pays des périls mortels pour la civilisation occidentale : bien plus qu’un simple ensemble de grandes lignes, il s’agit d’une véritable proclamation idéologique.
La Stratégie de sécurité nationale (National Security Strategy, NSS) est normalement un document technocratique, non contraignant juridiquement, que chaque président des États-Unis doit, durant son mandat, adresser au Congrès pour guider la politique étrangère du pays.
La version publiée par l’administration Trump en 2025 (ici en français) ressemble pourtant moins à un texte d’État qu’à un manifeste idéologique MAGA (Make America Great Again) qui s’adresse tout autant à sa base qu’au reste du monde, à commencer par les alliés européens de Washington, accusés de trahir la « vraie » démocratie. Pour la première fois, et contrairement à la NSS du premier mandat Trump publiée en 2017, la sécurité nationale y est définie presque exclusivement à partir des obsessions trumpistes : immigration, guerre culturelle, nationalisme.
Les trois principales articulations du texte
La NSS 2025 rompt complètement avec la tradition libérale de la démocratie constitutionnelle (respect des droits fondamentaux, primauté de l’État de droit, pluralisme) et avec sa traduction internationale — la promotion de la démocratie dans le cadre d’un ordre multilatéral fondé sur des règles. Elle réécrit l’histoire depuis la fin de la guerre froide, construit un ennemi composite (immigration, élites « globalistes », Europe) et détourne le vocabulaire de la liberté et de la démocratie au service d’un exceptionnalisme ethno-populiste.
Ce document présente une grande narration en trois actes.
Acte I : La trahison des élites.
C’est le récit de l’échec des politiques menées par les États-Unis depuis 1991, imputées à l’hubris d’élites qui auraient voulu l’hégémonie globale. Elles auraient mené des « guerres sans fin », mis en place un « prétendu libre-échange » et soumis le pays à des institutions supranationales, au prix de l’industrie américaine, de la classe moyenne, de la souveraineté nationale et de la cohésion culturelle. Ce premier acte souligne enfin l’incapacité à renouveler un récit national crédible après la fin de la guerre froide : c’est sur ce vide narratif que Trump construit son propre récit.
Acte II : Le déclin.
Le déclin des États-Unis tel que vu par l’administration Trump est à la fois économique, moral, géopolitique et démographique. Il se manifeste par la désindustrialisation, les guerres ratées, ou encore par la crise des frontières avec le Mexique. Il fait écho au « carnage américain » que l’actuel président avait dénoncé lors de son premier discours d’investiture, en 2017. L’ennemi est ici décrit comme à la fois intérieur et extérieur : l’immigration, présentée comme une « invasion » liée aux cartels, mais aussi les institutions internationales et les élites de politique étrangère, américaines comme européennes. Tous sont intégrés dans un même schéma conflictuel, celui d’une guerre globale que l’administration Trump serait prête à mener contre ceux qui menaceraient souveraineté, culture et prospérité américaines.
Acte III : Le sauveur.
La NSS présente le locataire de la Maison Blanche comme un leader providentiel, comme le « président de la Paix » qui corrige la trahison des élites. Trump y apparaît comme un « redresseur », héros (ou anti-héros) qui aurait, en moins d’un an, « réglé huit conflits violents ». Il incarnerait une nation retrouvée, prête à connaître un « nouvel âge d’or ». On retrouve ici un schéma narratif typiquement américain, issu de la tradition religieuse de la jérémiade : un prêche qui commence par dénoncer les fautes et la décadence, puis propose un retour aux sources pour « sauver » la communauté. L’historien Sacvan Bercovitch a montré que ce type de récit est au cœur du mythe national américain. Un texte qui devrait être techno-bureaucratique se transforme ainsi en récit de chute et de rédemption.
L’exceptionnalisme américain à la sauce Trump
À y regarder de près, la NSS 2025 foisonne de tropes propres aux grands mythes américains. Il s’agit de « mythifier » la rupture avec des décennies de politique étrangère en présentant la politique conduite par l’administration Trump comme un retour aux origines.
Le texte invoque Dieu et les « droits naturels » comme fondement de la souveraineté, de la liberté, de la famille traditionnelle, voire de la fermeture des frontières. Il convoque la Déclaration d’indépendance et les « pères fondateurs des États-Unis » pour justifier un non-interventionnisme sélectif. Il se réclame aussi de « l’esprit pionnier de l’Amérique » pour expliquer la « domination économique constante » et la « supériorité militaire » de Washington.
Si le mot exceptionalism n’apparaît pas (pas plus que la formule « indispensable nation »), la NSS 2025 est saturée de formulations reprenant l’idée d’une nation unique dans le monde : hyper-superlatifs sur la puissance économique et militaire, rôle central de l’Amérique comme pilier de l’ordre monétaire, technologique et stratégique. Il s’agit d’abord d’un exceptionnalisme de puissance : le texte détaille longuement la domination économique, énergétique, militaire et financière des États-Unis, puis en déduit leur supériorité morale. Si l’Amérique est « la plus grande nation de l’histoire » et « le berceau de la liberté », c’est d’abord parce qu’elle est la plus forte. La vertu n’est plus une exigence qui pourrait limiter l’usage de la puissance ; elle est au contraire validée par cette puissance.
Dans ce schéma, les élites — y compris européennes — qui affaiblissent la capacité américaine en matière d’énergie, d’industrie ou de frontières ne commettent pas seulement une erreur stratégique, mais une faute morale. Ce n’est plus l’exceptionnalisme libéral classique de la diffusion de la démocratie, mais une forme d’exceptionnalisme moral souverainiste : l’Amérique se pense comme principale gardienne de la « vraie » liberté, contre ses adversaires mais aussi contre certains de ses alliés.
Là où les stratégies précédentes mettaient en avant la défense d’un « ordre international libéral », la NSS 2025 décrit surtout un pays victime, exploité par ses alliés, corseté par des institutions hostiles : l’exceptionnalisme devient le récit d’une surpuissance assiégée plutôt que d’une démocratie exemplaire. Derrière cette exaltation de la « grandeur » américaine, la NSS 2025 ressemble davantage à un plan d’affaires, conçu pour servir les intérêts des grandes industries — et, au passage, ceux de Trump lui-même. Ici, ce n’est pas le profit qui se conforme à la morale, c’est la morale qui se met au service du profit.
Une vision très particulière de la doctrine Monroe
De même, le texte propose une version mythifiée de la doctrine Monroe (1823) en se présentant comme un « retour » à la vocation historique des États-Unis : protéger l’hémisphère occidental des ingérences extérieures. Mais ce recours au passé sert à construire une nouvelle doctrine, celui d’un « corollaire Trump » — en écho au « corollaire Roosevelt » : l’Amérique n’y défend plus seulement l’indépendance politique de ses voisins, elle transforme la région en chasse gardée géo-économique et migratoire, prolongement direct de sa frontière sud et vitrine de sa puissance industrielle.
À lire aussi : États-Unis/Venezuela : la guerre ou le deal ?
Sous couvert de renouer avec Monroe, le texte légitime une version trumpiste du leadership régional, où le contrôle des flux (capitaux, infrastructures, populations) devient le cœur de la mission américaine. Là encore, le projet quasi impérialiste de Trump est présenté comme l’extension logique d’une tradition américaine, plutôt que comme une rupture.
La NSS 2025 assume au contraire une ingérence politique explicite en Europe, promettant de s’opposer aux « restrictions antidémocratiques » imposées par les élites européennes (qu’il s’agisse, selon Washington, de régulations visant les plates-formes américaines de réseaux sociaux, de limitations de la liberté d’expression ou de contraintes pesant sur les partis souverainistes) et de peser sur leurs choix énergétiques, migratoires ou sécuritaires. Autrement dit, Washington invoque Monroe pour sanctuariser son hémisphère, tout en s’arrogeant le droit d’intervenir dans la vie politique et normative européenne — ce qui revient à revendiquer pour soi ce que la doctrine refuse aux autres.
Dans la NSS 2025, l’Europe est omniprésente — citée une cinquantaine de fois, soit deux fois plus que la Chine et cinq fois plus que la Russie —, décrite comme le théâtre central d’une crise à la fois politique, démographique et civilisationnelle. Le texte oppose systématiquement les « élites » européennes à leurs peuples, accusant les premières d’imposer, par la régulation, l’intégration européenne et l’ouverture migratoire, une forme d’« effacement civilisationnel » qui reprend, sans le dire, la logique du « grand remplacement » de Renaud Camus, théorie complotiste d’extrême droite largement documentée.
À lire aussi : L’Europe vue par J. D. Vance : un continent à la dérive que seul un virage vers l’extrême droite pourrait sauver
L’administration Trump s’y arroge un droit d’ingérence idéologique inédit : elle promet de défendre les « vraies » libertés des citoyens européens contre Bruxelles, les cours et les gouvernements, tout en soutenant implicitement les partis d’extrême droite ethno-nationalistes qui se posent en porte-voix de peuples trahis. L’Union européenne est dépeinte comme une machine normative étouffante, dont les règles climatiques, économiques ou sociétales affaibliraient la souveraineté des nations et leur vitalité démographique. Ce faisant, le sens même des mots « démocratie » et « liberté » est inversé : ce ne sont plus les institutions libérales et les traités qui garantissent ces valeurs, mais leur contestation au nom d’un peuple soi-disant homogène et menacé, que Washington prétend désormais protéger jusque sur le sol européen.
La Russie, quant à elle, apparaît moins comme ennemi existentiel que comme puissance perturbatrice dont la guerre en Ukraine accélère surtout le déclin européen. La NSS 2025 insiste sur la nécessité d’une cessation rapide des hostilités et de la mise en place d’un nouvel équilibre stratégique, afin de favoriser les affaires. La Chine est le seul véritable rival systémique, surtout économique et technologique. La rivalité militaire (Taïwan, mer de Chine) est bien présente, mais toujours pensée à partir de l’enjeu clé : empêcher Pékin de transformer sa puissance industrielle en hégémonie régionale et globale.
Le Moyen-Orient n’est plus central : grâce à l’indépendance énergétique, Washington cherche à transférer la charge de la sécurité à ses alliés régionaux, en se réservant un rôle de faiseur de deals face à un Iran affaibli. L’Afrique, enfin, est envisagée comme un terrain de reconquête géo-économique face à la Chine, où l’on privilégie les partenariats commerciaux et énergétiques avec quelques États jugés « fiables », plutôt qu’une politique d’aide ou d’interventions lourdes.
Un texte qui ne fait pas consensus
Malgré la cohérence apparente et le ton très péremptoire de cette doctrine, le camp MAGA reste traversé de fortes divisions sur la politique étrangère, entre isolationnistes « America First » hostiles à toute projection de puissance coûteuse et faucons qui veulent continuer à utiliser la supériorité militaire américaine pour imposer des rapports de force favorables.
Surtout, les sondages (ici, ici, ou ici) montrent que, si une partie de l’électorat républicain adhère à la rhétorique de fermeté (frontières, Chine, rejet des élites), l’opinion américaine dans son ensemble demeure majoritairement attachée à la démocratie libérale, aux contre-pouvoirs et aux alliances traditionnelles. Les Américains souhaitent moins de guerres sans fin, mais ils ne plébiscitent ni un repli illibéral ni une remise en cause frontale des institutions qui structurent l’ordre international depuis 1945.
Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.12.2025 à 15:57
Le cash recule, mais reste solidement ancré dans les portefeuilles des Français
Texte intégral (1533 mots)
Le cash recule mais ne disparaît pas. Face à l’essor fulgurant des paiements numériques et aux ambitions européennes d’un euro digital, les espèces résistent, portées par la recherche de confidentialité, de contrôle et de résilience. À l’heure du tout dématérialisé, les Français n’ont pas encore remisé pièces et billets.
Le cash, c’est-à-dire l’argent liquide, tangible et immédiatement disponible, est très ancien, bien antérieur au mot lui-même. Les premières pièces de monnaie remontent à 600 avant notre ère environ en Lydie (actuelle Turquie). Les billets de banque remplacent progressivement les pièces à partir du XVIIe siècle.
Plus de 2 600 ans après son apparition, la monnaie fiduciaire (pièces et billets), par opposition à la monnaie scripturale (virements, cartes, paiements mobiles…), est-elle condamnée à disparaître ?
Un moindre usage des espèces au profit des paiements dématérialisés
L’usage des espèces recule progressivement en France au profit de la carte bancaire et des paiements mobiles. La quatrième enquête de la Banque centrale européenne (BCE) sur les habitudes de paiement des consommateurs en zone euro, publiée en décembre 2024, montre en effet que les paiements par carte représentent désormais 48 % des transactions, contre 43 % pour les paiements en espèces.
Pour la première fois, la carte dépasse donc le cash dans l’Hexagone – une situation qui contraste avec celle de l’ensemble de la zone euro, où les espèces demeurent le moyen de paiement le plus utilisé aux points de vente.
Répartition des moyens de paiement aux points de vente, en France et en zone euro (en % du nombre de transactions)
Cette évolution s’inscrit dans une tendance de long terme, nourrie par un environnement propice à l’innovation et à la numérisation des services financiers.
L’écosystème français des paiements, porté par un tissu dynamique de fintech, propose une offre diversifiée de solutions scripturales qui séduit un nombre croissant de consommateurs. L’essor du paiement sans contact accompagne ce mouvement. Apparue en 2012 avec un plafond initial de 20 euros, relevé successivement à 30 puis 50 euros, cette fonctionnalité concerne aujourd’hui près de sept paiements sur dix réalisés au point de vente. Le développement de la technologie dite « PIN online », permettant de dépasser ce seuil après saisie d’un code sur le terminal de paiement, devrait encore accélérer cette adoption. Parallèlement, la croissance du commerce en ligne a profondément transformé les usages.
Un quart des paiements en France s’effectue désormais sur Internet, une évolution largement stimulée par la crise sanitaire, qui a ancré durablement les réflexes numériques des consommateurs. Les paiements mobiles et les virements instantanés connaissent eux aussi une progression rapide, soutenue par l’émergence de solutions innovantes comme Wero, service européen de paiement instantané proposé par les banques de cinq pays européens.
Cette transition vers le numérique soulève des enjeux majeurs
Cette dynamique devrait se poursuivre à mesure que l’écosystème des paiements continue d’évoluer. De nouveaux acteurs – prestataires techniques, grandes entreprises technologiques, fintech spécialisées – renforcent leur présence dans la chaîne de valeur des paiements.
Dans ce contexte d’initiatives privées et de dématérialisation accrue, les banques centrales cherchent à préserver leur rôle dans les paiements. L’Eurosystème prépare ainsi l’émission d’un euro numérique, destiné à compléter les espèces et les moyens de paiement existants. Son déploiement pourrait intervenir à l’horizon 2027 ou 2028, malgré des interrogations persistantes sur sa complexité d’usage et sa valeur ajoutée perçue par le grand public.
De leur côté, les paiements en stablecoins progressent également, portés par des cas d’usage concrets dans le commerce numérique, les transferts de fonds et les paiements internationaux : ils s’intègrent de plus en plus à l’économie réelle et ne relèvent plus uniquement de la spéculation.
Toutefois, cette transition vers le numérique soulève des enjeux majeurs de souveraineté. Comme le souligne François Villeroy de Galhau, gouverneur de la Banque de France, dans sa Lettre au président de la République, d’avril 2025, 72 % des paiements par carte en zone euro au second semestre 2023 reposaient sur des réseaux internationaux. Christine Lagarde, présidente de la BCE, alerte également sur la dépendance de l’Europe à des infrastructures non européennes – Visa, Mastercard, PayPal, Alipay – issues pour la plupart des États-Unis ou de Chine.
Les infrastructures de cartes nationales, comme Carte bleue (CB) en France, s’érodent en Europe : seuls neuf demeurent actives dans l’Union européenne, tandis que treize pays de la zone euro dépendent entièrement d’acteurs internationaux. Cette dépendance accroît la vulnérabilité de l’Europe face à d’éventuelles restrictions d’accès aux systèmes de paiement. Dans un récent rapport de la Fondation Concorde, nous préconisons le développement de solutions européennes et le co-badging sur les cartes pour renforcer l’autonomie financière du continent.
Le numérique séduit, le cash rassure
Malgré cette dématérialisation rapide des paiements, les Français restent profondément attachés aux espèces. L’enquête de la BCE souligne en effet que 60 % d’entre eux jugent important de conserver la possibilité de payer en liquide. L’anonymat et la protection de la vie privée (d’ailleurs, crainte souvent émise à l’égard du projet d’euro numérique de la BCE), le règlement immédiat et la maîtrise des dépenses figurent parmi les avantages les plus fréquemment cités.
L’accès au cash demeure par ailleurs très satisfaisant : 94 % des commerçants acceptent encore les espèces, et la quasi-totalité de la population (99,9 %) vit à moins de quinze minutes de trajet par la route d’un site équipé d’au moins un distributeur automatique de billets (DAB) ou d’un point d’accès privatif chez un commerçant. Bien que le nombre de DAB ait reculé (42 578 DAB fin 2024, contre 52 697 en 2018), 91 % des Français estiment que l’accès au liquide reste « facile » ou « très facile » – l’un des meilleurs scores de la zone euro.
Assez paradoxalement, la Banque centrale européenne elle-même invite dans une note « Gardez votre calme et conservez de l’argent liquide : leçons sur le rôle unique de la monnaie physique à travers quatre crises », parue en septembre dernier, à ne pas tourner totalement le dos au cash. En cas de crise majeure – panne électrique, cyberattaque ou pandémie –, elle recommande de garder entre 70 et 100 euros en liquide par personne pour les dépenses essentielles. Un conseil révélateur : si le cash décline dans nos portefeuilles, il reste une valeur refuge, un symbole de sécurité et d’autonomie. Autrement dit, la France avance vers les paiements du futur… sans tout à fait lâcher ses pièces et ses billets.
Entre la carte et les espèces, les Français se montrent ainsi ambivalents. Ils adoptent avec enthousiasme les technologies sans contact, les paiements mobiles et les virements instantanés, tout en conservant dans leurs portefeuilles un peu de cash « au cas où ». Le futur du paiement s’écrira sans doute à deux vitesses : numérique par choix, mais liquide par prudence.
Timothée Waxin est administrateur et vice-président du conseil scientifique de la Fondation Concorde.
11.12.2025 à 15:57
Comment Paris est passé de capitale de la vie brève à championne de la longévité
Texte intégral (4251 mots)

Longtemps marquée par une mortalité élevée, la population de Paris accusait à la fin du XIXᵉ siècle un lourd retard d’espérance de vie par rapport à celles des autres régions de France. Un siècle plus tard, la ville est devenue l’un des territoires où l’on vit le plus longtemps au monde. Comment expliquer ce renversement spectaculaire ? Une plongée dans les archives de la capitale permet de retracer les causes de cette transformation, entre recul des maladies infectieuses, progrès de l’hygiène publique et forte baisse des inégalités sociales face à la mort.
Combien de temps peut-on espérer vivre ? Derrière cette question d’apparence simple se cache un des indicateurs les plus brûlants pour appréhender le développement socio-économique d’un pays. Car l’espérance de vie à la naissance ne mesure pas seulement la durée moyenne de la vie ; elle résume à elle seule l’état sanitaire, les conditions de vie ainsi que les inégalités sociales au sein d’une population.
En 2024, la France figurait parmi les pays les plus longévifs au monde (autrement dit, l’un des pays où l’on vit le plus longtemps). L’espérance de vie y était de 80 ans pour les hommes et de 85 ans et 7 mois pour les femmes, selon l’Insee. Derrière ces moyennes nationales se cachent toutefois des disparités territoriales notables.
À Paris, par exemple, l’espérance de vie atteignait 82 ans pour les hommes et 86 ans et 8 mois pour les femmes – soit un avantage de 1 à 2 ans par rapport à la moyenne nationale selon le sexe. Mais cela n’a pas toujours été le cas. Retour sur cent cinquante ans d’évolutions.
Une espérance de vie longtemps inférieure à la moyenne française
Paris n’a pas toujours été un havre de longévité. Il y a cent cinquante ans, la vie moyenne des habitants de la capitale était nettement plus courte. Un petit Parisien ayant soufflé sa première bougie en 1872 pouvait espérer vivre encore 43 ans et 6 mois. Une petite Parisienne, 44 ans et dix mois.
C’est ce que révèle la figure ci-dessous, qui retrace l’évolution de l’espérance de vie à un an entre 1872 et 2019 pour la France entière (en noir) et pour la capitale (en rouge). Cet indicateur, qui exclut la mortalité infantile (très élevée et mal mesurée à Paris à l’époque), permet de mieux suivre les changements structurels de la longévité en France sur le long terme.
On constate que, dans la capitale, l’espérance de vie est longtemps restée inférieure à celle du reste du pays. Ce n’est qu’au début des années 1990 (pour les femmes) et des années 2000 (pour les hommes) qu’elle a dépassé celle de l’ensemble des Français.
À la fin du XIXe siècle, l’écart en défaveur des habitants de la capitale atteignait dix ans pour les hommes et huit ans pour les femmes. Cette situation, commune de par le monde, est connue dans la littérature sous le nom de pénalité urbaine. On l’explique entre autres par une densité de population élevée favorisant la propagation des maladies infectieuses et un accès difficile à une eau potable de qualité.
Dans une étude récemment publiée dans la revue Population and Development Review, nous avons cherché à mieux comprendre comment Paris est passé de la capitale de la vie brève à l’un des territoires dans le monde où les habitants peuvent espérer vivre le plus longtemps.
Une base de données inédite pour remonter le fil de la longévité parisienne
Pour cela, nous avons collecté un ensemble inédit de données sur les causes de décès entre 1890 et 1949 à Paris, seule ville de France pour laquelle ces données ont été produites à cette époque, grâce aux travaux fondateurs des statisticiens Louis-Adolphe et (son fils) Jacques Bertillon.
Cette tâche est pendant très longtemps restée impossible, car, même si les données requises existaient, elles restaient dispersées dans les archives de la Ville et leurs coûts de numérisation étaient élevés. De plus, les statistiques de mortalité par cause étaient difficiles à exploiter, en raison de changements répétés de classification médicale. Nous avons pu récemment lever ces écueils grâce à des innovations de collecte et de méthode statistique.
En pratique, nous sommes allés photographier de nombreux livres renseignant le nombre de décès par âge, sexe et cause pour l’ensemble de la ville de Paris sur près de 60 ans. Puis nous avons extrait cette information (bien souvent à la main) afin qu’elle soit utilisable par nos logiciels statistiques. Pour approfondir nos analyses, nous avons également collecté ces données par quartier – les 80 actuels – pour certaines maladies infectieuses, afin de mieux saisir la transformation des inégalités sociales et spatiales face à la mort durant cette période.
Cette collecte minutieuse de dizaines de milliers de données a permis de constituer une nouvelle base désormais librement accessible à la communauté scientifique. Elle offre la possibilité d’analyser de manière inédite les mécanismes à l’origine de l’amélioration spectaculaire de la longévité à Paris durant la première moitié du XXᵉ siècle, une période où la population de la capitale a fortement augmenté pour atteindre près de trois millions d’habitants, notamment en raison de l’arrivée massive de jeunes migrants venus des campagnes françaises lors de l’exode rural.
Un gain important dû au recul des maladies infectieuses
Entre 1890 et 1950, l’espérance de vie à 1 an a bondi de près de vingt-cinq ans à Paris. À quoi un tel progrès est-il dû ? Si l’on décompose cette formidable hausse par grandes causes de décès, pour les hommes comme pour les femmes, on constate que les maladies infectieuses dominaient largement la mortalité parisienne à la Belle Époque. C’était en particulier le cas de la tuberculose, la diphtérie, la rougeole, la bronchite et la pneumonie. Nous avons également isolé les cancers, les maladies cardio-vasculaires et, pour les femmes, les causes liées à la grossesse.
Le résultat est sans appel : la disparition progressive des maladies infectieuses explique à elle seule près de 80 % des gains de longévité observés dans la capitale. Sur les 25 années d’espérance de vie gagnées, 20 sont dues au recul de ces infections.
La lutte contre la tuberculose, maladie infectieuse provoquée par la bactérie Mycobacterium tuberculosis, a été le principal moteur de ce progrès. Longtemps première cause de décès à Paris, le déclin rapide de cette maladie après la Première Guerre mondiale représente près de huit ans d’espérance de vie gagnés pour les hommes et six ans pour les femmes. Les infections respiratoires (bronchites et pneumonies), très répandues à l’époque, ont quant à elles permis un gain supplémentaire de cinq ans. Des avancées sur plusieurs fronts (transformations économiques et sociales, progrès en santé publique, efforts collectifs de lutte contre la tuberculose et améliorations nutritionnelles) ont pu contribuer à la baisse de la mortalité liée à ces maladies.
La diphtérie, particulièrement meurtrière chez les enfants au XIXᵉ siècle, a également reculé spectaculairement durant les années 1890, ce qui a permis un gain d’espérance de vie d’environ deux ans et six mois. La baisse de la mortalité due à cette cause aurait été impulsée par l’introduction réussie du sérum antidiphtérique – l’un des premiers traitements efficaces contre les maladies infectieuses.
En revanche, les maladies cardio-vasculaires et les cancers n’ont joué qu’un rôle mineur avant 1950. Leurs effets apparaissent plus tardivement, et s’opposent même parfois à la progression générale : les cancers, notamment chez les hommes, ont légèrement freiné la hausse de l’espérance de vie. Quant aux causes liées à la grossesse, leur impact est resté limité.
Cette formidable hausse de l’espérance de vie s’est poursuivie au-delà de notre période d’étude, mais à un rythme moins soutenu. L’augmentation a été d’un peu moins de vingt ans entre 1950 et 2019.
Au début du XXᵉ siècle, de féroces inégalités sociales face à la mort
Nous l’avons vu, la lutte contre la tuberculose a été l’un des principaux moteurs des progrès spectaculaires de l’espérance de vie à Paris entre 1890 et 1950. Grâce aux séries des statistiques de décès par cause que nous avons reconstituées pour les 80 quartiers de la capitale, nous avons cherché à mieux comprendre les ressorts de cette maladie en dressant une véritable géographie sociale.
Pour chaque quartier, nous avons calculé un taux de mortalité « brut »
– c’est-à-dire le rapport entre le nombre de décès dus à la tuberculose et la population totale du quartier, pour 100 000 habitants. Nous avons ainsi pu produire une carte afin de visualiser cette mortalité spécifique, aux alentours de l’année 1900.
On constate que les écarts de mortalité étaient considérables au sein de la capitale en 1900. Les valeurs les plus élevées, souvent supérieures à 400 décès pour 100 000 habitants, se concentraient dans l’est et le sud de Paris. Les trois quartiers où les valeurs étaient les plus élevées sont Saint-Merri (près de 900), Plaisance (850) et Belleville (un peu moins de 800). À l’inverse, les quartiers de l’Ouest parisien affichaient des taux bien plus faibles, et des valeurs minimales proches de 100 dans les quartiers des Champs-Élysées, de l’Europe et de la Chaussée-d’Antin.
Ces différences spatiales reflètent directement les inégalités sociales de l’époque. En nous fondant sur les statistiques de loyers du début du XXᵉ siècle, nous avons estimé quels étaient les dix quartiers les plus riches (matérialisés sur la figure par des triangles noirs) ainsi que les dix plus pauvres (cercles noirs). On constate que la nette fracture sociale entre le Paris aisé du centre-ouest et le Paris populaire des marges orientales se superpose clairement à la carte de la mortalité par tuberculose.
Une situation qui s’équilibre seulement après la Seconde Guerre mondiale
Si l’on se penche sur l’évolution de ces écarts entre la fin du XIXᵉ siècle et 1950, on constate que les quartiers les plus pauvres affichaient à la fin du XIXᵉ siècle des taux de mortalité par tuberculose supérieurs à 600, trois fois et demie supérieurs à ceux des quartiers les plus riches.
L’écart s’est encore creusé jusqu’à la veille de la Première Guerre mondiale, sous l’effet d’une baisse de la mortalité plus forte dans les quartiers riches que dans les quartiers pauvres. Ainsi en 1910, les taux de mortalité par tuberculose étaient encore quatre fois et demie plus élevés dans les quartiers populaires que dans les quartiers riches.
Durant l’entre-deux-guerres, les écarts se sont resserrés. L’éradication progressive des maladies infectieuses a permis les progrès considérables d’espérance de vie observés de la Belle Époque à la fin de la Seconde Guerre mondiale. La mortalité a chuté très rapidement dans les quartiers les plus défavorisés. À la fin des années 1930, elle n’y était plus que deux fois supérieure à celle des quartiers riches.
Après la Seconde Guerre mondiale, les taux sont enfin passés sous les 100 décès pour 100 000 habitants dans les quartiers pauvres. Un seuil que le quartier des Champs-Élysées avait déjà atteint cinquante ans plus tôt…
Quelles leçons pour l’histoire ?
Le rythme de cette transformation – dont la lutte contre la tuberculose a été l’un des moteurs – fut exceptionnel. Ce sont près de six mois d’espérance de vie qui ont été gagnés chaque année sur la période allant des débuts de la Belle Époque à la fin de la Seconde Guerre mondiale. Les déterminants de cette forte baisse de la mortalité sont encore débattus, toutefois on peut les regrouper en trois catégories.
La première concerne les investissements dans les infrastructures sanitaires. La connexion progressive des logements aux réseaux d’assainissement aurait contribué à la réduction de la mortalité causée par les maladies infectieuses transmises par l’eau.
Par ailleurs, la mise en place au tournant du XXᵉ siècle du « casier sanitaire » aurait contribué à la baisse de la mortalité des maladies infectieuses transmises par l’air – notamment la tuberculose –, en permettant l’enregistrement des informations liées à la salubrité des logements : présence d’égouts, d’alimentation en eau, recensement du nombre de pièces sur courette, du nombre de cabinets d’aisances communs ou privatifs, du nombre d’habitants et de logements par étage, liste des interventions effectuées sur la maison (désinfections, rapport de la commission des logements insalubres, maladies contagieuses enregistrées), compte-rendu d’enquête sanitaire (relevant la nature du sol, le système de vidange, l’état des chutes, les ventilations), etc.
La seconde catégorie de déterminants qui ont pu faire augmenter l’espérance de vie tient aux innovations médicales : le vaccin BCG contre la tuberculose (mis au point en 1921) ou le vaccin antidiphtérique (mis au point en 1923) ont, entre autres, modifié le paysage sanitaire.
Enfin, la troisième et dernière catégorie relève des transformations économiques et sociales. La première moitié du XXᵉ siècle a connu une croissance économique soutenue, une amélioration des conditions de vie et une diminution marquée des inégalités de revenus.
L’amélioration du réseau de transport a par ailleurs facilité l’approvisionnement alimentaire depuis les campagnes, contribuant à une meilleure nutrition. Notre étude semble montrer, enfin, que les antibiotiques, découverts plus tardivement, n’ont joué qu’un rôle marginal avant 1950.
Comprendre les dynamiques sanitaires contemporaines
Nos recherches sur le sujet ne sont pas terminées. Nous continuons à accumuler de nouvelles données pour analyser l’évolution de l’espérance de vie et de la mortalité par cause dans chacun des 20 arrondissements et des 80 quartiers de la capitale afin d’analyser plus en détail cette période de cent cinquante ans. Nous pourrons ainsi progressivement lever le voile sur l’ensemble des raisons qui font de Paris cette championne de la longévité que l’on connaît aujourd’hui.
Ces recherches, bien que centrées sur des phénomènes historiques, conservent une importance majeure pour l’analyse des dynamiques sanitaires contemporaines. Elles documentent la manière dont les maladies chroniques ont progressivement commencé à façonner l’évolution de l’espérance de vie, rôle qui structure aujourd’hui les transformations de la longévité.
Elles démontrent également que les disparités de mortalité selon les conditions socio-économiques, désormais bien établies dans la littérature actuelle, étaient déjà présentes dans le Paris de la fin du XIXᵉ siècle.
Surtout, nos analyses examinent un cas concret montrant que, malgré l’ampleur initiale des inégalités socio-économiques de mortalité, celles-ci se sont fortement réduites lorsque les groupes les plus défavorisés ont pu bénéficier d’un accès élargi aux améliorations sanitaires, sociales et environnementales.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
11.12.2025 à 15:56
Entretenir le mythe du Père Noël, une affaire de milieu social ?
Texte intégral (2201 mots)
Dès la grande section de maternelle, des inégalités s’immiscent au sein du quotidien des enfants. Publié sous la direction des chercheuses Frédérique Giraud et Gaële Henri-Panabière, l’ouvrage Premières classes. Comment la reproduction sociale joue avant six ans met en lumière les mécanismes précoces qui sous-tendent leur transmission d’une génération à l’autre, à partir d’une enquête de terrain menée à la fois en famille et en classe.
Dans le premier chapitre, les sociologues Géraldine Bois et Charlotte Moquet s’arrêtent sur les conceptions de l’enfance qui animent les parents. Comment celles-ci orientent-elles leurs pratiques éducatives ? Dans l’extrait ci-dessous, elles nous montrent comment leur attitude vis-à-vis des croyances enfantines, comme le Père Noël et la petite souris, varient selon les milieux sociaux.
On se représente souvent l’enfance comme l’âge de l’innocence, un âge où les enfants doivent pouvoir rêver et s’émerveiller à l’abri des soucis des adultes. De fait, tous les parents que nous avons rencontrés adhèrent à cette conception de l’enfance, à des degrés divers. Ils s’efforcent de tenir leur enfant à distance de certaines de leurs discussions (soucis professionnels, conflits familiaux, etc.) et regrettent de ne pas toujours y parvenir : « On essaye de pas le faire, mais bon quelquefois ça arrive […]. On oublie qu’il y a les petites oreilles des enfants à côté. » (Mme Moreau, pharmacienne en couple avec un ingénieur, classes supérieures)
Ils tentent tout particulièrement de le protéger des événements violents de l’actualité (attentats, guerres, etc.), en contrôlant son accès à ces informations et en évitant d’en parler devant lui. « Je me dis qu’elle a bien le temps de voir l’horreur de la société dans laquelle on vit », « Ils sont encore jeunes, ils ont encore le temps de voir beaucoup de misère », déclarent par exemple les parents interrogés.
Cette tendance à la préservation du monde de l’enfance est cependant plus ou moins marquée selon leurs appartenances sociales : certains parents, plus souvent de classes populaires, s’efforcent de maintenir leur enfant dans ce monde, quand d’autres, plus souvent de classes moyennes et supérieures, l’encouragent plutôt à le questionner.
Sur ce point, les attitudes parentales vis-à-vis des croyances enfantines que sont le Père Noël et la petite souris sont révélatrices. Certains parents entretiennent ces croyances afin de sauvegarder une « magie », un « imaginaire » et une « innocence » qu’ils estiment propres à l’enfance. Mme Chanteau (assistante sociale, classes moyennes), qui « essaye de trouver des réponses qui [lui] semblent les moins farfelues » pour limiter les doutes de sa fille Annabelle, explique : « Je trouve qu’elle est petite et j’ai envie de la conforter encore dans cet imaginaire. » Dans ces familles, la prise de conscience de la réalité à propos de ces croyances est donc remise à plus tard, comme l’exprime le père de Bastien Perret (ouvrier en couple avec une infirmière, classes populaires) : « De toute façon, après, il le saura par l’école, parce que plus il va grandir [moins il y croira]. »
Les récits des pratiques familiales témoignent de stratégies pour retarder le plus possible leur disparition. Ainsi, les parents de Bastien ont demandé à ses cousins plus âgés de ne pas lui révéler la vérité sur l’existence du Père Noël. D’autres parents échafaudent de véritables mises en scène qu’ils racontent avec beaucoup d’enthousiasme : faire disparaître dans la nuit des gâteaux destinés au Père Noël, créer une diversion pour disposer à l’insu des enfants les cadeaux sous le sapin, faire croire que le Père Noël passe en diffusant le son de son traîneau, etc.
Si ces attitudes de préservation des croyances enfantines se rencontrent dans des familles de milieux sociaux variés, elles sont nettement plus présentes dans les classes populaires et concernent la quasi-totalité des familles de ce milieu social. En outre, les quelques familles de classes moyennes et supérieures également concernées se caractérisent souvent par des origines populaires du côté des parents. Cette particularité permet de souligner que, si la façon dont les parents pensent l’enfance et agissent à l’égard de leur enfant a des effets sur son éducation, ces représentations et pratiques des parents sont elles-mêmes le fruit d’une socialisation antérieure, notamment familiale. Autrement dit, les représentations et pratiques des parents sont les produits de ce qu’ils ont appris dans leur propre environnement familial.
D’autres parents, au contraire, ne tiennent pas spécialement à ce que leur enfant continue de croire au Père Noël ou la petite souris. On rencontre cette distance vis-à-vis des croyances enfantines uniquement dans les familles de classes moyennes et supérieures, et dans la très grande majorité des familles de ces milieux sociaux. S’avouant parfois mal à l’aise avec « les mensonges » qu’implique l’entretien de ces croyances, les parents adoptent ici une attitude qui consiste à laisser leur enfant croire si celui-ci en a envie, sans l’y encourager pour autant. Sans dire explicitement la vérité à leur enfant, ces parents se montrent intéressés par les doutes qu’il exprime et voient positivement le fait qu’il ne soit pas totalement dupe ou naïf. En effet, dans ces familles, les croyances enfantines sont avant tout traitées comme un terrain d’exercice du raisonnement logique.
Comme l’explique Mme Tardieu (responsable de communication dans une grande entreprise en couple avec un ingénieur d’affaires, classes supérieures), « on est sur des sujets où justement on veut que [nos enfants] réfléchissent un petit peu ». Les parents évitent donc d’apporter à leur enfant des réponses définitives. Ils encouragent plutôt ses questionnements en lui demandant ce qu’il en pense ou ce qu’il souhaite lui-même croire : « Je lui dis : “Mais qu’est-ce que tu as envie de croire ? Est-ce que tu as envie de croire que le [Père Noël] existe ?” Et dans ces cas-là, elle réfléchit. […] On lui dit : “C’est comme tu veux. Il y en a qui croient, il y en a qui ne croient pas. C’est comme croire en Dieu. Il y en a qui croient, il y en a qui ne croient pas. Après si tu as des questions on répond, mais on ne va pas te faire ton idée.” […] On reste un peu évasifs. » (mère de Lisa Chapuis, au foyer, en couple avec un architecte, classes moyennes)
À lire aussi : Pourquoi les enfants croient-ils (ou pas) au Père Noël ?
Les enfants de classes moyennes et supérieures sont ici familiarisés à des manières de raisonner (questionner, réfléchir par soi-même) qui sont de nos jours particulièrement valorisées à l’École et peuvent de ce fait contribuer à leur procurer certains bénéfices scolaires. L’extrait d’entretien précédent montre bien que les rapports parentaux aux croyances enfantines peuvent s’inscrire dans une tendance plus générale à l’encouragement de l’esprit critique sur différents sujets.
De la même manière, les plaisanteries sur le Père Noël sont l’un des biais par lesquels les mères de Rebecca Santoli (l’une est professeure de français ; l’autre est en situation de reconversion professionnelle et exerce des petits boulots en intérim) habituent leur fille à un regard critique sur les stratégies commerciales et les inégalités de genre : « Moi je lui ai dit que le Père Noël il a le beau rôle et que c’était la Mère Noël qui faisait tout le taf [rires]. Et puis qu’il est habillé en Coca-Cola là… »
Ces mères font partie des rares parents de l’enquête – appartenant essentiellement aux fractions cultivées des classes moyennes et supérieures – à tenir régulièrement des discussions politiques entre adultes devant leur enfant. Elles amènent aussi Rebecca à des réunions militantes mêlant adultes et enfants. À propos de ce qui pourrait inquiéter leur fille, elles ont par ailleurs une attitude ambivalente qui manifeste leur tendance à vouloir solliciter son questionnement. Concernant les événements de l’actualité, elles disent avoir le souci de « l’épargner » mais aussi l’« envie de répondre à ses questions ». Elles doutent également de la pertinence de sa prise de conscience des difficultés financières de l’une d’entre elles, partagées entre le sentiment qu’elle est « un peu jeune » pour « se faire du souci » à ce sujet et la volonté de la « confronter à la réalité ».
À lire aussi : Ce que les enfants pensent vraiment du père Noël
À côté de certains parents de classes moyennes ou supérieures comme ceux de Rebecca, qui ont les moyens de décider ce à quoi ils exposent leur enfant, les parents les plus précarisés des classes populaires habituent eux aussi, mais par la force des choses, leur enfant à certaines réalités. Si Ashan accompagne sa mère, Mme Kumari (sans emploi, antérieurement infirmière au Sri Lanka) qui l’élève seule, aux réunions du comité de soutien des familles sans logement, c’est ainsi par nécessité (faute de moyen de garde aux horaires de ces réunions et parce que la famille est contrainte de vivre dans un foyer de sans-abri), contrairement aux mères de Rebecca lorsqu’elles vont avec leur fille à des réunions militantes.
D’ailleurs, Ashan tend à jouer à l’écart durant ces réunions sans visiblement écouter ce que disent les adultes, quand Rebecca est encouragée à y participer, à y prendre la parole. Contrairement à Rebecca, Ashan retire donc vraisemblablement peu de bénéfices scolaires de sa présence à ces réunions. Plus généralement, Ashan, mais aussi Libertad Anaradu (dont le père enchaîne des contrats précaires en tant qu’employé municipal et la mère est sans emploi), Balkis Bouzid (dont les parents sont sans activité professionnelle) et Flavia Kombate (dont la mère, qui l’élève seule, est auxiliaire de vie à mi-temps) sont, de fait, confrontés aux problèmes de leurs parents, ceux-ci n’ayant pas la possibilité de leur épargner certaines expériences (manque d’argent, expulsions, absence de logement stable, etc.). Ils n’ont pas non plus toujours les moyens d’entretenir les croyances de leur enfant. Par exemple, Mme Kombate dit à Flavia que le Père Noël n’existe pas et, l’année de l’enquête, elle lui explique qu’elle ne lui achètera pas de cadeaux à Noël puisqu’elle lui en a déjà offerts plus tôt dans l’année.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
11.12.2025 à 15:55
« Stranger Things » ou le triomphe de la nostalgie
Texte intégral (2302 mots)

Miser sur les objets cultes des années 1980, envahir l’espace public et s’inscrire dans la postérité : tel est le programme marketing très bien orchestré de la série « Stranger Things » pour sa cinquième et dernière saison qui surfe plus que jamais sur la nostalgie.
À l’occasion de la sortie de la cinquième et ultime saison de Stranger Things, Netflix déploie un plan d’envergure mondiale : événements publics, collaborations avec des marques internationales, pop-up stores… Derrière l’ampleur promotionnelle, un ressort fondamental unifie la narration, l’esthétique et la stratégie marketing de la série. Il s’agit de la nostalgie.
Objets cultes et nostalgie restauratrice
Depuis 2016, Stranger Things met en scène un imaginaire matérialisé par la présence d’objets emblématiques des années 1980. C’est par l’activation de ces repères culturels que la série prépare et invite le public à l’expérience nostalgique.
Comme l’indiquent les acteurs eux-mêmes dans un teaser promotionnel de la saison 5 :
« Vous allez ressentir des sentiments de nostalgie, ressortez vos chouchous et vos walkmans. »
Parmi les objets emblématiques des années 1980 figurent des téléviseurs à tube cathodique, des cassettes audio, des talkies-walkies, des flippers ou bien encore des bornes d’arcade.
Toutefois, l’efficacité de la nostalgie dans la série va au-delà de ces seules catégories d’objets. Si elle fonctionne si bien à l’écran, c’est parce qu’elle est immédiatement identifiable par l’association à des marques faisant partie intégrante du langage visuel de la culture pop. Les placements de produits y sont nombreux et parfaitement assumés. Il s’agit notamment de la mise en perspective dans cette cinquième saison de produits agroalimentaires parmi lesquels des boissons, comme Sunny Delight ou Coca-Cola. On identifie également plusieurs produits « technologiques », comme une radio Sanyo, un radio-cassette Sidestep, un casque stéréo KOSS, etc. On repère également des marques associées à l’enfance : une parure de lit, une affiche, un puzzle ou bien encore une poupée de l’univers Rainbow Brite, une boîte à goûter G.I. Joe, un bisounours, de la pâte à modeler Play Doh, des crayons de cire Crayola…
Ils sont les véhicules d’une époque que certains ont connue et que d’autres, en écho aux travaux de Svetlana Boym, fantasment ou romancent. Comme le souligne la recherche de Dan Hassler-Forest, Stranger Things illustre une forme de nostalgie « restauratrice », en quelque sorte idéalisée. Les années 1980 apparaissent comme un refuge séduisant face à un présent jugé moins désirable.
Les références empreintes de nostalgie donnent à l’univers de la série sa cohérence esthétique et temporelle. Hawkins, ville fictive dans laquelle se déroule l’action, rappelle selon les recherches de la spécialiste britannique des médias et de la pop culture Antonia Mackay, une forme de « perfectionnisme de la guerre froide », où la tranquillité de la banlieue est interrompue par l’irruption de la menace surnaturelle. En effet, selon la chercheuse, « l’idéologie dominante de l’après-guerre promeut la vie en banlieue, une existence centrée sur l’enfant, Hollywood, la convivialité, le Tupperware et la télévision ». Les frères Duffer, réalisateurs de la série, exploitent ce contraste depuis la première saison. Plus le monde à l’envers gagne du terrain, plus l’univers nostalgique se densifie via les objets, les décors, mais aussi grâce à une bande-son rythmée de tubes des années 1980.
La nostalgie est ainsi l’un des moteurs centraux de la série. Elle s’érige en rempart symbolique contre la terreur associée au monde à l’envers. Passant d’adolescents à jeunes adultes au fil des saisons, les héros évoluent dans un environnement anxiogène figé par l’esthétique rassurante des années 1980. Par effet miroir, en qualité de spectateur, notre propre trajectoire se mêle à celle des personnages de la série. C’est ici aussi que réside l’intuition fondatrice des frères Duffer. Il s’agit de transformer la nostalgie en un espace émotionnel fédérateur, un passé commun recomposé capable de fédérer plusieurs générations.
Licences, « co-branding » et invasion de l’espace public
L’alignement entre l’univers narratif de la série et ses opportunités commerciales ouvre la voie à de multiples partenariats de marque. Le secteur de la restauration rapide, dont la mondialisation s’est accélérée durant les années 1980, est un terrain de jeu idéal pour la mise en place d’opérations commerciales autour de la série. Les exemples sont éloquents : McDonald’s a lancé un Happy Meal accompagné de figurines collector. De son côté, KFC a créé une campagne immersive en se rebaptisant temporairement « Hawkins Fried Chicken », du nom de la ville fictive dans laquelle se déroule la série. Sont mis en scène dans un spot emblématique des employés prêts à affronter tous les dangers du monde à l’envers pour assurer leur livraison. Quant à Burger King, l’enseigne a lancé les menus Hellfire Club d’une part et Upside Down d’autre part, respectivement en référence au club de jeu de rôles Donjons & Dragons de la série et au monde à l’envers qu’elle met en scène.
Cette logique d’extension de la marque Stranger Things se concrétise par des collaborations événementielles qui investissent de nombreux domaines. Par exemple à Paris, l’univers de Stranger Things s’est invité aux Galeries Lafayette. Le grand magasin des Champs-Élysées propose en effet une immersion dans l’atmosphère du monde à l’envers. Des animations interactives y permettent notamment de personnaliser une enceinte Bluetooth en forme de radio. Quant à la chaîne de boulangerie « créative » Bo&Mie, elle décline des pâtisseries aux formes inspirées de la série.
Les exploitations sous licence, depuis Lego aux figurines Pop en passant par Primark, Nike ou Casio, s’emparent de l’esthétique de la série. Stranger Things déborde ainsi de l’écran pour investir les univers marchands mais également l’espace public des grandes villes au travers d’opérations événementielles spectaculaires. C’est notamment le cas lorsque des installations lumineuses immersives sont déployées à l’image de celles de la fête des Lumières de la ville de Lyon.
La postérité en construction
Pour son dernier chapitre, Stranger Things met la nostalgie en scène comme un véritable rituel. La diffusion fractionnée en trois temps n’est pas anodine. Plutôt qu’un lancement d’un seul bloc, Netflix étale la sortie sur trois moments clefs : Thanksgiving, Noël et le Nouvel An. En s’inscrivant dans ce calendrier affectif, la série devient elle‑même un rendez‑vous mémoriel, associé à des fêtes déjà chargées de souvenirs et de traditions.
Ce dispositif permet à Netflix de maintenir l’engouement pendant plusieurs semaines, mais aussi de donner à la série une tonalité plus intime. En effet, la nostalgie du passé se mêle à celle du présent. Les spectateurs vivent les derniers épisodes avec, en filigrane, le souvenir de la découverte de la série près de dix ans plus tôt. La conclusion de Stranger Things active ainsi une double nostalgie : celle, d’une part, des années 1980 reconstituées et celle, d’autre part, de notre propre trajectoire de spectateur.
Alors qu’une page se tourne, Netflix choisit de célébrer la cinquième saison sur l’ensemble des continents à travers le mot d’ordre « One last adventure ». Par exemple, l’événement intitulé « One Last Ride », organisé à Los Angeles le 23 novembre dernier invitait les fans à parcourir Melrose Avenue à vélo, en skate ou à pied. Plus largement, la plateforme déploie une série d’animations, physiques et virtuelles, pour convier les fans du monde entier à accompagner la fin du récit.
Stranger Things est in fine un événement culturel qui va au-delà de l’écran pour occuper l’espace public, les centres‑villes, les grands magasins ou bien encore les réseaux sociaux. La nostalgie y fonctionne comme un vecteur de rassemblement. Cette dynamique s’inscrit dans une stratégie plus large de prolongement de l’univers sériel. On pense notamment aux projets dérivés comme la pièce de théâtre The First Shadow ou bien encore à la série animée Chroniques de 1985. Alors que Stranger Things s’achève, son imaginaire s’installe dans une forme de postérité.
Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.12.2025 à 15:54
La Syrie d’Al-Charaa : opération séduction à l’international, répression des minorités à l’intérieur
Texte intégral (3199 mots)
Le nouvel homme fort de Damas montre patte blanche sur la scène internationale, que ce soit quand il intervient à la tribune de l’ONU ou quand il s’entretient avec Donald Trump, Vladimir Poutine, Recep Tayyip Erdogan, Mohammad ben Salmane ou encore Emmanuel Macron. À l’en croire, l’ancien chef djihadiste souhaite installer un pouvoir – relativement – démocratique et inclusif envers les minorités ethniques de la Syrie. Or le sort des alaouites, des druzes et des Kurdes invite à considérer ces engagements avec la plus grande méfiance.
Les médias occidentaux ont souligné à raison la métamorphose spectaculaire du président syrien Ahmed Al-Charaa et de son image auprès des chancelleries internationales. L’ancien chef du front Al-Nosra (la branche syrienne d’Al-Qaida) s’est lancé depuis cet été dans une véritable offensive diplomatique internationale tous azimuts.
En octobre 2025, Al-Charaa a repris les relations avec la Russie, ancien soutien du régime d’Assad, en réglant la délicate question des bases russes de Tartous et Hmeimim, dont Moscou devrait conserver l’usage. Mais ce qui étonne le plus les journalistes tient à « l’opération séduction » que le président a engagée auprès des puissances occidentales avec des voyages très remarqués en France en mai 2025 et surtout à Washington en novembre 2025. En amont de cette dernière visite, il a obtenu la levée des sanctions onusiennes qui frappaient son groupe Hayat Tahrir al-Cham (HTC), ainsi que son retrait de la liste des organisations reconnues comme terroristes. Il a également pu s’exprimer à la tribune de l’assemblée générale de l’ONU.
Pour autant, si la presse a souligné, à raison, le rapprochement des intérêts de Damas et de Washington, notamment leur projet commun de lutter contre l’État islamique, qui demeure présent en Syrie, la plupart des analystes semblent négliger un paramètre essentiel : la diplomatie syrienne reflète davantage les contraintes géopolitiques qui s’imposent au nouveau régime qu’une véritable volonté de s’ouvrir à l’Occident.
Prisonnier d’une situation domestique très précaire, le pouvoir syrien se doit, s’il veut survivre à court terme, de ménager les intérêts des puissances qui pourraient facilement l’abattre. Il ne peut tenir qu’avec l’assentiment des alliés de Washington, comme Israël ou l’Arabie saoudite, ou des puissances régionales comme la Turquie, qui s’ingèrent dans le jeu politique syrien. Il donne donc des gages à ses partenaires extérieurs mais, dans les faits, le respect des minorités voire l’inclusion tant vantée par les observateurs occidentaux semblent avoir fait long feu, comme le montrent les violences ayant visé diverses communautés et la sous-représentation des minorités parmi les députés élus aux élections législatives d’octobre 2025.
Conserver le soutien de la Turquie dans un contexte domestique fragile
Avant de se rendre dans les chancelleries occidentales, Al-Charaa s’est d’abord assuré du soutien des puissances régionales capables de s’ingérer dans le jeu politique syrien, à commencer par la Turquie, où il s’est rendu dès février 2025. Rappelons que c’est l’alliance entre HTC et les milices de l’ANS, l’armée nationale syrienne, composées de supplétifs de l’armée turque, qui avait permis la rapide chute d’Assad en 2024.
À lire aussi : Syrie : retour sur la chute de la maison Assad
Aujourd’hui, la Turquie continue de dominer le nord de la Syrie, malgré l’intégration de l’ANS dans l’armée syrienne. La région d’Alep reste contrôlée par les ex-chefs du Jabah al-Shamia, ancienne faction de l’ANS, à l’image de tout le reste du nord du pays où les unités de l’ANS, bien qu’ayant officiellement rejoint l’armée syrienne, sont restées cantonnées dans leurs positions, ce qui indique que leur allégeance va plus à Ankara qu’à Damas.
Malgré les appels d’Al-Charaa à l’unité nationale, l’ANS s’est emparée en décembre 2024 et en janvier 2025 des villes de Tall Rifaat et de Manbij, jusqu’alors tenues par les forces kurdes, ennemies traditionnelles de la Turquie. L’ANS a également affronté les Kurdes entre fin 2024 et avril 2025 autour du barrage de Tishrin, qu’elle a finalement reconquis, ce qui lui donne un contrôle sur le débit en aval et une tête de pont sur la rive orientale de l’Euphrate.
Al-Charaa pourrait profiter de sa proximité avec Ankara pour soumettre définitivement le Rojava, c’est-à-dire les régions autonomes du Kurdistan syrien contrôlées par les milices kurdes (les FDS) et dirigées par l’administration autonome du nord et de l’est de la Syrie (AANES). Le contexte est d’autant plus favorable que de l’autre côté de la frontière turco-syrienne, le PKK abandonne progressivement la lutte armée depuis l’appel de son chef, Abdallah Öcalan, à renoncer au conflit avec l’État turc.
Sans l’appui du puissant parrain turc, la soumission du Rojava paraît une entreprise bien périlleuse pour Damas, qui sait pertinemment que les Kurdes n’abandonneront le Rojava que sous la contrainte, puisqu’ils se méfient du nouveau régime, comme le montrent les réticences des FDS à intégrer l’armée syrienne, malgré quelques vagues déclarations en ce sens.
À lire aussi : La Turquie et la Syrie post-Assad : une nouvelle ère ?
Donald Trump, qui lors de son premier mandat avait déjà abandonné son allié kurde lors des opérations turques Rameau d’Olivier en 2018 et Source de Paix en 2019, pourrait chercher à contraindre les milices kurdes à intégrer les forces du régime syrien et à renoncer ainsi à leur assurance-vie. Dans l’optique de Trump, le Rojava, principale réserve pétrolière du pays, doit être pacifié et intégré à l’espace national en vue de son exploitation par les majors pétrolières américaines. Washington, Ankara et Damas pourraient s’accorder sur la question kurde et œuvrer ensemble à la disparition politique du Rojava.
Permettre l’extension des accords d’Abraham sous la supervision américaine
L’intermédiaire américain joue aussi un rôle fondamental dans la normalisation des relations entre Damas et Israël.
Trump et son administration rêvent d’étendre les accords d’Abraham à la Syrie et de pérenniser ainsi la sécurité de leur allié israélien. De ce point de vue, le nouveau pouvoir de Damas fait preuve de Realpolitik puisqu’il refuse, pour l’instant en tout cas, de se confronter à l’État hébreu malgré l’extension par ce dernier de ses marges frontalières sur le Golan lequel, selon Benyamin Nétanyahou, a été annexé « pour l’éternité ». Al-Charaa sait son régime fragile et a conscience du fait que le rapport de force est infiniment favorable à Israël.
À lire aussi : Dans le sud de la Syrie, les affrontements entre les Druzes et les Bédouins ravivent le spectre des divisions communautaires
En plus de s’attirer les faveurs de Washington, Damas souhaite empêcher par tous les moyens l’ingérence israélienne dans ses affaires intérieures. Soucieux de préserver sa sécurité et de créer une zone tampon en Syrie, Israël s’appuie, en effet, sur ses alliés druzes et utilise leur défense comme casus belli afin d’étendre sa profondeur stratégique dans la région.
L’extension des accords d’Abraham et du système d’alliance américain suppose aussi une normalisation des relations avec les puissances du Golfe, à commencer par l’Arabie saoudite qu’Al-Charaa a visitée dès février 2025. De ce point de vue, il est intéressant d’observer que le nouveau régime se garde bien de prendre des mesures qui pourraient provoquer la colère de Riyad ou de ses alliés arabes comme l’Égypte. La déclaration constitutionnelle de mars 2025 ne tombe pas dans les thématiques chères aux Frères musulmans, lesquels s’opposent frontalement aussi bien à la monarchie saoudienne qu’au régime d’Al-Sissi en Égypte.
En effet, cette Constitution provisoire place le régime dans la droite filiation du nationalisme arabe, comme le montre l’article 1 qui qualifie la Syrie de « République arabe ». Cette orientation rassure Le Caire et confirme l’éloignement par rapport à la mouvance frériste : régime autoritaire, le nouveau pouvoir syrien n’aspire pas à devenir la référence ou l’étendard des populations rejetant le joug des tyrannies miliaires (Égypte) ou monarchiques (Riyad).
Le processus démocratique cher aux fréristes est particulièrement freiné par la Constitution de 2025 puisqu’elle ne débouche que sur une participation très superficielle des électeurs syriens : elle ne prévoit qu’un scrutin indirect où seuls 6 000 électeurs, au préalable soumis au contrôle du régime, élisent 140 députés choisis parmi environ 1 500 candidats désignés parmi les notables locaux.
Ce mode de scrutin ne reconnaît par ailleurs que des candidats apolitiques, ce qui limite considérablement sa portée démocratique et l’enracinement des Frères musulmans, et valorise les Cheikhs c’est-à-dire les chefs de tribus. Ce système permet à Al-Charaa de contrôler la vie politique syrienne et place aussi la Syrie dans la continuité de ses voisins arabes, qui sont soit des régimes autoritaires assumés, soit des régimes hybrides semi-autoritaires comme la Jordanie. Al-Charaa n’entend pas faire de Damas l’épicentre d’un nouveau Printemps arabe placé sous le signe de l’islamisme ; une posture qui lui permet notamment d’apaiser les craintes de ses partenaires régionaux.
Damas veut donc, par sa diplomatie très active, ménager les puissances régionales que sont la Turquie, Israël ou les pays arabes. Dans les trois cas, le régime entend profiter de la médiation des Américains, qui espèrent construire un nouveau système diplomatique où la sécurité d’Israël soit garantie. On observe ici tous les paradoxes de la diplomatie syrienne, qui entend se rapprocher d’Israël tout en ménageant son parrain turc, deux projets a priori difficilement conciliables à long terme si on considère l’hostilité croissante d’Ankara envers Israël.
La Turquie émerge en effet de plus en plus comme le leader de l’opposition à Israël dans la région et pourrait occuper le vide laissé par l’effondrement iranien pour construire son propre « axe de la résistance antisioniste », étendant ainsi son emprise sur les sociétés arabes. On comprend dès lors que la diplomatie syrienne révèle les paradoxes, pour ne pas dire les hypocrisies du régime qui entend multiplier les efforts diplomatiques à court terme pour pérenniser son pouvoir, sans souci de cohérence à long terme.
Les minorités dans le viseur du régime
La réalité des projets de long terme d’Al-Charaa transparaît moins dans son activité diplomatique que dans sa gestion réelle des minorités, ainsi que dans sa position plus qu’ambiguë à l’égard du droit. Derrière la rhétorique inclusive, les premiers mois du nouveau régime permettent d’anticiper une dérive répressive envers les minorités dans les mois et les années à venir.
À lire aussi : Dans le sud de la Syrie, les affrontements entre les Druzes et les Bédouins ravivent le spectre des divisions communautaires
Les Kurdes restent menacés, comme le montre la Constitution provisoire de 2025 qui rappelle dans son article 7.1 que l’État « s’engage à préserver l’unité du territoire syrien et criminalise les appels à la division, à la sécession ainsi que les demandes d’intervention extérieure ». Difficile de ne pas voir ici un message hostile envoyé aux Kurdes et à leur projet d’un Rojava autonome, ainsi qu’aux Druzes.
En optant non pas pour un régime de type fédéral mais pour un pouvoir centralisé ultra présidentiel, Al-Charaa nie les aspirations politiques des minorités du pays. Le système électoral confirme cette orientation puisque, nous l’avons dit, les candidats aux élections sont choisis par le président via une commission de sélection qu’il contrôle totalement. Comment s’étonner, dès lors, que les minorités ne représentent qu’une infime partie des élus lors des dernières législatives – 4 députés kurdes, 6 alaouites et 2 chrétiens sur 140, alors que chacune de ces communautés représente environ 10 % de la population totale ?
Surtout, le cycle de violence engagé par les massacres des populations alaouites en mars 2025 ne s’est jamais complètement arrêté, même si ces attaques ont constitué un pic. Les minorités sont quotidiennement victimes d’attaques qui, bien que limitées, instaurent un climat de terreur, ce qui pousse les populations à fuir le pays, comme en témoigne la migration de 50 000 à 100 000 alaouites vers le Liban.
La Syrie semble donc engagée dans la voie d’un long et progressif processus de nettoyage ethnique de facto. La nouvelle Constitution nous le rappelle puisque, comme le stipule l’article 3.1, « la jurisprudence, le Fiqh, est la principale source du droit ». On voit mal comment un État régi par l’orthodoxie sunnite pourrait tolérer les minorités alaouite ou druze dont l’approche syncrétique de l’islam, voire sécularisée dans le cas des alaouites, n’est pas compatible avec la charia.
En outre, la Constitution inscrit dans son article 49 le rejet de toute forme d’héritage de l’ère Assad :
« L’État criminalise la glorification de l’ancien régime d’Assad et de ses symboles, la négation ou l’apologie de ses crimes, leur justification ou leur minimisation, autant de crimes punissables par la loi. »
Étant donné que de nombreux anciens rebelles syriens assimilent les minorités au régime d’Assad, ce passage pourrait servir de base à une répression qui les viserait pour les punir de leur prétendue fidélité au régime déchu. La base militante de HTC n’a pas renoncé à se venger de communautés perçues, de façon simpliste et souvent injuste, comme des soutiens indéfectibles de l’ancien régime : les massacres visant les alaouites dans la région de Banias en mars 2025 l’ont tragiquement illustré. L’inclusivité affichée par le nouveau régime reste une apparence et permet d’anticiper un refroidissement des relations entre Damas et les Américains, une fois que sera revenue à la Maison Blanche une administration davantage soucieuse du respect du droit humanitaire international.
Pour résumer, Al-Charaa a inscrit son pays dans un spectaculaire processus d’ouverture diplomatique, l’amenant à normaliser ses relations tant avec les puissances régionales qu’avec les puissances internationales comme les États-Unis, dont le régime syrien reste pour l’instant à la merci. Il faut bien garder à l’esprit que cette offensive diplomatique, plus qu’une volonté de rapprocher durablement la Syrie de l’Occident ou de ses valeurs, traduit surtout la nécessité de limiter les ingérences étrangères dans un contexte intérieur fragile où la Syrie s’apparente encore à un État quasi failli.
Une fois que son emprise sur la société syrienne se sera durablement pérennisée, le nouvel homme fort de la Syrie, fort d’un pouvoir ultra présidentiel $et du soutien de ses parrains régionaux, pourrait, sur le long terme, sacrifier le sort des minorités et ses bonnes relations avec l’Ouest pour poursuivre une politique hostile autant aux intérêts de l’Occident qu’à ses valeurs.
Pierre Firode ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.12.2025 à 15:54
Faut-il labelliser les médias pour promouvoir une information de qualité ?
Texte intégral (3001 mots)
En évoquant un « label » pour l’information, le président Macron a déclenché une polémique alimentée par les médias de Vincent Bolloré, qui dénoncent une volonté de museler la presse. Les labels existants sont-ils efficaces pour promouvoir des médias de qualité ? Quels sont les critères de labellisation, et plus largement, comment définir le « bon » journalisme ?
[Note de la rédaction : The Conversation France a reçu le label Journalism Trust Initiative (JTI) en novembre 2025.]
Le vendredi 28 novembre 2025, dans un échange avec les lecteurs du groupe EBRA, Emmanuel Macron, président de la République, évoquait un « label » pour l’information. Il citait celui de la Journalism Trust Initiative (JTI), créé par Reporters sans frontières (RSF), sans en faire la norme par ailleurs, rappelant que l’engagement des rédactions sur la vérification des faits et de la déontologie est essentiel.
Cette déclaration, qui n’avait pas vocation à faire parler d’elle, sera largement débattue dans les médias du groupe Bolloré, qui vont dénoncer une mise sous tutelle de l’information. L’Élysée réagira dès le lundi 1er décembre et dénoncera une « fausse information ». Ainsi, en trois jours à peine, le trio JDD-Europe 1-CNews sera parvenu à mettre la question du « label » à l’agenda, et le président Macron en porte-à-faux. L’opération est réussie puisque la confusion s’est très vite installée entre, d’une part, un label qui garantit l’information produite par des journalistes selon un certain nombre de critères professionnels – que l’on pourrait appeler « vraie information » et, d’autre part, les velléités prétendues de certains politiques sur la sélection de la « bonne » information.
La Journalism Trust Initiative, une réponse aux logiques des plateformes
Le débat est légitime mais il ne porte pas, en fait, sur les médias entre eux, mais sur les réseaux sociaux et les algorithmes de recommandation. Il porte sur la signalisation de la « vraie » information, celle faite par des journalistes, dans des environnements où prolifèrent les contenus en ligne qui n’ont pas pour objectif la véracité des faits.
La Journalism Trust Initiative a été lancée en 2018 « comme dispositif innovant contre la désinformation », deux ans après la première élection de Donald Trump et le vote des Britanniques en faveur du Brexit, deux élections où les « fake news » ont émaillé les campagnes précédant le vote. La JTI n’avait donc pas pour objectif de discriminer entre « bon » et « mauvais » médias dans un contexte de polarisation des opinions, mais à demander « une distribution et un traitement privilégiés des [médias labellisés] par les algorithmes des moteurs de recherche et des réseaux sociaux ». Elle pointait les premiers responsables de l’actuelle foire d’empoigne médiatique : le relativisme informationnel, le grand gloubi-boulga des contenus sur les réseaux sociaux, où tout et n’importe quoi est mis sur le même plan pourvu que cela satisfasse les attentes des « profils ».
Quand les médias du groupe Bolloré envisagent les labels comme un moyen d’identifier les « bonnes » rédactions, et non pas comme un moyen de distinguer la « vraie » information du reste des contenus, ils déplacent le problème. Et dans ce cas, effectivement, les labels soulèvent des questions, avec trois difficultés au moins : celle de la définition du bon journalisme et de l’information vraie ; celle du thermomètre pour le mesurer ; celle des effets possibles du « label » auprès de ceux qui cherchent à s’informer. Avec, en fin de compte, un risque élevé pour la liberté d’expression.
Comment définir la valeur de l’information ?
Première difficulté : le bon journalisme n’existe pas, il n’y a que des bons articles ou de bons reportages, parce que la valeur de l’information est décidée avec les publics, au cas par cas. Cette valeur ne relève pas des règles que la profession se donne, même si ces règles sont essentielles.
Le journalisme a toujours été une profession « floue », qui s’adapte aux évolutions des techniques, des usages, plus largement des sociétés. D’ailleurs, rien ne définit le journalisme en France dans le Code du travail, sauf le fait d’être payé en tant que journaliste (article L7111-3). Ce flou est utile. Il permet parfois de dire que des journalistes payés n’en sont pas, trahissent les règles qu’ils disent respecter, quand d’autres font du journalisme sans véritablement s’en revendiquer.
Aujourd’hui, la chaîne YouTube HugoDécrypte contribue plus à l’information, notamment auprès des jeunes, que de nombreux médias « reconnus » qui font de l’information avec des bouts de ficelle, quand ils ne volent pas le travail de leurs concurrents, comme le soulignent les débats actuels sur le renouvellement de l’agrément de Var Actu par la CPPAP, la commission qui permet de bénéficier des aides de l’État à la presse. Voici un bel exemple des limites de tout processus de labellisation à partir de règles données.
Parce qu’il n’est pas seulement une profession avec ses règles et ses codes, mais parce qu’il a une utilité sociale, le journalisme se doit donc d’être en permanence discuté, critiqué, repensé pour qu’il serve d’idéal régulateur à tous les producteurs d’information. Le journalisme, ses exigences et la valeur qu’on lui accorde se définissent en effet dans le dialogue qui s’instaure entre les professionnels de l’information, leurs publics et la société. Certes, les journalistes doivent s’engager sur la véracité des faits, sur une exigence de rationalité dans le compte-rendu qu’ils en font, ce qui suppose aussi une intelligence a minima des sujets qu’ils doivent traiter mais, une fois ces règles minimales posées, les modalités de leur mise en œuvre vont varier fortement.
C’est la différence entre la « vraie » information, celle qui respecte des normes, des règles, ce que proposent les labels, et l’information « vraie », celle qui est perçue comme solide par les publics, quand ils reconnaissent, par leurs choix de consommation, la qualité du travail journalistique en tant que tel. Ici, l’information « vraie » recouvre finalement le périmètre de la « bonne » information.
C’est pour insister sur cet autre aspect plus communicationnel du journalisme que j’ai introduit la notion de « presque-vérité » journalistique. Elle permet de souligner que la réalité du métier, avec ses contraintes de temps, de moyens, de compétences rend la réalisation de cet idéal d’information « vraie » toujours difficile. Le terme permet également de souligner que l’information des journalistes entretient quand même un rapport avec la vérité, quand d’autres discours dans l’espace public se libèrent des contraintes de la factualité, de l’épreuve du réel. Elle permet enfin de souligner que l’information journalistique est toujours négociée.
Le journalisme et la vérité
Quel est, alors, ce rapport du journalisme à la vérité, quel serait, de ce point de vue, une « bonne » information ? En premier lieu, l’exercice du métier renvoie à des normes collectives d’établissement des faits – ce sur quoi toutes les rédactions peuvent s’accorder en définissant les critères pour un label. C’est ce qui permet de dire que les faits sont vrais, que leur existence doit être reconnue de tous.
En second lieu, toute information est construite à partir des faits, par le journaliste, en fonction d’une ligne éditoriale, d’un angle qu’il choisit, et en fonction des publics auxquels il s’adresse. Il ne s’agit plus des faits mais de leur interprétation. En la matière, on peut attendre d’un journaliste qu’il propose une interprétation la plus cohérente possible des faits, qu’il fasse un vrai effort de rationalisation, mais il n’y a pas de lecture des faits qui soit plus légitime qu’une autre, si l’exigence de rationalité est respectée.
Ici se joue la négociation de l’information avec son public, la définition de sa portée sociale. Ainsi, une lecture hayekienne ou marxiste d’un même fait seront toutes les deux cohérentes et légitimes, même si elles sont en concurrence. Dans les deux cas, l’information est « vraie », appuyée sur des faits établis, inscrite dans une grille de lecture assumée, expliquée de la manière la plus rationnelle possible, pensée aussi pour répondre aux attentes de certains publics. Il s’agit d’une vérité tout humaine, sans cesse renégociée, qui repose sur la reconnaissance de la pertinence du travail fourni par le journaliste. Et cette possibilité se joue sur chaque article, sur chaque reportage, parce que le journaliste remet en jeu, à chaque fois, sa crédibilité, quand il choisit de traiter l’actualité à partir d’un angle, d’une vision, d’une conception du monde.
De ce point de vue, un label ne permettra jamais de mesurer si le journaliste a fait les bons choix pour interpréter le plus correctement possible les faits, parce qu’il n’y a pas d’interprétation qui soit plus correcte qu’une autre dès qu’elle est rationnelle. La valeur sociale de l’information dépend de la relation entre les journalistes et leurs publics, elle n’est pas liée aux conditions professionnelles de son élaboration.
Qui mesure la qualité de l’information et comment ?
Deuxième difficulté, le thermomètre, c’est-à-dire qui mesure la qualité de l’information et comment ? La plupart des tentatives soulèvent la question de la légitimité de ceux qui définissent les critères, et surtout des fins que ces critères viennent servir. C’est toute la différence qui sépare deux autres projets d’évaluation nés après 2016 et le surgissement massif des « fake news », le Décodex d’une part, les avis du Conseil de déontologie journalistique et de médiation (CDJM) d’autre part.
Lancé en 2017, le Décodex est une initiative des Décodeurs, le service de fact-checking du Monde. Afin de lutter contre la prolifération des fausses informations, signalées jusqu’alors une à une, l’idée fut de catégoriser les sources émettrices, donc de dire quel site est fiable et quel site ne l’est pas. Cette entreprise de labellisation des sources d’information a été finalement très critiquée avant d’être abandonnée, car son résultat le plus évident fut de mettre en avant l’ensemble des médias institués face à des offres qui n’avaient jamais pour elles le journalisme comme étendard.
Au départ, trois pastilles de couleur verte, orange et rouge étaient proposées : tous les médias ont eu leur pastille verte, à de rares exceptions (Fakir, Valeurs actuelles). La confusion s’est donc immédiatement installée entre « vrais » médias et « bons » médias, avec Le Monde en distributeur de bons points, ce qui a conduit les Décodeurs à retirer très vite leurs pastilles. À vouloir qualifier les sources elles-mêmes et pas le travail concret des journalistes, sujet par sujet, le Décodex n’est pas parvenu à discriminer entre « bons » et « mauvais » médias. Il a rappelé que les médias font en général de la « vraie » information, mais il n’a pas pu statuer sur la pertinence de l’information qu’ils produisent. Comme pour le label évoqué par le président Macron, le déplacement du débat de la « vraie » information à la « bonne » information a provoqué une remise en question du « label » imaginé par les Décodeurs.
À l’inverse, le CDJM, lancé en 2019, se prononce bien sur les ratés déontologiques des médias d’information quand il publie ses décisions sur des cas concrets. Il permet de faire le tri entre le bon grain et l’ivraie parmi les informations produites par les rédactions, mais il ne permet pas de statuer sur la qualité des médias et sur les choix des rédactions, considérant que cet aspect de l’information relève de la liberté éditoriale, du jugement aussi des lecteurs (le CDJM inclut d’ailleurs des représentants des lecteurs au côté des professionnels de l’information). Ainsi, le thermomètre fonctionne quand il permet de signaler les manquements de certains journalistes et de leurs rédactions sur des cas concrets, parce que la décision est argumentée, adaptée à chaque cas, et le périmètre bien circonscrit au seul respect des règles qui permettent de garantir la véracité des faits. Mais c’est statuer sur la « vraie » information, et sur ses ratés, jamais sur sa qualité. Or l’idée de « label » véhicule avec elle, de manière latente, un jugement de valeur sur la qualité des médias.
Les risques de l’effet « label »
Le troisième problème d’un label est le label lui-même, comme indication communiquée aux internautes. Quand Facebook a souhaité lutter contre les « fake news », il les a signalées à ses utilisateurs avec un drapeau rouge, ce qui a produit deux résultats très problématiques. Le premier est celui de l’effet de vérité par défaut, un contenu non signalé étant considéré comme vrai par défaut. Dans le cadre d’un label, son absence pourrait signifier « non crédible », ce qui est absurde et confère au journaliste un monopole sur l’information, quand des sources différentes peuvent être très pertinentes. Le second effet est encore plus problématique car les contenus signalés ont été considérés par certains utilisateurs de Facebook comme plus vrais, justement parce qu’ils sont signalés comme problématiques pour et par « le système dominant ». Le non label pourrait dans ce cas devenir l’étendard de tous ceux qui dénoncent le conformisme ou l’alignement des médias sur une idéologie dominante. Et l’on sait combien ce discours est porteur…
En conclusion, le risque est grand de statuer sur les bons et les mauvais médias en transformant le label « info » évoqué par le président de la République en gage de sérieux journalistique. Il a été évoqué dans un contexte de dénonciation de la désinformation sur les réseaux sociaux, pas pour définir un « bon » journalisme réservé aux seules rédactions déclarées vertueuses.
Ce sont la liberté d’expression et la liberté de la presse qui permettent à des voix différentes de rappeler que certains cadrages sont peut-être trop convenus, que certaines sources sont peut-être trop souvent ignorées, soulignant ainsi que le pluralisme, s’il est bien défendu, est une meilleure garantie de qualité pour le journalisme dans son ensemble qu’un label attribué à certains et pas à d’autres. Les publics décideront à la fin car l’information est faite d’abord pour eux.
Il ne faut pas minimiser aussi le risque d’une suspicion accrue face au label, qui produira l’effet inverse de celui souhaité, à savoir mettre sur la touche les médias plutôt que de les replacer au cœur de l’organisation du débat public. C’est ce rôle-là des médias qu’il faut préserver à tout prix, en défendant le pluralisme et l’indépendance des rédactions, quand les plates-formes nous enferment à l’inverse dans des bulles où nos goûts font office de label pour la « bonne » information.
Alexandre Joux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.12.2025 à 12:13
Célèbres et captifs : comment les réseaux sociaux profitent du mal-être des animaux sauvages
Texte intégral (3022 mots)

Sur les réseaux sociaux, la popularité des animaux exotiques va de pair avec la banalisation de leur mauvais traitement. Ces plateformes monétisent la possession d’espèces sauvages tout en invisibilisant leur souffrance. Cette tendance nourrit une méprise courante selon laquelle l’apprivoisement serait comparable à la domestication. Il n’en est rien, comme le montre l’exemple des loutres de compagnie au Japon.
Singes nourris au biberon, perroquets dressés pour les selfies, félins obèses exhibés devant les caméras… Sur TikTok, Instagram ou YouTube, ces mises en scène présentent des espèces sauvages comme des animaux de compagnie, notamment via des hashtags tels que #exoticpetsoftiktok.
Cette tendance virale, favorisée par le fonctionnement même de ces plateformes, normalise l’idée selon laquelle un animal non domestiqué pourrait vivre comme un chat ou un chien, à nos côtés. Dans certains pays, posséder un animal exotique est même devenu un symbole ostentatoire de statut social pour une élite fortunée qui les met en scène lors de séances photo « glamour ».
Or, derrière les images attrayantes qui recueillent des milliers de « likes » se dissimule une réalité bien moins séduisante. Ces stars des réseaux sociaux sont des espèces avec des besoins écologiques, sociaux et comportementaux impossibles à satisfaire dans un foyer humain. En banalisant leur possession, ces contenus, d’une part, entretiennent des croyances erronées et, d’autre part, stimulent aussi le trafic illégal. En cela, ils participent à la souffrance de ces animaux et fragilisent la conservation d’espèces sauvages.
À lire aussi : Qui est le capybara, cet étonnant rongeur qui a gagné le cœur des internautes ?
Ne pas confondre domestique et apprivoisé
Pour comprendre les enjeux liés à la possession d’un animal exotique, il faut d’abord définir les termes : qu’est-ce qu’un animal domestique et qu'est-ce qu'un animal exotique ?
Force est de constater que le terme « animal exotique » est particulièrement ambigu. Même si en France l’arrêté du 11 août 2006 fixe une liste claire des espèces considérées comme domestiques, sa version britannique dresse une liste d’animaux exotiques pour lesquels une licence est requise, à l’exclusion de tous les autres.
Une licence est ainsi requise pour posséder, par exemple, un serval (Leptailurus serval), mais pas pour un hybride de serval et de chat de deuxième génération au moins, ou encore pour détenir un manul, aussi appelé chat de Pallas (Otocolobus manul).
Ce flou sémantique entretient la confusion entre apprivoisement et domestication :
le premier consiste à habituer un animal sauvage à la présence humaine (comme des daims nourris en parc) ;
la seconde correspond à un long processus de sélection prenant place sur des générations et qui entraîne des changements génétiques, comportementaux et morphologiques.
Ce processus s’accompagne de ce que les scientifiques appellent le « syndrome de domestication », un ensemble de traits communs (oreilles tombantes, queue recourbée, etc.) déjà décrits par Darwin dès 1869, même si ce concept est désormais remis en question par la communauté scientifique.
Pour le dire plus simplement : un loup élevé par des humains reste un loup apprivoisé et ne devient pas un chien. Ses besoins et ses capacités physiologiques, son comportement et ses aptitudes cognitives restent fondamentalement les mêmes que celles de ces congénères sauvages. Il en va de même pour toutes les autres espèces non domestiques qui envahissent nos écrans.
À lire aussi : Le chien descend-il vraiment du loup ?
Des animaux stars au destin captif : le cas des loutres d’Asie
Les félins et les primates ont longtemps été les animaux préférés des réseaux sociaux, mais une nouvelle tendance a récemment émergé en Asie : la loutre dite de compagnie.
Parmi les différentes espèces concernées, la loutre cendrée (Aonyx cinereus), particulièrement prisée pour son apparence juvénile, représente la quasi-totalité des annonces de vente en ligne dans cette région. Cela en fait la première victime du commerce clandestin de cette partie du monde, malgré son inscription à l’Annexe I de la Convention sur le commerce international des espèces menacées depuis 2019.
Les cafés à loutres, particulièrement en vogue au Japon, ont largement participé à normaliser cette tendance en les exposant sur les réseaux sociaux comme animaux de compagnie, un phénomène documenté dans un rapport complet de l’ONG World Animal Protection publié en 2019. De même, le cas de Splash, loutre employée par la police pour rechercher des corps en Floride (États-Unis), montre que l’exploitation de ces animaux s’étend désormais au-delà du divertissement.
En milieu naturel, ces animaux passent la majorité de leurs journées à nager et à explorer un territoire qui mesure plus d’une dizaine de kilomètres au sein d’un groupe familial regroupant jusqu’à 12 individus. Recréer ces conditions à domicile est bien entendu impossible. En outre, leur régime, principalement composé de poissons frais, de crustacés et d’amphibiens, est à la fois extrêmement contraignant et coûteux pour leurs propriétaires. Leur métabolisme élevé les oblige en plus à consommer jusqu’à un quart de leur poids corporel chaque jour.
Privés de prédation et souvent nourris avec des aliments pour chats, de nombreux animaux exhibés sur les réseaux développent malnutrition et surpoids. Leur mal-être s’exprime aussi par des vocalisations et des troubles graves du comportement, allant jusqu’à de l’agressivité ou de l’automutilation, et des gestes répétitifs dénués de fonction, appelés « stéréotypies ». Ces comportements sont la conséquence d’un environnement inadapté, sans stimulations cognitives et sociales, quand elles ne sont pas tout simplement privées de lumière naturelle et d’espace aquatique.
Une existence déconnectée des besoins des animaux
Cette proximité n’est pas non plus sans risques pour les êtres humains. Les loutres, tout comme les autres animaux exotiques, peuvent être porteurs de maladies transmissibles à l’humain : salmonellose, parasites ou virus figurent parmi les pathogénies les plus fréquemment signalées. De plus, les soins vétérinaires spécialisés nécessaires pour ces espèces sont rarement accessibles et de ce fait extrêmement coûteux. Rappelons notamment qu’aucun vaccin antirabique n’est homologué pour la majorité des espèces exotiques.
Dans le débat public, on oppose souvent les risques pour l’humain au droit de posséder ces animaux. Mais on oublie l’essentiel : qu’est-ce qui est réellement bon pour l’animal ? La légitimité des zoos reste débattue malgré leur rôle de conservation et de recherche, mais alors comment justifier des lieux comme les cafés à loutres, où l’on paie pour caresser une espèce sauvage ?
Depuis 2018, le bien-être animal est défini par l’Union européenne et l’Anses comme :
« Le bien-être d’un animal est l’état mental et physique positif lié à la satisfaction de ses besoins physiologiques et comportementaux, ainsi que de ses attentes. Cet état varie en fonction de la perception de la situation par l’animal. ».
Dès lors, comment parler de bien-être pour un animal en surpoids, filmé dans des situations anxiogènes pour le plaisir de quelques clients ou pour quelques milliers de likes ?
Braconnés pour être exposés en ligne
Bien que la détention d’animaux exotiques soit soumise à une réglementation stricte en France, la fascination suscitée par ces espèces sur les réseaux ne connaît aucune limite géographique. Malgré les messages d’alerte mis en place par TikTok et Instagram sur certains hashtags, l’engagement du public, y compris en Europe, alimente encore la demande mondiale et favorise les captures illégales.
Une étude de 2025 révèle ainsi que la majorité des loutres captives au Japon proviennent de deux zones de braconnage en Thaïlande, mettant au jour un trafic important malgré la législation. En Thaïlande et au Vietnam, de jeunes loutres sont encore capturées et séparées de leurs mères souvent tuées lors du braconnage, en violation des conventions internationales.
Les réseaux sociaux facilitent la mise en relation entre vendeurs et acheteurs mal informés, conduisant fréquemment à l’abandon d’animaux ingérables, voire des évasions involontaires.
Ce phénomène peut également avoir de graves impacts écologiques, comme la perturbation des écosystèmes locaux, la transmission de maladies infectieuses aux populations sauvages et la compétition avec les espèces autochtones pour les ressources.
Récemment en France, le cas d’un serval ayant erré plusieurs mois dans la région lyonnaise illustre cette réalité : l’animal, dont la détention est interdite, aurait probablement été relâché par un particulier.
Quand l’attention profite à la cause
Mais cette visibilité n’a pas que des effets délétères. Les réseaux sociaux offrent ainsi un nouveau levier pour analyser les tendances d’un marché illégal. D’autres initiatives produites par des centres de soins et de réhabilitation ont une vocation pédagogique : elles sensibilisent le public et permettent de financer des actions de protection et de lutte contre le trafic.
Il ne s’agit donc pas de rejeter en bloc la médiatisation autour de la question de ces animaux, mais d’apprendre à en décoder les intentions et les impacts. En définitive, le meilleur moyen d’aider ces espèces reste de soutenir les associations, les chercheurs et les programmes de réintroduction. Et gardons à l’esprit qu’un simple like peut avoir des conséquences, positives ou négatives, selon le contenu que l’on choisit d’encourager.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
11.12.2025 à 11:49
Mascottes sportives : les clubs peuvent-ils devenir les nouveaux champions de la biodiversité ?
Texte intégral (4255 mots)
Du lion de l’Olympique lyonnais aux ours, tigres et autres aiglons qui ornent les logos des clubs sportifs de toutes disciplines du monde entier, les animaux sauvages sont au cœur de l’imaginaire sportif. Pourtant, dans la nature, beaucoup de ces espèces déclinent. Et si cet engouement se transformait en levier pour mieux défendre la biodiversité ? La littérature scientifique récente propose plusieurs pistes pour faire des clubs de véritables champions de la biodiversité.
Quand on se promène aux abords du Groupama Stadium à Lyon (Rhône), on ne peut les ignorer. Quatre lions majestueux aux couleurs de l’Olympique lyonnais trônent devant le stade, symboles du rayonnement d’un club qui dominait le championnat de France de football au début des années 2000.
Le lion est présent partout dans l’image de marque du club : sur le logo, sur les réseaux, et même sur les pectoraux de quelques supporters qui vivent et respirent pour leur équipe. Ce sont ceux qui se lèvent comme un seul homme quand Lyou, la mascotte, parcourt les travées du stade à chaque but marqué par l’équipe. Pourtant, s’il rugit dans le stade lyonnais, dans la savane, le lion s’éteint.
Lors de la neuvième journée de Ligue 1 (dont les matchs se sont déroulés du 24 au 26 octobre 2025), il y avait deux fois plus de monde dans le stade pour le match Lyon-Strasbourg (soit un peu plus de 49 000 spectateurs) que de lions à l’état sauvage sur la planète (environ 25 000). Les populations de lions en Afrique et en Inde ont chuté de 25 % entre 2006 et 2018, comme bien d’autres espèces sur la planète, selon l’Union internationale pour la conservation de la nature (UICN).
C’est un curieux paradoxe : alors que le secteur du sport est en plein essor, capitalisant souvent sur la symbolique animale pour développer marques et logos et pour fédérer les foules autour de valeurs partagées, ces mêmes espèces animales font face à de nombreuses menaces dans la nature, sans que les fans ou les clubs ne le sachent vraiment.
Ce paradoxe entre l’omniprésence des représentations animales dans le sport et la crise globale de la biodiversité a été le point de départ d’une étude publiée dans la revue BioScience. Celle-ci a quantifié la diversité des espèces représentées dans les plus grands clubs de sport collectif dans chaque région du monde, d’une part, et évalué leur statut de conservation, d’autre part. De quoi dégager au passage des tendances entre régions du globe et sports collectifs (féminins et masculins).
L’enjeu ? Explorer les passerelles possibles entre sport professionnel et protection de la biodiversité. En effet, le sport réunit des millions de passionnés, tandis que l’identité des clubs s’appuie sur des espèces à la fois charismatiques et le plus souvent menacées. À la clé, une opportunité unique de promouvoir la conservation de la biodiversité dans un cadre positif, fédérateur et valorisant.
Le secteur du sport a récemment pris conscience des enjeux climatiques, de par ce qu’ils représentent comme risque pour la pratique sportive, mais aussi par l’impact que les événements sportifs ont sur le climat, mais la biodiversité n’a pas encore reçu la même attention.
La diversité des espèces représentées dans le sport collectif
Ces travaux ont porté sur une sélection de 43 pays sur les cinq grands continents. Ils mettent en lumière de nombreux enseignements, au premier rang desquels l’importance et la grande quantité d’animaux sauvages dans les emblèmes sportifs. Ainsi, 25 % des organisations sportives professionnelles utilisent un animal sauvage soit dans leur nom ou surnom, soit dans leur logo.
Cela représente plus de 700 équipes masculines et féminines, dans chacun des dix sports collectifs pris en compte dans l'étude : football, basketball, football américain, baseball, rugby à XV et à XIII, volleyball, handball, cricket et hockey sur glace. Sans surprise, les espèces les plus représentées sont, dans cet ordre, les lions (Panthera leo), les tigres (Panthera tigris), les loups (Canis lupus), les léopards (Panthera pardus) et les ours bruns (Ursus arctos).
Si les grands mammifères prennent la part du lion sur ce podium, il existe en réalité une formidable diversité taxonomique représentée, avec plus de 160 types d’animaux différents. Ainsi, les calamars, les crabes, les grenouilles ou les frelons côtoient les crocodiles, les cobras et les pélicans, dans un bestiaire sportif riche et révélateur de contextes socio-écologiques très spécifiques. Nous les avons recensés dans une carte interactive accessible en ligne.
On associe plus facilement cette imagerie animale aux grandes franchises états-uniennes de football (NFL), de basket-ball (NBA) ou de hockey sur glace (NHL), avec des clubs comme les Miami Dolphins (NFL), les Memphis Grizzlies (NBA) ou les Pittsburgh Penguins (NHL).
Or, la France aussi possède une faune diverse, avec plus de 20 espèces représentées dans plus de 45 clubs professionnels : les aiglons de l’OGC Nice (football), le loup du LOU Rugby (rugby), ou les lionnes du Paris 92 (handball) en sont de beaux exemples. C’est également le cas pour le volley-ball, comme le montre l’illustration ci-dessus.
À lire aussi : Pas de ski (alpin) cette année… c’est l’occasion de s’intéresser à la biodiversité montagnarde !
Des symboles culturels, esthétiques ou encore identitaires
Les emblèmes des clubs font souvent écho à l’héritage culturel de leur région. L’hermine, emblème des ducs de Bretagne, est ainsi utilisée depuis le XIVe siècle pour véhiculer l’identité culturelle bretonne. On la retrouve dans plusieurs clubs sportifs de la région, dont le Stade rennais FC, le Rugby club Vannes ou le Nantes Basket Hermine.
Les symboles animaliers permettent aussi de communiquer sur les valeurs et spécificités du club, telles que la cohésion et la solidarité, à l’instar du groupe de supporters du LOU Rugby, qui se surnomme « la meute ».
Ces surnoms permettent également de créer un narratif autour de l’esthétique des couleurs de l’équipe, comme le font les « zèbres », surnom donné à l’équipe de la Juventus FC de Turin (Italie) qui joue traditionnellement en blanc rayé de noir.
Enfin, les emblèmes faisant directement référence à l’environnement local sont fréquents, tels les Parramatta Eels (qui doit son nom à celui du quartier de Sydney où joue l’équipe et qui signifie « lieu où vivent les anguilles », en dharug, langue aborigène), ou les « Brûleurs de loups » de Grenoble (du nom d’une pratique en Dauphiné qui consistait à faire de grands feux pour éloigner les prédateurs et gagner des terres agricoles sur les forêts).
À lire aussi : Comprendre la diversité des émotions suscitées par le loup en France
Des clubs au service de la vie sauvage ?
Le secteur du sport a récemment pris conscience des enjeux climatiques, tant ceux liés à la pratique sportive qu’aux événéments sportifs. La biodiversité n’a pas encore reçu la même attention. Or, notre étude montre que 27 % des espèces animales utilisées dans ces identités sportives font face à des risques d’extinction à plus ou moins court terme. Cela concerne 59 % des équipes professionnelles, soit une vaste majorité.
Six espèces, en particulier, sont en danger critique d’extinction selon l’UICN : le rhinocéros noir (Diceros bicornis), la baleine bleue (Balænoptera musculus), l’éléphant d’Afrique (Loxodonta africana), l’éléphant d’Asie (Elephas maximus), le tigre et le carouge (Agelaius xanthomus) de Porto Rico. Lions et léopards, deux des espèces les plus souvent représentées par les clubs sportifs, ont un statut d’espèces vulnérables.
Au total, 64 % des équipes ont un emblème animal dont la population est en déclin dans la nature. Et 18 équipes ont même pour emblème une espèce… dont on ne connaît tout simplement pas la dynamique d’évolution des populations. Si vous pensiez que cela concerne des espèces inconnues, détrompez-vous : l’ours polaire (Ursus maritimus), l’orque (Orcinus orca) ou encore le chat forestier (Felis silvestris) font partie de ces espèces populaires, mais très mal connues au plan démographique.
Dans ces conditions, le sport peut-il aider à promouvoir la conservation de la biodiversité dans un cadre fédérateur et valorisant ? De fait, les clubs et les athlètes emblématiques, dont les identités s’appuient sur des espèces souvent charismatiques mais menacées, rassemblent des millions de passionnés.
Une autre étude publiée récemment présente un modèle qui alignerait les intérêts des clubs, de leurs partenaires commerciaux, de leurs communautés de supporters et des protecteurs de la biodiversité autour de la figure centrale des emblèmes sportifs animaliers.
À lire aussi : Comment limiter l’empreinte carbone des Coupes du monde de football ?
Jouer collectif pour protéger la biodiversité
Le projet The Wild League, dans lequel s’inscrit la nouvelle publication scientifique, vise à mettre ce modèle en application avec l’appui des clubs (professionnels ou non) et de leurs communautés, afin d’impliquer le plus grand nombre d’acteurs (équipes, partenaires, supporters) pour soutenir la recherche en écologie et la préservation de la biodiversité.
Ces engagements sont gagnant-gagnant : pour les clubs, c’est l’occasion de toucher de nouveaux publics et de mobiliser les supporters autour de valeurs fortes. Les sponsors, eux, peuvent associer leurs marques à une cause universelle. En passant à l’échelle, une ligue professionnelle, si elle se mobilisait à travers toutes ses équipes, pourrait ainsi jouer un rôle clé pour sensibiliser à la biodiversité.
Par exemple, la première division de hockey sur glace allemand (Deutsche Eishockey Liga) comprend 15 équipes, dont 13 présentent des emblèmes très charismatiques. Chaque semaine, les panthères affrontent les ours polaires, les pingouins ferraillent contre les tigres et les requins défient les grizzlis. Autant d’occasions pour mieux faire connaître la richesse du vivant sur la Terre.
La diversité des emblèmes animaliers des clubs sportifs permettrait d’attirer l’attention sur la diversité d’espèces pour un animal donné. Par exemple, certains termes comme les « crabes », les « chauve-souris » ou les « abeilles » cachent en réalité une diversité taxonomique immense. Il existe plus de 1 400 espèces de crabes d’eau douce, autant d’espèces de chauve-souris (et qui représentent une espèce sur cinq parmi les mammifères) et plus de 20 000 espèces d’abeilles dans le monde.
Ces mascottes peuvent également mettre en lumière des espèces locales. L’équipe de basket-ball des Auckland Tuatara, par exemple, est la seule équipe à présenter comme emblème le tuatara (Sphenodon punctatus), ce reptile endémique à la Nouvelle-Zélande (qui n'existe que dans ce pays). Ces associations uniques entre une équipe et une espèce sont une occasion rêvée de développer un sens de responsabilité de l’un envers l’autre.
Le sport est avant tout une industrie du divertissement qui propose des expériences émotionnelles fondées sur des valeurs fortes. Les emblèmes animaliers des clubs doivent permettre de mettre ces émotions au service de la nature et d’engager les communautés sportives pour leur protection et pour la préservation de la biodiversité au sens large. C’est à cette condition qu’on évitera que le rugissement du lion, comme cri de ralliement sportif, ne devienne qu’un lointain souvenir et qu’on redonnera un vrai sens symbolique à ces statues si fièrement érigées devant nos stades.
À lire aussi : Sport, nature et empreinte carbone : les leçons du trail pour l’organisation des compétitions sportives
Ugo Arbieu est fondateur de The Wild League, un projet international visant à promouvoir l'intégration des enjeux de la protection de la biodiversité dans les organisations sportives professionnelles
Franck Courchamp ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.12.2025 à 16:54
L’Australie interdit les réseaux sociaux aux moins de 16 ans : un modèle bientôt suivi par d’autres pays ?
Texte intégral (2358 mots)

C’est le résultat de plusieurs années de campagne du gouvernement australien et de parents d’enfants victimes de harcèlement en ligne : l’entrée en vigueur d’une loi interdisant les réseaux sociaux aux moins de 16 ans. Des applications telles qu’Instagram, Snapchat, X, Facebook ou encore Reddit sont désormais soumises à l’obligation de bannir tous les utilisateurs de moins de 16 ans sous peine d’amendes. Si cette loi soulève de nombreuses questions sur son efficacité réelle et ses modalités de mise en œuvre, et si d’autres pays privilégient des mesures moins contraignantes, le texte n’en constitue pas moins une première mondiale et suscite un intérêt à l’international. Affaire à suivre…
Après des mois d’attente et de débats, la loi sur les réseaux sociaux en Australie est désormais en vigueur. Les Australiens de moins de 16 ans doivent désormais composer avec cette nouvelle réalité qui leur interdit d’avoir un compte sur certaines plates-formes de réseaux sociaux, notamment Instagram, TikTok et Facebook.
Seul le temps dira si cette expérience audacieuse, une première mondiale, sera couronnée de succès. En attendant, de nombreux pays envisagent déjà de suivre l’exemple de l’Australie, tandis que d’autres adoptent une approche différente pour tenter d’assurer la sécurité des jeunes en ligne.
Un mouvement global
En novembre, le Parlement européen a appelé à l’adoption d’une interdiction similaire des réseaux sociaux pour les moins de 16 ans.
La présidente de la Commission européenne, Ursula von der Leyen, a déclaré qu’elle avait étudié les restrictions australiennes et la manière dont elles traitent ce qu’elle a qualifié d’« algorithmes qui exploitent la vulnérabilité des enfants », laissant les parents impuissants face au « tsunami des big tech qui envahit leurs foyers ».
En octobre, la Nouvelle-Zélande a annoncé qu’elle allait introduire une législation similaire à celle de l’Australie, à la suite des travaux d’une commission parlementaire chargée d’examiner la meilleure façon de lutter contre les dommages causés par les réseaux sociaux. Le rapport de la commission sera publié début 2026.
Le Pakistan et l’Inde visent à réduire l’exposition des enfants à des contenus susceptibles de leur porter préjudice, en introduisant des règles exigeant l’accord parental et la vérification de l’âge pour accéder aux réseaux sociaux, ainsi que des exigences en matière de modération adressées aux plates-formes.
La Malaisie a annoncé qu’elle interdirait l’accès aux réseaux sociaux aux enfants de moins de 16 ans à partir de 2026. Cette mesure s’inscrit dans la continuité de l’obligation imposée à partir de janvier 2025 aux réseaux sociaux et aux plates-formes de messagerie comptant au moins huit millions d’utilisateurs d’obtenir une licence d’exploitation et de mettre en place des mesures de vérification de l’âge et de sécurité des contenus.
De son côté, la France envisage d’interdire les réseaux sociaux aux moins de 15 ans et d’imposer un couvre-feu de 22 h à 8 h pour l’utilisation des plates-formes aux 15-18 ans. Ces mesures font partie des recommandations formulées par une commission d’enquête française en septembre 2025, qui a également prescrit d’interdire les smartphones à l’école et d’instaurer un délit de « négligence numérique pour les parents qui ne protègent pas leurs enfants ».
En 2023, la France a promulgué une loi contraignant les plates-formes à obtenir l’accord des parents des enfants de moins de 15 ans pour que ces derniers puissent créer un compte sur les réseaux sociaux. Pour autant, cette mesure n’a pas encore été mise en application. C’est également le cas en Allemagne : dans ce pays, les enfants âgés de 13 à 16 ans ne peuvent accéder aux plates-formes qu’avec l’accord de leurs parents, mais dans les faits, aucun contrôle réel n’est exercé.
En Espagne, l’âge minimum pour créer un compte sur les réseaux sociaux passera de 14 ans actuellement à 16 ans. Les moins de 16 ans pourront tout de même créer un compte à la condition expresse d’avoir l’accord de leurs parents.
La Norvège a annoncé en juillet son intention de restreindre l’accès aux réseaux sociaux pour les moins de 15 ans. Le gouvernement a expliqué que la loi serait « conçue dans le respect des droits fondamentaux des enfants, notamment la liberté d’expression, l’accès à l’information et le droit d’association ».
En novembre, le Danemark a annoncé souhaiter « l’interdiction de l’accès aux réseaux sociaux à toute personne âgée de moins de 15 ans ». Cependant, contrairement à la législation australienne, les parents peuvent passer outre ces règles afin de permettre aux enfants âgés de 13 et 14 ans de conserver leur accès à ces plates-formes. Toutefois, aucune date de mise en œuvre n’a été fixée et l’adoption du texte par les législateurs devrait prendre plusieurs mois. On ignore la façon dont l’interdiction danoise sera appliquée. Mais le pays dispose d’un programme national d’identification numérique qui pourrait être utilisé à cette fin.
En juillet, le Danemark a été sélectionné pour participer à un programme pilote (avec la Grèce, la France, l’Espagne et l’Italie) visant à tester une application de vérification de l’âge qui pourrait être lancée dans toute l’Union européenne à l’intention des sites pour adultes et d’autres fournisseurs de services numériques.
Des résistances
Pour autant, ce type de restrictions n’est pas appliqué partout dans le monde.
Par exemple, la Corée du Sud a décidé de ne pas adopter une interdiction des réseaux sociaux pour les enfants. Mais elle interdira l’utilisation des téléphones portables et autres appareils dans les salles de classe à partir de mars 2026.
Dans la ville de Toyoake (au sud-ouest de Tokyo, au Japon), une solution très différente a été proposée. Le maire de la ville, Masafumi Koki, a publié en octobre une ordonnance limitant l’utilisation des smartphones, tablettes et ordinateurs à deux heures par jour pour les personnes de tous âges.
Koki est informé des restrictions imposées par l’Australie en matière de réseaux sociaux. Mais comme il l’a expliqué :
« Si les adultes ne sont pas tenus de respecter les mêmes normes, les enfants n’accepteront pas les règles. »
Bien que l’ordonnance ait suscité des réactions négatives et ne soit pas pas contraignante, elle a incité 40 % des habitants à réfléchir à leur comportement, et 10 % d’entre eux ont réduit le temps passé sur leur smartphone.
Aux États-Unis, l’opposition aux restrictions imposées par l’Australie sur les réseaux sociaux a été extrêmement virulente et significative.
Les médias et les plateformes états-uniens ont exhorté le président Donald Trump à « réprimander » l’Australie au sujet de sa législation. Ils affirment que les entreprises états-uniennes sont injustement visées et ont déposé des plaintes officielles auprès du Bureau américain du commerce.
Le président Trump a déclaré qu’il s’opposerait à tout pays qui « attaquerait » les plates-formes états-uniennes. Les États-Unis ont récemment convoqué la commissaire australienne à la sécurité électronique Julie Inman-Grant pour témoigner devant le Congrès. Le représentant républicain Jim Jordan a affirmé que l’application de la loi australienne sur la sécurité en ligne « impose des obligations aux entreprises américaines et menace la liberté d’expression des citoyens américains », ce que Mme Inman-Grant a fermement nié.
Maintien de la vigilance mondiale
Alors que la plupart des pays semblent s’accorder sur les préoccupations liées au fonctionnement des algorithmes et aux contenus néfastes auxquels les enfants sont exposés sur les réseaux sociaux, une seule chose est claire : il n’existe pas de solution miracle pour remédier à ces problèmes.
Il n’existe pas de restrictions faisant consensus ni d’âge spécifique à partir duquel les législateurs s’accorderaient à dire que les enfants devraient avoir un accès illimité à ces plates-formes.
De nombreux pays en dehors de l’Australie donnent aux parents la possibilité d’autoriser l’accès à Internet s’ils estiment que cela est dans l’intérêt de leurs enfants. Et de nombreux pays réfléchissent à la meilleure façon d’appliquer les restrictions, s’ils mettent en place des règles similaires.
Alors que les experts soulignent les difficultés techniques liées à l’application des restrictions australiennes, et que les jeunes Australiens envisagent des solutions de contournement pour conserver leurs comptes ou trouver de nouvelles plates-formes à utiliser, d’autres pays continueront à observer et à planifier leurs prochaines actions.
Lisa M. Given a reçu des financements de l'Australian Research Council et de l'eSafety Commission australienne. Elle est membre de l'Académie des sciences sociales d'Australie et de l'Association for Information Science and Technology.
10.12.2025 à 16:18
Aliments ultratransformés : quels effets sur notre santé et comment réduire notre exposition ?
Texte intégral (4313 mots)
Souvent trop sucrés, trop salés et trop caloriques, les aliments ultratransformés contiennent en outre de nombreux additifs, arômes et autres substances résultant de leurs modes de fabrication industriels. Or, les preuves des liens entre leur consommation et divers troubles de santé s’accumulent. Le point sur l’état des connaissances.
The Kraft Heinz Company, Mondelez International, Post Holdings, The Coca-Cola Company, PepsiCo, General Mills, Nestlé USA, Kellogg’s, Mars Incorporated et Conagra Brands… au-delà de leur secteur d’activité – l’agroalimentaire – et de leur importance économique, ces dix entreprises partagent désormais un autre point commun : elles sont toutes visées par une procédure judiciaire engagée par la Ville de San Francisco, aux États-Unis. Selon le communiqué de presse publié par les services du procureur de la ville David Chiu, cette plainte est déposée, car
ces sociétés « savai[en]t que [leurs] produits rendaient les gens malades, mais [ont] continué à concevoir et à commercialiser des produits de plus en plus addictifs et nocifs afin de maximiser [leurs] profits ».
Cette procédure survient quelques jours après la publication, dans la revue médicale The Lancet, d’un long dossier consacré aux effets des aliments ultratransformés sur la santé. Parmi les travaux présentés figure l’analyse approfondie de la littérature scientifique disponible sur ce sujet que nous avons réalisée.
Voici ce qu’il faut savoir des conséquences de la consommation de tels aliments, en tenant compte des connaissances les plus récentes sur le sujet.
Qu’appelle-t-on « aliments ultratransformés » ?
À l’heure actuelle, en France, on estime qu’en moyenne de 30 à 35 % des calories consommées quotidiennement par les adultes proviennent d’aliments ultratransformés. Cette proportion peut atteindre 60 % au Royaume-Uni et aux États-Unis. Si dans les pays occidentaux, les ventes de ces produits se sont stabilisées (quoiqu’à des niveaux élevés), elles sont en pleine explosion dans les pays à revenu faible et intermédiaire.
Comme leur nom l’indique, les aliments ultratransformés sont des aliments, ou des formulations issues d’aliments, qui ont subi des transformations importantes lors de leur élaboration. Ils sont fabriqués de façon industrielle, selon une grande diversité de procédés (chauffage à haute température, hydrogénation, prétraitement par friture, hydrolyse, extrusion, etc.) qui modifient radicalement la matrice alimentaire de départ.
Par ailleurs, les aliments ultratransformés sont caractérisés dans leur formulation par la présence de « marqueurs d’ultra-transformation », parmi lesquels les additifs alimentaires destinés à en améliorer l’apparence, le goût ou la texture afin de les rendre plus appétissants et plus attrayants : colorants, émulsifiants, édulcorants, exhausteurs de goût, etc. À l’heure actuelle, 330 additifs alimentaires sont autorisés en France et dans l’Union européenne.
En outre, des ingrédients qui ne sont pas concernés par la réglementation sur les additifs alimentaires entrent aussi dans la composition des aliments ultratransformés. Il s’agit par exemple des arômes, des sirops de glucose ou de fructose, des isolats de protéines, etc.
En raison des processus de transformation qu’ils subissent, ces aliments peuvent également contenir des composés dits « néoformés », qui n’étaient pas présents au départ, et dont certains peuvent avoir des effets sur la santé.
Dernier point, les aliments ultratransformés sont généralement vendus dans des emballages sophistiqués, dans lesquels ils demeurent souvent conservés des jours voire des semaines ou mois. Ils sont aussi parfois réchauffés au four à micro-ondes directement dans leurs barquettes en plastique. De ce fait, ils sont plus susceptibles de contenir des substances provenant desdits emballages.
Les procédés possibles et les additifs autorisés pour modifier les aliments sont nombreux. Face à la profusion d’aliments présents dans les rayons de nos magasins, comment savoir si un aliment appartient à la catégorie des « ultratransformés » ?
Une classification pour indiquer le niveau de transformation
Un bon point de départ pour savoir, en pratique, si un produit entre dans la catégorie des aliments ultratransformés est de se demander s’il contient uniquement des ingrédients que l’on peut trouver traditionnellement dans sa cuisine. Si ce n’est pas le cas (s’il contient par exemple des émulsifiants, ou des huiles hydrogénées, etc.), il y a de fortes chances qu’il s’agisse d’un aliment ultratransformé.
La classification NOVA
Dans les années 2010, le chercheur brésilien Carlos Monteiro et son équipe ont proposé une classification des aliments fondée sur leur degré de transformation. Celle-ci comporte quatre groupes :- les aliments pas ou peu transformés ;
- les ingrédients culinaires (sel, sucre, matières grasses animales et végétales, épices, poivre…) ;
- les aliments transformés combinant les deux premiers groupes ;
- les aliments ultratransformés.
Dans le groupe des aliments ultratransformés figurent par exemple les sodas, qu’ils soient sucrés ou édulcorés, les légumes assaisonnés de sauces contenant des additifs alimentaires, les steaks végétaux reconstitués ou les pâtisseries, les confiseries et barres chocolatées avec ajout d’additifs, les nouilles déshydratées instantanées, les yaourts édulcorés…
Saucisses et jambons, qui contiennent des nitrites, sont classés comme « aliments ultratransformés », tandis qu’une viande simplement conservée en salaison est considérée comme des « transformée ». De la même façon, les soupes liquides en brique préparées uniquement avec des légumes, des herbes et des épices sont considérées comme des « aliments transformés », alors que les soupes déshydratées, avec ajout d’émulsifiants ou d’arômes sont classées comme « aliments ultratransformés ».
Des aliments qui contiennent plus de sucre, plus de sel, plus de gras
Les aliments ultratransformés sont en moyenne plus pauvres en fibres et en vitamines que les autres aliments, tout en étant plus denses en énergie et plus riches en sel, en sucre et en acides gras saturés. En outre, ils pousseraient à manger davantage.
De nombreuses études ont également montré que les régimes riches en aliments ultratransformés étaient par ailleurs associés à une plus faible consommation d’aliments nutritionnellement sains et favorables à la santé.
Or, on sait depuis longtemps maintenant que les aliments trop sucrés, trop salés, trop riches en graisses saturées ont des impacts délétères sur la santé s’ils sont consommés en trop grande quantité et fréquence. C’est sur cette dimension fondamentale que renseigne le Nutri-Score.
Il faut toutefois souligner que le fait d’appartenir à la catégorie « aliments ultratransformés » n’est pas systématiquement synonyme de produits riches en sucres, en acides gras saturés et en sel. En effet, la qualité nutritionnelle et l’ultra-transformation/formulation sont deux dimensions complémentaires, et pas colinéaires.
Cependant, depuis quelques années, un nombre croissant de travaux de recherche ont révélé que les aliments ultratransformés ont des effets délétères sur la santé qui ne sont pas uniquement liés à leur qualité nutritionnelle.
Des effets sur la santé avérés, d’autres soupçonnés
Afin de faire le point sur l’état des connaissances, nous avons procédé à une revue systématique de la littérature scientifique sur le sujet. Celle-ci nous a permis d’identifier 104 études épidémiologiques prospectives.
Ce type d’étude consiste à constituer une cohorte de volontaires dont les consommations alimentaires et le mode de vie sont minutieusement renseignés, puis dont l’état de santé est suivi sur le long terme. Certains des membres de la cohorte développent des maladies, et pas d’autres. Les données collectées permettent d’établir les liens entre leurs expositions alimentaires et le risque de développer telle ou telle pathologie, après prise en compte de facteurs qui peuvent « brouiller » ces associations (ce que les épidémiologistes appellent « facteurs de confusion » : tabagisme, activité physique, consommation d’alcool, etc.).
Au total, 92 des 104 études publiées ont observé une association significative entre exposition aux aliments ultratransformés et problèmes de santé.
Les 104 études prospectives ont dans un second temps été incluses dans une méta-analyse (autrement dit, une analyse statistique de ces données déjà publiées), afin d’effectuer un résumé chiffré de ces associations.
Les résultats obtenus indiquent que la mortalité prématurée toutes causes confondues était l’événement de santé associé à la consommation d’aliments transformés pour lequel la densité de preuve était la plus forte (une vingtaine d’études incluses dans la méta-analyse).
Pour le formuler simplement : les gens qui consommaient le plus d’aliments ultratransformés vivaient en général moins longtemps que les autres, toutes choses étant égales par ailleurs en matière d’autres facteurs de risques.
Les preuves sont également solides en ce qui concerne l’augmentation de l’incidence de plusieurs pathologies : maladies cardiovasculaires, obésité, diabète de type 2 et dépression ou symptômes dépressifs.
La méta-analyse suggérait également une association positive entre la consommation d’aliments ultratransformés et le risque de développer une maladie inflammatoire chronique de l’intestin (quatre études incluses).
En ce qui concerne les cancers, notamment le cancer colorectal, les signaux indiquant une corrélation potentielle sont plus faibles. Il faudra donc mener d’autres études pour confirmer ou infirmer le lien.
Des résultats cohérents avec les travaux expérimentaux
Au-delà de ces études de cohorte, ces dernières années, diverses études dites « interventionnelles » ont été menées. Elles consistent à exposer des volontaires à des aliments ultratransformés et un groupe témoin à des aliments pas ou peu transformés, afin de suivre l’évolution de différents marqueurs biologiques (sur une période courte de deux ou trois semaines, afin de ne pas mettre leur santé en danger).
C’est par exemple le cas des travaux menés par Jessica Preston et Romain Barrès, qui ont montré avec leurs collaborateurs que la consommation d’aliments ultratransformés entraînait non seulement une prise de poids plus importante que les aliments non ultratransformés, à calories égales, mais qu’elle perturbait aussi certaines hormones, et était liée à une baisse de la qualité du sperme.
Ces résultats suggèrent que ce type de nourriture serait délétère à la fois pour la santé cardiométabolique et pour la santé reproductive. Les résultats de plusieurs essais randomisés contrôlés menés ces dernières années vont dans le même sens. Cinq ont été répertoriés et décrits dans notre article de revue, et d’autres sont en cours.
Les aliments ultratransformés impactent donc la santé, et ce, très en amont du développement de maladies chroniques comme le diabète.
D’autres travaux expérimentaux, comme ceux de l’équipe de Benoît Chassaing, révèlent que la consommation de certains émulsifiants qui sont aussi des marqueurs d’ultra-transformation perturbe le microbiote. Elle s’accompagne d’une inflammation chronique, et a été associée au développement de cancers colorectaux dans des modèles animaux.
À lire aussi : Comment le plastique est devenu incontournable dans l’industrie agroalimentaire
Rappelons que la majorité des additifs contenus dans les aliments ultratransformés n’ont pas d’intérêt en matière de sécurité sanitaire des aliments. On parle parfois d’additifs « cosmétiques », ce terme n’ayant pas de valeur réglementaire.
Ils servent uniquement à rendre les produits plus appétissants, améliorant leur apparence ou leurs qualités organoleptiques (goût, texture) pour faire en sorte que les consommateurs aient davantage envie de les consommer. Ils permettent aussi de produire à plus bas coût, et d’augmenter les durées de conservation.
Au-delà du principe de précaution
En 2019, à la suite de l’avis du Haut Conseil de la santé publique, le quatrième programme national nutrition santé (PNNS) introduisait pour la première fois la recommandation officielle de favoriser les aliments pas ou peu transformés et limiter les aliments ultratransformés, tels que définis par la classification NOVA.
À l’époque, cette recommandation se fondait sur un nombre relativement restreint de publications, notamment les premières au monde ayant révélé des liens entre aliments ultratransformés et incidence de cancers, maladies cardiovasculaires et diabète de type 2, dans la cohorte française NutriNet-Santé. Il s’agissait donc avant tout d’appliquer le principe de précaution.
Aujourd’hui, les choses sont différentes. Les connaissances accumulées grâce aux nombreuses recherches menées ces cinq dernières années dans le monde ont apporté suffisamment de preuves pour confirmer que la consommation d’aliments ultratransformés pose un réel problème de santé publique.
Dans le cadre de la cohorte NutriNet-Santé, nous avons, par exemple, désormais publié une douzaine d’articles montrant des liens entre la consommation d’émulsifiants, de nitrites, d’édulcorants ainsi que celle de certains mélanges d’additifs et une incidence plus élevée de certains cancers, maladies cardiovasculaires, d’hypertension et de diabète de type 2.
De potentiels « effets cocktails » ont également été suggérés grâce à un design expérimental mis en place par des collègues toxicologues. Des indices collectés lors de travaux toujours en cours suggèrent également que certains colorants et conservateurs pourraient eux aussi s’avérer problématiques. Rappelons en outre qu’en 2023, le Centre international de recherche sur le cancer (CIRC) a classé l’aspartame comme « possiblement cancérigène » pour l’être humain (groupe 2B).
Le problème est que nous sommes exposés à de très nombreuses substances. Or, les données scientifiques concernant leurs effets, notamment sur le long terme ou lorsqu’elles sont en mélange, manquent. Par ailleurs, tout le monde ne réagit pas de la même façon, des facteurs individuels entrant en ligne de compte.
Il est donc urgent que les pouvoirs publics, sur la base des connaissances scientifiques les plus récentes, s’emparent de la question des aliments ultratransformés. Mais par où commencer ?
Quelles mesures prendre ?
Comme souvent en nutrition de santé publique, il est nécessaire d’agir à deux niveaux. Au niveau du consommateur, le cinquième programme national nutrition santé, en cours d’élaboration, devrait pousser encore davantage la recommandation de limiter la consommation d’aliments ultratransformés.
Il s’agira également de renforcer l’éducation à l’alimentation dès le plus jeune âge (et la formation des enseignants et des professionnels de santé) pour sensibiliser les publics à cette question.
En matière d’information des consommateurs, l’étiquetage des denrées alimentaires joue un rôle clé. La première urgence reste de rendre obligatoire le Nutri-Score sur l’ensemble des produits, comme cela est plébiscité par plus de 90 % de la population française, d’après Santé publique France. Les citoyennes et citoyens ont leur rôle à jouer en ce sens, en signant la pétition sur le site de l’Assemblée nationale.
À ce sujet, soulignons que des évolutions du logo Nutri-Score sont envisagées pour mieux renseigner les consommateurs, par exemple en entourant de noir le logo lorsqu’il figure sur des aliments appartenant à la catégorie NOVA « ultratransformé ». Un premier essai randomisé mené sur deux groupes de 10 000 personnes a démontré que les utilisateurs confrontés à un tel logo nutritionnel sont nettement plus à même d’identifier si un produit est ultratransformé, mais également que le Nutri-Score est très performant lorsqu’il s’agit de classer les aliments selon leur profil nutritionnel plus ou moins favorable à la santé.
Il est également fondamental de ne pas faire porter tout le poids de la prévention sur le choix des consommateurs. Des modifications structurelles de l’offre de nos systèmes alimentaires sont nécessaires.
Par exemple, la question de l’interdiction de certains additifs (ou d’une réduction des seuils autorisés), lorsque des signaux épidémiologiques et/ou expérimentaux d’effets délétères s’accumulent, doit être posée dans le cadre de la réévaluation de ces substances par les agences sanitaires. C’est en particulier le cas pour les additifs « cosmétiques » sans bénéfice santé.
Les leviers économiques
Au-delà de la réglementation liée à la composition des aliments ultratransformés, les législateurs disposent d’autres leviers pour en limiter la consommation. Il est par exemple possible de réguler leur marketing et de limiter leur publicité, que ce soit à la télévision, dans l’espace public ou lors des événements sportifs, notamment.
Ce point est d’autant plus important en ce qui concerne les campagnes qui ciblent les enfants et les adolescents, particulièrement vulnérables au marketing. Des tests d’emballage neutre – bien que menés sur de petits effectifs – l’ont notamment mis en évidence.
Autre puissant levier : le prix. À l’instar de ce qui s’est fait dans le domaine de la lutte contre le tabagisme, il pourrait être envisageable de taxer les aliments ultratransformés et ceux avec un Nutri-Score D ou E et, au contraire, de prévoir des systèmes d’incitations économiques pour faire en sorte que les aliments les plus favorables nutritionnellement, pas ou peu ultratransformés, et si possible bio, soient les plus accessibles financièrement et deviennent les choix par défaut.
Il s’agit aussi de protéger les espaces d’éducation et de soin en interdisant la vente ou la distribution d’aliments ultratransformés, et en y améliorant l’offre.
Il est également fondamental de donner les moyens à la recherche académique publique, indemne de conflits d’intérêt économiques, de conduire des études pour évaluer les effets sur la santé des aliments industriels. Ce qui passe par une amélioration de la transparence en matière de composition de ces produits.
Un manque de transparence préjudiciable aux consommateurs
À l’heure actuelle, les doses auxquelles les additifs autorisés sont employés par les industriels ne sont pas publiques. Lorsque les scientifiques souhaitent accéder à ces informations, ils n’ont généralement pas d’autre choix que de faire des dosages dans les matrices alimentaires qu’ils étudient.
C’est un travail long et coûteux : lors de nos travaux sur la cohorte NutriNet-Santé, nous avons dû réaliser des milliers de dosages. Nous avons aussi bénéficié de l’appui d’associations de consommateurs, comme UFC-Que Choisir. Or, il s’agit d’informations essentielles pour qui étudie les impacts de ces produits sur la santé.
Les pouvoirs publics devraient également travailler à améliorer la transparence en matière de composition des aliments ultratransformés, en incitant (ou en contraignant si besoin) les industriels à transmettre les informations sur les doses d’additifs et d’arômes employées, sur les auxiliaires technologiques utilisés, sur la composition des matériaux d’emballages, etc. afin de permettre l’évaluation de leurs impacts sur la santé par la recherche académique.
Cette question de la transparence concerne aussi l’emploi d’auxiliaires technologiques. Ces substances, utilisées durant les étapes de transformation industrielle, ne sont pas censées se retrouver dans les produits finis. Elles ne font donc pas l’objet d’une obligation d’étiquetage. Or, un nombre croissant de travaux de recherche révèle qu’en réalité, une fraction de ces auxiliaires technologiques peut se retrouver dans les aliments.
C’est par exemple le cas de l’hexane, un solvant neurotoxique utilisé dans l’agro-industrie pour améliorer les rendements d’extraction des graines utilisées pour produire les huiles végétales alimentaires.
Le poids des enjeux économiques
Le manque de transparence ne se limite pas aux étiquettes des aliments ultratransformés. Il est également important de vérifier que les experts qui travaillent sur ces sujets n’ont pas de liens d’intérêts avec l’industrie. L’expérience nous a appris que lorsque les enjeux économiques sont élevés, le lobbying – voire la fabrique du doute – sont intenses. Ces pratiques ont été bien documentées dans la lutte contre le tabagisme. Or, les aliments ultratransformés génèrent des sommes considérables.
Enjeux économiques
- Entre 2009 et 2023, les ventes mondiales sur le marché des aliments ultratransformés sont passées de 1 500 milliards de dollars à 1 900 milliards de dollars (en dollars américains constants de 2023, à prix constants ; soit environ de 1 290 milliards à 1 630 milliards d’euros), principalement tirés par la croissance rapide des ventes dans les pays à faible et moyen revenu ;
- Entre 1962 et 2021, plus de la moitié des 2 900 milliards de dollars (environ 2 494 milliards d’euros aujourd’hui) versés aux actionnaires par les entreprises opérant dans les secteurs de la production alimentaire, de la transformation, de la fabrication, de la restauration rapide et de la vente au détail, l’ont été par les fabricants de produits ultratransformés.
Cependant, si élevés que soient ces chiffres, les découvertes scientifiques récentes doivent inciter la puissance publique à prendre des mesures qui feront passer la santé des consommateurs avant les intérêts économiques.
Il s’agit là d’une impérieuse nécessité, alors que l’épidémie de maladies chroniques liées à la nutrition s’aggrave, détruit des vies et pèse de plus en plus sur les systèmes de santé.
Mathilde Touvier a reçu des financements publics ou associatifs à but non lucratif de l'European Research Council, l'INCa, l'ANR, la DGS...
Bernard Srour a reçu des financements de l'Agence nationale de la recherche (ANR), de INRAE et de l'Institut national du cancer (INCa) dans le cadre de ses recherches. Il a reçu des honoraria dans le cadre d'expertises ou de présentations scientifiques de la part de l'American Heart Association, l'European School of Oncology, et de la Danish Diabetes and Endocrine Academy.
10.12.2025 à 16:17
La « littérature rectificative » : quand les personnages littéraires sortent de leur silenciation
Texte intégral (2162 mots)
Fin octobre 2025 sortait sur nos écrans une nouvelle adaptation d’une œuvre littéraire : « l’Étranger », d’Albert Camus, revisité par François Ozon. Cet événement cinématographique nous rappelait, une fois encore, que les personnages de fiction peuvent avoir une vie qui échappe à leur créateur ou créatrice, au point parfois d’avoir envie de les croire « autonomes ».
L’autonomie des personnages de fiction, c’est ce que le professeur de littérature française Pierre Bayard défend dans son ouvrage la Vérité sur « Ils étaient dix » (2020). Il s’autoproclame d’ailleurs « radical » parmi les « intégrationnistes », soit parmi celles et ceux qui, commentant et pensant la fiction, affirment que nous pouvons parler des personnages littéraires comme s’il s’agissait d’êtres vivants.
Donner une voix aux personnages silenciés
Avant le film d’Ozon (L’Étranger, 2025), l’écrivain Kamel Daoud, en publiant Meursault, contre-enquête (2013), entendait donner la parole au frère de celui qui, dans le récit de Camus, ne porte même pas de nom : il est désigné comme « l’Arabe ». Son projet était de rendre compte de cette vie silenciée
– et partant, du caractère colonial de ce monument de la culture francophone – en lui donnant une consistance littéraire. Il s’agissait en somme de « rectifier » non pas une œuvre, l’Étranger (1942), mais la réalité de ce personnage de fiction qui, nous parvenant à travers les mots seuls de Meursault, ne disait rien en propre et dont la trajectoire de vie ne tenait en rien d’autre qu’à l’accomplissement de son propre meurtre.
Plus récemment, l’écrivain américain Percival Everett, lauréat du Pulitzer 2025 pour James (2024), a quant à lui donné la parole au personnage secondaire homonyme de l’esclave apparaissant dans le roman les Aventures de Huckleberry Finn (1848), de Mark Twain. Son projet, selon les propres mots d’Everett était de créer pour James une « capacité d’agir ».
De telles entreprises sont plus fréquentes qu’il n’y paraît. Dans le Journal de L. (1947-1952), Christophe Tison proposait en 2019 de donner la plume à la Lolita de Nabokov dont le grand public ne connaissait jusqu’alors que ce qu’Humbert-Humbert – le pédophile du roman – avait bien voulu en dire. Celle qui nous parvenait comme l’archétype de la « nymphette » aguicheuse et dont la figuration était devenue iconique – alors même que Nabokov avait expressément demandé à ce que les couvertures de ses livres ne montrent ni photos ni représentations de jeune fille –, manifeste, à travers Tison, le désir de reprendre la main sur son propre récit.
À lire aussi : « Lolita » de Nabokov en 2024 : un contresens généralisé enfin levé ?
Il en est allé de même pour Antoinette Cosway, alias Bertha Mason, qui apparaît pour la première fois sous les traits de « la folle dans le grenier » dans le Jane Eyre (1847), de Charlotte Brontë. Quand l’écrivaine britannique née aux Antilles, Jean Rhys décide de raconter l’histoire de cette femme blanche créole originaire de Jamaïque dans la Prisonnière des Sargasses (1966), elle entend montrer que cette folie tient au système patriarcal et colonial qui l’a brisée en la privant de son identité.
Margaret Atwood, quant à elle, avec son Odyssée de Pénélope (2005) s’attache à raconter le périple finalement très masculin de « l’homme aux mille ruses » notamment à travers le regard de Pénélope. Celle qui jusqu’alors n’était que « l’épouse d’Ulysse » se révèle plus complexe et plus ambivalente que ce que l’assignation homérique à la fidélité avait laissé entendre.
Ces œuvres singulières fonctionnent toutes selon les mêmes présupposés : 1. La littérature est faite d’existences ; 2. Or, celles de certains personnages issus d’œuvres « premières » y sont mal représentées ; 3. une nouvelle œuvre va pouvoir leur permettre de dire « leur vérité ».
Ces textes, je propose de les rassembler, sans aucune considération de genres, sous l’intitulé « littérature rectificative ». Leur ambition n’est pas celle de la « réponse », de la « riposte » ou même du « démenti ». Ils n’établissent pas à proprement parler de « dialogue » entre les auteurs et autrices concernées. Ils ont seulement pour ambition de donner à voir un point de vue autre – le point de vue d’un ou d’une autre – sur des choses (trop peu ? trop mal ?) déjà dites par la littérature.
Ce n’est probablement pas un hasard si les textes de cette littérature rectificative donnent ainsi la parole à des sujets littéraires victimes d’injustices et de violences, qu’elles soient raciales, sexistes et sexuelles ou autres, car, au fond, ils cherchent tous à savoir qui détient la parole littéraire sur qui.
Le cas du « Consentement », de Vanessa Springora
Parmi eux, un texte qui aura considérablement marqué notre époque : le Consentement de Vanessa Springora (2020). Dans ce livre, elle raconte, sous forme autobiographique, sa relation avec l’écrivain Gabriel Matzneff, qu’elle rencontre en 1986 à Paris, alors qu’elle a 14 ans et lui environ 50. Elle s’attache à décrire les mécanismes d’emprise mis en place par l’auteur ainsi que l’acceptation tacite de cette relation au sein d’un milieu où sa réputation d’écrivain primé lui offrait une protection sociale.
Si l’on accepte qu’il est autre chose qu’un témoignage à seule valeur référentielle et qu’il dispose de qualités littéraires (ou si l’on entend le « témoignage » dans un sens littéraire), alors il semble clair que le « je » de Vanessa Springora est un personnage. Il ne s’agit en aucun cas ici de disqualifier ce « je » en prétendant qu’il est affabulation, mais bien de le penser comme une construction littéraire, au même titre d’ailleurs qu’on peut parler de personnages dans les documentaires.
À lire aussi : « L’Étranger » : pourquoi le roman de Camus déchaîne toujours les passions
La spécificité de Vanessa Springora est que son texte ne vient pas « rectifier » la réalité instituée par un autre texte, mais par une somme d’écrits de Gabriel Matzneff. Elle détaille (p. 171-172) :
« Entre mes seize et vingt-cinq ans paraissent successivement en librairie, à un rythme qui ne me laisse aucun répit, un roman de G. dont je suis censée être l’héroïne ; puis le tome de son journal qui couvre la période de notre rencontre, comportant certaines de mes lettres écrites à l’âge de quatorze ans ; avec deux ans d’écart, la version poche de ce même livre ; un recueil de lettres de rupture, dont la mienne […] Plus tard suivra encore un autre tome de ses carnets noirs revenant de façon obsessionnelle sur notre séparation. »
À travers tous ces textes, écrit-elle, elle découvre que « les livres peuvent être un piège » :
« La réaction de panique des peuples primitifs devant toute capture de leur image peut prêter à sourire. Ce sentiment d’être piégé dans une représentation trompeuse, une version réductrice de soi, un cliché grotesque et grimaçant, je le comprends pourtant mieux que personne. S’emparer avec une telle brutalité de l’image de l’autre, c’est bien lui voler son âme. » (p. 171).
Ce qu’elle décrit ici, cet enfermement dans un personnage qui n’est pas elle, n’est pas sans rappeler le gaslighting, soit ce procédé manipulatoire à l’issue duquel les victimes, souvent des femmes, finissent par se croire folles. Il doit son nom au film de George Cukor, Gaslight (1944), Hantise dans la version française, qui raconte l’histoire d’un couple au sein duquel l’époux tente de faire croire à sa femme qu’elle perd la raison en modifiant des éléments a priori anodins de son quotidien et en lui répondant, quand elle remarque ces changements, qu’il en a toujours été ainsi (parmi eux, l’intensité de l’éclairage au gaz de leur maison, le « gas light »).
Springora montre en effet que la « réalité littéraire » construite par M. l’a précisément conduite à douter de sa propre réalité (p. 178) :
« Je marchais le long d’une rue déserte avec une question dérangeante qui tournait en boucle dans ma tête, une question qui s’était immiscée plusieurs jours auparavant dans mon esprit, sans que je puisse la chasser : quelle preuve tangible avais-je de mon existence, étais-je bien réelle ? […] Mon corps était fait de papier, dans mes veines ne coulait que de l’encre. »
Le Consentement est certes le récit d’une dépossession de soi – d’une emprise. Il est cependant aussi une forme d’acte performatif puisque Springora y (re)devient le plein sujet de sa propre énonciation après en avoir été privée. Ne serait-ce pas là la portée pleinement politique de cette littérature rectificative, à savoir donner aux sujets littéraires les moyens de conquête leur permettant de redevenir des pleins sujets d’énonciation, soit cette « capacité d’agir » dont parlait justement Percival Everett ?
Si la littérature est un formidable exercice de liberté (liberté de créer, d’imaginer, de choisir un langage, un style, une narration), elle peut être aussi un incroyable exercice de pouvoir. Les auteurs australiens Bill Aschroft, Gareth Griffiths et Helen Tiffin l’avaient déjà montré dans l’Empire vous répond. Théorie et pratique des littératures post-coloniales (The Empire Writes Back, 1989, traduction française 2012). À partir du cas de l’empire colonial britannique, l’ouvrage mettait ainsi au jour les façons dont la littérature du centre s’est imposée (par ses formats, ses styles, ses langages, mais encore par ses visions de l’ordre du monde) aux auteurs de l’empire et la façon dont ceux-ci ont appris à s’en défaire.
À l’ère des « re » (de la « réparation des vivants » ou de la justice dite « restaurative »), la littérature rectificative a sans aucun doute un rôle politique à jouer. D’abord, elle peut nous aider à poursuivre notre chemin dans le travail de reconnaissance de nos aveuglements littéraires et collectifs. Ensuite, elle peut faire la preuve que nos sociétés sont assez solides pour ne pas avoir à faire disparaître de l’espace commun des œuvres que nous jugeons dérangeantes. La littérature rectificative ne soustrait pas les textes comme pourrait le faire la cancel culture. Au contraire, elle en ajoute, nous permettant ainsi de mesurer la distance qui nous a un jour séparés de cet ordre du monde dans lequel nous n’avons pas questionné ces existences littéraires subalternes et silenciées.
Hécate Vergopoulos ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.12.2025 à 16:16
À qui appartiennent les poissons ? L’épineuse question de la répartition des quotas de pêche européens
Texte intégral (2287 mots)
Les poissons de la Manche n’ont pas pu voter au moment du Brexit, ceux de l’Atlantique n’ont pas de visa de l’espace Schengen et pourtant, leur sort a été fixé au sein de l’Union européenne dans les années 1970. Actualiser ces statu quo anciens dans une Europe à 27 où les océans se réchauffent et où bon nombre de poissons tendent à migrer vers le nord à cause de la hausse des températures devient plus que nécessaire. Voici pourquoi.
Les populations marines ne connaissent pas de frontières. Tous les océans et toutes les mers du monde sont connectées, permettant la libre circulation des animaux marins. Les seules limitations sont intrinsèques à chaque espèce, dépendantes de sa capacité de déplacement, de ses besoins et tolérances vis-à-vis des températures, des profondeurs et d’autres facteurs.
Les poissons ne connaissent ainsi pas de barrières linéaires ou immuables, mais les États ont, eux, quadrillé les mers en fonction de leurs zones économiques exclusives (ZEE). Des institutions onusiennes, comme l’Organisation des Nations unies pour l’alimentation et l’agriculture (Food and Agriculture Organization, FAO), la Commission générale des pêches pour la Méditerranée (CGPM) ou le Conseil international de l’exploitation de la mer, définissent des zones d’évaluation des stocks ou de gestion des pêches dans lesquelles sont régulées les captures ou les activités de pêche.
Dans l’UE : une règle peu révisée depuis plus de quarante ans
Mais à qui sont donc les poissons qui franchissent allégrement les limites des ZEE et des zones de gestion de pêche ? Pour répondre à cette question et éviter la surpêche, des mécanismes de gestion commune et de partage des captures ont été mis en place au sein de l’Union européenne (UE) et avec les pays voisins.
Le tonnage de poisson que l’on peut pêcher est d’abord défini pour chaque espèce et chaque zone de gestion (un stock) afin d’éviter la surpêche. Puis ce tonnage est divisé entre pays, comme les tantièmes dans une copropriété ou les parts dans un héritage. C’est cette répartition entre pays, appelée la « clé de répartition », qui est ici discutée.
Pour la plupart des stocks, la clé de répartition est encore définie sur la base des captures réalisées dans les années 1973-1978 par chacun des neuf États alors membres de l’UE. Cette référence historique a mené à la dénomination de « stabilité relative » qui désigne la méthode de partage des captures annuelles admissibles : la clé est stable, mais la quantité obtenue chaque année varie en fonction de l’état du stock.
Chaque État membre est ensuite libre de distribuer son quota à ses pêcheurs selon des modalités qu’il choisit. En France, chaque navire possède des antériorités de captures propres mais qui ne lui donnent pas automatiquement accès au quota correspondant. Elles déterminent en revanche les sous-quotas attribués à l’organisation de producteurs (OP) à laquelle le navire choisit d’adhérer. L’OP définit en interne les modalités de répartition de ses sous-quotas entre ses adhérents, qui sont différentes entre OP, stocks, flottilles, années…
Un partage satisfaisant pour la France mais qui atteint ses limites
La France fait partie des gagnants de ce partage ancien. Le cadre juridique bien établi et la prévisibilité du système facilitent la programmation et évitent d’interminables négociations. Un système assez fluide, avec des échanges parfois systématiques entre États ou entre OP, permet d’éviter d’atteindre les quotas trop tôt dans l’année. Les OP jouent un rôle essentiel pour optimiser l’utilisation et la valorisation des quotas sur l’année, limiter la concurrence entre pêcheurs, ou éviter des crises économiques.
Mais à l’heure du changement climatique, et dans une Europe post-Brexit, ce modèle ancien se frotte à des questionnements nouveaux, qu’ils soient sociétaux ou environnementaux.
Le cas du maquereau est emblématique de cela. Depuis 2010, ce poisson migre de plus en plus vers le nord et atteint les eaux de l’Islande, pays qui n’avait pratiquement pas de quotas pour cette espèce. Faute d’accord avec les pays voisins, la capture annuelle du maquereau dépasse la recommandation scientifique depuis de nombreuses années, menant à la surpêche.
Le Brexit a, quant à lui, provoqué une réduction de la part de l’UE pour les stocks partagés avec le Royaume-Uni, car pêchées dans leur ZEE, avec de lourdes conséquences économiques et sociales : mise à la casse de 90 bateaux français et baisse d’approvisionnement et donc d’activité dans les criées et pour toute la chaîne de transport et de transformation du poisson.
Autre question épineuse : que faire pour les espèces qui sont capturées simultanément par l’engin de pêche alors que leurs niveaux de quota sont très différents ?
C’est le cas par exemple du cabillaud en mer Celtique. Cette espèce est généralement capturée en même temps que le merlu et la baudroie, mais elle fait l’objet d’un quota très faible en raison de l’effondrement du stock. Les pêcheurs qui disposent de quotas pour le merlu ou la baudroie sont donc contraints de cesser leur activité pour éviter de capturer sans le vouloir du cabillaud.
Chaque année, de difficiles négociations sont nécessaires entre l’UE et des pays non membres avec qui des stocks sont partagés, comme la Norvège et le Royaume-Uni, soit des pays qui échappent aux objectifs et critères de répartition définis par la politique commune des pêches.
En France, ce statu quo freine aussi l’installation des jeunes et la transition vers des méthodes de pêche plus vertueuses. En effet, pour s’installer, il ne s’agit pas simplement de pouvoir payer un navire. Le prix de vente d’un navire d’occasion tient en réalité compte des antériorités de pêche qui y restent attachées, ce qui augmente la facture.
Et si l’on veut transitionner vers d’autres techniques ou zones de pêche à des fins de préservation de la biodiversité, d’amélioration du confort ou de la sécurité en mer, ou encore de conciliation des usages avec, par exemple, l’éolien en mer, ce sera nécessairement conditionné à la redistribution des quotas correspondants aux nouvelles espèces pêchées et forcément au détriment d’autres navires qui les exploitent historiquement.
Quelles alternatives au système en place ?
Les atouts et limites du système en place sont bien connus des acteurs de la pêche, mais la réouverture des négociations autour d’une autre clé de répartition promet des débats difficiles entre l'UE et les pays voisins.
L’UE, depuis 2022, incite les États à élargir les critères de répartition du quota national à des considérations environnementales, sociales et économiques. En France, cela s’est traduit en 2024 par de nouveaux critères d’allocation de la réserve nationale de quota. La réserve nationale correspond à une part de quota qui est reprise par l’État à chaque vente et sortie de flotte des navires. Sa répartition favorise désormais les jeunes et la décarbonation des navires.
Cette avancée, même timide, prouve que le choix et l’application de nouveaux critères sont possibles, mais elle reste difficile dans un contexte de faible rentabilité des flottes et de demandes en investissements conséquents pour l’adaptation des bateaux aux transitions écologiques et énergétiques.
En juin 2024, avec un groupe d’une trentaine de scientifiques des pêches, réunis sous l’égide de l’Association française d’halieutique, nous avons mené une réflexion sur les alternatives possibles à la clé actuelle. Parmi les propositions, quatre points ont été saillants pour une pêche durable, équitable et rentable :
la nécessaire prise en compte d’une multitude de critères écologiques et halieutiques pour l’attribution de part de quota. Par exemple, l’utilisation d’engins sélectifs, et moins impactants pour la biodiversité ou la proximité des zones de pêche, traduisant un souci de limitation d’empreinte carbone, et d’adaptabilité aux changements de distribution ;
la nécessaire prise en compte de critères socio-économiques, comme l’équité entre navires, entre générations, entre sexes… ;
la création de récompenses en quota pour la participation à la collecte de données nécessaires pour informer une gestion écosystémique et permettre la mise en place d’un système de répartition fondé sur des critères biologiques (mise en place de caméras à bord, campagnes exploratoires, auto-échantillonnage) ;
la nécessaire transparence concernant la répartition nationale et ses critères.
Conscients de la charge réglementaire qui pèse sur les patrons pêcheurs et des difficultés financières, parfois insurmontables, associées aux adaptations (changement d’engins, de pratiques…), certaines propositions reposent davantage sur des incitations que sur des obligations, c’est-à-dire des quotas supplémentaires venant récompenser des adaptations volontaires.
Pour permettre une transition douce vers les nouvelles règles, nous conseillons le maintien temporaire ou partiel des antériorités afin de donner le temps et la visibilité nécessaires aux pêcheurs pour effectuer les adaptations adéquates.
Nous nous accordons sur une mise à jour à intervalle régulier de la clé de répartition entre pays et navires selon un calendrier prédéfini et en application des critères retenus pour améliorer l’adaptabilité des pêcheries aux changements. Les critères pourraient être aussi révisés, tout en évitant une réouverture des négociations trop régulièrement. Nous insistons sur le nécessaire maintien de la flexibilité indispensable aux adaptations dans un contexte environnemental très fluctuant lié au changement global.
Cet article a été écrit sur la base d’un travail collaboratif mené par Arthur Le Bigot, encadré par les autrices (Ifremer), pour lequel une trentaine de scientifiques a été consultée au cours d’un atelier organisé par l’Association française d’halieutique et des acteurs du système pêche interviewés. Le contenu de cet article reflète l’interprétation des autrices sur la base de leurs connaissances et des propos recueillis au cours des entretiens et de l’atelier. Il n’engage pas les participants à l’atelier, les personnes interviewées ni les membres de l’AFH.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
10.12.2025 à 16:15
Les jeunes veulent-ils encore la démocratie ?
Texte intégral (1895 mots)
Droitisation de la jeunesse, désamour de la démocratie des moins de 35 ans, distanciation de la politique des seniors : « Fractures françaises », dix ans d’enquête menée par le Cevipof, nous apprennent les évolutions du rapport au politique de différentes générations.
Contrairement à ce qui est souvent asséné, les jeunes ne sont ni en voie de dépolitisation, ni désintéressés de la politique. Ils expriment des choix politiques et adoptent des comportements dans un cadre renouvelé du rapport à la citoyenneté.
Les données de l’enquête annuelle Fractures françaises, depuis 2013, permettent de saisir les évolutions les plus repérables du rapport à la politique dans la chaîne des générations, en en mesurant les écarts ou les similitudes entre les plus jeunes et les plus vieux, à l’échelle d’une dizaine d’années.
Évolution de l’intérêt pour la politique en fonction de l’âge (%)
Comparés à leurs aînés, les jeunes font preuve d’un niveau d’intérêt pour la politique certes moindre mais assez stable. Les fluctuations enregistrées, obéissant aux effets de la conjoncture politique et aux périodes électorales, suivent globalement celles qui sont enregistrées dans l’ensemble de la population.
Et si l’on compare le niveau de l’intérêt politique des classes d’âge les plus jeunes à celui qui est enregistré dans les classes d’âge plus âgées, au fil du temps, ils ont plutôt tendance à se rapprocher. L’intérêt pour la politique des plus jeunes augmente plutôt tandis que celui des autres classes d’âge a tendance au mieux à rester stable, voire à régresser. En l’espace de dix ans, l’écart de niveau d’intérêt pour la politique entre les moins de 35 ans et les plus de 60 ans est passé de - 25 points à - 7 points.
S’il y a dépolitisation, distanciation envers la politique, cette évolution est donc loin de ne concerner que les jeunes, elle est aussi visible, et peut être encore plus significative, dans les segments de la population plus âgés. C’est un résultat qui va à l’encontre de bien des idées reçues.
Une demande pressante de démocratie directe
La distanciation envers les partis politiques et, plus largement, la défiance à l’encontre du personnel et des institutions politiques sont bien repérés dans les analyses de sociologie politique et électorale récentes en France. Celles-ci montrent une montée d’une citoyenneté plus critique, plus expressive, plus individualisée, et de fait moins normative et moins institutionnalisée.
L’attachement à la démocratie domine toujours dans les jeunes générations et reste au cœur de leur répertoire politique. Néanmoins, les demandes de démocratie directe et de participation accrue des citoyens, sans la médiation des organisations ou des institutions politiques se font de plus en plus pressantes, et de façon encore plus marquée au sein de la jeunesse que dans l’ensemble de la population.
Les rouages de la démocratie représentative sont mis en cause et les jeunes ont endossé encore plus que leurs aînés les habits d’une citoyenneté critique, où la protestation est devenue un mode d’expression familier.
Le triptyque défiance-intermittence du vote-protestation définit le cadre d’un modèle de participation politique où les formes non conventionnelles sont assez largement investies, au risque même de la radicalité. Ainsi, parmi les moins de 35 ans, la justification de la violence pour défendre ses intérêts entraîne l’adhésion d’environ 30 % d’entre eux ces cinq dernières années.
Parmi les seniors de plus de 60 ans, celle-ci reste très en retrait sur l’ensemble de la période (15 points de moins que les moins de 35 ans en 2025).
Un cadre renouvelé du rapport à la citoyenneté
On observe dans les nouvelles générations des signes palpables d’une « déconsolidation démocratique », à savoir un affaiblissement de la croyance dans l’efficacité de la démocratie pour gouverner et répondre aux attentes des citoyens.
Le politologue Yasha Mounk utilise cette notion pour rendre compte de l’érosion de la confiance accordée aux institutions politiques représentatives dans nombre de démocraties contemporaines.
Dans la dynamique générationnelle, cette déconsolidation peut ouvrir la voie à de nouvelles formes de radicalités marquées par une polarisation aux deux extrêmes de l’échiquier politique et partisan à l’issue démocratique incertaine. La montée des populismes et des leaderships autoritaires en Europe et bien au-delà en est l’un des symptômes les plus patents.
Des seniors plus attachés à la démocratie que les moins de 35 ans
Parmi les moins de 35 ans, plus de quatre jeunes sur dix (42 %) sont d’accord avec l’idée que d’autres systèmes politiques sont aussi bons que la démocratie. Si l’on remonte dix ans en arrière, en 2014, ils étaient 29 % à partager le même avis.
Dans l’ensemble de la population, cette opinion a aussi progressé mais à un niveau plus faible, passant de 19 % à 34 %.
En revanche, et c’est une évolution notable, elle a nettement régressé parmi les seniors de plus de 60 ans, passant de 36 % à 23 %, soit une évolution en sens inverse par rapport aux plus jeunes.
Si la démocratie doit tenir, c’est donc davantage du côté des seniors qu’elle trouvera ses défenseurs que parmi les plus jeunes. Un constat qui peut dans l’avenir être lourd de conséquences politiques.
« Des jeunesses » plutôt qu’« une jeunesse »
S’ajoutent à ce tableau, des fractures intragénérationnelles qui rappellent les fractures sociales, culturelles, et politiques qui traversent la jeunesse. Celle-ci n’est pas une entité homogène. Elle est plurielle et divisée.
Ces fractures peuvent prendre le pas sur celles qui s’expriment au niveau intergénérationnel. Certains segments de la jeunesse, touchés par la précarité du travail et plus faiblement diplômés, ne sont pas exempts d’un repli identitaire favorable aux leaderships autoritaires d’extrême droite.
A contrario, dans la population étudiante et diplômée, à l’autre bout du spectre politique, plus active dans les mobilisations collectives, la tentation de la radicalité à gauche s’exprime.
Par ailleurs, au sein de la jeunesse issue de l’immigration, l’adhésion à certains communautarismes, non dénués de sectarisme et de séparatisme, peut remettre en cause l’universalisme républicain.
Une droitisation qui touche les jeunes générations
Les positionnements politiques des jeunes témoignent d’une certaine désaffiliation idéologique et partisane : 30 % des moins de 35 ans ne se sentent proches d’aucun parti, davantage les jeunes femmes que les jeunes hommes (respectivement 35 % et 27 %, soit un écart similaire à celui que l’on observe dans l’ensemble de la population).
Parmi ceux qui se reconnaissent dans un camp politique, comparés à leurs aînés, la gauche reste mieux placée : 34 % (contre 25 % des 60 ans et plus, et 31 % dans l’ensemble de la population). Le tropisme de gauche de la jeunesse résiste encore dans le renouvellement générationnel mais il a perdu de son acuité. En effet, les positionnements de droite (38 %), certes toujours inférieurs en nombre par rapport à ce que l’on constate chez leurs aînés (44 % des plus de 60 ans et 41 % dans l’ensemble de la population), y sont désormais plus nombreux. Le reste, se déclare au centre (28 %), qui est une position la plupart du temps utilisée comme refuge et expression d’un non-positionnement.
En l’espace de cinq ans (2020-2025), parmi les moins de 35 ans, les positionnements de droite sont passés de 28 % à 38 % (soit + 10 points), tandis que dans le même intervalle de temps les affiliations à la gauche n’ont quasiment pas progressé (33 % en 2020, 34 % en 2024). Un mouvement de droitisation est donc bien visible dans la jeunesse.
Évolution des positionnements à gauche et à droite selon l’âge, 2020-2024 (%)
La proximité déclarée envers le Rassemblement national a nettement progressé. En l’espace de quatre ans, elle est passée de 10 % à 22 % (+ 12 points) dans l’ensemble de la population, de 10 % à 19 % (+ 9 points) parmi les moins de 35 ans, et de 7 % à 20 % parmi les 60 ans et plus (+ 13 points). La progression de l’attractivité du Rassemblement national concerne donc tous les âges.
La gauche mélenchoniste, portée par La France insoumise, pénètre davantage les jeunes générations que les plus anciennes. Entre 2017 et 2025, on enregistre un faible surcroît (+ 3 points) de la proximité déclarée à La France insoumise qui passe de 11 % à 14 %, avec un pic en 2021 à 21 %. Parmi les 60 ans et plus, cette proximité a plutôt diminué, restant à un niveau bas, sans fluctuation, passant de 7 % à 3 % (soit - 4 points).
Évolution de la proximité envers le Rassemblement national selon l’âge (%)
La proximité ressentie pour le Rassemblement national supplante celle que suscite La France insoumise, y compris dans les jeunes générations. Certes à un niveau légèrement moindre que parmi les 60 ans et plus, mais le parti lepéniste apparaît plus ancré en termes de dynamique.
Les évolutions les plus repérables des positionnements politiques dans la chaîne des générations mettent donc en évidence l’équivoque de nombre d’idées reçues.
Plutôt que de s’affaisser, l’intérêt des jeunes pour la politique s’est tendanciellement rapproché du niveau de celui de leurs aînés. Par ailleurs, nos résultats ne révèlent pas de ruptures ou de discontinuités majeures entre les générations.
Les écarts observés sont dus à des phénomènes d’amplifications des effets de conjoncture et de période touchant l’ensemble de la population et qui sont plus visibles au sein des populations juvéniles. Néanmoins, les signes de déconsolidation démocratique sont plus marqués dans ces dernières, ce qui fragilise les conditions de viabilité et de renouvellement des régimes démocratiques dans l’avenir.
Anne Muxel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.12.2025 à 16:12
Économie circulaire : un levier géopolitique pour la résilience et la durabilité de l’Union européenne ?
Texte intégral (1924 mots)
Pauvre en terres rares, l’Union européenne doit s’adapter au nouveau contexte géopolitique. Le développement de l’économie circulaire peut l’aider à retrouver des marges de souveraineté. Mais un long chemin reste à parcourir.
Face aux tensions géopolitiques qui perturbent les chaînes d’approvisionnement et fragilisent la souveraineté économique du continent, l’Union européenne (UE) doit composer avec une dépendance accrue aux matières premières importées et un besoin impératif de renforcer son autonomie industrielle. Cette nécessité est d’autant plus pressante que Donald Trump ignore la souveraineté de l’UE, la laissant livrée à elle-même.
Cela constitue un signal d’alarme incitant l’UE à rechercher des solutions durables et résilientes pour son système socio-économique. Dans une telle situation géopolitique, l’économie circulaire pourrait-elle constituer un levier stratégique majeur pour l’Union européenne lui permettant de réduire sa dépendance aux importations de matières premières, de renforcer sa résilience économique et de stimuler l’innovation industrielle réinventant ainsi sa position sur l’échiquier mondial ?
Une dépendance aux matières premières
L’Union européenne importe la majorité des matières premières nécessaires à son industrie. Par exemple, 98 % des terres rares et du borate utilisées en Europe proviennent respectivement de Chine et de Turquie, tandis que 71 % des platinoïdes sont importés d’Afrique du Sud. Une telle dépendance expose le tissu industriel de l’UE aux fluctuations des marchés mondiaux et aux tensions géopolitiques, qui perturbent les chaînes d’approvisionnement.
À lire aussi : Russie : la logistique de l’ombre contre les sanctions occidentales
La guerre en Ukraine et la fermeture aux importations de ressources en provenance de Russie, notamment du gaz, ont révélé la fragilité industrielle de l’Europe, démontrant ainsi l’urgence d’une transition vers un modèle plus résilient. Pour répondre à cette crise, l’UE a mis en place des stratégies de « friendshoring », favorisant des échanges avec des pays partenaires de confiance.
Des accords ont été conclus avec le Canada et l’Australie en 2021 et 2024 pour sécuriser l’approvisionnement en terres rares et métaux critiques nécessaires à l’industrie des batteries et des technologies propres.
De plus, le traité de libre-échange entre l’Union européenne et le Mercosur, conclu récemment après plus de vingt ans de complexes négociations, vise à ouvrir les marchés et faciliter les échanges, notamment en matière de matières premières stratégiques.
Développer ses propres capacités
Malheureusement, le « friendshoring » ne garantit pas une autonomie durable dans un monde de plus en plus protectionniste. Les récents conflits commerciaux et les restrictions à l’exportation montrent que l’Europe doit développer ses propres capacités pour éviter d’être soumise aux fluctuations des alliances internationales.
Les tensions commerciales croissantes et les restrictions sur les exportations imposées par certains alliés afin de renforcer leur suprématie économique et stratégique, révèlent les vulnérabilités de l’UE. Cela souligne la nécessité de l’Union de développer des alternatives durables en interne garantissant ainsi son indépendance et sa résilience industrielle.
Développer l’économie circulaire
Pour répondre aux défis stratégiques et renforcer son autonomie industrielle, L’UE mise sur un développement accru de l’économie circulaire. Le Critical Raw Materials Act et le plan d’action pour l’économie circulaire visent à renforcer les capacités de recyclage et à encourager l’innovation dans la récupération des matériaux stratégiques. En premier lieu, l’UE investit dans la récupération du lithium et du cobalt issus des batteries usées, réduisant ainsi la nécessité d’extraire de nouvelles ressources.
Ensuite, l’Union travaille sur la relocalisation des installations de traitement en Europe afin de limiter l’exportation des déchets industriels vers des pays tiers garantissant un meilleur contrôle sur le recyclage des ressources stratégiques. Enfin, de nouvelles réglementations européennes incitent à l’écoconception et à la durabilité des produits. Toutefois, afin d’atteindre ces objectifs, il est important de résoudre un certain nombre de défis propres à l’Union européenne.
Indispensables investissements massifs
La transition vers une économie circulaire nécessite des investissements massifs, estimés à environ 3 % du PIB européen, un niveau comparable aux efforts de reconstruction économique après la Seconde Guerre mondiale. Or, le financement de telles initiatives est incertain, bien que l’Union européenne ait alloué plus de 10 milliards d’euros entre 2014 et 2020 pour soutenir cette transition, principalement dirigés vers la gestion des déchets. Pourtant, une meilleure allocation des resources – misant par example sur la réduction à la source, l’écoconception et l’efficacité matérielle – pourrait multiplier l’impact des investissements.
Le programme NextGenerationEU, qui a marqué un tournant avec l’émission de dette commune, semble aujourd’hui plus difficile à répliquer en raison des réticences de certains États membres. Par ailleurs, la montée des partis nationalistes en Europe rend plus complexe la mise en place de stratégies d’investissement communes.
Barrières industrielles
Bien que le recyclage puisse réduire la dépendance aux importations, il demeure aujourd’hui plus coûteux que l’extraction de nouvelles ressources. Cependant, des innovations récentes, telles que l’automatisation du tri des déchets par intelligence artificielle et l’optimisation des procédés chimiques, permettent de réduire progressivement ces coûts.
En outre, des incitations financières mises en place par l’UE, comme le Fonds pour l’innovation, ainsi que l’engagement de la Banque européenne d’investissement (BEI) pour orienter les capitaux vers des modèles économiques circulaires visent à industrialiser ces technologies et à les rendre plus compétitives.
Une harmonisation réglementaire nécessaire
L’efficacité de l’économie circulaire repose également sur une coordination entre les États membres. Aujourd’hui, les réglementations divergent d’un pays à l’autre, ce qui ralentit la mise en place de standards communs et d’incitations globales adaptées.
Un exemple particulièrement révélateur concerne le statut de la « fin du déchet ». Dans l’UE, un même flux peut être reconnu comme ressource secondaire dans un pays, tandis qu’il demeure juridiquement un déchet dans un autre : cette divergence bloque son transit transfrontalier et limite sa valorisation industrielle. Des travaux récents montrent comment les hétérogénéités limitent la création de marchés circulaires à l’échelle européenne.
On observe des asymétries similaires dans des secteurs clés pour la transition à l’économie circulaire. Dans le domaine des batteries, les obligations en matière de traçabilité, de recyclage et de contenu recyclé varient encore sensiblement entre les États membres, ce qui complique la mise en place de chaînes de valeur cohérentes. Le secteur du bâtiment illustre également ces désalignements : critères de performance, méthodes de diagnostic des matériaux, ou encore exigences de réemploi diffèrent selon les pays, ce qui freine l’essor d’un marché européen du réemploi ou du recyclage de matériaux de construction.
Ces divergences réglementaires, loin d’être anecdotiques, empêchent l’émergence d’un véritable marché circulaire européen capable de soutenir les investissements, de sécuriser les flux de matériaux et d'accélérer la transition industrielle.
L’UE pourrait mettre en place plusieurs mesures pour harmoniser ces réglementations, à savoir :
la création d’un marché unique des matériaux recyclés pour faciliter leur commercialisation ;
l’harmonisation des normes environnementales qui pourraient inciter les investissements transnationaux ;
le développement de crédits d’impôt et des subventions pour les entreprises adoptant des pratiques circulaires.
Face à une situation géopolitique où l’Union européenne compte de moins en moins d’alliés, l’économie circulaire apparaît comme un levier stratégique pour renforcer son autonomie industrielle et sa résilience économique. En capitalisant sur les forces de chaque État membre, l’UE pourrait construire un modèle commun, conciliant diversité et cohésion. Trouver un langage commun devient ainsi essentiel pour surmonter les défis liés aux contraintes budgétaires, à l’harmonisation réglementaire et aux investissements nécessaires, garantissant une transition efficace et durable vers l’autonomie.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
10.12.2025 à 16:12
Face aux défaillances des marques, les groupes de « haters » organisent leur riposte en ligne
Texte intégral (1195 mots)
Que disent les détracteurs d’une marque sur les réseaux ? Une nouvelle étude s’est penchée sur la dynamique des groupes de « haters » sur Facebook. En se fédérant, ces internautes engagés pallient certains manquements des marques qui les ont déçus.
D’ordinaire, les marques ont pour habitude de faire rêver ou d’être idéalisées par les consommateurs. Cependant, depuis quelques années, on note une aversion grandissante pour certaines d’entre elles. Aversion pouvant conduire jusqu’à la haine.
Avec 50,4 millions d’utilisateurs en France, les réseaux sociaux sont un terrain favorable à la propagation de cette haine.
Les consommateurs, fans de marques désireux de partager leurs créations, leur passion voire leur amour, n’hésitent pas à se regrouper au sein de communautés en ligne (groupes publics ou privés) hébergées sur ces réseaux.
Mais il est important de noter que les consommateurs ayant vécu une expérience négative avec une marque auront tendance à en parler plus ou à poster plus de commentaires négatifs que les consommateurs ayant vécu une expérience positive. Car il existe des communautés dont le point de convergence s’avère être la haine pour une marque donnée, notamment pour celles qui ne respectent pas le contrat de confiance établi avec les consommateurs : manquements ou défaillances dans les produits ou les prestations de services, retards de livraisons, vols annulés, pièces manquantes, airbags défectueux… Les marques concernées peuvent être issues de tous les secteurs d’activité. Les membres de ces communautés sont couramment appelés des haters, c’est-à-dire des détracteurs d’une marque.
Dans le cadre de nos travaux publiés dans Journal of Marketing Trends et présentés lors de conférences en France et à l’international, nous avons effectué une netnographie (analyse de données issues des médias sociaux, inspirée des techniques de l’ethnographie) au sein de deux communautés en ligne anti-marques (groupes Facebook). À noter que ces communautés étaient indépendantes des marques, ce qui signifie que celles-ci n’avaient aucune prise directe sur elles. Au total, ce sont plus de 1000 publications qui ont été collectées et analysées.
Une haine bien présente dans les discours des consommateurs
Plusieurs marqueurs permettent d’affirmer que les consommateurs au sein de ces groupes expriment leur haine de façon plus ou moins nuancée, allant d’une haine froide (peu vindicative) à une haine chaude (très virulente), par le vocabulaire utilisé, une ponctuation excessive, les émoticônes choisis…
La nature même des échanges peut être catégorisée selon quatre dimensions :
une dimension normative se référant aux comportements altruistes et d’entraide des membres pour pallier les défaillances des marques ;
une dimension cognitive exprimée à travers la sollicitation du groupe pour répondre à un besoin (question, problème rencontré, démarche à engager…) ;
une dimension affective comprenant l’expression des sentiments et des émotions des membres (déception, mécontentement, colère, dégoût, rage, haine) ;
et une dimension mixte relative aux discours mêlant des tons normatifs et affectifs.
La mise en place d’une structure organisationnelle et sociale
Les membres des groupes anti-marques s’organisent et se sentent investis de missions au travers des rôles qu’ils s’attribuent :
S’ils ont intégré ces groupes anti-marques, c’est que les consommateurs ont eu une expérience négative avec elles dans le passé ou bien, même s’ils ne sont pas consommateurs, qu’ils rejettent les valeurs qu’elles défendent ou représentent. En fonction de la marque et du caractère du fondateur de la communauté anti-marque, celle-ci est plus ou moins démocratique et tolère plus ou moins les discours antagonistes à la haine anti-marque.
À chaque niveau de haine sa réponse
Les manifestations de la haine au sein des communautés étudiées peuvent être catégorisées ainsi :
Pour pallier les défaillances de la marque, les consommateurs ont tendance à s’entraider au sein de la communauté en ligne anti-marque. Ils se partagent des informations et des bons plans. Ils s’apportent mutuellement du soutien tout en se servant de la communauté comme d’un exutoire. Globalement, les consommateurs réparent ou « bouchent les trous » que la marque aurait dû prendre en charge dans son contrat de confiance.
Quelles réponses apporter aux « haters » ?
Les communautés anti-marques peuvent avoir un potentiel de nuisance important se traduisant, entre autres, par une perte de clients et de fait une diminution du chiffre d’affaires.
Voici quelques pistes pour contenir la haine exprimée par certains consommateurs voire tenter de l’enrayer au sein de ces communautés :
une stratégie offensive avec une réponse directe à la communauté et à ses membres lorsque la marque est attaquée directement sur ses réseaux, en apportant des réponses oscillant entre le mea culpa, à travers une « publicité reconnaissant la haine », l’humour et l’entrée en dialogue avec les détracteurs ;
ou une stratégie défensive visant à identifier les communautés en ligne anti-marques, à surveiller leur activité, à comprendre leurs critiques et à mettre en œuvre des mesures correctives et/ou instaurer un dialogue.
Que les revendications des haters à l’égard des marques soient légitimes ou non, elles permettent de révéler des défaillances de marques parfois dramatiques voire illégales pouvant faire intervenir, en réaction, les pouvoirs publics.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
10.12.2025 à 16:12
Pour promouvoir la parité dans les cursus d’ingénieurs, la piste d’un concours spécifique
Texte intégral (2107 mots)
Les concours d’accès aux écoles d’ingénieurs sont-ils pensés pour encourager la parité ? Une école tente depuis la rentrée 2025 de repenser ses voies de recrutement pour obtenir davantage de filles dans ses effectifs. Un dispositif trop récent pour en tirer des conclusions définitives mais qui apporte déjà des enseignements intéressants.
La sous-représentation des femmes en ingénierie s’explique en partie par des biais implicites de genre présents dans les processus de sélection académiques et professionnels dont la part de femmes plafonne juste en dessous du tiers des effectifs en cycle ingénieur où le taux reste autour de 29,6 %. Dans un contexte compétitif, les candidates tendent à être désavantagées, non pas en raison de compétences moindres, mais en raison de dynamiques compétitives et de stéréotypes de genre, influençant à la baisse leurs résultats.
L’un des phénomènes en jeu est le « risque du stéréotype » : la peur de confirmer un stéréotype négatif peut affecter les performances cognitives, notamment la mémoire de travail, réduisant ainsi les résultats des femmes lors d’épreuves exigeantes, même si elles réussissent mieux en dehors de ce contexte. Les différences de performances observées entre hommes et femmes dans les environnements compétitifs ne sont pas liées à des différences biologiques, mais à des attentes genrées et à des stéréotypes.
De nombreuses références bibliographiques décrivent comment les structures patriarcales favorisent les parcours masculins en valorisant les normes de compétition, notamment l’affirmation de soi et l’assurance, traits socialement encouragés chez les hommes mais souvent perçus comme inappropriés chez les femmes. Schmader, en 2022, a précisé l’impact des biais culturels et l’influence de l’environnement dans la limitation du choix des jeunes femmes pour les carrières scientifiques et techniques, malgré leur intérêt potentiel.
Dans une vision d’impact sociétal, l’EPF École d’ingénieurs (ex-École polytechnique féminine), l’une des premières grandes écoles en France à avoir formé des femmes au métier d’ingénieure, a créé le dispositif « ParityLab », un concept pensé pour attirer via des actions à court et moyen termes davantage de jeunes femmes vers les écoles d’ingénieurs.
Cette initiative s’appuie notamment sur les résultats de la grande enquête nationale « Stéréotypes et inégalités de genre dans les filières scientifiques », menée par l’association Elles bougent, en 2024, auprès de 6 125 femmes. Elle met en lumière les freins rencontrés par les filles dans les parcours scientifiques et techniques : 82 % déclarent avoir été confrontées à des stéréotypes de genre, et plus de la moitié disent souffrir du syndrome de l’imposteur – un obstacle à leur progression dans des environnements compétitifs. L’enquête Genderscan confirme ces constats, en se focalisant sur les étudiantes.
Une voie d’accès alternative
Le dispositif ParityLab a été conçu en réponse à ces enquêtes et aux biais de genre dans l’accessibilité des filles aux filières scientifiques et techniques, afin de minimiser ces biais et de valoriser leurs compétences tout au long de leur formation. Il se compose de deux parties : un concours d’accès alternatif via Parcoursup, réservé exclusivement aux femmes (validé par la direction des affaires juridiques de l’enseignement supérieur) et un parcours de formation spécifique d’insertion professionnelle consacré aux femmes, qui est proposé depuis cette rentrée aux candidates retenues.
Un panel diversifié de 40 jurés a été constitué pour assurer le processus de sélection. Parmi eux, 26 provenaient du monde de l’entreprise et 14 du corps enseignant et des collaborateurs de l’école. Pour sensibiliser tous les membres du jury sur l’importance de faire une évaluation plus inclusive, un atelier de sensibilisation aux stéréotypes de genre leur a été dispensé.
Afin de faire une évaluation plus enrichie et équilibrée des candidates, les jurés ont travaillé en binôme pendant les sessions de sélection reposant sur une étude de dossier scolaire, une mise en situation collective et un échange individuel. Le binôme était constitué d’un représentant de l’industrie et d’un représentant de l’école afin d’enrichir l’analyse des candidatures par leurs regards croisés multidimensionnels et réduire les biais.
L’épreuve collective a permis via une problématique liée à l’ingénierie fondée sur des documents, d’évaluer la créativité, le leadership ou la capacité d’exécution sans toutefois aborder les connaissances disciplinaires. L’entretien individuel, quant à lui, repose sur un échange librement choisi par la candidate (engagement associatif, sport, intérêt sur un sujet scientifique ou non), visant à révéler sa personnalité et ses aptitudes à communiquer.
Premier bilan du concours
Afin d’évaluer le dispositif mis en place, une enquête a été conçue pour collecter les retours des membres du jury et des candidates sélectionnées à travers deux questionnaires différents. De plus, un retour d’expérience a été demandé à certains membres du jury afin de collecter des données qualitatives sur leur expérience.
Les réponses des candidates ont été recueillies par un questionnaire rempli par 23 candidates sélectionnées sur 35 possibles (65,7 %). Il était composé de 14 questions fermées, utilisant une échelle de Likert à cinq niveaux, et neuf questions ouvertes. Il avait pour objectif de comprendre les motivations des candidates à passer le concours, d’identifier les obstacles ou les découragements qui ont pu freiner leur intérêt pour les sciences et les actions qui pourront encourager davantage de jeunes filles à s’orienter vers les filières scientifiques et technologiques.
L’analyse des réponses montre que 56 % des répondantes doutaient de leurs capacités et 22 % se déclaraient neutres sur ce point. La peur d’être isolée dans la classe est moins marquée, seules 30 % des candidates se sentant concernées. Les réponses sur les préjugés sexistes sont mitigées, 30 % des candidates ont déclaré avoir entendu des commentaires décourageants, 26 % se sont déclarées neutres et 43 % ont affirmé ne pas avoir été confrontées à ce type de remarques.
Quand il leur a ensuite été demandé d’imaginer ce qui pouvait encourager d’autres filles à s’orienter vers les filières scientifiques, les répondantes placent en tête de leurs réponses l’existence de modèles féminins inspirants, une meilleure promotion des métiers liés à l’ingénierie et la déconstruction des stéréotypes de genre dès l’enfance.
Une dynamique encourageante
Le concours a permis de renforcer significativement la présence des femmes dans la formation scientifique généraliste de l’EPF École d’ingénieurs en 2025. Sur les 50 places ouvertes cette année, 35 ont été pourvues, avec un taux de sélection de 32 % parmi les 108 candidates. Une critique fréquente à l’égard de ce type de dispositif est la peur d’une réduction des places pour les hommes, relevant d’une vision « à somme nulle ». Ici, les places créées pour cette nouvelle voie s’ajoutent à l’existant et aucun quota n’est prélevé sur les admissions classiques.
Ces chiffres s’inscrivent dans une dynamique positive et encourageante. Une progression remarquable des néo-bachelières recrutées de + 11,5 % de jeunes femmes en première année du cycle ingénieur.
Il est à noter que la voie d’accès classique affiche elle aussi des résultats en progrès en matière de parité avec une augmentation du nombre de jeunes femmes de + 5 %, probablement en lien avec différentes stratégies internes et externes de lutte contre les biais de genre.
Les étudiantes du ParityLab suivent le même programme académique que les autres élèves de la formation généraliste de première année. En revanche, elles bénéficient (en plus) de modules ciblés sur les questions de stéréotypes et soft skills. Cette première cohorte devient un terrain d’étude pertinent pour mieux comprendre les freins à l’orientation vers ces filières encore majoritairement masculines.
Obtenir un échantillon plus large
La mise en place du concours a été l’objet d’une réflexion approfondie sur la mise en œuvre d’un processus de sélection équitable. Des actions de sensibilisation destinées aux membres des jurys, afin de réduire les biais liés aux stéréotypes de genre et d’évaluer les compétences transversales sans mettre en avant les compétences disciplinaires des candidates, ont été mises en place. Les retours sur l’atelier collectif ont été perçus positivement par les jurys et par les candidates. Cependant des pistes d’améliorations (logistique, gestion de temps) sont envisagées pour la prochaine session.
ParityLab constitue un dispositif qui pourra être transférable à d’autres écoles d’ingénieurs qui souhaitent renforcer la représentation des femmes dans leurs programmes. Les recherches futures pourraient aborder les mêmes problématiques avec un échantillon plus large pour confirmer les résultats obtenus dans cette étude, et mesurer son impact sociétal.
Diana Griffoulières es docteure en Sciences de l’éducation et elearning. Elle mène des travaux de recherche appliquée en éducation et est responsable de l’ingénierie pédagogique numérique à l'EPF Ecole d'Ingénieurs. Diana Griffoulières ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article.
Emmanuel Duflos est membre de la Conférence des directeurs des écoles françaises d'ingénieurs. Il en est le Président actuel. La CDEFI est une conférence inscrite dans le code de l'éducation qui a vocation à représenter les écoles d'ingénieurs auprès de l'Etat. La CDEFI est engagée depuis de nombreuses années dans des actions dont l'objectif est de promouvoir les formations d'ingénieurs auprès des femmes. Emmanuel Duflos est aussi le directeur général de la Fondation EPF, reconnue d'utilité publique (FRUP), qui a pour mission de concourir à la formation des femmes en sciences et technologies. La Fondation EPF porte l'école d'ingénieurs EPF dont il est également le directeur général. La Fondation EPF et l'EPF sont à l'origine de l'expérimentation à l'origine de cet publication. En tant que FRUP, la Fondation EPF partage son savoir et son savoir-faire sur le projet ParityLab qui concoure à sa mission.
Liliane Dorveaux est co-fondatrice et Vice Présidente de WOMENVAI , ONG ayant le statut ECOSOC à l'ONU. Liliane DORVEAUX ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article.