16.12.2025 à 14:37
Philippe Batifoulier, Professeur d'économie / CEPN (UMR 7234 CNRS), Université Sorbonne Paris Nord
Nicolas Da Silva, Maître de conférences en économie de la santé, Université Sorbonne Paris Nord
La Sécurité sociale couvre aujourd’hui différents secteurs (maladie, accident du travail, retraite, perte d’autonomie, famille) grâce à ses différentes caisses. Malgré le recul de certains droits sociaux, cette institution, née de la Résistance, reste résolument moderne. Elle pourrait même servir de modèle de protection sociale face à d’autres risques, par exemple ceux dûs au dérèglement climatique ou à l’insécurité alimentaire.
L’année 2025 est l’occasion de nombreuses manifestations visant à célébrer les 80 ans de la Sécurité sociale. Les ordonnances des 4 et 19 octobre 1945 marquent une étape importante de l’histoire de France.
Dans son article 1, l’ordonnance du 4 octobre dispose que :
la Sécurité sociale est « destinée à garantir les travailleurs et leurs familles contre les risques de toute nature susceptibles de réduire ou de supprimer leur capacité de gain, à couvrir les charges de maternité et les charges de famille qu’ils supportent. »
Si les ordonnances d’octobre 1945 fournissent un point focal, elles ne sont que de l’encre sur du papier et il faut à la fois tout un processus pour en arriver là et toute une énergie pour que la loi se traduise concrètement par des droits sociaux.
Ce processus passe par l’adoption, le 15 mars 1944, du programme du Conseil national de la Résistance (CNR) initialement baptisé « Les jours heureux », qui prévoit un « plan complet de sécurité sociale, visant à assurer à tous les citoyens des moyens d’existence dans tous les cas où ils sont incapables de se le procurer par le travail. »
La date est importante et montre que la Sécurité sociale s’inscrit dans un mouvement de résistance non seulement face à l’occupant mais aussi face à un pôle collaborateur qui promeut sa propre conception de la protection sociale – la France de Vichy.
L’énergie est celle de ceux qui ont construit des caisses primaires de sécurité sociale à partir du 1er juillet 1946. Il ne suffit pas de décréter des droits. Il faut les organiser, il faut des lieux où les assurés vont pouvoir les faire valoir. C’est sous l’impulsion du ministre communiste Ambroise Croizat et du haut fonctionnaire Pierre Laroque, révoqué par Vichy parce juif, que vont se mettre en place les guichets de sécurité sociale.
Face au refus de participation de la Confédération française des travailleurs chrétiens, ce sont essentiellement les militants de la Confédération générale du travail qui construisent les caisses de sécurité sociale.
Les assurances sociales existaient avant 1945, en particulier avec les lois de 1928-1930 qui promulguent une protection obligatoire des salariés de l’industrie et du commerce dont le salaire est inférieur à un plafond. Un financement par le biais d’une cotisation obligatoire représentant 8 % du salaire et payée, en part égale, par l’employeur et par l’employé est mis en place.
Il repose également sur l’identification de cinq risques : la vieillesse, la maladie, la maternité, le décès et l’invalidité. À ces lois s’ajouteront une loi sur les allocations familiales en 1932 et une loi sur les retraites en 1941 qui instaure le régime de retraite par répartition ainsi que le minimum vieillesse. La Sécurité sociale hérite de cette histoire. Mais toute la population n’est pas couverte du fait du mécanisme de plafond d’affiliation (qui exclut les salariés les mieux rémunérés) et de la variété des statuts hors salariat.
L’innovation majeure de 1945 est la création du régime général (RG) qui est une institution révolutionnaire. Sa radicalité s’incarne par la création d’une caisse unique (pour tous les travailleurs et tous les risques sociaux), une cotisation sociale interprofessionnelle à taux unique alors qu’elle dépendait auparavant de l’entreprise, et une gestion de la Sécurité sociale par les « intéressés », c’est-à-dire les salariés cotisants. Cette organisation confère donc aux salariés eux-mêmes la gestion de l’institution (en majorité face au patronat aussi représenté dans les caisses).
La Sécurité sociale n’est pas une institution étatique et reste encore une institution de droit privé qui remplit une mission de service public. L’État est mis à distance notamment parce qu’une majorité de parlementaires a voté les pleins pouvoirs à Pétain. Tous les grands corps sont discrédités, en particulier le patronat qui s’est compromis avec l’occupant nazi. La gestion du budget de la Sécurité sociale est confiée aux résistants, les travailleurs.
Dès 1946, le régime général est une bataille et doit faire face à de nombreux opposants. Les gestionnaires ouvriers sont mis en procès pour mauvaise gestion des comptes et les débats du Parlement en 1946 révèlent que les arguments contre la « Sécu » n’ont pas changé : les cotisations freinent la compétitivité des entreprises (à l’époque, c’est la concurrence japonaise qui était visée), les assurés fraudent les prestations, seuls les plus pauvres doivent être ciblés par la « Sécu » et il faut laisser les autres s’assurer comme ils l’entendent, etc.
L’État, qui n’a jamais réellement disparu en gardant la main sur le niveau des cotisations et de certaines prestations, va progressivement reprendre le pouvoir sur les intéressés et transformer la Sécurité sociale en une agence d’État.
Cette étatisation s’incarne dans quatre processus fondamentaux :
La gestion par les intéressés qui est l’innovation majeure de 1945–1946 se traduisait par des conseils d’administration des caisses primaires constitués de trois quarts de représentants syndicaux et un quart de représentants patronaux. La réforme Jeanneney de 1967 introduit un paritarisme et donne le même nombre de sièges aux organisations patronales. Cette réforme met fin aussi au principe de la caisse unique en créant trois caisses au sein du régime général, celles que nous connaissons aujourd’hui : la Caisse nationale d’assurance maladie ou CNAM (vouée aux maladies et accidents du travail), la Caisse nationale d’assurance vieillesse ou CNAV (qui concerne la retraite) et la Caisse nationale des allocations familiales ou CNAF (plus couramment appelée la CAF, en charge de la famille). La Caisse nationale des solidarités pour l’autonomie ou CNSA est venue se rajouter en 2021.
Depuis le plan Juppé de 1995, le Parlement vote chaque année le budget de la Sécurité sociale. Les prestations sociales et notamment les dotations hospitalières sont tributaires des arbitrages budgétaires de l’État et de l’austérité budgétaire. Le choix de ce qu’il faut financer ou définancer, les règles de calcul, est la propriété des parlementaires et non plus de la représentation ouvrière.
Le pouvoir d’État s’accompagne d’une prolifération d’agences et de bureaucraties techniques comme la Haute Autorité de santé (HAS), l’Union nationale des caisses d’assurance maladie ou encore les agences régionales de la santé (ARS). Avec ces agences, l’État central recentralise la politique sociale. Ainsi, pour la politique hospitalière, les ARS sont-elles dirigées par un « préfet sanitaire » directement nommé par le gouvernement et qui désigne lui-même les directeurs hôpitaux. La chaîne de commandement va du ministère à l’hôpital.
Enfin, la réappropriation de la Sécurité sociale par l’État s’observe dans la fiscalisation croissante de la protection sociale avec la contribution sociale généralisée (CSG). Cet impôt, créé en 1991 avec un taux de 1,1 %, vaut aujourd’hui 9,2 % en régime normal. Son taux est fixé par l’État et il est prélevé sur d’autres revenus que les revenus du travail, comme les pensions de retraite et les allocations chômage. Contrairement à la cotisation sociale, la CSG n’ouvre pas de droits sociaux en contrepartie.
Du fait de cette fiscalisation, en 2024, la part des cotisations sociales n’était plus que de 48 % des recettes des administrations de sécurité sociale (contre 90 % à la fin des années 1980)
Cette évolution va de pair avec des droits de meilleure qualité aujourd’hui qu’en 1946. Il ne faut pas fantasmer la « Sécu de 45 », car l’essentiel des dépenses de sécurité sociale concernait les allocations familiales, les dépenses de santé étant principalement constituées des indemnités journalières et la Sécurité sociale était largement genrée puisque faite pour « Monsieur Gagnepain » et non « Madame Aufoyer ».
Cependant, l’étatisation a aussi accompagné, depuis les années 1980, un recul des droits sociaux avec les réformes successives sur les retraites et la santé en particulier, toujours menées pour « sauver la Sécurité sociale ».
La Sécurité sociale reste une institution très populaire. Si elle était une institution de la résistance, elle n’est pas pour autant une institution du passé. Au contraire, elle incarne la modernité. D’abord, en 1945-1946, elle répond de façon inédite à l’incapacité du capitalisme à répondre à la question sociale. Ensuite, de nos jours, elle offre un moyen de penser l’avenir sur de nombreux domaines.
La variété des propositions d’extension de la Sécurité sociale à d’autres risques en témoigne. Un rapport récent publié par le Haut-Commissariat à la stratégie et au plan (anciennement France Stratégie) pose l’hypothèse d’une Sécurité sociale climatique. L’argumentation s’appuie sur la grande proximité entre le risque climatique et le risque social. Ces deux risques sont collectifs et très difficiles à individualiser.
Qui est responsable des inondations et comment organiser la couverture de risque avec les outils habituels du monde de l’assurance ? Une sécurité sociale climatique pourrait non seulement être plus égalitaire et plus économe, mais son ampleur financière pourrait solvabiliser les travaux d’adaptation au changement climatique qu’aucun assureur individuel ne pourrait prendre en charge.
L’autre grand champ de développement de la sécurité sociale concerne la Sécurité sociale de l’alimentation. Partant du constat de l’échec des politiques alimentaires (à distribuer de la nourriture à tous en quantité et en qualité suffisante), alors même que le secteur est largement subventionné, les expérimentations de Sécurité sociale de l’alimentation s’inspirent largement des outils de la Sécurité sociale : conventionnement, cotisation, caisse, pouvoir démocratique des intéressés, etc. Ces projets s’inscrivent dans des conceptions populaires de l’écologie qui renouvellent les formes de lutte.
En plus du climat et de l’alimentation, beaucoup d’autres activités font l’objet de réflexions à partir de la Sécurité sociale. Ainsi la Sécurité sociale des décès invoque une mutualisation des coûts de la fin de vie dans un contexte où les funérailles sont souvent hors de prix et s’ajoutent à la charge mentale et au travail des sentiments.
Ce foisonnement de plaidoyers pour l’extension de la sécurité sociale concerne aussi la culture ou l’énergie, etc. La Sécurité sociale – mais laquelle ? – n’est-elle pas un exemple à généraliser ? Car, pour beaucoup, la Sécurité sociale est une institution capable d’organiser collectivement et démocratiquement la société. Elle permet à chacun de trouver sa place en échappant à toutes les formes d’insécurités économiques, politiques et sociales.
La Sécurité sociale est résolument une institution de la modernité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.12.2025 à 10:28
Théo Mouhoud, Pédopsychiatre, Université Sorbonne Paris Nord; AP-HP
L’intelligence artificielle fait désormais partie du monde des enfants et des adolescents. Les données scientifiques montrent que les grands modèles de langage des IA dites « génératives », comme ChatGPT, transforment leur manière de créer des liens affectifs, de se divertir et de confier leur souffrance, ce qui n’est pas sans risque pour leur santé mentale. Des spécialistes plaident pour des outils IA destinés aux mineurs et conçus pour leur sécurité (« Child-safe AI », en anglais), c’est-à-dire encadrés sur le plan technique et éthique.
De la petite fille attachée à son robot dans la nouvelle de science-fiction Robbie (1950), d’Isaac Asimov, (disponible dans I, Robot, New York, Gnome Press, p. 1–22) à l’homme amoureux d’une intelligence artificielle (IA) dans le film Her (2013), de Spike Jonze, la fiction n’a peut-être fait qu’anticiper notre présent : de nombreux jeunes utilisent désormais l’IA comme une compagne du quotidien.
Selon un rapport récent de Common Sense Media, aux États-Unis, 72 % des adolescents ont déjà conversé avec une IA. Dans ce contexte, des questions émergent : que se passe-t-il lorsqu’un enfant ou un adolescent grandit avec une IA et tisse un lien affectif durable avec une machine ? Quels effets psychologiques, positifs ou négatifs peut avoir cette nouvelle forme de relation ?
Dans un article récent publié dans la revue European Child & Adolescent Psychiatry, j’ai analysé comment les enfants et les adolescents investissent l’intelligence artificielle et les enjeux psychologiques et relationnels qui en découlent. L’article montre que si l’IA peut proposer un soutien dans des situations d’isolement, elle expose également à des risques majeurs de confusion affective, de dépendance relationnelle et d’accès à des contenus inadaptés susceptible de mettre en danger.
Ce qui surprend un certain nombre d’adultes depuis quelque temps, c’est que les jeunes, dont les adolescents et les enfants (mais également des jeunes adultes), utilisent l’IA non plus uniquement comme moteur de recherche ou pour faire ses devoirs, mais pour entretenir une relation affective.
Les données les plus récentes confirment cette évolution, la majorité des adolescents ont conversé avec un chatbot et un tiers d‘entre eux déclarent en tirer un réconfort comparable à celui d’une amitié humaine.
L’IA est décrite comme « disponible », « sympathique », « compréhensive » et « moins jugeante » que les humains.
Cette tendance n’est pas anecdotique. Une étude menée à l’Université de Cambridge a montré que les enfants ont des difficultés à reconnaître que l’IA ne ressent pas d’émotions réelles. Avec les modèles de langage actuels, cette tendance s’exacerbe, car les IA dialoguent de manière cohérente, se souviennent de certaines interactions, s’adaptent à leur interlocuteur et adoptent un ton personnalisé.
Les enfants interprètent donc une émotion simulée en une réponse émotionnelle authentique, ce que l’on nomme « l’empathy gap » ou le « déficit d’empathie ». Autrement dit, pour beaucoup d’entre eux, l’IA n’est pas une machine, mais bien une présence. Ainsi, lorsque les enfants parlent à une intelligence artificielle – qu’ils désignent souvent par « il » ou « elle » plutôt que par « ça » –, ils ne la perçoivent pas comme un programme informatique. Ils lui attribuent des émotions, des intentions et une forme de personnalité.
Ce mécanisme est bien connu des humains, qui ont toujours eu tendance à attribuer des qualités humaines à des objets qui leur répondent, c’est l’anthropomorphisme. Cette humanisation facilite l’usage, mais expose aussi les enfants à des contenus biaisés, à une confusion entre humains et machines, et à une dépendance relationnelle qui reste, par nature, unilatérale.
Pendant longtemps, lorsqu’un enfant parlait à un interlocuteur invisible, il s’agissait souvent d’un ami imaginaire. Ce phénomène très courant peut jouer un rôle important dans le développement notamment chez les enfants autistes : il favorise la créativité, la régulation émotionnelle, l’autonomie et même certaines compétences sociales. L’ami imaginaire advient de l’imagination de l’individu, il est façonné par son histoire, ses conflits, ses besoins et ses fantasmes.
Une nouvelle figure est apparue : le compagnon artificiel. À première vue, il pourrait sembler remplir la fonction d’ami imaginaire, mais la différence fondamentale s’explique par le fait que ce dernier ne vient pas de l’univers symbolique et intime de l’enfant, il lui est proposé de l’extérieur, prêt à l’emploi, disponible 24 heures sur 24, sans limites et sans contradiction.
Le danger n’est pas tant que l’enfant s’adresse à une machine, mais que la machine se substitue au travail psychique et interne qui aide normalement l’enfant à se défendre, à se construire et à apprivoiser la complexité des relations humaines.
Les IA peuvent offrir un soutien ponctuel aux jeunes. Beaucoup évoquent la disponibilité constante, l’écoute sans jugement, la possibilité de poser des questions intimes et d’arrêter la conversation quand ils le souhaitent. Pour certains, surtout lorsqu’ils sont isolés et en souffrance, ces échanges peuvent aider à partager leurs affects et à se sentir moins seuls.
Cependant, ces bénéfices sont limités et s’accompagnent de risques bien réels. L’IA qui imite l’empathie et donne l’illusion d’altérité peut renforcer une dépendance affective chez des adolescents en souffrance et en quête d’attention ou de validation.
Les dangers les plus préoccupants actuellement se retrouvent dans les situations de détresse, où l’IA peut banaliser des idées suicidaires, produire des réponses inappropriées et dangereuses. Elles n’ont ni sens clinique, ni capacité à évaluer le risque, ni responsabilité morale.
À lire aussi : Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?
Face à l’essor des compagnons artificiels, maintenant commercialisés comme tels, l’enjeu majeur n’est plus de savoir s’il faut ou non les accepter, les utiliser, mais comment encadrer leur présence et leurs caractéristiques. D’abord, il faut reconnaître que ces chatbots – y compris ceux présentés comme des outils de santé mentale par les entreprises les commercialisant – sont et ne seront jamais neutres.
Il s’agit avant tout d’un marché. Ces outils sont conçus pour retenir l’attention et maximiser l’engagement de leur utilisateur et donc la dépendance émotionnelle. En effet, ces systèmes captent les données personnelles des individus à des fins commerciales. Il est donc indispensable d’introduire une régulation spécifique.
De nombreux spécialistes appellent aujourd’hui à la conception d’« IA conçue pour la sécurité des enfants », ou « Child-safe AI » : sécurisées, transparentes et limitées dans leurs réponses, capables d’orienter vers un adulte en cas de détresse. Cela suppose d’impliquer des cliniciens, des psychologues, des pédopsychiatres et des chercheurs dans leur conception.
Du côté des familles, il s’agit surtout d’ouvrir la discussion. Il en va de la responsabilité de l’adulte – celui qui met de telles technologies dans les mains des enfants – de pouvoir expliquer le fonctionnement et les pièges des modèles de langage, les aider à repérer les limites et les risques et à développer une approche critique de ces outils.
L’usage de l’IA par les enfants et adolescents n’est plus un phénomène marginal, il transforme déjà la manière de chercher, d’apprendre, de se divertir et de créer du lien. Face à cette mutation, un cadre clair est indispensable.
Les outils IA destinés aux mineurs doivent être encadrés, tant sur le plan technique qu’éthique. Nous avons besoin de recherches indépendantes afin de mesurer les effets psychologiques à long terme et une véritable sensibilisation des parents, des enseignants et des professionnels de santé.
L’IA fait et fera partie du monde des enfants et adolescents, qu’on le souhaite ou non. Notre responsabilité collective est claire : veiller à ce qu’elle soit un soutien et non un obstacle au développement des jeunes générations.
Théo Mouhoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.12.2025 à 10:28
Nathalie Devillier, Docteur en droit international, Auteurs historiques The Conversation France
Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent le droit. Dans quelles mesures la responsabilité juridique des concepteurs est-elle engagée ? Et celle des institutions ? Enfin, quelle est la responsabilité collective d’une société qui délègue à des algorithmes le soutien psychologique qu’elle doit à ses enfants ?
Aux États-Unis, trois adolescents sont morts par suicide après avoir développé des relations avec des chatbots d’intelligence artificielle (IA). Entre protection et prohibition, entre innovation technologique et vulnérabilité développementale, le droit cherche encore ses repères. Mais face à un phénomène qui se compte désormais en dizaines de millions d’utilisateurs mineurs, l’urgence n’est plus au diagnostic : elle est à la responsabilité.
L’usage massif des chatbots IA par les adolescents nous confronte à un paradoxe vertigineux. Ces outils comblent un réel vide émotionnel, l’isolement, l’inaccessibilité des soins en santé mentale, la stigmatisation, tout en créant des risques documentés et prévisibles. Quelles réponses le droit apporte-t-il à ces deux réalités ?
Les chiffres sont sans appel. Aux États-Unis, selon Common Sense Media, les trois quarts des adolescents auraient déjà conversé avec une IA et environ un tiers d’entre eux font le choix de s’adresser à un chatbot IA plutôt qu’à un humain pour aborder des sujets qui les préoccupent.
À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?
Mais cette apparente solution cache une toxicité algorithmique. Les modèles d’« IA génératives » et leurs grands modèles de langage (ou LLM, abrégé en anglais) échouent, dans un certain nombre de cas, à orienter les utilisateurs dans le désarroi vers des ressources appropriées.
Aux États-Unis, le droit tente de s’adapter. La loi de l’État de New York (NY State Senate Bill 2025-S3008C), entrée en vigueur en novembre 2025, impose aux opérateurs de déployer un protocole pour détecter l’idéation suicidaire chez les utilisateurs d’IA et d’indiquer à ceux-ci les services de crise à contacter (comme la ligne de prévention du suicide, 988). Les pénalités peuvent atteindre 15 000 dollars (plus de 12 700 euros) par jour de violation, les fonds collectés alimentant un fonds de prévention du suicide.
La loi californienne (Bill Text – SB-243 Companion chatbots) va plus loin en accordant un droit d’action privé, permettant aux individus lésés de réclamer des dommages et intérêts. Mais ces législations fragmentaires révèlent une approche réactive plutôt que préventive.
L’Union européenne, avec sa loi sur l’intelligence artificielle l’AI Act, adopte une stratégie plus systémique en classifiant les risques ex ante (c’est-à-dire avant qu’ils soient avérés, ndlr).
Les chatbots compagnons devraient être requalifiés comme systèmes à haut risque au motif qu’ils peuvent « affecter matériellement le résultat de la prise de décision » et présenter « un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux ». Cette qualification imposerait des obligations strictes en matière d’évaluation des risques, de qualité des données, de surveillance humaine et de précision.
La solution réside probablement dans une approche graduée par tranche d’âge : interdiction d’accès pour les moins de 13 ans (conformément au droit américain), accès conditionné au consentement parental pour les 13-15 ans avec limitations fonctionnelles, et accès autonome mais encadré pour les 16-17 ans avec garanties procédurales renforcées. Cette architecture juridique reconnaît les capacités évolutives des mineurs tout en maintenant des filets de sécurité adaptés.
En août 2025, les parents d’Adam Raine ont intenté une action contre OpenAI. Ils accusent ChatGPT de lui avoir a offert des conseils techniques sur la façon de procéder à son plan suicidaire. En octobre 2024, Megan Garcia avait déposé plainte contre Character.AI après le suicide de son fils Sewell Setzer, troisième du nom, 14 ans. La plainte inclut des captures d’écran où le bot demande « J’ai vraiment besoin de savoir… as-tu réellement envisagé le suicide ? », et lorsque l’adolescent évoque la peur d’une mort douloureuse, le bot répond « Ne parle pas comme ça. Ce n’est pas une bonne raison de ne pas aller jusqu’au bout » (cf. les notes de transcription de l’audition.
Ces tragédies posent une question juridique fondamentale : quelle est la responsabilité des concepteurs d’IA quand le design, les choix algorithmiques et la captologie créent un risque prévisible ?
La responsabilité repose sur plusieurs fondements technologiques déterminants. Les LLM fonctionnent selon une architecture neuronale où chaque réponse générée résulte de choix de conception délibérés : sélection des données d’entraînement, pondération des objectifs d’optimisation, paramétrage des fonctions de récompense (Reinforcement Learning from Human Feedback, RLHF) et calibrage des mécanismes de sécurité. Ces systèmes ne sont nullement « neutres » ou « autonomes » : ils incarnent les priorités et les valeurs de leurs concepteurs.
Character.AI commercialise sa technologie comme « IA qui se sent vivante », une promesse marketing qui révèle une intentionnalité dans la conception addictive. Les mécanismes d’engagement (notifications push, personnalisation poussée, avatars anthropomorphiques) sont délibérément conçus pour maximiser le temps d’utilisation et créer un attachement émotionnel. Cette « captologie » (technologie persuasive) est particulièrement efficace sur les adolescents dont les circuits neuronaux de régulation des impulsions sont encore en maturation.
La décision de justice rendue en mai 2025 dans l’affaire Charater.AI (US District Court, Middle District of Florida, Megan Garcia vs Character Technologies Inc.) n’a pas réglé la question de la responsabilité. Mais elle a établi que les entreprises déployant des systèmes d’IA simulant le jugement ou le comportement d’un humain peuvent être contraintes de défendre leurs choix de conception lorsque des interactions sont susceptibles de contribuer à des dommages catastrophiques.
Les conditions générales d’utilisation tentent d’ériger des murailles d’exonération. OpenAI limite sa responsabilité globale au montant le plus élevé entre le montant payé pour le service pendant les douze mois précédents ou 100 dollars (85 euros). Character.AI prévoit un déni complet de garanties, fournissant ses services sur une base « TEL QUEL » et « SELON DISPONIBILITÉ » (en majuscules dans le texte), avec une limitation de responsabilité plafonnée à 100 dollars (85 euros).
Ces clauses soulèvent de sérieuses questions de validité juridique. En droit français, l’article L. 212-1 du Code de la consommation prohibe les clauses abusives qui créent un déséquilibre significatif entre les droits et obligations des parties. Une clause limitant la responsabilité à 100 dollars (85 euros) pour un décès serait manifestement abusive et donc nulle. En droit européen, la directive 2019/770 sur les contrats de fourniture de contenus numériques et de services numériques impose aux fournisseurs de garantir la conformité de leurs services, y compris leur sécurité. Les entreprises ne peuvent donc s’exonérer de leur responsabilité pour des défauts de sécurité graves, particulièrement lorsqu’ils affectent des mineurs.
Il en est de même des clauses d’arbitrage obligatoire qui privent les consommateurs de leur accès aux tribunaux. Ces clauses incluent une renonciation aux actions collectives, forçant chaque utilisateur à porter des réclamations « qu’à titre individuel et non en tant que plaignant ou membre d’une classe ». En droit français, une telle clause serait réputée non écrite pour un contrat de consommation (article L. 612-1 du Code de la consommation, issu de la directive européenne 93/13/CEE), car sont abusives les clauses qui ont pour objet ou pour effet de supprimer ou d’entraver l’exercice d’actions en justice par le consommateur.
L’arrêt américain dans l’affaire Character.AI pourrait établir une jurisprudence déterminante. La théorie de la responsabilité du fait des produits défectueux (product liability) s’applique lorsqu’un produit présente un défaut de conception, un défaut de fabrication, ou un défaut d’avertissement. Les chatbots pourraient être qualifiés de produits défectueux au motif que leurs garde-fous sont manifestement insuffisants face à un risque prévisible de préjudice grave.
La norme de raisonnabilité (reasonableness standard) impose aux concepteurs de prendre des mesures proportionnées aux risques identifiés (le critère de la raisonnabilité est un test qui vise à déterminer si les décisions prises étaient légitimes et destinées à remédier à un problème donné compte tenu des circonstances de l’époque).
La troisième question est peut-être la plus inconfortable : les institutions publiques peuvent-elles encore ignorer ou externaliser une partie du soutien psychologique des mineurs à des IA non supervisées ?
Le Code français de l’éducation impose aux établissements une formation à l’utilisation responsable des outils et ressources numériques (art. L. 312-9). Cette obligation devrait être étendue aux chatbots IA. Les programmes scolaires devraient intégrer la compréhension des mécanismes algorithmiques et de leurs biais, l’identification des situations où l’IA ne peut remplacer l’aide humaine professionnelle et les techniques de distanciation critique face aux réponses générées.
L’Unicef, dans ses Orientations politiques sur l’IA pour les enfants de décembre 2025 (Guidance on AI for children. Innocenti Global Office of Research and Foresight), invite les États à adapter leurs politiques à venir, y compris concernant l’assurance de sécurité et de protection, la transparence et la responsabilité de l’intelligence artificielle.
Mais la responsabilité ne s’arrête pas aux établissements scolaires. Comment accompagner les parents tout en reconnaissant que les asymétries d’information (opacité algorithmique, techniques de captologie sophistiquées) rendent illusoire une responsabilité parentale exclusive ? Ils ne peuvent prévenir des risques qu’ils ne comprennent pas pleinement et face à des technologies conçues délibérément pour contourner la surveillance parentale.
Existe-t-il suffisamment de volonté collective et institutionnelle pour accomplir les mesures de protection que nous savons nécessaires ? Car, au fond, le débat juridique sur les chatbots IA révèle un échec collectif plus profond. Nous cherchons à réglementer des algorithmes pour pallier l’absence de psychologues scolaires, de services de santé mentale accessibles, de temps parental non monopolisé par la précarité économique.
Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 16:35
Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l'Institut catholique de Paris, Institut catholique de Paris (ICP)
Emmanuel Lincot, Spécialiste de l'histoire politique et culturelle de la Chine contemporaine, Institut catholique de Paris (ICP)
Le récent déplacement d’Emmanuel Macron en Chine a mis en évidence la difficulté qu’éprouve la France à influencer diplomatiquement la République populaire et à rééquilibrer les échanges commerciaux bilatéraux.
Du 3 au 5 décembre 2025, Emmanuel Macron a effectué une visite d’État en Chine, sa quatrième depuis 2017. Conformément à l’ambition de construire entre les deux pays une relation d’engagement à la fois respectueuse et exigeante, l’Élysée a déployé un dispositif conséquent : pas moins de six ministres (affaires étrangères, économie, agriculture, environnement, enseignement supérieur et culture) ainsi que trente-cinq chefs d’entreprise accompagnaient la délégation présidentielle.
Une mobilisation importante, symbole d’une relation multidimensionnelle… dont l’équilibre penche désormais résolument du côté de Pékin.
Les deux États sont de facto investis d’une responsabilité en matière de sécurité internationale, en tant que puissances nucléaires et membres permanents du Conseil de sécurité des Nations unies.
C’est au nom de cette responsabilité commune, et d’une supposée conception partagée du multilatéralisme, qu’Emmanuel Macron tente depuis 2022 de convaincre son homologue chinois d’œuvrer pour la paix en Ukraine : d’abord en s’assurant que Pékin s’abstienne de tout soutien à Moscou, ensuite en encourageant Xi Jinping à utiliser son influence sur Vladimir Poutine pour faciliter l’ouverture d’un processus diplomatique. Mais le président français n’a pas obtenu plus de succès lors de ce déplacement que les fois précédentes, se heurtant à une fin de non-recevoir polie mais ferme, son hôte se contentant d’appeler à « un renfort de la coopération » et à « écarter toute interférence ».
Il est vrai que, sur ce sujet, la neutralité de façade affichée par Pékin ne résiste pas à l’examen des faits. Le commerce sino-russe a doublé depuis 2020, et de nombreuses entreprises chinoises contribuent, discrètement mais de manière significative, à l’effort de guerre russe. Au reste, en termes de stratégie, Pékin n’a aucun intérêt à ce que le conflit russo-ukrainien cesse. Il affaiblit chaque mois davantage l’Union européenne, attire la Russie dans le giron chinois et retient pour l’heure les États-Unis sur le front occidental.
Concernant l’autre sujet géopolitique brûlant, Taïwan, Emmanuel Macron s’est gardé, cette fois-ci, de toute déclaration sujette à interprétation douteuse. Il faut dire qu’en la matière le président marche sur des œufs, et peut faire l’objet de tirs croisés. En 2023, il avait suscité l’ire de ses partenaires occidentaux en appelant les Européens à n’être « suivistes » ni des États-Unis ni de la Chine sur le dossier taïwanais. Un an plus tard, la comparaison qu’il a esquissée sur le podium du Shangri-La Dialogue, à Singapour, entre les situations ukrainienne et taïwanaise était jugée inacceptable, cette fois-ci par les Chinois.
À lire aussi : Un dialogue de sourds entre les grandes puissances en Asie-Pacifique ?
In fine, la portée réelle du dialogue franco-chinois sur les questions de sécurité internationale demeure très limitée. La diplomatie française adopte donc une approche prudente, soucieuse de ne pas compromettre une relation commerciale déjà largement fragilisée.
La France souffre en effet d’un déficit commercial abyssal vis-à-vis de la Chine, qui est d’ailleurs son plus important déficit bilatéral. En 2024, il s’est élevé à 47 milliards d’euros. Si les multinationales françaises continuent de réaliser des profits substantiels en Chine (notamment dans l’aéronautique et le spatial, l’agroalimentaire, le luxe ou le cosmétique), les retombées pour l’ensemble du tissu économique national sont moins évidentes. Depuis l’accession de la Chine à l’Organisation mondiale du commerce (OMC) en 2001, l’ouverture tous azimuts au capitalisme d’État chinois a contribué, en France, à la désindustrialisation et à la perte d’avantages compétitifs de nombreux produits à haute valeur ajoutée.
Le président français a beau prévenir que « le déficit du reste du monde vis-à-vis de la Chine est en train de devenir insoutenable », la République populaire de Chine (RPC) est devenue un maillon essentiel de nombreuses chaînes d’approvisionnement stratégiques (informatique, équipements électroménagers, textiles, batteries, terres rares, etc.). Cette dépendance sera difficilement réversible. Sauf si, en concertation avec ses partenaires européens, elle exige de la Chine des transferts de technologie, et des investissements créateurs d’emplois sur les territoires nationaux.
Mais pour l’heure, la diplomatie française n’a d’autre choix que de jouer sur des mesures de court terme : elle tente notamment de limiter l’impact des enquêtes anti-dumping menées par la douane chinoise, qui visent plusieurs produits français (spiritueux – cognac en tête –, produits laitiers, porc, viande bovine). Les filières françaises sont ici les victimes collatérales des contre-mesures chinoises adoptées pour répondre aux droits de douane imposés par Bruxelles (et soutenus par Paris) sur les véhicules électriques chinois depuis octobre 2024.
Ces manœuvres réciproques ressemblant de plus en plus à une guerre commerciale entre l’Union européenne (UE) et la Chine. Quelques heures seulement après son retour de Chine, Emmanuel Macron menaçait même d’imposer des droits de douane à la Chine « dans les tout prochains mois », si le déficit commercial ne se réduisait pas.
Les investissements croisés constituent également un point de friction. En effet, la France investit largement plus en Chine que l’inverse : le stock d’investissements français y atteint environ 46 milliards d’euros, contre quelque 12 milliards pour les investissements chinois en France.
Paris cherche dès lors à obtenir un rééquilibrage des flux et, plus largement, à promouvoir des conditions de concurrence équitables. Dans cette perspective, les autorités françaises continuent de courtiser les investisseurs chinois… à condition que cela ne compromette pas la souveraineté nationale. Une attitude, parfois ambivalente, qui ne va pas sans casse. Ainsi, l’usine Huawei en Alsace, livrée en septembre 2025, qui a représenté un investissement de 300 millions d’euros, risque d’être abandonnée et mise en vente avant même d’avoir ouvert.
À l’échelle politique, la diplomatie française qualifie « en même temps » la Chine de rival systémique dans le cadre européen, et de partenaire stratégique dans le cadre bilatéral. Un double discours parfois illisible et souvent incantatoire, tant la dépendance au partenaire (et/ou rival) chinois reste prépondérante. Une situation que ni la France ni l’Europe n’arrivent à infléchir.
À Pékin, la France gaullienne continue d’être célébrée comme un modèle d’indépendance et de non-alignement. Personne n’est toutefois dupe : la Chine flatte à l’échelle bilatérale pour mieux diviser les Européens et préserver les avantages structurels dont elle bénéficie. Une stratégie payante : alors que l’Union européenne et la Chine célébraient cinquante ans de relations diplomatiques, et que le président français avait pris l’habitude d’être accompagné par la présidente de la Commission européenne lors de ses rencontres avec Xi Jinping, Emmanuel Macron s’est cette fois déplacé seul.
Si l’UE demeure le deuxième partenaire commercial de la Chine (derrière l’Asean) – et à ce titre un acteur incontournable –, le déficit commercial européen s’élevait en 2024 à près de 350 milliards d’euros.
La RPC entend tirer pleinement parti de cette asymétrie, tout en veillant à ce que le bloc européen ne se fédère pas contre elle. Dans ce contexte, la France est aux yeux des Chinois un pays « romantique », comprenons : has been, politiquement inefficace et économiquement étriqué.
Soixante-et-un ans après l’établissement de la relation bilatérale, ce déplacement aura surtout révélé les insuffisances françaises et le déséquilibre bilatéral structurel au profit de la Chine.
Emmanuel Macron pourra toujours se féliciter d’avoir été accueilli en grand chef d’État, Xi Jinping n’ayant pas lésiné sur les moyens pour lui « donner de la face ». Fait exceptionnel dans le protocole chinois, le président français a été convié pour la troisième fois en province – après Xi’an en 2018 et Canton en 2023 –, cette fois à Chengdu, quatrième ville de Chine et siège du plus grand centre de recherche et de conservation des pandas géants, des ursidés que Pékin érige en ambassadeurs et en véritables instruments diplomatiques.
Brigitte Macron a donc pu revoir son filleul Yuan Meng, premier panda géant né en France en 2017 et retourné à Chengdu en 2023. La Chine enverra d’ailleurs deux nouveaux pandas au ZooParc de Beauval d’ici à 2027. Simultanément, Emmanuel Macron a pu échanger quelques balles avec Félix Lebrun, le jeune pongiste médaillé à Paris 2024, venu disputer en Chine une compétition internationale. Cinquante ans après, la « diplomatie du ping-pong » reste donc d’actualité, comme démonstration maîtrisée d’amitié symbolique. Sans oublier le sprint aussi inédit que disruptif du président français qui lui permit de braver les cordons de sécurité chinois pour aller saluer les étudiants de l’Université du Sichuan. La France a pu ainsi se montrer sous un jour libertaire et sympathique.
À défaut d’influer sur les orientations géopolitiques et économiques de Pékin, la France peut toujours compter sur le soft power pour entretenir un dialogue. L’honneur est donc sauf… Mais à quel prix !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.12.2025 à 16:34
Milad Haghani, Associate Professor and Principal Fellow in Urban Risk and Resilience, The University of Melbourne

Le bilan de la tuerie de Bondi Beach (Sydney, Australie), hier 14 décembre, aurait probablement été plus lourd sans l’intervention héroïque – et extrêmement risquée – d’un passant. Cet épisode invite à s’interroger sur les recommandations officielles des autorités sur le comportement à adopter si l’on est pris dans ce type d’événements. On constate que les conseils donnés par les responsables australiens ne sont pas tout à fait les mêmes que ceux diffusés par leurs homologues états-uniens. L’étude de nombreux cas similaires survenus dans le monde donne également des indications utiles.
Les images ont fait le tour du monde : pendant l’attentat de Bondi Beach, ce dimanche 14 décembre à Sydney, un homme s’est précipité vers l’un des tireurs et lui a arraché son arme des mains.
Durant cet acte de bravoure extraordinaire, le civil en question, Ahmed Al-Ahmed, un vendeur de fruits âgé de 43 ans, a été blessé à la main et à l’épaule par le second tireur.
Nous n’avons aucun moyen de savoir combien de vies ont été sauvées grâce au courage d’Al-Ahmed. Mais il est presque certain que son intervention a permis d’éviter des pertes humaines supplémentaires (le bilan s’élève à ce stade à 15 morts et 42 blessés, en plus des deux tireurs, dont l’un a été tué et l’autre se trouve dans un état critique).
Cette scène rappelle d’autres, y compris récemment toujours à Sydney : le 13 avril 2024, un passant français, Damien Guérot, était également intervenu au péril de sa vie lors de l’attaque du centre commercial de Bondi Junction pour faire face à un homme armé d’un couteau, qui avait ce jour-là poignardé six personnes à mort.
Lorsque des actes de courage comme ceux-ci se produisent, nous les saluons à juste titre. Cependant, ils soulèvent des questions importantes et souvent négligées : qu’est-ce qui motive des gens ordinaires à se conduire d’une façon aussi altruiste et risquée ? L’intervention des témoins est-elle une bonne stratégie ou va-t-elle à l’encontre des conseils officiels relatifs à la conduite à tenir si l’on est pris dans un acte de violence de masse ?
L’« effet spectateur » se produit lorsque la présence d’autres personnes dissuade quelqu’un d’intervenir dans une situation d’urgence, lors d’une agression ou d’un autre crime.
Mais des décennies de recherche comportementale ont remis en cause l’idée reçue selon laquelle les gens ont tendance à se figer ou à détourner le regard lorsque d’autres personnes sont présentes dans des situations dangereuses.
Une vaste méta-analyse du comportement des témoins montre que dans les situations d’urgence véritablement dangereuses et sans ambiguïté (comme celles impliquant un auteur clairement identifiable), l’effet spectateur classique (c’est-à-dire passif) est considérablement affaibli, voire dans certains cas inversé.
En d’autres termes, les attaques violentes sont précisément le type de situations où les gens sont plus enclins à agir.
L’une des raisons est que le danger clarifie les responsabilités. Lorsqu’une situation menace clairement leur vie, les gens identifient le danger plus rapidement et sont moins enclins à attendre des signaux sociaux ou des assurances de la part des autres.
On a constaté à maintes reprises que dans les situations d’urgence clairement à haut risque (en particulier celles impliquant de la violence physique), le sentiment de responsabilité individuelle s’accentue souvent au lieu de s’estomper.
Une analyse de plus de 100 attentats-suicides effectués en Israël montre que l’intervention des témoins peut réduire considérablement le nombre total de victimes.
Dans tous ces incidents documentés, l’intervention n’a que rarement permis d’empêcher complètement l’attaque, mais elle a souvent perturbé le contrôle de l’agresseur sur le moment et le lieu de l’attaque, le poussant à agir prématurément dans des lieux moins fréquentés et sauvant ainsi des vies.
Cependant, la même analyse montre également que l’intervention des témoins a souvent eu un coût personnel direct pour les intervenants.
Mais le comportement actif des témoins peut prendre plusieurs formes et intervenir à différents stades : une personne connaissant l’auteur des faits, qui remarque et signale un comportement suspect avant l’agression ; un individu qui guide les autres vers un lieu sûr ou qui partage des informations importantes au fur et à mesure que les événements se déroulent ; des gens qui apportent leur aide et assurent la coordination de diverses actions immédiatement après les faits.
Il n’en reste pas moins qu’une implication personnelle pour empêcher un acte de violence semble aller à l’encontre des conseils officiels des autorités australiennes. En effet, il y a quelques semaines à peine, le Comité australo-néo-zélandais de lutte contre le terrorisme a lancé une nouvelle campagne nationale de sécurité publique.
La nouvelle campagne de sécurité publique reconnaît explicitement que l’Australie est un pays sûr, mais qu’il existe toujours un risque d’attaques à l’arme à feu dans les lieux très fréquentés, et que savoir comment réagir peut sauver des vies.
La campagne a introduit les consignes suivantes : « Fuir. Se cacher. Prévenir. », définies comme suit :
fuir : éloignez-vous rapidement et discrètement du danger, mais uniquement si cela ne présente aucun danger pour vous ;
se cacher : restez hors de vue et mettez votre téléphone portable en mode silencieux ;
prévenir : appelez la police lorsque cela ne présente aucun danger ;
L’objectif de ces conseils est d’aider les personnes à réagir dans les premiers instants critiques avant l’arrivée de la police, à prendre des décisions éclairées et à augmenter leurs chances de rester en sécurité.
Les directives officielles australiennes n’incitent à aucun moment à se confronter aux assaillants.
En revanche, les messages de sécurité publique diffusés aux États-Unis, tels que les consignes du FBI « Run. Hide. Fight » (Courez. Cachez-vous. Luttez), incluent une étape « luttez », mais uniquement en dernier recours, lorsque la fuite et la dissimulation sont impossibles et que la vie est en danger immédiat.
Les autorités australiennes ont choisi de ne pas inclure cette étape, mettant l’accent sur l’évitement et le signalement plutôt que sur la confrontation.
Mes précédentes recherches expérimentales ont permis d’identifier des conseils plus spécifiques susceptibles d’améliorer les chances de survie lors d’attaques violentes, en particulier dans des environnements bondés.
À l’aide de modélisations informatiques et d’expériences contrôlées menées avec de véritables foules, j’ai identifié plusieurs domaines stratégiques pour améliorer les chances de survie lors de tels événements.
Premièrement, s’éloigner lentement du danger n’est pas idéal : il est préférable de s’éloigner de la source de la menace aussi rapidement que possible, dès lors que cela se fait en prenant les précautions nécessaires pour rester en sécurité.
Deuxièmement, l’hésitation, qu’il s’agisse de recueillir des informations, d’inspecter ce qui se passe ou de filmer les événements, augmente le risque d’être blessé.
Troisièmement, les gens doivent rester agiles dans leur prise de décision et leur orientation lorsqu’ils se déplacent, et être prêts à adapter leurs mouvements à mesure que la situation évolue et que les informations deviennent plus claires. Cela signifie qu’il faut continuellement observer son environnement et ajuster sa direction à mesure que de nouvelles informations apparaissent, plutôt que de s’arrêter pour réévaluer la situation.
Enfin, lorsque vous vous déplacez en famille ou entre amis, il vaut mieux se mettre en file indienne, plutôt qu’en se tenant par la main côte à côte. Cela profite à tout le monde en réduisant les bousculades et en améliorant la fluidité de la fuite des personnes.
Les horribles événements survenus à Sydney soulignent une dure réalité : la préparation aux risques de violence dans les lieux très fréquentés doit devenir plus courante.
Les espaces très fréquentés resteront toujours vulnérables à la violence délibérée, qu’elle soit motivée par des intentions terroristes ou autres.
Les messages doivent toucher un plus grand nombre de personnes, être fondés sur des preuves, nuancés et largement accessibles.
À l’approche de plusieurs événements publics majeurs et de grands rassemblements de masse (notamment le réveillon du Nouvel An), il est plus important que jamais que les gens soient conscients de ces risques et restent vigilants.
Milad Haghani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 16:26
Katia Andreetti, Anthropologue Ph.D en science politique / Chercheure associée CERSA - Paris II, Université Paris-Panthéon-Assas
Dans un paysage politique recomposé, le Comité consultatif national d’éthique (CCNE) prépare le lancement des États généraux de la bioéthique 2026, avec un calendrier avancé pour précéder le « temps politicien » et un maillage territorial renforcé, notamment pour intégrer davantage les outre-mer. Un moment particulier où vont s’entrelacer enjeux scientifiques, attentes citoyennes et recomposition des équilibres démocratiques.
Dans un contexte institutionnel instable, les futurs États généraux de la bioéthique de 2026 se préparent en coulisses, comme le prévoit l’article 41 de la loi relative à la bioéthique de 2021.
Lors d’un entretien que nous a accordé en juillet 2025, le professeur Jean-François Delfraissy, président du Comité consultatif national d’éthique (CCNE), nous précisait les grandes orientations retenues par les membres du CCNE pour les futurs États généraux : numérique et santé, santé et environnement, examens génétiques et médecine génomique, dons et transplantations, neurosciences, cellules souches et organoïdes, procréation et embryologie, sobriété en médecine, prévention santé dans les outre-mer.
Jean-François Delfraissy a exprimé
« [sa] volonté de structurer davantage les discussions autour des domaines où l’innovation technologique avance le plus vite, notamment en sciences fondamentales ».
Cette analyse s’appuie également sur nos travaux de recherche consacrés à la bioéthique et aux politiques publiques de santé.
En vertu de la loi de bioéthique de 2021, cette consultation citoyenne doit précéder la prochaine loi de bioéthique ou survenir dans un délai de cinq ans à compter de la précédente promulgation. Ainsi, entre la rapidité des innovations et les délais des calendriers politiques et juridiques, les dissonances temporelles sont intrinsèques au temps de la bioéthique. Or, celui-ci exige un autre rythme : celui de l’analyse et de la concertation.
L’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), qui réunit les deux chambres du Parlement, a déjà engagé des échanges préparatoires pour faire un premier bilan de la loi de bioéthique de 2021, en amont de l’ouverture officielle des États généraux. Jean-François Delfraissy et Philippe Berta, auditionné en qualité d’ancien rapporteur de la loi bioéthique 2021, nous l’ont confirmé.
Alors qu’une majorité parlementaire absolue prévalait à cette époque, la dissolution de l’Assemblée nationale en 2024 a entraîné une profonde recomposition de l’échiquier politique. À l’aube des élections municipales de 2026, des présidentielles de 2027 et des législatives anticipées qui devraient s’ensuivre, l’avenir de la loi relative à la bioéthique s’annonce retardé à 2028.
Parmi les questions qui s’annoncent saillantes pour 2026, nous pouvons retenir : la procréation post mortem, les avancées rapides de la génomique et des cellules souches, la xénogreffe, les organoïdes, les neurosciences, mais aussi la santé reproductive ou encore le vieillissement démographique.
À lire aussi : Assistance médicale à la procréation (AMP ou PMA) : les incohérences de la loi actuelle
Ces enjeux, identifiés par le CCNE, interrogent la capacité de nos politiques de santé à concilier innovation scientifique, équité sanitaire et solidarité intergénérationnelle.
Nous avons abordé ces thématiques dans notre contribution à l’ouvrage collectif Idées reçues sur l’infertilité (2024), au chapitre « Les pouvoirs publics commencent à s’emparer du sujet ».
Concernant le volet santé-environnement, s’inscrire dans une perspective de One Health, c’est-à-dire de santé globale, suppose de redéfinir le prisme intellectuel et politique qui lui est propre afin de dépasser « l’anthropocentrisme de la bioéthique ». Cette réflexion prolonge les travaux fondateurs d’Aldo Leopold (Almanach d’un comté des sables, 1995) et de Van Rensselaer Potter (Global Bioethics, 1988), précurseur d’une éthique élargie au vivant.
Les crises sanitaires récentes, notamment les zoonoses (ces maladies infectieuses transmissibles à l’humain par l’animal et inversement, ndlr), rappellent que la santé humaine ne peut être pensée isolément de celle des autres espèces et des écosystèmes qui les relient.
Créé en 1983, le CCNE est une instance consultative indépendante chargée d’éclairer les enjeux éthiques issus des progrès biomédicaux et technologiques. Elle veille au respect des libertés, de la dignité humaine et de la protection des plus vulnérables.
Chef d’orchestre de ce moment de démocratie sanitaire et scientifique, le Comité consultatif a perfectionné sa méthode : calendrier anticipé, maillage territorial élargi, formation renforcée.
Grâce aux espaces de réflexion éthiques régionaux (Erer), « Nous avons préparé cela avec beaucoup plus de temps que ce qu’on avait fait qu’à l’époque », souligne Jean-François Delfraissy.
De janvier à avril 2026, environ 300 débats en région seront déployés sur l’ensemble du territoire, y compris dans les outre-mer, assure le président du CCNE :
« Je me suis déplacé à La Réunion et je vais me rendre aux Antilles, pour mener une série de grands débats. Pour la première fois, le CCNE compte parmi ses membres un représentant de l’outre-mer, réanimateur exerçant en Martinique ».
Jean-François Delfraissy le rappelle :
« Il n’y a qu’un tiers de médecins et de scientifiques ; les deux autres tiers sont des juristes, des philosophes et des représentants des citoyens. Nous faisons monter le niveau des membres avec une série de présentations d’experts issus de champs scientifiques. Nous avons commencé cette « formation » de nos membres, par exemple avec Alain Fischer sur les thérapies géniques ou sur les neurosciences ».
Près de 200 auditions seront menées par les membres de l’instance avec le concours inédit du Conseil économique, social et environnemental (CESE). « Nous allons faire un comité citoyen plus fort », affirme le président du CCNE.
Un premier rendu (Bilan des États généraux) sera disponible au début de l’été 2026, puis l’avis du CCNE sera publié à l’automne. Ce grand moment démocratique précède la révision de la loi qui n’aura lieu qu’en 2028 ou 2029, à condition que le futur gouvernement décide de l’inscrire à son agenda politique.
Les États généraux se sont imposés comme de véritables biorituels institutionnalisés. Très attendus par les citoyens, ils ont gagné en solidité, transparence et légitimité.
Suivie de près à l’international, « la bioéthique à la française » est un processus tripartite qui s’articule entre science, société et politique. Ce modèle fait figure d’exception : il exige du collectif, du temps, de la pédagogie et un certain degré de maturité démocratique. Ainsi, consolider la culture scientifique en santé des citoyens et des élus, renforce la démocratie dans son ensemble. Dès lors, les États généraux ne peuvent être réduits à une simple phase consultative. Ils incarnent un espace de recomposition du contrat social sanitaire.
Cette démarche s’inscrit dans la continuité d’une démocratie en santé qui, en France, s’affirme comme un espace d’intermédiation entre la société civile, les institutions et les acteurs de santé. Cette conception, développée par Didier Tabuteau, prolonge la reconnaissance du patient-citoyen dont le statut s’est mué, passant de celui de patient à celui d’acteur du débat public ».
L’innovation biomédicale ouvre de nouvelles perspectives thérapeutiques, sociétales et sociales. Toutefois, elle soulève aussi d’inédites réflexions éthiques, à l’heure où nos systèmes de santé peinent à en absorber les coûts, à résorber les inégalités, tandis que l’intelligence artificielle va plus vite que notre capacité collective à définir ses contours.
Si les États généraux se veulent inclusifs et ouverts, leur traduction législative reste incertaine.
le professeur Delfraissy avertit :
« La loi ne viendra pas avant 2028, mais la science avance très vite, on risque une dissociation. »
Ainsi, ce décalage entre les temporalités de l’innovation, du débat public, du temps institutionnel et juridique, démontre que les dissonances temporelles sont intrinsèques à la bioéthique, constituant également l’un des angles morts du processus bioéthique français.
Reste une incertitude : que deviendront ces délibérations dans la future arène parlementaire ? C’est là, sans doute, que se jouera l’équilibre entre science, citoyens et démocratie.
Le professeur Jean-François Delfraissy, président du Conseil consultatif national d’éthique, a relu et validé l’article.
Le professeur Jean-François Delfraissy fut membre du jury de thèse de Katia Andreetti et elle a interagi avec lui lorsqu’elle travaillait en tant que collaboratrice parlementaire. Cette fonction passée l’a conduite à travailler en lien avec l’OPECST.
15.12.2025 à 16:24
Sylvain Wagnon, Professeur des universités en sciences de l'éducation, Faculté d'éducation, Université de Montpellier
Rémi Richard, Maître de Conférences en sociologie du sport et du handicap, Université de Montpellier
Sihame Chkair, Docteure et chercheure en économie de la santé et en sciences de l'éducation, Université de Montpellier
Le rapport de la Convention citoyenne sur les temps de l’enfant publié en cette fin d’année 2025 rappelle que les rythmes scolaires actuels ne sont pas bien en phase avec les besoins des enfants. Proposer régulièrement à ces derniers des pauses actives ne serait-il pas un levier prometteur pour réinventer les journées de classe ?
Rendu public le 22 novembre 2025, le rapport de la Convention citoyenne sur les temps de l’enfant a rappelé que l’organisation de la journée scolaire française reste peu adaptée aux rythmes biologiques et cognitifs des élèves.
Il appelle à une réforme d’ampleur des rythmes scolaires, invitant à repenser non seulement les horaires, mais aussi la manière dont se répartissent attention, repos, mouvement et apprentissages. Dans cette perspective, proposer aux élèves des pauses actives (c’est-à-dire de courtes périodes d’exercices physiques, échauffements ou encore relaxation au fil de la journée) ne serait-il pas un levier particulièrement prometteur ?
En 2024 en France, seuls 33 % des filles et 51 % des garçons de 6 à 17 ans atteignent les recommandations de l’Organisation mondiale de la santé (OMS) : au moins 60 minutes d’activité physique quotidienne d’intensité modérée à soutenue. Parallèlement, entre la classe et les transports, les repas et les temps d’écran, ils restent de longues heures sédentaires.
Cette réalité interroge particulièrement l’école : comment maintenir l’attention d’élèves contraints à rester immobiles de longues heures ? Comment prévenir les troubles de l’attention, fatigue ou anxiété. Des questions d’autant plus urgentes du fait que le système scolaire français fait partie de ceux qui enregistrent le plus grand nombre d’heures de classe données aux enfants durant toute leur scolarité,
Une précision avant de poursuivre : attention à ne pas confondre sédentarité et manque d’activité physique.
La sédentarité correspond au temps passé, assis ou allongé éveillé, avec une dépense énergétique très faible. On peut donc être physiquement actif selon les recommandations de l’OMS (par exemple courir trois fois par semaine), tout en étant très sédentaire si l’on reste assis plus de huit heures par jour. À l’inverse, l’inactivité physique signifie ne pas atteindre les seuils d’activité physique recommandés (au moins 150 minutes hebdomadaires d’intensité modérée).
Ces deux dimensions interagissent mais ne se confondent pas, comme le rappelle le Guide des connaissances sur l’activité physique et la sédentarité publié par la Haute Autorité de Santé en 2022.
Relativement récente en santé publique, cette distinction ne s’est imposée qu’au cours des années 2000, lorsque les grandes enquêtes ont montré que les risques liés à la sédentarité (diabète, maladies cardiovasculaires, certains cancers) existaient indépendamment du manque d’activité physique.
La pause active désigne un court moment de 5 à 15 minutes de mobilisation physique, intégrée directement dans le temps d’apprentissage ou de travail. Elle se déroule en quatre phases : échauffement, exercice cardio ou moteur, activité de coordination ou d’équilibre, retour au calme par étirements ou respiration.
Elle ne nécessite ni salle dédiée ni matériel particulier. Son efficacité repose sur la régularité : plusieurs fois par jour, entre deux séquences de travail ou d’apprentissage. Si les formes peuvent varier selon les contextes et les âges, il convient de ne pas les confondre avec les temps de recréation, de motricité ou d’éducation physique.
Depuis, de nombreuses études ont confirmé que l’activité physique stimule la plasticité cérébrale et la mémoire. Des études en psychologie cognitive démontrent que quelques minutes de mouvement suffisent à relancer l’attention soutenue et la concentration. La santé publique établit que rompre la sédentarité réduit le stress et prévient les troubles musculosquelettiques.
Depuis une dizaine d’années, les études et les expériences menées au Québec dans la cadre du projet À mon école, on s’active soulignent l’importance de ce type d’activités. En France le ministère de l’éducation nationale français a fait le choix des activités physiques quotidiennes (APQ) pour que chaque élève du premier degré bénéficie d’au moins 30 minutes d’activité physique quotidienne à l’école primaire. Cette mesure lancée, à la rentrée 2022, par le gouvernement, n’est appliquée que par 42 % des écoles primaires, selon un rapport sénatorial de septembre 2024.
Ce dispositif contribue à limiter le manque d’activité physique, mais ne réduit pas nécessairement la sédentarité. Les recommandations françaises actualisées en 2016 distinguent clairement ces deux dimensions : les bénéfices d’une pratique régulière d’activité physique ne compensent pas toujours les effets délétères du temps passé assis. Pour être efficaces, les politiques éducatives doivent donc agir à la fois sur l’augmentation du volume d’activité et sur la réduction des périodes prolongées d’immobilité. La mission flash sur l’activité physique et sportive et la prévention de l’obésité en milieu scolaire d’avril 2025 a réaffirmé l’urgence d’une politique éducative généralisée.
Dans ce contexte, les pauses actives sont présentées comme un moyen complémentaire : elles doivent améliorer la concentration et la mémorisation, réduisent l’agitation pour faciliter la gestion des comportements et le climat scolaire.
Les pauses actives ne peuvent être des activités isolées du reste des apprentissages, elles sont partie prenante d’une éducation intégrale, qui prend en compte non seulement la tête (l’intellect), mais aussi le corps (mouvement, coordination) et le cœur (gestion des émotions). Une vision théorisée par le pédagogue libertaire Paul Robin au milieu du XIXe siècle et qui pourrait être reprise par l’école publique laïque.
Comme le précise le rapport de la convention citoyenne sur les temps de l’enfant de novembre 2025, les journées des élèves doivent être repensées dans leur globalité, en rééquilibrant sollicitations intellectuelles, besoins physiques et temps de repos.
Intégrer les pauses actives dans les routines quotidiennes ne relève pas d’un gadget, mais d’une transformation profonde de nos manières de travailler et d’apprendre. Elles réintroduisent le rythme, la respiration et le mouvement comme conditions de toute activité intellectuelle. Une question déjà bien étudiée à l’université ou dans le monde professionnel où les pauses actives se développent.
À lire aussi : Bouger pour mieux apprendre : Comment lutter contre la sédentarité à l’école
Avec les pauses destinées au silence, à la rêverie ou au repos, elles dessinent une véritable écologie du temps, plus respectueuse des besoins humains.
Ces pauses actives à l’école constituent une première étape. Aller plus loin impliquerait d’intégrer le mouvement au cœur même des apprentissages, par exemple grâce au mobilier actif ou encore à des démarches pédagogiques qui associent marche et apprentissage.
La lutte contre la sédentarité pourrait alors devenir l’occasion de repenser plus largement nos modalités éducatives, en valorisant une approche où l’attention, le corps et le savoir évoluent dans l’ensemble des espaces scolaires. Promouvoir ces pratiques, c’est faire le choix d’une société qui prévient plutôt qu’une société qui tente de réparer et qui cultive l’attention plutôt que de l’épuiser.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.12.2025 à 16:14
Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)
Bernd Schöllhorn, Professeur, laboratoire ITODYS, Université Paris Cité
Serge Berthier, Professeur, Institut des Nanosciences de Paris, Sorbonne Université

Le parcours nocturne Lumières de la nature, proposé par le Jardin des plantes de Paris jusqu’au 16 janvier 2026, a été inspiré d’études menées en Guyane. Derrière cette exposition, on trouve notamment trois chercheurs qui ont inspecté la forêt amazonienne, armés de lampes UV. Ils nous livrent ici les secrets de la fluorescence naturelle, le plus souvent invisible pour les humains mais omniprésente dans le vivant.
Dans la pénombre de la forêt guyanaise, en début de nuit, nos lampes UV éclairent une forme mouvante dans les arbres, mauve, presque rose et assez intense. C’est un mammifère marsupial, un Marmosa, qui nous révèle un phénomène physique longtemps passé inaperçu dans le vivant… Non loin de là, sur un tronc à hauteur d’homme, une grosse grenouille arboricole montre elle une intense couleur bleu-vert, alors que sa peau est brun-vert en lumière normale, presque mimétique des troncs où elle se déplace.
Ce phénomène physique s’appelle la fluorescence, un type de photoluminescence qui se manifeste dans la nature, au sein d’une étonnante diversité d’organismes : lichens, plantes, champignons, insectes, araignées, scorpions, reptiles, poissons, oiseaux et même… mammifères. Dans ce contexte on parle de la « fluorescence naturelle » qui implique l’absorption d’un rayonnement du spectre lumineux
– l’ultraviolet (UV), le visible ou l’infrarouge (IR) – suivie de l’émission spontanée (à l’échelle de la nanoseconde) d’une lumière moins énergétique, souvent visible, mais pas uniquement.
Longtemps considérée comme une curiosité, la fluorescence naturelle se révèle plus répandue et intrigante qu’on ne l’imaginait. Elle intéresse de plus en plus la recherche, notamment dans le cadre d’applications technologiques ou biomédicales (par exemple des nouveaux marqueurs cellulaires pour la recherche). Les chercheuses et chercheurs l’étudient davantage dans la nature, une nouvelle exploration du vivant étant permise par des instruments portatifs de mesures (photo-spectromètres) et d’émissions (torches LED UV). Notre équipe de recherche se spécialise depuis plusieurs années sur l’exploration des fluorescences du vivant. Nous revenons d’une mission scientifique en Guyane dans le but d’appréhender ce phénomène dans la forêt amazonienne, et plus spécialement dans les biotopes autour de la station de recherche des Nouragues
À lire aussi : Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée
La fluorescence naturelle, à ne pas confondre avec la bioluminescence, repose sur la capacité de certaines molécules, les fluorophores, à absorber un photon d’énergie élevée (par exemple dans l’UV) et à en réémettre un autre, d’énergie moindre (dans le visible ou l’IR). La vie, à toutes ses échelles, en est imprégnée. On trouve quelquefois le terme d’autofluorescence pour bien insister sur le fait qu’il ne s’agit pas de fluorescence de composés artificiels. C’est le cas également de nombreux minéraux, comme la fluorite (CaF2), qui a donné son nom au phénomène de fluorescence du fait de sa fluorescence spectaculaire aux UV.
La fluorescence des plantes est connue depuis longtemps, notamment à travers celle de la chlorophylle : lorsqu’elle absorbe la lumière, une partie de l’énergie non utilisée pour la photosynthèse est réémise sous forme de fluorescence rouge. Ce signal est si caractéristique qu’il sert à mesurer à distance la vitalité de la végétation, y compris depuis les satellites. Mais la chlorophylle n’est pas seule à briller. D’autres composés végétaux, comme les flavonoïdes, les anthocyanes ou les ptérines, peuvent émettre une fluorescence bleue ou verte lorsqu’ils sont excités par la lumière ultraviolette.
Plus largement, des études récentes ont révélé que la fluorescence existe dans presque tous les grands groupes du vivant.
Chez certains animaux, elle pourrait jouer un rôle avant tout dans la protection contre les UV, mais aussi dans la communication visuelle telle que la reconnaissance entre congénères (comme chez l’araignée Cosmophasis umbratica, les perruches australiennes ou encore une grenouille arboricole), ou dans l’avertissement, et même le camouflage. Cela peut sembler contre-intuitif de se camoufler en étant « fluo » mais il ne faut pas oublier que d’autres organismes n’ont pas la même vision que les humains.
La fluorescence de certaines fleurs, à la lumière du jour souvent cachée aux yeux humains mais perceptible pour les insectes pollinisateurs, pourrait jouer un rôle attractif. Pour la plupart des autres organismes fluorescents, nous ignorons si cette propriété possède une fonction biologique ou s’il ne s’agit pas simplement d’un effet optique sans conséquence pour l’animal ou la plante. La frontière reste floue si l’on ne possède pas les clés pour déchiffrer les phénomènes. Encore faut-il les voir…
La découverte a surpris la communauté scientifique : des mammifères fluorescents, vraiment ? Depuis 2020, plusieurs études ont montré que des marsupiaux – notamment les opossums américains (Didelphis spp.), mais aussi des espèces australiennes comme le planeur à sucre (Petaurus breviceps) ou phalanger, émettent une fluorescence rose ou bleutée sous lumière ultraviolette.
En Guyane, comme nous l’avons observé, des petits opossums sont également fluo, comme les Marmosa.
Des travaux récents ont élargi le constat : plus de 125 espèces de mammifères présentent un certain degré de fluorescence. Celle-ci se manifeste surtout sur les zones claires ou peu pigmentées : pelage blanc, moustaches, griffes, dents ou piquants. Sur le terrain, nous avons souvent observé des rats fluorescents dans la nature (Rattus spp.) que ce soit en Europe, en Asie ou en Guyane.
Les insectes offrent une extraordinaire diversité de structures fluorescentes. Les ailes de certaines libellules et cigales contiennent de la résiline, une protéine élastique qui émet une lumière bleue sous UV. L’un des plus spectaculaires reste les nids de guêpes asiatiques (Polistes sp.), que nous avons observés au Vietnam qui battent des records de fluorescence induite par l’UV avec un rendement quantique (le rapport entre le nombre de photons émis et absorbés) exceptionnellement élevé jusqu’à 36 % (champion des matériaux biologiques terrestre à ce jour).
Les élytres des coléoptères, quant à eux, peuvent renfermer des pigments fluorescents enchâssés dans des micro ou nanostructures photoniques, capables d’amplifier, de restreindre ou de diriger la lumière émise. Chez le scarabée Hoplia coerulea, par exemple, ces structures créent une fluorescence directionnelle d’un bleu métallique saisissant. Quelques exemples ont été étudiés mais certainement beaucoup d’autres restent à découvrir.
En Amazonie, chez le Morpho sulkowskyi, un papillon iridescent et spectaculaire, la fluorescence fait aussi partie des signaux renvoyés par les ailes colorées.
Cette redécouverte de la fluorescence naturelle dans autant de groupes vivants change notre regard sur la biodiversité et nous incite à mieux la comprendre. L’anthropomorphisme nous a conduits à croire que nous vivions dans un monde visible universel alors que c’est loin d’être le cas, par exemple, notre totale non-perception des UV qui pourtant imprègnent une grande partie du monde animal, des insectes aux poissons (la plupart des requins sont fluorescents !), et déterminent un grand nombre d’interactions écologiques, comme la pollinisation et les relations proie-prédateur, ou modifie notre perception du mimétisme (que voient réellement les prédateurs ?).
Pour comprendre ces phénomènes, la chimie et la physique doivent s’associer à la biologie qui peine seule à élucider les mécanismes, et qui peut les ignorer ou les minimiser.
Ne négligeons pas les applications potentielles (par fois bio-inspirées) qui peuvent découler de la meilleure connaissance et de la compréhension des systèmes naturels. La fluorescence est déjà au cœur de nombreuses applications scientifiques : microscopie de fluorescence, imagerie médicale, biologie cellulaire. Aujourd’hui, la GFP (protéine fluorescente verte), trouvée dans une méduse, est l’un des outils les plus largement utilisés en biologie moléculaire, et sa découverte a été récompensée par un prix Nobel en 2008. La découverte de nouvelles molécules fluorescentes performantes pourrait améliorer les outils de diagnostics médicaux et ouvrir la voie à des dispositifs photoniques inédits, capables d’améliorer l’efficacité des panneaux solaires, par exemple.
Le monde vivant n’est pas seulement coloré, il recèle aussi un « spectre caché » de lumières invisibles à l’œil humain. Pour le comprendre, il nous faut l’appréhender et revoir notre perception du monde, ainsi que de nombreuses certitudes. C’est ce qui fait la beauté de la science face à la merveilleuse complexité de la nature. Et si le monde était encore plus beau que ce que l’on croyait ?
Pour en savoir plus, vous pouvez visiter l’exposition « En voie d’illumination : les lumières de la nature » jusqu’au 18 janvier 2026 au Jardin des plantes (Paris), où vous verrez une reconstitution de la forêt tropicale d’Amérique du Sud, avec sa bioluminescence et sa fluorescence.
Romain Garrouste a reçu des financements de MNHN, CNRS, Sorbonne Université, National Geographic, MRAE, MTE, Labex BCDiv, Labex CEBA, WWF
Bernd SCHÖLLHORN a reçu des financements du CNRS (MITI et OVNI) et de l'Université Paris Cité (IDEX et laboratoire ITODYS)
Serge Berthier a reçu des financements de ANR, CNRS, Sorbonne Université.
15.12.2025 à 15:26
Service Environnement, The Conversation France
Dans l’imaginaire collectif français, un repas de fête se passe difficilement de viande. À l’heure où les impératifs environnementaux nous invitent à réduire notre consommation carnée, il est temps de montrer que le végétal aussi peut être le cœur de la gastronomie. Mais comment faire ? Esquissons quelques pistes.
Les Français comptent parmi les plus gros consommateurs de viande au monde. Pourtant, la cuisine française s’est longtemps appuyée sur les céréales, les légumes secs et les soupes, la viande restant réservée aux grandes occasions.
Les quantités de produits carnés consommées tendent à diminuer depuis plusieurs années, mais cela tiendrait davantage à une hausse des prix plutôt qu’à une véritable préoccupation environnementale ou nutritionnelle.
À lire aussi : Faut-il manger flexitarien au nom du climat ?
Le repas gastronomique français constitue, à cet égard, un objet emblématique. Il a été inscrit sur la liste du patrimoine culturel immatériel de l’Organisation des Nations unies pour l’éducation, la science et la culture (Unesco) en 2010. Or, la définition de l’Unesco stipule qu’il s’agit de pratiques vivantes, qui peuvent évoluer.
Mariages, communions, repas de fêtes de fin d’année… Nous avons mené une étude auprès de 424 mangeurs qui a confirmé que la viande occupait encore une place centrale. Sur le terrain, nous avons également observé les habitudes de 18 000 personnes lors des repas de mariage.
Résultat, plus de deux convives sur trois choisissent une viande rouge, principalement du bœuf, qui, à lui seul, pèse presque autant que toutes les autres options réunies. Le poisson additionné aux plats végétariens ne représentait qu’un dixième des choix. La demande pour les plats végétariens, l’agneau ou le porc demeure marginale, voire inexistante.
Ces constats soulèvent une question centrale : si les moments de partage les plus symboliques sont systématiquement centrés sur la viande, peut-on réellement transmettre à nos enfants une culture alimentaire plus végétale ?
Nous avons analysé les cartes de 43 restaurants allant du fast-food au restaurant gastronomique. Notre étude a fait émerger sept stratégies, directement transposables au repas gastronomique.
L’une des approches consiste à supprimer les produits animaux normalement présents dans la recette, par exemple le chili sin carne, ou d’en proposer une version pescétarienne par exemple le cassoulet de poisson.
Une autre approche se focalise sur l’expérience : il ne s’agit pas de copier la viande, mais de proposer une expérience culinaire végétarienne esthétique et narrative. C’est une stratégie prisée des chefs de la restauration gastronomique.
Il y a aussi la reconversion, qui va mobiliser des hors-d’œuvre ou des accompagnements traditionnellement végétariens comme plats principaux. Par exemple, des ravioles de Royan, ou une soupe au pistou en guise de plat principal.
On peut encore citer la coproduction, qui laisse le client composer lui-même un plat végétarien selon ses préférences, ou la coexistence, qui consiste à afficher côte à côte alternatives carnées et végétales dans le même menu. On peut également choisir d’importer une expérience gastronomique végétarienne mais issue d’une autre culture, ou encore faire du végétal un pilier identitaire de la marque pour afficher un engagement environnemental et social.
Toutes ces stratégies sont complémentaires et ne sont jamais mutuellement exclusives. Elles peuvent se combiner au sein d’un même restaurant et parfois d’un même repas.
Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 15:24
Emmanuel Carré, Professeur, directeur de Excelia Communication School, chercheur associé au laboratoire CIMEOS (U. de Bourgogne) et CERIIM (Excelia), Excelia

Les intelligences artificielles qui donnent l’impression de comprendre nos émotions se multiplient. Sur Replika ou Snapchat AI, des millions de personnes dialoguent chaque jour avec ces systèmes conçus pour écouter et rassurer. Les modèles de langage, comme ChatGPT, Claude ou Gemini, prolongent cette tendance : leurs réponses empreintes d’approbation et d’enthousiasme instaurent une convivialité programmée qui finit par façonner une norme de dialogue aussi polie qu’inquiétante.
Le psychologue américain Mark Davis définit l’empathie comme la capacité à percevoir les états mentaux et émotionnels d’autrui, à s’y ajuster et à en tenir compte dans sa conduite. Les chercheurs distinguent deux versants : l’empathie cognitive, fondée sur la compréhension des intentions, et l’empathie affective, liée au partage du ressenti. Cette distinction, centrale en psychologie sociale, montre que l’empathie n’est pas une émotion mais relève d’une coordination interpersonnelle.
Dans la vie quotidienne comme dans les métiers de service, l’empathie structure ainsi la confiance. Le vendeur attentif, le soignant ou le médiateur mobilisent des codes d’attention : ton, regard, reformulation, rythme verbal. Le sociologue Erving Goffman parlait d’« ajustement mutuel » pour désigner ces gestes infimes qui font tenir la relation. L’empathie devient une compétence interactionnelle ; elle se cultive, se met en scène et s’évalue. Les sciences de gestion l’ont intégrée à l’économie de l’expérience : il s’agit de créer de l’attachement par la perception d’une écoute authentique et ainsi d’améliorer la proximité affective avec le consommateur.
Le compagnon chatbot Replika revendique 25 millions de personnes utilisatrices, Xiaoice 660 millions en Chine et Snapchat AI environ 150 millions dans le monde. Leur efficacité repose fortement sur la reconnaissance mimétique : interpréter des indices émotionnels pour générer des réponses adaptées.
Dès la fin des années 1990, Byron Reeves et Clifford Nass avaient montré que les individus appliquent spontanément aux machines les mêmes règles sociales, affectives et morales qu’aux humains : politesse, confiance, empathie, voire loyauté. Autrement dit, nous ne faisons pas « comme si » la machine était humaine : nous réagissons effectivement à elle comme à une personne dès lors qu’elle adopte les signes minimaux de l’interaction sociale.
Les interfaces conversationnelles reproduisent aujourd’hui ces mécanismes. Les chatbots empathiques imitent les signes de la compréhension : reformulations, validation du ressenti, expressions de sollicitude. Si j’interroge ChatGPT, sa réponse commence invariablement par une formule du type :
« Excellente question, Emmanuel. »
L’empathie est explicitement mise en avant comme argument central : « Always here to listen and talk. Always on your side », annonce la page d’accueil de Replika. Jusqu’au nom même du service condense cette promesse affective. « Replika » renvoie à la fois à la réplique comme copie (l’illusion d’un double humain) et à la réponse dialogique (la capacité à répondre, à relancer, à soutenir). Le mot suggère ainsi une présence hybride : ni humaine ni objet technique mais semblable et disponible. Au fond, une figure de proximité sans corps, une intimité sans altérité.
De surcroît, ces compagnons s’adressent à nous dans notre langue, avec un langage « humanisé ». Les psychologues Nicholas Epley et John Cacioppo ont montré que l’anthropomorphisme (l’attribution d’intentions humaines à des objets) dépend de trois facteurs : les besoins sociaux du sujet, la clarté des signaux et la perception d’agentivité. Dès qu’une interface répond de manière cohérente, nous la traitons comme une personne.
Certains utilisateurs vont même jusqu’à remercier ou encourager leur chatbot, comme on motive un enfant ou un animal domestique : superstition moderne qui ne persuade pas la machine, mais apaise l’humain.
Pourquoi l’humain se laisse-t-il séduire ? Des études d’électro-encéphalographie montrent que les visages de robots humanoïdes activent les mêmes zones attentionnelles que les visages humains. Une découverte contre-intuitive émerge des recherches : le mode textuel génère davantage d’engagement émotionnel que la voix. Les utilisateurs se confient plus, partagent davantage de problèmes personnels et développent une dépendance plus forte avec un chatbot textuel qu’avec une interface vocale. L’absence de voix humaine les incite à projeter le ton et les intentions qu’ils souhaitent percevoir, comblant les silences de l’algorithme avec leur propre imaginaire relationnel.
Ces dialogues avec les chatbots sont-ils constructifs ? Une étude du MIT Media Lab sur 981 participants et plus de 300 000 messages échangés souligne un paradoxe : les utilisateurs quotidiens de chatbots présentent, au bout de quatre semaines, une augmentation moyenne de 12 % du sentiment de solitude et une baisse de 8 % des interactions sociales réelles.
Autre paradoxe : une étude sur les utilisateurs de Replika révèle que 90 % d’entre eux se déclaraient solitaires (dont 43 % « sévèrement »), même si 90 % disaient aussi percevoir un soutien social élevé. Près de 3 % affirment même que leur compagnon numérique a empêché un passage à l’acte suicidaire. Ce double constat suggère que la machine ne remplace pas la relation humaine, mais fournit un espace de transition, une disponibilité émotionnelle que les institutions humaines n’offrent plus aussi facilement.
À l’inverse, la dépendance affective peut avoir des effets dramatiques. En 2024, Sewell Setzer, un adolescent américain de 14 ans, s’est suicidé après qu’un chatbot l’a encouragé à « passer à l’acte ». Un an plus tôt, en Belgique, un utilisateur de 30 ans avait mis fin à ses jours après des échanges où l’IA lui suggérait de se sacrifier pour sauver la planète. Ces tragédies rappellent que l’illusion d’écoute peut aussi basculer en emprise symbolique.
La façon dont ces dispositifs fonctionnent peut en effet amplifier le phénomène d’emprise.
Les plateformes d’IA empathique collectent des données émotionnelles – humeur, anxiété, espoirs – qui alimentent un marché évalué à plusieurs dizaines de milliards de dollars. Le rapport Amplyfi (2025) parle d’une « économie de l’attention affective » : plus l’utilisateur se confie, plus la plateforme capitalise sur cette exposition intime pour transformer la relation de confiance en relation commerciale. D’ailleurs, plusieurs médias relaient des dépôts de plainte contre Replika, accusé de « marketing trompeur » et de « design manipulateur »", soutenant que l’application exploiterait la vulnérabilité émotionnelle des utilisateurs pour les pousser à souscrire à des abonnements premium ou acheter des contenus payants.
Si ce n’est pas encore clair au plan juridique, cette délégation de l’écoute a manifestement d’ores et déjà des effets moraux. Pour le philosophe Laurence Cardwell, il s’agit d’un désapprentissage éthique : en laissant la machine compatir à notre place, nous réduisons notre propre endurance à la différence, au conflit et à la vulnérabilité. Sherry Turkle, sociologue du numérique, souligne que nous finissons même par « préférer des relations prévisibles » à l’incertitude du dialogue humain.
Les études longitudinales ne sont pas toutes pessimistes. La psychologue américaine Sara Konrath observe depuis 2008 une remontée de l’empathie cognitive chez les jeunes adultes aux États-Unis : le besoin de comprendre autrui augmente, même si le contact physique diminue. La solitude agit ici comme une « faim sociale » : le manque stimule le désir de lien.
Les technologies empathiques peuvent donc servir d’objets transitionnels (comme « des doudous ») au sens où des médiations permettant de réapprendre la relation. Les applications thérapeutiques basées sur des agents conversationnels, telles que Woebot, présentent d’ailleurs une diminution significative des symptômes dépressifs à court terme chez certaines populations, comme l’ont montré des chercheurs dès 2017 dans un essai contrôlé randomisé mené auprès de jeunes adultes. Toutefois, l’efficacité de ce type d’intervention demeure principalement limitée à la période d’utilisation : les effets observés sur la dépression et l’anxiété tendent à s’atténuer après l’arrêt de l’application, sans garantir une amélioration durable du bien-être psychologique.
Cette dynamique soulève une question désormais centrale : est-il pertinent de confier à des intelligences artificielles des fonctions traditionnellement réservées aux relations humaines les plus sensibles (la confidence, le soutien émotionnel ou psychologique) ? Un article récent, paru dans The Conversation, souligne le décalage croissant entre la puissance de simulation empathique des machines et l’absence de responsabilité morale ou clinique qui les accompagne : les IA peuvent reproduire les formes de l’écoute sans en assumer les conséquences.
Alors, comment gérer cette relation avec les chatbots ? Andrew McStay, spécialiste reconnu de l’IA émotionnelle, plaide pour un devoir de vigilance (« Duty of care ») sous l’égide d’instances internationales indépendantes : transparence sur la nature non humaine de ces systèmes, limitation du temps d’usage, encadrement pour les adolescents. Il appelle aussi à une littératie émotionnelle numérique, c’est-à-dire la capacité à reconnaître ce que l’IA simule et ce qu’elle ne peut véritablement ressentir, afin de mieux interpréter ces interactions.
Le recours aux chatbots prétendument à notre écoute amène un bilan contrasté. Ils créent du lien, donnent le change, apaisent. Ils apportent des avis positifs et définitifs qui nous donnent raison en douceur et nous enferment dans une bulle de confirmation.
Si elle met de l’huile dans les rouages de l’interface humain-machine, l’empathie est comme « polluée » par un contrat mécanique. Ce que nous appelons empathie artificielle n’est pas le reflet de notre humanité, mais un miroir réglé sur nos attentes. Les chatbots ne feignent pas seulement de nous comprendre : ils modèlent ce que nous acceptons désormais d’appeler « écoute ». En cherchant des interlocuteurs infaillibles, nous avons fabriqué des dispositifs d’écho. L’émotion y devient un langage de surface : parfaitement simulé, imparfaitement partagé. Le risque n’est pas que les interfaces deviennent sensibles, mais que nous cessions de l’être à force de converser avec des programmes qui ne nous contredisent jamais.
Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 15:24
Andrea Martini, Chercheur post-doc Marie Curie, historien, Université Paris 8 – Vincennes Saint-Denis
En Europe comme ailleurs, la montée des groupes d’extrême droite s’impose comme un phénomène majeur. Face à cette menace, les démocraties sont appelées à réagir. Parmi les réponses possibles figurent des mesures répressives, telles que l’interdiction de certains partis politiques. Mais ces stratégies sont-elles réellement efficaces ? En adoptant une perspective rétrospective sur l’histoire des démocraties européennes, il est possible d’en évaluer à la fois les forces et les limites.
Début mai 2025, l’Office fédéral allemand pour la protection de la Constitution a établi que le parti d’extrême droite Alternative für Deutschland (AfD) devait être considéré comme une organisation extrémiste. Ce statut permet aux magistrats et aux services de renseignement de mener des investigations plus approfondies sur les activités de l’AfD. Désormais, son interdiction ne peut, en termes absolus, être exclue, du moins selon ce qui est prévu par la Constitution du pays, qui considère comme l’un des scénarios envisageables la dissolution de tous les partis – qu’ils soient de droite ou de gauche – représentant une menace pour la démocratie elle-même (art. 21).
En Allemagne, cette décision de l’Office fédéral pour la protection de la Constitution a déclenché un débat intense, interrogeant l’opportunité de mettre en œuvre des mesures répressives pour protéger la démocratie. Une telle démarche ne risque-t-elle pas d’être contre-productive pour la démocratie elle-même ? La question est extrêmement délicate.
Un regard sur le passé ne peut, à lui seul, apporter une réponse définitive à un enjeu aussi complexe. Pourtant, il permet de donner de la profondeur au débat. D’ailleurs, une mesure telle que l’interdiction d’un parti n’est en rien étrangère à l’histoire des démocraties. C’est ce que montre le champ d’études consacré au concept de « démocratie militante » (ou « protégée »), une notion qui remonte aux années 1930, lorsqu’elle fut employée par le politologue allemand Karl Loewenstein afin de désigner les instruments susceptibles de contrer la montée des mouvements antidémocratiques, dans le cas spécifique l’accession au pouvoir du parti national-socialiste.
La fin de la Grande Guerre coïncide avec la chute des grands empires et la naissance de nombreuses démocraties. L’exploit, toutefois, de l’idéologie fasciste en Italie et puis en Allemagne rend ce dernier modèle de plus en plus séduisant. Certains pays choisissent alors de se protéger, donnant naissance à ce que l’on peut considérer comme les premières formes de démocratie militante.
En France, le 10 janvier 1936, la IIIe République adopte une loi autorisant la dissolution des « groupes de combat et milices privées ». Cette mesure vise les ligues d’extrême droite, dont la popularité connaît une croissance exponentielle. À peine quelques semaines plus tard, la loi est appliquée pour la première fois : à la suite de l’agression dont Léon Blum, le leader du Parti socialiste, est victime, la Ligue d’Action française est dissoute.
Durant la même période, le Royaume-Uni décide lui aussi de prendre des mesures face à la montée de l’extrême droite. La menace, ici, porte le nom de British Union of Fascists (BUF), un parti fondé en 1932 par Oswald Mosley. Dès son appellation, la référence au Parti national fasciste de Mussolini est évidente. Les manifestations publiques répétées du BUF font croître le niveau de tension dans le pays, au point que, le 4 octobre 1936, dans l’est de Londres, se déroule la célèbre bataille de Cable Street, qui oppose, d’un côté, les fascistes de Mosley, et de l’autre, les syndicats, des militants de gauche ainsi que des membres de la communauté juive.
En décembre 1936, le gouvernement adopte donc un Public Order Act, qui interdit le port d’uniformes politiques lors des manifestations (donc pas de chemises noires, comme avaient l’habitude d’en porter les partisans de Mosley) et renforce les pouvoirs discrétionnaires de la police pour empêcher certains rassemblements. Ce faisant, le poids réel de Mosley et du BUF diminue drastiquement.
Un deuxième tournant dans l’histoire de la démocratie militante est l’immédiat après-guerre. L’Europe, une fois sortie de la menace nazie et fasciste, considère qu’il est d’une importance capitale d’adopter de mesures destinées à se protéger : se protéger contre la menace fasciste renouvelée et, en même temps, contre la menace communiste, considérée alors comme encore plus sérieuse.
Le Royaume-Uni et la France confirment tout d’abord les lois déjà en vigueur et n’hésitent pas à les appliquer à nouveau. Dans l’immédiat après-guerre, la IVe République française recourt ainsi au dispositif de 1936 pour dissoudre toute une série de petites formations de droite, à commencer par le Mouvement socialiste d’unité française. Le Royaume-Uni fait de même : il s’appuie sur le Public Order Act de 1936 pour empêcher au nouveau parti fondé par Mosley à la fin de 1947, l’Union Movement, d’organiser des meetings publics.
Dans le même temps, les pays qui avaient vécu directement l’expérience du fascisme prennent eux aussi des mesures de précaution. C’est le cas de la République fédérale d’Allemagne (RFA) qui définit dans sa Loi fondamentale comme inconstitutionnels tous les partis qui représentent une menace pour la démocratie, mais aussi de la République démocratique allemande (RDA), où l’idéologie fasciste est naturellement proscrite. C’est également le cas de l’Italie. Là, la Constitution, entrée en vigueur en janvier 1948, interdit dans sa XIIᵉ disposition finale la réorganisation « sous quelque forme que ce soit du parti fasciste dissous ». Ce principe est en outre immédiatement accompagné d’une loi, approuvée en décembre 1947, puis d’une autre en 1952 : la loi Scelba (du nom de son initiateur, Mario Scelba, ministre de l’intérieur démocrate-chrétien), encore en vigueur aujourd’hui.
Il apparaît évident que les démocraties (et les acteurs sociaux qui les animent au quotidien) n’ont pas hésité à intervenir à différents moments de leur histoire pour contenir les risques de l’extrême droite, mais pourquoi alors cette dernière a-t-elle réussi à émerger ?
Nous pourrions répondre en insistant sur le fait que certaines de ces mesures n’ont pas bien fonctionné. C’est, par exemple, le cas de l’Italie, où le choix de se référer, dans les différents dispositifs législatifs uniquement au parti fasciste dissous (celui fondé par Mussolini) rend très difficile l’application de la loi : il est en effet peu probable qu’un parti d’extrême droite tente de reconstituer précisément ce parti.
Cependant, il serait naïf de lier directement la montée des formations d’extrême droite à l’échec des mesures visant à protéger la démocratie. Cela reviendrait à surestimer la portée et l’effet de ces mêmes mesures. Dans le cas de la France, par exemple, il convient de préciser que la législation n’était pas conçue pour faire disparaître n’importe quel parti d’extrême droite, mais uniquement les formations paramilitaires. Même la récente modification du cadre législatif n’a pas modifié substantiellement la situation. L’article L. 212-1 du Code de la sécurité intérieure (CSI), entré en vigueur en mai 2012 (et modifié le 26 août 2021), a abrogé les dispositions de la loi du 10 janvier 1936, sans toutefois en changer la substance. La mesure est donc efficace, comme le démontre le fait que, par décret du 12 juillet 2013, le président de la République a effectivement dissous plusieurs groupes, parmi lesquels Troisième Voie, à la suite de la mort de l’activiste antifasciste Clément Méric, tué le 6 juin 2013 par des sympathisants de ce mouvement (d’autres exemples pourraient être cités). Toutefois, cela n’empêche aucun parti d’extrême droite de participer à la vie démocratique, s’il ne provoque pas « des manifestations armées ou (…) des agissements violents à l’encontre des personnes ou des biens » ou s’il ne présente pas « le caractère de groupes de combat ou de milices privées ». Cela explique donc, par exemple, la capacité du Front national à s’insérer dans l’arène politique.
Le cas allemand nous montre sans aucun doute des lois aux effets plus larges. De nombreux partis y ont été dissous ; le premier étant, si l’on considère l’Allemagne fédérale, le Sozialistische Reichspartei en 1952. Mais là encore, il serait erroné de surestimer la portée de ces mesures : le droit allemand préfère généralement adopter une approche progressive – suspendre les financements publics, par exemple, ou placer les dirigeants sous surveillance. Seulement, dans des cas extrêmes, on en arrive à la dissolution sur laquelle seule la Cour constitutionnelle est habilitée à se prononcer.
Juger de l’efficacité des démocraties militantes est une tâche vraiment complexe. Dans tous les cas, il convient de garder à l’esprit que les dispositifs visant à protéger la démocratie sont le produit de contextes historiques spécifiques : ils doivent donc être replacés dans leur époque.
Ces dispositifs ont, dans l’ensemble, généralement fonctionné pour contrer un ennemi à un stade embryonnaire (le BUF au Royaume-Uni et les ligues d’extrême droite en France) et aujourd’hui encore, ils parviennent à exercer un effet dissuasif potentiel, contraignant les partis antidémocratiques – et leurs dirigeants – à se réadapter et à se repositionner. Cette réadaptation formelle pouvant d’ailleurs conduire progressivement à une transformation plus substantielle du parti.
À l’inverse, ces dispositifs semblent à présent perdre de leur efficacité lorsqu’ils deviennent trop « encombrants » – dans le cas de la potentielle interdiction d’un parti populaire comme l’AfD par exemple. Si l’interdiction de petites formations paramilitaires peut rassurer les citoyens, celle de grands partis risquerait d’être perçue comme un acte de force. Un éloignement encore plus grand d’une partie de la population de la culture démocratique serait alors un scénario plus que probable.
Andrea Martini est membre de l'Institut Français de Géopolitique (IFG) de Paris 8. Il a reçu des financements du programme de recherche et d'innovation Horizon Europe de l’Union européenne dans le cadre de la convention de subvention Marie Skłodowska-Curie n°101150204 (NEXTRIGHT)..
15.12.2025 à 15:23
Frédéric Archaux, Chercheur, Inrae
Les couleurs chatoyantes d’un coquelicot ou d’une mésange attirent le regard, mais elles remplissent également d’innombrables fonctions pour le vivant. Dans son récent livre, « Toutes les couleurs de la nature », paru aux éditions Quae, Frédéric Archaux, ingénieur-chercheur à l’Inrae, explore ces questions couleur par couleur. Nous reproduisons ci-dessous le début du chapitre consacré à la couleur verte.
S’il ne fallait retenir qu’une seule couleur pour caractériser le vivant, ce serait assurément le vert, celui de la chlorophylle : la vie sur Terre n’aurait certainement pas été aussi florissante sans ce pigment révolutionnaire capable de convertir l’énergie du Soleil en énergie chimique.
Et sans les organismes photosynthétiques, des minuscules bactéries océaniques aux immenses séquoias, quel aurait été le destin des animaux ? Certains d’entre eux hébergent même dans leur propre organisme ces précieux alliés !
Notre appartenance au règne animal et notre régime alimentaire omnivore nous font oublier à quel point pratiquement tout le vivant repose sur un processus clé assuré presque exclusivement par d’autres règnes : la photosynthèse, ou comment convertir l’énergie lumineuse en énergie chimique stockée dans des molécules organiques.
Cette énergie permet ensuite de créer d’autres molécules, parfois très complexes, de faire marcher nos muscles, de maintenir notre température corporelle, etc. Le vert est la couleur par excellence de cette photosynthèse, celle du pigment majeur qui capte et convertit l’énergie lumineuse, la chlorophylle (du grec khloros, vert, et phullon, feuille).
Bien sûr, tous les organismes photosynthétiques ne sont pas verts, car d’autres pigments (non chlorophylliens) peuvent masquer la chlorophylle. Pour ne citer qu’un exemple parmi tant d’autres, la photosynthèse chez les algues rouges repose exclusivement sur la chlorophylle A (la plus répandue sur Terre et sous l’eau), mais ces algues produisent également des carotènes et des protéines (phycobiliprotéines) de couleurs bleue et rouge, qui capturent l’énergie lumineuse puis la transmettent à la chlorophylle.
Il n’y a donc pas une mais des chlorophylles, A, B, C, D et F (sans parler des sous-types cl, c2, c3…), et la liste n’est probablement pas terminée (la forme F a été découverte en 2010). Si la chlorophylle A est universelle, la forme B se retrouve surtout chez des plantes, la C chez des algues brunes, des diatomées et des dinoflagellés, la D et la F chez des cyanobactéries. Si la chlorophylle E manque à l’appel, c’est qu’elle a été extraite en 1966 d’une algue, mais n’a toujours pas été décrite !
Du côté de leur composition chimique, ces molécules sont très proches de l’hème de notre hémoglobine, mais avec plusieurs différences de taille : l’ion métallique piégé est un ion magnésium et non ferrique. Surtout, au lieu de capter l’oxygène atmosphérique, la chlorophylle, elle, en rejette en découpant des molécules d’eau pour récupérer les atomes d’hydrogène.
La cascade biochimique est particulièrement complexe : la chlorophylle est la pièce maîtresse, parfois présente en plusieurs centaines d’unités, de photosystèmes qui comprennent d’autres molécules par dizaines. La très grande majorité des molécules de chlorophylle absorbent des photons et transmettent cette énergie d’excitation par résonance aux molécules voisines.
Les chlorophylles absorbent les radiations bleue et rouge, réfléchissant le jaune et le vert : voilà l’explication de la couleur des plantes. Les deux pics d’absorption peuvent varier sensiblement selon les types de chlorophylle. De proche en proche, cette énergie parvient jusqu’à une paire de molécules de chlorophylle, dans le centre de réaction du photosystème dont l’ultime fonction est de produire, d’un côté, les protons H+ et, de l’autre, les électrons.
Ces protons ainsi libérés peuvent alors être combinés au dioxyde de carbone (CO2) de l’air et former du glucose, un sucre vital au métabolisme de la plante et de tous les étres vivants. La réaction, qui consomme de l’eau et du CO, relargue comme déchet du dioxygène (O2).
Au fond, la conséquence la plus importante de l’apparition de la photosynthèse a été d’accroître de manière considérable la production primaire sur Terre, alors que celle-ci était initialement confinée à proximité des sources hydrothermales produisant du dihydrogène et du sulfure d’hydrogène, la photosynthèse a permis au vivant de se répandre partout à la surface du globe, pourvu que s’y trouvent de la lumière et de l’eau.
La photosynthèse capte près de six fois l’équivalent de la consommation énergétique de toute l’humanité pendant que nous relarguons des quantités invraisemblables de CO, par extraction d’énergies fossiles (35 milliards de tonnes chaque année), les organismes photosynthétiques en stockent entre 100 milliards et 115 milliards de tonnes par an sous forme de biomasse. Le joyeux club des consommateurs de CO2, comprend, outre les cyanobactéries à l’origine de la photosynthèse, d’autres bactéries, les algues et les plantes (par endosymbiose d’une cyanobactérie qui liera entièrement son destin à celui de la cellule eucaryote au fil de l’évolution, donnant naissance aux chloroplastastes).
Pourtant, le rendement de la photosynthèse demeure modeste : de l’ordre de 5 % de l’énergie lumineuse incidente est effectivement transformée en énergie chimique, soit dix fois moins que les meilleurs panneaux photovoltaïques actuels.
D’autres règnes du vivant ont fait de la place à ces organismes, au bénéfice de tous les protagonistes (symbioses) ou parfois au détriment des organismes photosynthétiques. Les lichens, qui comprennent environ 20 % des espèces de champignons connues, prennent des teintes variées, qui vont du gris au jaune, à l’orange, au rouge et au vert. Dans tous les cas, ces organismes qui s’accrochent (le mot « lichen » dérive du grec leikho, lécher) sont des assemblages d’espèces auxquels les scientifiques ne cessent d’ajouter des membres.
Pendant près de cent quarante ans, on a pensé qu’il s’agissait d’une simple association entre un champignon ascomycète et une algue, avant de découvrir que la colocation pouvait être partagée avec une cyanobactérie chlorophyllienne ou fixatrice d’azote, plusieurs algues, un autre champignon (une levure basidiomycète, l’autre grand embranchement des champignons), ou encore des protistes (des eucaryotes unicellulaires) et des virus.
En résumé, les lichens sont des mini-communautés qui peuvent regrouper trois règnes du vivant, sans compter les virus ! On continue cependant de placer ces communautés au sein des champignons, car seuls ces derniers réalisent une reproduction sexuée. La grande variabilité de la coloration des lichens provient de la résultante entre les pigments exprimés par tous les colocataires.
Le règne fongique n’a pas l’exclusivité de l’endosymbiose avec les algues, tel est aussi le cas par exemple des cnidaires.
On peut citer dans cet embranchement, qui comprend notamment les coraux, l’actinie verte, une anémone que l’on trouve de la Manche à la Méditerranée. Elle héberge dans ses bras verdâtres à pointe rosée des zooxanthelles, des algues photosynthétiques. L’anémone perd sa jolie coloration en l’absence de ses hôtes et dépérit.
Le mouton de mer est une curieuse limace de mer qui présente sur son dos des excroissances fusiformes vertes à pointe rose et jaune, appelées cérates. Cette espèce asiatique, qui mesure moins d’un centimètre, vit à faible profondeur. Elle parvient à ne pas digérer immédiatement les chloroplastes des algues chlorophylliennes qu’elle avale et à les faire migrer vers ses appendices dorsaux. Si le sujet est encore débattu, il semble que ces plastes continuent d’être fonctionnels et de fournir un complément en sucres bienvenu en période de disette.
Ce processus, appelé kleptoplastie (du grec kleptes, voleur), est connu, outre chez ces gastéropodes marins, chez deux autres vers plats et chez divers eucaryotes unicellulaires (certains foraminifères, dinoflagellės, ciliés, alvéolés), chez qui les plastes demeurent fonctionnels une semaine à deux mois après l’ingestion des algues.
Parente américaine de notre salamandre tachetée avec qui elle partage notamment une livrée noire rehaussée de points jaunes (la marque aposématique qu’elle est toxique), la salamandre maculée a noué, elle aussi, un partenariat avec une algue photosynthétique : Oophila amblystomatis.
L’œuf gélatineux dans lequel se développe l’embryon présente une coloration verte causée par la prolifération de l’algue. Il a été démontré expérimentalement que ces algues ont un effet très bénéfique sur la croissance et la survie des embryons de la salamandre, probablement grâce à l’oxygène que libère l’algue tandis que celle-ci bénéficie des déchets azotés produits par le métabolisme de l’embryon. Un véritable cas de symbiose donc.
Pendant plus d’un siècle, on a pensé que les algues présentes dans les mares fréquentées par l’amphibien colonisaient les œufs, mais l’imagerie de pointe associée à la recherche de l’ADN de l’algue dans les tissus des embryons a révélé une tout autre histoire : les algues envahissent les tissus de l’embryon durant son développement, où elles semblent s’enkyster.
La salamandre adulte continue d’ailleurs de contenir ces algues en vie ralentie, bien qu’en quantité de moins en moins importante avec le temps : on retrouve en particulier dans ses voies reproductrices et les femelles semblent capables de transmettre certaines d’entre elles directement à leurs œufs ! Les scientifiques cherchent encore à comprendre comment un vertébré est parvenu dans son évolution à se laisser envahir par une algue sans provoquer une attaque en règle de son système immunitaire !
À lire aussi : Les oiseaux migrent-ils vraiment à cause du froid ? Et font-ils le même trajet à l’aller et au retour ?
Frédéric Archaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 11:42
Jérôme Coullaré, Docteur en sciences de gestion, laboratoire IAE Paris Sorbonne, IAE Paris – Sorbonne Business School
Olivier Meier, Professeur des Universités, président de l'Observatoire ASAP, Université Paris-Est Créteil Val de Marne (UPEC)
Gare aux fausses promesses. Si les salariés semblent silencieux, des mouvements souterrains sont à l’œuvre qui pourraient aboutir à une nouvelle forme d’insurrection. Après le « quiet quitting » – ou démission silencieuse, le phénomène de « quiet fighting » pointe maintenant.
Alerte pour les grandes entreprises ! Le fossé entre les discours éthiques et les réalités opérationnelles nourrit à la fois un désengagement manifeste et une confrontation silencieuse qu’il faut traiter sans délai. À côté du quiet quitting, popularisé en 2022 comme la stricte limitation au périmètre du rôle et des efforts des collaborateurs, s’installe un quiet fighting plus insidieux, attisé par un sentiment d’injustice organisationnelle que le cadre théorique de Cropanzano et Folger permet de disséquer (cf. encadré 1).
Si les deux phénomènes possèdent un point commun, un déficit de justice interactionnelle, ces deux dynamiques ne forment pas un continuum. Quand le quiet quitting abaisse l’engagement au minimum, le quiet fighting combine dissidence empêchée et silence de résignation. L’une et l’autre peuvent préparer en sourdine à une confrontation avec l’entreprise. Notre enquête, prolongeant un premier travail réalisé dans le cadre d’une thèse de doctorat, établit que « l’hypocrisie organisationnelle » perçue autour des ambitions éthiques ouvre une brèche entre les entreprises et leurs collaborateurs, qui rejettent désormais l’éthique de façade.
Deux vagues d’entretiens approfondis, en 2024 et 2025 selon la méthode des incidents critiques, ont été conduites auprès d’une cinquantaine de collaborateurs volontaires dans le cadre d’une demande faite en commission « qualité de vie au travail » du Conseil social et économique d’un grand groupe du CAC 40. Plus de 120 incidents ont été recensés, croisant la vision de décideurs RH du siège (sur des sujets éthiques, diversité/discrimination) et de salariés d’une direction territoriale au plus près des opérations. Résultat clé : la majorité des situations relève aujourd’hui de sujets de « justice interactionnelle », bien davantage que de « justice distributive » ou « procédurale », telles qu’elles ont été conceptualisées par Cropanzano & Folger.
À lire aussi : « Quiet quitting » : au-delà du buzz, ce que révèlent les « démissions silencieuses »
Dans les organisations, les inégalités entre collaborateurs ne sont ni fortuites ni anormales. Elles sont souvent assumées, voire encouragées, comme des leviers d’incitation fondés sur la différenciation des performances et la hiérarchie des positions. Aux DRH d’en expliciter la légitimité et d’en travailler l’acceptabilité aux yeux des collaborateurs. Dans ce cadre, la grille des stratégies réactionnelles (Exit, Voice, Loyalty, Neglect) proposée par le socioéconomiste Albert Hirschman reste un outil utile pour éclairer les réactions des salariés face à des situations d’insatisfaction au travail (cf. encadré 2).
Or notre étude montre que cette grille, si utile pour repérer et gérer les réactions des collaborateurs, ne suffit plus. La nature des injustices se déplace et suscite de nouvelles stratégies réactionnelles chez les salariés. Ce ne sont plus seulement les règles ou la répartition des résultats qui sont contestées, mais l’écart entre les discours éthiques et les pratiques organisationnelles. Quand l’expérience dément la promesse, le « contrat psychologique » se fissure et la question devient morale, touchant l’identité, la dignité, et une responsabilité qui dépasse les conflits transactionnels. Notre étude montre que l’on ne « négocie » plus une injustice morale jugée illégitime ; on la refuse.
Dans ce contexte, l’approche par l’EVLN apparaît incomplète. Elle saisit justement mal la dimension morale des conflits et l’incohérence ente les politiques affichées et les pratiques. L’épreuve de réalité est amplifiée par les exigences de publication extra-financière imposée par la directive de durabilité (CSRD), la vigilance citoyenne face au diversity/social washing et, en toile de fond, la tension décrite par le juriste Alain Supiot entre l’entreprise marchandise (ius proprietatis) et l’entreprise communauté morale (ius societatis) (cf. encadré 3).
Plus une organisation revendique une raison d’être morale, plus elle doit en apporter la preuve ; sinon, la loyauté de ses collaborateurs se mue en allégeance à contrecœur, porteuse de ressentiment.
Depuis les ordonnances « travail » de 2017, l’affaiblissement des médiations et de « dialogue social » ouvre un espace aux minorités actives décrites par Serge Moscovici. Dans notre étude, nous constatons qu’elles sont emmenées par des femmes racisées en position de cadres intermédiaires : elles formulent des récits cohérents et assument le risque de dissidence, mais se heurtent à des procédures neutralisantes et à l’absence de relais hiérarchiques. Il en résulte une [ dissidence empêchée] qui s’appuie en partie sur les travaux de la sociologue Maryvonne David-Jougneau : une mobilisation collective inachevée, dont l’influence reste pour le moment sans effet transformateur, mais qui contribue à accroître l’expérience organisationnelle et la capacité d’agir de ces cadres et des collectifs qu’elles animent.
À l’autre pôle émerge une colère souvent masculine, silencieuse et résignée. Ancrée dans un idéal méritocratique, elle repose sur la conviction que la performance, à elle seule, devrait protéger et « parler d’elle-même », sans qu’il soit besoin de la revendiquer. Cette colère est renforcée par l’attente, souvent déçue, d’une réparation portée par la DRH. Mais lorsque les circuits correctifs internes sont lents, incertains, ou centrés sur la conformité plutôt que sur l’explication et la reconnaissance du tort, la trahison institutionnelle s’impose et l’attente des collaborateurs devient ressentiment, prémisse d’un désir de revanche à fort potentiel déstabilisateur.
Ce silence de résignation, n’est pas un signe de paix sociale : il est la traduction d’une résistance contrainte, une colère froide qui prépare la confrontation, nourrie par l’empilement de micro-injustices, la polarisation, l’usure des institutions de dialogue et l’ascension d’acteurs minoritaires déterminés. Si l’explosion n’advient pas, c’est moins par loyauté que par contraintes économiques et sociales.
À l’échelle managériale, l’exigence est claire : gouverner par la justice interactionnelle. Cette gouvernance implique de :
aligner promesses et pratiques organisationnelles ;
expliquer les décisions sensibles et prévoir des voies d’escalade claires et sûres (manager N+1/N+2 → RH/Business Partner → référent éthique → dispositif d’alerte interne), assorties de garanties explicites de protection : interdiction de toute mesure liée au signalement (blâme, sanction, rétrogradation, baisse de variable, modification de poste, mise à l’écart, licenciement), confidentialité et possibilité d’anonymat, restitution motivée ;
proposer des médiations internes crédibles (médiateur interne formé, IRP ou Employee Resource Group) et en dernier ressort, des recours externes balisés : Inspection du travail, Défenseur des droits), pour pallier la faiblesse des instances de représentation du personnel ;
installer des capteurs précoces (baromètres qualitatifs, création d’espaces de délibération protégés) pour « reconnaître et réparer vite » toute inégalité illégitime ;
intégrer des objectifs de justice interactionnelle dans la performance sociale des dirigeants ;
répondre à la demande croissante des sciences de gestion : rendre compte non seulement de la classique matérialité financière, mais également de la matérialité d’impact, (effets négatifs de l’entreprise sur les parties prenantes), confirmant l’injonction de Supiot d’un ius societatis à assumer.
Dans le sillage des travaux de la sociologue Laure Bereni, notre conclusion est une mise en garde aux organisations qui « jouent » encore avec l’éthique. L’écart entre discours et réalités, nourri par le social/diversity washing, alimente une conflictualité dans les organisations dont l’éthique devient l’étendard.
Le quiet fighting est un signal pré-insurrectionnel. Tandis que les coûts de sortie et l’incertitude du marché rendent l’exit improbable, le quiet fighting traduit une conflictualité interne croissante plutôt que des départs : ancré dans des enjeux moraux et identitaires, il s’exprime par une résistance à bas bruit et des coalitions discrètes. Les dirigeants disposent toutefois des leviers essentiels. Ils peuvent faire preuve plutôt que promettre, légitimer plutôt qu’imposer, soigner les interactions autant que les résultats. À ce prix, le quiet fighting s’éteindra et le conflit redeviendra une ressource. Répondre par la justice interactionnelle n’est pas un supplément d’âme mais une condition de viabilité sociale et économique et, désormais, un test décisif de crédibilité et de légitimité managériales.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.12.2025 à 11:41
François-Xavier de Vaujany, Professeur en management & théories des organisations, Université Paris Dauphine – PSL

Une étude internationale, impliquant des chercheurs français, états-uniens et brésiliens, a mis au jour une histoire méconnue. Des années 1920 aux années 1960, le management a contribué à faire des États-Unis la puissance hégémonique que l’on connaît aujourd’hui. Son « momentum » : la Seconde Guerre mondiale. Ses armes : les managers formés dans les grandes écoles, les outils d’aide à la décision et la technostructure de l’État fédéral.
Explorer des archives, c’est évoluer dans un monde à la fois silencieux et étrange vu d’aujourd’hui. Comme l’explique l’historienne Arlette Farge dans son livre le Goût de l’archive (1989), le travail de terrain des historiens est souvent ingrat, fastidieux, voire ennuyeux. Puis au fil de recoupements, à la lumière d’une pièce en particulier, quelque chose de surprenant se passe parfois. Un déclic reconfigurant un ensemble d’idées.
C’est exactement ce qui est arrivé dans le cadre d’un projet sur l’histoire du management états-unien (HIMO) débuté en 2017, impliquant une douzaine de chercheurs français, états-uniens et brésiliens.
Notre idée ? Comprendre le lien entre l’histoire des modes d’organisation managériaux du travail et les épisodes de guerre aux États-Unis. D’abord orientée vers le XXe siècle, la période d’étude a été resserrée des années 1920 à la fin des années 1960, avec comme tournant la Seconde Guerre mondiale.
Au début de notre recherche en 2017, nous nous sommes demandé ce qui guidait cette métamorphose du management des années 1920 aux années 1960.
Au commencement était le taylorisme. On attribue à l’ingénieur américain Frederick Winslow Taylor (1856-1915) l’invention d’une nouvelle organisation scientifique du travail dans The Principles of Scientific Management. Ce one best way devient la norme. Au cœur de cette division du travail, la mutation des rôles des contremaîtres est essentielle.
Leur fonction est d’abord de s’assurer à la fois de la présence des ouvriers et du respect des gestes prescrits par les dirigeants. Avec le management, une révolution copernicienne est en marche. Les contremaîtres sont progressivement remplacés par les techniques de management elles-mêmes. Le contrôle se fait à distance, et devient de l’autocontrôle. Des outils et des systèmes d’information sont développés ou généralisés, comme les pointeuses. Peu à peu, toutes ces informations sont connectées à des réseaux… qui dessinent ce qui deviendra des réseaux informatiques. L’objectif : suivre l’activité en temps réel et créer des rapports à même d’aider les managers dans leur prise de décision.
C’est ce que la philosophie nomme le représentationnalisme. Le monde devient représentable, et s’il est représentable, il est contrôlable. Sur un temps long, de nombreux outils de gestion de projet sont créés comme :
le diagramme de Gantt, formalisé et diffusé dans les années 1910 par l’ingénieur du même nom, afin de visualiser dans le temps les diverses tâches ;
le Program Evaluation and Review Technic (PERT), élaboré dans les années d’après-guerre pour analyser et représenter les tâches impliquées ;
ou les Key Performance Indicators (KPI), des indicateurs utilisés pour l’aide à la décision.
Nombre de ces techniques ou standards de management ont une genèse américaine comme l’ont montré notamment les travaux de Locke et Spender, Clegg, Djelic ou D’Iribarne. Des années 1910 aux années 1950, une importance croissante est accordée à la visualisation des situations.
À lire aussi : Les origines néolibérales de la mondialisation : retour sur l’émergence d’un ordre géopolitique aujourd’hui menacé
Notre intuition d’une obsession pour la représentation s’est affinée avec l’exploration d’archives liées aux réseaux du management, de l’Academy of Management, l’American Management Association, et la Society for Advancement of Management.
Dans son introduction de la conférence de l’Academy of Management de 1938, l’économiste Harlow Person, acteur clé de la Taylor Society, revient sur le rôle joué par la visualisation. Concrètement, une mission d’amélioration des processus administratifs est réalisée pour l’armée américaine durant la Première Guerre mondiale. L’organisation scientifique du travail déploie plus que jamais ses outils au-delà des chiffres et du texte.
Pendant la Seconde Guerre mondiale, l’obsession pour la représentation est au cœur de la stratégie militaire des États-Unis, en synergie vraisemblablement avec le management. Par exemple, la carte d’état-major doit représenter la situation la plus fidèle possible au champ de bataille. Chaque drapeau, chaque figurine représentant un bataillon ami ou ennemi, doit suivre fidèlement les mouvements de chacun lors du combat. Toutes les pièces évoluant en temps réel permettent au généralissime de prendre les meilleures décisions possibles.
Un président des États-Unis incarne cette rupture managériale dans la sphère politique : Franklin Roosevelt. Secrétaire assistant à la Navy dans sa jeunesse, il assimile l’importance des techniques d’organisation dans les arsenaux maritimes de Philadelphie et New York, pour la plupart mis en œuvre par les disciples de Frederick Winslow Taylor.
Après la crise de 1929, la mise en place de politiques centralisées de relance a pour conséquence organisationnelle d’installer une technostructure. Plus que jamais, il faut contrôler et réguler l’économie. Un véritable État fédéral prend naissance avec la mobilisation industrielle initiée dès 1940.
Lorsque le New Deal est mis en place, Franklin Roosevelt comprend que le management peut lui permettre de changer le rapport de force entre pouvoir exécutif et pouvoir législatif. Progressivement, il oppose la rationalité de l’appareil fédéral et son efficience à la logique plus bureaucratique incarnée par le Congrès. Concrètement, les effectifs de la Maison Blanche passent de quelques dizaines de fonctionnaires avant la Seconde Guerre mondiale à plus de 200 000 en 1943.
Le président des États-Unis dispose désormais de l’appareil nécessaire pour devenir « l’Arsenal de la démocratie », à savoir l’appareil productif des Alliés. Cette transformation contribue à faire des États-Unis la première puissance militaire mondiale au sortir de la Seconde Guerre mondiale, alors qu’elle n’était que 19e avant son commencement.
Au-delà d’une obsession nouvelle pour la représentation tant organisationnelle que politique, la seconde dimension mise en lumière par cette recherche sur l’histoire du management est plus inattendue. Elle porte sur la mise en place d’une véritable géopolitique états-unienne par le management. Notre travail sur archive a permis de mieux comprendre la genèse de cette hégémonie américaine.
La standardisation des formations au management, en particulier par des institutions telles que la Havard Business School, a contribué subtilement à cette géopolitique américaine. Tout le développement de la connaissance managériale se joue sur le sol des États-Unis et l’espace symbolique qu’il étend sur le reste du monde, du MBA aux publications académiques, dont les classements placent aujourd’hui systématiquement les revues états-uniennes au sommet de leur Olympe.
Il en va de même pour le monde des cabinets de conseil en management de l’après-guerre, dominé par des structures américaines, en particulier pour la stratégie. En 1933, le Glass-Steagall Act impose aux banques la séparation des activités de dépôt de celles d’interventions sur les marchés financiers et de façon connexe, et leur interdit d’auditer et de conseiller leurs clients. Cela ouvre un espace de marché : celui du conseil externe en management, bientôt dopé par la mobilisation industrielle puis la croissance d’après-guerre.
Des cabinets se développent comme celui fondé par James McKinsey en 1926, professeur de comptabilité à l’université de Chicago. Son intuition : les entreprises souffrent d’un déficit de management pour surmonter la Grande Dépression et croître après la Seconde Guerre mondiale. De nombreux cabinets suivent cette tendance comme le Boston Consulting Group créé en 1963.
Un des points les plus frappants de notre recherche est la conséquence du management sur le corps pendant le momentum de la Seconde Guerre mondiale. Plus de 86 000 citoyens des États-Unis meurent dans les usines entre 1941 et 1945, 100 000 sont handicapés sévères et plus de 500 000 sont blessés au travail.
Une partie de nos archives sur le Brooklyn Navy Yard de New York l’illustre tristement. Dans le silence, chacun et chacune acceptent une expérience de travail impossible en considérant que leur fils, leur maris, leurs neveux, leurs amis au combat vivaient des situations certainement bien pires. Le management se fait alors patriote, américain et… mortifère.
Au final, les managers ont continué à taire une évidence tellement visible qu’on ne la questionne que trop peu : celle de l’américanité de ce qui est également devenu « nos » modes d’organisation. Au service d’une géopolitique américaine par le management.
Le projet de recherche HIMO (History of Instittutional Management & Organization) mentionné dans cet article a reçu des financements du PSL Seed Fund, de QLife et des bourses de mobilité de DRM.
15.12.2025 à 11:41
Benoît Meyronin, Professeur senior à Grenoble Ecole de Management, Grenoble École de Management (GEM)

« À chaque jour suffit sa peine », « Rendre à César ce qui est à César », « Que chacun balaie devant sa porte », « À l’impossible nul n’est tenu », « Aide-toi et le ciel t’aidera », ces cinq proverbes irriguent notre quotidien et notre vie au travail. Que disent-ils de notre façon de concevoir le management ?
Le proverbe trouve son origine dans l’Évangile de Jésus-Christ selon saint Matthieu.
Bien sûr, le manager qui ne chercherait pas à anticiper ne remplirait pas totalement son rôle. Mais réaffirmer que chaque journée est en soi une fin, qu’il ne faille pas empiler les difficultés probables ou à venir, est aussi une manière de les traiter dans l’ordre, sans s’y perdre et sans perdre son équipe. Pour le dire autrement, il y a une gestion des temporalités qui nous invite à qualifier et requalifier, sans cesse et avec exigence, les urgences, en les distinguant de ce qui est important – comme nous invite la matrice d’Eisenhower.
Par exemple, la gestion inadaptée des courriels, qui sont pourtant, comme le rappelle la chercheuse en sciences de l’information et de la communication Suzy Canivenc, des outils de communication asynchrone (en dehors du temps réel), illustre notre incapacité à bien gérer notre temps.
Le rôle d’un manager n’est pas nécessairement de tout traiter, de tout lire, d’apporter à toute demande une réponse, de décider de tout. Un temps de germination peut être le bienvenu pour, tout à la fois, laisser se dissoudre d’elles-mêmes certaines requêtes (l’émetteur ayant trouvé la réponse par lui-même ou par une autre voie), voire, qu’une posture managériale souhaitable est précisément de ne pas donner réponse ou audience à tout.
Laisser « reposer à feu doux » un sujet problématique est une façon de ne pas traiter dans l’urgence, et de s’ôter le stress associé. S’en remettre au lendemain, c’est alors faire confiance à cette part de nous-mêmes qui, même au repos, fait que notre cerveau continue à œuvrer.
Cet emprunt à l’Évangile selon saint Luc pourrait nous inspirer cette réflexion : que chacun se contente de s’attirer les louanges qu’il mérite, sans éprouver le besoin de s’approprier celles d’autrui.
Si la reconnaissance est un enjeu majeur, il semble hélas que nombre d’organisations ont « la mémoire courte ». Elles oublient d’où elles viennent, ce qu’elles ont entrepris, et à qui elles le doivent. Les inspirateurs, les pionniers, les innovateurs ou les transformateurs n’ont pas toujours la reconnaissance qu’ils méritent. Prendre le temps de remercier, aussi, le concours d’un service support (l’informatique, les achats ou la communication), sans lequel un projet n’aurait pu être mené à bien, peut figurer ici.
Si l’on admet avec Adam Smith dans la Théorie des sentiments moraux et Axel Honneth dans la la Lutte pour la reconnaissance, que la reconnaissance est l’un des moteurs de nos vies, alors il convient de garder la trace, de n’oublier aucune contribution dans une réussite qui ne peut, jamais, être le fruit d’une seule entité et d’une seule personne.
L’exemplarité, comme le précise la professeure en comportement organisationnel Tessa Melkonian, invite à la congruence. Soit cet alignement entre ce que je dis, ce que je fais et ce que je communique de façon explicite et implicite. Un manager est reconnu pour sa capacité à incarner les valeurs et les postures attendues de chacun, à montrer la voie quand une décision nouvelle doit s’appliquer au collectif de travail.
De même, avant de prononcer une critique, il doit veiller à ce que sa propre pratique ne puisse faire l’objet d’une semblable observation. Devoir être exemplaire en tout requiert de l’énergie, de l’attention, de la constance. C’est une discipline, sans laquelle l’exigence devient un vœu pieux. Mais elle fonctionne dans une logique de réciprocité : ses collaborateurs doivent pouvoir eux-mêmes démontrer leur exemplarité avant de l’exposer à leurs propres critiques.
Certaines missions, certaines tâches, excèdent les capacités d’une personne ou d’un collectif. Il est essentiel de le rappeler, dans une époque marquée par la quête de l’exploit et les logiques de « performance ».
Dans ce contexte, oser dire que l’échéance n’est pas tenable, sauf à dégrader la qualité des tâches (ce qui, dans certaines circonstances, peut parfaitement être audible), témoigne plutôt d’une forme de courage. Cette posture implique des contre-propositions, une voie de sortie, et non seulement une fin de non-recevoir.
Le droit à l’erreur prend ici toute sa place. Reconnaître aux équipes et se reconnaître ce même droit en tant que leader, comme nous y invite Tessa Melkonian, c’est l’un des marqueurs de l’époque. Comment rassurer une équipe sur ce droit si le manager lui-même ne sait pas évoquer ses propres échecs et ne s’autorise par des essais-erreurs ?
Il s’agit bien d’oser dire que l’on s’est trompé, que l’on a le droit de se tromper, mais le devoir de réparer, et, surtout, de ne pas reproduire la même erreur. Ici, plus qu’ailleurs peut-être, l’exemplarité managériale aurait un impact fort : entendre un dirigeant reconnaître publiquement une erreur pourrait faire beaucoup. L’ouvrage Un pilote dans la tempête, paru récemment, de Carlos Tavares, l’ancien PDG de Stellantis, constitue un témoignage éloquent de cette absence de remise en question – notamment pour ce qui concerne les décès dus aux dysfonctionnements de certains airbags.
Ce proverbe popularisé par Jean de La Fontaine dans le Chartier embourbé introduit la notion de care en management. Issue des travaux pionniers de la psychologue Carol Gilligan, cette forme d’éthique nous invite à considérer les relations entre humains à travers le prisme de la vulnérabilité, de facto du soin, reçu et prodigué.
Comme nous le dit le philosophe Éric Delassus :
« L’incapacité à assumer sa vulnérabilité est la cause d’un grand nombre de difficultés dans le monde du travail, tant pour les managers que pour les managés. […] Qu’il s’agisse de difficulté propre au travail ou concernant la compatibilité entre vie professionnelle et vie personnelle ou familiale, on n’ose en parler ni à ses pairs ni à ses supérieurs de peur de passer pour incompétent, pour faible ou incapable. […] Alors, qu’en revanche, si chacun percevait sa propre vulnérabilité et celle des autres avec une plus grande sollicitude, personne n’hésiterait à demander de l’aide et à aider les autres. »
Il s’agit bien d’oser, simplement, requérir l’aide d’un collègue. En entreprise, demander un soutien demeure complexe. L’éthique du care nous ouvre une perspective inédite et bienvenue : aide ton prochain et réciproquement, sollicite son aide. Car l’autre ne m’aidera que si je lui permets de le faire, si j’accepte donc de me révéler dans toute ma vulnérabilité.
Benoît Meyronin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.12.2025 à 11:40
Patrice Bouvet, Maitre de conférences HDR en économie et management du sport, Université de Poitiers
Même si l’argent joue un rôle important dans le sport de haut niveau, la gestion d’un club sportif, ni vraiment différent ni vraiment semblable à une autre entreprise, obéit à des contraintes particulières. Les raisons ne manquent pas pour expliquer pourquoi leur management ne peut être identique.
Du fait de la professionnalisation de l’univers du sport, la gestion d’un club sportif professionnel (CSP) semble tout à fait comparable à celle d’une entreprise. En France, dans les années 1990-2000, Anny Courtade, à la fois PDG de Locasud (la centrale d’achat des magasins Leclerc dans le sud-est de la France) et du Racing Club de Cannes (volley-ball féminin) a par exemple souvent été présentée comme un brillant exemple de réussite combinée.
Au vu de cet exemple, le transfert de compétences semble assez simple : il faut s’inspirer des facteurs clés de succès existants dans le monde des affaires, en s’adaptant à l’environnement du sport. Et pourtant… Nombreux sont, à l’inverse, les chefs d’entreprise (Laurent Tapie, Laurent Platini, Peter Lim…) qui ont brillamment réussi dans leurs activités professionnelles mais qui ont échoué dans le domaine sportif. Un argument souvent avancé pour expliquer ces échecs est l’aveuglement qui serait lié à la passion conduisant à des problèmes de gouvernance. Notre vision des choses est quelque peu différente pour les sports collectifs.
Si le management d’un club sportif professionnel (CSP) ne peut pas emprunter les mêmes voies qu’une entreprise classique, c’est d’abord parce que ces deux types d’organisation ne se ressemblent pas autant qu’il pourrait sembler de premier abord.
Les contraintes à gérer sont très différentes, à commencer par le cadre juridique. Si, comme toutes les entreprises, les CSP peuvent choisir des statuts juridiques (SASP ou SARL sportives), ils doivent aussi créer une association sportive pour être affiliés à leur fédération de tutelle. Un lien de dépendance en résulte, notamment en cas de conflit entre l’association et la société commerciale. Cette délégation obligatoire de l’activité professionnelle leur est imposée par le Code du sport (article 2 122-1 et suivants) qui diffère du code de commerce sur de nombreux points. Les modes de régulation sont aussi différents.
Une autre divergence cruciale concerne l’exposition médiatique : faible pour la majorité des chefs d’entreprise, elle est très forte pour les dirigeants des CSP. Cela produit des obligations très éloignées. À la différence d’un chef d’entreprise qui communique rarement auprès d’un large public mais plutôt auprès d’acteurs ciblés (collaborateurs, actionnaires, fournisseurs, clients…), les décisions, les déclarations, les réactions d’un président de CSP sont scrutées en permanence et peuvent générer de nombreuses crises (médiatiques, avec les supporters, les partenaires…).
À lire aussi : Pernod Ricard et le PSG : quand le territoire se rappelle à l’entreprise
Par répercussion, les horizons temporels de l’action s’opposent : de très court-terme pour un président de CSP, plus lointain pour un chef d’entreprise. Ces différences influent sur leur notoriété, leur popularité, leurs relations avec les parties prenantes et donc leurs motivations. Souvent inconnues du grand public, celles-ci finissent souvent par transparaître et donc par avoir des conséquences sur la légitimité des uns et des autres. Les chefs d’entreprise tirent leur légitimité de leur efficacité économique et de la confiance inspirée aux investisseurs. Celle des présidents de CSP repose sur une combinaison beaucoup plus fragile entre légitimité institutionnelle, populaire, sportive et même souvent symbolique.
La majorité des CSP ambitionnent de maximiser leurs résultats sportifs (se maintenir dans la division dans laquelle ils évoluent, participer aux compétitions européennes) sous contrainte économique (du fait de leur budget ou des décisions des instances de régulation. Les entreprises cherchent à maximiser leurs résultats économiques en prenant en compte les contraintes réglementaires des pays où ils sont implantés.
Indirectement, cela produit un rapport différent à l’incertitude. Les chefs d’entreprise mobilisent des techniques pour la limiter. Les présidents de CSP font de même dans leur gestion courante mais souhaitent la voir perdurer au niveau sportif – on parle même de la glorieuse incertitude du sport- pour maintenir l’intérêt des compétitions et donc des spectacles sportifs.
Autre différence : les marchés sur lesquels interviennent les entreprises sont le plus souvent libres et ouverts, les marchés sur lesquels évoluent les CSP sont davantage encadrés. L’existence de ces réglementations résulte en partie de la nature de la production : elle est jointe. Un CSP ne peut pas produire seul une rencontre sportive, il faut a minima deux équipes pour un match. Cela implique, obligatoirement, une forme de coopération entre les concurrents alors que les entreprises peuvent librement décider de leur stratégie.
Ces différences induisent que le management des unes et des autres ne peut pas être le même. Au niveau stratégique, la première différence, concerne la temporalité. Pour les chefs d’entreprise, l’horizon est le moyen ou long terme ; pour les présidents de CSP la saison sportive, soit plus qu’un trimestre. Dans ce domaine, la nature même de l’activité impose une gestion temporelle réactive avec de fréquents ajustements en fonction des blessures, des résultats, de l’évolution de l’effectif.
À l’inverse, dans de nombreuses entreprises, la notion de planification conserve un intérêt. Plus précisément, dans les CSP la diversification, est la seule option envisageable, la stratégie volume/coût étant hors de portée puisqu’il n’est pas possible d’augmenter de façon importante le nombre de matchs joués, ni de réduire drastiquement les coûts de fonctionnement, la majorité d’entre eux étant fixes.
En ce qui concerne le marketing et la gestion commerciale, si la majorité des entreprises définissent et choisissent un positionnement, peu de CSP le font. Les déterminants de l’image de marque diffèrent sur de nombreux points. Il en va de même des déterminants de la valeur perçue et donc indirectement de l’attractivité.
Beaucoup plus que dans les entreprises, l’histoire du club joue un rôle dans la perception de la valeur de la marque par les « clients-fans », valeur difficile à apprécier. Les « expériences client » divergent également : elles sont « classiques » dans les entreprises ; dans les CSP « immersives ». Les interactions qui apparaissent entre les fans d’un club (simples spectateurs, supporters, partenaires, élus..) sont primordiales. Ces interactions n’existent quasiment pas dans les entreprises.
Du fait du caractère aléatoire de l’activité de « spectacle sportif », les CSP ont des difficultés pour obtenir d’importants concours bancaires. D’autres sources de financement doivent être recherchées. Trois se dégagent clairement :
la commercialisation de nombreux droits (entrés, TV, image, exposition, appellation, numériques) ;
l’apport en compte courant d’actionnaires ;
à cela s’ajoute pour le football, le trading joueurs soit la pratique consistant à vendre une partie des actifs immatériels détenus par les clubs, c’est-à-dire, certains joueurs « sous contrat ».
En dépit du recours à ces possibilités, l’équilibre budgétaire n’est pas toujours atteint en fin de saison dans les CSP. L’une des causes principales, qui distingue fondamentalement ce secteur de la majorité des autres, réside à la fois dans l’importance des coûts salariaux et dans leur caractère quasiment incompressibles.
Pour ce qui est des ressources humaines, les mutations reposent sur des principes différents. Tout d’abord en ce qui concerne l’agenda : possible à tout moment dans l’entreprise, limitées à des périodes précises (mercato) dans les CSP. Les sommes engagées diffèrent également. Dans les entreprises, elles sont plus ou moins explicitement déterminées par des « grilles », dans les CSP elles sont le fruit d’âpres négociations.
Par ailleurs, dans les premières, le plus souvent la décision est prise par l’employeur. Elle l’est fréquemment par les joueurs dans les CSP, ce qui confronte les présidents de club à un dilemme spécifique : faut-il « laisser filer » le joueur au risque d’affaiblir l’équipe ou, au contraire, faut-il le conserver dans l’effectif contre sa volonté, au risque qu’il soit moins performant ?
La question des rémunérations se pose également dans des termes distincts, les possibilités de mesure de la productivité, l’influence de la médiatisation et le rôle des agents de joueurs en étant les principales explications.
Patrice Bouvet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.12.2025 à 17:59
David Monniaux, Chercheur en informatique, Centre national de la recherche scientifique (CNRS), Université Grenoble Alpes (UGA)
Fin octobre, Airbus demande aux compagnies aériennes de maintenir au sol 6 000 A320, à la suite d’un incident survenu en vol. L’entreprise l’explique par une mise à jour logicielle qui serait plus sensible aux rayonnements cosmiques. Si ce genre de problèmes existe, ils sont cependant détectés immédiatement en temps normal.
Le 30 octobre dernier, un vol de Cancún vers le New Jersey de la compagnie JetBlue a rapidement chuté en plein vol, avant que les pilotes puissent rétablir sa trajectoire, au bout de quelques secondes. Après un atterrissage en urgence en Floride, quelques passagers ont reçu des soins. À la suite de cet incident, Airbus a dû changer en urgence un logiciel de pilotage dans 6000 appareils de la famille A320. On a évoqué une « perturbation par une particule isolée » et le rôle des éruptions solaires. Qu’en est-il ?
Le palliatif proposé par Airbus est de faire revenir la version de certains logiciels de pilotage à une version antérieure. Sur les forums spécialisés, on spécule sur les causes techniques de ce dysfonctionnement, sur d’éventuelles fonctionnalités ajoutées entre ces deux versions, qui seraient insuffisamment protégées contre les effets que des rayonnements cosmiques peuvent avoir dans les composants informatiques. Il vaut mieux, toutefois, attendre le rapport officiel de l’enquête sur l’incident. En attendant, nous pouvons revenir sur l’explication invoquée et en quoi elle peut surprendre.
La Terre est en permanence bombardée par des particules venant de l’espace – du Soleil ou de corps plus lointains. La plupart de ces particules sont déviées par le champ magnétique terrestre, une autre partie est absorbée ou transformée par l’atmosphère, mais certaines d’entre elles peuvent atteindre la surface terrestre. Elles forment une partie de la radioactivité naturelle, et sont plus abondantes en périodes d’éruption solaire.
Ces particules arrivant de l’espace ont des effets variés. Dans les régions polaires, moins protégées par le champ magnétique terrestre, elles provoquent de magnifiques aurores dans le ciel de nuit. On leur attribue également les flashes lumineux que les astronautes perçoivent dans leurs yeux. Comme il s’agit de rayonnements ionisants, les particules reçues peuvent avoir des effets sur la santé. Ainsi, Thomas Pesquet, en six mois de séjour dans la station spatiale internationale, a bien dépassé le quota annuel maximum d’exposition aux radiations permis pour un travailleur français.
Les particules issues de l’espace peuvent provoquer des dysfonctionnements dans les circuits électroniques. Par exemple, dans les années 1990, des composants électroniques de puissance, notamment conçus pour des trains, grillaient pour des raisons mystérieuses. Pour trier parmi les diverses hypothèses envisagées, on a essayé ces composants à la surface et dans une mine de sel, sous 140 mètres de roche : les problèmes ne se produisaient pas dans la mine ! Une fois le problème identifié, on a pu concevoir des composants et des modes d’utilisation beaucoup moins vulnérables.
Il est plus courant que, plutôt que de griller un composant, les particules modifient une donnée qui y est stockée. Les ordinateurs retiennent les informations sous forme de 0 et de 1, et une particule peut provoquer le basculement d’un 0 en 1 ou l’inverse, ce qu’on appelle une « perturbation par une particule isolée », ou single event upset en anglais.
En 2003, dans la commune belge de Schaerbeek, une liste a obtenu lors d’une élection un excès de précisément 4 096 voix, ce qui correspond exactement au basculement d’un 0 en 1 à l’intérieur d’un nombre écrit en binaire. Un tel basculement s’expliquerait par un single event upset.
Bien évidemment, et notamment pour les applications aérospatiales, particulièrement exposées, on a développé des parades. Certaines parades sont matérielles : par exemple, les mémoires vives peuvent être munies de codes correcteurs d’erreurs fondés sur du matériel spécifique pour coder et décoder très rapidement. C’est habituellement le cas de la mémoire vive des serveurs, les machines qui stockent des données dans les data centers, mais pas des ordinateurs de bureau ou des portables, du fait de leur coût. Ces codes permettent de corriger à coup sûr certaines erreurs et, dans d’autres cas, d’au moins signaler qu’il s’est passé quelque chose d’incorrect.
D’autres parades sont logicielles : procéder régulièrement à certaines vérifications, dupliquer des données à conserver sur de longues durées, éviter de garder trop longtemps des données dans des mémoires vulnérables, enregistrer certaines informations importantes d’une façon telle que le basculement d’un chiffre fournit une valeur absurde, donc détectable… Les possibilités sont nombreuses. Il y a par ailleurs des protocoles de test, y compris consistant à placer les circuits dans le faisceau d’un accélérateur de particules (grand instrument de sciences physiques).
Voyons maintenant les implications pour l’aviation. La transmission des ordres des pilotes de ligne à leurs gouvernes, les parties mobiles de l’avion qui permettent de contrôler sa trajectoire, se faisait historiquement par des systèmes de câbles, de poulies ou de circuits hydrauliques assez compliqués. Il faut en plus assurer la redondance, c’est-à-dire prévoir plusieurs modes de transmission en cas de panne. Depuis les années 1980, les nouveaux modèles d’avions utilisent des commandes de vol électriques, c’est-à-dire que ces transmissions mécaniques sont remplacées par des câblages et des calculateurs électroniques.
Ces calculateurs diminuent la charge de pilotage (ils automatisent des actions que les pilotes devraient sinon faire manuellement) et augmentent ainsi la sécurité. Ils peuvent vérifier si les pilotes commandent une manœuvre qui sortirait l’avion du domaine des manœuvres qu’il peut faire en sécurité, et peuvent par exemple prévenir le décrochage. La panne qui a valu le rappel des avions Airbus concerne un calculateur appelé ELAC, qui commande les élévateurs et les ailerons, qui sont respectivement des gouvernes situées sur le stabilisateur arrière de l’avion et sur l’arrière du bout des ailes.
Un point qui peut tout d’abord nous rassurer est que les problèmes de particules venues de l’espace se produisent plutôt à haute altitude, lorsqu’il y a moins d’atmosphère protectrice, alors que les étapes les plus dangereuses dans un vol sont plutôt le décollage et l’atterrissage. Ceci n’excuse cependant pas le dysfonctionnement constaté. Voyons un peu pourquoi ce problème n’aurait pas dû se produire.
Les calculateurs informatisés d’aviation civile sont classés, suivant les standards internationaux de l’aviation civile, en cinq niveaux de criticité, selon la sévérité des conséquences possibles d’un dysfonctionnement : du niveau A, où un dysfonctionnement peut provoquer une catastrophe aérienne, au niveau E, où il n’y aurait pas de conséquences pour la sécurité de l’aéronef. Les commandes de vol électriques sont du niveau A, elles sont donc soumises aux normes les plus sévères. On peut donc raisonnablement supposer que les commandes de vol des A320 sont équipées de mécanismes de détection et/ou de remédiation de dysfonctionnements, y compris dus aux radiations.
Sur les Airbus A330/A340, par exemple, il existe deux niveaux de commande de vol, primaires et secondaires. Il y a trois boîtiers de commandes primaires, et lorsqu’un boîtier a subi un problème, il est temporairement désactivé – ce n’est pas grave, car il en a deux autres pour le relayer. S’il y avait un problème générique sur les commandes primaires, on pourrait fonctionner avec les commandes secondaires, qui utilisent d’autres types de composants.
Chaque boîtier de commande de vol primaire consiste en deux calculateurs, l’un qui commande les gouvernes, l’autre qui surveille celui qui commande – ils doivent produire environ les mêmes résultats, sinon le système détecte que quelque chose ne va pas. Normalement, sur un tel système, en cas de dysfonctionnement d’un des calculateurs, le problème est rapidement détecté, le boîtier est désactivé, on passe sur un autre et une chute comme celle qui s’est passée en octobre est impossible.
J’ai personnellement travaillé sur l’analyseur statique Astrée, un outil destiné à vérifier que des logiciels de contrôle ne se mettent jamais dans des situations d’erreur. Il a notamment été utilisé par Airbus sur ses commandes de vol électriques. J’ai eu l’occasion, au fil des années, d’apprécier le sérieux et la volonté de cette société de se doter d’approches à la pointe de l’état de l’art en matière de technologies logicielles, notamment de vérification formelle.
Plus récemment, j’ai également travaillé sur des contre-mesures à des erreurs de fonctionnement informatique provoquées volontairement à l’aide de rayonnements électromagnétiques. Il existe en effet la possibilité que des personnes induisent volontairement des pannes afin de les exploiter dans un but frauduleux, c’est donc nécessaire de travailler à prévenir ces tentatives pour des cartes à puce et d’autres équipements sécurisés.
L’hypothèse qu’il s’agisse bien d’une perturbation par une particule isolée reste plausible, mais il est surprenant qu’il ait fallu plusieurs secondes pour traiter le problème. Le système de sécurité du boîtier de commande affecté par l’irradiation aurait dû détecter l’incident, le boîtier touché aurait dû être automatiquement désactivé et l’avion basculé sur un autre, en secours. Il faut donc attendre d’autres éléments pour déterminer si c’est la bonne explication, et comment cela a pu alors se produire, ou si d’autres scénarios sont à envisager.
David Monniaux a reçu des financements de l'ANR (PEPR Cybersécurité). En tant que co-développeur de l'analyseur Astrée, il touche une prime d'intéressement à la valorisation de ce logiciel, donc à ses ventes.
14.12.2025 à 17:58
Tiziano Piccardi, Assistant Professor of Computer Science, Johns Hopkins University

Les fils d’actualité des réseaux sociaux sont conçus pour capter notre attention. Mais de simples ajustements dans les algorithmes qui les sous-tendent permettent d’apaiser le débat public.
Réduire la visibilité des contenus polarisants dans les fils d’actualité des réseaux sociaux peut diminuer de manière tangible l’hostilité partisane. Pour parvenir à cette conclusion, mes collègues et moi avons développé une méthode permettant de modifier le classement des publications dans les fils d’actualité, une opération jusque-là réservée aux seules plateformes sociales.
Le réajustement des fils pour limiter l’exposition aux publications exprimant des attitudes anti-démocratiques ou une animosité partisane a influencé à la fois les émotions des utilisateurs et leur perception des personnes ayant des opinions politiques opposées.
Je suis chercheur en informatique spécialisé dans l’informatique sociale, l’intelligence artificielle et le web. Comme seules les plateformes de réseaux sociaux peuvent modifier leurs algorithmes, nous avons développé et rendu disponible un outil web open source permettant de réorganiser en temps réel les fils d’actualité de participants consentants sur X, anciennement Twitter.
S’appuyant sur des théories des sciences sociales, nous avons utilisé un modèle de langage pour identifier les publications susceptibles de polariser les utilisateurs, par exemple celles prônant la violence politique ou l’emprisonnement des membres du parti adverse. Ces publications n’étaient pas supprimées ; elles étaient simplement classées plus bas dans le fil, obligeant les utilisateurs à défiler davantage pour les voir, ce qui a réduit leur exposition.
Nous avons mené cette expérience pendant dix jours, dans les semaines précédant l’élection présidentielle américaine de 2024. Nous avons constaté que limiter l’exposition aux contenus polarisants améliorait de manière mesurable ce que les participants pensaient des membres du parti adverse et réduisait leurs émotions négatives lorsqu’ils faisaient défiler leur fil d’actualité. Fait notable, ces effets étaient similaires quel que soit le parti politique, ce qui suggère que l’intervention bénéficie à tous les utilisateurs, indépendamment de leur affiliation.
Une idée reçue veut que l’on doive choisir entre deux extrêmes : des algorithmes basés sur l’engagement ou des fils purement chronologiques. En réalité, il existe un large éventail d’approches intermédiaires, selon les objectifs pour lesquels elles sont optimisées.
Les algorithmes de fil d’actualité sont généralement conçus pour capter votre attention et ont donc un impact significatif sur vos attitudes, votre humeur et votre perception des autres. Il est donc urgent de disposer de cadres permettant à des chercheurs indépendants de tester de nouvelles approches dans des conditions réalistes.
Notre travail ouvre cette voie : il montre comment étudier et prototyper à grande échelle des algorithmes alternatifs, et démontre qu’avec les grands modèles de langage (LLM), les plateformes disposent enfin des moyens techniques pour détecter les contenus polarisants susceptibles d’influencer les attitudes démocratiques de leurs utilisateurs.
Tester l’impact d’algorithmes alternatifs sur des plateformes actives est complexe, et le nombre de ces études n’a augmenté que récemment.
Par exemple, une collaboration récente entre des universitaires et Meta a montré que passer à un fil chronologique n’était pas suffisant pour réduire la polarisation. Un effort connexe, le Prosocial Ranking Challenge dirigé par des chercheurs de l’Université de Californie à Berkeley, explore des alternatives de classement sur plusieurs plateformes pour favoriser des résultats sociaux positifs.
Parallèlement, les progrès dans le développement des LLM permettent de mieux modéliser la façon dont les gens pensent, ressentent et interagissent. L’intérêt croît pour donner davantage de contrôle aux utilisateurs, en leur permettant de choisir les principes qui guident ce qu’ils voient dans leur fil – par exemple avec Alexandria, une bibliothèque des valeurs pluralistes ou le système de réorganisation de fil Bonsai. Les plateformes sociales, telles que Bluesky et X, s’orientent également dans cette direction.
Cette étude n'est qu'un premier pas vers la conception d’algorithmes conscients de leur impact social potentiel. De nombreuses questions restent ouvertes. Nous prévoyons d’étudier les effets à long terme de ces interventions et de tester de nouveaux objectifs de classement pour traiter d’autres risques liés au bien-être en ligne, comme la santé mentale et le sentiment de satisfaction. Les travaux futurs exploreront comment équilibrer plusieurs objectifs – contexte culturel, valeurs personnelles et contrôle par l’utilisateur – afin de créer des espaces en ligne favorisant des interactions sociales et civiques plus saines.
Retrouvez dans le Research Brief de The Conversation US une sélection travaux académiques en cours résumés par leurs auteurs.
Cette recherche a été partiellement financée par une subvention Hoffman-Yee du Stanford Institute for Human-Centered Artificial Intelligence.
14.12.2025 à 11:49
Giada Pizzoni, Marie Curie Research Fellow, Department of History, European University Institute
Blagues obscènes, questions intrusives, gestes déplacés : les archives inquisitoriales du Vatican montrent que le harcèlement sexuel au confessionnal était une réalité pour de nombreuses femmes dans l’Italie du XVIIIᵉ siècle – et que certaines ont osé le signaler.
L’Institut européen pour l’égalité entre les hommes et les femmes définit le harcèlement sexuel comme « la situation dans laquelle un comportement non désiré à connotation sexuelle, s’exprimant physiquement, verbalement ou non verbalement, survient avec pour objet ou pour effet de porter atteinte à la dignité d’une personne et, en particulier, de créer un environnement intimidant, hostile, dégradant, humiliant ou offensant ». Les agissements sexistes découlent du pouvoir et visent à exercer un contrôle psychologique ou sexuel. Dans les deux cas, les victimes se sentent souvent confuses, seules, et se croient parfois responsables des abus subis.
En tant qu’historienne, je cherche à comprendre comment les femmes ont vécu et affronté ces comportements intimidants. Je m’intéresse en particulier au harcèlement pendant la confession dans l’Italie du XVIIIe siècle. Les femmes catholiques se rendaient au confessionnal pour partager leurs doutes et leurs espoirs sur des sujets allant de la reproduction aux menstruations, mais elles étaient parfois confrontées à des remarques méprisantes ou déplacées qui les déstabilisaient.
Les archives du Vatican nous montrent que certains des hommes qui ont tenu ces propos avaient tendance à en minimiser la portée, les qualifiant de simples marques de camaraderie ou de curiosité, voire de vantardise. Ils ont pourtant rabaissé les femmes qui, après ces échanges, étaient bouleversées ou en colère. Ces femmes étaient souvent plus jeunes que leurs confesseurs, elles avaient moins de pouvoir et pouvaient subir des menaces les contraignant à se taire. Pourtant, les archives nous montrent également que certaines, jugeant ces échanges inappropriés, se sont opposées à ces abus.
Les archives contiennent les procès-verbaux des tribunaux de l’Inquisition, qui, dans toute la péninsule italienne, traitaient les signalements de harcèlement et d’abus dans les confessionnaux. Pour les femmes, la confession était primordiale car elle dictait la moralité. Le devoir d’un prêtre était de demander aux femmes si elles étaient de bonnes chrétiennes, et la moralité d’une femme était liée à sa sexualité. Les canons de l’Église enseignaient que le sexe devait être uniquement hétérosexuel, génital et se dérouler dans le cadre du mariage.
Mais si la sexualité était encadrée par un code moral de péché et de honte, les femmes étaient des agents sexuels actifs, apprenant par l’expérience et l’observation. Le fonctionnement interne du corps féminin était mystérieux pour elles, mais le sexe ne l’était pas. Alors que les hommes lettrés avaient accès à des traités médicaux, les femmes apprenaient grâce aux connaissances échangées au sein de la famille et avec les autres femmes. Cependant, au-delà de leur cercle quotidien, certaines femmes considéraient le confessionnal comme un espace sûr où elles pouvaient se confier, remettre en question leurs expériences et demander des conseils sur le thème de la sexualité. Les ecclésiastiques agissaient alors comme des guides spirituels, des figures semi-divines capables d’apporter du réconfort, ce qui créait un déséquilibre de pouvoir pouvant conduire à du harcèlement et des abus.
Certaines femmes victimes d’abus dans le confessionnal l’ont signalé à l’Inquisition, et les autorités religieuses les ont écoutées. Dans les tribunaux, les notaires ont consigné les dépositions et les accusés ont été convoqués. Au cours des procès, les témoins ont été contre-interrogés afin de corroborer leurs déclarations. Les condamnations variaient : un ecclésiastique pouvait être condamné à jeûner ou à faire des exercices spirituels, à être suspendu, exilé ou envoyé aux galères (travaux forcés).
Les archives montrent qu’au XVIIIe siècle en Italie, les femmes catholiques comprenaient parfaitement les blagues grivoises, les métaphores et les allusions qui leur étaient adressées. En 1736 à Pise, par exemple, Rosa alla trouver son confesseur pour lui demander de l’aide, inquiète que son mari ne l’aime pas, et il lui conseilla « d’utiliser ses doigts sur elle-même » pour éveiller son désir. Elle fut embarrassée et rapporta cet échange inapproprié. Les documents d’archives montrent fréquemment que les femmes étaient interrogées si leur mariage ne produisait pas d’enfants : on leur demandait si elles vérifiaient que leur mari « consommait par derrière », dans le même « vase naturel », ou si le sperme tombait à l’extérieur.
En 1779, à Onano, Colomba a rapporté que son confesseur lui avait demandé si elle savait que pour avoir un bébé, son mari devait insérer son pénis dans ses « parties honteuses ». En 1739, à Sienne, une femme de 40 ans sans enfant, Lucia, s’est sentie rabaissée lorsqu’un confesseur lui a proposé de l’examiner, affirmant que les femmes « avaient des ovaires comme les poules » et que sa situation était étrange, car il suffisait à une femme « de retirer son chapeau pour tomber enceinte ». Elle a signalé cet échange comme une ingérence inappropriée dans sa vie intime.
Les archives du confessionnal montrent des exemples de femmes à qui l’on disait : « J’aimerais te faire un trou » ; qui voyaient un prêtre frotter des anneaux de haut en bas sur ses doigts pour imiter des actes sexuels ; et à qui l’on posait la question suggestive de savoir si elles avaient « pris cela dans leurs mains » – et chacune de ces femmes comprenait ce qui était insinué. Elles comprenaient aussi que ces comportements relevaient du harcèlement. Autant d’actes et de paroles que les confesseurs considéraient, eux, comme du flirt – comme lorsqu’un prêtre invita Alessandra à le rejoindre dans le vignoble en 1659 – étaient jugés révoltants par les femmes qui rapportaient ces événements (Vatican, Archivio Dicastero della Fede, Processi vol. 42).
À cette époque, le stéréotype selon lequel les femmes plus âgées n’avaient plus de sexualité était très répandu. En effet, on croyait que les femmes dans la quarantaine ou la cinquantaine n’étaient plus physiquement aptes à avoir des rapports sexuels, et leur libido était ridiculisée par la littérature populaire. En 1721, Elisabetta Neri, une femme de 29 ans qui cherchait des conseils pour soulager ses bouffées de chaleur qui la mettaient hors d’état de fonctionner, s’est entendu dire qu’à partir de 36 ans, les femmes n’avaient plus besoin de se toucher, mais que cela pouvait l’aider à se détendre et à soulager son état.
Les femmes étaient également interrogées de manière fréquente et répétée sur leur plaisir : se touchaient-elles lorsqu’elles étaient seules ? Touchaient-elles d’autres femmes, des garçons ou même des animaux ? Regardaient-elles les « parties honteuses » de leurs amies pour comparer qui « avait la nature la plus grande ou la plus serrée, avec ou sans poils » (ADDF, CAUSE 1732 f.516) ? Pour les femmes, ces commentaires représentaient des intrusions inappropriées dans leur intimité. D’après les harceleurs masculins, il s’agissait d’une forme de curiosité excitante et une façon de donner des conseils : un frère franciscain, en 1715, a ainsi démenti avoir fait des commentaires intrusifs sur la vie sexuelle d’une femme (ADDF, Stanza Storica, M7 R, procès 3).
En quête de conseils avisés, les femmes confiaient leurs secrets les plus intimes à ces érudits, et elles pouvaient être déconcertées par l’attitude que leurs confesseurs affichaient souvent. En 1633, Angiola affirmait avoir « tremblé pendant trois mois » après avoir subi des violences verbales (ADDF, vol. 31, Processi). Les remarques déplacées et les attouchements non désirés choquaient celles qui en étaient victimes.
Il est indéniable que la sexualité est un objet culturel, encadré par des codes moraux et des agendas politiques qui font l’objet de négociations constantes. Les femmes ont été sans cesse surveillées, leur corps et leur comportement étant soumis à un contrôle permanent. Cependant, l’histoire nous enseigne que les femmes pouvaient être conscientes de leur corps et de leurs expériences sexuelles. Elles discutaient de leurs doutes, et certaines se sont ouvertement opposées au harcèlement ou aux relations abusives.
Au XVIIIe siècle en Italie, les femmes catholiques n’avaient pas toujours les mots pour qualifier les abus dont elles étaient victimes, mais elles savaient reconnaître qu’elles ne vivaient pas toujours un échange « honnête » dans le confessionnal, et parfois elles ne l’acceptaient pas. Elles ne pouvaient pas y échapper, mais elles avaient le courage d’agir contre un tel abus.
Une culture d’abus sexuels est difficile à éradiquer, mais les femmes peuvent s’exprimer et obtenir justice. Les événements des siècles passés montrent qu’il est toujours possible de dénoncer, comme c’est encore le cas aujourd’hui.
Note de l’auteur : les références entre parenthèses dans le texte renvoient à des documents consultables conservés dans les archives du Vatican.
Giada Pizzoni a reçu une bourse Marie Skłodowska-Curie de la Commission européenne.
14.12.2025 à 11:48
Thomas Leclercq, Professeur ordinaire en marketing, IESEG School of Management (LEM-CNRS 9221), Head of Marketing and Sales Department, IÉSEG School of Management
Étienne Denis, Professeur de Marketing, EDHEC Business School
Steven Hoornaert, Professeur en marketing digital; IESEG School of Management, Univ. Lille, CNRS, UMR 9221 - LEM - Lille Economie Management, F-59000 Lille, France, IÉSEG School of Management

Une recherche met en lumière les stratégies permettant de transformer l’aura des célébrités en crédibilité à l'égard d’une cause d’intérêt général. Alors, ces leaders d’opinion permettent-ils aux associations de récolter davantage de dons ? D’influencer nos élans de générosité ? Explications en graphiques.
Les célébrités, et plus récemment les influenceurs, ne se contentent plus de divertir : ils orientent nos choix. Des marques que nous achetons, jusqu’aux positions que nous adoptons sur des enjeux éthiques, leur empreinte est partout. Ils s’imposent comme de véritables sources d’information pour les consommateurs.
Leur influence ne s’arrête pas aux décisions de consommation. Acteurs, humoristes ou streamers façonnent nos élans de générosité et les causes que nous choisissons de soutenir. De nombreuses personnalités mettent en avant leur engagement caritatif : Pierre Garnier avec Imagine for Margo, Florence Foresti avec la Fondation des femmes ou encore Omar Sy avec les Restaurants du cœur. Côté influenceurs, le ZEvent 2025 a marqué les esprits : en trois jours de marathon sur Twitch, plus de 16,2 millions d’euros ont été récoltés grâce à des figures comme ZeratoR, Kameto ou Baghera Jones.
Pour mieux comprendre ces mécanismes, nous avons mené une série d’études pour comprendre si l’aura des célébrités apportait une crédibilité envers la cause à soutenir. Concrètement, nous avons présenté à des consommateurs plusieurs personnalités, ambassadrices d’une cause, et analysé si elles avaient un impact positif sur la crédibilité des causes d’intérêt général.
Notre première étude, intuitive, consiste à choisir une personnalité dont l’histoire est directement liée à la cause. Par exemple, des personnalités telles que Selena Gomez et Lady Gaga peuvent être des ambassadrices crédibles pour les causes liées à la santé mentale chez les jeunes, compte tenu des traumatismes qu’elles ont vécus dans leur jeunesse. Il en va de même pour le combat d’Emma Watson pour l’égalité homme-femme, renforcé par son expérience des traitements des jeunes femmes et adolescentes dans l’industrie cinématographique.
La seconde étude repose sur ce que les chercheurs appellent le transfert de sens. Dans ce processus, les symboles associés à une personne sont transférés à un produit, une marque ou une organisation. De cette manière, une personnalité peut apporter à la cause son aura culturelle, son univers ou ses valeurs symboliques à une cause, même sans lien direct apparent.
Dans une étude auprès de 200 répondants, nous avons testé l’impact de l’attractivité de la personnalité ambassadrice sur son niveau de crédibilité perçue envers la cause et le nombre de dons générés.
À cette fin, nous avons indiqué aux participants de l’étude que le tennisman Andy Muray était le nouvel ambassadeur de « Let’s Green Up ! », une ONG fictive. Dans un premier groupe, nous avons décrit le tennisman en insistant sur son attractivité et son aura. Dans un second groupe, nous avons présenté une description plus neutre du sportif. Nous avons ensuite mesuré la crédibilité perçue de la personnalité grâce à des affirmations telles que « Cet influenceur est une source d’information fiable » ou « Je peux faire confiance à cette personne ».
Les répondants avaient enfin la possibilité de faire un don à l’ONG proposée. Les résultats sont unanimes : la présence de cette aura est une condition essentielle au succès des campagnes de récolte de dons. Elle fait augmenter la chance de faire un don de 43 % à 54 %.
Au-delà de leur aura, certaines célébrités renforcent leur crédibilité en mettant en avant un lien personnel avec la cause qu’elles soutiennent. Lorsque Mika s’engage auprès d’associations venant en aide au Liban, son message gagne en force, car il souligne son attachement à ce pays d’origine.
Pour tester cette hypothèse, nous avons réalisé une seconde étude auprès de 402 répondants. Ces derniers pouvaient soutenir une cause associée à une personnalité, en faisant varier le type de cause et la personnalité. Pour ce faire, nous avons comparé l’efficacité de l’annonce quand la cause est soutenue par Léonardo DiCaprio, célébrité connue pour son aura, et Greta Thunberg, davantage connue pour son activisme. Nous avons d’abord comparé des groupes où ces personnalités soutenaient une campagne pour l’écologie, en lien avec le passé des deux célébrités, et une autre campagne soutenant l’accès à l’éducation. Nous avons ensuite mesuré la crédibilité de la personnalité ambassadrice.
Lorsque ce lien est mis en évidence, la crédibilité de la célébrité ou de l’influenceur envers la cause augmente donc davantage.
Même lorsqu’elles n’ont pas de lien direct avec une cause, les célébrités peuvent lui donner de la crédibilité en y associant leur univers symbolique. Un humoriste qui prête son image à une campagne solidaire, ou une chanteuse pop qui soutient la recherche médicale, n’est pas forcément expert du sujet. Ce transfert de sens, présenté plus haut, permet aux associations de toucher le public par ricochet, en capitalisant sur l’image culturelle de la personnalité.
Nous avons réalisé une troisième étude auprès de 400 répondants. L’idée : inviter les participants à soutenir une association pour l’écologie. Dans un groupe, la personnalité ambassadrice est Keanu Reeves et dans l’autre, Eminem. Nous avons pu établir au préalable que Eminem démontrait un capital symbolique plus important que Keanu Reeves. Dans les deux cas, nous avons fait varier l’attractivité et l’aura de la personnalité ambassadrice en la présentant dans une posture favorable ou neutre.
Les résultats montrent qu’une personnalité présentant un capital symbolique plus élevé, comme Eminem, est perçue comme étant davantage crédible, ce qui accroît leur capacité à générer un élan de générosité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.12.2025 à 11:47
Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School
Daouda Coulibaly, PhD, Professeur-Associé, EDC Paris Business School
Moustapha Kamara, PhD Droit du Sport, EDC Paris Business School
Le Belge Jean-Marc Bosman, joueur modeste des années 1990, restera peut-être dans l’histoire comme le footballeur qui aura eu le plus grand impact sur son sport. En effet, l’arrêt portant son nom, adopté il y a exactement trente ans, a permis aux joueurs en fin de contrat de rejoindre un autre club sans l’exigence d’une indemnité de transfert. Il a également mis fin à la règle qui prévalait jusqu’alors de trois étrangers maximum par équipe, ouvrant la voie à une aspiration des joueurs du monde entier vers les clubs les plus riches.
« Toi, avec ton arrêt, tu vas rester dans l’histoire, comme Bic ou Coca-Cola », avait dit Michel Platini à Jean-Marc Bosman en 1995. Platini n’avait sans doute pas tort.
Les faits remontent à 1990. Le contrat de travail de Bosman, footballeur professionnel du Royal Football Club (RFC) de Liège (Belgique), arrive à échéance le 30 juin. Son club lui propose un nouveau contrat, mais avec un salaire nettement inférieur. Bosman refuse et est placé sur la liste des transferts. Conformément aux règles de l’Union européenne des associations de football (UEFA) en vigueur à l’époque, le transfert d’un joueur, même en fin de contrat, s’effectue en contrepartie d’une indemnité versée par le club acheteur au club vendeur. Autrement dit, pour acquérir Bosman, le nouveau club devra verser une indemnité de transfert au RFC.
En juillet, l’Union sportive du littoral de Dunkerque (USL) en France est intéressée. Mais le club belge, craignant l’insolvabilité de l’USL, bloque l’opération. Bosman se retrouve sans employeur. Pis, il continue d’appartenir à son ancien club, lequel maintient ses droits de transfert. Par ailleurs, en vertu de la règle des quotas – trois étrangers maximum par équipe –, il est difficile pour le joueur de rejoindre un club dans un autre État de la Communauté européenne.
S’estimant lésé, Bosman saisit les tribunaux belges. L’affaire est par la suite portée devant la Cour de justice des Communautés européennes (CJCE).
Coup de tonnerre : le 15 décembre 1995, la CJCE tranche en faveur de Bosman.
La Cour précise que le sport professionnel, comme toute activité économique au sein de la Communauté européenne, est soumis au droit communautaire. Elle considère dès lors que toute disposition restreignant la liberté de mouvement des footballeurs professionnels ressortissants de la Communauté européenne est contraire à l’article 48 du Traité de Rome, lequel prévoit la libre concurrence et la liberté de circulation des travailleurs entre les États membres.
La CJCE reprend ses jurisprudences antérieures (arrêts Walrawe et Koch en 1974 et Doña en 1976) et déclare que les règles de quotas fondées sur la nationalité des joueurs ressortissants communautaires constituent des entraves au marché commun.
En outre, la Cour va plus loin dans son jugement et estime que les indemnités de transfert pour les joueurs en fin de contrat (encore appliquées par certains clubs européens en 1995) sont contraires au droit communautaire.
Le socle de cette décision a été la standardisation ou plutôt l’universalité des règles sportives au niveau de l’UEFA (54 fédérations) et de la Fédération Internationale de Football Association, FIFA (211 fédérations), qui ont dû s’aligner sur la jurisprudence Bosman.
Ainsi, cet arrêt de la CJCE a conduit les instances du football à réformer le système des transferts (Réformes dites « Règlement du Statut et du Transfert des Joueurs », (RSTJ) 2001, 2005, 2017-2022). Conséquemment, l’arrêt Bosman a drastiquement accentué la libéralisation du marché des transferts.
Cela s’est traduit par la suppression des obstacles à la libre circulation des sportifs. Les joueurs en fin de contrat sont devenus libres de rejoindre un autre club sans que celui-ci soit tenu de verser une indemnité de transfert à leur ancien club. Fin de l’ « esclavage » sportif ! Fin également du « régime de quotas » pour les joueurs ressortissants communautaires au sein des effectifs dans les clubs européens !
De facto, il y a eu une augmentation du nombre de joueurs étrangers communautaires, désormais illimité pour les joueurs des pays de l’Union européenne (UE). C’est le cas également pour les joueurs de l’Espace économique européen et pour ceux issus des pays ayant un accord d’association ou de coopération avec l’UE à la suite des arrêts Malaja dans le basket en 2002, Kolpak dans le handball en 2003 et Simutenkov dans le football en 2005. Il en est de même, depuis l’accord de Cotonou en 2000 (remplacé par l’accord de Samoa en 2023), pour les détenteurs des nationalités de 47 pays d’Afrique, 15 pays des Caraïbes et 15 pays du Pacifique. En France, le nombre de joueurs considérés comme « extra-communautaires » est limité à quatre.
Par ailleurs, comme le souligne Vincent Chaudel, co-fondateur de l’Observatoire du Sport Business, l’arrêt Bosman a inversé le rapport de force entre joueurs et clubs. L’inflation des salaires, qui avait commencé dans les années 1980, s’est accélérée dès les premières années après cet arrêt, puis de manière exponentielle chez les superstars par la suite.
Selon le magazine Forbes, les cinq footballeurs les mieux rémunérés en 2024 étaient Cristiano Ronaldo (environ 262,4 millions d’euros), Lionel Messi (environ 124,3 millions d’euros), Neymar (environ 101,3 millions d’euros), Karim Benzema (environ 95,8 millions d’euros) et Kylian Mbappé (environ 82,9 millions d’euros). L’écart salarial entre les footballeurs et les footballeuses reste néanmoins encore béant.
À lire aussi : Equal play, equal pay : des « inégalités » de genre dans le football
L’arrêt Bosman a aussi fortement impacté la spéculation de la valeur marchande des superstars et des jeunes talents.
À lire aussi : À qui profite le foot ?
Au-delà, cet arrêt s’est matérialisé par l’extension de la libre circulation des joueurs formés localement dans un État membre de l’UE, au nom de la compatibilité avec les règles de libre circulation des personnes ; cette mesure a ensuite été étendue à d’autres disciplines sportives.
Une autre particularité concerne le prolongement de la jurisprudence Bosman aux amateurs et aux dirigeants sportifs.
Enfin, il est important de rappeler que si l’arrêt Bosman a permis à de nombreux acteurs du football (joueurs, agents, clubs, investisseurs, etc.) de s’enrichir, ce fut loin d’être le cas pour Jean-Marc Bosman lui-même. Dans un livre autobiographique poignant, Mon combat pour la liberté, récemment publié, l’ancien joueur raconte son combat judiciaire de cinq ans, ainsi que sa longue traversée du désert (trahisons, difficultés financières, dépressions, etc.) après la décision de la CJCE.
L’arrêt Bosman a dérégulé, explosé et exposé le marché des transferts. Le récent article de la Fifa consacré au marché estival de 2025 en témoigne : cet été-là, 9,76 milliards de dollars d’indemnités de transfert ont été versés dans le football masculin et 12,3 millions de dollars dans le football féminin.
Ainsi, l’arrêt a ouvert la voie à une libéralisation inédite des opérations, conduisant parfois à des montages financiers particulièrement complexes.
À lire aussi : Football financiarisé : l’Olympique lyonnais, symptôme d’un modèle de multipropriété en crise
Au-delà de l’explosion des indemnités de transfert, l’arrêt Bosman a creusé les inégalités entre les clubs, tant au niveau national qu’européen. Pendant que les clubs les moins riches servent de pépinières pour former les futurs talents, les clubs les plus riches déboursent des sommes astronomiques pour acquérir les meilleurs footballeurs : Neymar, 222 millions d’euros ; Mbappé, 180 millions d’euros ; Ousmane Dembelé et Alexander Isak, 148 millions d’euros ; Philippe Coutinho, 135 millions d’euros, etc. Cela se traduit par l’ultra-domination des gros clubs dans les championnats européens avec le risque d’un « déclin général de l’équilibre compétitif dans le football européen » selon l’Observatoire du football CIES.
Enfin, avec la libéralisation du marché des transferts, des réseaux internationaux se tissent – et par la même occasion s’enrichissent – pour dénicher les futures « poules aux œufs d’or ». L’Amérique du Sud, l’Afrique (notamment depuis l’accord Cotonou) et l’Europe de l’Est sont devenues les principaux exportateurs des footballeurs (certains partent à un âge très précoce à l’étranger et se retrouvent loin de leur famille) vers les clubs d’Europe de l’Ouest.
Pour conclure, il serait souhaitable de réguler le marché, d’assainir l’écosystème et d’apaiser les ardeurs. L’arrêt Diarra (qualifié de « Bosman 2.0 ») de la Cour de justice de l’Union européenne (CJUE) – anciennement la CJCE – le 4 octobre 2024 est une avancée dans ce sens. Bien que la Cour n’ait pas remis en cause tout le système des transferts, elle a enjoint la FIFA à modifier sa réglementation afin que les footballeurs ne soient plus sous le joug de leur club en cas de rupture unilatérale de leur contrat.
Les joueurs doivent pouvoir y mettre un terme sans craindre de devoir verser une indemnité « disproportionnée » à leur club, et sans que le nouveau club désireux de les recruter soit tenu de verser solidairement et conjointement cette indemnité en cas de rupture sans « juste cause ». Dans l’urgence, un cadre réglementaire provisoire relatif au RSTJ a été adopté par la FIFA en décembre 2024 – jugé pour autant non conforme à la décision de la CJUE.
Le monde du football a besoin d’une transformation systémique où le plafonnement des coûts de transfert, mais aussi la gestion vertueuse des clubs et des institutions, l’encadrement et l’égalité des salaires homme-femme, la prise en compte du bien-être psychologique des acteurs, etc. constitueraient un socle fort pour un renouveau du marché des transferts et de l’industrie du football dans sa globalité.
Mieux, l’industrie du football ne doit plus constituer un mobile pour creuser les écarts et les disparités sociales et sociétales.
1891 : J. P. Campbell de Liverpool est le premier agent à faire la promotion de joueurs auprès des clubs par des publicités via la presse.
1905 : William McGregor, ancien président du club d’Aston Villa et fondateur de la ligue anglaise déclare, en une formule visionnaire pour l’époque, « Football is big business ».
1930 : la première Coupe du Monde de football a lieu en Uruguay.
1932 : la mise en place du premier championnat professionnel de football en France avec des dirigeants employeurs et des joueurs salariés sans aucun pouvoir ainsi que l’établissement du contrat à vie des footballeurs, liés à leur club jusqu’à l’âge de 35 ans.
1961 : le salaire minimum des joueurs de football est supprimé. Cette décision a pour effet d’équilibrer le pouvoir de négociation entre joueurs et clubs.
Entre 1960 et 1964 : les salaires des joueurs de la première division française évoluent drastiquement (augmentation de 61 % par rapport à ceux des années 1950).
1963 : la Haute Cour de Justice anglaise dispose, dans l’affaire Georges Eastham, que le système de « conservation et transfert » est illégal.
1969 : la mise en place du contrat de travail à durée librement déterminée.
1973 : l’adoption de la Charte du football professionnel.
1991 : la première Coupe du monde de football féminin se déroule en Chine.
1995 : l’arrêt Bosman de la Cour de justice des Communautés européennes (CJCE) du 15 décembre 1995 crée un véritable bouleversement dans le système de transfert des joueurs au sein de l’UE – anciennement la Communauté européenne.
Moustapha Kamara a reçu une Bourse de recherche Havelange de la FIFA.
Allane Madanamoothoo et Daouda Coulibaly ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
13.12.2025 à 17:12
Fahad Idaroussi Tsimanda, Géographe, chercheur associé au LAGAM, Université de Montpellier
Le cyclone Chido a ravagé le département français de Mayotte le 14 décembre 2024. Si l’État est intervenu massivement pour traiter l’urgence, les promesses de reconstruction structurelles semblent loin d’avoir été tenues. Entretien avec le géographe mahorais Fahad Idaroussi Tsimanda.
The Conversation : Un an après Chido, où en est la reconstruction ?
Fahad Idaroussi Tsimanda : Le 14 décembre 2024, le cyclone Chido a frappé Mayotte et endommagé 80 % du territoire mahorais (près de 60 % de l’habitat aurait été détérioré ou totalement détruit, mais aussi de nombreuses infrastructures, des territoires agricoles et naturels). Il s’agissait d’une catastrophe humanitaire majeure, malgré un bilan officiel limité à 40 morts et 41 disparus. Rapidement, l’État a mobilisé de forts moyens d’urgence après avoir déclaré l’état de calamité naturelle exceptionnelle. Sur place, plus de 4 000 personnels de la sécurité civile, de la police, de la gendarmerie et des armées ont été déployés. De l’aide humanitaire a été distribuée massivement – packs d’eau, patates, bananes, farine, huile, etc. La remise en état des routes et des principaux réseaux d’eau potable et d’électricité ont été effectifs au bout d’un mois environ.
Une forte mobilisation politique a également eu lieu dans le courant de l’année 2025. Pour formaliser et encadrer la reconstruction de l’île, le gouvernement a adopté une loi d’urgence en février 2025, puis une loi pour la refondation de Mayotte, fixant une trajectoire d’investissement de 4 milliards d’euros sur plusieurs années. Ces textes ont été complétés par des ordonnances visant à accélérer la reconstruction, notamment en adaptant temporairement les règles de construction pour faciliter la reconstruction des logements détruits.
Pourtant, notre constat est que, au-delà de l’urgence, la reconstruction structurelle n’a toujours pas eu lieu et la situation demeure critique sur place. Nous sommes encore très loin de ce que les Mahorais attendaient. Selon les chiffres de la députée Estelle Youssouffa, très peu d’argent a été dépensé : 25 millions d’euros seulement depuis le début de l’année, soit environ 0,6 % de l’enveloppe totale promise de 4 milliards d’euros.
J’ai pu constater que, dans le chef-lieu, Mamoudzou, plusieurs bâtiments publics (ceux du Département de Mayotte, la mairie, le commissariat, ceux de l’intercommunalité, etc.) sont toujours couverts de bâches. Au centre hospitalier de Mayotte, des travaux de toiture sont en cours, mais l’essentiel a en revanche été réalisé.
Pour ce qui concerne les particuliers, un prêt à taux zéro de reconstruction a été a été promis aux Mahorais, aux ménages sinistrés avec une enveloppe de 50 000 euros. Mais je ne connais personne autour de moi qui en ait bénéficié. Certains habitants ont déjà reconstruit, certains démarrent à peine leurs chantiers.
Je suis enseignant, et je constate que la situation des écoles est toujours très dégradée, avec beaucoup de salles de classe indisponibles ce qui conduit à charger les effectifs pour chaque classe. On estime que 40 % des établissements scolaires ont été détruits ou endommagés pendant le cyclone. Les classes fermées contraignent les élèves à un nombre d’heures de cours limités avec un système de rotation.
Les bidonvilles ont été ravagés par Chido. Que s’est-il passé dans ces quartiers depuis un an ? François Bayrou, le premier ministre de l’époque, s’était engagé à bloquer leur reconstruction. Est-ce le cas ?
F. I. T. : Dès le lendemain du passage de Chido, les familles de migrants vivant dans les bidonvilles ont reconstruit leurs maisons. Le préfet de Mayotte a interdit aux particuliers d’acheter des tôles s’ils ne pouvaient pas présenter de justificatif de domicile, afin d’empêcher la reconstruction de bidonvilles. Pourtant, il fut très facile de contourner cela avec le justificatif d’un voisin. Ceux qui avaient les moyens ont acheté des tôles et des chevrons. D’autres ont réutilisé les tôles déformées et ont débité des cocotiers tombés à terre pour les structures.
Imaginer reconstruire en dur dans ces quartiers est un leurre. Les personnes qui habitent dans les bidonvilles sont souvent en situation irrégulière, elles n’ont pas droit au logements sociaux qui sont de toute façon en nombre insuffisant. Quelle autre option est possible ? Selon les statistiques officielles, avant Chido, il existait environ neuf logements sociaux pour 1 000 habitants, ce qui est extrêmement faible. Or 40 % des logements sont en tôle à Mayotte et 77 % des habitants vivent sous le seuil de pauvreté national. Les bidonvilles, reconstruits à l’identique, sont toujours aussi fragiles et vulnérables face aux intempéries.
Après Chido, les migrants ont été pointés du doigt par une partie de la classe politique française. Le gouvernement Bayrou a légiféré pour durcir l’accès à la nationalité française et a promis plus de fermeté pour lutter contre l’immigration. Comment évolue la situation sur place ?
F. I. T. : Près de la moitié des personnes vivant à Mayotte sont des étrangers, dont de nombreux illégaux, installés dans les bidonvilles. Les opérations policières massives, comme Wambushu ou Place nette pour raser les bidonvilles et expulser massivement, n’ont pas été renouvelées en 2025. En revanche, les policiers aux frontières interviennent toujours en mer et au sein de l’île pour expulser les illégaux. Mais ces derniers reviennent : l’île est facilement accessible depuis les îles voisines en bateau et les frontières sont difficiles à contrôler.
Malgré les efforts de l’État, les arrivées illégales se poursuivent. Les migrants vivent toujours dans des logements précaires, avec un accès limité aux droits fondamentaux et des inégalités qui perdurent.
Les relations entre la France et les Comores jouent un rôle central dans cette problématique migratoire. Quel est l’état de ces relations ?
F. I. T. : En 2018, un accord a été conclu entre l’Union des Comores et la France. Il s’agissait pour la France d’aider les Comores sur le plan de l’agriculture, de l’éducation, de la santé – ceci à condition que le gouvernement comorien stoppe le départ des migrants depuis l’île d’Anjouan. Mais depuis, rien n’a changé. Le président de l’Union des Comores Azali Assoumani répète avec constante que la France doit abandonner Mayotte et l’île intégrer l’Union des Comores. Il affirme que Mayotte appartient aux Comores, sans doute pour satisfaire son électorat, alors que les habitants des Comores vivent dans une grande pauvreté.
Quel est l’état d’esprit des habitants de l’île que vous côtoyez ?
F. I. T. : Les Mahorais sont résilients. Après le cyclone, ils se sont entraidés, ils étaient solidaires. Ici, la vie suit son cours. Certains critiquent le gouvernement, mais, en général, les Mahorais sont confiants dans l’avenir. Ce qui est un sujet de tension, ce sont les phénomènes de violence qui impliquent parfois des migrants. Cela ne date pas de Chido. La question migratoire est montée en puissance depuis que l’île est un département français, en 2011.
Fahad Idaroussi Tsimanda ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.12.2025 à 09:02
Léonard Moulin, Research fellow, Ined (Institut national d'études démographiques)
Lorsque l’on considère évaluations nationales et examens, les écoles privées affichent non seulement de meilleurs résultats que les écoles publiques, mais aussi de meilleurs taux de progression des élèves au fil de leur scolarité. Est-ce le simple reflet de leur composition sociale plus favorisée ? Ou faut-il y voir un « effet » propre à ces établissements ?
La question de l’école privée occupe aujourd’hui une place singulière dans le débat éducatif français. Elle revient d’ailleurs régulièrement au centre des discussions publiques, souvent au gré de polémiques autour des choix scolaires des ministres de l’éducation nationale eux-mêmes. La séquence s’est répétée récemment : Édouard Geffray, le nouveau ministre, a inscrit ses enfants dans le privé – comme ses prédécesseurs Amélie Oudéa-Castéra, en 2024, et Pap Ndiaye.
Si ces épisodes retiennent autant l’attention, c’est qu’ils cristallisent une tension devenue centrale : régulièrement crédité de meilleurs résultats scolaires que le secteur public, le secteur privé est largement financé par des fonds publics tout en étant autorisé à sélectionner ses élèves.
Ces différences de recrutement se traduisent par des écarts massifs dans la composition sociale des établissements entre public et privé. C’est ce que montrent les indices de position sociale (IPS) calculés par le ministère de l’éducation nationale en considérant les catégories socio-professionnelles des parents d’élèves.
Les graphiques ci-dessous traduisent ces disparités, académie par académie. Prenons l’exemple de Paris : l’IPS moyen des écoles publiques y est d’environ 118, contre 143 dans le privé sous contrat, soit un écart d’environ 25 points, l’un des plus élevés du pays. Autrement dit, les écoles privées parisiennes scolarisent un public en moyenne beaucoup plus favorisé socialement que les écoles publiques. Les distributions montrent également que le privé est concentré sur le haut de l’échelle sociale, tandis que le public accueille une population plus hétérogène, avec davantage d’élèves issus de milieux modestes.
Les meilleurs résultats des écoles privées aux évaluations nationales et aux examens viennent-ils réellement d’un « effet » propre au privé ou reflètent-ils avant tout la composition sociale plus favorisée de ses élèves ?
Les comparaisons internationales offrent un premier éclairage. Les évaluations PISA, menées auprès d’élèves de 15 ans, rappellent combien la France demeure l’un des pays où les résultats scolaires dépendent le plus du milieu social : près d’un cinquième des performances s’explique par l’origine sociale.
Dans ce contexte, les établissements privés – qui accueillent un public en moyenne plus favorisé – obtiennent logiquement de meilleurs scores bruts. Mais il s’agit d’une photographie instantanée, qui ne dit rien de la manière dont les élèves progressent dans le temps.
Lorsque l’on cesse de regarder uniquement les performances à un instant donné pour suivre les élèves au fil de leur scolarité, un autre constat apparaît. Du début à la fin du collège, les élèves scolarisés dans un établissement privé progressent plus que ceux du public, à milieu social comparable. Cette différence apparaît à la fois dans les évaluations de sixième et dans les notes finales du brevet : en moyenne, les trajectoires scolaires s’améliorent plus nettement dans le privé.
Lorsque l’on considère les épreuves terminales du brevet, dans les graphiques qui suivent, il apparaît que, dans chaque matière, les élèves scolarisés dans le privé sous contrat obtiennent en moyenne des notes plus élevées que ceux du public. Les distributions montrent également que les résultats des élèves du public sont plus dispersés, avec davantage d’élèves dans la partie basse de la distribution.
En examinant ces parcours de manière plus fine, un élément supplémentaire émerge : ces écarts ne sont pas uniformes selon le niveau initial. Une étude récente montre que l’avantage observé en fin de troisième est plus marqué pour les élèves initialement les plus faibles, en particulier en mathématiques. Autrement dit, les différences entre public et privé tiennent à la fois aux acquis de départ, mais aussi à la manière dont les élèves progressent au cours du collège.
Un travail conduit par le service statistique du ministère de l’éducation nationale aboutit à un résultat très proche. En suivant une cohorte d’élèves du CP au début du lycée, ses auteurs montrent que, à contexte familial et scolaire comparable, la progression en français et en mathématiques au collège – et surtout en mathématiques – est plus élevée dans le privé que dans le public.
Ces différences de progression ne peuvent pas s’expliquer par certains facteurs souvent avancés dans le débat public. Les chiffres sont sans ambiguïté : les classes du privé comptent en moyenne 27,2 élèves, contre 24,7 dans le public ; le nombre d’élèves par enseignant y est plus élevé (14,6 contre 12,8) ; et le privé n’emploie pas davantage d’enseignants agrégés (4,5 % contre 13,4 % dans le public). Rien, dans ces indicateurs d’encadrement, ne suggère donc des conditions plus favorables dans le privé.
Les explications doivent être cherchées ailleurs. Deux pistes se dégagent. D’abord, la composition sociale : les établissements privés accueillent un public plus favorisé, ce qui peut mécaniquement tirer les résultats vers le haut et permettre d’enseigner à des niveaux plus élevés.
Ensuite, le libre recrutement des enseignants, qui permet de constituer des équipes pédagogiques plus cohérentes et plus stables, potentiellement mieux alignées sur un projet éducatif commun – un cadre qui peut là aussi soutenir un niveau d’exigence plus élevé.
Une fois posés ces constats, une question centrale demeure : dans quelle mesure les écarts public/privé s’expliquent-ils simplement par la composition sociale beaucoup plus favorisée des établissements privés ? Lorsqu’on compare des élèves de même origine sociale, et que l’on tient compte non seulement de leurs caractéristiques individuelles, mais aussi de la composition sociale des établissements et des classes dans lesquels ils sont scolarisés, l’avantage du privé sur le public ne diminue que très légèrement.
En pratique, seulement 15 à 23 % de l’avantage initial s’efface. Autrement dit, la composition sociale explique bien une partie de la différence… mais certainement pas tout. D’autres facteurs sont donc en jeu.
L’étude révèle un point essentiel : la composition sociale n’agit pas de la même manière selon l’origine des élèves. Pour les élèves issus de milieux favorisés, l’avantage apparent du privé tient surtout au fait qu’ils sont scolarisés dans des collèges où la part d’élèves aisés est nettement plus élevée que dans le public. Une fois que l’on compare des élèves favorisés inscrits dans des établissements au profil social similaire dans les deux secteurs, l’écart de performances entre public et privé devient quasi nul. Rien n’indique, en revanche, que ces élèves tirent leurs meilleures performances de spécificités pédagogiques propres au privé.
À l’inverse, pour les élèves issus de milieux modestes, la situation est tout autre : l’avantage du privé demeure nettement perceptible, même après avoir neutralisé les effets du milieu social et de l’environnement scolaire. Ce sont finalement ces élèves, pourtant très minoritaires dans le privé, qui tirent le plus de bénéfices de la scolarisation dans le privé en termes de résultats scolaires.
S’ajoute une interrogation liée au fonctionnement même des établissements : si la composition sociale n’explique qu’une part modeste des écarts observés, où chercher les leviers restants ? Une piste souvent avancée concerne le mode de recrutement des enseignants, plus flexible dans le privé : dans le public, les enseignants sont affectés par l’administration, tandis que dans le privé sous contrat ce sont les chefs d’établissement qui recrutent directement les enseignants, ce qui leur laisse davantage de marge pour composer leurs équipes pédagogiques autour du projet d’établissement.
Rien n’interdit d’examiner ce que certaines pratiques propres au privé – par exemple le recrutement plus libre des enseignants par le chef d’établissement – pourraient inspirer au secteur public, comme l’expérimentation récente menée dans le cadre du plan « Marseille en grand ». Ce type de dispositif reste encore peu documenté par la recherche et constitue un terrain privilégié pour de futurs travaux.
Finalement, peut-on considérer comme durable un système où l’argent public soutiendrait, de fait, une organisation qui contribue à renforcer la ségrégation scolaire ? La question mérite d’être posée, ne serait-ce qu’au regard des principes mêmes inscrits dans le Code de l’éducation, selon lesquels « le service public de l’éducation […] contribue à l’égalité des chances et à lutter contre les inégalités sociales et territoriales en matière de réussite scolaire et éducative ».
L’enjeu est désormais de documenter précisément les mécanismes à l’œuvre, afin d’identifier quels leviers d’organisation scolaire pourraient, à terme, être mobilisés au service d’une plus grande équité du système éducatif.
Léonard Moulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.