03.05.2025 à 13:58
Olivier Guyottot, Enseignant-chercheur en stratégie et en sciences politiques, INSEEC Grande École
Considéré par ses partisans comme un visionnaire, Elon Musk incarne le modèle du « leader gourou ». Mais la chute des résultats de Tesla et ses prises de position controversées mettent en lumière les limites d’un leadership fondé sur le culte de la personnalité.
Certains leaders d’entreprises sont qualifiés de gourous tant la fascination qu’ils exercent sur leurs équipes et sur les clients qui achètent leurs produits est forte et semble presque irrationnelle. C’est aujourd’hui le cas d’Elon Musk, comme ce fut le cas avant lui de Steve Jobs, et l’étude comparée de ces deux exemples met en lumière l’ambivalence que peut recouvrir la notion de gourou en matière de leadership.
Les récents résultats de Tesla, qui a vu son chiffre d’affaires et son bénéfice net baisser respectivement de 9 % et de 71 % durant le premier trimestre 2025 (par rapport au premier trimestre 2024), rappellent aussi que la figure du leader gourou n’est pas sans danger pour ses entreprises.
Apparu en Inde, le terme de gourou fait originellement référence à un guide spirituel. Par analogie, il va prendre le sens de maître à penser dans le langage courant des sociétés occidentales. Si la notion possède, particulièrement en anglais, une dimension positive liée à la figure de l’expert, le terme peut également évoquer une influence et une emprise psychologique proches du culte de la personnalité et de la dérive sectaire.
Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !
Le monde de la tech a vu émerger plusieurs figures de leaders présentés comme des gourous. C’est le cas de Steve Jobs, le fondateur emblématique d’Apple, et d’Elon Musk, le créateur de Paypal ou SpaceX et la figure centrale de Tesla et de X. Spécialistes reconnus et respectés dans leurs domaines respectifs, ils ont su créer des produits innovants et des entreprises rentables en sortant des sentiers battus et en faisant évoluer les mentalités.
Jobs est parvenu à imposer des innovations et une esthétique qui ont rendu accessibles des produits technologiques devenus des vecteurs d’émancipation personnelle. Elon Musk possède un profil de « serial entrepreneur » capable de partager une vision futuriste de la société – de la conquête de Mars à l’intelligence artificielle, en passant par la voiture autonome.
Pour Jobs comme pour Musk, l’implication sans faille de leurs équipes et l’adhésion presque aveugle des utilisateurs à leurs produits ont fortement contribué à leurs succès. Mais la culture de leurs entreprises, fondée sur une exigence parfois excessive et centrée sur leur forte personnalité, s’est parfois révélée toxique pour leurs collaborateurs et dangereuse pour leurs organisations. En ce sens, leurs profils illustrent l’ambivalence et les ambiguïtés du « leader gourou ».
Les recherches en management donnent parfois l’impression que les différents types de leadership sont des catégories cloisonnées et étanches entre elles. En réalité, les pratiques des leaders se retrouvent toujours au croisement de plusieurs formes. C’est notamment le cas des « leaders gourous » qui mélangent, de manière excessive, les caractéristiques des leaderships autoritaire et charismatique.
Jobs et Musk sont ainsi réputés pour leur management dur et brutal, ne laissant aucune place aux contre-pouvoirs. Jobs était célèbre pour sa capacité à licencier les personnes qui ne respectaient pas le niveau d’exigence qu’il imposait à ses équipes. Pour Mike Murray, un de ses anciens employés chez Apple, Jobs ne connaissait pas
« les limites que la plupart d’entre nous fixons à nous-mêmes et […] ne respectait aucune réglementation ».
De son côté, Musk n’a pas hésité à licencier près de 80 % des équipes de X à la suite de son rachat.
Pour le chercheur Kurt Lewin, le leadership autoritaire se caractérise par une « démarcation claire entre le leader et les subordonnés, avec peu de contributions ou de retours de ces derniers ». En dépit d’une capacité à aller chercher les meilleurs et à leur déléguer des missions spécifiques, Jobs et Musk exercent ainsi un contrôle absolu sur les décisions finales de leurs équipes et les orientations de leurs organisations.
Jobs et Musk sont aussi reconnus pour leur leadership charismatique. Pour Max Weber, le leader charismatique est « doué de forces ou de caractères surnaturels ou surhumains ou tout au moins en dehors de la vie quotidienne ». Deux chercheurs de l’Université de Warwick ont montré que le charisme de Jobs était basé sur son art de la rhétorique, qu’il exerçait notamment lors de keynotes portées par son sens de la mise en scène, sa maîtrise du langage corporel et son esthétique minimaliste symbolisée par ses célèbres cols roulés noirs. À une autre époque, le charisme d’Elon Musk s’est appuyé sur son usage des réseaux sociaux et sa capacité à proposer une vision futuriste dans une période de turbulences environnementales, économiques et géopolitiques fortement anxiogènes.
Pourtant, si les profils de Jobs et Musk se rejoignent dans la figure du leader gourou, les difficultés rencontrées actuellement par Elon Musk dessinent des différences notables. Dans son ouvrage le Mythe de l’entrepreneur (2023), le chercheur Anthony Galluzzo souligne l’importance du storytelling dans la construction de l’image associée à ce type de leader. Il montre, par exemple, que Steve Jobs et Steve Wozniak avaient fait, sous l’impulsion du communiquant Regis McKenna, la tournée des rédactions à New York pour asseoir le récit de deux garçons révolutionnant la société moderne en bidouillant dans un garage. Jobs a su s’inspirer de cette expérience.
À la suite du succès de son retour chez Apple en 1997, il est ainsi parvenu à magnifier l’histoire de son renvoi et donner l’impression que les mauvais résultats de l’époque ne lui étaient pas imputables. En reprenant le contrôle de son récit entrepreneurial, il a pu restaurer l’image d’un leader gourou visionnaire et performant.
En se positionnant en faveur de Donald Trump et en s’engageant à ses côtés lors de sa campagne, puis à la tête du Department of Government Efficiency (DOGE, département de l’efficacité gouvernementale, en français) Musk a pris le risque de cliver et de perdre le contrôle d’un récit jusqu’alors maîtrisé. Alors que la figure du gourou est associée à une expertise dans un domaine bien spécifique, comme ce fut le cas pour Jobs et la tech, l’implication de Musk en politique met désormais en danger les résultats de ses entreprises.
Malgré la modernisation de sa gamme, Tesla enregistre par exemple, depuis début 2025, une baisse de 44 % de ses immatriculations en France et cette baisse est largement portée par le rejet de sa personne et de son rôle politique. Cette situation soulève aussi des questions sur ses propres capacités alors qu’il admet lui-même que le DOGE n’a pas atteint ses objectifs. À tel point que des rumeurs affirmant que Tesla se chercherait un nouveau leader ont été reprises par le Wall Street Journal.
Elon Musk peut-il dès lors reconstruire une image de leader gourou visionnaire et garant du succès de ses entreprises comme avait réussi à le faire Steve Jobs après son éviction ? La réponse à cette question dépendra en partie de sa capacité à se recentrer sur son rôle d’entrepreneur et à proposer des innovations technologiques majeures réaffirmant une vision novatrice et tournée vers l’avenir.
Olivier Guyottot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.05.2025 à 13:44
Jérôme Viala-Gaudefroy, Spécialiste de la politique américaine, Sciences Po
Donald Trump n’est pas un accident de l’histoire. Sa réélection s’inscrit dans la droite ligne d’une évolution structurelle profonde de la société américaine, amorcée dès la fin de la guerre froide.
Un peu plus de cent jours après son retour à la Maison Blanche, le constat est sans appel : Donald Trump n’est plus le même président. Aux accents nationalistes et populistes de son premier mandat, s’ajoute désormais une dérive autoritaire assumée, sans précédent aux États-Unis. Il adopte aussi une vision néo-impériale de l’économie, dans un monde perçu comme un jeu à somme nulle fait de gagnants et de perdants. La coopération s’efface au profit d’une logique de domination, où seules la puissance et l’accumulation de richesse comptent.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ayant survécu à deux tentatives de destitution, à des procès multiples, des attaques politiques et à deux tentatives d’assassinat, Trump gouverne désormais en toute-puissance. Érigé en héros, en martyr, voire en figure messianique par ses partisans, il conçoit désormais la démocratie non comme un cadre à respecter, mais comme un simple instrument pour légitimer la conquête du pouvoir. Sa victoire électorale, sans appel cette fois, lui sert de justification pour rejeter toute contrainte institutionnelle.
Trois traits structurent sa gouvernance : la centralisation extrême du pouvoir exécutif, fondée sur la théorie controversée de « l’exécutif unitaire » ; la politisation de l’appareil judiciaire, utilisé pour régler des comptes ; et l’instrumentalisation du pouvoir fédéral pour s’attaquer aux contre-pouvoirs culturels, médiatiques et éducatifs. Sa méthode est celle du chaos : déstabiliser les adversaires, saturer l’espace médiatique, brouiller les normes démocratiques. Impulsif, réactif, gouvernant parfois au gré des émissions de Fox News ou des tendances sur Truth Social (la plateforme qu’il détient), le président a fait de l’instabilité une arme politique.
Mais Donald Trump n’est pas un accident de l’histoire. Si son élection en 2016 avait pu sembler improbable, sa réélection est le signe d’une évolution structurelle profonde que l’on peut faire remonter à la fin de la guerre froide.
La disparition de l’Urss, et donc d’un ennemi extérieur structurant, a réorienté la confrontation politique vers la désignation d’un ennemi intérieur. La guerre culturelle est devenue la nouvelle matrice idéologique du conflit.
Deux dynamiques majeures, souvent entremêlées, la nourrissent. D’un côté, une radicalisation religieuse animée par des courants nationalistes chrétiens – comme la Nouvelle Réforme apostolique – qui rejettent les évolutions sociétales et appellent à l’instauration d’une véritable théocratie. De l’autre, une crispation raciale, attisée par la peur du déclin démographique blanc et l’hostilité aux avancées en matière de droits civiques.
Dès les années 1990, Pat Buchanan annonçait cette mutation. Dans son discours à la convention républicaine de 1992, il déclarait :
« Une guerre culturelle est en cours pour l’âme de l’Amérique […] aussi cruciale que la guerre froide elle-même. »
Trop radical pour son époque, Buchanan prônait déjà une « Amérique blanche », chrétienne et conservatrice, opposée aux élites cosmopolites. Ses idées, marginalisées alors, ont préparé le terrain du trumpisme.
Newt Gingrich, président républicain de la Chambre des représentants de 1995 à 1999, a lui aussi joué un rôle central dans la transformation du parti conservateur et la vie politique américaine. Avec son initiative du « Contrat avec l’Amérique », il introduit une stratégie fondée sur l’affrontement permanent. Il fait notamment distribuer à tous les candidats républicains une brochure intitulée « Langage : un mécanisme clé de contrôle », qui énumère des mots valorisants à utiliser pour se décrire, et, ceux, fortement péjoratifs – comme « corrompus », « immoraux » ou « traîtres » – à employer pour discréditer les adversaires.
Cette rhétorique agressive a contribué à faire de l’opposition politique un ennemi, ouvrant ainsi la voie à une droite où la quête de victoire prime sur le respect des normes démocratiques.
Parallèlement, l’émergence d’un nouvel écosystème médiatique a amplifié ces tensions. Avec la création de Fox News en 1996, l’explosion des talk-shows conservateurs, comme celui de l’animateur Rush Limbaugh dans les années 1990, puis des réseaux sociaux dans les années 2000, la droite états-unienne s’est dotée d’outils puissants pour radicaliser l’opinion.
Les bulles informationnelles, alimentées par les algorithmes enferment aujourd’hui les citoyens dans des mondes parallèles, où la désinformation et l’indignation l’emportent sur le débat rationnel. Ceci a contribué à la polarisation du paysage politique, voire de la société tout entière.
À cette recomposition idéologique et médiatique s’ajoute une crise plus large : celle du consensus néolibéral adopté après la guerre froide. Les promesses de prospérité ont laissé place à la désindustrialisation, aux inégalités croissantes et à un ressentiment profond. Les chocs successifs – du 11-Septembre à la crise financière de 2008, jusqu’à la pandémie de Covid-19 – et les guerres permanentes sans véritables victoires ont renforcé la défiance envers les élites.
Trump incarne cette colère. Il promet la reconquête d’une Amérique idéalisée, l’effacement des avancées sociales récentes, et l’affirmation d’une identité nationale fondée sur la religion et la race. Son populisme est d’abord une réponse émotionnelle à un sentiment d’injustice, d’humiliation et de perte de repères.
Donald Trump n’est pas seulement un produit de la crise démocratique des États-Unis : il en est la cristallisation spectaculaire. Il incarne la synthèse des années 1990, décennie fondatrice du ressentiment identitaire, de la guerre culturelle et de la dérégulation médiatique. Hors norme, perçu comme un outsider, il n’a jamais été jugé comme un politicien traditionnel, mais comme l’incarnation d’un « self-made man », businessman à succès et vedette de téléréalité.
Sa parole, transgressive et provocatrice, fonctionne comme un retour du refoulé, y compris la cruauté et l’humiliation de l’adversaire. Elle est jouissive pour sa base, car elle bouscule les codes, piétine le politiquement correct et flatte le fantasme d’une reconquête identitaire.
Trump promet la puissance, la revanche, la nostalgie d’une Amérique triomphante blanche, chrétienne et masculine.
Et il n’est plus seul. Le soutien actif d’acteurs économiques et technologiques comme Elon Musk, désormais figure clé de la droite radicalisée sur le réseau X, renforce cette dynamique. Ensemble, ils ont dessiné les contours d’un nouveau pouvoir autoritaire culturel et numérique, où l’influence prime sur l’institutionnel.
Ce n’est pas seulement un homme que l’Amérique a élu à nouveau. C’est un style, une époque, et une vision du monde fondée sur la domination, la disruption et le rejet des règles. Toutefois, l’histoire n’est pas écrite : grisé par l’hubris et miné par l’incompétence, le trumpisme pourrait se fracasser contre le mur du réel, laissant derrière lui des conséquences pour les États-Unis comme pour le reste du monde.
Jérôme Viala-Gaudefroy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.05.2025 à 09:54
Jordy Bony, Docteur et Instructeur en droit à l'EM Lyon, EM Lyon Business School
Damien Charabidze, Docteur en Biologie, Chercheur, Expert judiciaire, Université de Lille
C’est un nouveau type d’obsèques qui intéresse de plus en plus. En France, la « terramation » se heurte pour l’instant à des défis légaux et techniques qui ne semblent pas forcément insurmontables, mais auxquels il faudra répondre.
Pourra-t-on bientôt choisir d’être transformé en compost après notre mort ? Alors que la pratique du compostage funéraire, appelée terramation, se répand aux États-Unis et qu’elle est actuellement expérimentée en Allemagne, l’idée est à l’étude en France. Pour le moment, notre cadre juridique restreint les modes de sépulture aux deux seules pratiques citées dans la loi : l’inhumation et la crémation.
Mais cette apparente exclusivité cache en réalité une grande diversité de procédés et laisse ouverte la possibilité d’une évolution des pratiques funéraires.
La terramation, fusion de terra et transformatio qui renvoient respectivement aux idées de « surface au sol » et de « métamorphose », est un mode de sépulture inspiré du cycle de la nature.
La terramation repose sur l’emploi de copeaux de bois afin de créer des conditions propices à l’activité des bactéries dites aérobies, c’est-à-dire utilisant l’oxygène. Elle diffère ainsi de l’enterrement classique, qui place le corps dans des conditions anaérobies en le recouvrant de terre où en le plaçant dans un caveau hermétique. Faute d’oxygène, la décomposition est alors très lente et nécessite plusieurs années, et même parfois plusieurs décennies. La putréfaction génère également des résidus néfastes pour l’environnement.
La terramation propose au contraire un temps de dégradation du corps réduit (moins d’un an) et une nouvelle vision de la mort. Ce procédé produit en effet un humus sain qui peut alimenter la croissance des plantes. Il est dès lors possible de transformer les cimetières en espaces de mémoire végétalisés, riches et vivants. La mort (re)devient une étape du cycle du vivant.
Comme pour l’enterrement, qui regroupe un ensemble de pratiques (enterrement en pleine terre, mise en caveau ou encore enfeu hors-sol), le terme terramation recouvre en réalité différents procédés de compostage employés pour la réduction des corps. La terramation peut prendre place en surface, en sous-sol ou même dans des caissons hors-sol.
Cette dernière version, baptisée Natural Organic Reduction, permet de contrôler intégralement le processus de biodégradation. Son principal avantage est d’offrir un procédé fiable, hygiénique et réalisable en un temps réduit : un mois suffit à la biodégradation complète d’un corps. Cette Natural Organic Reduction est déjà légale aux États-Unis et est actuellement proposée à titre expérimental en Allemagne.
En France, les études d’opinions démontrent un plébiscite en faveur de solutions funéraires plus écologiques, de 20 % à plus de 45 % des sondés, et une bonne acceptation socioculturelle de la terramation. Mais l’approche « hors-sol » états-unienne semble susciter peu d’enthousiasme.
Il existe cependant d’autres approches de terramation, plus naturelles. C’est le cas de l’humusation, un processus réalisé en extérieur et au contact du sol, sous une butte de broyat végétal. Bien qu’historiquement pionnier, ce procédé développé en Belgique n’a pas encore obtenu de reconnaissance légale et peine à démontrer sa faisabilité.
La lenteur de la dégradation des corps et le risque de pollution des sols en nitrate et amoniaque avaient notamment été mis en avant par les autorités de Bruxelles pour justifier leur refus de légaliser l’humusation.
Une autre version est également à l’étude : la terramation en sous-sol, sorte d’hybride entre l’enterrement traditionnel et le compostage en surface. Pour y parvenir, plusieurs contraintes techniques sont à considérer, dont la compatibilité avec les soins ante mortem, la robustesse aux diverses situations climatiques ou encore l’usage obligatoire du cercueil pour tout type d’obsèques. Cependant, depuis 2019, le matériau bois n’est plus le seul autorisé par les normes relatives aux cercueils : le développement de cercueil en matériaux rapidement biodégradables, plus compatibles avec la terramation, serait donc possible.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ».
Dans ce contexte, un projet de recherche participatif sur la terramation, associant les universités de Lille et de Bordeaux et l’association Humo Sapiens, a débuté en 2024. Le développement d’un prototype fonctionnel est également annoncé pour 2026. Il permettra de tester la méthode, de la documenter scientifiquement et de mesurer son impact sanitaire et environnemental. Ces éléments devraient accroître la visibilité et la crédibilité de la terramation et faciliter le portage du sujet dans la sphère politique, avec pour objectif une révision favorable de la réglementation funéraire.
Le cadre légal français ne reconnaît pas encore la terramation qui ne peut donc pas actuellement être pratiquée. Se pose, cependant, la question de savoir si la terramation doit être envisagée comme une forme d’inhumation ou comme une nouvelle pratique à part entière. Par ailleurs, comme le souligne une récente étude, notre système juridique semble en capacité d’accueillir la terramation, moyennant des changements mineurs.
En effet, une telle évolution rappelle, dans une moindre mesure, ce que fut la légalisation de la crémation, difficilement acceptée en France à cause du fait religieux. Elle est advenue dans le cadre de la loi du 15 novembre 1887 relative à la liberté des funérailles, loi complétée par le décret du 27 avril 1889. Il suffirait de mettre à jour ce décret pour pouvoir reconnaître légalement la terramation, parce que la loi de 1887 ne dit rien à propos de l’inhumation ou de la crémation. Elle offre uniquement la possibilité de choisir parmi les possibilités prévues dans le décret de 1889. Autrement dit, elle laisse une porte ouverte consistant à actualiser ce décret pour proposer une troisième voie funéraire aux citoyens.
Les autres obstacles à la légalisation de la terramation concernent les problématiques de transport des corps et, plus généralement, celles des lieux, des enjeux sanitaires et du respect dû aux corps morts. Par exemple, certains soins de conservation des corps impliquant l’usage de conservateurs toxiques pour l’environnement semblent peu compatibles avec la terramation. Tous les thanatopracteurs ne sont cependant pas d’accord à ce sujet.
Cette liste, non exhaustive, donne un premier aperçu des enjeux liés à la reconnaissance et au développement d’une nouvelle pratique funéraire. Les recherches scientifiques et les réflexions en cours devraient permettre d’apporter les éléments nécessaires quant à la faisabilité technique du procédé, à son impact sanitaire et environnemental ou encore à sa dimension rituelle et spirituelle.
Le développement de la terramation semble donc être un changement conceptuel au moins autant que technique ou juridique.
Si la technique fonctionne (ce qui reste encore à démontrer dans le cas des procédés au sol ou en sous-sol) et que le cadre légal peut être adapté sans trop de difficulté, reste la décision politique.
Le gouvernement français a déjà été interrogé plusieurs fois dans le cadre de projets de loi ou de questions directes demandant l’autorisation à titre expérimental de la terramation. Le sujet semble donc être considéré avec sérieux par l’ensemble de l’échiquier politique et ne suscite pas de franche opposition. L’argument de la dignité du corps, soulevé dans certaines réponses du gouvernement, traduit surtout l’embarras à apporter une réponse à cette demande. Le funéraire reste un domaine peu connu, sans réelle envergure politique et donc difficile à porter pour des élus. Une proposition de loi a néanmoins été déposé, début 2023, et la création d’un groupe de travail ministériel sur la question avait été annoncée par le gouvernement. Mais suite aux divers remous de la vie politique française, il est malheureusement difficile de dire si ces initiatives sont encore d’actualité.
Citoyens, associations, chercheurs et professionnels continuent de se mobiliser.
En décembre 2024, la métropole de Grenoble a organisé une journée des transitions funéraires consacrée à la terramation. La présence de nombreux élus, de gestionnaires de cimetière ou encore de représentants des entreprises du secteur funéraire confirme le signe d’une dynamique en cours.
L’idée de la terramation s’impose également progressivement dans l’opinion publique, comme en atteste la récente parution d’articles et de points de vue favorables dans divers médias de large audience : le Monde, les Échos, la Gazette des communes, le Point, etc. De curiosité de Toussaint, la terramation fait donc son chemin vers sa reconnaissance en tant que nouvelle voie funéraire.
Jordy Bony a reçu des financements de L'Agence Nationale de la Recherche (ANR) dans le cadre du projet de recherche Sciences Avec et Pour la Société / Recherche-Action / Ambitions Innovantes F-COMPOST. Ce projet comporte une collaboration scientifique avec l'association Humo Sapiens, mentionnée dans cet article et qui milite pour la reconnaissance légale de la terramation.
Damien Charabidzé a reçu des financements de L'Agence Nationale de la Recherche (ANR) dans le cadre du projet de recherche Sciences Avec et Pour la Société / Recherche-Action / Ambitions Innovantes F-COMPOST. Ce projet comporte une collaboration scientifique avec l'association Humo Sapiens, mentionnée dans cet article et qui milite pour la reconnaissance légale de la terramation.
30.04.2025 à 17:35
Valérie Depadt, Maître de conférences en droit, Université Sorbonne Paris Nord
Laurent Chambaud, Médecin de santé publique, École des hautes études en santé publique (EHESP)
Malgré leur efficacité, les vaccins continuent à alimenter la défiance d’une partie des populations, pour diverses raisons. Sensibilisation des publics, lutte contre les fake news, obligation vaccinale… comment assurer le succès des campagnes de vaccination ?
En cinquante ans, les programmes de vaccination auraient sauvé 154 millions d’enfants de moins de 5 ans dans le monde, selon une étude publiée en 2024 dans la prestigieuse revue The Lancet. Sur cette période, les vaccins administrés auraient fait décliner la mortalité infantile de 40 %.
Pourtant, en France comme dans d’autres pays, le scepticisme vis-à-vis de la vaccination est toujours présent dans une partie de la population. Il entraîne une difficulté à maintenir une couverture vaccinale haute pour certains pathogènes, entraînant la diffusion de cas sporadiques ou de foyers épidémiques. La recrudescence récente de cas de rougeole témoigne de cette situation.
Cette méfiance se retrouve également à chaque diffusion de nouveaux vaccins, comme lors de la pandémie de Covid-19. La campagne de vaccination contre le papillomavirus pâtit également de cette situation : en décembre 2023, le taux de vaccination en France n’était que de 44,7 % pour le schéma complet chez les jeunes filles de 16 ans, et de 15,8 % chez les garçons. Pour mémoire, l’Organisation mondiale de la santé (OMS) recommande un taux de couverture vaccinale entre 80 et 90 %… Preuve de l’efficacité d’une couverture vaccinale élevée : en Suède, le sous-type HPV-18 du papillomavirus serait proche de l'éradication chez les jeunes femmes faisant partie des classes d'âges qui ont été très largement vaccinées, tandis que le sous-type HPV-16 a également très fortement diminué.
Pourquoi la vaccination, qui représente pourtant un puissant outil de prévention, fait-elle l’objet de si fortes réticences ? Et comment améliorer l’adhésion des populations ?
En 1885, un siècle après les essais d’immunisation du médecin anglais Edward Jenner, Louis Pasteur fabriquait le premier vaccin post-exposition contre la rage. Depuis, de nombreux vaccins ont été mis au point pour lutter contre des maladies transmissibles qui entraînaient un lourd fardeau de décès, de maladies et de séquelles.
Pourtant, aujourd’hui encore, la vaccination rencontre une certaine défiance dans de nombreux pays, dont la France. Si l’édition 2023 du baromètre de Santé publique France indique que l’adhésion à la vaccination s’est stabilisée à un niveau élevé dans l’Hexagone (84 % des personnes interrogées en France hexagonale déclarant être favorables à la vaccination en général), elle révèle aussi que l’adhésion vaccinale reste moins élevée chez les personnes disposant des diplômes ou des revenus les plus faibles. Elle a en outre tendance à diminuer chez les personnes âgées.
Les travaux de recherche ont montré que de nombreux facteurs influent sur la décision vaccinale : opinions et expériences personnelles ou des proches – notamment concernant la santé et la prévention –, connaissances et compréhension des données scientifiques, crainte des effets indésirables, oubli (dans les pays industrialisés) de ce qu’étaient les grandes épidémies, convictions religieuses, etc.
La vaccination consiste à intervenir sur un individu sain, dont on ignore les risques de contamination. Elle peut de ce fait être perçue comme une forme d’intrusion, ce qui, si les raisons de son intérêt ne sont pas expliquées, peut être mal vécu et entraîner un rejet. La légitimité d’une telle intervention est donc importante à expliquer, notamment si le péril de la maladie s’estompe ou n’est pas évident. D’autant que, comme tout produit de santé, le vaccin peut entraîner des effets secondaires.
La notion de rapport bénéfice-risque devient également bien plus sensible dans le cadre de la vaccination, car le vaccin est administré à des personnes bien portantes (quand bien même le risque de maladie est patent sur un territoire). La situation actuelle concernant le vaccin contre le chikungunya à La Réunion illustre bien l’importance d’évaluer en continu cette balance entre risques et bénéfices, en mettant en place des mesures de pharmacovigilance strictes et en diffusant les informations de façon transparente.
La question de la lisibilité des vaccinations se pose également. En effet, un nombre important d’entre eux vise des populations spécifiques (les nouveau-nés, les adolescents, les personnes âgées ou fragiles, les femmes enceintes, les voyageurs, certaines activités professionnelles), ce qui complique la compréhension de la population. En 2024, la Haute Autorité de santé publiait d’ailleurs une position intitulée : « Simplifions les vaccinations ! ».
Enfin, les technologies et la composition des vaccins sont variées : vaccin vivant atténué, inactivé, conservant tout ou partie de l’agent infectieux, utilisant des acides nucléiques (comme les vaccins à ARN messager) ou, plus récemment encore, à vecteur viral… La coexistence de ces modes d’action, peu évidents à comprendre sans une solide culture scientifique, rend complexe l’explication du fonctionnement des vaccins.
En outre, tous les vaccins n’ont pas la même efficacité, notamment pour ce qui concerne leur capacité à empêcher la transmission de la maladie par ce que l’on appelle l’« immunité collective ».
À ces facteurs s’en ajoute un autre, d’ordre économique : la rentabilité du secteur des vaccins, dont bénéficient les laboratoires producteurs, ajoute probablement à la méfiance ambiante. Le marché du vaccin est en effet florissant. Aux yeux d’une partie du public, l’intérêt lucratif que trouveraient ces entreprises dans la production de vaccins entrerait en conflit avec l’efficacité des produits dont elles « font l’article ».
La publicité par les entreprises pharmaceutiques, bien qu’autorisée, est strictement réglementée. Les campagnes publicitaires non institutionnelles auprès du public pour des vaccins ne sont autorisées qu’à titre dérogatoire. En outre, les produits concernés doivent figurer sur la liste de vaccins établie pour des motifs de santé publique par arrêté du ministre chargé de la santé, pris après avis de la Haute Autorité de santé. De tels messages ne sont autorisés qu’à la condition que leur contenu soit conforme à l’avis de la Haute Autorité de santé et soit assorti, de façon clairement identifiée, des mentions minimales obligatoires déterminées par cette instance.
Cette question des profits est d’autant plus problématique qu’elle est souvent relayée et dévoyée par les réseaux sociaux conspirationnistes, accusant les laboratoires pharmaceutiques – les Big Pharma – d’instrumentaliser les pouvoirs publics pour asseoir leur domination et s’enrichir encore. Une accusation qui a redoublé d’intensité lors de la pandémie de Covid-19.
Il est d’autant plus important de lutter contre ces fake news sur les réseaux sociaux qu’il a été démontré lors de la pandémie de Covid que l’exposition à de telles informations augmente l’hésitation vaccinale et réduit l’intention de se faire vacciner.
Dans un tel contexte, comment s’assurer que les vaccins efficaces puissent être le plus largement possible diffusés ? En France, il a été considéré que la réponse à cette question passe par l’obligation vaccinale.
Depuis 1902, la France a opté pour la vaccination obligatoire, dans les premiers temps pour diffuser le vaccin anti-variolique. Le législateur a depuis étendu plusieurs fois cette obligation, tout en continuant à se demander s’il faut poursuivre cette extension, comme l’illustrent les déclarations récentes de Yannick Neuder, le ministre de la santé, à propos d’une éventuelle obligation vaccinale contre la grippe pour les soignants.
Aujourd’hui, les dispositions obligatoires visent essentiellement les enfants (l’article L. 3111-2 du Code de la santé publique, issu de la loi du 30 décembre 2017, impose ainsi, sauf contre-indication médicale, 11 vaccinations pour l’admission, dans toute école, des enfants nés à partir du 1er janvier 2018), ainsi que les professionnels de santé au sens large, travaillant dans les secteur médicaux et médico-sociaux.
Comme tout acte médical, du point de vue du droit l’injection d’un vaccin constitue une atteinte au corps humain. C’est pourquoi l’obligation vaccinale ne va pas de soi en France : elle peut apparaître contredire la liberté de chacune et de chacun de consentir ou non à tout acte, aussi peu invasif soit-il, portant atteinte à l’intégrité physique (article 16-3 du Code civil).
Dans le même sens, l’intégrité physique fait partie du droit au respect de la vie privée, au sens de l’article 8 de la Convention européenne des droits de l’homme et des libertés fondamentales. Sur ces bases, la Ligue nationale pour la liberté des vaccinations avait saisi le Conseil d’État afin d’obtenir l’annulation du décret n°2018-42 du 25 janvier 2018 portant de 3 à 11 le nombre des vaccinations obligatoires.
Le Conseil d’État a rejeté le recours, estimant que la restriction apportée au droit au respect de la vie privée par l’obligation vaccinale des enfants était justifiée par l’objectif poursuivi
« d’amélioration de la couverture vaccinale pour, en particulier, atteindre le seuil nécessaire à une immunité de groupe au bénéfice de l’ensemble de la population et proportionnée à ce but ».
La sanction pénale spécifique de l’ancien article L.3116-4 du Code de la santé publique, qui a un temps existé pour les parents qui refuseraient les vaccinations obligatoires pour leur enfant, a été supprimée le 30 décembre 2017. Toutefois, le manquement à cette obligation pourrait être sanctionné au regard d’un texte plus général du Code pénal, aux termes duquel :
« Le fait, par le père ou la mère, de se soustraire, sans motif légitime, à ses obligations légales au point de compromettre la santé, la sécurité, la moralité ou l’éducation de son enfant mineur est puni de deux ans d’emprisonnement et de 30 000 euros d’amende. »
Afin de protéger à la fois ces professionnels et les populations vulnérables contre des risques sanitaires particuliers, la loi du 23 février 2017 a créé une obligation vaccinale pour l’entrée dans les études de santé ou de certains autres métiers à risque, principalement pour des vaccins ciblant des pathologies spécifiques comme l’hépatite B, la poliomyélite, le tétanos et la diphtérie.
Lors de la récente pandémie, la loi du 5 août 2021 avait également imposé la vaccination contre le Covid-19 aux professionnels des secteurs médicaux, sociaux et médico-sociaux, assorti de sanctions sévères en cas de non respect. Cette obligation a été levée en 2023, après avis de la Haute Autorité de santé, le Comité consultatif national d’éthique ayant en parallèle émis un avis sur l’obligation vaccinale des soignants.
Au titre de l’article 13 de la loi du 5 août 2021, les professionnels de santé qui exercent en violation d’une obligation vaccinale encourent des peines d’amende, voire d’emprisonnement en cas de récidive.
L’établissement et l’usage d’un faux certificat de statut vaccinal ou d’un faux certificat médical de contre-indication à la vaccination contre le Covid-19 sont punis conformément au chapitre Ier du Titre IV du livre IV du Code pénal. L’article 441-1 du Code pénal prévoit quant à lui une peine de trois ans d’emprisonnement et de 45 000 euros d’amende pour le faux et l’usage de faux.
Étendre la portée du regard sur l’obligation vaccinale à l’international est également instructif. Bien que l’OMS élabore des recommandations concernant la pertinence des vaccinations, chaque pays dispose de son propre calendrier vaccinal. La diversité des stratégies concernant l’obligation est remarquable. Ainsi, en 2023, 13 pays de l’Union européenne avaient choisi de ne rendre aucun vaccin obligatoire.
En Grande-Bretagne, premier pays à avoir rendu obligatoire le vaccin anti-variolique en 1853, les vaccins sont aujourd’hui uniquement « recommandés ». La Belgique et l’Allemagne n’ont qu’une seule vaccination obligatoire (contre la poliomyélite pour la Belgique et la rougeole pour l’Allemagne). À l’inverse, l’Italie dispose de 10 vaccins obligatoires et la Lettonie, 15.
Il faut souligner que la performance de ces pays concernant la couverture vaccinale des populations cibles n’est pas forcément reliée à la notion d’obligation. Ainsi, en 2022, le taux de couverture contre la rougeole était de 90,4 % en France, mais de 94,5 % en Norvège, où le vaccin est seulement recommandé, et de 85.1 % en Italie où il est obligatoire depuis 2017. En Grande-Bretagne, en 2022-2023, environ 85 % des enfants avaient reçu deux doses de vaccin contre la rougeole avant leur cinquième anniversaire, le niveau le plus bas depuis 2010-2011. En 2024, la recrudescence de la maladie avait forcé le gouvernement à lancer en urgence une vaste campagne de sensibilisation.
Selon l’OMS, les pays visant l’élimination de la rougeole, virus très contagieux, doivent viser un taux de couverture vaccinale de 95 %.
Restaurer et maintenir la confiance envers cet outil majeur de prévention qu’est le vaccin passe par l’explication des raisons pour lesquelles il est important d’atteindre la meilleure couverture vaccinale possible, trop souvent mal comprise.
Il semble indispensable de mettre en place une véritable stratégie de promotion de la vaccination. Une telle démarche passe par une sensibilisation et par une formation scientifique et éthique des professionnels de santé, rouages essentiels de l’information au public.
La lutte contre les fausses informations passant par les réseaux sociaux est également nécessaire. Cependant, elle va de pair avec la garantie d’une indépendance totale de la communication vis-à-vis des laboratoires producteurs de vaccins, au sujet desquels l’autorisation de publicité demande à être fortement limitée, car il s’agit d’un domaine public pour lequel l’information doit rester maîtrisée par les pouvoirs publics sans aucune interférence.
La vaccination est une question de santé publique. C’est pourquoi, les instances de démocratie en santé (conférences de santé, sociétés savantes, représentants des usagers…) doivent jouer un rôle majeur, et se saisir de ces sujets pour mieux les expliquer, au plus près des préoccupations des populations.
Ce n’est que dans le cadre d’une telle stratégie que les pouvoirs publics seront en mesure d’évaluer l’intérêt et l’utilité de rendre un vaccin obligatoire, notamment en situation d’urgence sanitaire.
Laurent Chambaud est membre de Place Publique.
Valérie Depadt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.04.2025 à 17:34
David Bourgarit, Chercheur en archéometallurgie, Centre de Recherche et de Restauration des Musées de France (C2RMF)
Brice Vincent, Maître de conférences en archéologie khmère, École française d'Extrême-Orient (EFEO)
L’esthétique raffinée des bronzes de l’ancien royaume d’Angkor a tout pour fasciner. Mais quels secrets techniques ont permis d’arriver à ces chefs-d’œuvre de l’art khmer ? Alors que vient d’être publiée une véritable encyclopédie consacrée aux techniques de fabrication des bronzes anciens, et que le musée Guimet (Paris) s’apprête à inaugurer l’exposition « Bronzes royaux d’Angkor, un art du divin », une équipe de chercheurs impliqués dans chacun de ces projets dévoile des découvertes récentes qui ouvrent un nouveau chapitre dans la compréhension de la métallurgie du cuivre au temps d’Angkor.
Une statue en bronze – ou plus généralement en alliage à base de cuivre – est souvent un objet techniquement complexe, fruit d’une succession de nombreuses séquences : fabrication d’un ou plusieurs modèles, conversion du modèle en métal, assemblages, finitions et décors. De ce fait, une statue en bronze est potentiellement dépositaire d’une grande accumulation de savoir-faire, dont la nature et la quantité varient allégrement au gré des sociétés humaines, voire au sein d’un même atelier.
Caractériser les techniques de fabrication d’une statue en bronze et les matériaux dont elle est constituée et, par là, les savoir-faire, est dès lors susceptible d’offrir un éclairage riche d’informations sur le groupe humain dont elle est issue. Informations dont une large communauté est potentiellement friande : archéologues, anthropologues, historiens, aussi bien que chargés de collections muséales voire de justice.
Revers de la médaille, parmi les nombreuses séquences de fabrication qui se succèdent avant de parvenir à l’objet final, seule l’ultime étape ou les toutes dernières se livrent à l’œil de l’examinateur : tout le travail de l’artisan est précisément, le plus souvent, de gommer les traces de fabrication, pour offrir un produit poli fini. À quoi il convient d’ajouter les altérations du temps. Étudier les techniques de fabrication d’un bronze revient ainsi à relever une coupe stratigraphique au sein de couches archéologiques qui, pour la plupart, ont disparu.
La complexité de cet objet d’étude, son cloisonnement académique fréquent (les statuaires antique et médiévale, statuaire d’Asie, etc.) et la variété des profils des chercheurs impliqués – métallurgistes, restaurateurs, archéologues, historiens, artisans, artistes – ont fatalement, et heureusement, généré des approches méthodologiques très variées.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Tenter d’inventorier et de thésauriser sur cette diversité et, soyons honnêtes, d’y mettre un peu d’ordre, telle est la tâche que s’est assignée pendant près de dix ans un groupe d’une cinquantaine de spécialistes de la statuaire en bronze, d’horizons et de cultures très différents, répondant au doux nom de CAST :ING(Copper Alloy Sculpture Techniques and history : an International iNterdisciplinary Group – Sculpture des alliages de cuivre : un groupe international interdisciplinaire).
Le résultat est un guide de bonnes pratiques récemment publié en ligne, qui s’adresse, sinon au grand public, du moins à des amateurs non nécessairement spécialistes.
On y apprend quelles sont les différentes techniques de fabrication que la recherche a pu mettre en évidence, sous des angles rarement abordés, comme les durées relatives des différentes étapes. On y apprend à détecter, à caractériser et à interpréter les éventuels stigmates techniques présents sur ou dans une statue en bronze, avec de fréquentes mises en garde sur les biais possibles. De nombreux conseils pratiques sont prodigués pour permettre d’évaluer le temps et les moyens analytiques à mettre en œuvre pour aborder tel ou tel aspect.
Enfin, un vocabulaire technique anglais, français, allemand, italien et chinois permet de se repérer dans la jungle des termes spécialisés, dûment référencés par des sources bibliographiques modernes et historiques.
Plus qu’un simple manuel technique, ce travail collectif invite à repenser l’étude de la statuaire en bronze. Celle-ci gagne beaucoup à dépasser la seule autopsie méthodique d’un corps sans vie, pour s’intéresser à toute la chaîne opératoire ayant présidé à sa fabrication et à l’environnement culturel, économique et politique dans lequel cette chaîne s’inscrit.
Malheureusement, une telle approche, dite « technologique », nécessite un ensemble de conditions qu’il est souvent difficile de réunir. Il n’est pas rare en effet que la statue souffre d’une contextualisation trop indigente pour permettre une attribution chronologique et géographique satisfaisante. Mais surtout, l’effort de recherche que cette approche dépasse largement les capacités des équipes habituellement en charge de ce genre d’étude, tant en termes de compétences que de moyens disponibles.
À cet égard, le programme de recherche LANGAU fait figure de perle rare. Mis en place par l’École française d’Extrême-Orient (Efeo) à partir de 2016 et s’appuyant sur de nombreux partenaires, dont le Centre de recherche et de restauration des musées de France (C2RMF), il vise à caractériser la métallurgie du cuivre dans le royaume khmer angkorien (IXe-XVe siècles), depuis la mine jusqu’à l’objet fini. Et de remonter à rebours toute la chaîne opératoire, témoins archéologiques et épigraphiques à l’appui.
On croyait tout connaître des productions en cuivre et alliages angkoriennes, statuaire et objets rituels issus de la fonderie, systématiquement coulés en bronze, alliage de cuivre et d’étain. Or, voici que de nouvelles typologies et/ou formulation d’alliages font leur apparition. Ainsi de tout un arsenal de vaisselle et de décors architecturaux ouvragés en cuivre non allié martelé, tel que révélé par le travail de doctorat en cours de Meas Sreyneath à l’Université Paris Nanterre. Ou encore tous ces parements de cuivres et bronzes monumentaux, possiblement dorés, qui décoraient l’intérieur de certains temples.
Une image nouvelle des échelles de production se construit petit à petit, plaçant le cuivre et ses alliages au sein d’une véritable production de masse. Il aura ainsi fallu plus de quatre tonnes de cuivre pour décorer les seuls murs intérieurs de la – somme toute, petite – tour sanctuaire centrale du temple de Ta Prohm (fin XIIe-début XIIIe siècles), à Angkor, nous dit Sébastien Clouet, jeune docteur en archéologie de Sorbonne Université très impliqué dans le programme LANGAU.
Et quoi d’autre qu’un système centralisé et très hiérarchisé, sous la férule du roi d’un immense royaume couvrant une grande partie de l’Asie du Sud-Est continentale, pour organiser un tel flot de métal ? C’est ce que les textes et l’épigraphie révèlent peu à peu. C’est aussi ce que l’archéologie a récemment mis en évidence avec cet atelier de fonderie installé directement contre un des murs du palais royal à Angkor, au XIe siècle, et que les études pluridisciplinaires (archéologie, archéométallurgie, géologie, pollution des sols, etc.) s’emploient aujourd’hui à caractériser : un atelier de fabrication donc, une étape de plus dans la chaîne opératoire.
Restait la question des matières premières, dans un paysage cambodgien jusqu’alors exempt de ressources en cuivre. Il fallait monter jusqu’en Thaïlande ou dans le centre du Laos pour s’approvisionner, sans véritable garantie ni historique ni archéologique pour la période angkorienne.
À partir de 2021, des recherches sur des archives coloniales souvent inédites, des prospections et des fouilles archéologiques ainsi que des caractérisations géologiques et archéométallurgiques ont permis de mettre au jour un formidable complexe minier et métallurgique de plus de 500 km2, à moins de 200 km de la capitale angkorienne. Calculs thermodynamiques à l’appui, les premières estimations de production de la seule zone étudiée évoquent d’emblée 15 000 tonnes de cuivre, d’après Sébastien Clouet.
Une telle success story ne pouvait pas laisser indifférent le monde des musées. Du 30 avril au 8 septembre 2025, le Musée national des arts asiatiques Guimet accueille l’exposition « Bronzes royaux d’Angkor, un art du divin ». Aux côtés de plus de deux cents statues, objets et décors architecturaux en bronze exposés, dont le monumental Vishnu couché du Mebon occidental, du mobilier archéologique, des documents d’archives et des bornes audiovisuelles tentent de conter un peu de cette histoire humaine et technique, depuis la protohistoire jusqu’à nos jours.
Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.
Brice Vincent a reçu des financements du ministère de l'Europe et des Affaires étrangères, via la Commission consultative des fouilles archéologiques à l'étranger.
David Bourgarit ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.04.2025 à 17:33
Sandrine Mathy, Directrice de Recherche CNRS - économiste de l'environnement - Laboratoire GAEL, Université Grenoble Alpes (UGA)
Carole Treibich, Enseignant chercheur en économie à l'Université Grenoble Alpes
Hélène Bouscasse, Chercheuse INRAE, spécialisée en économie spatiale et des transport, Inrae
Les zones à faibles émissions (ZFE) cristallisent la controverse en France, alors que leur suspension est discutée à l’Assemblée nationale. Souvent présentées comme un outil permettant de verdir le parc automobile, potentiellement aux dépens des populations défavorisées résidant en périphérie, elles sont avant tout un levier permettant le développement des mobilités durables. Une étude récente menée dans l’agglomération grenobloise montre que la frange de la population impactée sans alternative est très faible et qu’elle pourrait bénéficier de mesures d’accompagnement ciblées.
Plusieurs centaines de zones à faibles émissions (ZFE) existent en Europe. Leurs bénéfices sanitaires sont avérés, avec notamment une réduction des maladies cardiovasculaires liées à la pollution atmosphérique. Pourtant, en France, alors que la pollution aux particules fines de diamètre inférieur à 2,5µm (PM2,5) et celle due aux oxydes d’azote (NOx) causent, pour la première, près de 40 000 et, pour la deuxième, 7 000 morts prématurées par an, le Parlement envisage de revenir sur les ZFE.
Les classes sociales les plus défavorisées sont celles qui auraient le plus à gagner de la lutte contre la pollution. En effet, elles sont les plus exposées à de forts niveaux de pollution de l’air.
Pourtant, les ZFE sont souvent considérées comme socialement injustes pour ces populations. Elles sont perçues comme un outil destiné à verdir le parc automobile en favorisant l’acquisition de véhicules récents, jugés plus propres. Comme les véhicules plus récents sont plus coûteux, les ménages aux revenus modestes, qui possèdent plus de voitures anciennes, se trouvent davantage pénalisés a priori.
Nos recherches invitent à dépasser cette vision. Les zones à faibles émissions constituent avant tout un levier permettant de développer les mobilités durables, tout en répondant aux améliorant les enjeux sanitaires liés à la qualité de l’air. Cela en fait un pilier pour la transformation de nos mobilités urbaines, et invite à repenser notre dépendance à la voiture individuelle, source de multiples nuisances.
Outre la pollution de l’air et ses effets sanitaires, l’usage massif de la voiture individuelle génère du bruit, contribue à la sédentarité (facteur d’obésité) et accapare l’espace public. Il en résultat un cercle vicieux bien connu : plus on lui réserve d’espace, plus les alternatives deviennent limitées et plus les habitants en sont dépendants.
La vision des ZFE consistant en un dispositif de verdissement du parc automobile domine les débats qui passent ainsi à côté de l’essentiel.
Les ZFE peuvent être bien plus que cela, car il existe d’autres manières de s’adapter aux restrictions imposées par une ZFE que l’achat d’un véhicule conforme : changer son mode de transport (prendre les transports en commun, le vélo, marcher), adapter ses horaires de déplacement, voire modifier certaines destinations, sont autant de solutions souvent réalistes.
L’étude que nous avons menée sur l’agglomération grenobloise a quantifié les capacités d’adaptation des ménages à cette ZFE. Pour cela, nous nous sommes plongées dans l’enquête « Ménages mobilité grande région grenobloise » (EMC2) qui répertorie les déplacements (origine et destination de chacun des déplacements, modes de transport, motif de déplacement et équipements) d’un échantillon représentatif de la population du territoire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Nous avons comparé, pour chaque mode de transport, les caractéristiques (distance, mais pas seulement) des déplacements et notamment des boucles de déplacement (ensemble des déplacements réalisés entre un départ du domicile et un retour au domicile). Nous avons considéré que les déplacements et chaînes de déplacements effectués en voiture qui avaient les mêmes caractéristiques que celles d’autres déplacement effectués avec d’autres modes étaient reportables vers ces modes.
Nous avons également examiné les motifs de déplacement (déplacements domicile-travail, courses, loisirs, rendez-vous médicaux…). L’enjeu étant d’évaluer si certaines destinations, au sein du périmètre de la ZFE, étaient substituables à d’autres en dehors de la ZFE.
Premier résultat : seuls 8 % des ménages de l’agglomération sont impactés par la ZFE, c’est-à-dire ayant une voiture avec une étiquette CritAir non conforme et des déplacements dans le périmètre de la ZFE.
Pour ces ménages impactés, deux solutions peuvent être envisagées. D’abord le report modal pour 57 % d’entre eux, avec un potentiel extrêmement élevé du vélo conventionnel ou électrique, puis le changement de destination pour 13 % des ménages. Au-delà de l’amélioration de la qualité de l’air que ce report modal génèrerait, l’impact sanitaire lié à l’activité physique (marche, vélo ou même marche liée aux transports en commun) est considérable. Au niveau de l’agglomération grenobloise, nous montrons qu’au moins 300 décès prématurés par an pourraient être évités. Surtout, l’essentiel de ce gain ne vient pas tant de la baisse de la pollution que de l’augmentation de l’activité physique au quotidien.
Au final, seuls 30 % des 8 % de ménages impactés sur la totalité de l’agglomération (soit environ 2 % des habitants) n’ont pas d’autre solution que l’achat d’une voiture pouvant rouler dans la ZFE. En considérant le niveau de revenu de ces ménages, ils ne sont que 0,4 % de l’agglomération (soit environ de 300 à 1 500 personnes sur 826 000 habitants) à se retrouver dans l’impasse de la dépendance à un vieux véhicule sans moyen financier d’en changer.
Ce constat est à la fois inquiétant et rassurant. Inquiétant, car ces personnes ne pourront rester sans aide. Et rassurant, car le nombre de ménages concerné est finalement faible, et il est possible de mettre en place des aides financières ciblées pour ces ménages sans remettre en cause l’ensemble de la politique ZFE.
Ces proportions sont certes spécifiques à la situation grenobloise, mais elles montrent que l’adaptation des villes est possible, surtout si celles-ci sont bien accompagnées.
Un argument souvent avancé pour justifier de l’abandon des ZFE est leur manque d’acceptabilité dans la population.
Contrairement à l’image véhiculée d’une fronde généralisée, nos travaux basés sur un échantillon représentatif de la population dans la métropole grenobloise montrent que seule 1 personne sur 4 y est opposée. Comprendre : les trois quarts de la population sont soit favorables, soit neutres et plus d’un tiers se dit même « très favorable » à cette mesure.
Cet état de l’opinion révèle un paradoxe : une majorité est prête à accepter des restrictions de circulation, pourvu qu’elles soient efficaces et équitables, tandis qu’une minorité cristallise l’attention médiatique.
Nous avons alors cherché à identifier et à mieux comprendre les tenants et aboutissants de l’acceptabilité des ZFE. Or, résultat surprenant tout autant qu’instructif, il ressort de l’analyse que ce n’est pas tant le fait d’être impacté ou non par la ZFE qui détermine en premier lieu son niveau d’acceptabilité, mais avant tout les perceptions individuelles sur l’impact de la ZFE sur l’environnement, sur la santé publique, sur la mobilité et sur la justice sociale.
Certaines mesures d’accompagnement peuvent toutefois améliorer ce niveau d’acceptabilité :
ces mesures peuvent favoriser le report modal vers les transports en commun (développement de nouvelles lignes, parking relais…), éventuellement en jouant sur leur accessibilité financière (ticket unique, tarifs plus bas) ;
elles peuvent aussi inciter au report modal vers le vélo (développement de nouvelles infrastructures dédiées).
Il peut s’agir d’aides financières pour s’acheter une voiture conforme à la ZFE,
ou de l’introduction de dérogations pour certaines catégories d’automobilistes,
enfin, la création d’un service offrant des conseils personnalisés en fonction des situations peut aider à mettre en œuvre les solutions de report modal.
Notre travail révèle une très forte hétérogénéité de la perception de l’utilité de ces mesures, à la fois au sein des partisans à la ZFE et au sein de ses opposants.
Tout d’abord au sein des opposants, un profil se distingue. Il s’agit de personnes que l’on pourrait considérer comme réfractaires idéologiques, opposées par principe à toute forme de restriction de l’automobile, qui considèrent qu’aucune mesure d’accompagnement n’est utile. Quoi que l’on fasse, ces personnes resteront opposées aux ZFE.
Par contre, on retrouve chez les opposants un autre profil de personnes qui considèrent que certaines mesures d’accompagnement sont utiles : parking relais combinés à des transports collectifs renforcés, aides pour changer de véhicule ou de mode de transport, dérogation pour les commerces de centre-ville, par exemple. Ces personnes seraient susceptibles de mieux accepter la ZFE si ces mesures étaient mises en œuvre. Il s’agit donc d’une cible à privilégier pour les décideurs publics.
Parmi les partisans aussi, on distingue plusieurs profils. D’un côté, les personnes convaincues à la fois par l’utilité de la ZFE et les mesures d’accompagnement proposées pour en limiter les impacts en termes de justice sociale et pour favoriser le report modal.
Enfin, certaines personnes favorables à la ZFE pourraient ne plus la soutenir si trop de dérogations vers les automobilistes venaient amputer l’ambition environnementale et sanitaire de la ZFE.
Si l’on souhaite pérenniser et généraliser les ZFE en France, les stratégies d’accompagnement devront donc être savamment dosées.
La priorité principale est d’expliquer et d’informer. Il est essentiel de montrer concrètement l’impact de la pollution sur la santé (mortalité, maladies chroniques) et comment les ZFE, dans le cadre d’un ensemble de mesures, peuvent améliorer la vie quotidienne de tous.
Le deuxième pilier doit être l’équité. Pour que la ZFE soit comprise comme juste, il faut accompagner les ménages modestes qui pourraient souffrir des restrictions de circulation. Cela passe bien sûr par des aides financières ciblées, mais aussi par le développement d’alternatives fiables : transports publics fréquents et abordables, pistes cyclables et trottoirs sécurisés, covoiturage organisé, autopartage, ainsi qu’une certaine flexibilité. Des dérogations permettant à chacun de se rendre dans la ZFE, par exemple, une fois par semaine, comme à Montpellier, ou pour les petits rouleurs, comme à Grenoble, faciliteront l’acceptabilité du dispositif tout en n’impactant son efficacité environnementale que de façon marginale.
Après l’abandon du plan vélo, des primes à l’achat du vélo électrique et le rabotage du budget consacré au leasing social des voitures électriques, que resterait-il des politiques de mobilité durable si les ZFE venaient à disparaître ?
Face à l’urgence sanitaire et climatique, les ZFE doivent constituer la pierre angulaire d’un vaste programme visant à repenser notre mobilité pour nous guérir de la dépendance à la voiture individuelle. Nos recherches montrent justement que des alternatives existent, et que celles-ci pourraient permettre de concilier objectifs environnementaux, sanitaires et sociaux, sans pénaliser les ménages les plus vulnérables.
Sandrine Mathy a reçu des financements de l'Agence de l'Environnement et de la Maîtrise de l'Energie (ADEME) et de l'Agence Nationale de la Recherche (ANR).
Carole Treibich et Hélène Bouscasse ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
30.04.2025 à 17:29
Gwenaëlle Questel, Enseignant-chercheur en droit privé, membre du LAB-LEX, Université Bretagne Sud (UBS)
Depuis le 24 février, le chirurgien Joël Le Scouarnec est jugé pour 299 viols et agressions sexuelles, essentiellement commises sur des mineures, entre 1989 et 2014. Condamné à une peine de prison avec sursis en 2005 pour possession d’images pédocriminelles, ce dernier est recruté par plusieurs hôpitaux et continue d’exercer malgré des alertes de collègues. En effet, comme ceux qui interviennent en milieu scolaire, les professionnels de santé ont une obligation de signalement à la justice en cas de violences sur des mineurs. Pourquoi n’est-ce pas toujours le cas dans la pratique ? Comment améliorer les dispositifs existants ?
Médecin et criminel pédophile, Joël Le Scouarnec a bien été dénoncé par certains collègues auprès d’établissements hospitaliers et du conseil de l’Ordre, mais ces alertes sont, pour la plupart, restées sans suite. Si certains établissements ont mis fin au contrat de travail du chirurgien d’autres, rencontrant des difficultés de recrutement, l’ont malgré tout embauché, arguant qu’aucune interdiction d’exercer n’avait été prononcée à son encontre et qu’aucune sanction disciplinaire n’avait été prise par le conseil de l’Ordre. Le chirurgien a continué d’exercer et de sévir auprès d’enfants pendant des années.
Lors du procès, un ancien collègue de Joël Le Scouarnec a rappelé que malgré les alertes lancées à l’hôpital de Quimperlé, aucune communication officielle n’a été faite par l’établissement et il a reconnu, à titre personnel n’avoir jamais alerté les autres intervenants du bloc : « je pensais qu’ils avaient été informés, et je ne pouvais pas non plus l’afficher dans tout le service ».
Face à une telle situation, on s’interroge : quelles sont les obligations légales des professionnels intervenant auprès d’enfants dans le signalement des violences ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Alors que 160 000 enfants sont victimes de violences sexuelles chaque année, le professionnel de santé a une place importante puisqu’il a une obligation de signalement auprès des autorités judiciaires ou administratives lorsqu’il a connaissance de violences, y compris sexuelles, commises sur des mineurs. Cette règle, envisagée dans le code pénal, article 226-14 est également rappelée dans les différents codes de déontologie des professions médicales : médecin,article R4127-44 alinéa 2 Code de la santé publique, infirmier, sage-femme.
Ce devoir de signalement qui est donc à la fois d’origine légale et déontologique implique alors une possible levée du secret professionnel pour informer les autorités compétentes en cas de violences faites à l’égard des enfants. La loi précise alors l’auteur d’un tel signalement puisque celui-ci ne peut pas faire l’objet de poursuites pénales, civiles ou encore disciplinaires pour avoir révélé des informations à caractère secret.
Pour autant, l’énoncé des textes en la matière conduit à une incertitude quant à l’étendue de cette obligation de signalement. En effet, il est précisé que le professionnel doit alerter les autorités compétentes de violences faites aux enfants « sauf circonstances particulières » qu’il « apprécie en conscience ».
Ces références à l’appréciation concrète et circonstanciée peuvent amener le professionnel de santé, lorsqu’il y est confronté, à distinguer deux types de situations. Lorsque ce dernier a la certitude que des violences sont exercées à l’égard d’un enfant, il informe les autorités judiciaires ou administratives. Néanmoins, en cas de simples suspicions de violences, il semble y avoir un delta qui fait douter du caractère impératif du devoir qui lui incombe.
En ce qui concerne les enseignants et les professionnels en milieu scolaire, une obligation plus large est posée puisque tout fonctionnaire ou agent public qui acquiert connaissance d’un délit ou d’un crime, quel qu’il soit, doit en aviser sans délai le Procureur de la République article 40 Code de procédure pénale, alinéa 2 et L 121-11 Code général de la Fonction publique.
Cette obligation a été spécialement rappelée en cas de violences sur mineurs, dans le cadre de la loi du 14 avril 2016 relative à l’information de l’administration par l’autorité judiciaire et à la protection des mineurs.
En pratique, lorsqu’ils suspectent des violences, les professionnels intervenant auprès d’enfants font le plus souvent des signalements indirects auprès des services départementaux et de la Cellule de recueil des informations préoccupantes (Crip) qui est une cellule départementale qui centralise et facilite le repérage des enfants victimes de violences.
Cette cellule, qui peut être alertée par toute personne, notamment via le relais assuré par le numéro « 119, Allô enfance en danger », se charge de faire une évaluation pluridisciplinaire de la situation qui aboutit, dans un délai de trois mois au plus, à une décision d’orientation déterminant les éventuelles suites à donner aux signalements effectués.
Les pratiques observées en milieux hospitalier et scolaire montrent qu’il y a souvent une concertation en interne au sujet des violences suspectées avant que la structure concernée n’alerte la CRIP.
Le rôle prépondérant des enseignants et des professionnels de santé dans la détection des violences faites aux enfants est indéniable puisqu’ils sont respectivement à l’origine de 23 % et de 15 % des informations préoccupantes transmises à la Crip.
Les dispositifs existants restent cependant perfectibles. Concernant les professionnels de santé, ils sont certes protégés d’un engagement de leur responsabilité du point de vue du secret professionnel mais ils peuvent être sanctionnés disciplinairement pour violation d’autres obligations déontologiques en cas de signalement.
Cette absence d’immunité totale a été récemment confirmée par le Conseil d’État lors d’une décision du 15 octobre 2024 qui a validé la sanction disciplinaire d’un médecin qui avait établi un certificat médical mentionnant des « violences intrafamiliales extrêmes » qu’il n’avait pas personnellement observées manquant ainsi à son obligation déontologique de non-immixtion dans les affaires de famille et dans la vie privée des patients comme nous le rappelle l’article R 4127-51 CSP.
Conscient du frein que cette crainte de la sanction disciplinaire peut constituer aux signalements, le plan gouvernemental 2023-2027 consacré à la lutte contre les violences faites aux enfants préconise une modification des codes de déontologie pour « clarifier l’obligation du professionnel de santé quand il constate des violences ».
En outre, l’absence de formation continue obligatoire relative aux violences faites aux enfants pour les professionnels intervenant auprès d’enfants est également à regretter. En effet, des formations sont proposées mais demeurent souvent ponctuelles en raison du manque de moyens et restent avant tout à la discrétion de chaque structure. Là encore, le plan gouvernemental a pour ambition de revaloriser la formation des professionnels.
Parmi les mesures proposées, le plan envisage la formation de vingt référents par ministère concerné chargés de sensibiliser et de former les professionnels intervenant auprès d’enfants au repérage et signalements des situations de violences faites aux enfants. La réforme de la formation des enseignants amorcée il y a quelques jours dans le décret du 17 avril signé par la ministre de l’éducation nationale, Élisabeth Borne, et le premier ministre, François Bayrou, promet également un renforcement de la formation sur ces questions.
Reste à savoir si les moyens humains, matériels et financiers déployés seront à la hauteur de ces ambitions. Au-delà des seuls enseignants, la mise en œuvre d’une formation continue approfondie obligatoire pour l’ensemble des professionnels intervenant auprès d’enfants pourrait constituer une avancée importante dans la lutte contre ces violences.
Gwenaëlle Questel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.04.2025 à 17:28
Allane Madanamoothoo, Associate Professor of Law, EDC Paris Business School
Carlo Acutis va bientôt devenir le premier saint catholique issu de la génération des millenials. Comment comprendre l’engouement que suscite la figure de ce jeune geek qui évangélisait sa génération sur Internet ? Et qu’est-ce que « devenir saint » signifie exactement du point de vue de la doctrine catholique ?
Carlo Acutis, un jeune Italien né le 3 mai 1991 à Londres et décédé d’une leucémie foudroyante à l’âge de 15 ans, devait être canonisé à Rome le 27 avril dernier. La cérémonie a été reportée à un peu plus tard à cause du décès du pape François.
Surnommé « le saint patron du Web », « le cyber-apôtre » ou encore « l’influenceur de Dieu », il deviendra le premier saint catholique ayant vécu au XXIe siècle à l’exception du pape Jean Paul II, mort en 2005 et canonisé en 2014.
Mais comment devient-on un saint ? Combien y a-t-il de saints ? Qui sont-ils et sont-ils tous populaires ? Que signifie devenir saint à l’heure d’Internet ou du numérique ? Enfin, Carlo Acutis est-il un modèle pour les jeunes ?
Une personne est reconnue officiellement comme « sainte » au terme d’une procédure juridique rigoureuse appelée « procès de canonisation ». La décision de canonisation relève de l’autorité du pape, qui l’inscrit officiellement sur le Canon des saints – communément appelé « Catalogue des saints » – et permet qu’un culte universel lui soit rendu une fois la canonisation officialisée.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Toutefois, l’apanage du souverain pontife dans la décision de canonisation n’a pas toujours existé. Pendant des siècles les personnes étaient désignées « saintes » par la vox populi. Leur sainteté était ensuite confirmée par l’évêque local. La première canonisation effectuée par un pape remonte au Xe siècle avec celle de l’évêque Ulrich d’Augsbourg, par Jean XV, le 4 juillet 993. Depuis le XIIIe siècle, la décision de canonisation est réservée au pape, avec la mise en place d’un vrai procès en canonisation.
Ce procès de canonisation – qui a connu différentes réformes au fil des siècles – se déroule en plusieurs étapes :
L’ouverture de la Cause de canonisation du futur saint – une personne ayant une solide renommée de sainteté – débute en principe au bout de cinq ans au niveau du diocèse où a vécu le futur saint, après l’accord d’une autorité ecclésiastique compétente. Une enquête diocésaine est alors menée afin d’évaluer la réputation de sainteté de ce futur saint. Témoignages et preuves documentaires sont recueillis. À cette étape, le futur saint est appelé « serviteur de Dieu ». Après la clôture de l’enquête diocésaine, le dossier est transmis au Dicastère des causes des saints – anciennement, « Congrégation pour les causes des saints » –, à Rome.
Une fois le dossier parvenu au Dicastère, celui-ci examine le dossier de la Cause déjà instruite sur le fond et la forme. Puis il émet un jugement sur le fond de la Cause avant de la transmettre au pape. Si le pape reconnaît les vertus héroïques –- la foi, l’espérance, la charité, la force d’âme, la prudence, la tempérance et la justice – du « serviteur de Dieu », il signe le « décret d’héroïcité des vertus » et le déclare « vénérable ».
Après la reconnaissance d’un premier miracle – dont le caractère inexplicable est reconnu et validé par des experts médicaux – à l’intercession du « vénérable », ce dernier est déclaré « bienheureux » par le pape. Pour rappel, un chrétien martyrisé (tué en haine de la foi) peut être déclaré « bienheureux » sans l’exigence d’un miracle.
L’attribution d’un second miracle à l’intercession du bienheureux ouvre la voie à la reconnaissance de sa sainteté après l’approbation du décret de sa canonisation par le pape. Celui-ci le proclame officiellement « saint » par un acte de canonisation qui a lieu au cours d’une cérémonie.
Notons que, sur les trois conditions requises pour être déclaré « saint » – l’héroïcité des vertus, l’ouverture de la Cause après cinq ans et l’accomplissement d’au moins deux miracles –, les deux dernières peuvent être exceptionnellement assouplies. En effet, l’ouverture de la Cause a été lancée avant la durée des cinq ans pour le pape Jean Paul II et Mère Teresa. L’exigence d’un premier miracle comme préliminaire à la canonisation n’a pas non plus été indispensable dans le cadre de la canonisation du pape Jean XXIII.
Par ailleurs, il faut rappeler qu’il existe une autre forme de canonisation dite « équipollente » (« par équivalence ») - bien qu’elle soit rare. Moins formelle, elle ne nécessite pas de « procès » préalable. La procédure s’appuie sur la renommée des grâces obtenues par l’intercession de la personne. Celle-ci est déclarée « sainte » seulement sur un décret du pape et sans cérémonie particulière.
Enfin, il est important de préciser que la canonisation n’a pas pour objectif de « faire » d’une personne un saint mais de « reconnaître » sa sainteté.
En 2000 ans, l’Église compte près de 10 000 saints dont : des papes ((Jean Paul II, Jean XXIII, 2014)) ; des religieux et des religieuses (Antoine de Padoue (1232), Rita de Cascia (1900), Thérèse de Lisieux (1925), Maximilien Kolbe (1982), Padre Pio (2002), Mère Teresa (2016), Charles de Foucauld (2022)) ; des rois (Louis IX, 1297) ; des couples (Zélie et Louis Martin, 2015) ; des enfants (Jacinthe et François, 2000).
Durant son pontificat, le pape François aura canonisé 929 personnes (dont les 800 martyrs italiens d’Otrante canonisés en une seule fois en 2013).
François d’Assise figure parmi les saints les plus populaires du monde entier. Né à Assise, en Italie, vers 1181, dans une riche famille de drapiers, il abandonne son ambition d’être adoubé chevalier à la suite d’un songe. Peu à peu, il change de vie. Il commence par aider les plus démunis, puis soigne les lépreux. Il ne comprend le sens réel de sa vocation qu’en 1208. En 1210, il fonde l’ordre des Frères mineurs, communément appelé ordre des Franciscains. François est également connu comme étant le premier saint à avoir reçu les stigmates de la crucifixion du Christ. Il est aussi considéré comme le précurseur du dialogue islamo-chrétien. Décédé en 1226, il est canonisé deux ans après sa mort par Grégoire IX. En 1979, Jean Paul II le proclame saint patron de l’écologie. Le pape François – de son vrai nom Jorge Mario Bergolio – avait d’ailleurs choisi « François » comme nom symbolique en référence à François d’Assise, connu comme le saint des pauvres.
Moins connue est la sainte Joséphine Bakhita. Née vers 1869 au Darfour (Soudan), elle est capturée durant son enfance en 1877. Vendue en tant qu’esclave à plusieurs reprises, elle finit par être achetée par le consul d’Italie qui l’emmènera avec lui à son retour au pays, en 1885, à sa demande. Elle y deviendra domestique dans une famille amie du consul. À la suite d’une action en justice intentée à son encontre par sa « maîtresse » à Venise – cette dernière prétendait détenir un droit de propriété sur sa personne –, Bakhita est officiellement affranchie grâce à une décision du 29 novembre 1889 rendue en sa faveur dans laquelle le Procureur du roi déclara :
« N’oubliez pas, Madame, que nous sommes ici en Italie où, Dieu merci, l’esclavage n’existe pas, seule la jeune fille peut décider de son sort avec une liberté absolue. »
Libre, elle embrasse la vie religieuse chez les Sœurs canossiennes à Venise. Décédée en 1947, elle est béatifiée en 1992 puis canonisée en 2000 par le pape Jean Paul II, devenant la première sainte soudanaise. En France, un livre poignant, Bakhita, de Véronique Olmi, a permis de mieux la connaître.
Sans doute plus connu que Joséphine Bakhita mais pas encore aussi populaire que François d’Assise, Carlo Acutis est né dans une famille catholique non pratiquante. Selon sa mère, son fils était engagé dans de nombreuses activités caritatives en faveur des plus démunis et était habité par une foi précoce et profonde.
Passionné d’Internet, il met, à l’adolescence, ses connaissances d’informaticien au service de l’évangélisation à travers la création d’expositions numériques sur les miracles eucharistiques – la réelle présence du Christ dans l’eucharistie selon les croyants – et les apparitions de la Vierge Marie. D’où les surnoms de « saint patron du Web », « cyber-apôtre » ou encore « influenceur de Dieu » qui lui ont été attribués.
En 2020, Carlo est déclaré bienheureux à la suite de la reconnaissance d’un premier miracle par son intercession : la guérison d’un enfant atteint d’une déformation du pancréas. En 2024, un deuxième miracle lui ayant été attribué ouvre la voie à sa canonisation. Une jeune femme grièvement blessée et dont le pronostic vital est engagé guérit rapidement après que sa mère est allée se recueillir auprès de la tombe de Carlo en Assise. Il deviendra le premier saint millénial (génération Y) après sa canonisation par le successeur du pape François.
L’évangélisation conduite par Carlo Acutis à travers ses expositions virtuelles, traduites dans plus d’une vingtaine de langues et accessible partout dans le monde, l’a rendu célèbre. En 2019, le pape François a fait son éloge dans son exhortation apostolique Christus Vivit, l’érigeant en modèle pour la jeunesse. Son histoire est également relayée sur différents réseaux sociaux (Facebook, Tiktok, Instagram, etc.) et est racontée dans des livres pour enfants et jeunes adultes. Sa popularité s’est accrue depuis l’ouverture de son procès en canonisation. Dans ce cadre, son corps, préalablement transféré à Assise, lieu de pèlerinage pour les fidèles du monde entier, a été exhumé et exposé à la vénération des fidèles, vêtu d’un jean, d’un sweat de sport et de baskets, « uniforme » habituel des adolescents.
En faisant l’éloge de Carlo, le pape François a sans doute aussi voulu promouvoir une nouvelle figure de sainteté et dépoussiérer l’image des saints traditionnels de l’Église et ayant vécu à d’autres époques. Avec sa canonisation, la sainteté ne relève plus du passé mais du présent. En ayant eu une adresse mail, un portable ou encore un ordinateur, Carlo apparaît ainsi comme un (futur) modèle de saint moderne et accessible à la génération connectée.
Pour Clément Barré, prêtre du diocèse de Bordeaux, il ne faut néanmoins pas s’arrêter à sa modernité car cela risque de masquer l’essentiel : « son témoignage eucharistique radical qui transcende les catégories d’âge ». Par ailleurs, il souligne également qu’il est important de ne pas le cantonner au rôle de « Saint des jeunes », puisqu’un adulte ou un senior peut aussi être interpellé par le style d’évangélisation de Carlo…
Allane Madanamoothoo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.04.2025 à 17:27
Claude Lelièvre, Enseignant-chercheur en histoire de l'éducation, professeur honoraire à Paris-Descartes, Université Paris Cité
L’attaque au couteau qui a eu lieu dans un lycée nantais, le 24 avril, a reposé la question de la sécurité des établissements scolaires. Au gouvernement, on prône l’installation de portiques pour sanctuariser l’école. À quelles références historiques ce discours nous renvoie-t-il ?
Après l’attaque dramatique au couteau d’un lycéen contre ses condisciples jeudi 24 avril à Nantes, le premier ministre François Bayrou a formulé une « piste » centrale : installer des portiques de sécurité, insistant sur « tout ce qui peut aller dans le sens de la sanctuarisation de l’école », notion « défendue depuis longtemps ».
Effectivement, il y a une trentaine d’années, en février 1996, alors ministre de l’éducation nationale, il avait présenté en ces termes un plan de lutte contre la violence à l’école :
« L’école doit être un sanctuaire. Pendant des décennies, on a plaidé pour une école ouverte […]. Il faut prendre une position inverse, travailler à resanctuariser l’école. »
Et de préconiser alors l’installation de clôtures autour des établissements, en plaidant pour la restauration d’un article de la loi anticasseurs, permettant d’interdire l’entrée dans l’établissement scolaire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il s’agit désormais d’installer des portiques de sécurité à l’entrée des établissements scolaires – toujours dans la même ligne, selon laquelle le danger vient de l’extérieur de l’école.
Encore faudrait-il, d’un point de vue pragmatique, préciser s’il s’agit de dispositifs de reconnaissance d’identité (contre l’intrusion de personnes extérieures à l’établissement, mais qui auraient été impuissants en l’occurrence) ou de portiques détecteurs de métaux comme dans les aéroports.
Les portiques détecteurs de métaux, apparemment les plus sûrs, ne sont pas sans failles : ils sont de nature à créer des embouteillages qui ne sont pas exempts de troubles voire de dangers à l’entrée des établissements, et les couteaux en céramiques ne peuvent pas être détectés.
À lire aussi : Sécurité des établissements scolaires : toujours plus de dispositifs de contrôle ?
Par ailleurs, le coût d’installation d’un portique n’est pas négligeable. Il est estimé à au moins plusieurs dizaines de milliers d’euros, et atteint souvent les cent mille. Rapporté aux 58 000 écoles et établissements du second degré, cela ferait une belle somme au total pour une efficacité toute relative.
À vrai dire, l’accent mis sur l’extérieur de l’école pour ce qui concerne les violences ayant lieu à l’école détourne le regard de ce qui est pourtant de loin le plus répandu, à savoir les violences entre élèves, les violences de certains élèves contre leurs encadrants voire les violences de certains encadrants contre les élèves. En 1996 comme actuellement…
À lire aussi : Violences à l’école : une longue histoire ?
On peut même soutenir que certaines de ces violences s’enracinent dans une certaine façon d’appréhender l’éducation, « catholique », voire « républicaine ». On peut citer par exemple (sinon en exemple) la valorisation unilatérale de l’obéissance pour ce qui concerne les « Frères des écoles chrétiennes » (issus de la Contre-réforme) qui ont été longtemps une congrégation enseignante phare pour l’Église catholique :
« L’obéissance est une vertu par laquelle on soumet sa volonté et son jugement à un homme comme tenant la place de Dieu. »
Avec toutes les dérives qui peuvent s’ensuivre et dont on a eu de nombreuses révélations ces derniers temps.
Encore convient-il de ne pas se focaliser unilatéralement sur cela, à l’invitation du grand sociologue de l’éducation Émile Durkeim qui attire notre attention sur un point crucial.
Selon Durkheim, l’Église a en quelque sorte « inventé » l’école sous une forme institutionnelle forte (à l’instar d’un « sanctuaire ») parce qu’elle avait « un projet d’emprise universelle sur les âmes ». Pour le sociologue, qui écrit à la fin du XIXe siècle, l’histoire de l’école est celle de la longue « laïcisation » de ce projet de « conversion » dont le contenu (Dieu et l’Église, ou la République une et indivisible) importe moins que la forme (celle du « sanctuaire »).
« Pour nous aussi, l’école, à tous les degrés, doit être un lieu moralement uni, qui enveloppe de près l’enfant et qui agisse sur sa nature tout entière […]. Ce n’est pas seulement un local où un maître enseigne ; c’est un être moral, un milieu moral, imprégné de certaines idées, de certains sentiments, un milieu qui enveloppe le maître aussi bien que les élèves. »
La mise en avant du « respect des valeurs de la République » qui met l’accent sur les devoirs civiques plutôt que sur les droits et responsabilités de la citoyenneté n’irait-elle pas dans ce sens : une version structurellement « catholique » d’une certaine éducation « républicaine » ?
On peut en effet s’interroger si on met cela en regard de la profession de foi républicaine de Ferdinand Buisson, personnellement – lui – dans la mouvance d’un protestantisme sécularisé. Directeur de l’enseignement primaire de 1879 à 1896 et fondateur de la Ligue des droits de l’homme, voici ce qu’il disait au congrès du Parti radical en 1903 :
« Le premier devoir d’une République est de faire des républicains […]. Pour faire un républicain, il faut prendre l’être humain si petit et si humble qu’il soit et lui donner l’idée qu’il peut penser par lui-même, qu’il ne doit ni foi ni obéissance à personne, que c’est à lui de chercher la vérité et non pas à la recevoir toute faite d’un maître, d’un directeur, d’un chef quel qu’il soit, temporel ou spirituel […]. Il n’y a pas d’éducation libérale si l’on ne met pas l’intelligence en face d’affirmations diverses, d’opinions contraires, en présence du pour et du contre, en lui disant : “Compare et choisis toi-même !” »
Claude Lelièvre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.04.2025 à 11:01
Joel Marthelot, Chercheur au CNRS, Aix-Marseille Université (AMU)
Simon Hadjaje, Docteur en physique, Aix-Marseille Université (AMU)
Après des jours à se préparer patiemment dans son cocon, la mouche émerge et déploie ses ailes. En quelques instants, ces appendices, au départ pliés et froissés, forment des structures planes, translucides, résistantes et surtout… prêtes à décoller !
La vie des insectes est ponctuée par des phases de transformation impressionnantes, au cours desquelles leurs corps subissent des métamorphoses spectaculaires : de la larve à la nymphe protégée dans son cocon, jusqu’à l’insecte adulte.
Lors de la transformation finale, l’insecte émerge de sa nymphe et déploie ses ailes en seulement quelques minutes. À partir d’une structure compacte et pliée, semblable à un origami, les ailes s’étendent pour devenir des surfaces rigides et fonctionnelles, prêtes pour le vol, qui permettront à la mouche adulte d’échapper aux prédateurs, de rechercher de la nourriture et de se reproduire.
Ce déploiement se fait par une augmentation de la pression sanguine dans des ailes – un mécanisme que nous sommes désormais en mesure d’imager et d’étudier avec une précision sans précédent, comme nous l’avons rapporté récemment dans Nature Communications. Ces recherches éclairent la mécanique des structures souples capables de changer de forme – elles ouvrent ainsi de nouvelles perspectives pour des applications dans les structures déployables, utilisées aussi bien en aérospatiale qu’en chirurgie mini-invasive et en robotique flexible.
Aux stades larvaire et nymphal, les ailes se forment progressivement grâce à des processus de divisions cellulaires, d’élongation et de réarrangement de tissus. Ces étapes relativement longues s’étendent sur une dizaine de jours chez la drosophile, petite mouche du vinaigre et modèle privilégié des biologistes. Puis, en seulement quelques minutes, la mouche adulte déploie ses ailes.
Cette métamorphose spectaculaire intrigue les scientifiques depuis des siècles. Au XVIIIe siècle, le naturaliste français René-Antoine Ferchault de Réaumur observait que, durant cette phase d’expansion, « l’insecte boit l’air pour s’en bien remplir le corps ».
Un siècle plus tard, Georges Jousset de Bellesme observa, en piquant délicatement une aile de libellule en déploiement avec une aiguille fine, qu’elle était en réalité remplie de liquide, et non d’air, pendant cette phase.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
On sait aujourd’hui que, pour générer cette pression de liquide dans les ailes, l’insecte active un ensemble de muscles situés à la base de la trompe, habituellement impliqués chez la mouche adulte dans l’ingestion de nourriture – Réaumur avait raison.
Ces muscles lui permettent d’avaler de l’air, ce qui gonfle son intestin comme un ballon. Simultanément, la contraction des muscles abdominaux réduit le volume de l’abdomen, augmentant ainsi efficacement la pression sanguine. Celle-ci atteint progressivement quelques kilopascals, environ un quart de la pression artérielle chez un humain adulte, et génère un flux sanguin dans la structure de l’aile – de Bellesme aussi était sur la bonne piste.
Dans notre étude, nous avons mesuré l’augmentation de pression du sang chez l’insecte, à l’aide d’une sonde reliée à un capillaire en verre inséré dans son abdomen.
De plus, en injectant des traceurs fluorescents dans le sang de l’insecte, nous avons pu visualiser le flux de sang dans l’aile. De façon surprenante, nous avons observé que lors de cette phase de dépliement de l’aile, le sang se diffuse dans l’ensemble de l’aile – ceci contraste avec le reste de la vie de la mouche adulte, où le sang reste confiné aux veines qui parcourent les ailes.
Pour mieux comprendre où va précisément le sang lors du dépliement, nous avons imagé les ailes par microtomographie aux rayons X. Cette technique permet de reconstruire en trois dimensions la structure interne de l’aile à partir d’un grand nombre de radiographies. Nous avons ainsi montré que l’aile est constituée de deux fines plaques séparées par des piliers espacés, se pressurisant comme un matelas gonflable. Contrairement aux structures artificielles, la surface de l’aile s’étire au cours du dépliement.
À une échelle plus fine, des observations au microscope électronique révèlent que chaque plaque est composée d’une monocouche de cellules recouvertes d’une fine couche rigide initialement plissée : la cuticule.
En observant le déploiement des ailes chez des mutants dont les contours cellulaires sont visibles grâce à un marquage fluorescent, nous avons découvert que les cellules s’étirent pendant l’expansion tandis que la fine couche se déplisse, mais sans s’étirer davantage, fixant ainsi la forme finale de l’aile. Une fois l’aile entièrement déployée, les cellules meurent et sont aspirées hors de l’aile, tandis que la fine couche se rigidifie, ce qui permet à l’aile de garder sa forme chez l’adulte.
Ainsi, nous avons montré que le déploiement des ailes de drosophile est un processus hiérarchique à deux échelles : un dépliage macroscopique à l’échelle de l’organe et un déplissage microscopique à l’échelle du tissu.
Le déplissage engendre également une propriété mécanique intéressante. Lorsqu’on tire sur l’aile, la force n’augmente pas de manière linéaire, comme ce serait le cas pour un ressort. Au début, c’est surtout les cellules qui résistent tandis que la fine couche plissée joue un rôle très faible. Mais au fur et à mesure que cette couche se déplisse puis s’étire, elle commence à participer à ce qui se traduit par une augmentation rapide de la rigidité globale du tissu.
Nous avons montré que cette propriété mécanique, combinée à la géométrie de la structure de l’aile, constitue une configuration efficace pour le déploiement – appelée « point de fonctionnement » – où une faible augmentation de la surpression exercée par la mouche entraîne une augmentation significative de la taille de l’aile. L’insecte exploite naturellement cette configuration pour déployer largement son aile dans le plan, sans avoir à générer de grandes variations de pression.
Ainsi, l’essentiel du déploiement se produit pour une pression constante, maintenue par la pression sanguine de la mouche. Nous avons ensuite étudié les facteurs limitant la vitesse de ce déploiement.
Pour le savoir, nous avons déformé l’aile à des vitesses croissantes. Ce que nous avons observé, c’est que l’aile apparaît plus rigide à mesure que la vitesse augmente, ce qui montre que sa réponse est « viscoélastique ». Cela signifie que l’aile peut s’étirer comme un matériau élastique, mais à grande vitesse, elle se comporte aussi comme un matériau visqueux, offrant une résistance à la déformation et ralentissant le mouvement. Cette viscosité interne nous permet de prédire la vitesse du déploiement et de mieux comprendre la dynamique du processus.
Les changements de forme par actionnement hydraulique sont fréquents dans le règne végétal, comme on peut le constater lorsqu’on arrose une plante desséchée. Cependant, ces mécanismes restent encore peu explorés chez les animaux. Les insectes présentent une diversité remarquable de formes et d’échelles de taille d’ailes.
Dans notre laboratoire, nous explorons actuellement une question ouverte : dans quelle mesure les mécanismes mis en évidence chez la mouche sont-ils génériques et applicables à d’autres ordres d’insectes ? Chez la drosophile, certains aspects du processus de déploiement restent encore à éclaircir, notamment les mécanismes garantissant l’irréversibilité du processus (la forme de l’aile est fixée : celle-ci ne se replie pas après déploiement), ainsi que ceux garantissant la planitude finale de l’aile.
Joel Marthelot a reçu des financements de l'Agence Nationale de la Recherche, de la Fondation pour la Recherche Médicale et du CNRS.
Simon Hadjaje a reçu des financements de la Fondation pour la Recherche Médicale (FRM Fin de Thèse, FDT FDT202304016556).
30.04.2025 à 11:01
François Bouteau, Pr Biologie, Université Paris Cité
Etienne Grésillon, Géographe, Université Paris Cité
Lucia Sylvain Bonfanti, Doctorante interdisciplinaire en géographie et biologie, Université Paris Cité
Nous sommes des êtres doués de conscience mais qu’en est-il des autres animaux ? De nos plus proches cousins, les primates, jusqu’aux mollusques, où placer la limite de la (non-) conscience ? Certaines théories vont jusqu’à reconnaître cette capacité à toute forme de vie. Faisons le tour de la question.
L’année 2024 a été riche en évènements autour de la question de la conscience. La « déclaration de New York sur la conscience animale », signée en avril par plus de 300 chercheurs, a proposé qu’une possibilité de conscience existe chez la plupart des animaux.
En juin, toujours à New York, a eu lieu la première présentation des résultats de la collaboration adversariale Cogitate, qui organise une collaboration entre des équipes qui s’opposent autour de deux théories de la conscience. Le but étant qu’ils définissent entre eux les expériences à mener pour prouver l’une ou l’autre des conceptions qu’ils défendent.
Cette confrontation regroupe des experts de neurosciences et des philosophes cherchant un consensus entre : la théorie de l’espace de travail global (GNWT), portée par Stanislas Dehaene, et la théorie de l’information intégrée (IIT), proposée par Giulio Tononi. La GNWT propose que l’interaction entre plusieurs régions et processus spécifiques du cerveau soit nécessaire à la conscience, celle-ci n’émergeant suite à un premier traitement automatique que si l’information est amplifiée par différents réseaux de neurones spécialisés. L’IIT propose que la conscience émerge d’un système qui génère et confronte des informations. Dans cette proposition la possibilité de conscience n’est pas réduite au cerveau.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La revue Neuron, une des revues scientifiques les plus influentes dans la communauté des neurosciences, a proposé en mai 2024 un numéro spécial sur la conscience. Les articles montrent que si les substrats neurobiologiques de la conscience ont suscité de nombreux efforts de recherche au cours des dernières décennies, il n’en demeure pas moins que les neuroscientifiques ne sont pas d’accord. Ils analysent cinq théories différentes de la conscience. Malgré l’absence de définition commune du terme « conscience », utilisé à la fois comme une « expérience », incluant les perceptions sensibles du monde extérieur (vision des couleurs), et comme une expérience subjective, qui se construit a posteriori en intégrant différentes sources d’informations, le groupe élabore des convergences entre ces théories concurrentes et apparemment contradictoires.
Sans rentrer dans les détails et les arguments concernant ces différentes, les travaux montrent qu’il n’existe pas de théorie unifiée de la conscience et que nous ne connaissons toujours pas les bases biologiques de la conscience. Les anciennes questions autour du dualisme, qui distinguent monde physique et monde psychique et du monisme soutenant l’unicité des deux mondes ne semblent toujours pas prêtes d’être tranchées.
Cependant, même sans théorie unifiée, la possibilité d’une expérience consciente n’est plus l’apanage des humains. Elle se diffuse à travers l’arbre phylogénétique, étant désormais reconnue chez de nombreux groupes d’animaux, y compris les insectes. Le dénominateur commun entre toutes ces approches semble être la présence d’un cerveau, caractéristique partagée par la majorité des animaux, même si celui-ci est petit et de structure simple. Les éponges dépourvues de cerveau et de systèmes nerveux ne sont pas incluses dans la famille des êtres conscients. Mais qu’en est-il des bivalves (huîtres ou moules par exemple) qui ne sont pourvus que de ganglions regroupant leurs neurones, rejoindront-ils prochainement la famille des êtres conscients ?
Mais la conscience pourrait-elle exister en dehors de ce fameux système nerveux ? Cette idée radicale a été notamment proposée il y a déjà quelques années par Frantisek Baluska, biologiste cellulaire, professeur à l’Université de Bonn, et Arthur Reber, psychologue, professeur à l’Université British Columbia.
Ils ont proposé que la conscience aurait émergée très tôt au cours de l’évolution chez les organismes unicellulaires, et serait même coïncidente avec l’apparition de la vie. La conscience serait donc une propriété intrinsèque de la vie. Cette proposition repose sur l’observation que toutes les cellules, qu’elles soient isolées ou intégrées dans un organisme multicellulaire, possèdent une capacité impressionnante à percevoir leur environnement, à traiter des informations leur permettant de prendre des décisions basiques en réponse à des stimuli externes. Certains organismes unicellulaires peuvent par exemple libérer des molécules pour se signaler les uns aux autres.
Ces processus pourraient être considérés comme une forme de conscience primitive. Et si cette proposition fait fi de la présence d’un système nerveux, elle s’appuie toutefois notamment sur l’excitabilité électrique des cellules. Le neurone et le cerveau sont considérés comme des systèmes hyperoptimisés dans l’une des parties du vivant, permettant la conscience humaine.
Cette théorie reste bien sûr très controversée, notamment en raison de l’absence de définition partagée de la conscience. De nombreux scientifiques considèrent que cette « conscience cellulaire » serait simplement une métaphore pour décrire des processus biochimiques et biophysiques complexes, sans qu’il soit nécessaire d’y inclure une notion de conscience. Ils critiquent cette théorie, en utilisant une définition traditionnellement de la conscience impliquant un système neurobiologique et une expérience subjective, peu probable ? En tout cas difficile à démontrer au niveau cellulaire.
Poursuivant leurs réflexions, Frantisek Baluska et d’autres collègues ont proposé la théorie de l’IIT développée par Giulio Tononi comme cadre possible pour explorer la question d’une forme de « proto-conscience » chez les plantes.
Appliquer l’IIT aux plantes implique d’examiner comment les plantes perçoivent, intègrent et répondent à l’information dans leur environnement sans posséder de système nerveux central. Les plantes pourraient agir de manière consciente suivant l’IIT. Elles reçoivent et intègrent des signaux de diverses sources et y répondent de manière coordonnée grâce à un réseau de communication interne constitué de connexions cellulaires, de faisceaux vasculaires connectant toutes les parties de la plante notamment par des signaux électriques. Ils considèrent que ces caractéristiques et ces réseaux de communication hautement interconnectés pourraient correspondre à l’exigence d’intégration d’informations de l’IIT permettant aux plantes une réponse unifiée malgré l’absence d’un système nerveux centralisé. Bien que les auteurs considèrent qu’il ne s’agisse que d’un niveau de conscience minimale, ces données ont bien sûr étaient immédiatement récusées.
Les principaux arguments opposés sont que les théories de la conscience sont basées sur l’existence de neurones et l’impossibilité de prouver que les plantes aient une expérience subjective de leur environnement. L’IIT autorisant de plus la conscience dans divers systèmes non vivants, elle ne serait pas suffisante pour prouver la conscience des plantes. Même si cette hypothèse reste spéculative et nécessite certainement davantage de recherche pour mieux comprendre la relation entre la complexité biologique et la conscience, l’idée que les plantes puissent être étudiées à l’aide de la théorie de l’IIT pourrait permettre d’explorer d’autres formes de traitement de l’information dans des systèmes biologiques, qu’ils soient ou non dotés de cerveaux. Il n’est par contre pas certain que ces approches aident les tenants de l’IIT, celle-ci ayant été récemment controversée, et qualifiée de « pseudoscience non testable » dans une lettre rédigée par 124 neuroscientifiques.
À notre connaissance aucune tentative de démonstration d’une autre théorie de la conscience n’a été tentée sur des organismes sans cerveau. Par contre, faisant suite aux travaux de Claude Bernard qui indiquait, dès 1878, « Ce qui est vivant doit sentir et peut être anesthésié, le reste est mort », différentes équipes dont la nôtre, se sont intéressées aux effets des anesthésiques, un des outils importants de l’étude de la neurobiologie de la conscience, sur des organismes sans cerveau.
La théorie de la conscience cellulaire, tout comme l’exploration de la théorie de l’IIT chez des organismes sans neurones peuvent apparaître provocantes, elles offrent cependant une perspective fascinante et ouvrent de nouvelles voies pour comprendre les fondements de la conscience et l’émergence des comportements dans le règne vivant. Tout comme l’attribution progressive d’une conscience à des groupes d’animaux de plus en plus éloignés des humains dans l’arbre phylogénétique, qui relancent et étendent une épineuse question philosophique et scientifique.
Ces réflexions ouvrent évidemment aussi de nombreux questionnements éthiques concernant les organismes non humains et, bien sûr, les machines connectées à des intelligences artificielles, qui pourraient s’inscrire dans un continuum de conscience. De nombreux outils et protocoles sont encore à développer pour tester ce qui reste des hypothèses et, pourquoi pas, envisager une collaboration adversariale sur la conscience sans cerveau.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.04.2025 à 11:01
François Dernoncourt, Doctorant en Sciences du Mouvement Humain, Université Côte d’Azur
Lorsque vous vous grattez la plante de pied ou que vous frottez vos aisselles sous la douche, cela ne provoque probablement pas de réaction particulière en vous. Pourtant, si cette même stimulation tactile venait de quelqu’un d’autre, elle serait perçue comme une chatouille. Ce phénomène, bien connu de tous, soulève une question intrigante : pourquoi est-il si difficile de se chatouiller soi-même ?
À première vue, cette interrogation peut sembler anodine, mais elle révèle un mécanisme fondamental du système nerveux : la prédiction. Le cerveau n’est en effet pas un simple récepteur passif d’informations sensorielles. Il anticipe activement l’état du monde extérieur ainsi que l’état interne du corps afin de sélectionner les actions les plus appropriées. Cette capacité prédictive lui permet de filtrer les informations : les sensations inattendues, susceptibles de signaler un danger ou une nouveauté, retiennent particulièrement notre attention, tandis que les sensations prévisibles sont ignorées.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La difficulté à se chatouiller soi-même illustre parfaitement ce principe de cerveau prédictif. Pour réaliser un mouvement, le cerveau envoie une commande aux muscles et, simultanément, une copie de cette commande (appelée « copie d’efférence ») est transmise à d’autres aires cérébrales, notamment le cervelet. Ce dernier anticipe alors les conséquences sensorielles du mouvement en créant une sorte de simulation interne, quelques centaines de millisecondes à l’avance, de façon inconsciente mais extrêmement précise. Cette prédiction permet de différencier une sensation prévisible, générée par le corps lui-même, d’une sensation inattendue. Par exemple, si vous manquez une marche en descendant les escaliers, la discordance entre le contact anticipé et la réalité permet de corriger le mouvement très rapidement, avant même que votre pied ne touche le sol. Les prédictions du cerveau filtrent ainsi les perceptions sensorielles en sélectionnant les stimuli pertinents, évitant à notre capacité attentionnelle – très limitée – d’être submergée par une surcharge d’informations.
Si vous échouez à vous chatouiller vous-même, c’est donc parce que votre cerveau prédit parfaitement la sensation cutanée à venir et l’atténue. En revanche, lorsqu’une autre personne vous chatouille, le stimulus n’est pas anticipé de façon aussi précise : l’information sensorielle passe à travers le filtre et est donc perçue avec plus d’intensité.
Des études expérimentales confirment ce mécanisme : lorsque des participants se chatouillent eux-mêmes par l’intermédiaire d’un bras robotisé qui reproduit exactement leurs mouvements, la sensation de chatouille est atténuée. Cependant, si le mouvement du dispositif est légèrement décalé (par un délai ou une rotation), la sensation de chatouille devient plus intense. Ces résultats, fondés sur le ressenti subjectif des participants, sont également corroborés par des données d’imagerie cérébrale. Ainsi, pour un même stimulus tactile, l’activité du cortex somatosensoriel (zone du cerveau responsable de la perception du toucher) est plus élevée lorsque la stimulation est externe que lorsqu’elle est auto générée. Ce contraste suggère que le cervelet anticipe nos propres gestes et atténue l’intensité des sensations qui en découlent.
Le principe d’atténuation des sensations produites par nos propres mouvements est omniprésent dans notre interaction avec le monde. Restons tout d’abord dans le domaine des perceptions somesthésiques – notre sens du toucher et du mouvement. Il a été démontré que l’atténuation sensorielle nous conduit à sous-estimer la force que nous exerçons. Ce biais perceptif pourrait contribuer à « l’escalade de la violence » que l’on observe parfois entre deux enfants qui chahutent. En effet, deux enfants qui jouent à la bagarre sous-estiment chacun la force qu’ils déploient, et ont l’impression que leur partenaire répond avec une intensité supérieure. Dans une logique de réciprocité, ils vont avoir tendance à progressivement augmenter la force de leurs coups, pensant seulement répliquer la force de l’autre.
Le second exemple concerne cette fois le sens de la vision. Bien que nos yeux soient constamment en mouvement, nous percevons un monde stable. Pourtant, les seules informations visuelles ne permettent pas de faire la distinction entre le scénario où l’on balaie un paysage du regard et le scénario où le paysage tourne autour de nous alors que nous gardons le regard fixe – ces deux situations produisent des images identiques sur la rétine. Le fait que nous percevons un monde stable s’explique par le fait que le système nerveux anticipe les changements d’images induits par les mouvements oculaires et filtre les informations autogénérées. Pour l’expérimenter, fermez un œil, et appuyez légèrement sur le côté de l’autre œil en le gardant ouvert (à travers la paupière bien sûr). Cette manipulation crée une légère rotation de l’œil qui n’est pas générée par les muscles oculaires, donnant l’impression que le monde extérieur se penche légèrement.
Le modèle du cerveau prédictif offre un cadre conceptuel intéressant pour comprendre certaines pathologies. En effet, une défaillance dans la capacité du système nerveux à prédire et atténuer les conséquences sensorielles de ses propres actions pourrait contribuer à des symptômes observés dans certaines maladies mentales. Par exemple, il a été constaté que l’atténuation sensorielle est souvent moins marquée chez les patients schizophrènes – et qu’ils sont d’ailleurs capables de se chatouiller eux-mêmes, dans une certaine mesure. Cela pourrait expliquer pourquoi ces patients perçoivent parfois leurs propres mouvements comme provenant d’une source externe, dissociée de leur volonté. De même, des monologues intérieurs qui ne sont pas suffisamment atténués pourraient être à l’origine des hallucinations auditives, où la voix perçue semble venir de l’extérieur.
Ainsi, une question aussi simple et amusante que celle des chatouilles peut, lorsqu’on la prend au sérieux, révéler des mécanismes profonds de notre cerveau, et contribuer à une meilleure compréhension de notre rapport au monde.
François Dernoncourt a reçu des financements du ministère de l'enseignement supérieur (bourse de thèse).
30.04.2025 à 11:00
Evelyne Heyer, Professeur en anthropologie génétique, Muséum national d’histoire naturelle (MNHN)
Evelyne Heyer est professeure d’anthropologie génétique au Muséum national d’histoire naturelle (MNHN) où elle mène des recherches sur l’évolution génétique et la diversité de notre espèce. Elle est l’autrice d’ouvrages de vulgarisation comme la Vie secrète des gènes et l’Odyssée des gènes chez Flammarion.
La chercheuse a reçu Benoît Tonson au Musée de l’homme (Paris) pour retracer l’histoire d’Homo sapiens, depuis son émergence en Afrique jusqu’à nos jours, en passant par toutes ses migrations et ses rencontres avec les autres espèces humaines aujourd’hui éteintes. À côté de ses activités scientifiques, Evelyne Heyer est très impliquée dans la lutte contre le racisme. Cet entretien a également été l'occasion de comprendre comment la génétique peut nous aider à déconstruire les préjugés et les stéréotypes.
The Conversation : Nous sommes aujourd’hui au Musée de l’homme, dans l’exposition « Migrations, une odyssée humaine », et sur l’un des premiers panneaux, on apprend qu’« en lisant l’ADN des populations humaines actuelles, les généticiens parviennent à reconstruire l’histoire des origines, des migrations et des métissages de notre espèce. On découvre que nous avons tous des ancêtres migrants et que tous les humains actuels ont une origine commune en Afrique. » Pouvez-vous retracer, dans les grandes lignes, l’histoire de l’origine d’Homo sapiens, de son départ d’Afrique à son arrivée en Europe ?
Evelyne Heyer : Notre histoire de Sapiens débute il y a environ 300 000 ans en Afrique, on n’émerge pas à un seul endroit d’Afrique, mais plutôt à différents endroits. On évolue sur le continent africain et, il y a environ 70 000 ans, notre espèce va partir peupler le reste de la planète. Et on va commencer par aller jusqu’en Australie.
On reste donc dans une zone tropicale et, plus tardivement, on va arriver un peu plus au nord, notamment en Europe, il y a environ 45 000 ou 40 000 ans. Nous avons d’abord évolué en Afrique dans un endroit au climat chaud et avec beaucoup d’ensoleillement. On a donc une couleur de peau foncée. Au moment de l’émergence de notre espèce, nous sommes un animal tropical de couleur de peau foncée qui va se déplacer vers l’Europe. L’éclaircissement de la couleur de la peau viendra beaucoup plus tardivement.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Vous étudiez la génétique de ces premiers humains, comment peut-on lire leur ADN et quelles informations y retrouve-t-on ? Vous parlez de couleur de peau, par exemple…
E. H. : Ce qui est génial et qui a révolutionné en partie notre discipline, c’est ce qu’on appelle la « paléogénétique ». C’est la capacité d’arriver à extraire de l’ADN de restes osseux ou de dents de personnes qui ont disparu. Un des plus grands scoops de notre domaine a été l’analyse de l’ADN de l’homme de Néandertal, qui a disparu il y a environ 30 000 ans. Découverte qui a valu le prix Nobel de médecine, en 2022, à Svante Pääbo.
Au-delà de cet homme de Néandertal, on peut lire l’ADN d’un individu d’il y a 20 000, 10 000 ou 6 000 ans, par exemple. Et dans ce patrimoine génétique, il y a des variations de l’ADN qui codent des différences de couleur de peau. On connaît les petits changements d’ADN qui font qu’on va avoir plutôt une couleur de peau sombre ou une couleur de peau claire. Et donc, en retraçant dans l’ADN des individus du passé, on voit que les premiers Européens, il y a 40 000 ans, il y a 30 000 ans, il y a 20 000 ans, et même il y a 10 000 ans, étaient de couleur de peau foncée. Ceux qui ont peint les grottes de Lascaux étaient noirs de couleur de peau.
On observe un éclaircissement relativement récent : il y a environ 10 000 ans seulement, quand les agriculteurs venus du Moyen-Orient arrivent en Europe. Eux sont plus clairs de couleur de peau. Ils vont se mélanger avec les premiers Européens qui sont de couleur de peau foncée. Au contact de ces populations, on va également changer d’alimentation. Or, l’alimentation, c’est fondamentalement en lien avec la couleur de peau. Quand vous n’avez pas beaucoup de vitamine D dans l’alimentation, il vaut mieux avoir une couleur de peau claire pour mieux l’assimiler. Quand vous avez beaucoup de vitamine D dans l’alimentation, vous n’avez pas besoin d’avoir une couleur de peau claire. Les premiers Européens avaient une alimentation riche en vitamine D, ils sont donc restés de couleur de peau foncée. L’apparition de la couleur de peau plus claire est donc due en partie au mélange avec les agriculteurs du Moyen-Orient, mais surtout à ce changement d’alimentation.
Une alimentation pauvre ou riche en vitamine D, qu’est-ce que cela signifie concrètement ?
E. H. : Il y a environ 10 000 ans, ces humains se mettent à consommer beaucoup plus de céréales, des aliments pauvres en vitamine D, et aussi des animaux d’élevage, alors qu’avant ils consommaient surtout des animaux issus de la chasse. On pense que ces animaux étaient beaucoup plus riches en vitamine D.
En appauvrissant le régime alimentaire en vitamine D, on voit dans le génome une sélection pour une couleur de peau plus claire qui commence à se mettre en place et qui évolue assez rapidement étant donné que les Européens deviennent de couleur de peau blanche. Il se passe à peu près la même chose en Asie.
Vous dites « rapidement », c’est-à-dire ?
E.H. : Rapidement, c’est quelques milliers d’années. Il faut replacer ça dans un contexte historique global. Je rappelle que la séparation entre ce qui va devenir la lignée humaine et celle qui va devenir le chimpanzé s’est produite il y a environ 7 millions d’années. Donc là, cette sélection sur la couleur de peau qui se fait en 5 000 à 6 000 ans, c’est très rapide à l’échelle de l’évolution.
Le temps de génération en moyenne chez l’humain est de 30 ans qui est l’âge moyen des parents à la naissance d’un enfant, et 6 000 ans, ça fait à peu près 200 générations. C’est donc assez rapide. Les adaptations à l’alimentation et à l’ensoleillement font partie des choses qui bougent le plus vite dans le génome.
Ce qui a été également très rapide, c’est l’amélioration des techniques d’étude de l’ADN. Vous avez soutenu votre thèse au début des années 1990, quels ont été les grands jalons que vous avez pu voir dans votre carrière et qui vous ont faits, vous et la communauté scientifique, progresser dans l’analyse des génomes ?
E. H. : Il y a eu plusieurs énormes jalons. D’abord, le séquençage du génome humain dans les années 2000. Grâce à cela, pour chaque individu, on a beaucoup plus d’informations. Avant, on avait plutôt ce qu’on appelle des marqueurs classiques comme les groupes sanguins, par exemple. Avec l’arrivée du séquençage du génome, on va avoir beaucoup d’informations sur chaque individu.
Imaginons que l’on découpe un génome en morceaux. Chaque partie nous renseigne sur un ancêtre. On a reçu notre ADN de plein d’ancêtres différents et donc il faut voir ça comme une mosaïque. On peut comparer les génomes des individus. En faisant ce travail, on peut savoir si les gens ont des ancêtres communs, de quand ils datent et s’il y a eu des migrations. Et on a pu aussi travailler sur tout ce qui fait le lien entre ce que l’on appelle les systèmes sociaux, les systèmes de parenté et la diversité génétique qui joue à des niveaux fins pour lesquels il fallait beaucoup de données, donc plus de données par individu.
Pour faire des comparaisons fines sur des génomes qui comptent des milliards de bases, il est nécessaire d’avoir de puissants outils de calcul. Les récents développements informatiques nous ont également beaucoup aidés dans nos travaux.
Le dernier grand jalon a été la paléogénétique, qui, en plus d’analyser l’ADN des individus actuels, nous a permis d’avoir accès à l’ADN de populations ou d’individus qui ont disparu.
Justement, racontez-nous l’histoire de la paléogénétique…
E. H. : On peut commencer l’histoire en 2010 quand on a pu étudier l’ADN de Néandertal. Les scientifiques peuvent dater les Néandertaliens analysés entre 40 000 et 50 000 ans. Par ailleurs, on est arrivé à extraire de l’ADN d’un reste humain en Espagne sur un site qui s’appelle Sima de los Huesos, qui date de 400 000 ans. C’est vertigineux !
On a du mal à remonter plus loin parce qu’il faut savoir que l’ADN, au fil du temps, dans un squelette ou dans une dent, se dégrade : il se casse en petits morceaux, il s’abîme et cela devient de plus en plus difficile de le retrouver, notamment dans les pays chauds où il se dégrade beaucoup plus vite. Dans ces pays, non seulement les fossiles se dégradent plus vite, mais leur ADN aussi. Il y a donc toute une partie du monde, fondamentale pour l’évolution des humains, à savoir l’Afrique centrale, pour laquelle on a très peu d’informations sur les populations du passé.
Donc, malgré tous les progrès qu’on pourra faire dans votre discipline, on n’aura jamais ces informations ?
E. H. : On ne peut pas l’affirmer parce qu’il y a des nouvelles techniques qui se développent, notamment celle de l’ADN sédimentaire. Des chercheurs ont montré que des molécules d’ADN peuvent être enfermées dans de l’argile. C’est une autre manière de conserver de l’ADN. Vous n’avez pas le reste fossile, mais si la personne a été à un endroit et a laissé de son ADN, il peut y en avoir qui est protégé dans de l’argile. Ce matériel génétique pourrait être conservé et pourrait peut-être être lu. Mais ça, c’est de la recherche en cours.
On s’est projetés dans l’avenir, mais replongeons-nous dans le passé, que savons-nous des grandes migrations dont nous parlions au début de l’entretien ? Les humains parcourent-ils de très grandes distances d’un coup ou les migrations se font-elles petit à petit et sur plusieurs générations ?
E. H. : Ce que l’on retrouve essentiellement dans les données génétiques, c’est plutôt des migrations petit à petit, c’est-à-dire qu’il faut environ 10 000 ou 20 000 ans, par exemple, pour aller de l’Afrique jusqu’en Australie. Ce n’est pas un Africain qui est parti avec son sac à dos jusqu’en Australie, mais cela se serait plutôt fait par petits bouts, de dix kilomètres en dix kilomètres, des gens s’installent à un endroit, une population grandit et un petit groupe issu de cette population va coloniser un peu plus loin, grandit, s’installe et, après, va coloniser un peu plus loin. Donc, c’est surtout des migrations que l’on qualifie « de proche en proche », tout au long du début de ce peuplement de la planète.
Est-ce qu’on sait ce qui pousse ces premiers humains à migrer ?
E. H. : On n’a pas vraiment de raisons écologiques ou de raisons liées à des conflits. On était très peu nombreux sur la planète à ce moment-là. Ça se compte en dizaines de millions d’humains sur l’ensemble de la planète. Par conséquent, je pense que c’est plutôt lié à la curiosité. On est un animal curieux et on a envie d’aller voir ce qu’il y a de l’autre côté de la colline. On se distingue en cela de nos plus proches cousins. Par exemple les chimpanzés, eux, sont toujours restés en Afrique et n’ont jamais bougé finalement de l’endroit où ils ont émergé.
Et cette curiosité aboutit finalement à des migrations extraordinaires qui finissent par la colonisation de toute la planète et des rencontres avec d’autres espèces humaines…
E. H. : Quand on sort d’Afrique, il y a environ 70 000 ans pour aller vers le Moyen-Orient, on rencontre une espèce qui est issue de sorties d’Afrique plus anciennes qui s’appelle l’homme de Néandertal qui, malheureusement, est maintenant disparu. On sait qu’il y a eu des croisements féconds avec eux parce qu’on a, dans notre ADN, des petits bouts d’ADN de Néandertal.
Ensuite, les humains continuent pour aller jusque vers l’Australie et quand ils vont à l’est de l’Eurasie, ils rencontrent une autre espèce qu’on appelle l’homme de Denisova. À nouveau, il y a des croisements fertiles, ce qui fait que les gens d’aujourd’hui à l’est de l’Himalaya ont dans leur génome de l’ADN de Denisova.
Si vous regardez, par exemple, l’ADN de quelqu’un de Papouasie Nouvelle-Guinée (à l’est de l’Himalaya). Il va y avoir de l’ADN de sapiens, de Néandertal et de Denisova. Donc, on voit bien que dans le passé, il y a toujours eu des mélanges à chaque fois qu’on a pu rencontrer d’autres espèces de la lignée humaine.
Du point de vue de l’évolution, quel est l’intérêt de se croiser avec d’autres espèces ?
E. H. : L’intérêt des croisements avec ces autres espèces, c’est en quelque sorte d’accélérer l’évolution. Le plus bel exemple, ce sont les populations du Tibet de notre espèce actuelle qui sont adaptées à l’altitude grâce à des variations dans certains gènes. On s’est rendu compte que ces gènes qui leur permettent d’être adaptés à l’altitude, ils les ont reçus des hommes de Denisova par croisement. Il n’y a pas eu à attendre de s’adapter pendant des dizaines de milliers d’années à l’altitude. Par le croisement avec une espèce qui était déjà adaptée à l’altitude, ils ont récupéré des bouts de génome qui leur ont permis à leur tour d’être adaptés à l’altitude. Donc les croisements, les mélanges, ce sont des accélérateurs d’adaptation et d’évolution.
Il y a un mot que vous avez beaucoup utilisé et qu’il faudrait qu’on définisse, c’est le mot d’« espèce ». Comment arrive-t-on à définir une espèce humaine, sachant que, généralement, on dit que deux espèces sont différentes parce qu’elles ne se croisent plus ? Et pourtant, vous parlez de croisements…
E. H. : Il faut bien comprendre que le fait d’aboutir à une nouvelle espèce, ce qu’on appelle la « spéciation », c’est quelque chose qui prend du temps. Par exemple, quand notre lignée se sépare de celle qui va donner le chimpanzé, nous sommes il y a environ 7 millions d’années. On voit dans l’ADN qu’il y a eu encore des mélanges pendant au moins un million d’années, jusqu’à ce que les différences deviennent trop grandes entre les deux espèces pour qu’elles ne puissent plus se croiser.
Ce qui se passe entre notre espèce, Homo sapiens, et l’homme de Néandertal, c’est la même chose, notre ancêtre commun date d’il y a environ 600 000 ans. Un phénomène de spéciation se met alors en place, mais pendant un certain temps ces deux espèces en devenir peuvent se croiser.
Peut-être que 100 000 ans plus tard, ça n’aurait plus fonctionné parce qu’on voit bien que, déjà, les deux espèces avaient des morphologies différentes et étaient vraiment différentes. La spéciation, c’est quelque chose qui prend toujours du temps.
Pour conclure, je vous propose de sortir un peu de vos recherches. Vous êtes particulièrement impliquée dans la lutte contre le racisme. Vous avez d’ailleurs écrit des ouvrages à ce sujet. Historiquement, la science n’a pas toujours été dans ce chemin de pensée et a même légitimé la pensée raciste. C’était le cas de Linné, par exemple, quand il classait les humains en « variétés ». Quel regard portez-vous aujourd’hui sur les travaux de vos prédécesseurs ?
E. H. : Quand Linné commence à classer les humains, on est environ en 1753. On est dans ce XVIIIe siècle où on commence à classer un peu tout. Toute la nature. Et donc, inévitablement, face à la diversité des humains, les scientifiques vont se mettre à classer les individus en fonction de leur apparence, ce qu’ils vont appeler « variété » ou « race ». Jusque-là, je dirais que c’est du travail scientifique neutre. Le problème, et c’est de là que démarre le racisme, c’est d’abord qu’à partir de ces catégories ils instaurent une hiérarchie. Ils considèrent qu’il y a des groupes qui sont mieux que d’autres. Les « Blancs » dans ce cas-là, donc, « les Blancs sont supérieurs » aux autres groupes qu’on va appeler « les Jaunes », « les Noirs », « les Rouges », etc. Ensuite, ils commettent aussi un autre péché, si je puis dire, c’est celui de l’essentialisation. C’est-à-dire qu’ils considèrent qu’en fonction de la couleur de peau d’un individu, on sait tout de ses comportements et de sa philosophie. Ils vont dire « les Jaunes sont avares et fourbes », « les Noirs sont indolents », « les Blancs sont très intelligents », etc.
On était beaucoup dans l’essentialisation à cette époque-là. Et la génétique permet de réfuter formellement cela.
D’abord, il y a trop peu de différences entre les groupes humains pour que l’on puisse parler de races. Ensuite, il n’y a pas de hiérarchie. Il n’y a pas un groupe qui est mieux qu’un autre. En tous les cas d’un point de vue génétique. La génétique permet de dire que les variations génétiques qui codent pour une couleur de peau ne codent que pour une couleur de peau. Elles n’expliquent en aucun cas des différences de comportement ou de philosophie, par exemple. La génétique démontre clairement que l’essentialisation ne tient pas et c’est en cela que c’est un outil important pour la lutte contre le racisme.
Et c’est pour ça qu’on avait fait l’exposition, au Musée de l’homme, « Nous et les autres. Des préjugés au racisme », pour bien expliquer ce que la science pouvait dire sur ces questions-là.
Et quel est le pourcentage d’ADN que l’on a tous en commun ? Par exemple, vous parliez tout à l’heure de quelqu’un qui est né en Papouasie-Nouvelle-Guinée, quelle partie de l’ADN est-ce que je partage avec lui, moi qui suis né en Haute-Loire ?
E. H. : Ce qu’a amené la génétique, c’est que, si je compare en moyenne deux individus sur la planète, ils seront identiques génétiquement à 99,9 %. C’est une valeur très élevée par rapport à d’autres espèces de mammifères. On est une espèce étonnamment peu diverse d’un point de vue génétique. Mais ce qu’il y a d’intéressant sur les questions liées au racisme, c’est que si je compare génétiquement deux individus de la Haute-Loire, je vais trouver 99,9 % de différences. Et si je compare les ADN de quelqu’un de Haute-Loire et de quelqu’un de Papouasie Nouvelle-Guinée, je vais trouver à peu près la même valeur de 99,9 %. Ce n’est pas beaucoup plus différent que quand je compare les ADN de deux personnes de Haute-Loire.
Et parmi cette petite différence de 0,1 %, il n’y a que 5 % environ qui s’expliquent par l’éloignement géographique. Autrement dit, il y a très peu de différences génétiques entre les différents groupes humains.
Le Musée de l’homme (place du Trocadéro à Paris) présente, jusqu’au 8 juin 2025, une exposition originale « Migrations, une odyssée humaine » qui souligne que les migrations, loin d’être un phénomène nouveau, façonnent l’humanité.
Evelyne Heyer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2025 à 17:32
Ombline Damy, Doctorante en Littérature Générale et Comparée, Sciences Po
Parmi les œuvres exposées jusqu’au 25 mai au musée Picasso (Paris, 3e) dans le cadre de l’exposition sur l’art qualifié de « dégénéré » par les nazis, figurent celles du peintre allemand Emil Nolde (1867-1956). Artiste emblématique de l’expressionnisme allemand, adulé au début du XXe siècle, puis relégué au rang de « dégénéré » sous le IIIe Reich, Nolde a toute sa place dans l’exposition du musée Picasso. Cependant, des recherches récentes montrent que, si l’artiste a bien été victime du régime nazi, il n’en était pas moins un fervent admirateur. La légende d’un Nolde martyr du nazisme s’appuie, entre autres, sur la très grande popularité du roman la Leçon d’allemand (1968), de Siegfried Lenz.
Pour comprendre le mythe qui entoure Nolde, un détour par la littérature s’impose. Dans la boutique du musée Picasso, au milieu d’essais d’histoire de l’art, la couverture d’un ouvrage accroche l’œil, discret écho à une œuvre vue dans l’exposition, la Ferme de Hültoft, d’Emil Nolde. Il s’agit du roman la Leçon d’allemand, publié en 1968 sous le titre Deutschstunde, de l’auteur allemand Siegfried Lenz.
Immense succès de librairie, la Leçon d’allemand s’est imposée comme un classique incontournable de la littérature allemande d’après-guerre. En abordant la notion d’art « dégénéré » à travers le conflit entre un père et son fils, le roman s’inscrit dans la lignée de la Vergangenheitsbewältigung, terme employé pour évoquer le travail de mémoire collectif et individuel de la société allemande sur son passé nazi. Vendu à plus de 2,2 millions d’exemplaires, traduit dans plus de vingt langues, toujours au programme scolaire en Allemagne, ayant fait l’objet de deux adaptations cinématographiques (en 1971 puis en 2019), la Leçon d’allemand continue, près de cinquante ans après sa parution, d’exercer son influence sur l’idée que l’on se fait de l’Allemagne nazie.
Dans la Leçon d’allemand, Siggi, narrateur de l’histoire, est un jeune homme incarcéré dans une maison de redressement pour mineurs délinquants de l’Allemagne des années 1950. Une dissertation sur la thématique des joies du devoir le conduit à plonger dans ses souvenirs d’enfance dans l’Allemagne nazie des années 1940. À cette époque, le père de Siggi, Jens Ole Jepsen, policier d’un petit village reculé du nord de l’Allemagne, se voit confier pour mission d’interdire au peintre Max Ludwig Nansen, son ami, d’exercer son art. Nansen refuse de se plier aux ordres du policier. Il se lance dans la production secrète de ce qu’il appelle ses « peintures invisibles ». Chargé par son père de surveiller le peintre, Siggi se trouve tiraillé entre les deux hommes. Alors que Jepsen obéit aveuglément au pouvoir, Nansen n’admet pour seul devoir que celui de créer, envers et contre tout. Au fil de l’histoire, Siggi se détache progressivement de son père, qu’il considère peu à peu comme fanatique, pour se rapprocher du peintre Nansen, perçu à l’inverse comme un héros.
Écrit du point de vue d’un enfant, le roman attend de son lecteur de compléter de son propre savoir ce que Siggi omet de dire ou ce qu’il ne comprend pas. Cette forme d’écriture permet d’éviter d’aborder de front la question du nazisme et de la responsabilité collective, et ainsi de ménager les lecteurs allemands de l’époque. Toutefois, il ne fait aucun doute que c’est bien du nazisme dont il est question dans la Leçon d’allemand, bien qu’il ne soit jamais nommé explicitement. Impossible de ne pas voir dans les « manteaux de cuir », qui arrêtent Nansen, des membres de la Gestapo, police politique du régime, ou dans l’interdiction de peindre dont Nansen est victime la politique nazie sur l’art « dégénéré ». Et enfin, comment ne pas reconnaître dans le personnage fictionnel de Nansen le peintre Emil Noldeç; (né Hans Emil Hansen, ndlr) ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
En effet, à l’instar de son double fictionnel Max Ludwig Nansen, le peintre Emil Nolde fut la cible des politiques répressives des nazis à l’encontre des artistes jugés « dégénérés ». Plus de mille de ses toiles furent spoliées pour être intégrées à l’exposition itinérante sur l’art « dégénéré » en 1937 orchestrée par le régime. Radié de l’Académie des arts, il lui fut interdit de vendre et d’exposer ses œuvres.
Après l’effondrement du régime nazi, le vent tourne pour le peintre « dégénéré », qui est désormais célébré comme un artiste victime du nazisme. Dans ses mémoires, Nolde affirme avoir été victime d’une interdiction de peindre, qui l’aurait conduit à réaliser, clandestinement, des « peintures non peintes ». Ce prétendu acte de résistance fait de lui un résistant contre le nazisme. Aux yeux de la société allemande d’après-guerre, Nolde devient un véritable héros.
De très nombreuses expositions sur Nolde, en Allemagne et à l’étranger, contribuent à continuer de faire connaître ce peintre soi-disant martyr et résistant. Ses toiles vont même jusqu’à entrer à la chancellerie. Helmut Schmidt, chancelier de la République fédérale d’Allemagne de 1974 à 1982, et Angela Merkel ont un temps décoré leur bureau de ses œuvres. Le roman de Lenz, inspiré de la vie de Nolde, étudié à l’école et diffusé à la télévision, contribue à solidifier le mythe, jusqu’à ce que Nolde et Nansen ne fassent plus qu’un dans l’imaginaire collectif allemand.
Et pourtant, figure historique et personnage fictionnel sont en réalité bien moins ressemblants qu’il n’y paraît. Des recherches conduites à l’occasion d’une exposition des œuvres de Nolde à Francfort, en 2014, puis d’une exposition à Berlin, en 2019, sur ses agissements pendant la période nazie ont permis de révéler la véritable histoire de Nolde et de le séparer, une bonne fois pour toutes, de son double fictionnel.
Si Nolde a bel et bien été interdit de vendre et d’exposer ses peintures, il n’a pas fait l’objet d’une interdiction de peindre. Les « peintures invisibles » sont une reconstruction a posteriori du peintre lui-même. Fait plus accablant : Nolde a rejoint le parti nazi dès 1934, et aspirait même à devenir un artiste officiel du régime.
Pour couronner le tout, Nolde était profondément antisémite. Persuadé que son œuvre était l’expression d’une âme « germanique », avec tous les sous-entendus racistes que cette affirmation suggère, il a passé de nombreuses années à tenter de convaincre Hitler et Goebbels que ses œuvres n’étaient pas « dégénérées » comme l’étaient, selon eux, celles des juifs.
Dire que le mythe construit par Nolde, puis solidifié par le roman de Lenz, a éclipsé la vérité historique ne suffit pourtant pas à expliquer qu’il ait fallu attendre plus de soixante-dix ans pour que la vérité sur Nolde soit dite. Il semblerait plutôt que, dans le cas de Nolde, la fiction ait été bien plus attrayante que la vérité. Lenz ne fait-il pas dire à son personnage Nansen sur la peinture, que l’« on commence à voir […] quand on invente ce dont on a besoin » ? En voyant dans le personnage fictionnel Nansen le peintre Emil Nolde, les Allemands ont pu inventer ce dont ils avaient besoin pour surmonter un passé douloureux : un héros, qui aurait résisté, lui, au nazisme. La réalité est, quant à elle, bien plus nuancée.
Ombline Damy a reçu des financements de La Fondation Nationale des Sciences Politiques (FNSP) dans le cadre du financement de sa thèse.
29.04.2025 à 17:32
Thomas Simon, Assistant Professor, Montpellier Business School
La saison 2 de Bref est un véritable succès. Son protagoniste incarne le loser moderne, révélant avec humour des leçons précieuses sur le monde du travail.
Le 14 février dernier, la plateforme Disney+ lançait la saison 2 de la shortcom Bref, après plus de dix ans d’absence sur les écrans. Très rapidement, cette nouvelle saison connaît un succès qualifié tantôt de « phénoménal » par la Walt Disney Company, tantôt de « stratosphérique » par le HuffPost.
Composée de séquences très courtes, la série a un style de narration ultrarapide, presque frénétique, à rebours des formes classiques. Cette célérité, associée à une voix off omniprésente, permet une immersion immédiate dans le quotidien du personnage principal incarné par Kyan Khojandi : un trentenaire anonyme, célibataire, sans emploi, essayant tant bien que mal de prendre sa vie en main.
Chaque samedi, un éclairage original et décalé (articles, quiz, vidéos…) pour mieux comprendre le monde qui nous entoure. Abonnez-vous gratuitement dès aujourd’hui !
Dans cette nouvelle saison, la série opère un virage audacieux avec un nombre d’épisodes réduits, mais un format par épisode plus long autour de trente à quarante minutes. Le personnage principal approche désormais de la quarantaine, mais continue d’enchaîner les échecs amoureux et professionnels.
Après les premières minutes d’espoir du premier épisode, le constat est sans appel : « Je » est en surpoids, sans emploi, à découvert et, surtout, seul au milieu de son appartement vide. En quoi ce personnage qui accumule les maladresses et les déconvenues est-il l’incarnation parfaite du loser ? Pourquoi nous parle-t-il autant, et quelles leçons peut-on tirer de ses expériences au travail ?
À lire aussi : Cinq ans après la pandémie, le travail fait-il encore sens ?
En décembre 2012, les anthropologues Isabelle Rivoal et Anne de Sales ont organisé une journée d’étude consacrée à une « anthropologie de la lose » à l’Université Paris Nanterre.
Lors d’une interview pour le HuffPost, Isabelle Rivoal est revenue sur les traits distinctifs du loser.
Il s’agirait d’un homme qu’on trouve partout, célibataire de surcroît, malhabile avec la gent féminine et désengagé sur le plan politique. Le loser, c’est finalement un has been, un antibranché, une « figure de la désynchronisation ». Dans une société moderne marquée par la performance et l’accélération, le loser est à côté de la plaque, décalé, à l’ouest. Il incarne une forme de détente et de relâchement face aux pressions de la modernité.
De Jean-Claude Dusse à Jeff Tuche, en passant par François Pignon dans le Dîner de cons, le loser est omniprésent dans les œuvres fictionnelles et cinématographiques. Il fait d’ailleurs l’objet d’une recension éclectique dans un essai intitulé La Figure du loser dans le film et la littérature d’expression française, publié par les professeures Carole Edwards et Françoise Cévaër. Elles y dépeignent quelques formes exemplaires de la lose, où l’art rejette la réussite et défie les conventions établies.
Lorsque le loser rejoint le monde professionnel, ce sont deux univers aux logiques contradictoires qui entrent en collision. D’un côté, les entreprises louent le rendement, l’efficacité et la performance ; de l’autre, le loser se complaît dans la rêverie, la nonchalance et le dilettantisme.
Dès la saison 1 de Bref, le personnage principal tente de trouver sa place dans le monde du travail. Dans l’épisode intitulé « Bref. J’ai passé un entretien d’embauche », il enchaîne les bévues et les malentendus qui laissent peu d’espoir quant à l’issue réservée à sa candidature.
Cet entretien raté ne l’empêche pas pour autant d’être embauché, dès l’épisode 12. Cette bonne nouvelle est de courte durée puisqu’il est affecté à l’intendance. On le retrouve en employé de bureau qui multiplie les tâches dérisoires au service de ses collègues. Véritable homme à tout faire, il ne produit rien de concret et finit par annoncer sa démission dans l’indifférence générale.
Se sentir inutile est peut-être une des caractéristiques majeures du loser au travail. On retrouve d’ailleurs cette vacuité dès l’épisode 2 de la saison 2, où le personnage principal se retrouve dans la même entreprise que son père et son frère. Son job est simple : être payé pour faire ce qu’on lui « demande de faire au moment où il faut le faire ». Il apporte des documents, des couverts en plastique pour les pots de départ et réapprovisionne la photocopieuse. Bref, il réalise des tâches insignifiantes.
Dans le cadre de ma thèse de doctorat consacrée à l’absurde en entreprise, certains jeunes diplômés interrogés, comme Adèle*, ont eux aussi dépeint cette vacuité des tâches confiées qui leur donnait l’impression d’être eux-mêmes inutiles au monde.
« Franchement, je dirais que mon job, c’est du grand n’importe quoi. […] Clairement, il n’est pas du tout utile à la société. Et le fait de ne pas être utile à la société fait que moi je ne me sens pas utile envers moi-même. »
Le personnage de Gaston Lagaffe, né en 1957 dans le Journal de Spirou, est à sa façon, une autre incarnation de la lose au travail. De « héros sans emploi » à l’origine, il devient rapidement « garçon de bureau », sans que l’on sache précisément quelle est sa fonction : assistant, coursier, archiviste…
Le professeur Amaury Grimand en est persuadé : Gaston Lagaffe est un personnage conceptuel qui nous aide à penser le rapport au travail. Par son refus de s’aligner sur le rythme effréné de la vie de bureau pour imposer sa propre cadence, Gaston incarne une forme de résistance, celle d’un travail vivant qui échappe aux procédures, aux dispositifs de contrôle et aux règles en tout genre. En transformant une poubelle de bureau en panier de basket, Gaston réenchante les situations de la vie quotidienne en y instillant du plaisir, de la poésie et des relations nouvelles.
Comme le rappelle Amaury Grimand,
« Les gaffes de Gaston ne doivent pas nécessairement être interprétées comme le signe d’une erreur, d’une incompétence ou bien encore de comportements déviants […] ; elles doivent plutôt être prises comme une invitation à agir autrement et à réinventer les cadres de pensée dominants de l’organisation. »
Le loser est finalement le parangon de la médiocrité, du « bof bof » et du « peut mieux faire ». Loin d’être une tare, la médiocrité fait même l’objet d’un « petit éloge » de la part du chroniqueur et humoriste Guillaume Meurice. Pour lui, nul doute que la médiocrité « autorise l’action sans la pression du résultat, pour le simple plaisir de se mettre en mouvement, pour la beauté du geste ». Faire preuve de médiocrité serait devenu aujourd’hui un acte de résistance face à un système obnubilé par l’excellence.
À rebours d’une culture française qui perçoit l’échec comme une incompétence ou une insuffisance cuisante, le philosophe Charles Pépin envisage quant à lui l’insuccès sous l’angle d’une chance pour se réinventer. Face à l’échec, deux voies sont possibles : considérer que l’échec est une étape sur le chemin de la réussite et ainsi persévérer pour atteindre l’objectif initial, ou alors bifurquer pour visiter un nouveau chemin d’existence. Dans les deux cas, il faut considérer la vie comme un flux dans lequel l’échec ne fait jamais office de condamnation éternelle.
Dans Bref, il y aurait finalement une sorte de médiocrité assumée. Reconnaître ses limites, essayer sans trop y croire et ne pas chercher à être le meilleur à tout prix sont autant de façons pour le personnage principal de « bricoler dans l’incurable ». Il essaie, échoue et passe alors à autre chose, incarnant par là même une forme de résilience face à l’âpreté du monde.
Dans ces conditions, l’échec est considéré comme normal, comme une étape prévisible voire comme un rite de passage attendu. En se permettant d’être inefficace sans culpabilité, le personnage incarné par Kyan Khojandi nous propose une autre façon d’exister.
Si on s’identifie autant à cet antihéros, c’est parce qu’il fait écho à nos imperfections et à nos angoisses existentielles, comme le rappelle l’essayiste Jean-Laurent Cassely dans une interview récente au magazine le Point.
En somme, les saisons 1 et 2 de Bref mettent en scène toutes les qualités du loser au travail : déconnexion, incompréhension des codes, sincérité mal placée, échec répété. Mais cette orchestration se fait avec humour, tendresse et bienveillance. Le personnage principal n’est pas pathétique ; il est tout simplement humain. Et c’est probablement la force de cette série : elle donne la parole au commun des mortels, aux oubliés, à celles et ceux qui réussissent un peu, pas vraiment, voire pas du tout.
*Le prénom a été changé.
Thomas Simon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2025 à 17:31
Fanny Poujol, Professeure des Universités, Département de Sciences de Gestion, CEROS - Centre d'études et de recherches sur les organisations et la stratégie, Université Paris Nanterre – Université Paris Lumières
Éric Pezet, Professeur, Université Paris Nanterre – Université Paris Lumières
La notion de « marque employeur » gagne du terrain. Mais peut-on parler du travail comme d’un bien de consommation ? Quelles implications traduit cette irruption du langage du marketing dans le monde des RH ?
Peut-on parler du travail en termes de consommation et, si c’est le cas, quelle est la nature précise de cette consommation ? C’est à ces questions que nos recherches récentes visent à répondre. En effet, la place centrale de la consommation comme rapport social constitue une caractéristique majeure de société contemporaine, et elle n’a cessé de se renforcer depuis la fin de la Seconde Guerre mondiale. De nombreux auteurs, notamment Jean Baudrillard, ont décrit ce phénomène qui fait de la consommation le mode majeur de rapport aux autres et à soi.
Depuis quelques années, le vocabulaire de la consommation est aussi de plus en plus mobilisé pour parler du travail. Cela constitue un changement majeur parce que le travail était jusqu’ici une activité qui échappait à la consommation. Au mieux, il en était la condition.
Le langage du travail est l’activité, renvoyant aux notions d’« effort » et de « peine » alors que le langage de la consommation est celui de « l’utilité pour soi » et du « plaisir ».
La notion très en vogue de « marque employeur » renvoie à l’utilisation des techniques du marketing appliquées aux aspects RH de l’entreprise.
Les salariés ne se voient plus proposer un emploi, un salaire et des conditions de travail, mais une « expérience ». Des spécialistes de la question s’évertuent à rendre l’image de l’entreprise attractive et promettent une expérience de travail enrichissante. Le but ultime consiste à attirer des candidats de qualité, mais aussi à fidéliser les salariés en place.
À lire aussi : Quand les avis en ligne des salariés prennent à contre-pied la communication des employeurs
Parallèlement, des activités d’évaluation et de comparaison des entreprises entre elles, du point de vue de la qualité de vie au travail, se sont développées. Pour cela, de nouvelles institutions sont apparues, aux fonctions et aux méthodes proches de celles employées dans le monde de la consommation. La langue de communication devient de plus en plus celle du marketing. Le but affiché vise à choisir un travail en comparant les entreprises, comme le proposent Great place to work, Best place to work… ou encore LinkedIn avec un classement des entreprises, sur le critère du développement de carrière.
Conjointement, dans les entreprises, la mobilité professionnelle est de moins en moins perçue comme un signe d’instabilité, mais devient synonyme de dynamisme. La mobilité du salarié à la recherche d’expériences de travail enrichissantes place l’attractivité et la rétention du personnel au centre des préoccupations RH.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ce passage du travail de la contrainte au plaisir marque une rupture par rapport au référentiel courant sur le travail mobilisé dans la recherche. Ce référentiel quand il s’inscrit dans une approche néomarxiste insiste sur la dissymétrie des rapports de pouvoirs entre employeurs et employés et sur les rapports de domination. À l’inverse, dans une tradition néoclassique, le travail est considéré en termes de courbe d’utilité pour un agent économique.
Dans la conception marxiste, les salariés ne font que vendre leur propre force de travail et l’expérience offerte par les entreprises est limitée à l’expérience du commandement. Le renouvellement de la force de travail qui est épuisée par l’effort suppose une consommation réparatrice, et c’est ce que propose la société de consommation. Or, la consommation, par nature éphémère,ne permet pas la prise de conscience de soi : le travail est une source d’aliénation de l’individu. Dans cette perspective la seule expérience qui vaille est celle de la résistance à la domination au travail.
L’approche humaniste du travail adoucit la perspective néoclassique, en laissant entrevoir la possibilité d’une expérience positive. Dans ce cadre conceptuel, la notion de marque employeur peut avoir un sens.
Abonnez-vous dès aujourd’hui !
Que vous soyez dirigeants en quête de stratégies ou salariés qui s’interrogent sur les choix de leur hiérarchie, recevez notre newsletter thématique « Entreprise(s) » : les clés de la recherche pour la vie professionnelle et les conseils de nos experts.
Par exemple, pour le sociologue Georges Friedmann, les conditions de travail contribuent à la réparation de l’effort par l’environnement amical, la possibilité de carrière. Elles doivent aussi récompenser l’effort par un salaire attractif. Un équilibre peut être trouvé dans la relation de travail :
« Il faut qu’il (le salarié) accorde à son entreprise un minimum de son potentiel technique, de sa participation morale : ce qui réciproquement suppose, pour lui, un minimum de salaire, de satisfaction, de sentiment de bien-être. »
En promettant de faire de soi-même une œuvre, la marque employeur communique sur l’expérience, qui est une promesse d’œuvre ; savoir si la promesse est ou non respectée est une autre question. La notion de marque employeur s’adresse à un « salarié expérientiel », c’est à-dire un salarié qui a un projet pour lui-même. Du point de vue de la recherche en gestion des ressources humaines, cela implique que la théorie à même de parler de ce salarié, de ce qu’il vit et ressent ne peut pas être une théorie qui explique la domination, ni une théorie qui porte sur la satisfaction au travail.
C’est davantage une théorie du rapport expérientiel au monde, comme celle du philosophe pragmatiste John Dewey. Pour cette recherche, nous nous sommes attachés à la philosophie pragmatiste en mobilisant l’approche de la consommation expérientielle d’Holbrook. Cette approche intègre la dimension expérientielle du travail et le rapport de consommation de travail pour faire œuvre de soi-même. Cette approche pragmatiste analyse le travail comme une succession d’expériences, avec lesquelles les individus construisent leurs vies.
À lire aussi : Comment la philosophie de John Dewey nous aide à former les citoyens de demain
Notre recherche établit la possibilité de concevoir le travail comme une consommation, dès lors cette consommation peut faire l’objet de critiques. Comme la junk food est dénoncée, les bullshit jobs doivent aussi l’être. Comme l’addiction à l’alcool est dangereuse, l’addiction au travail est un risque.
Notre recherche identifie sept dimensions de la marque employeur expérientielle :
l’instrumentalité – rémunération et flexibilité du travail ;
l’excellence – vision stratégique et innovation ;
le statut – qualité des produits et réputation de l’organisation ;
l’estime – capacité du management à valoriser les collaborateurs (formation, reconnaissance) ;
le fun – émulation collective ;
l’éthique – honnêteté et intégrité du management ;
le social – qualités professionnelles et personnelles des collègues de travail.
La pratique managériale est l’un des aspects majeurs de la consommation de travail, elle est décrite à travers quatre dimensions :
la dimension « estime » exprime la capacité du management à valoriser les collaborateurs à travers la formation et la reconnaissance de la créativité ;
la dimension « fun » revoie à la capacité du management à stimuler l’envie d’apprendre et le travail d’équipe ;
La dimension « éthique » montre l’importance attachée à l’honnêteté à l’intégrité du management ;
et la dimension « sociale » montre que la dimension collective fait partie de la consommation de travail, elle est donnée par les qualités professionnelles et personnelles des collègues de travail : intelligent, travailleur, ayant l’esprit d’équipe…
L’apport de cette recherche est de décrire les dimensions de l’expérience de travail. Il fournit les bases d’une analyse des différents rapports expérientiels possibles au travail, qui seront évalués par la combinaison individuelle de ces dimensions, leur intensité et leur durée.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.04.2025 à 17:31
Mathieu Ughetti, Illustrateur, vulgarisateur scientifique, Université Paris-Saclay
Franck Courchamp, Directeur de recherche CNRS, Université Paris-Saclay
La crise climatique n’avance pas seule : elle est indissociable de la crise de la biodiversité. Pour s’y plonger, suivons la figure du dodo, cet oiseau endémique de l’île Maurice désormais éteint. Découvrez en exclusivité, chaque mercredi, les 10 épisodes de la BD concoctée par Mathieu Ughetti et Franck Courchamp.
L’Héritage du dodo, c’est une bande dessinée pour tout comprendre à la crise du climat et de la biodiversité. Chaque semaine, on explore la santé des écosystèmes, on parle du réchauffement climatique mais aussi de déforestation, de pollution, de surexploitation… On y découvre à quel point nous autres humains sommes dépendants de la biodiversité, et pourquoi il est important de la préserver. On s’émerveille devant la résilience de la nature et les bonnes nouvelles que nous offrent les baleines, les bisons, les loutres…
On décortique les raisons profondes qui empêchent les sociétés humaines d’agir en faveur de l’environnement. On décrypte les stratégies de désinformation et de manipulation mises au point par les industriels et les climatosceptiques. Le tout avec humour et légèreté, mais sans culpabilisation, ni naïveté. En n’oubliant pas de citer les motifs d’espoir et les succès de l’écologie, car il y en a !
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Rendez-vous la semaine prochaine pour l’épisode 2 !
Pour ne pas le rater, laissez-nous votre adresse mail
Ou abonnez-vous à L’Héritage du dodo sur :
Une BD de Franck Courchamp & Mathieu Ughetti
Qui sommes-nous ?
Republication des planches sur support papier interdite sans l’accord des auteurs
Créé en 2007 pour accélérer et partager les connaissances scientifiques sur les grands enjeux sociétaux, le Fonds Axa pour la Recherche a soutenu près de 700 projets dans le monde entier, menés par des chercheurs originaires de 38 pays. Pour en savoir plus, consultez le site Axa Research Fund ou suivez-nous sur X @AXAResearchFund.
Cette BD a pu voir le jour grâce au soutien de l’Université Paris Saclay, La Diagonale Paris-Saclay et la Fondation Ginkgo.
Mathieu Ughetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2025 à 17:30
Anne E. Deysine, Professeur émérite juriste et américaniste, spécialiste des États-Unis, questions politiques, sociales et juridiques (Cour suprême), Université Paris Nanterre – Université Paris Lumières
Selon Donald Trump, les décisions rendues contre ses décrets les plus controversés s’expliquent par le fait que les juges ayant pris ces décisions seraient tous de gauche et déterminés à l’empêcher de mettre en œuvre le programme pour lequel il a été élu. Des accusations qui ne résistent pas à l’examen : en réalité, les juges tentent d’exercer leur rôle de contre-pouvoir face à un exécutif qui considère les lois du pays, et même la Constitution, comme des obstacles irritants et injustifiés.
Pendant quarante ans, Donald Trump a eu des dizaines de démêlés avec la justice. Jusqu’en 2020, il apparaissait comme un justiciable difficile guidé par Roy Cohn, son avocat sans scrupule ; mais après sa défaite à la présidentielle de novembre 2020, il a basculé dans une dénonciation violente, systématique et populiste du système judiciaire.
Alors que 60 juges différents ont conclu à l’absence de fraude électorale et estimé que la victoire de Joe Biden ne souffrait d’aucune contestation, le perdant s’est lancé dans de multiples diatribes accusant les juges d’être des « gauchistes » maladivement hostiles à sa personne. Poursuivi au niveau fédéral pour des faits graves (ses tentatives de s’opposer à la certification des résultats de l’élection de novembre 2020 et la conservation à son domicile privé de Floride de documents classés secret défense) ainsi qu’au niveau des États (deux affaires pénales et plusieurs au civil, pour fraude financière, harcèlement et diffamation), Trump passe aux insultes et menaces contre les procureurs qui osent le poursuivre et contre les magistrats qui se prononcent sur les diverses motions fantaisistes et manœuvres spécieuses de ses avocats.
Mais grâce à ses habituelles manœuvres dilatoires et à l’aide d’une juge nommée par lui (Aileen Cannon en Floride) et l’appui de la Cour suprême (rappelons que durant son premier mandat, il a nommé au sein de ce cénacle de neuf juges trois juges très conservateurs), il n’est condamné que dans une affaire mineure à New York – l’affaire Stormy Daniels – dans laquelle le juge, en raison de son élection, a renoncé à prononcer une peine.
Sa réélection en novembre 2024 annonçait une nouvelle salve d’attaques contre les institutions judiciaires du pays ; et au bout de cent jours, on peut constater que le bras de fer est bel et bien enclenché.
Depuis son retour à la Maison Blanche, le 20 janvier 2025, Trump a signé plus de 130 décrets dont bon nombre sont contraires à la loi : limogeages massifs de fonctionnaires, gel des subventions fédérales aux agences et aux États ou à la Constitution par la tentative de mettre fin au droit du sol sans amendement à la Loi fondamentale. Ce qui a suscité une avalanche de référés et d’actions en justice afin d’éviter le « préjudice irréparable », qui est le critère d’intervention des juridictions en procédure d’urgence.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Une soixantaine de juges a déjà statué contre Trump, suspendant l’application de plusieurs décrets, exigeant la réintégration de fonctionnaires limogés en violation de leurs droits, la levée du gel sur les sommes votées par le Congrès et destinées à certaines agences dont l’agence de développement international Usaid, ou encore l’interdiction temporaire (par la Cour suprême) de la poursuite des expulsions vers le Venezuela en vertu de la loi sur les ennemis étrangers (Alien Ennemies Act).
À lire aussi : Trump et la lutte contre les migrants : ce qu’il a fait, ce qu’il veut faire… et ce qu’il peut faire
Il est difficile de s’y retrouver car, souvent, les recours sont intentés devant plusieurs juges et, selon les cas, la décision émane d’un juge de première instance, d’une cour d’appel ou même de la Cour suprême, saisie en procédure d’urgence, qui a déjà statué plusieurs fois en matière d’immigration en particulier.
Trump est entouré de radicaux extrémistes partisans de la doctrine de l’exécutif unitaire (c’est-à-dire favorables à un pouvoir exécutif tout-puissant), qui le poussent à ne pas se plier aux décisions de justice et qui inondent les réseaux sociaux de critiques et de menaces de mise en accusation et de destitution de ces juges.
Pourtant, tous ne sont pas des « juges Obama » ou d’affreux gauchistes, loin de là. Bon nombre ont été nommés par Ronald Reagan (John C. Coughenour), par George W. Bush ou par Trump lui-même (Carl J. Nichols). Le juge James E. Boasberg, au centre du contentieux sur l’expulsion d’immigrés vers l’Amérique latine, a été nommé en 2002 par George W. Bush à la Cour supérieure du district de Columbia, puis promu par Obama ; le très respecté juge J. Harvie Wilkinson a, quant à lui, été nommé en 1984 par Ronald Reagan à la Cour d’appel du quatrième circuit, où il siège depuis quarante ans.
Le fait qu’il faille « préciser » le cursus d’un juge afin de justifier ses décisions est d’ailleurs en soi un signe de la polarisation doublée de désinformation qui caractérise les États-Unis aujourd’hui. Tâche quasi impossible quand une juriste accomplie, comme la juge Paula Xinis, nommée en 2015, donc par Obama, rend une décision rejetant l’expulsion d’un immigré salvadorien, pourtant fondée sur le droit et non sur ses opinions personnelles. Le juge Engelmayer, nommé par Obama, qui a refusé à Elon Musk l’accès aux données privées et confidentielles du Trésor, a même été accusé de « fomenter un coup d’État contre le gouvernement élu », tweet repris par de nombreux abonnés et retweeté par Musk.
Selon les membres de l’administration, les commentateurs de Fox News et les troupes Maga (Make America Great Again), ces juges sont des activistes qui n’auraient pas le droit de s’opposer à l’action « légitime » du président. C’est ce qu’a déclaré le vice-président J. D. Vance, qui, dès 2021, citait le 7e président Andrew Jackson, furieux d’une décision rendue par la Cour suprême de l’époque, qui aurait déclaré : « Le président de la Cour a rendu sa décision. Qu’il se débrouille maintenant pour la faire appliquer. »
Depuis qu’il est redevenu président, Trump dispose du soutien logistique et de la chambre d’écho de cette blogoshère de droite qui répercute critiques, accusations et demandes de destitution afin de délégitimer le pouvoir judiciaire et, par la répétition permanente, d’acclimater l’idée que les juges sont des militants de gauche empêchant le président de faire ce que lui ont demandé des électeurs qui lui ont offert en novembre dernier « une victoire écrasante » – en fait, un peu plus de 49 % des suffrages.
Ces accusations sont un bel exemple des retournements de logique dont Trump est passé maître. Ce sont les juges qui violeraient la Constitution et mettraient la démocratie en danger en s’opposant au chef de l’État. Trump et ses alliés cherchent à réécrire l’histoire de façon à inscrire leurs assauts contre le système judiciaire dans la lignée d’autres présidents, notamment le démocrate Franklin D. Roosevelt (en fonctions de 1932 à 1945). Ce dernier, confronté à l’opposition systématique de la Cour qui invalidait les lois du New Deal, avait envisagé d’y ajouter quelques membres. Devant l’opposition unanime des républicains et des démocrates, Roosevelt avait dû renoncer à son projet ; mais les juges de la Cour suprême avaient finalement évolué. Ce qui confirme que la Cour ne peut durablement être trop en avance (comme elle le fut, dans les années 1960, quand elle a jugé la ségrégation inconstitutionnelle et qu’elle a renforcé les droits civiques et les libertés individuelles) ou en retard (comme à l’époque du New Deal et, peut-être, actuellement) sur l’opinion majoritaire dans le pays.
Deux inconnues majeures subsistent : que fera la Cour suprême en dernier ressort ? Et l’administration Trump se pliera-t-elle à ses décisions ?
Trump et ses affidés ont menacé plusieurs juges de destitution. Il avait, dès 2017, déjà appelé à celle du juge Curiel – d’origine mexicaine mais né aux États-Unis – qu’il accusait d’être « un Mexicain qui le haïssait à cause du mur de frontière ».
En 2023, Trump a réclamé la destitution du juge Engoron, appelé à se prononcer sur les pratiques de fraude financière massive au sein de l’empire Trump. Les juges fédéraux, nommés à vie, peuvent faire l’objet de la même procédure de mise en accusation que le président en cas de « trahison, corruption ou autres faits graves ».
Au cours de l’histoire des États-Unis, seuls 15 juges ont été mis en accusation par la Chambre et seulement huit ont été destitués par le Sénat — pour alcoolisme ou fraude fiscale, mais pas pour la teneur de leurs décisions. En d’autres termes, cette procédure exceptionnelle n’a jamais été et ne saurait être mise en œuvre en cas de désaccord avec les décisions rendues par le juge.
C’est ce qu’a souligné le président de la Cour suprême, John Roberts, le 19 mars dernier, intervenant une nouvelle fois dans le débat pour rappeler qu’en cas de désaccord avec une décision, il y a la voie normale de l’appel.
Or, il est difficile de ranger John Roberts parmi les « gauchistes » : c’est lui qui a, entre autres, accordé une immunité quasi totale à Donald Trump dans la décision rendue par la Cour, le 1er juillet 2024.
À lire aussi : Donald Trump, une candidature aidée par la justice américaine
Son intervention est bien un signe de la gravité de la situation. Le président de la Cour suprême se sent obligé de rappeler l’indépendance de la justice, les juges ne pouvant être l’objet de menaces, de pressions et d’accusations diverses de la part des membres de l’administration et de la blogoshère de droite.
Le Chief Justice Roberts avait déjà repris le président Trump en 2018, lui expliquant qu’il n’y avait pas de « juges Obama » ou de « juges Trump », mais des juges compétents et dévoués qui font de leur mieux pour appliquer le droit en toute justice. Puis, dans son rapport annuel, rendu le 31 décembre 2024, le président de la Cour avait dénoncé les attaques personnelles visant les juges :
« La violence, l’intimidation et la défiance sont totalement inacceptables, car elles minent notre république et la primauté du droit. »
Ces menaces sont effectivement inacceptables dans un État de droit et dans un système où les contre-pouvoirs fonctionnent, mais elles mettent le doigt sur une vraie difficulté. Le pouvoir judiciaire a été créé comme étant « le plus faible », expliquait Alexander Hamilton dans le Fédéraliste. Il ne dispose ni de l’épée (l’exécutif) ni du porte-monnaie (le législatif). Dès lors, si l’exécutif viole la loi ou la Constitution et refuse d’exécuter ses décisions lui ordonnant d’agir ou de ne pas agir, il n’y a pas grand-chose que le pouvoir judiciaire puisse faire de lui-même.
La Cour suprême a accepté plusieurs saisines en urgence et a rendu plusieurs décisions temporaires et nuancées dans les affaires d’expulsion de migrants vers le Venezuela, mais qui ont été présentées par l’administration Trump comme des victoires politiques. Sur le fond, il n’est pas certain qu’elle invalide certains des actes du président, y compris le décret, clairement inconstitutionnel, qui prétend abolir le droit du sol sans amender la Constitution. Peut-être pour éviter une crise constitutionnelle dans l’hypothèse où l’administration refuserait de se plier à ses décisions.
Le Congrès est pour le moment aux ordres, mais il semble se réveiller sur la question des droits de douane : plusieurs sénateurs républicains ont tenté de revenir sur les habituelles délégations de pouvoir au président en matière de politique commerciale. La résolution bipartisane en ce sens n’a aucune chance d’être adoptée, mais c’est un signal fort qui montre que les élus ont entendu le mécontentement des citoyens. Or, les élections de mi-mandat (Midterms) auront lieu en novembre 2026, et une bonne partie des élus se présenteront de nouveau. Au cours des deux années à venir, le Congrès pourrait bloquer de nombreuses velléités autoritaires du président.
Aux États-Unis, les sursauts viennent toujours de la base et du peuple. C’est à l’opinion publique de pousser les élus à agir, d’inciter la Cour suprême à jouer son rôle de contre-pouvoir et de garant de la Constitution et des libertés, et de faire comprendre à l’administration Trump qu’elle doit respecter la Constitution et les valeurs de la primauté du droit (Rule of Law).
Anne E. Deysine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2025 à 17:30
Insaf Rezagui, Université Paris Cité
La France pourrait reconnaître la Palestine au mois de juin prochain. Mais cette reconnaissance ne se produira que si l’Arabie saoudite, dans le même temps, reconnaît Israël, ce qui reste incertain. Dans tous les cas de figure, une reconnaissance officielle, en soi, tient avant tout du symbole dès lors qu’elle ne s’accompagne pas de mesures concrètes.
Le 9 avril dernier, Emmanuel Macron a annoncé que la France pourrait reconnaître l’État de Palestine en juin prochain, à l’occasion d’une conférence qui se tiendra au siège des Nations unies à New York et qui sera co-présidée par la France et l’Arabie saoudite. Il plaide pour une reconnaissance groupée, encourageant d’autres États occidentaux à s’associer à cette démarche. Toutefois, cette initiative reste conditionnée à une reconnaissance d’Israël par l’Arabie saoudite, s’inspirant des accords de normalisation conclus en 2020 entre certains États arabes (Maroc, Soudan, Émirats arabes unis, Bahreïn) et l’État israélien.
Cette annonce intervient alors qu’Israël a unilatéralement rompu, le 17 mars, la trêve qui était en vigueur à Gaza depuis le 19 janvier. Depuis la reprise de la guerre, les bombardements de l’armée israélienne ont causé la mort de près de 1 700 Palestiniens.
Avec cette reconnaissance annoncée, le président français entend accroître la pression sur le gouvernement israélien afin de parvenir à une nouvelle trêve et de relancer la perspective de la solution à deux États défendue aujourd'hui notamment par l’Union européenne - et prévue rappelons-le dès 1947 par la résolution 181 (II) du l'ONU - une perspective qui semble fragilisée par la réalité coloniale sur le terrain, où l’autorité israélienne contrôle l’intégralité du territoire palestinien de la mer Méditerranée au fleuve Jourdain.
En droit international, l’existence d’un État ne dépend pas de sa reconnaissance par d’autres, dès lors qu’il remplit les critères constitutifs de l’État : un gouvernement, un territoire, une population et la souveraineté, c’est-à-dire l’indépendance. La Palestine a proclamé son indépendance en novembre 1988 et, depuis, elle participe activement à la vie internationale. Elle est reconnue par 147 des 193 États membres de l’ONU, a adhéré à près de 100 traités multilatéraux, est membre de 21 organisations internationales et bénéficie du statut d’observateur dans de nombreuses autres.
Cependant, et c’est là tout l’enjeu, l’existence de l’État palestinien sur le terrain est empêchée par un fait internationalement illicite, reconnu comme tel le 19 juillet dernier par la Cour internationale de justice (CIJ) : l’occupation militaire israélienne, qui prend aujourd’hui la forme d’une annexion d’une large partie du territoire palestinien.
La reconnaissance doit donc être distinguée de l’existence d’un État. Selon la définition de l’Institut de droit international dans sa résolution de 1936, la reconnaissance est « l’acte libre par lequel un ou plusieurs États constatent l’existence sur un territoire déterminé d’une société humaine politiquement organisée, indépendante de tout autre État existant, capable d’observer les prescriptions du droit international et manifestent en conséquence leur volonté de la considérer comme membre de la Communauté internationale ».
La reconnaissance revêt un caractère essentiellement symbolique, dans la mesure où elle a une valeur déclarative et non constitutive. Aucune forme particulière n’est requise pour procéder à une reconnaissance : elle peut résulter d’un acte officiel, tel qu’un décret, ou de la combinaison de plusieurs éléments attestant de cette volonté.
En réalité, la France reconnaît déjà de facto l’État de Palestine. Cette reconnaissance découle d’une série de prises de position officielles, de déclarations, de votes favorables au sein des organisations internationales et de pratiques diplomatiques. Ainsi, la France a systématiquement soutenu les résolutions visant à renforcer le statut juridique de la Palestine à l’ONU. Elle a voté en faveur de son admission comme État membre à l’Unesco en octobre 2011, puis soutenu la résolution de l’Assemblée générale du 29 novembre 2012 attribuant à la Palestine le statut d’État non membre observateur.
Plus récemment, le 10 mai 2024, elle a voté pour l’admission de l’État de Palestine à l’ONU et, le 18 septembre dernier, elle a appuyé la résolution de l’Assemblée générale de l’ONU dans laquelle l’organe onusien appelait les États à favoriser la réalisation du droit du peuple palestinien à l’autodétermination, ce qui implique une reconnaissance de la Palestine.
Par ailleurs, la représentante de la Palestine en France a le rang d’ambassadrice et la France entretient avec l’Autorité palestinienne des relations diplomatiques, politiques et économiques significatives. Elle dispose également d’un consulat à Jérusalem en charge des relations avec la population palestinienne. En somme, les faits attestent déjà d’une reconnaissance de l’État de Palestine par la France.
C’est pourquoi l’annonce d’Emmanuel Macron, qui intervient tardivement alors que, nous l’avons dit, 147 États – parmi lesquels l’Espagne, l’Irlande, la Suède ou encore la Norvège – reconnaissent déjà la Palestine, s’apparente avant tout à une manœuvre diplomatique visant à accentuer la pression sur le gouvernement israélien. Elle demeure par ailleurs incertaine, car elle ne se produira que si l’Arabie saoudite reconnaît Israël. Or, si des discussions informelles en vue d’une normalisation étaient en cours entre les deux pays avant le 7 octobre 2023, la guerre à Gaza rebat les cartes, l’Arabie saoudite ne pouvant faire fi de son opinion publique qui reste largement acquise à la cause palestinienne. Il apparaît donc peu probable que, aussi longtemps que la guerre à Gaza n’aura pas cessé, l’Arabie saoudite reconnaisse Israël (qui demeure non reconnu par une vingtaine d’États dans le monde).
Par ailleurs, le souhait de relancer la solution à deux États est plus utopique que jamais, dans la mesure où Israël rejette explicitement l’idée d’un État de Palestine en Palestine et que seules les autorités israéliennes contrôlent l’intégralité de la Palestine historique. La Cour internationale de justice a rappelé la réalité de l’occupation israélienne et la forme qu’elle prend actuellement dans sa décision du 19 juillet dernier : accentuation des colonies de peuplement, dépossession massive des terres, accaparement des ressources naturelles palestiniennes au profit des colons, augmentation des violences des colons contre les Palestiniens, situation pouvant être qualifiée de ségrégation raciale et d’apartheid, etc. Cette réalité coloniale laisse peu de place à toute perspective d’un État de Palestine.
De plus, en juillet dernier, la Knesset, le Parlement israélien, a adopté une résolution transpartisane rejetant toute reconnaissance de l’État de Palestine. Cette position contrevient au droit international, en particulier au droit à l’autodétermination des Palestiniens, peuple colonisé. Dans son avis du 19 juillet 2024, la CIJ a rappelé que le sort d’un peuple colonisé ne saurait être soumis à la volonté de la puissance occupante. Par conséquent, la mise en œuvre du droit à l’autodétermination ne peut en aucun cas être conditionnée à la tenue de négociations politiques entre Palestiniens et Israéliens, comme le soutiennent certains États occidentaux, dont la France.
Dans ce contexte, toute reconnaissance demeure symbolique si elle ne s’accompagne pas de l’adoption de mesures concrètes. Dans une résolution adoptée en septembre 2024, l’Assemblée générale de l’ONU avait rappelé les mesures que les États devaient adopter pour permettre la réalisation du droit à l’autodétermination du peuple palestinien : « ne pas prêter aide ou assistance au maintien de la situation » d’occupation ; faire la distinction « dans leurs échanges en la matière, entre Israël et le Territoire palestinien occupé » ; cesser « la fourniture ou le transfert d’armes, de munitions et de matériels connexes à Israël » qui pourraient être utilisés en Palestine ; prohiber « l’importation de tout produit provenant des colonies » ; respecter les trois ordonnances de la Cour internationale de justice rendues dans la procédure engagée par l’Afrique du Sud contre l'État d’Israël au titre de la convention internationale contre le génocide, etc.
Rappelons également que la France doit respecter ses obligations de membre de la Cour pénale internationale (CPI). Elle a notamment l’obligation de coopérer avec la Cour dans la mise en œuvre des mandats d’arrêt que celle-ci a émis contre Nétanyahou et son ancien ministre de la défense Yoav Gallant. Or, elle a récemment autorisé le survol de son territoire par un avion transportant le premier ministre israélien, ce qui constitue un manquement aux obligations qui lui incombent en vertu du Statut de Rome.
Déjà en novembre dernier, la France avait affirmé que Benyamin Nétanyahou devait pouvoir bénéficier des immunités reconnues aux chefs d’État des pays non parties à la CPI, adoptant une position contraire aux exigences de l’article 27 du Statut de Rome, lequel précise qu’il ne peut y avoir d’immunités devant la Cour, son Statut s’appliquant « à tous de manière égale, sans aucune distinction fondée sur la qualité officielle ». D’ailleurs, la France a toujours affirmé qu’elle mettrait en œuvre le mandat d’arrêt de la CPI émis contre Vladimir Poutine, alors que, tout comme Benyamin Nétanyahou (chef de gouvernement), il est le chef d’un État non partie à la Cour. Cette position renforce les accusations de « deux poids-deux mesures » souvent exprimées à l’encontre de Paris.
En faisant du droit international une variable d’ajustement de sa politique étrangère, la France est devenue inaudible dans ce conflit. Il est contradictoire de vouloir reconnaître l’État de Palestine tout en manquant à ses obligations juridiques. Répétons-le : une telle reconnaissance, symbolique en l’état, ne risque pas de produire beaucoup d’effets si elle n’est pas accompagnée de mesures concrètes.
Insaf Rezagui ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2025 à 17:29
Fabrice Flipo, Professeur en philosophie sociale et politique, épistémologie et histoire des sciences et techniques, Institut Mines-Télécom Business School
La sphère médiatique semble déconcertée : lors de son premier mandat, Trump avait baissé les droits de douane, désormais, il les relève ; il joue la Russie, puis l’Ukraine. La conclusion ? Trump serait « imprévisible ». Rien n’est plus faux : Donald Trump a derrière lui une équipe, un agenda, un plan cherchant à enrayer le déclin des valeurs « américaines ». Ce plan peut être qualifié de « libertarien », un courant qui valorise le talent individuel, la famille, le patrimoine et la religion. La liberté y prime sur l’égalité, et la morale sur l’État de droit.
Le fait est quasiment passé inaperçu. Certains médias s’en sont fait l’écho mais en limitant son importance, évoquant une minorité « d’extrémistes » avec lesquels Donald Trump avait dû composer. En avril 2023, la Heritage Foundation, l’un des plus importants think tank conservateur, publie un plan de 922 pages intitulé « Mandate for Leadership.The Conservative Promise ».
Le document est issu d’une vaste concertation des think tanks conservateurs, 53 d’entre eux figurent dans le conseil d’orientation. Tout est détaillé, des fonctions de la Maison Blanche au rôle des différentes agences gouvernementales ou à celui des fonctionnaires. L’Agenda 47 de Trump, ou programme du 47e président des États-Unis, est très similaire, et ce qu’il décide depuis quelques mois va dans le même sens. Le fil conducteur est libertarien, courant politique relativement méconnu en France.
Le « Mandate for Leadership » peut être résumé en un certain nombre de points structurants : la famille, les valeurs virilistes, l’anticommunisme, la caporalisation des organisations, étatiques ou non, qui doivent porter les valeurs conservatrices. Les mesures en faveur de la diversité, de l’équité et de l’inclusion doivent être entièrement supprimées et sont même qualifiées de « racistes », au profit d’un traitement égal devant la loi, d’opportunités égales pour toutes et tous et du mérite individuel.
Bon nombre de prérogatives fédérales doivent repasser au niveau local, celui des États. La Chine est perçue comme la principale, sinon l’unique, menace géopolitique sérieuse, pour de multiples raisons, d’où une volonté de redéploiement des ressources. L’approche de l’économie est partiellement en rupture avec le libre-échange tel que défendu par l’Organisation mondiale du commerce (OMC) ou Paul Krugman, qui sont d’ailleurs explicitement pris à partie comme irréaliste et issu d’universitaires dans leur tour d’ivoire.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le « Mandate for leadership » veut « reprendre les rênes du gouvernement » contre « la bureaucratie ». L’axiome central est le suivant : « Le choix du personnel, c’est de la politique. » Ce premier engagement est donc à première vue antilibéral. Mais il est adossé en réalité à ce principe conservateur qui veut que la morale soit première, et le droit seulement second. Par ailleurs, les ressources doivent être prioritairement réorientées pour contrer l’influence de la Chine, y compris celles de l’Usaid.
L’action de l’État est affaiblie, mais surtout réorientée. Le département de l’agriculture doit respecter les familles, les tracteurs et les fermiers, plutôt que de chercher à transformer le système agroalimentaire. L’éducation doit revenir aux États. La question de la race doit être évacuée sur le plan formel (colorblind society) – ceci, sans rien entreprendre pour lutter contre le racisme. L’Agence de l’environnement doit s’en tenir à des enjeux de pollution locale. Le département de la santé doit promouvoir des familles stables et mariées. La responsabilité des patients doit être rétablie, notamment la liberté de conscience – y compris en situation de pandémie. L’administration nationale sur l’atmosphère et les océans doit être empêchée de « nuire », étant inutilement alarmiste et préjudiciable à la prospérité. Et enfin l’enjeu est de rétablir un commerce équitable (fair trade) et des droits de douane réciproques (reciprocal tariffs).
Les écarts avec la plateforme proposée par Trump sur son site de campagne sont assez faibles, et plus encore avec les actes qui sont actuellement engagés. Si l’on en croit la liste partielle publiée sur Wikipédia, les 220 premières actions de Trump sont cohérentes. C’est aussi ce que constatait la revue en ligne le Grand Continent, en février 2025, estimant que plus d’un tiers du programme des conservateurs avait été mis en œuvre.
En dépit de cette cohérence, le cas Trump semble interroger tous les médias. Plusieurs explications peuvent être avancées. La première est que le conservatisme est une famille de pensée peu connue, en France ; et plus encore le libertarisme dit « de droite » – car il existe aussi un courant libertarien « de gauche ». Le philosophe John Rawls, théorisait pourtant ce courant sous l’appellation d’« aristocratie naturelle ». Ses caractéristiques principales sont de défendre l’ouverture des carrières aux talents, tout en refusant les mesures qui cherchent à établir formellement une égalité des chances. La base de la société n’est pas l’individu mais la famille, et le patrimoine. La liberté prime sur l’égalité. La religion est une obligation. La morale prime sur l’État de droit, ce qui explique que ce courant soit en partie « illibéral ».
Les grands théoriciens sont Ludwig von Mises, Murray Rothbard et Robert Nozick. Un de leurs exemples préférés est le joueur de basket, dont le salaire dépend directement de la performance : s’il est bon, le public accepte de payer pour le voir jouer, et refuser dans le cas contraire. Les mesures en faveur de l’égalité telles que la redistribution sont jugées entraver le talent. Ce n’est pas un utilitarisme, au sens d’une pensée politique cherchant à maximiser la richesse. L’argent n’est qu’un moyen parmi d’autres de passer des contrats. Ce courant se réfère beaucoup à la Constitution des États-Unis et à cet événement jugé fondateur du pays : la révolte de 1773 contre le Royaume-Uni à Boston, au cours de laquelle des cargaisons de thé anglais furent jetées à la mer.
Sébastien Caré a mené une enquête empirique sur ce courant, aux États-Unis. Il distingue cinq idéaux types qui sont instructifs, en termes de base électorale du trumpisme.
Le premier est le « paléolibertarien » ou « redneck », souvent chrétien, hostile aux LGBTQIA+ et que l’on imagine aisément s’identifiant aux personnages de western, ou à la Petite Maison dans la prairie.
Le second s’inspire de la romancière Ayn Rand (1905-1982), auteure de la Vertu d’égoïsme (2008), qui conditionnait un changement d’ampleur, dans l’esprit du Tea Party, à la mise au point d’« un programme d’action à longue portée, avec les principes servant à unifier et à intégrer des mesures particulières dans une voie cohérente ». Comment ne pas penser au Project 2025 ?
La troisième sorte de libertarien est acclimaté à l’establishment et désigne, par exemple, les think tanks tels que la Heritage Foundation.
Le quatrième type est le « libertarien libertaire » qui correspond en fait aux libertariens de gauche, et est évidemment opposé à Trump.
La cinquième catégorie correspond à ceux que Caré appelle les « cyberlibertariens », qui voient le cyberespace comme un monde où ils peuvent réaliser leur utopie. Il est utile d’ajouter que les deux derniers courants ont fortement investi le numérique au cours d’une période qui va des années 1970 à 2000, d’après Ted Turner qui en fut un acteur autant qu’un témoin privilégié.
Ces différents types de libertariens peuvent illustrer la diversité des publics qui se reconnaissent dans le document élaboré par les conservateurs : des « rednecks » (ploucs), des travailleurs du numérique et une partie de l’establishment lui-même, ce qui explique que le courant ne soit pas de taille résiduelle comme en France.
Le libertarisme est assez étranger aux États dont la culture étatique est fermement ancrée (en France par exemple). Partiellement illibéral, ce n’est pas un fascisme pour autant, ni un courant autocrate. Ce serait contradictoire avec son apologie de la liberté.
Si Trump affiche une forme d’impérialisme comme dans le cas du Groenland, il n’a pas sorti les tanks, ni empoisonné ses adversaires politiques comme le fait Poutine. Quant aux variations en intensité dans ses positions, elles s’expliquent en large partie par sa manière de voir les « deals » : demander énormément au départ, pour stupéfier son interlocuteur, et revenir ensuite à des positions plus raisonnables.
Fabrice Flipo travaille sur les questions d'émancipation.
29.04.2025 à 17:28
Marie Picard, Doctorante en sociologie, Université de Rouen Normandie
Si elles sont souvent restées dans l’ombre, un certain nombre de jeunes femmes, parfois encore adolescentes, se sont engagées dans la Résistance. Qui étaient-elles ? Comment leur action pendant la Seconde Guerre mondiale a-t-elle orienté leurs choix et leur militantisme à venir ? La recherche s’empare de ces questions.
En avril 1945, le camp de concentration de Mauthausen en Autriche est libéré par les forces alliées. Gisèle Guillemot fait partie des prisonnières et des prisonniers évacués. Résistante, elle avait été arrêtée deux ans plus tôt, en avril 1943. Comme elle, de nombreuses jeunes femmes se sont engagées contre l’ennemi nazi.
Quatre-vingts ans après la fin de la Seconde Guerre mondiale, des zones d’ombre persistent autour de ces figures, « ossature invisible de la Résistance ». Qui étaient-elles ? Comment sont-elles entrées en résistance ? Quelle place cet engagement a-t-il eu dans leur parcours ?
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
À partir d’une recherche en cours sur les résistantes en Normandie, cet article propose de se pencher sur les parcours de certaines d’entre elles. Elles ont entre 15 et 20 ans au début de la guerre et lors de leurs premiers actes de résistance. Leurs actions sont diverses : distributions de tracts, sabotages, transports d’armes et de matériel, transmission de renseignements, rédaction et impression de journaux clandestins…
La Résistance se définit comme un mouvement social particulièrement complexe et original. L’engagement militant et politique que cela sous-tend pose la question de son origine et de ses causes. Les résistantes justifient généralement leurs actions comme naturelles et allant de soi. Mais l’observation de leurs parcours biographiques amène à questionner les déterminants sociaux et politiques issus de leur enfance et les différentes sphères de socialisation côtoyées.
La famille est généralement caractérisée comme la principale sphère de socialisation politique primaire. Dans le cas des jeunes résistantes, les événements vécus dans ce cadre, ainsi que les valeurs transmises par l’éducation montrent une réelle politisation pendant l’entre-deux-guerres.
Les positionnements idéologiques des parents des résistantes, lorsqu’ils sont identifiés, reflètent une enfance vécue dans un cadre orienté politiquement. Par ailleurs, dans leurs discours, les résistantes opèrent elles-mêmes la liaison entre leur éducation familiale et les idées déterminant leur engagement dans la Résistance.
C’est le cas de Paulette Lechevallier-Renault, née en 1920, 19 ans au début des hostilités. Si ses parents, décédés jeunes, n’ont pas manifesté d’orientations politiques claires, elle porte une attention particulière au rejet de l’injustice, inculqué par son père, qui l’a conduite à « ne pas accepter la guerre ».
Certains événements historiques sont prégnants dans les biographies des résistantes. La Première Guerre mondiale en particulier laisse une trace dans le parcours des familles, en figurant d’abord comme un des événements historiques selon lequel les individus situent leur propre parcours.
Marie-Thérèse Fainstein, née Lavenue, est née en 1921, soit « trois ans après la fin de la Première Guerre mondiale » comme elle le précise dans un témoignage. D’autres résistantes ont connu la perte d’un parent, souvent leur père, décédé sur le front, tué par les Allemands.
L’occupation du territoire par les Allemands rappelle d’ailleurs pour les familles l’occupation vécue jusqu’à la Grande Guerre, en particulier en Alsace-Lorraine. L’existence d’un sentiment patriotique est commune au sein des différentes familles. Cet attachement à l’identité nationale s’observe dans les discours des résistantes relatifs à leur prise de décision et à leur volonté d’agir.La famille s’illustre donc comme un espace où les marques des contextes sociohistoriques et politiques forment des dispositions à l’engagement militant.
De même, les constats autour de la socialisation primaire à l’engagement dépassent les clivages de genre entre hommes et femmes présents dans la société française de l’entre-deux-guerres où l’éducation à la contestation et au militantisme est plutôt transmise aux garçons qu’aux filles.
La socialisation par l’école ainsi que par les pairs renforce ces dispositions et contribue à forger l’outillage politique des résistantes. Aussi, bien que des résistantes agissent dans des cellules de résistance familiales, pour d’autres, les premières actions se font dans des cercles extérieurs à l’environnement parental.
La décision d’agir est inhérente à un militantisme qui s’exerce déjà, en lien avec d’autres causes politiques défendues à cette période. Par exemple, la prise de position face à la non-intervention en Espagne est citée de nombreuses fois dans les carrières de militantes des résistantes. Cet élément matérialise un militantisme affirmé : participation aux campagnes de solidarité, actions de solidarité envers les enfants espagnols…
Gisèle Guillemot date notamment le « commencement » de sa vie politique lors de ses 14 ans, au moment de l’accueil des réfugiés espagnols en France auquel elle a contribué.
Le cadre scolaire et les études forment un espace de socialisation politique parallèle, où les espaces d’expression sont multiples. Le rôle joué par l’école est fondamental dans le parcours de Gisèle Guillemot et, en particulier, l’influence de ses directeurs, dans son engagement antifasciste et contre l’occupant nazi :
« C’est dans cette école que j’ai pris le goût de la vie politique et sociale. »
Les canaux de construction des premières actions de résistance se font par l’entremise d’individus rencontrés lors des études. Le tournant de Marie-Thérèse Fainstein (née Lavenue) dans la Résistance débute par la lettre reçue d’une de ses camarades de l’École normale d’institutrices et cette question :
« Est-ce qu’on pourrait faire quelque chose ? »
Les étapes qui ont permis à ces jeunes femmes de devenir des résistantes traduisent des parcours variés et des espaces multiples de socialisation au militantisme. La famille, bien que partie prenante de la construction des idées politiques, s’accompagne d’autres groupes sociaux fréquentés par les résistantes, tels que les individus issus de leur lieu de formation ou leurs collègues et amis.
Pour ces jeunes femmes, dont les prises de position se construisent avant-guerre, la Résistance apparaît comme le terreau d’un engagement politique à venir.
Augusta Pieters, née Dolé, avait à peine 18 ans au début de la guerre, et tout juste 20 ans lorsqu’elle effectue le ravitaillement de résistants et la liaison entre des membres du Parti communiste clandestin. Après-guerre, elle participe activement à la mise en place de l’Union des femmes françaises (UFF) à Dieppe et milite au Parti communiste français (PCF). Lors des élections municipales de 1959, elle est candidate sur la liste du PCF dans cette même ville. Son engagement se poursuit, notamment pendant la guerre d’Algérie qu’elle réprouve en menant des actions diverses.
En parallèle, les résistantes s’illustrent dans des engagements associatifs, constitutifs d’une continuité des groupes sociaux issus de la Résistance, y compris de la déportation.
Gisèle Guillemot milite en particulier au sein de la Fédération nationale des déportés, internés et résistants patriotes (FNDIRP).
De son côté, Marie-Thérèse Fainstein (née Lavenue) est membre de plusieurs associations, telles que l’Association de déportés et internés de la Résistance et familles de disparus en Seine-Maritime (ADIF).
Les 80 ans de la fin de la Seconde Guerre mondiale voient la multiplication des initiatives mémorielles, et les résistantes elles-mêmes ont joué un rôle dans ce processus à partir des années 1980 et 1990.
Leurs témoignages émergent, notamment dans le cadre scolaire, accompagnés de l’injonction aux jeunes générations :
« Ne pas oublier. »
Marie Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2025 à 17:23
Michel Beaudouin-Lafon, Chercheur en informatique, Université Paris-Saclay
Chloé Mercier, Chercheuse en modélisation informatique et cognitive pour l'éducation, Université de Bordeaux
Serge Abiteboul, Directeur de recherche à Inria, membre de l'Académie des Sciences, École normale supérieure (ENS) – PSL
Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.
Michel Beaudouin-Lafon est un chercheur en informatique français dans le domaine de l’interaction humain-machine. Il est professeur depuis 1992 à l’Université de Paris-Saclay. Ses travaux de recherche portent sur les aspects fondamentaux de l’interaction humain-machine, l’ingénierie des systèmes interactifs, le travail collaboratif assisté par ordinateur et plus généralement les nouvelles techniques d’interaction. Il a co-fondé et a été premier président de l’Association francophone pour l’interaction humain-machine. Il est membre senior de l’Institut universitaire de France, lauréat de la médaille d’argent du CNRS, ACM Fellow et, depuis 2025, membre de l’Académie des sciences.
Binaire : Pourrais-tu nous raconter comment tu es devenu un spécialiste de l’interaction humain-machine ?
Michel Beaudouin-Lafon : J’ai suivi les classes préparatoires au lycée Montaigne à Bordeaux. On n’y faisait pas d’informatique, mais je m’amusais déjà un peu avec ma calculatrice programmable HP29C. Ensuite, je me suis retrouvé à l’ENSEEIHT, une école d’ingénieur à Toulouse, où j’ai découvert l’informatique… un peu trop ardemment : en un mois, j’avais épuisé mon quota de calcul sur les cartes perforées !
À la sortie, je n’étais pas emballé par l’idée de rejoindre une grande entreprise ou une société de service. J’ai alors rencontré Gérard Guiho de l’université Paris-Sud (aujourd’hui Paris-Saclay) qui m’a proposé une thèse en informatique. Je ne savais pas ce que c’était qu’une thèse : nos profs à l’ENSEEIHT, qui étaient pourtant enseignants-chercheurs, ne nous parlaient jamais de recherche.
Fin 1982, c’était avant le Macintosh, Gérard venait d’acquérir une station graphique dont personne n’avait l’usage dans son équipe. Il m’a proposé de travailler dessus. Je me suis bien amusé et j’ai réalisé un logiciel d’édition qui permettait de créer et simuler des réseaux de Pétri, un formalisme avec des ronds, des carrés, des flèches, qui se prêtait bien à une interface graphique. C’est comme ça que je me suis retrouvé à faire une thèse en IHM : interaction humain-machine.
M. B.-L. : Ça existait mais de manière encore assez confidentielle. La première édition de la principale conférence internationale dans ce domaine, Computer Human Interaction (CHI), a eu lieu en 1982. En France, on s’intéressait plutôt à l’ergonomie. Une des rares exceptions : Joëlle Coutaz qui, après avoir découvert l’IHM à CMU (Pittsburgh), a lancé ce domaine à Grenoble.
Binaire : Et après la thèse, qu’es-tu devenu ?
M. B.-L. : J’ai été nommé assistant au LRI, le laboratoire de recherche de l’Université Paris-Sud, avant même d’avoir fini ma thèse. Une autre époque ! Finalement, j’ai fait toute ma carrière dans ce même laboratoire, même s’il a changé de nom récemment pour devenir le LISN, laboratoire interdisciplinaire des sciences du numérique. J’y ai été nommé professeur en 1992. J’ai tout de même bougé un peu. D’abord en année sabbatique en 1992 à l’Université de Toronto, puis en détachement à l’Université d’Aarhus au Danemark entre 1998 et 2000, et enfin plus récemment comme professeur invité à l’université de Stanford entre 2010 et 2012.
En 1992, au cours d’un workshop au Danemark, j’ai rencontré Wendy Mackay, une chercheuse qui travaillait sur l’innovation par les utilisateurs. Un an plus tard, nous étions mariés ! Cette rencontre a été déterminante dans ma carrière pour combiner mon parcours d’ingénieur, que je revendique toujours, avec son parcours à elle, qui était psychologue. Wendy est spécialiste de ce qu’on appelle la conception participative, c’est-à-dire d’impliquer les utilisateurs dans tout le cycle de conception des systèmes interactifs. Je vous invite d’ailleurs à lire son entretien dans Binaire. C’est cette complémentarité entre nous qui fait que notre collaboration a été extrêmement fructueuse sur le plan professionnel. En effet, dans le domaine de l’IHM, c’est extrêmement important d’allier trois piliers : (1) l’aspect humain, donc la psychologie ; (2) le design, la conception, la créativité ; et (3) l’ingénierie. Ce dernier point concerne la mise en œuvre concrète, et les tests avec des vrais utilisateurs pour voir si ça marche (ou pas) comme on l’espère. Nous avons vécu la belle aventure du développement de l’IHM en France, et sa reconnaissance comme science confirmée, par exemple, avec mon élection récente à l’Académie des Sciences.
*Binaire : L’IHM est donc une science, mais en quoi consiste la recherche dans ce domaine ? *
M. B.-L. : On nous pose souvent la question. Elle est légitime. En fait, on a l’impression que les interfaces graphiques utilisées aujourd’hui par des milliards de personnes ont été inventées par Apple, Google ou Microsoft, mais pas vraiment ! Elles sont issues de la recherche académique en IHM !
Si on définit souvent l’IHM par Interface Humain-Machine, je préfère parler d’Interaction Humain-Machine. L’interaction, c’est le phénomène qui se produit lorsqu’on est utilisateur d’un système informatique et qu’on essaie de faire quelque chose avec la machine, par la machine. On a ainsi deux entités très différentes l’une de l’autre qui communiquent : d’un côté, un être humain avec ses capacités cognitives et des moyens d’expression très riches ; et de l’autre, des ordinateurs qui sont de plus en plus puissants et très rapides mais finalement assez bêtes. Le canal de communication entre les deux est extrêmement ténu : taper sur un clavier, bouger une souris. En comparaison des capacités des deux parties, c’est quand même limité. On va donc essayer d’exploiter d’autres modalités sensorielles, des interfaces vocales, tactiles, etc., pour multiplier les canaux, mais on va aussi essayer de rendre ces canaux plus efficaces et plus puissants.
Ce phénomène de l’interaction, c’est un peu une sorte de matière noire : on sait que c’est là, mais on ne peut pas vraiment la voir. On ne peut la mesurer et l’observer que par ses effets sur la machine et sur l’être humain. Et donc, on observe comment l’humain avec la machine peuvent faire plus que l’humain seul et la machine seule. C’est une idée assez ancienne : Doug Engelbart en parlait déjà dans les années 60. Et pourtant, aujourd’hui, on a un peu tendance à l’oublier car on se focalise sur des interfaces de plus en plus simples, où c’est la machine qui va tout faire et on n’a plus besoin d’interagir. Or, je pense qu’il y a vraiment une valeur ajoutée à comprendre ce phénomène d’interaction pour en tirer parti et faire que la machine augmente nos capacités plutôt que faire le travail à notre place. Par extension, on s’intéresse aussi à ce que des groupes d’humains et de machines peuvent faire ensemble.
La recherche en IHM, il y a donc un aspect recherche fondamentale qui se base sur d’autres domaines (la psychologie mais aussi la sociologie quand on parle des interactions de groupes, ou encore la linguistique dans le cadre des interactions langagières) qui permet de créer nos propres modèles d’interaction, qui ne sont pas des modèles mathématiques ; et ça, je le revendique parce que je pense que c’est une bonne chose qu’on ne sache pas encore mettre le cerveau humain en équation. Et puis il y a une dimension plus appliquée où on va créer des objets logiciels ou matériels pour mettre tout ça en œuvre.
Pour moi, l’IHM ne se résume pas à faire de nouveaux algorithmes. Au début des années 90, Peter Wegener a publié dans Communications of the ACM – un des journaux de référence dans notre domaine – un article qui disait « l’interaction est plus puissante que les algorithmes ». Cela lui a valu pas mal de commentaires et de critiques, mais ça m’a beaucoup marqué.
*Binaire : Et à propos d’algorithmes, est-ce que l’IA soulève de nouvelles problématiques en IHM ? *
M. B.-L. : Oui, absolument ! En ce moment, les grandes conférences du domaine débordent d’articles qui combinent des modèles de langage (LLM) ou d’autres techniques d’IA avec de l’IHM.
Historiquement, dans une première phase, l’IA a été extrêmement utilisée en IHM, par exemple pour faire de la reconnaissance de gestes. C’était un outil commode, qui nous a simplifié la vie, mais sans changer nos méthodes d’interaction.
Aux débuts de l’IA générative, on est un peu revenu 50 ans en arrière en matière d’interaction, quand la seule façon d’interagir avec les ordinateurs, c’était d’utiliser le terminal. On fait un prompt, on attend quelques secondes, on a une réponse ; ça ne va pas, on bricole. C’est une forme d’interaction extrêmement pauvre. De plus en plus de travaux très intéressants imaginent des interfaces beaucoup plus interactives, où on ne voit plus les prompts, mais où on peut par exemple dessiner, transformer une image interactivement, sachant que derrière, ce sont les mêmes algorithmes d’IA générative avec leurs interfaces traditionnelles qui sont utilisés.
Pour moi, l’IA soulève également une grande question : qu’est-ce qu’on veut déléguer à la machine et qu’est-ce qui reste du côté humain ? On n’a pas encore vraiment une bonne réponse à ça. D’ailleurs, je n’aime pas trop le terme d’intelligence artificielle. Je n’aime pas attribuer des termes anthropomorphiques à des systèmes informatiques. Je m’intéresse plutôt à l’intelligence augmentée, quand la machine augmente l’intelligence humaine. Je préfère mettre l’accent sur l’exploitation de capacités propres à l’ordinateur, plutôt que d’essayer de rendre l’ordinateur identique à un être humain.
*Binaire : La parole nous permet d’interagir avec les autres humains, et de la même façon avec des bots. N’est-ce pas plus simple que de chercher la bonne icône ? *
M. B.-L. : Interagir par le langage, oui, c’est commode. Ceci étant, à chaque fois qu’on a annoncé une nouvelle forme d’interface qui allait rendre ces interfaces graphiques (avec des icônes, etc.) obsolètes, cela ne s’est pas vérifié. Il faut plutôt s’intéresser à comment on fait cohabiter ces différentes formes d’interactions. Si je veux faire un schéma ou un diagramme, je préfère le dessiner plutôt que d’imaginer comment le décrire oralement à un système qui va le faire (sans doute mal) pour moi. Ensuite, il y a toujours des ambiguïtés dans le langage naturel entre êtres humains. On ne se contente pas des mots. On les accompagne d’expressions faciales, de gestes, et puis de toute la connaissance d’un contexte qu’un système d’IA aujourd’hui n’a souvent pas, ce qui le conduit à faire des erreurs que des humains ne feraient pas. Et finalement, on devient des correcteurs de ce que fait le système, au lieu d’être les acteurs principaux.
Ces technologies d’interaction par la langue naturelle, qu’elles soient écrites ou orales, et même si on y combine des gestes, soulèvent un sérieux problème : comment faire pour que l’humain ne se retrouve pas dans une situation d’être de plus en plus passif ? En anglais, on appelle ça de-skilling : la perte de compétences et d’expertise. C’est un vrai problème parce que, par exemple, quand on va utiliser ces technologies pour faire du diagnostic médical, ou bien prononcer des sentences dans le domaine juridique, on va mettre l’être humain dans une situation de devoir valider ou non la décision posée par une IA. Et en fait, il va être quand même encouragé à dire oui, parce que contredire l’IA revient à s’exposer à une plus grande responsabilité que de constater a posteriori que l’IA s’est trompée. Donc dans ce genre de situation, on va chercher comment maintenir l’expertise de l’utilisateur et même d’aller vers de l’upskilling, c’est-à-dire comment faire pour qu’un système d’IA le rende encore plus expert de ce qu’il sait déjà bien faire, plutôt que de déléguer et rendre l’utilisateur passif. On n’a pas encore trouvé la façon magique de faire ça. Mais si on reprend l’exemple du diagnostic médical, si on demande à l’humain de faire un premier diagnostic, puis à l’IA de donner le sien, et que les deux ont ensuite un échange, c’est une interaction très différente que d’attendre simplement ce qui sort de la machine et dire oui ou non.
Binaire : Vous cherchez donc de nouvelles façons d’interagir avec les logiciels, qui rendent l’humain plus actif et tendent vers l’upskilling.
M. B.-L. : Voilà ! Notre équipe s’appelle Ex Situ, pour Extreme Situated Interaction. C’est parti d’un gag parce qu’avant, on s’appelait In Situ pour Interaction Située. Il s’agissait alors de concevoir des interfaces en fonction de leur contexte, de la situation dans laquelle elles sont utilisées.
Nous nous sommes rendus compte que nos recherches conduisaient à nous intéresser à ce qu’on a appelé des utilisateurs « extrêmes », qui poussent la technologie dans ses retranchements. En particulier, on s’intéresse à deux types de sujets, qui sont finalement assez similaires. D’un part, les créatifs (musiciens, photographes, graphistes…) qui par nature, s’ils ont un outil (logiciel ou non) entre les mains, vont l’utiliser d’une manière qui n’était pas prévue, et ça nous intéresse justement de voir comment ils détournent ces outils. D’autre part, Wendy travaille, depuis longtemps d’ailleurs, dans le domaine des systèmes critiques dans lequel on n’a pas droit à l’erreur : pilotes d’avion, médecins, etc.
Dans les industries culturelles et créatives (édition, création graphique, musicale, etc.), les gens sont soit terrorisés, soit anxieux, de ce que va faire l’IA. Et nous, ce qu’on dit, c’est qu’il ne s’agit pas d’être contre l’IA – c’est un combat perdu de toute façon – mais de se demander comment ces systèmes vont pouvoir être utilisés d’une manière qui va rendre les humains encore plus créatifs. Les créateurs n’ont pas besoin qu’on crée à leur place, ils ont besoin d’outils qui les stimulent. Dans le domaine créatif, les IA génératives sont, d’une certaine façon, plus intéressantes quand elles hallucinent ou qu’elles font un peu n’importe quoi. Ce n’est pas gênant au contraire.
Binaire : L’idée d’utiliser les outils de façon créative, est-ce que cela conduit au design ?
M. B.-L. : Effectivement. Par rapport à l’ergonomie, qui procède plutôt selon une approche normative en partant des tâches à optimiser, le design est une approche créative qui questionne aussi les tâches à effectuer. Un designer va autant mettre en question le problème, le redéfinir, que le résoudre. Et pour redéfinir le problème, il va interroger et observer les utilisateurs pour imaginer des solutions. C’est le principe de conception participative, qui implique les acteurs eux-mêmes en les laissant s’approprier leur activité, ce qui donne finalement de meilleurs résultats, non seulement sur le plan de la performance mais aussi et surtout sur l’acceptation.
Notre capacité naturelle d’être humain nous conduit à constamment réinventer notre activité. Lorsque nous interagissons avec le monde, certes nous utilisons le langage, nous parlons, mais nous faisons aussi des mouvements, nous agissons sur notre environnement physique ; et ça passe parfois par la main nue, mais surtout par des outils. L’être humain est un inventeur d’outils incroyables. Je suis passionné par la facilité que nous avons à nous servir d’outils et à détourner des objets comme outils ; qui n’a pas essayé de défaire une vis avec un couteau quand il n’a pas de tournevis à portée de main ? Et en fait, cette capacité spontanée disparaît complètement quand on passe dans le monde numérique. Pourquoi ? Parce que dans le monde physique, on utilise des connaissances techniques, on sait qu’un couteau et un tournevis ont des propriétés similaires pour cette tâche. Alors que dans un environnement numérique, on a besoin de connaissances procédurales : on apprend que pour un logiciel il faut cliquer ici et là, et puis dans un autre logiciel pour faire la même chose, c’est différent.
C’est en partant de cette observation que j’ai proposé l’ERC One, puis le projet Proof-of Concept OnePub, qui pourrait peut-être même déboucher sur une start-up. On a voulu fonder l’interaction avec nos ordinateurs d’aujourd’hui sur ce modèle d’outils – que j’appelle plutôt des instruments, parce que j’aime bien l’analogie avec l’instrument de musique et le fait de devenir virtuose d’un instrument. Ça remet en cause un peu tous nos environnements numériques. Pour choisir une couleur sur Word, Excel ou Photoshop, on utilise un sélecteur de couleurs différent. En pratique, même si tu utilises les mêmes couleurs, il est impossible de prendre directement une couleur dans l’un pour l’appliquer ailleurs. Pourtant, on pourrait très bien imaginer décorréler les contenus qu’on manipule (texte, images, vidéos, son…) des outils pour les manipuler, et de la même façon que je peux aller m’acheter les pinceaux et la gouache qui me conviennent bien, je pourrais faire la même chose avec mon environnement numérique en la personnalisant vraiment, sans être soumis au choix de Microsoft, Adobe ou Apple pour ma barre d’outils. C’est un projet scientifique qui me tient à cœur et qui est aussi en lien avec la collaboration numérique.
Binaire : Par rapport à ces aspects collaboratifs, n’y a-t-il pas aussi des verrous liés à la standardisation ?
M. B.-L. : Absolument. On a beau avoir tous ces moyens de communication actuels, nos capacités de collaboration sont finalement très limitées. À l’origine d’Internet, les applications s’appuyaient sur des protocoles et standards ouverts assurant l’interopérabilité : par exemple, peu importait le client ou serveur de courrier électronique utilisé, on pouvait s’échanger des mails sans problème. Mais avec la commercialisation du web, des silos d’information se sont créés. Aujourd’hui, des infrastructures propriétaires comme Google ou Microsoft nous enferment dans des “jardins privés” difficiles à quitter. La collaboration s’établit dans des applications spécialisées alors qu’elle devrait être une fonctionnalité intrinsèque.
C’est ce constat qui a motivé la création du PEPR eNSEMBLE, un grand programme national sur la collaboration numérique, dont je suis codirecteur. L’objectif est de concevoir des systèmes véritablement interopérables où la collaboration est intégrée dès la conception. Cela pose des défis logiciels et d’interface. Une des grandes forces du système Unix, où tout est très interopérable, vient du format standard d’échange qui sont des fichiers textes ASCII. Aujourd’hui, cela ne suffit plus. Les interactions sont plus complexes et dépassent largement l’échange de messages.
C’est frustrant car on a quand même fait beaucoup de progrès en IHM, mais il faudrait aussi plus d’échanges avec les autres disciplines comme les réseaux, les systèmes distribués, la cryptographie, etc., parce qu’en fait, aucun système informatique aujourd’hui ne peut se passer de prendre en compte les facteurs humains. Au-delà des limites techniques, il y a aussi des contraintes qui sont totalement artificielles et qu’on ne peut aborder que s’il y a une forme de régulation qui imposerait, par exemple, la publication des API de toute application informatique qui communique avec son environnement. D’ailleurs, la législation européenne autorise le reverse engineering dans les cas exceptionnels où cela sert à assurer l’interopérabilité, un levier que l’on pourrait exploiter pour aller plus loin.
Cela pose aussi la question de notre responsabilité de chercheur pour ce qui est de l’impact de l’informatique, et pas seulement l’IHM, sur la société. C’est ce qui m’a amené à m’impliquer dans l’ACM Europe Technology Policy Committee, dont je suis Chair depuis 2024. L’ACM est un société savante apolitique, mais on a pour rôle d’éduquer les décideurs politiques, notamment au niveau de l’Union européenne, sur les capacités, les enjeux et les dangers des technologies, pour qu’ils puissent ensuite les prendre en compte ou pas dans des textes de loi ou des recommandations (comme l’AI ACT récemment).
Binaire : En matière de transmission, sur un ton plus léger, tu as participé au podcast Les petits bateaux sur Radio France. Pourrais-tu nous en parler ?
M. B.-L. : Oui ! Les petits bateaux. Dans cette émission, les enfants peuvent appeler un numéro de téléphone pour poser des questions. Ensuite, les journalistes de l’émission contactent un scientifique avec une liste de questions, collectées au cours du temps, sur sa thématique d’expertise. Le scientifique se rend au studio et enregistre des réponses. A l’époque, un de mes anciens doctorants ou étudiants avait participé à une action de standardisation du clavier français Azerty sur le positionnement des caractères non alphanumériques, et j’ai donc répondu à des questions très pertinentes comme “Comment les Chinois font pour taper sur un clavier ?”, mais aussi “Où vont les fichiers quand on les détruit ?”, “C’est quoi le com dans.com ?” Évidemment, les questions des enfants intéressent aussi les adultes qui n’osent pas les poser. On essaie donc de faire des réponses au niveau de l’enfant mais aussi d’aller un petit peu au-delà, et j’ai trouvé cela vraiment intéressant de m’adresser aux différents publics.
Je suis très attaché à la transmission, je suis issu d’une famille d’enseignants du secondaire, et j’aime moi-même enseigner. J’ai dirigé et participé à la rédaction de manuels scolaires des spécialités informatiques SNT et NSI au Lycée. Dans le programme officiel de NSI issu du ministère, une ligne parle de l’interaction avec l’utilisateur comme étant transverse à tout le programme, ce qui veut dire qu’elle n’est concrètement nulle part. Mais je me suis dit que c’était peut-être l’occasion d’insuffler un peu de ma passion dans ce programme, que je trouve par ailleurs très lourd pour des élèves de première et terminale, et de laisser une trace ailleurs que dans des papiers de recherche…
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.04.2025 à 17:22
Anne Blavette, Chargée de recherche CNRS en génie électrique, École normale supérieure de Rennes
Lundi 28 avril, l’Espagne, le Portugal et une partie du Pays basque français ont été touchés par une coupure d’électricité majeure qui a perturbé l’ensemble de la région. Alors que la situation est presque rétablie moins de 24 heures plus tard, les causes de l’incident sont encore inconnues. Anne Blavette travaille sur l’optimisation de la gestion de l’énergie au sein des réseaux électriques avec un fort taux d’énergies renouvelables et répond à nos questions sur les instabilités des réseaux.
The Conversation : L’événement d’hier a surpris la population par son ampleur et ses conséquences sur le fonctionnement de pays entiers — des trains aux distributeurs de billets, en passant par l’accès à Internet perturbé jusqu’au Maroc — qui nous rappellent notre dépendance aux systèmes électriques. Quel est votre regard de spécialiste sur un tel événement ?
Anne Blavette : L’évènement qui s’est déclenché hier est assez incroyable, car un incident de cette ampleur géographique est très rare.
À l’heure actuelle, ses causes sont en cours d’investigation. Cependant, il est déjà impressionnant de voir que l’alimentation a presque entièrement été rétablie à 9h le lendemain matin, que ce soit au Portugal ou en Espagne, tandis que l’impact a été mineur en France (quelques minutes d’interruption).
On peut saluer l’efficacité des équipes des différents gestionnaires de réseau (espagnols, portugais et français) qui ont réalisé et réalisent encore un travail très important après les déconnexions et arrêts automatiques de liaisons électriques et centrales électriques, notamment avec des redémarrages zone par zone et le rétablissement progressif des connexions internationales. Ces opérations se font en parallèle des vérifications minutieuses de l’état du réseau. Cette procédure rigoureuse est nécessaire pour éviter que le réseau ne s’effondre à nouveau. Le travail ne sera pas encore achevé même lorsque l’ensemble de la population sera reconnecté, car les investigations sur l’origine de l’incident se poursuivront.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le Portugal et le Pays basque français ont aussi été touchés. Est-ce parce que les réseaux sont connectés localement ?
A. B. : Oui, le Portugal est connecté au réseau européen via l’Espagne, et des connexions existent entre l’Espagne et la France. Cela permet de mieux échanger de l’énergie et d’assurer en général une bien meilleure stabilité du réseau que des réseaux non interconnectés. D’ailleurs, la France participe à la réalimentation électrique de l’Espagne via les interconnexions.
Quelles sont les fragilités typiques d’un réseau électrique ?
A. B. : Un point important pour qu’un réseau électrique soit stable est que l’équilibre entre la consommation et la production d’électricité soit assuré à chaque instant (on parle d’équilibre production-consommation ou offre-demande).
Or, on a vu hier sur le réseau espagnol un brusque décrochage de la production/consommation de l’ordre d’une dizaine de gigawatts. Cela correspond à une perte d’environ 60 % de la consommation pour ce jour. Je cite le journal le Monde : « M.Sanchez a affirmé qu’il n’y avait “jamais” eu un tel “effondrement” du réseau électrique espagnol, précisant que “15 gigawatts” d’électricité avaient été “soudainement perdus"sur le réseau, le tout "en à peine cinq secondes” […] "Quinze gigawatts correspondent approximativement à 60 % de la demande" en électricité de l’Espagne à cette heure-là de la journée, a décrit le chef du gouvernement, qui a présidé une réunion de crise sur cette panne géante. »
Dans le cas d’un brusque décrochage de cet ordre, il y a une coupure électrique sur une grande région (qu’on qualifie de blackout), car le système devient instable. La raison du décrochage d’hier en Espagne semble encore inconnue et est en cours d’investigations par les gestionnaires de réseau et les autorités publiques.
Qu’est-ce qu’une instabilité du réseau électrique ? Qu’est-ce qui peut provoquer de telles instabilités ?
A. B. : Un réseau stable fonctionne dans des plages définies pour plusieurs grandeurs, notamment la fréquence et la tension électrique. En dehors de ces plages, le réseau peut être instable. Par exemple, si la tension en un point du réseau devient brusquement excessive, cela peut entraîner des déconnexions d’appareils qui se mettent en protection. Prenons, par exemple, le cas de panneaux photovoltaïques : s’ils se déconnectent, l’énergie qu’ils devaient produire peut manquer aux consommateurs, créant ainsi un déséquilibre entre la consommation et la production électrique. Sans opération de remédiation à ce problème, ce déséquilibre pourrait entraîner de graves conséquences pour le réseau électrique.
La seule opération à réaliser à ce stade est de délester très rapidement les consommateurs (c’est-à-dire réaliser une coupure électrique) afin de rétablir l’équilibre entre consommation et production, avant de pouvoir les réalimenter progressivement dans une configuration stable pour le réseau.
Si un incident peut provoquer un blackout, ce dernier peut aussi être provoqué par une succession d’éléments : on parle ainsi de « pannes en cascade ». Mais une panne, en cascade ou isolée, peut entraîner également une propagation à d’autres régions ou d’autres pays et accroître la sévérité de l’incident initial.
De nombreuses causes d’incident sont possibles : pannes de centrales électriques, phénomènes météorologiques extrêmes, etc.
Cependant, l’état du réseau électrique européen est contrôlé avec une grande vigilance par les gestionnaires de réseaux et bénéficie de systèmes automatisés permettant de réagir de façon de façon instantanée et adéquate dans l’urgence : cela a permis notamment de couper la propagation éventuelle vers la France en déconnectant la liaison de la France vers la Catalogne.
Comme la consommation électrique de chacun varie tout le temps, la consommation à l’échelle d’un pays est variable. De même, certains moyens de production d’électricité utilisés (éolien, photovoltaïque…) présentent une production variable avec la météo. Les déséquilibres entre la production d’électricité et la consommation sont donc permanents, et une des tâches des gestionnaires de réseaux de transport d’électricité est d’équilibrer ce qui est produit et ce qui est consommé. Comment ces déséquilibres sont-ils gérés d’habitude ?
A. B. : Il y a tout d’abord un effet de foisonnement à l’échelle d’un pays qui permet de « lisser » les variations individuelles de chaque consommateur ou producteur : la consommation nationale est, par exemple, beaucoup plus lisse que les consommations individuelles. Cela la rend par ailleurs beaucoup plus prédictible, et l’équilibre offre-demande commence par un aspect de prédiction de la consommation, mais également des productions d’énergies renouvelables.
On vient ensuite compléter avec des moyens de production ou de stockage entièrement contrôlables (centrales thermiques, hydroélectricité…) qui permettront d’atteindre l’équilibre à chaque instant.
Bien entendu, certains déséquilibres imprévus peuvent exister et ils sont corrigés par de la réserve qui permet de maintenir la stabilité du réseau. Cette réserve est tirée par exemple d’une marge obligatoire de fonctionnement de centrales électriques (qui peuvent donc produire un peu plus ou un peu moins, selon les besoins). Or, dans le cas de l’Espagne, le déséquilibre était trop important pour réaliser cette compensation, étant plusieurs dizaines de fois supérieure aux réserves disponibles.
Mais il y a aussi d’autres moyens d’ajuster l’offre-demande en amont, notamment en déplaçant la consommation grâce à des tarifs incitatifs (par exemple des heures creuses lorsque la production photovoltaïque est à son maximum) ou par des informations citoyennes, comme ce qui est réalisé via EcoWatt. Dans ce dispositif géré par le gestionnaire de réseau de transport français RTE, les utilisateurs peuvent être alertés en cas de forte demande sur le réseau (généralement en hiver en France, à cause du chauffage électrique), afin de réduire leur consommation sur de courtes plages horaires qui peuvent être critiques pour le réseau ou nécessiter des moyens de production fortement émetteurs de CO2.
Anne Blavette a reçu des financements pour ses travaux de recherche de diverses agences et partenaires de financements, notamment l'ANR, l'ADEME, la région Bretagne, etc. et a collaboré/collabore avec divers partenaires publics et privés dont RTE, SRD, EDF, etc.
29.04.2025 à 16:37
Paolo Antonetti, Professeur, EDHEC Business School
In its latest annual publication, insurance group Hiscox surveyed more than 2,000 cybersecurity managers in eight countries including France. Two thirds of the companies in the survey reported having been the victim of a cyberattack between mid-August 2023 and September 2024, a 15% increase over the previous period. In terms of potential financial losses, Statista estimated that cyberattacks cost France up to €122 billion in 2024, compared to €89 in 2023 – a 37% rise.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
The main forms of cyberattacks on French businesses, the recommendations for how companies can protect themselves, and the technical and legal responses they can adopt are well documented.
However, much less is known about appropriate communications and public relations responses to cyberattacks. The issues at stake are critical. When a company is the target of a cyberattack, should it systematically accept responsibility, or can it instead claim to be a victim to protect its reputation? A wrong answer can aggravate the situation and undermine the confidence of customers and investors.
Our recent research questions the assumption that accepting causal responsibility should be the norm after a cyberattack: we show that positioning oneself as a victim can be more effective in limiting damage to one’s image – provided claims of victimhood are deployed intelligently.
There is evidence that firms need a strategy to present themselves effectively as victims of cybercriminals. Some firms, such as T-Mobile and Equifax, have in the past paid compensation to consumers while refusing to accept any responsibility, essentially presenting themselves as victims.
Similarly, the large French telecommunications operator Free presented itself as a victim when communicating about the large-scale cyberattack that affected its operations last October, which may have had an impact on its image. The UK’s TalkTalk initially framed itself as a victim of a cybercrime but was later criticized for its inadequate security measures.
Clumsily declaring itself as the sole entity to blame or the sole victim of a cyberattack – which is what interests us here – can be risky and backfire on a company, damaging its credibility rather than protecting its reputation.
When companies present themselves as victims of cybercrime, they can elicit sympathy from stakeholders. People tend to be more compassionate toward businesses that depict themselves as wronged rather than those that deny responsibility or shift blame. In essence, this strategy frames the organization as a target of external forces beyond its control, rather than as negligent or incompetent. It leverages a fundamental social norm – people’s instinctive tendency to support those they see as victims.
But claims of victimhood must align with public expectations and the specific context of the breach. They should not be about shirking responsibility, but about acknowledging harm in a way that fosters understanding and trust. The following approaches and choices can help.
The reactions of stakeholders often depend on their understanding of the situation. If the attack is perceived as an external and malicious act, it is crucial for a company to adopt a consistent stance by emphasizing that it itself has been a victim. But if internal negligence is proven, claiming victim status could be counterproductive. The swiftness of a company’s response, the level of transparency and the relative stance taken are all part of a good strategy.
Adopting a position of victimhood does not mean denying all responsibility or minimizing the consequences of an attack. The company must show that it takes the situation seriously by expressing empathy and commitment to affected stakeholders. It must pay particular attention to those affected inside the organization: a claim of victimhood should be part of an apology or a message expressing concern. An effective message must be sincere and oriented toward concrete solutions.
We find that it is easier for companies to claim victimhood persuasively if they are perceived as virtuous. This reputation can be due to a positive track record in terms of corporate social responsibility or because they are a not-for-profit institution (e.g. a library, a university or a hospital). Virtuous victims generate sympathy and empathy, and this is also reflected after a cyberattack.
The results of our study also show that public acceptance of victim status is more effective when the cyberattack is perceived to be the work of highly competent malicious actors. It is also important for a company to persuade the public that the attack harmed the company, while keeping the main focus of the response on the public.
It is essential to distinguish between legitimate claims of victim status and communication that could be perceived as an attempt to exonerate oneself. An overly plaintive tone could undermine a company’s credibility. The approach should be factual and constructive, focusing on the measures taken to overcome the crisis.
Companies’ responses to a cyberattack can vary depending on the context and the public. It is best to assess different approaches before embarking on large-scale communication. This can be done through internal tests, focus groups or targeted surveys. Subtle differences in the situation can cause important shifts in how the public perceives the breach and what the best response might be.
Our study sheds light on a shift in public expectations about crisis management: in the age of ubiquitous cybercrime, responsibilities are often shared. Poorly managed communication after a cyberattack can lead to a lasting loss of trust and expose a company to increased legal risks. Claiming victim status effectively, with an empathetic and transparent approach, can help mitigate the impact of the crisis and preserve the organization’s reputation.
This article was written with Ilaria Baghi (University of Modena and Reggio Emilia).
Paolo Antonetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.04.2025 à 12:24
Susana López Ortiz, Personal Docente e Investigador en Ciencias de la Salud, Universidad Europea Miguel de Cervantes
Alejandro Santos-Lozano, Chair professor, Universidad Europea Miguel de Cervantes
Celia García Chico, Personal Docente e Investigador en Ciencias de la Salud, Universidad Europea Miguel de Cervantes, Universidad Europea Miguel de Cervantes
Le concept de « capacités intrinsèques », défini par l’Organisation mondiale de la santé (OMS), se concentre sur les facultés – sensorielles, psychologiques ou motrices – restées intactes chez les personnes atteintes de la maladie d’Alzheimer. Une nouvelle approche prometteuse pour cette pathologie, comme pour le vieillissement en bonne santé.
En 1967, Marta Cinta était danseuse étoile au New York City Ballet. Près de cinquante ans plus tard, en 2014, elle est arrivée dans une maison de retraite à Alicante, en Espagne, avec un diagnostic de maladie d’Alzheimer. Elle y a passé les dernières années de sa vie, jusqu’en mars 2020, date de son décès.
Lorsqu’elle est entrée en institution, de nombreuses personnes ont certainement pensé qu’il ne restait « plus rien d’elle ». Mais un jour, un thérapeute de l’initiative Música para Despertar (Musique pour l’éveil, en français, ndlr) a décidé de jouer la musique du célèbre ballet le Lac des cygnes, de Piotr Ilitch Tchaïkovski, et la réaction de Marta a ému toute l’Espagne.
Atteinte d’Alzheimer, l’ancienne ballerine Marta Cinta écoute le Lac des cygnes et la chorégraphie lui revient. Pierre-Louis Caron, France Info.
Vidéo tournée par Música para despertar (Musique pour l’éveil)
L’artiste d’origine espagnole a commencé à danser dans son fauteuil roulant, en bougeant ses bras avec une délicatesse qui semblait impossible pour une personne atteinte de sa maladie.
Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.
La danse de Marta Cinta à un stade déjà avancé de la maladie a fait réfléchir à la possibilité de réorienter le traitement de la maladie d’Alzheimer : et si le cœur du problème résidait dans la manière dont nous comprenons les capacités dont disposent les personnes âgées qui souffrent de cette maladie ?
Pour apporter des réponses à cette question, nous nous référons d’abord au concept de capacités intrinsèques, introduit en 2015 par l’Organisation mondiale de la santé (OMS) dans son « Rapport mondial sur le vieillissement et la santé ». Selon les auteurs de rapport, le concept fait référence à l’ensemble des capacités physiques et mentales d’un individu à un moment donné, et non uniquement à ses déficits et à ses maladies.
À lire aussi : Qu’est-ce que la cognition ?
Depuis, l’OMS a identifié cinq dimensions principales autour des capacités intrinsèques : la locomotion, la cognition, l’état psychologique, la vitalité et les capacités sensorielles (définies par l’audition et la vision de la personne).
À l’heure actuelle, les personnes âgées consultent un médecin quand un déclin évident de leurs capacités a déjà été constaté ou au moment où un événement indésirable survient. Cependant, des données scientifiques montrent que le déclin fonctionnel peut se manifester avant l’apparition de symptômes cliniques évidents de démence. De plus, nous savons que ce déclin peut être retardé, ou certains de ses aspects inversés, si des interventions appropriées sont mises en œuvre.
Dans cette logique, les capacités intrinsèques se concentrent sur l’évaluation des capacités qui sont maintenues (et non de celles qui sont perdues), ce qui peut se révéler particulièrement crucial dans les maladies neurodégénératives telles que la maladie d’Alzheimer.
La maladie d’Alzheimer, qui est une pathologie neurodégénérative chronique et progressive, a traditionnellement été abordée dans une perspective qui se concentre uniquement et exclusivement sur la perte de mémoire. Cependant, cette conception peut être considérée comme réductrice, car elle minimise la détérioration de la personne et rend invisibles les capacités qui restent intactes, telles que les capacités sensorielles, psychologiques ou motrices.
L’approche fondée sur les capacités intrinsèques recherche précisément le contraire : observer, prévenir et préserver. De fait, la détection précoce de déficiences concernant certaines capacités ou d’autres peut aider à mettre en place des interventions individualisées et efficaces qui aident à maintenir des capacités intrinsèques adéquates plus longtemps.
De plus, une détérioration dans un des domaines de capacités intrinsèques peut entraîner une réaction en chaîne. Par exemple, une perte auditive non détectée peut conduire à un isolement social, ce qui peut affecter l’humeur et favoriser un mode de vie plus sédentaire.
Selon le « Rapport mondial 2023 sur la maladie d’Alzheimer », environ 40 % des cas de démence pourraient être évités ou retardés en agissant sur 12 facteurs de risque tout au long de la vie, notamment l’éducation, la sédentarité, l’hypertension ou la santé auditive.
(Ce rapport est édité par Alzheimer Disease International, ou ADI, une fédération internationale d’associations consacrées à la maladie d’Alzheimer et aux démences partout dans le monde. ADI revendique des « relations officielles » avec l’OMS, ndlr.)
Ces facteurs sont présents dès les premiers stades de la vie. De ce fait, la prévention relève, non seulement, du système de santé, mais aussi des politiques publiques, des communautés et des établissements d’enseignement.
Agir à ces différents niveaux ne nécessite pas d’interventions cliniques complexes, mais plutôt des stratégies individuelles et communautaires qui contribuent à renforcer les capacités intrinsèques de ces personnes. On citera, par exemple, la promotion de l’activité physique, qui renforce la dimension locomotrice ; la mise en œuvre de thérapies cognitives et de stimulations sensorielles, qui contribuent à améliorer la cognition ; ou la création de lieux de rencontre pour les personnes âgées, en raison de leur importance pour la prise en charge de l’aspect psychologique.
À lire aussi : Pour booster son cerveau, quelles activités physiques privilégier après 60 ans ?
À terme, au-delà des essais cliniques et de la recherche de nouveaux biomarqueurs, les capacités intrinsèques pourraient devenir une arme puissante pour anticiper les effets de la maladie d’Alzheimer et améliorer la vie des malades.
Une étude longitudinale dans laquelle a été analysée la trajectoire en termes de capacités intrinsèques de près de 15 000 personnes a montré que le déclin dans des domaines comme la locomotion et la cognition est fortement prédictif de l’apparition de démence, d’invalidité et de mortalité.
Nous avons vu l’utilité des capacités intrinsèques pour appréhender la maladie d’Alzheimer selon une nouvelle approche. Elles se positionnent également comme l’un des principaux concepts pour comprendre le vieillissement en bonne santé. C’est ce qu’affirme la Décennie pour le vieillissement en bonne santé (2020-2030), un document qui présente la stratégie de l’OMS en matière de vieillissement et de santé.
Ce rapport définit le vieillissement en bonne santé comme
« le processus de développement et de maintien des aptitudes fonctionnelles qui permet aux personnes âgées de jouir d’un état de bien-être. Les aptitudes fonctionnelles sont les capacités qui permettent aux individus d’être et de faire ce qu’ils jugent valorisant ».
Les auteurs soulignent également que la qualité de vie des personnes âgées et de leurs familles, ainsi que des communautés dans lesquelles elles vivent, est l’objectif principal du vieillissement en bonne santé.
À lire aussi : Vivre plus longtemps, mais moins bien ? Les inégalités qui pèsent sur le grand âge
Pour y parvenir, l’OMS propose quatre domaines d’action clé pour passer d’un modèle de dépendance à un modèle de participation active :
changer la façon dont nous concevons l’âge et le vieillissement ;
créer des communautés qui soutiennent les capacités des personnes âgées ;
fournir des soins intégrés et centrés sur la personne ;
garantir l’accès aux soins de longue durée lorsqu’ils sont nécessaires.
Connaître et comprendre les dimensions qui composent les capacités intrinsèques et les facteurs de risque qui influencent l’apparition et la progression de la démence permettrait de développer des stratégies visant à préserver les capacités physiques et mentales des personnes âgées. Par exemple, au moyen d’activités ciblées telles que l’entraînement fonctionnel ou la stimulation cognitive.
En outre, l’intégration d’évaluations des capacités intrinsèques tout au long de la vie pourrait améliorer la compréhension des liens entre les processus qui sous-tendent le vieillissement et l’adhésion à des modes de vie sains.
Encourager ces habitudes permettrait, non seulement, d’accroître les bénéfices apportés par leur pratique, mais aussi de favoriser leur maintien à long terme, en promouvant un vieillissement actif, sain et indépendant.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.04.2025 à 17:28
Laurence Corroy, Professeure des universités, Université de Lorraine
Si les adolescentes et adolescents se retrouvent confrontés de plus en plus précocement à de la pornographie en ligne, il leur est très difficile d’aborder le sujet avec des adultes. Retour sur une enquête de terrain alors que les éditeurs de sites sont sommés d’instaurer un contrôle d’âge pour l’accès à ces contenus sensibles.
Dès que l’on parle des adolescents et de leurs relations au numérique, les débats se polarisent, sans qu’il y ait nécessairement le réflexe de recueillir leur témoignage. En recherche, il est pourtant extrêmement important de leur donner la parole, ce qui permet de mieux mesurer leur capacité d’analyse et de distance vis-à-vis des messages médiatiques.
Dans le cadre de l’étude Sexteens, menée en Grand Est, nous avons rencontré plus d’une soixantaine d’adolescents pour évoquer avec eux les représentations de la sexualité et de l’amour dans les séries pour ados qu’ils regardent. Ces séries ont la particularité de mettre en scène des personnages principaux du même âge qu’eux, la plupart évoluant dans un cadre qu’ils connaissent bien, celui du lycée.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Au cours de cette enquête, nous avons décidé de les interroger sur leur rapport à la pornographie seulement s’ils abordaient spontanément eux-mêmes le sujet au cours de l’entretien. La question n’était pas au cœur de notre recherche, nous ne voulions néanmoins pas l’éluder si les adolescents la soulevaient.
Nous avons ainsi recueilli les paroles d’une vingtaine de lycéennes et de lycéens sur leur confrontation à la pornographie. Ces témoignages sont précieux pour comprendre le choc ressenti et les ambivalences perçues face à ces images obscènes, alors que de plus en plus de mineurs sont exposés à ce type de contenus et que les éditeurs de sites pornographiques sont sommés de contrôler l’âge des internautes.
Le premier enseignement de ce terrain concerne l’âge d’exposition à des images pornographiques. Celles et ceux, majoritaires, qui ont été confrontés à de la pornographie sans l’avoir désiré, l’ont été avant l’entrée au collège et l’ont particulièrement mal vécu.
Qu’il s’agisse de pop-ups qui s’ouvrent sur des sites de streaming ou d’images montrées délibérément par des élèves ou des enfants de leur entourage souvent plus âgés, les lycéens racontent leur stupéfaction, proche de l’incompréhension, puis la honte ou l’effroi qu’ils ont ressentis, comme le rappelle Marco :
« Depuis tout petit, je traîne sur Internet, parce que mon père est informaticien. J’ai eu un ordinateur très tôt à la maison. Je me rappelle qu’une fois, je cherchais soit des informations sur un jeu, soit à regarder un film en streaming. Je devais avoir au maximum 10 ans. Et il y a eu une fenêtre pop-up qui s’est ouverte. Je n’ai même pas compris. Ça m’a fait peur. Je ne sais pas comment expliquer… J’étais un petit peu dégoûté, c’était plutôt un sentiment de répulsion, mais en même temps un peu intrigué. »
Pour celles et ceux qui ont désiré consulter volontairement des sites pornographiques, ils étaient collégiens. La pression à la conformité peut jouer, les autres élèves en ayant discuté devant eux. Il faut pouvoir en parler, montrer qu’on a grandi. Ce visionnage s’apparente alors à un rite de passage, pour de jeunes adolescents autour de 13 ans :
Charlotte : « C’était volontaire. Un jour, je sais pas, c’était le matin et j’étais sur mon ordinateur. Je me suis dit, “Bah, je pense que je me sens prête, et c’est le moment de, de voir en fait”, on m’avait déjà proposé de regarder, etc. J’avais dit non. »
Qui te l’avait proposé ?
Charlotte : « Des amis garçons au collège.»
Pour des adolescents avides d’informations sur la sexualité, la pornographie paraît une possibilité plus accessible que d’aborder la question directement avec leurs parents, à une période de bouleversement pubertaire :
Claire : « Ça doit être à 13 ans. Je crois que c’est moi qui avais cherché. Y avait peut-être une scène dans un film ou quelque chose comme ça. Ou moi qui avais cherché. Je vous dis 13 ans, parce c’est l’âge où j’ai eu mes règles et c’était parti. Je pense que c’était sur Internet. On ne va pas dire que ça m’avait choqué, mais en tout cas ça m’avait dégoûtée. Vraiment j’ai vu ça… Et encore, c’était sur un truc connu pour être féministe ! Et vraiment j’ai vu ça et me suis dit : “C’est pas pour moi.” »
La sidération et le dégoût ne provoquent pas chez les enfants, même très jeunes, le réflexe d’en parler à leurs parents. Bien au contraire. L’épreuve est vécue seul, éventuellement entre pairs si le visionnage a été en duo ou en groupe.
Quels que soient les sentiments et les émotions suscitées, aucun d’entre eux n’en a parlé à des adultes. Ces derniers semblent les grands absents, tant les jeunes rapportent craindre leurs réactions. Amélie, qui a visionné de la pornographie de façon accidentelle avec sa cousine, évoque son incapacité à en discuter :
« C’est resté entre nous. Déjà, on avait peur de se faire engueuler. Et puis, on n’avait trop rien à dire dessus. On a vu et on a fait : “Bon.” Et après, il y a eu la curiosité parce qu’on ne savait pas du tout ce que c’était. Du coup, on est restées devant par curiosité. »
Pour autant, à l’exception d’un seul garçon qui a témoigné de son plaisir à regarder tous les jours « pour se branler », et dont les critiques portaient uniquement sur les performances mises en scène, tous les autres lycéens ont dénoncé des rapports de genre problématiques dans les films pornographiques, estimant qu’ils sont « dégradants » pour les femmes, « déshumanisants » et qu’il s’agit souvent de « représentations violentes de la sexualité ». Ils dénoncent des scripts sexuels et des corps irréalistes qui deviennent vecteurs de complexes.
Les filles jugent ainsi de manière très négative les rapports sexuels mis en scène, en ce qu’ils peuvent susciter des attentes irréalistes de la part des garçons dans la vraie vie, et critiquent des standards esthétiques très éloignés de leurs propres vécus corporels. Les garçons, quant à eux, évoquent les durées des rapports qui « mettent la pression » et déconnectés du réel.
Enfin, plusieurs adolescents ont rappelé le caractère addictif des images pornographiques, sans qu’ils ne puissent ou ne veuillent en expliquer la raison. Ils déclarent avoir des amis qui en ont besoin « de temps en temps ». Garçons et filles prêtent essentiellement aux garçons une appétence pour la pornographie, comme le résume laconiquement Coralie :
« Mes amis garçons et mon copain, ben eux ils approuvent hein, c’est des garçons hein… Mais moi, je trouve que c’est pas super. »
Ces représentations genrées des usages corroborent en partie des études récentes qui montrent une fréquentation plus assidue et un temps passé sur les sites pornographiques bien plus importants pour les adolescents que pour les adolescentes.
Le dialogue avec les adultes est-il impossible ou souhaité ? Nos enquêtés se sont tous déclarés favorables à l’introduction de cette thématique dans le cadre de l’éducation à la vie affective et relationnelle et à la sexualité.
À lire aussi : Une nouvelle éducation à la sexualité dans les établissements scolaires ?
Si discuter avec ses propres parents de la sexualité paraît difficile, voire impossible ou tabou pour beaucoup d’entre eux, cela ne signifie pas qu’ils ne désirent pas être accompagnés par les adultes. Ils aimeraient que le consentement, le plaisir et la pornographie soient systématiquement abordés à l’école. À l’instar d’Emmanuel, qui a apprécié la discussion sur la pornographie en classe et en a gardé un souvenir très vif :
« On avait comparé ça à une cigarette, parce que la première, elle est bien, parce que c’est la première et tout ça, et puis après, on se sent obligé de recommencer, de recommencer, de recommencer ! Puis en fait, c’est nocif. C’est nocif à mort ! Ça fait baisser la confiance en soi, c’est, c’est du gros cliché ! Puis surtout, les actrices, elles doivent être… elles doivent être exploitées, violées des fois. »
Déconstruire les messages médiatiques, développer son esprit critique, repérer les discours discriminatoires et sexistes, éduquer au consentement font partie d’une éducation aux médias et à l’information au sens large, fondamentale pour pouvoir prendre du pouvoir vis-à-vis d’images qui imposent par leur puissance itérative des scripts sexuels et des rapports de genre qui posent question. Les adolescents ont besoin de leurs aînés pour y parvenir. Soyons au rendez-vous.
Les entretiens ont eu lieu dans quatre lycées différents, en filières générales et technologiques et professionnelles. Julie Brusq, Mouna El Gaïed, Aurélie Pourrez, chercheuses à l’Université de Lorraine, au Crem (Centre de recherche sur les médiations. Communication – Langue – Art – Culture), ont participé à cette enquête.
Laurence Corroy a reçu des financements de la Maison des Sciences de l'Homme de Lorraine.
28.04.2025 à 17:27
Marc Germain, Maître de conférences émérite d'économie, Université de Lille
Le « jour du dépassement » a été atteint le 19 avril dernier. Diminuer le produit intérieur brut (PIB) pour faire disparaître ce dépassement écologique n’impliquerait pas de retourner à l’âge de la bougie. C’est ce que conclut une étude appliquée à la France et à l’Allemagne. Le PIB par habitant soutenable d’aujourd’hui correspondrait à un niveau observé dans les années 1960. Tout en gardant les technologies actuelles.
En 2020, le président Macron balayait la demande de moratoire de la gauche et des écologistes sur le déploiement de la 5G en renvoyant ses opposants au « modèle amish et au retour à la lampe à huile ». En 2024, le premier ministre Attal estimait que « la décroissance, c’est la fin de notre modèle social, c’est la pauvreté de masse ». Au vu de ces citations, tout refus du progrès ou toute baisse volontaire de l’activité économique est assimilé à un retour en arrière, voire à un monde archaïque.
Pourtant, le 1er août 2024, l’humanité atteignait son « jour de dépassement » écologique. À cette date, celle-ci avait consommé l’ensemble des ressources naturelles que la planète avait produites pour satisfaire sa consommation et absorber ses déchets pour toute l’année.
Dans le cas de la France, le jour du dépassement était déjà atteint le 19 avril. Malgré ses limites, le jour du dépassement est un indicateur pédagogique très utilisé pour mesurer le degré de non-soutenabilité du « train de vie » moyen d’une population sur le plan environnemental. Plus ce jour intervient tôt dans l’année, moins ce train de vie est durable.
Afin de reculer le jour du dépassement (et idéalement de le ramener au 31 décembre), on peut schématiquement opposer deux grandes stratégies.
La première vise à découpler les activités humaines de leur empreinte environnementale, principalement par le progrès technique. C’est la posture « techno-solutionniste ».
La deuxième, promue notamment par les partisans de la décroissance, ne croit pas en la faisabilité de ce découplage. Elle prône une réduction volontaire et ciblée des activités humaines elles-mêmes.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Une étude récente, appliquée en particulier à la France, réfute les citations du premier paragraphe. Elle montre que la baisse du PIB permettant de faire disparaître le dépassement écologique en France n’impliquerait nullement un retour à l’âge de la bougie (ou de la lampe à huile), mais à un PIB par habitant observé dans les années 1960.
Le point de départ de l’étude consiste à faire le lien entre empreinte écologique, PIB et population d’un pays, à travers l’identité suivante :
où :
E désigne l’empreinte écologique. Selon le Global Footprint Network (GFN), l’organisme qui produit les statistiques relatives à l’empreinte écologique, celle-ci mesure la surface de terre et d’eau biologiquement productive dont un individu, un pays ou une activité a besoin pour produire toutes les ressources qu’il consomme et pour absorber les déchets qu’il génère.
y = Y/P est le PIB par habitant, où Y et P désignent respectivement le PIB et la population du pays.
e = E/Y est définie comme l’intensité écologique du PIB. À titre d’illustration, considérons une économie qui ne produit que des denrées agricoles. L’intensité écologique est alors l’empreinte écologique liée à la production d’un euro de ces denrées. L’intensité est (entre autres) déterminée par la technologie, dans la mesure où elle est d’autant plus faible que les ressources sont utilisées efficacement par l’économie.
En résumé, l'empreinte écologique est le produit de la population, de sa consommation de richesses et de l'efficacité des moyens utilisés pour produire ces richesses.
Les graphiques ci-dessous illustrent les évolutions contrastées des différentes variables présentes dans la formule précédente pour la France et pour l’Allemagne.
On observe que, depuis 1970, l’empreinte écologique globale E est restée plus ou moins stable en France, avant de décroître, depuis 2010. En revanche, l’empreinte écologique est tendanciellement décroissante en Allemagne, depuis 1990. Cette évolution plus favorable s’explique notamment par la croissance sensiblement plus faible de la population de ce pays.
Les évolutions des composantes e, y, P de l’empreinte écologique sont similaires dans les deux pays. L’empreinte écologique est tirée vers le haut par la croissance du PIB/hab y et, dans une bien moindre mesure, par la hausse de la population P.
En revanche, l’empreinte écologique est tirée vers le bas par la baisse continue de l’intensité écologique e. Cette baisse de e est due à différents facteurs, notamment le progrès technique et la tertiarisation de l’économie – les services ayant une empreinte moindre que l’industrie par unité de richesses produites.
La deuxième étape de l’étude consiste à définir le dépassement écologique d’un pays. Celui-ci est défini comme le rapport entre l’empreinte par habitant du pays et la biocapacité par habitant au niveau mondial. La biocapacité est la capacité des écosystèmes à produire les matières biologiques utilisées par les humains et à absorber les déchets de ces derniers, dans le cadre de la gestion et des technologies d’extraction en cours.
Si d désigne le dépassement d’un pays, alors celui-ci est en dépassement si d > 1. Le jour du dépassement de ce pays survient alors avant le 31 décembre, et ce, d’autant plus tôt que d est élevé. Le Global Footprint Network (GFN) interprète le rapport d comme le nombre de planètes Terre nécessaire pour soutenir la consommation moyenne des habitants du pays.
L’évolution au cours du temps du dépassement en France et en Allemagne est décrite par le graphique ci-dessus. Il montre que, si tous les habitants du monde avaient la même empreinte écologique moyenne que celle des Français ou des Allemands à l’époque actuelle, il faudrait à peu près les ressources de trois planètes pour la soutenir.
La dernière étape de l’étude concerne la notion de PIB/hab soutenable d’un pays, défini comme le rapport entre le PIB/hab observé et le dépassement écologique.
Le PIB/hab soutenable correspond au niveau de vie maximal moyen compatible avec l’absence de dépassement écologique. Le tableau suivant décrit le calcul du PIB/hab soutenable pour la France et l’Allemagne en 2022 – la dernière année disponible au moment de l’étude.
Pour expliquer ce tableau, considérons les chiffres pour la France. Les deuxième et troisième lignes renseignent respectivement le PIB/hab observé y et le dépassement d de ce pays en 2022. La quatrième ligne calcule le PIB/hab soutenable s, en divisant le PIB/hab observé y par le dépassement d (autrement dit s=y/d). Ce chiffre correspond au niveau maximal du PIB/hab compatible avec l’absence de dépassement.
En d’autres termes, si au lieu d’avoir été égal à 38 816 $, le PIB/hab avait été égal à 13 591 $, la France n’aurait pas été en dépassement en 2022.
Le PIB/hab soutenable étant approximativement égal au tiers du PIB/hab observé, ramener celui-ci à un niveau soutenable supposerait une décroissance de l’ordre des deux tiers. L’ampleur de cette décroissance fait écho à d’autres travaux visant à quantifier les impacts de politiques de décroissance.
La dernière ligne du tableau indique que le PIB/hab qui aurait été soutenable en 2022 en France (13 591 $) correspond à peu près au PIB/hab effectivement observé en 1964. En écho avec les citations évoquées au début de cet article, ce résultat suggère que la décroissance du PIB nécessaire pour faire disparaître le dépassement écologique en France n’impliquerait aucunement un retour à l’âge de la bougie.
Les résultats de l’étude ne suggèrent pas pour autant un retour pur et simple aux années 1960. En effet, ils sont obtenus en neutralisant le dépassement au moyen de la seule réduction du PIB/hab, alors que l’intensité écologique (déterminée, en particulier, par la technologie) et la population sont fixées à leurs niveaux actuels. Si les résultats supposent une baisse sensible de la production globale de l’économie, ils n’impliquent pas de renoncer à la technologie actuelle.
Il importe de souligner que notre étude s’est limitée à des pays industrialisés, et ne concerne donc pas les pays émergents ou en voie de développement. Nombre de questions n’ont pas été abordées, à l’exemple de celle de la répartition de l’effort de décroissance entre habitants aux revenus très différents ou entre activités économiques.
Notre étude résumée ici doit donc être prise pour ce qu’elle est : un exercice simple visant à remettre en question certains discours dénigrant la décroissance en tant que stratégie de neutralisation du dépassement écologique, dans le cadre du débat autour de la nécessaire réduction des impacts des activités humaines.
Marc Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 17:27
Tristan Bourvon, Coordinateur Logistique & Transport de marchandises, Ademe (Agence de la transition écologique)
Comment réduire l’impact climatique des premier et dernier kilomètres des livraisons ? Pour le secteur de la logistique, le défi est de taille. Outre les leviers technologiques, comme le recours à des énergies renouvelables pour les véhicules, des solutions organisationnelles existent. La question du soutien des pouvoirs publics se pose, si l’on souhaite que ces solutions soient déployées à grande échelle en France.
La logistique représente au moins 16 % des émissions de gaz à effet de serre en France, soit 63 millions de tonnes équivalent CO2. Elle est également une source significative d’artificialisation des sols : elle représente environ 4 % de l’artificialisation totale en France entre 2010 et 2019.
La logistique urbaine pèse quant à elle pour 25 % des émissions de gaz à effet de serre des transports en ville, pour 33 % des émissions de polluants atmosphériques et 30 % de l’occupation de la voirie, sans oublier les nuisances sonores qu’elle génère.
Pour que l’objectif de la stratégie nationale bas carbone (SNBC) de baisser de 50 % des émissions de gaz à effet de serre à horizon 2030 soit tenu, les évolutions technologiques telles que l’électrification des flottes ne suffiront pas, quand bien même elles sont indispensables. Il faut donc transformer ce secteur qui représente aujourd’hui 1,8 million d’emplois en France. L’optimisation des flux logistiques et la réduction de leur impact doit aussi passer par des innovations organisationnelles.
Au cours des dernières décennies, plusieurs types de solutions ont déjà été expérimentées en France. L’Agence de la transition écologique (Ademe) a lancé, en 2024, l’eXtrême Défi Logistique, un programme d’innovation visant à imaginer puis à déployer des démarches d’optimisation de la logistique du premier et dernier kilomètre. Dans le cadre de ce programme, elle a identifié trois solutions existantes particulièrement intéressantes sur lesquelles elle a mené une analyse rétrospective :
les centres mutualisés de distribution urbaine,
les microhubs (microplateformes logistiques, en général optimisées pour une livraison finale par des modes de transport doux),
et la mutualisation des circuits courts alimentaires de proximité.
L’enjeu était de mettre en évidence les forces et les faiblesses de chacune d’entre elles afin d’identifier les conditions auxquelles elles pourraient être mises en œuvre à grande échelle en France. Un appel à projets « Ideation », a également été lancé, dans le cadre de l’eXtrême Défi Logistique, pour imaginer et concevoir ce type de solutions sur des territoires partout en France. Quatorze lauréats sont soutenus par l’Ademe. Dès début 2026, une phase d’expérimentation sera lancée pour tester concrètement ces solutions.
En quoi consistent ces différentes solutions et à quelles conditions peuvent-elles fonctionner ? Quel rôle peuvent jouer les collectivités pour assurer leur succès, la coordination entre seuls acteurs privés paraissant compliquée à impulser ?
La première solution, dont l’Ademe a recensé dans son étude 33 expérimentations, bénéficie déjà d’un certain recul. Les « centres de distribution urbaine » (CDU) sont de petits entrepôts installés en périphérie des centres-villes qui agrègent les flux de différents transporteurs et grossistes pour ensuite organiser des tournées de distribution optimisées vers les centres-villes.
Le but est de réduire le nombre de kilomètres parcourus, le nombre d’arrêts des véhicules, mais aussi les coûts de la livraison du dernier kilomètre. La mutualisation des flux, dont ces CDU sont une forme, participerait dans les villes denses à une diminution de 10 % à 13 % des émissions de gaz à effet de serre.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les premiers projets de CDU, issus du principe des gares routières nées dans les années 1960, émergent dans les années 1990. Parmi les cas étudiés, une partie est privée ou semi-privée, prise en charge par des opérateurs eux-mêmes et d’autres mixtes ou publics. Ces derniers sont portés par les pouvoirs publics et s’apparentent à un « service public » de livraison de marchandises. Certains CDU sont dits « spécifiques » et associés à une activité particulière (chantier de BTP, livraison de marchandises dans un lieu contraint comme un aéroport…). Enfin, les CDU peuvent être mutualisés, c’est-à-dire partagés entre plusieurs plusieurs opérateurs de transport.
L’étude a montré que les difficultés étaient essentiellement liées au modèle économique, du fait notamment d’un manque de flux. Les projets qui ont réussi à se pérenniser ont trouvé un équilibre entre coûts d’exploitation et revenus, en diversifiant leurs sources de financement et en intégrant des services à valeur ajoutée comme le stockage déporté ou la préparation de commande.
Le milieu étant concurrentiel, l’idéal est que la démarche soit portée par une collectivité, qui initie par exemple une structure juridique (coopérative, groupement d’intérêt économique, délégation à une société locale) et met en place une réglementation incitative. Comme des restrictions de circulation ou la mise à disposition de véhicules électriques uniquement qui attireront certains acteurs.
À Lille, un centre qui avait fermé va ainsi être relancé pour réaliser des tournées de livraison mutualisées entre les transporteurs du dernier kilomètre.
Autre option, plus récente et encore balbutiante : les microhubs, qui ne bénéficient pas du même recul que les centres de distribution urbains. Ces mini-entrepôts prennent souvent la forme d’une structure légère implantée en cœur de ville, par exemple sur une place de parking. Ces petites installations visent à stocker temporairement de la marchandise afin de réduire les distances parcourues pour la distribution et/ou le ramassage des biens.
Ils facilitent également la rupture de charge entre un poids lourd et des vélos-cargos. La possibilité d’entreposer pour une durée limitée les marchandises permet d’éviter tout temps d’attente entre l’arrivée d’un poids lourd pour décharger et le relais par des vélos cargo. Ces derniers peuvent ainsi rayonner autour du microhub pour réaliser les approvisionnements des établissements économiques locaux.
Autrement dit, les microhubs pallient un déficit en espaces fonciers pour la logistique urbaine dans des zones urbaines denses ou permettent de répondre à un besoin exceptionnel, par exemple pour un événement de grande ampleur qui porte atteinte à la performance logistique, comme l’organisation d’un grand événement sportif type Jeux olympiques. Ces expérimentations présentent aussi l’intérêt de tester la pertinence d’une implantation temporaire pour la logistique urbaine avant d’envisager d’éventuels aménagements plus pérennes. Ils peuvent être fixes ou mobiles, temporaires (de quelques mois à quelques années) ou durables.
D’après l’étude, le modèle souffre de moins de verrous économiques que les centres de distribution urbains, mais il requiert une volonté politique en faveur de la cyclologistique : ce sont souvent les enjeux fonciers et une absence de cadre réglementaire structurant qui limitent leur succès. À Nantes, un projet porté par Sofub (filiale de la Fédération des usagers de bicyclettes), vise ainsi à évaluer le potentiel de déploiement de microhubs sur plusieurs territoires afin de tester leur pertinence.
La mutualisation des circuits courts alimentaires de proximité (CCAP), enfin, entend répondre aux problématiques que pose la vente d’aliments secs ou frais en filière courte en envisageant la mise en commun des ressources et des moyens mobilisés pour faire circuler ces produits entre producteurs et consommateurs. Dans le cadre de notre étude, le rayon est fixé à 160 km. Les producteurs étant en général contraints d’utiliser leur propre camionnette pour venir en ville commercialiser leurs produits, la démarche est coûteuse, les véhicules souvent vieillissants ne sont en outre pas forcément bien remplis. Ainsi, les circuits courts alimentaires ne sont ainsi pas toujours aussi vertueux qu’espéré.
L’idée de la mutualisation des CCAP est de mettre en place des organisations mutualisées pour acheminer les récoltes vers les villes de façon professionnalisée. Plus matures que les microhubs, les structures porteuses de ce schéma, nées il y a une vingtaine d’années, connaissent déjà de nombreux succès. Elles impliquent toutefois de prendre en compte beaucoup de critères : le type de consommateurs (entreprises ou particuliers), la complexité du circuit court, l’internalisation ou non des opérations logistiques, le support de mutualisation (matériel ou plate-forme virtuelle)…
La principale difficulté relevée par l’étude est de convaincre les producteurs de changer leurs habitudes et d’identifier la structure qui va se charger de cette organisation. Une association de producteurs ? La collectivité ? La Chambre d’agriculture ?
À cet égard, un projet prometteur mené par le Département de l’Aveyron a été retenu comme lauréat de l’appel à projets de l’Ademe : il associe la Chambre d’agriculture, les collectivités partenaires et les programmes alimentaires territoriaux (PAT) pour créer une société coopérative d’intérêt collectif (Scic) qui aura pour objet d’optimiser la logistique des circuits courts à l’échelle du département, au travers du ramassage mutualisé et de la distribution optimisée.
L’approche, à l’échelle d’un département entier, permet d’envisager des gains d’efficacité et d’échelle assez importants, tout en facilitant le recours à ces offres par les acteurs locaux.
L’analyse rétrospective de ces trois options de décarbonation de la livraison a mis en évidence la nécessité, pour que ces solutions fonctionnent :
d’un modèle économique robuste,
d’une localisation stratégique,
d’une bonne coordination entre parties prenantes,
d’un soutien réglementaire et financier,
et d’un bon usage des outils numériques et des plates-formes collaboratives.
Elle souligne aussi que ces solutions ont toutes besoin, pour fonctionner, d’être encouragées par une volonté politique plus forte des collectivités. Laisser s’organiser des acteurs privés entre eux ne suffira pas, la coopération entre collectivités, transporteurs, commerçants et citoyens est déterminante pour l’adhésion et l’acceptabilité de ces projets.
Ce rôle des collectivités peut prendre différentes formes. Elles peuvent accompagner des projets en facilitant l’accès au foncier, en incitant à la mutualisation des flux, en mettant en place des leviers réglementaires et en intégrant ces infrastructures dans la planification urbaine.
Les collectivités peuvent également développer des incitations économiques et fiscales, pour soutenir les initiatives locales et encourager les transporteurs à utiliser ces infrastructures.
Elles peuvent enfin améliorer la collecte et le partage des données sur les flux logistiques, afin d’optimiser la planification et le suivi des performances environnementales et économiques.
À Padoue, en Italie, un péage urbain a par exemple été mis en place pour les véhicules de marchandises. Livrer dans la ville exige une licence et, en parallèle, un opérateur municipal, exonéré du péage urbain, a été mis en place. Les acteurs économiques ont ainsi le choix entre payer le péage ou passer par cet acteur municipal. En France, la ville de Chartres a elle aussi limité l’accès au centre-ville pour les véhicules de livraison et a créé une solution locale.
Tristan Bourvon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 17:26
Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)
L’arme nucléaire, du fait des conséquences désastreuses qu’entraînerait son emploi, est vouée à rester un élément de dissuasion. Si la menace du recours à cette arme ultime est fréquemment brandie côté russe, il n’en demeure pas moins que les responsables au Kremlin ont pleinement conscience des coûts pratiquement incalculables qu’une telle décision engendrerait. Pour autant, si le pire n’est jamais certain, il n’est jamais à exclure totalement.
La situation géopolitique extrêmement perturbée aux marches du continent européen remet sur le devant de la scène l’arme nucléaire. Les menaces explicites ou implicites de son utilisation contre un pays de l’Union européenne (UE) ou contre l’Ukraine, exprimées par Vladimir Poutine, la proposition d’extension de l’arsenal nucléaire français à d’autres États européens, avancée par Emmanuel Macron, et le questionnement sur la crédibilité des armes nucléaires américaines présentes en Europe : le contexte invite à s’interroger sur le risque qu’une arme nucléaire soit employée sur le continent, voire sur la possibilité qu’éclate une guerre nucléaire à grande échelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Depuis leur apparition en 1945, depuis Hiroshima et Nagasaki, les armes nucléaires occupent une place à part dans l’arsenal mondial. Si elles sont la quasi représentation du Mal absolu, de la destruction complète de pays, de continents voire de l’humanité entière, elles ne constituent pas des armes d’emploi. En effet, à partir de 1949, quand les Soviétiques ont à leur tour acquis l’arme atomique, cette dernière est devenue une arme dite de non-emploi, une arme politique, symbolique et stratégique. Une arme de dissuasion. Sa modernisation continue a pour fonction première d’augmenter son efficacité justement pour la rendre plus dissuasive, plus crédible face à un adversaire agressif. Elle est conçue pour ne pas être utilisée.
Le fondement de la dissuasion nucléaire est bien connu : un adversaire doté de l’arme nucléaire n’attaquera pas un pays nucléaire ou un pays sous protection nucléaire, car il aura la certitude d’être détruit en retour. Dit de manière plus cynique, l’attaque n’a aucun intérêt, car elle n’engendre aucun gain pour celui qui frappe en premier.
La « paix nucléaire », centrale au temps de la guerre froide, n’a jamais cessé d’être, mais devient un concept plus prégnant depuis l’invasion de l’Ukraine par la Russie. Si cette forme de paix armée a été efficace depuis 1949, elle constitue par construction un équilibre instable, fondé non pas sur l’amour de la paix mais sur la peur et le calcul. En Europe, continent où plusieurs puissances sont dotées (la Russie, la France, le Royaume-Uni et les armes américaines disposées dans plusieurs pays européens), cet équilibre est d’autant plus décisif.
Les caractéristiques de notre continent – sa densité, son urbanisation, ses pays membres stratégiquement et militairement connectés – sont telles qu’une attaque nucléaire de la Russie, même limitée, si tant est que ce mot ait un sens en matière nucléaire, entraînerait des conséquences incalculables au sens premier du terme en matière politique, humanitaire, économique et écologique.
À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs
Compte tenu de l’espace relativement restreint que constitue l’Europe, toute frappe sur le continent ne pourrait qu’être perçue comme menaçante de manière existentielle pour tous les autres pays. Une telle perspective est politiquement et stratégiquement insoutenable pour les pays européens.
Il est d’ailleurs remarquable de constater que les menaces plus ou moins explicites de Vladimir Poutine sur l’éventualité de l’usage nucléaire en réponse au soutien occidental de l’Ukraine sont restées lettre morte. Certes, l’Europe reste exposée aux surenchères stratégiques russes, mais la ligne rouge nucléaire n’a pas été franchie.
Si l’arsenal français, strictement indépendant en termes d’emploi a joué un rôle dans ce constat, l’Organisation du traité de l’Atlantique Nord (Otan) joue un rôle décisif dans la décision du président russe de ne pas monter aux extrêmes. Si ce dernier a attaqué l’Ukraine dans le cadre de ce qui peut être appelé une « sanctuarisation agressive », il ne peut menacer un pays voisin membre de l’Otan, en vertu de l’article 5 de son traité qui stipule que toute attaque contre un pays membre constitue une attaque contre l’ensemble de l’Organisation.
Si l’article 5 n’engendre pas une réponse militaire automatique de la part de l’Otan, contrairement à ce qu’on peut entendre souvent, il est quasiment certain, et le plus important est que cela soit aussi quasiment certain dans l’esprit de la direction russe, qu’une attaque nucléaire entraînerait une riposte nucléaire. Nous sommes ici au cœur du phénomène dissuasif.
Néanmoins, le désengagement progressif des États-Unis sous l’administration Trump et ses déclarations anti-européennes voire anti-otaniennes affaiblissent par nature le caractère dissuasif de cette organisation, ce qui doit impérativement pousser les pays européens à renforcer leurs propres capacités de dissuasion, à la fois conventionnelles et nucléaires.
Une éventualité parfois évoquée est que la Russie utilise des armes nucléaires dites « du champ de bataille », de faible puissance, calibrées pour détruire des concentrations de forces adverses, afin de pouvoir dégager un espace permettant de développer une offensive. Une telle utilisation « limitée » serait d’une nature telle qu’elle n’engendrerait pas une riposte des pays de l’Otan.
Nous ne croyons pas à un tel scénario. Même tactique, c’est-à-dire de faible puissance, une arme nucléaire provoque de tels effets de souffle, de chaleur, de radiation, d’impulsion électromagnétique, de panique sociale et d’insécurisation des pays voisins qu’une seule frappe de ce type ne pourrait pousser qu’à l’escalade dont le paroxysme serait une confrontation nucléaire.
Au demeurant, l’évocation répétée, et jamais suivie d’effets, par la direction russe d’un recours au nucléaire tactique est une démonstration claire du caractère escalatoire d’une arme nucléaire de faible puissance – même si la réticence de Moscou à employer de tels moyens peut aussi être partiellement attribuée au fait que les Chinois ont fait comprendre aux Russes qu’ils étaient absolument opposés à tout usage du nucléaire et au fait que l’administration Biden, il n’y a pas si longtemps, a clairement fait savoir au Kremlin qu’un tel développement entraînerait une riposte américaine massive sur les forces russes.
Indépendamment du champ militaire, l’usage par la Russie de l’arme nucléaire aurait un coût immense en matière politique et diplomatique.
Il est fort probable que compte tenu de l’énormité des conséquences d’une frappe nucléaire, un pays qui lancerait une telle initiative deviendrait indéfendable pour ses propres amis ou pour les pays neutres.
Un tel pays perdrait sa légitimité internationale. Il verrait fort probablement les sanctions économiques de toute part s’abattre sur son économie. Dans un monde où l’image et la réputation façonnent les alliances, aucun acteur réaliste ne prendrait le risque d’un tel isolement, a fortiori la Russie, à l’économie peu performante.
Malgré les menaces récurrentes de la direction russe, l’usage de son arsenal nucléaire, comme c’est d’ailleurs le cas de tous les pays dotés, à l’exception peut-être de la Corée du Nord, reste soumis à des procédures strictes. Le président, bien que central dans la chaîne de commandement, n’agit pas seul. Le contrôle des clés nucléaires implique plusieurs étapes.
Il n’est pas acquis que l’ensemble de la chaîne décisionnelle menant à une frappe nucléaire suive son président, a fortiori dans un système russe souvent décrit comme mafieux, où les hautes autorités ont, non seulement, à redouter les effets directs d’une escalade militaire, mais également les effets qu’aurait une escalade sur leurs biens, souvent colossaux.
Il n’est pas exclu également que certains membres de la chaîne décisionnelle puissent bloquer une décision de frappe pour des raisons politiques ou morales.
Le déclenchement d’une escalade nucléaire par la Russie aurait des conséquences majeures sur la distribution du pouvoir sur la planète. Un conflit nucléaire en Europe pourrait être une opportunité majeure pour la Chine, même si son économie mondialisée en pâtirait. En effet, un effondrement de l’Europe couplé à un affaiblissement des États-Unis et de la Russie dans le pire des scénarios pourrait faire de la Chine la seule puissance intacte sans avoir eu à prendre part au conflit. Cette perspective, insoutenable pour les Européens, les Américains, mais également les Russes, est de nature à freiner toute tentation de dérapage nucléaire.
Nous venons de le constater, une guerre nucléaire en Europe demeure hautement improbable. Il ne s’agit pas ici de morale, bien qu’il ne soit pas illégitime de penser que les dirigeants mondiaux en possèdent une, mais plutôt de lucidité. La terreur mutuelle, le jeu des alliances, les conséquences de différentes natures, les risques d’escalades incontrôlées et la position d’attente de la Chine rendent l’usage de l’arme nucléaire peu opérant.
La capacité destructrice de l’arme, son caractère de menace existentielle pour un continent voire pour toute l’humanité ne peuvent servir des intérêts rationnels, ne peut valider des calculs avantageux pour l’une des parties.
L’humain est un être à la fois rationnel et émotionnel. Certains scénarios d’usage de l’arme, certes improbables, peuvent être explorés. Ces scénarios constitueraient alors des situations de rupture radicale où le rationnel serait supplanté par l’émotionnel sous la forme de la panique, du désespoir, de la perte de contrôle.
Il est possible d’imaginer un effondrement du régime autoritaire du président Poutine, provoquant l’indépendance de régions non russes dotées nucléairement et qui pourraient faire usage de l’arme. Un tel effondrement de la technostructure russe pourrait engendrer une rupture de la chaîne décisionnelle, amenant un acteur secondaire ou un chef militaire isolé à envisager une frappe, par calcul voire par folie.
Un autre scénario serait celui engageant le désespoir : face à un prochain effondrement économique l’empêchant de financer son économie de guerre, face à une éventuelle défaite militaire russe en Ukraine pour des raisons que nous ne voyons pas encore, la Russie pourrait envisager la menace comme existentielle, ce qui la pousserait à tenter le tout pour le tout, malgré la perspective d’une riposte dévastatrice.
Autre scénario, et l’histoire de la guerre froide nous le prouve, une guerre nucléaire pourrait être la résultante d’un malentendu technique ou d’un accident (lancement d’un missile par erreur, mauvaise interprétation de données radar, dysfonctionnement des systèmes d’alerte précoces entraînant une riposte automatique). Les grandes puissances ont bien entendu multiplié les systèmes de sécurité, mais une telle hypothèse a une probabilité non nulle.
Enfin, un retrait complet des garanties de sécurité ou un retrait américain de l’Europe, bien qu’improbable, pourrait conduire la direction russe à penser qu’une attaque nucléaire puisse être possible, négligeant de fait les arsenaux français et britannique.
Ces scénarios sont très peu probables. Alors oui, une guerre nucléaire est impossible en Europe… presque impossible. Ce « presque » nous entraîne néanmoins, Français et Européens, à cultiver notre vigilance stratégique, à user d’une diplomatie incessante et à se préparer à l’impensable même si le pire est hautement improbable.
Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 17:25
Jeremy Howick, Professor and Director of the Stoneygate Centre for Excellence in Empathic Healthcare, University of Leicester
Selon une nouvelle étude analysant des résultats provenant d’hôpitaux du monde entier, les problèmes de communication entre professionnels de santé mettraient chaque année en danger la vie d’un grand nombre de patients.
Afin de déterminer les causes de survenue d’incidents qui mettent en jeu la sécurité des patients, mes collègues et moi-même avons analysé 46 études publiées entre 2013 et 2024 et portant sur plus de 67 000 patients non seulement en Europe, mais aussi en Amérique du Nord et du Sud, en Asie et en Australie. Nos résultats, alarmants, indiquent que dans 1 cas sur 10, l’incident est uniquement survenu en raison d’un problème de communication entre soignants. Par ailleurs, ce type de problème contribue – à côté d’autres facteurs – à la survenue d’un incident de sécurité sur quatre.
Il ne faut pas oublier que derrière ces statistiques désincarnées se trouvent des personnes réelles, qui ont été meurtries en raison d’erreurs qui auraient pu être évitées. Ainsi, dans l’un des cas documentés, un médecin qui tentait de réduire au silence une pompe qui bipait a accidentellement arrêté la perfusion d’Amiodarone – un médicament utilisé en cas d’arythmie cardiaque – d’un patient. Il a omis d’informer l’infirmière de sa manipulation. Résultat : le rythme cardiaque du patient a dangereusement augmenté.
Dans un autre cas, un patient est mort car une infirmière n’a pas informé le chirurgien que son patient souffrait de douleurs abdominales postopératoires et avait un taux de globules rouges faible – autant de signes d’une possible hémorragie interne. Une meilleure communication aurait permis d’éviter ce décès.
Ces résultats confirment ce que de nombreux professionnels de santé soupçonnaient depuis longtemps : les défaillances de communication constituent une menace directe pour la sécurité des patients. Il est particulièrement inquiétant de constater que ces incidents se produisent dans de nombreux systèmes de santé à travers le monde.
Rien qu’au Royaume-Uni, plus de 1 700 vies sont perdues chaque année en raison d’erreurs médicamenteuses. Dans le monde, 3 millions de décès surviennent annuellement pour la même raison. Au moins la moitié de ces cas, qui sont souvent dus à une mauvaise communication, pourraient être évités.
Aux États-Unis, les défaillances de communication contribuent à plus de 60 % de tous les événements indésirables graves associés aux soins hospitaliers. Selon les experts, ces chiffres sont probablement sous-évalués, car les incidents impliquant la sécurité des patients sont souvent sous-déclarés.
Notre recherche comble une lacune importante dans la compréhension du phénomène. Si des études antérieures avaient déjà établi que la communication pouvait s’avérer problématique dans les environnements de soins, notre analyse est la première à quantifier précisément l’impact de ce type de lacunes sur la sécurité des patients.
Une analyse statistique distincte, portant uniquement sur une sélection d’études considérées comme « de haute qualité » a donné des résultats similaires, ce qui renforce la validité de nos conclusions.
L’importance cruciale que revêt la mise en place d’une communication efficace entre soignants a notamment été soulignée dans plusieurs grandes enquêtes visant à évaluer l’origine des défaillances des systèmes de santé. Au Royaume-Uni, les rapports Francis et Ockenden ont tous deux déterminé que l’inefficacité de la communication entre soignants était à l’origine de la survenue de décès évitables au sein des établissements Mid-Staffordshire NHS Foundation Trust et du Shrewsbury and Telford Hospital NHS Trust, respectivement. Selon le médiateur britannique de la santé, la mauvaise communication contribuerait à environ 48 000 décès dus à la septicémie chaque année.
Les insuffisances de communication causent donc un véritable préjudice. Les malentendus qui en résultent sont à l’origine de graves erreurs médicales, avec pour conséquence la formulation de diagnostics erronés, la mise en place de traitements sous-optimaux, ou la sous-estimation de complications potentiellement mortelles.
Malgré cet alarmant constat, il faut souligner que des interventions ciblées peuvent améliorer la communication. Certains de nos travaux ont ainsi montré que des praticiens sensibilisés et formés pour adopter une communication plus empathique envers les patients changent leurs comportements, ce qui se traduit par une prise en charge aboutissant à de meilleurs résultats.
De même, lorsque les professionnels de santé apprennent à mieux communiquer entre collègues, des améliorations mesurables s’ensuivent. Une étude publiée dans le prestigieux New England Journal of Medicine a révélé que la mise en place d’un protocole de communication structuré au sein d’équipes de chirurgie pouvait réduire la survenue d’événements indésirables de 23 % en un an. D’autres travaux ont révélé que l’utilisation de procédures normalisées de transmission entre les équipes réduisait les erreurs médicales de près de 30 %.
Ces interventions ne requièrent qu’un investissement limité en regard des gains apportés : une demi-journée de mise en œuvre peut suffire. Les systèmes de santé ont donc à leur disposition un levier particulièrement intéressant pour diminuer significativement la survenue d’événements préjudiciables.
Les preuves sont là. Reste maintenant aux dirigeants d’établissement, aux enseignants et aux décideurs à agir. Pour mieux protéger la vie des patients, la formation des soignants à la communication doit devenir une norme universelle – et non demeurer un supplément optionnel.
Jeremy Howick est financé par le Stoneygate Trust et reçoit occasionnellement des honoraires pour ses conférences.
28.04.2025 à 17:01
Pierre-Antoine Chardel, Docteur en philosophie, HDR en sciences sociales, Professeur, Institut Mines-Télécom Business School
Virginie Martin, Docteure sciences politiques, HDR sciences de gestion, Kedge Business School
À l’heure où Elon Musk privatise l’espace public numérique en imposant ses propres règles sur X, créant une confusion majeure entre liberté et impunité, la question du commun et celle de « faire société » deviennent plus aiguës que jamais. Le commun, que nous entendons ici comme la capacité de s’entendre sur des règles de vie collective, est à la base de tout projet démocratique. Mais il n’est pas un acquis, il ne se décrète pas : il s’organise de manière sensible.
La métamorphose numérique et le bouleversement des technologies avec les pratiques de communication (via Internet et les réseaux sociaux en ligne) qui lui sont inhérentes sont souvent présentées comme étant au cœur des transformations que nous vivons d’un point de vue existentiel. Dans certains cas même, la conjonction des mutations technologiques et du tout communicationnel affaiblit paradoxalement le commun. Elle favorise une multiplicité vertigineuse qui brouille toujours davantage les grandes orientations de sens, pourtant essentielle à notre cohésion collective.
Il convient donc, plus que jamais, de réfléchir à l’organisation et la distribution du pouvoir dans ce commun fragmenté, et au bout du compte, la possibilité de les comprendre pour y bâtir des stratégies collectives riches de sens. Cela, en sachant que la redéfinition des réseaux classiques de communication et d’information rebat les cartes de la hiérarchie de celles et ceux qui les dominent et qui y prennent la parole.
Dans un monde en réseau(x) où est le centre, où est la périphérie ? En quoi la possibilité donnée à chacun d’avoir une audience, et la probabilité paradoxalement réduite de se faire comprendre de tous, altèrent-elles la nature du pouvoir, et la nature des « élites » ? Comment faire exister une parole institutionnelle dans un univers média/technologique où elle n’a plus aucun monopole ? Comment le concept traditionnel de pouvoir s’articule-t-il avec la notion à la mode, mais ô combien polysémique, d’influence ? Quelles nouvelles règles pour le « marché des idées » et les manipulations cognitives en tous genres ?
Ces questions sont d’autant plus cruciales qu’aujourd’hui, les « experts » détenteurs de savoirs et donc de pouvoir(s) voient leur parole largement concurrencée par des influenceurs de tous ordres. Sur la toile, la hiérarchisation des compétences est profondément bousculée. L’horizontalisation des savoirs passant par des biais médiatiques (médias traditionnels ou réseaux sociaux) gagne en puissance.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il faut donc nous interroger sur les conséquences pour les disciplines scientifiques, pour l’avenir du monde académique et des chercheurs eux-mêmes. Comment gérer une telle fragmentation de l’accès aux connaissances alors même que la toile tend à créer une confusion des genres ? On y trouve sans doute plus d’arguments d’autorité que de vérités scientifiques, la sphère digitale étant créatrice de beaucoup d’indistinction.
Dans ce contexte toujours, que devient la culture de l’écrit, traditionnel attribut des élites et vecteur de pouvoir dans « l’ancien monde » ? Est-elle condamnée au déclassement, dans un monde internationalisé où règnent les images, poussées en avant par les algorithmes des plateformes ?
Assiste-t-on à l’avènement d’une sorte de technicisme froid, la machine et ses codes contraignant notre pensée et la formatant en imposant des normes éditoriales drastiques (la plateforme X, par exemple, limite les publications à 280 caractères), au risque de simplifier et de travestir le message de départ ? Jusqu’à quel point peut-on, en outre, laisser les algorithmes gérer la hiérarchisation d’une information, ceci au risque d’impacter les équilibres politiques eux-mêmes ?
Comme le décrit fort justement la philosophe Anne Alombert, tandis que le Web était fondé sur des liens hypertextes, permettant une navigation intentionnelle, les algorithmes de recommandations orientent les utilisateurs, comme si la « toile », sorte de rhizome, s’était transformée en silo. De telles réalités structurelles doivent très certainement aujourd’hui nous inciter à créer des politiques algorithmiques alternatives, plus ouvertes et contributives. Comme le souligne Anne Alombert :
« Ce passage de la recommandation automatique et privée (fondée sur les choix des entreprises et la quantification des vues) à la recommandation contributive et citoyenne (fondée sur les interprétations des citoyens et la qualité des contenus) est non seulement plus que souhaitable, mais tout à fait possible. »
L’enjeu sociétal est d’autant plus crucial que le vrai pouvoir semble avoir glissé du côté de celles et ceux qui contrôlent les infrastructures de diffusion – ce sont les entreprises propriétaires des réseaux sociaux qui décident de ce qui peut être visible ou pas, en privatisant ainsi les dynamiques de modération en fonction de leurs propres normes et valeurs –, mais aussi du côté de celles et ceux qui peuvent développer des outils pour les décrypter et les interpréter. À l’heure où les logiques de prédation des données sont exacerbées, une réinstauration d’un minimum de confiance et de transparence dans la conception des algorithmes se doit d’être engagée : en s’appuyant par exemple sur des initiatives qui visent à s’attaquer aux biais qu’ils peuvent véhiculer.
Dans une telle perspective, une nouvelle production de savoir s’impose, plus collaborative et transdisciplinaire, renouant en ce sens avec une certaine expérience du commun. Un enjeu est aussi, d’un point de vue éthique, de rendre possible des conceptions plus vertueuses des technologies à l’heure où les systèmes d’IA tendent à fragiliser l’exercice même du libre-arbitre. Vis-à-vis de ces tendances, il nous faudrait apprendre à « visualiser les réseaux sans paniquer », en évitant de les laisser produire d’irréversibles effets de prolétarisation.
Face à l’opacité des algorithmes et au risque d’un éclatement du commun, une alternative possible est d’apprendre à mieux comprendre ces systèmes : décrypter leur logique (grâce à des initiatives comme AlgorithmWatch), réguler (avec des cadres comme le DSA) et explorer des alternatives (comme Mastodon ou Wikipédia). Ce travail de transparence et de conception collective permettrait de ne pas subir passivement les effets de ces architectures numériques, mais de les penser comme des espaces à réinvestir. Sans cet effort, nous restons à la merci d’un vertigineux tourbillon technologique.
Des outils de cartographie numérique, notamment, permettent d’aiguiser notre regard sur des phénomènes invisibles à l’œil nu. Des cartes et des flux de données personnelles peuvent mettre en lumière les circuits par lesquels nos informations sont collectées, revendues et exploitées par les grandes plateformes numériques. Des pratiques de data visualisation et de design graphique, en rendant visible et sensible l’invisible, peuvent alors contribuer à faire émerger une meilleure compréhension de nos environnements numériques. Par exemple, la cartographie des réseaux sociaux peut révéler des dynamiques souvent imperceptibles : des outils graphiques permettent d’identifier la formation de chambres d’écho, où certaines idées circulent en boucle sans contradiction, ou encore de repérer la structuration des réseaux d’influence et leur poids dans la diffusion de l’information.
Sans ces efforts de représentation, de design et d’interprétation de nos activités en ligne, il sera difficile d’évoluer avec clairvoyance dans nos sociétés des réseaux. Au-delà d’une certaine panique morale qui nous envahit, ce sont là des pistes pour développer une relation plus sereine avec nos technologies numériques en vue de rendre possible une meilleure compréhension des nouveaux milieux qu’elles façonnent.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.04.2025 à 17:00
Philippe Delacote, Directeur de recherche en économie à l'INRAE et Chaire Economie du Climat, Inrae
Seuls 30 % des surfaces agricoles sont couvertes par les assurances en cas de crise climatique. Pour répondre au défi de la vulnérabilité, les stratégies individuelles comme les politiques publiques doivent se concentrer sur la recherche de résilience.
Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 6 a pour objet, « Le système alimentaire à l’heure des choix ».
Le changement climatique a des impacts multiples sur de nombreux secteurs d’activité, tant dans les pays industrialisés que dans les pays du Sud. Ces impacts résultent non seulement de l’augmentation des températures moyennes, mais aussi de la fréquence et de l’intensité accrues des événements météorologiques extrêmes, tels que les sécheresses et les tempêtes. L’agriculture, en particulier, est fortement concernée.
Ainsi, en 2024, le ministère de l’agriculture indique que la production des céréales à paille en France a subi une baisse de 22 % par rapport aux cinq années précédentes, en raison de conditions climatiques extrêmes. Des études menées par Maxime Ollier et ses coauteurs ont démontré que les risques climatiques affectent de manière hétérogène les secteurs agricoles, en fonction des systèmes de production et de la localisation des exploitations.
Le réflexe naturel qui vient à l’esprit quand on parle de risque est d’envisager la couverture assurantielle. Ainsi il existe une offre d’assurance « multirisque récolte », qui, en théorie, devrait couvrir les acteurs contre les chocs liés au climat. Or, plusieurs facteurs limitent la portée de cette solution. En effet, le taux de couverture de l’assurance récolte est aujourd’hui limité en France : seuls 30 % des surfaces agricoles sont couvertes.
À lire aussi : Et si l’assurance verte pouvait aider à réduire les produits phytosanitaires dans les vignobles...
Les travaux de thèse de Richard Koenig ont montré que, malgré un taux de subvention important, le montant des franchises est un frein important à la souscription, ainsi que les délais de versement de la subvention. Or, la branche assurance récolte présente un déficit important, avec un rapport sinistre sur prime structurellement supérieur à 100 %. On peut donc en déduire que le rôle joué par les assurances récolte dans la protection des agriculteurs français sera certes utile, mais limité.
Face à ces multiples chocs et à l’impossibilité de l’assurance de couvrir l’ensemble de ces risques, la vulnérabilité des exploitants agricoles est une question centrale. Cette vulnérabilité peut être définie selon trois critères : l’exposition, la résistance et le rétablissement. L’exposition fait référence au fait que certains secteurs ou zones géographiques sont particulièrement concernés par les chocs liés au changement climatique. La résistance correspond à la capacité des agriculteurs à absorber ces chocs. Enfin, le rétablissement évoque leur aptitude à se relever après ces perturbations. Il est donc essentiel de comprendre dans quelle mesure ces impacts dépendent du contexte socio-économique local et des caractéristiques des acteurs concernés.
Dans ce contexte, où l’agriculture est l’un des secteurs les plus affectés par le changement climatique, il est crucial que les stratégies individuelles et les politiques publiques se concentrent sur la recherche de résilience. Cet objectif peut être décliné selon trois grands principes : sobriété, agilité et protection. Premièrement, l’agriculture doit évoluer vers une utilisation plus sobre des ressources, notamment en réduisant la dépendance aux énergies fossiles et aux intrants chimiques. En effet, le secteur agricole contribue fortement aux émissions de gaz à effet de serre – 18,7 % des émissions françaises, selon le Citepa – et joue un rôle dans la dégradation des écosystèmes et de la qualité de l’eau. Or, le climat et les écosystèmes sont les socles sur lesquels repose l’activité agricole ; il n’y aura donc pas d’adaptation possible sans un effort d’atténuation sans précédent. Cela implique le développement de pratiques agroécologiques, telles que l’agroforesterie, et l’optimisation de l’usage de l’eau, comme le choix de cultures moins dépendantes des apports en eau.
Deuxièmement, l’agilité se manifeste au niveau des systèmes de production, en favorisant la diversification des cultures et des pratiques, mais aussi au niveau des chaînes de valeur, par la diversification des sources d’approvisionnement et des débouchés. Il est important que l’ancrage local soit renforcé, tout en maintenant des liens de partenariats plus éloignés, afin de diversifier les risques non seulement climatiques, mais aussi géopolitiques ou épidémiologiques. La recherche de partenariats de long terme, qui permettent de construire la confiance, est également préférable à une recherche court-termiste du mieux-disant.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Enfin, la protection des plus vulnérables nécessite d’abord leur identification, puis la priorisation de certaines politiques publiques en leur faveur. On peut penser ici à un ciblage plus important des politiques d’aides à la transition écologique ou à l’accès aux assurances récolte.
Plusieurs enseignements peuvent être tirés de ces réflexions sur la résilience des acteurs et des systèmes agricoles. Tout d’abord, la priorité doit être donnée à la lutte contre le changement climatique et la dégradation des écosystèmes. Bien que l’action en faveur de la protection de l’environnement puisse engendrer des coûts, l’inaction entraînera des coûts nettement supérieurs, en particulier pour les secteurs agricoles. Le coût du changement climatique se fait déjà durement ressentir dans certains secteurs ou régions. L’impact global du changement climatique sur le secteur agricole et de l’agroalimentaire français a été estimé par le Conseil général de l’alimentation, de l’agriculture et des espaces ruraux à plus de 4 milliards d’euros par an d’ici à 2050, soit un peu plus de 4 % du PIB agricole. Or, chaque tonne de gaz à effet de serre supplémentaire ne fera qu’accroître ces coûts et les défis associés. Enfin, il est indispensable que les stratégies d’adaptation et d’atténuation soient complémentaires : des stratégies d’adaptation qui auraient comme conséquence la hausse des émissions de gaz à effet de serre et des pressions supplémentaires sur des écosystèmes ne peuvent qu’être néfastes à long terme.
L’agroécologie, dont le fondement est d’utiliser les solutions fondées sur le fonctionnement des écosystèmes pour répondre aux problèmes posés aux agriculteurs, va dans ce sens d’une recherche de synergie entre adaptation et atténuation.
Au total, il apparaît que les actions de certains acteurs contre les politiques environnementales agissent comme un but contre leur camp. En faisant mine de défendre les intérêts des secteurs agricoles, ces actions amplifient au contraire les problèmes auxquels sont confrontés de nombreux acteurs du monde agricole.
Les politiques de protection de l’environnement ne sont pas parfaites, et les exploitants agricoles doivent être consultés pour améliorer leur mise en œuvre. Il est cependant indispensable de les accentuer, et d’affirmer qu’il n’existera pas de protection durable de l’agriculture sans la protection et la restauration des écosystèmes sur lesquels ces activités reposent.
Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 6 a pour objet « Le système alimentaire à l’heure des choix ». Vous pourrez y lire d’autres contributions. Le titre et les intertitres ont été produits par la rédaction de The Conversation France.
Philippe Delacote a reçu des financements de Chaire Economie du Climat.
28.04.2025 à 16:58
Sylvain Bellefontaine, Économiste senior, spécialiste des pays émergents et en développement et analyste risque pays, en charge de l'économie internationale, de la Chine, de la Turquie, du Mexique et du Nigeria, Agence Française de Développement (AFD)
La guerre économique est en cours. Mais Donald Trump pourra-t-il persévérer dans la voie de la confrontation avec Pékin, étant donné les risques de déstabilisation économique et financière, une dépendance mutuelle a priori plus difficilement substituable pour les États-Unis et la détermination sans faille affichée par les autorités chinoises ?
Alors que le capitalisme mondialisé du gagnant-gagnant a laissé place à l’idée d’un « capitalisme de la finitude », du fait de la prise de conscience générale du caractère limité des ressources planétaires, la guerre commerciale, technologique et monétaire s’intensifie entre les États-Unis et la Chine. Et à ce stade, les dirigeants chinois apparaissent plus résolus à réagir que lors du premier mandat de Donald Trump.
Objectivement, les États-Unis ne sont pas en position de force sur tous les plans, ce qui pourrait les conduire à privilégier un « super deal » avec Pékin (cf. tableau infra). Néanmoins, dans un scénario d’escalade extrême des tensions sino-américaines, le risque est celui d’une déstabilisation majeure de l’ordre économique mondial, voire d’un basculement sur le terrain géopolitique et militaire.
La relation économique sino-états-unienne résume les grands déséquilibres macroéconomiques mondiaux, dans un jeu comptable à somme nulle, illustré par les positions extérieures nettes des deux pays. Ces déséquilibres peuvent perdurer ou se réguler graduellement par des ajustements coopératifs ou des évolutions non concertées mais convergentes des modèles économiques et de société. Aucune de ces options n’apparaît envisageable, à très court terme, compte tenu de l’escalade dans le rapport de force entre les États-Unis et la Chine.
Le projet de l’administration Trump est un miroir aux alouettes. D’une part, il prône une relocalisation des investissements et une réindustrialisation (qui prendraient au mieux des années) pour soutenir l’emploi et l’autonomie stratégique du pays, à travers une dépréciation du dollar « concertée avec les partenaires ». D’autre part, il cherche à maintenir l’hégémonie du dollar comme devise de réserve internationale, tout en préservant le modèle consumériste.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ce double objectif antinomique sur le dollar remet au goût du jour le dilemme de Triffin, matérialisé lors de la suspension de la convertibilité du dollar en or en 1971, en vertu duquel le dollar devait satisfaire deux objectifs inconciliables : la stabilité en tant qu’étalon de mesure pour les monnaies et les marchandises, et l’abondance en tant que moyen de règlement international et instrument de réserve.
Avec la menace de retrait des garanties de sécurité états-uniennes, les tarifs douaniers sont brandis comme une arme coercitive et de négociation envers le reste du monde vassalisé. À double emploi, ils sont aussi envisagés comme un moyen, au mieux très partiel, de substituer les taxes à l’importation aux impôts domestiques, rappelant les États-Unis du tournant du XXe siècle.
À lire aussi : Recréer un second « Gilded Age » (Âge doré) : les illusions de Trump
Quant à la Chine, elle se présente avec ses certitudes sur sa puissance industrielle et exportatrice, déployant une stratégie fondée sur le triptyque représailles-adaptation-diversification. Mais des doutes existent quant à sa capacité à rééquilibrer son modèle de croissance vers la consommation, dans un contexte de sur-épargne accentuée par la morosité ambiante post-pandémie.
La crise immobilière, la déflation, l’endettement élevé (entreprises et collectivités locales), le ralentissement structurel de la croissance économique et le déclin démographique font poindre le spectre d’une « japonisation précoce ». Les similitudes avec la trajectoire du Japon pourraient même être renforcées par un éventuel nouvel accord sur les parités des devises comme celui du Plaza en 1985.
Les deux puissances systémiques mondiales s’affranchissent, chacune à sa manière, des justes règles de la concurrence et du commerce international. Les États-Unis jouissent (encore) du privilège exorbitant du dollar et de son pendant, à savoir l’extraterritorialité du droit américain. La Chine assure ses parts de marché mondiales (14 % au global et 22 % sur les biens manufacturés) en subventionnant ses secteurs stratégiques et en pratiquant une forme de dumping qui lui permet d’exporter ses surcapacités, aidée par le Renminbi, une devise chinoise jugée sous-évaluée par les autorités américaines, contrairement aux analyses du FMI.
Depuis quatre décennies, la relation sino-américaine est passée de la coopération à la « coopétition », pour glisser à partir de 2018 et dangereusement en 2025 vers la confrontation, à mesure que la Chine basculait du statut d’atelier manufacturier de biens à faible valeur ajoutée à concurrent direct sur les biens et services innovants, technologiques, verts et à haute valeur ajoutée.
Au cœur de la « première révolution industrielle » chinoise des années 1980-2000, l’attractivité pour les investisseurs étrangers, notamment à travers le déploiement de zones économiques spéciales (zones franches) et les transferts de technologies, a laissé place à une économie quasi schumpetérienne de l’innovation. Cette « seconde révolution industrielle » a été renforcée par des objectifs de « sinisation » des chaînes de valeur, d’indépendance technologique ainsi que d’autosuffisance et de sécurisation énergétique et alimentaire.
Traditionnel market maker sur le marché mondial des matières premières, des hydrocarbures aux produits agricoles, la Chine a très tôt pris conscience de l’importance des métaux critiques et stratégiques (dès les années 1980 pour les terres rares), domaine dans lequel elle dispose d’une position dominante, surtout en tant que transformateur avec une maîtrise complète de la chaîne de valeur.
En 2020, les produits manufacturés chinois généraient plus d’un tiers de la valeur ajoutée dans le commerce mondial de biens manufacturés. En 2022, 56 % des robots industriels installés dans le monde l’ont été en Chine et 45 % des brevets mondiaux ont été déposés par la Chine entre 2019 et 2023. Même si les États-Unis maintiennent leur leadership dans le domaine des start-ups, la Chine recense 340 licornes (start-ups privées valorisées à plus d’un milliard de dollars US), dont plus d’un quart sont impliquées dans le secteur de l’intelligence artificielle (dont DeepSeek) et des semi-conducteurs.
En avril 2025, le niveau prohibitif atteint par les droits de douane bilatéraux et les autres mesures non tarifaires annihile les échanges commerciaux sino-américains. Toutefois, les exemptions accordées par l’administration Trump sur certains produits, dont les ordinateurs et smartphones, illustrent la dépendance des États-Unis envers la Chine.
En 2024, malgré la perte de parts de marché aux États-Unis depuis le premier mandat de Donald Trump (14 % vs. 22 % en 2018), le marché états-unien absorbait (encore) 14,6 % des exportations chinoises, hors exportations « indirectes » transitant désormais par des pays tiers tels que le Vietnam. L’excédent commercial de la Chine envers les États-Unis ressortait à 279 milliards de dollars US en 2023, soit 26 % de son excédent global, alors que le déficit bilatéral des États-Unis était de 340 milliards de dollars US, soit 30 % de leur déficit global.
Loin d’être anecdotique, les terres rares extraites aux États-Unis sont raffinées en Chine et les IDE américains sur le sol chinois représentent des capacités de production installées importantes dans la filière des véhicules et batteries électriques.
Depuis la crise financière de 2008, consciente de son exposition excessive aux bons du Trésor américain, la Chine en a réduit sa détention de 1 300 milliards de dollars US en 2011 à 761 milliards de dollars US en janvier 2025. Ce montant encore significatif en termes absolus ne représente que 2 % de la dette publique des États-Unis, détenue à 22 % seulement par des non-résidents.
Si la stabilité du marché obligataire américain dépend plus largement des investisseurs résidents, le projet évoqué de contraindre le reste du monde à continuer de financer les déficits publics du pays à des conditions favorables (échange de dette contre des obligations à très long terme) ou d’imposer une taxe sur les détenteurs étrangers de bons du Trésor pourrait générer un risque majeur de déstabilisation financière mondiale en démonétisant l’actif sans risque de référence.
L’opinion publique américaine, les lobbies économiques, les marchés financiers, les GAFAM, les dissensions au sein de l’administration, ou encore les élus républicains en quête de réélection sont des forces de rappel qui pourraient imposer à Donald Trump une désescalade voire un « super deal » avec Xi Jinping. A contrario, l’entêtement dans des droits de douane punitifs pourrait générer une crise économique et financière mondiale profonde et une dislocation de l’ordre international.
Dans ce bras de fer entre Washington et Pékin, le temps joue donc pour le second. Le régime chinois est déterminé à faire de la Chine la première puissance économique mondiale d’ici à 2049, pour le centenaire de la République populaire. Il a montré sa capacité à se projeter sur le temps long et à instiller une dose d’adaptabilité du modèle d’« économie sociale de marché » suffisante à sa perpétuation, et il ne doit pas rendre compte de son action dans les urnes.
Dans sa relation au monde, la Chine poursuit sa stratégie séculaire de réserve de façade et propose le récit d’un pays ouvert, libre-échangiste, à la recherche de la concorde mondiale, se positionnant pour un ordre multipolaire et en contre-puissance des États-Unis. Dans le cadre de sa stratégie de soft power incarnée par le club des BRICS+ et la Belt & Road Initiative, la Chine a diversifié ses actifs financiers internationaux et investi tous azimuts en Asie, en Amérique latine et en Afrique.
Parallèlement à l’aversion croissante des investisseurs internationaux vis-à-vis du marché chinois dans une stratégie de derisking-decoupling, les firmes chinoises pourraient continuer de s’extravertir en investissant à l’étranger dans une stratégie de nearshoring et de contournement des barrières protectionnistes, notamment dans l’accès au marché européen.
Le désengagement des États-Unis du cadre multilatéral pourrait être une opportunité pour la Chine de renforcer son influence dans les instances internationales, en se présentant comme le principal défenseur des pays en développement, du libre-échange et de l’aide internationale, dans une forme d’inversion des valeurs.
Malgré tout, la position ambiguë de la Chine sur la guerre en Ukraine, ses accointances avec la Russie, la Corée du Nord et l’Iran, ses visées ostensibles sur Taïwan et son expansionnisme territorial en mer de Chine demeurent des sources d’inquiétude. La Chine, qui n’a plus été impliquée dans un conflit armé depuis la guerre sino-vietnamienne de 1979, a augmenté ses dépenses militaires au cours des dernières années, pour les porter à 245 milliards de dollars US officiellement en 2024 – mais peut-être de l’ordre de 450 milliards de dollars US en réalité, soit encore moitié moins, exprimé en dollars, que le budget de la défense des États-Unis.
Voici un tableau volontairement binaire des scénarios géoéconomiques possibles, qui n’exclut pas d’autres hypothèses comme un scénario intermédiaire de « guerre commerciale universelle larvée » impliquant l’UE, voire d’autres puissances régionales.
Sylvain Bellefontaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 16:54
Deransart Colin, Enseignant-chercheur en neurosciences, Grenoble Institut des Neurosciences (GIN), Université Grenoble Alpes (UGA)
Bertrand Favier, Dr Vétérinaire, Maitre de conférences à l'UFR de Chimie Biologie, Université Grenoble Alpes (UGA)
Boulet sabrina, Professeur des Universités- Neurosciences, Université Grenoble Alpes (UGA)
Véronique Coizet, CR Inserm en Neurosciences, Université Grenoble Alpes (UGA)
L’expérimentation animale fait débat. La recherche scientifique est-elle prête à se passer des animaux ? Les alternatives sont-elles suffisantes ? La discussion mérite en tout cas d’être menée de la manière la plus objective possible.
La maladie de Parkinson touche plus de 270 000 personnes en France. Lorsque le diagnostic est posé, la destruction des neurones producteurs de dopamine est trop avancée pour envisager des traitements curatifs. Pour obtenir des marqueurs précoces de la maladie, et permettre des traitements préventifs, l’équipe des chercheurs du Professeur Boulet du Grenoble Institut des Neurosciences a développé une recherche métabolomique par Résonance Magnétique Nucléaire.
A l’image de l’analyse des gaz d’échappement d’une voiture lors d’un contrôle technique dont la recherche des produits de combustion permet de déceler d’éventuelles anomalies de fonctionnement du moteur, la métabolomique par Résonance Magnétique Nucléaire permet l’identification de toutes les substances organiques de petites tailles (comme certains acides aminés) ou de leurs produits de dégradation issus des cascades des évènements moléculaires se produisant dans les cellules. L’identification de ces substances ou métabolites au sein d’un échantillon biologique, comme le sang ou d’autres tissus, permet donc de déceler d’éventuels marqueurs de la maladie (biomarqueurs). Cette approche se situe en aval de l’étude des gènes (génomique), de l’ensemble des ARN messagers (transcriptomique) et de l’ensemble des protéines (protéomique). Cette approche novatrice permet donc d’appréhender l’ensemble des facteurs (génétiques, environnementaux, nutritionnels…) dont la résultante est susceptible de conduire à une maladie.
Les chercheurs ont croisé les métabolites issus de trois modèles animaux complémentaires de la maladie de Parkinson et ont soumis aux mêmes analyses des échantillons de sang issus de patients nouvellement diagnostiqués mais non encore traités (patients de novo).
En 1959 les biologistes William Russel et Rex Burch ont proposé des recommandations éthiques en expérimentation animale connues sous le terme de « règle des 3 R » qui font encore aujourd’hui consensus à l’égard du traitement éthique des animaux de laboratoire. Ces recommandations visent à remplacer quand cela est possible l’utilisation d’animaux par des modèles alternatifs, réduire le nombre d’animaux requis et raffiner les expérimentations en minimisant les contraintes imposées aux animaux (douleur, souffrance, angoisse…).
Il semble contraire au critère de réduction de faire appel à une multiplicité de modèles animaux différents pour une même étude. Dans cette étude, utiliser trois modèles a permis de recouper entre elles les données, et d’en augmenter la portée « translationnelle » des résultats, c’est-à-dire ce qui permet de les transposer à l’humain. En effet, chaque modèle présentait des caractéristiques complémentaires de la maladie de Parkinson, chacun imitant différentes phases de la maladie, depuis la phase où seuls des déficits de motivation sont présents, jusqu’à celle avec des symptômes moteurs. De plus, les chercheurs ont développé une échelle de cotation de la progression de la maladie calquée sur ce qui existe en clinique humaine, évaluant les performances motivationnelles, motrices et l’étendue des lésions neurologiques. Cela a amélioré l’aspect translationnel de ces études et a participé aussi au raffinement des expérimentations.
Le premier modèle porte sur des rats traités par une neurotoxine ciblant les neurones dopaminergiques. Il est ainsi possible de constituer des lots d’animaux mimant de façon stable et sans évolution temporelle, un stade précis de la maladie ; ceci est une simplification de la maladie humaine où chaque patient est un cas particulier évolutif. En complément, les chercheurs ont sélectionné un second modèle reflétant la nature progressive de la pathologie dont le marqueur est lié à la production d’une protéine délétère. Bien que ce modèle permette chez un même animal de suivre la progression de la pathologie, il n’englobe pas tous les symptômes neuropsychiatriques caractéristiques du stade précoce de la maladie (tel que l’apathie).
Enfin, le troisième modèle, induit par injection d’une neurotoxine à des macaques, reproduit l’évolution des phases cliniques de la maladie et présente une plus grande homologie avec l’humain. L’homologie d’un modèle se réfère à sa capacité à mimer les mécanismes physiologiques sous-jacents à l’origine de la pathologie étudiée chez l’humain : on parle donc d’identité de causalité et de mécanismes mis en jeu.
Chez ces animaux, les dérégulations métaboliques ont amené à identifier six métabolites, potentiellement liés au processus neurodégénératif, dont les niveaux combinés constituent un biomarqueur métabolique composite. Ce biomarqueur permet de discriminer les animaux imitant la maladie de Parkinson des témoins, et ce, dès la phase précoce. Ce résultat n’aurait pas été atteint si une seule situation, un seul modèle animal, avait été étudié.
Les résultats obtenus chez les animaux ont ensuite été comparés avec les résultats de patients de novo (diagnostiqués mais non encore traités) provenant de deux banques différentes. Les mêmes six métabolites constituant le biomarqueur identifié chez les animaux ont permis de distinguer les patients de novo des patients sains avec un niveau élevé de sensibilité et de spécificité.
Les chercheurs ont également montré que la dérégulation de 3 des 6 métabolites composant le biomarqueur peut être partiellement corrigée par un médicament mimant les effets de la dopamine. Ce traitement permet de corriger le déficit de motivation des animaux à la phase précoce. Cette amélioration partielle a également été observée dans un sous-ensemble des patients de l’étude. Cela renforce l’intérêt du biomarqueur identifié et suggère que ce marqueur permettrait de surveiller l’évolution des traitements d’une manière moins contraignante que les méthodes d’imagerie médicale actuelles.
Outre les perspectives diagnostiques de cette étude, ces travaux ont également permis d’identifier un mécanisme de régulation du métabolisme cellulaire sur lequel on pourrait agir pour contrer les effets de la maladie, offrant ainsi des perspectives thérapeutiques. Ceci illustre notamment à quel point recherche fondamentale et recherche appliquée sont fortement indissociables l’une de l’autre. Nous venons de le voir au travers de cet exemple, mais de nombreuses recherches montrent l’intérêt de l’expérimentation animale, comme dans le cas des travaux de Pasteur sur la rage, les travaux grenoblois sur les approches par stimulations électriques intracérébrales profondes qui ont permis de révolutionner la prise en charge de nombreux patients parkinsoniens à travers le monde, ou encore, plus proche de nous, les travaux sur les ARN messagers ayant permis la mise au point de vaccins contre la Covid-19 et ont valu à leurs auteurs le prix Nobel de Médecine 2023.
Au-delà de ces avancées scientifiques, les détracteurs de l’expérimentation animale mettent en avant la faible transposabilité des résultats obtenus chez l’animal à l’homme, un de leurs argument étant que « 90 % des traitements testés avec succès sur les animaux se révèlent inefficaces ou dangereux pour les êtres humains ». Ceci leur permet notamment de justifier le recours à l’utilisation de modèles alternatifs à l’animal, tels que des modèles in vitro ou in silico.
Cette citation nous semble cependant partielle et partiale. Il n’a pas été démontré que la transposabilité des tests in vitro et/ou in silico soit meilleure en l’état actuel des techniques.
En réalité, ces tests sont les premiers cribles de l’ensemble des tests précliniques et la contribution des animaux est essentielle puisqu’en fin de phase pré-clinique, ils permettent d’exclure 40 % de candidats médicaments, notamment sur la base de risques potentiels chez l’humain.
Par ailleurs, les auteurs dutexte cité après avoir souligné cette faible transposabilité, proposent plutôt de mettre l’accent sur la robustesse des approches expérimentales, en assurant une recherche rigoureuse tant sur les animaux que chez les humains. Ils suggèrent ainsi « d’harmoniser la conception des protocoles expérimentaux menés chez l’humain (étude clinique) avec celle des études précliniques réalisées chez l’animal dont l’utilisation demeure indispensable, balayant la vision manichéenne qui voudrait que s’opposent une communauté pro-expérimentation animale et une autre, pro-méthodes alternatives. »
Le fait d’attribuer des capacités cognitives à l’autre – humain comme animal – nous confère un socle commun de droits moraux et apporte du sens à nos actions. Le domaine de l’expérimentation animale n’échappe pas à cette règle.
Il a été avancé que les chercheurs utilisant des animaux à des fins scientifiques auraient une moindre empathie vis-à-vis de la souffrance animale que le reste de la population.
Cette observation nous parait occulter un point important. De même qu’un chirurgien ne s’évanouit pas à la vue du sang au moment crucial de son intervention, en tant que chercheurs travaillant sur des modèles animaux, nous réfléchissons aux conséquences de nos actes. Leur aspect émotionnel est maîtrisé, mais non oblitéré : le chercheur n’a aucun intérêt à négliger la souffrance animale. Une expérience sur un modèle animal perd de sa puissance de déduction si certains animaux sont en panique, d’autres en stress, ou en prostration. Bien au contraire, la qualité de la science dans ce domaine va de pair avec le bien-être des animaux. La démarche de raffinement citée plus haut vise également à limiter les symptômes au strict minimum pour l’étude de la maladie, et elle est indissociable d’une empathie raisonnée avec les animaux utilisés.
Il est nécessaire également de rappeler que la qualité de nos avancées médicales comme de nos services de soins assume que le nombre moyen d’animaux que chaque Français « utilisera » au cours de sa vie entière est de 2,6 animaux. Ce nombre est à mettre lui-même en rapport avec les 1298 animaux, en moyenne, que pour toute sa vie un(e) Français(e) utilisera pour se nourrir. L’utilisation d’animaux en recherche expérimentale telle qu’elle est pratiquée de nos jours dans un cadre raisonné et contrôlé, et dans le respect du bien-être animal, reste, selon nous, une nécessité pour l’évolution de nos connaissances, même si son bannissement « à terme » tel qu’inscrit dans le marbre de la loi européenne doit nous inciter à en limiter le nombre et à développer des alternatives.
Enfin, en ce qui concerne le respect effectif des lois relatives à l’utilisation d’animaux en recherche, dont l’obligation d’appliquer les 3R, les inspecteurs vétérinaires départementaux ont à leur disposition des sanctions dissuasives qui peuvent être lourdes en cas de maltraitance.
En tant que chercheurs, nous savons que la recherche en expérimentation animale est sujette à des controverses : nos détracteurs adhèrent aux idées développées par les mouvements opposés à l’expérimentation animale en partie parce qu’il n’y a pas de manifestation de ceux qui sont en faveur de cette pratique. C’est précisément pour cela qu’il nous incombe de rendre compte à nos concitoyens de ce que nous faisons dans nos laboratoires.
Colin Deransart a reçu des financements de la Ligue Française Contre les Epilepsies, des Laboratoires GlaxoSmithKline, de la Fondation Electricité de France, de l'ANR et d'un Programme Hospitalier de Recherche Clinique.
Bertrand Favier est membre de l'AFSTAL. Sa recherche actuelle est financée par l'ANR et la Société Française de Rhumatologie en plus de son employeur.
Boulet sabrina a reçu des financements de l'ANR, la Fondation de France, la fondation pour la Rechercher sur le Cerveau, la fondation France Parkinson.
Véronique Coizet a reçu des financements de l'ANR, la fondation France Parkinson, la Fondation de France. Elle est présidente du comité d'éthique de l'Institut des Neurosciences de Grenoble et membre du comité Santé et bien-être des animaux.
28.04.2025 à 13:10
Fiona Ottaviani, Associate professor en économie - Grenoble Ecole de Management, F-38000 Grenoble, France - coordinatrice recherche Chaire Unesco pour une culture de paix économique - co-titulaire Chaire Territoires en Transition, Grenoble École de Management (GEM)
Eléonore Lavoine, Doctorante en gestion - Evaluation de l'utilité sociale territoriale, Grenoble École de Management (GEM)
Fanny Argoud, Doctorante en sciences de gestion, Aix-Marseille Université (AMU)
Hélène L'Huillier, Chercheuse et évaluatrice indépendante, partenaire du Campus de la Transition, ESSEC
Lola Mercier Valero, Assistante de recherche, Grenoble École de Management (GEM)
Thibault Daudigeos, Professeur Associé au département Homme, Organisations et Société, Grenoble École de Management (GEM)
Pour sortir de l’approche coûts-bénéfices, place aux co-bénéfices. Ils désignent les multiples effets positifs générés par une même action, qu’ils soient sociaux, économiques ou environnementaux. Concrètement, comment mettre en œuvre cette approche et à quoi sert-elle ?
Il vous arrive sans doute d’aller chercher votre pain en vélo ou à pied plutôt qu’en voiture, en vous disant que c’est bon pour la planète, mais aussi pour la santé et le porte-monnaie. Saviez-vous que ce type d’effets positifs multiples liés à une même action porte un nom : les co-bénéfices ?
Face à l’approche des coûts-bénéfices, qui a irrigué le raisonnement économique au cours des dernières décennies, se développe cette approche. Elle offre une grille de lecture plus adaptée pour comprendre l’interdépendance des crises actuelles et les façons d’y répondre. Penser les co-bénéfices amène à concilier les multiples dimensions d'un projet… souvent considérées inconciliables.
Par exemple, dans le rapport de l’Agence de la transition écologique (Ademe) « Indicateurs de bien vivre et co-bénéfices de la sobriété », nous montrons que la sobriété et les actions associées ne sont ni perçues positivement ni mises en œuvre par l’ensemble des acteurs des territoires, alors qu’elles sont également un levier du bien vivre.
Alors, qu’apporte cette approche par rapport à une réflexion économique traditionnelle fondée sur les coûts-bénéfices ? Concrètement, comment la mettre en œuvre ?
L’économiste Éloi Laurent situe l’apparition de la définition des co-bénéfices à la Commission santé et changement climatique sous l’égide de la revue médicale The Lancet, il y a une quinzaine d’années. Ils sont abordés comme des « avantages collatéraux liés à la réduction des émissions de gaz à effet de serre, tels que l’amélioration de la qualité de l’air, l’innovation technologique ou la création d’emplois ».
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Actuellement, la notion de co-bénéfices est de plus en plus utilisée par les institutions internationales. Le Groupe intergouvernemental d’experts sur l’évolution du climat (Giec), la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES), la Banque mondiale, ou encore, à l’échelle nationale, la Commission de l’économie du développement durable (CEDD) ou l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), s’en sont ainsi emparés ces dernières années.
Le rapport Nexus, ou « Affronter ensemble cinq crises mondiales interconnectées en matière de biodiversité, d’eau, d’alimentation, de santé et de changement climatique », a été récemment publié par la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES). Il mobilise la notion de co-bénéfices pour mettre en lumière l’interconnexion des enjeux et des crises, mais également les réponses pouvant répondant durablement à ces crises.
Soixante-dix réponses générant des co-bénéfices sur plusieurs des cinq éléments du « Nexus » – la biodiversité, l’eau, l’alimentation, la santé et le changement climatique – sont proposées dans le deuxième volet du rapport intitulé « Transformative Change ».
À titre d’exemple, une des réponses combine la restauration des écosystèmes riches en carbone tels que les forêts, les sols, les mangroves et la gestion de la biodiversité pour réduire le risque de propagation des maladies des animaux aux humains.
Face aux crises environnementales et sociales actuelles, il est urgent de repenser et de réinventer nos modèles d’organisation socioéconomique. La tendance est de penser les réponses face à ces crises en silo, alors qu’elles sont intrinsèquement liées. Les acteurs économiques visent le zéro carbone (ou zéro émission nette), sans interroger l’incidence des choix faits sur les autres volets environnementaux ou sociaux. Comme le montre le rapport croisé du GIEC et de la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES), les interrelations entre changement climatique et biodiversité sont nombreuses.
Les valeurs créées sont souvent réduites à différents indicateurs financiers et monétaires avec une approche par les coûts et bénéfices. On pourrait décider de remplacer un véhicule thermique par un véhicule électrique si les économies réalisées en termes de consommation énergétique, mais aussi de réduction d’émissions de CO2, sont supérieures à l’investissement consenti. Malgré son utilité pour la décision, cette approche oblitère les relations entre les différents enjeux environnementaux, économiques et sociaux.
L’approche coûts-bénéfices renvoie à l’idée que les différentes formes de capital pourraient se compenser. Elle oblige fréquemment un chiffrage monétaire d’éléments n’ayant pas de prix de marché. Cette approche amène à considérer qu’une vie humaine n’aurait pas la même valeur selon l’endroit où l’on naît…
S’en détacher pour les co-bénéfices permet de mieux répondre aux interdépendances des enjeux et d’identifier les leviers de changement systémique. L'idée : prendre en compte les conséquences sur la pollution, l’épuisement des ressources ou le bien-être de la population.
Faire du vélo se traduit par des co-bénéfices sur la santé mentale et physique et l’émission de CO2. Cette approche est indispensable pour penser les enjeux de transition : les transitions sont interdépendantes, il faut les penser comme un tout. Une politique climatique efficace ne peut se limiter à la réduction des émissions de CO2, sans considérer son impact sur les emplois locaux, les conditions de vie de la population ou les inégalités socio-spatiales.
Dans les organisations, penser les co-bénéfices permet de répondre aux impératifs sociaux et environnementaux, d’optimiser l’utilisation des ressources financières, personnelles et ressources naturelles et de maximiser les effets positifs d’une seule action sur diverses dimensions. Il y a, selon l’économiste chilien Manfred Max-Neef, un gain d’efficience.
À titre d’illustration, le partage des infrastructures des entreprises ou collectivités peut être positif tant du point de vue de l’artificialisation des sols, de l’optimisation de l’usage de l’énergie, que du point de vue du lien social.
Cette approche plus systémique constitue une fenêtre d’opportunité pour les entreprises afin de sortir d’une logique de conformité et d’un raisonnement en silo promus par la Directive européenne relative à la publication d'informations en matière de durabilité par les entreprises (CSRD). Pour les collectivités, sur fond de pénurie budgétaire, le ciblage d’actions couplant des bénéfices socioéconomiques et environnementaux s’avère de plus en plus essentiel. L’intégration de co-bénéfices dans les méthodes de pilotage et d’évaluation d’impact des organisations est une voie prometteuse pour répondre aux exigences d’une transition plus juste et soutenable.
La prochaine fois que vous irez chercher du pain en vélo, songez combien il serait loisible d’étendre à d’autres champs de tels co-bénéfices !
Le rapport sur les cobénéfices de la sobriété et les indicateurs de bien vivre a été commandité par l'ADEME et écrit par la chaire Territoires en transition et le campus de la transition.
Le rapport sur les cobénéfices de la sobriété et les indicateurs de bien vivre a été commandité par l'ADEME et écrit par la chaire Territoires en transition et le Campus de la transition.
Eléonore Lavoine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 12:59
Christel Tessier Dargent, Maître de Conférences, Université Jean Monnet, Saint-Etienne, IAE Saint-Etienne
Ils ont entre 10 et 18 ans, vivent en France et se sont lancés très jeunes dans l’entrepreneuriat… Phénomène de mode ou vague de fond ? Quels sont les risques et les opportunités pour ces adolescents-entrepreneurs ?
Mineurs, ils développent leur business « sous les radars ». L’Institut national de la statistique et des études économiques (Insee) ne donne pas de chiffres sur les moins de 18 ans qui dirigent une entreprise, même s’ils sont la coqueluche des médias.
Ils choisissent, par exemple, de s’émanciper à 16 ans, pour devenir micro-entrepreneurs, un statut aux obligations réduites, adapté à une petite activité sans risque, mais à forte valeur ajoutée. Alternative : sans être émancipés, enregistrer une entreprise unipersonnelle à responsabilité limitée (EURL) ou société par actions simplifiée unipersonnelle (Sasu, avec l’autorisation de leurs parents, formes plus classiques d’entreprise permettant un développement rapide et la gestion d’actifs plus importants.
Les plus jeunes gèrent leurs affaires dans une zone grise, recourant à des proches, souvent leurs parents comme prête-noms, ou opérant temporairement en économie informelle. Ce qui semble encore un épiphénomène en France représente une tendance plus marquée dans les pays anglo-saxons.
Au Royaume-Uni, le nombre d’adolescents-entrepreneurs, âgés de 16 à 19 ans, a été multiplié par huit entre 2009 et 2020 : 6 800 entreprises ont été enregistrées, avec une augmentation de 20 % pendant la pandémie de Covid. Aux États-Unis, on estime à deux millions le nombre d’entrepreneurs adolescents (même si, là encore, les statistiques manquent de rigueur), avec d’éclatantes success stories.
À l’autre extrême du spectre, l’entrepreneuriat dit de nécessité représente pour les personnes vulnérables, dont certains adolescents dans des contextes socio-économiques difficiles, un moyen de survie face à la pauvreté.
Pour les pouvoirs publics, l’entrepreneuriat apparaît ainsi comme un outil permettant de réduire le chômage des jeunes, mais aussi d’offrir aux nouvelles générations les moyens de relever les défis du monde contemporain. En France, où souffle depuis le début du XXIe siècle un esprit entrepreneurial inédit, de nombreux dispositifs encouragent l’entrepreneuriat des étudiants. Le programme Pépite, lancé en 2014, a pour vocation de sensibiliser à la culture entrepreneuriale sur les campus français et d’accompagner les étudiants-entrepreneurs dans leurs projets.
Certains chercheurs mentionnent l’intérêt de dispositifs d’éducation entrepreneuriale dès le primaire et le secondaire. La France est actuellement classée parmi les pays les moins en pointe sur le sujet, à l’instar de l’Allemagne et du Japon.
Les premiers de la classe : la Finlande, les Pays-Bas, la Norvège, le Qatar et les Émirats arabes unis caracolent en tête
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Une recherche réalisée auprès d’une trentaine d’entrepreneurs ayant développé leurs entreprises avant leur majorité nous éclaire sur l’intérêt, mais aussi sur les limites de ces initiatives. Elle a été présentée dans le cadre de la conférence RENT 2025.
Les vingt-cinq informants de cette étude, dont seulement deux jeunes femmes, habitent aux quatre coins de la France. Ils ont entre 13 et 17 ans. Ils ont lancé leurs projets dans le numérique, mais aussi dans la mode, l’ameublement ou l’artisanat.
Nous parlons bien d’adolescents entrepreneurs. Il ne s’agit pas de vente de limonade sur le trottoir ou de bijoux en pâte Fimo à des copines de classe, mais bien de produits innovants, de recrutements de personnel et de revenus à cinq chiffres… Une aventure pour laquelle il a fallu convaincre des parents, souvent inquiets et qui encouragent la poursuite d’études en parallèle.
Des parents disposant parfois d’un capital financier et social propice à soutenir les ambitions de leur progéniture, mais rarement entrepreneurs eux-mêmes.
À lire aussi : Les youtubeurs stars : des entrepreneurs créatifs et innovants
Dans ce contexte, il faut souligner le rôle prépondérant de la digitalisation comme facilitateur externe pour ces digital natives. Les « enfants du numérique » s’emparent aisément de ces technologies qui leur offrent de nouvelles façons de faire, de nouvelles opportunités d’affaires et des modèles commerciaux innovants.
Un jeune entrepreneur résume :
« J’ai trouvé l’idée [un site comparateur de prix] sur Internet, je me suis formé sur YouTube, et j’ai lancé mon entreprise sur un ordi dans ma chambre. »
Comme l’évoque un autre informant :
« Avec le numérique, ce qui compte, ce n’est pas l’âge, mais l’expérience. »
Souvent autodidactes, ils se détournent de l’éducation traditionnelle, jugée peu pertinente et partiellement obsolète. Ils lui préfèrent une formation ciblée via des sites dénichés sur le web : codage, IA, marketing digital, rédaction de statuts juridiques, etc. Les plateformes leur permettent de recruter aisément des free-lancers à travers le monde.
Les investissements initiaux prennent souvent la forme de financements participatifs. Le travail à distance leur permet de masquer leur jeune âge et de construire une légitimité sur la seule base de l’expertise développée.
Leur maîtrise des réseaux sociaux permet un personal branding efficace et la création d’un solide écosystème entrepreneurial virtuel. Ce monde numérique se prolonge dans le monde réel, où se crée une solidarité entre pairs qui pallie l’absence de structures institutionnelles.
Les risques et problématiques, évoqués de façon très transparente par ces entrepreneurs-adolescents sont importants. L’un explique :
« Pour ne pas bosser gratuitement, je récupérais des enveloppes de cash dans le métro. »
Un autre complète :
« Il m’a fallu trois mois pour obtenir un statut, personne ne [me] connaissait. »
L’absence de légitimité et la discrimination liée à la perception négative du jeune âge sont répandues, notamment auprès des clients et investisseurs.
L’inexistence de structures d’accompagnement est un frein pour conseiller le jeune dans le développement de son projet, ainsi que la méconnaissance des dispositifs existants par les administrations. Un informant confirme :
« Impossible de se former sur la fiscalité, la comptabilité. Aucune structure n’est prévue pour nous, aucun conseil. »
Surtout, ils rencontrent des difficultés à maintenir une bonne santé physique et mentale face au stress et à la lourde charge de travail. L’un d’eux l’explique :
« Je bossais cent heures par semaine, enfermé dans ma chambre. J’ai dû arrêter le lycée. Je n’avais même plus le temps de faire du sport. »
Cette pression est accentuée pour beaucoup par la nécessité de poursuivre une scolarité classique en parallèle de l’activité entrepreneuriale, contrairement aux artistes ou sportifs de haut niveau par exemple. Le sport étude, un modèle pour ces entrepreneurs-adolescents ?
« Les journaux racontent n’importe quoi, les influenceurs, ça n’est pas de l’entrepreneuriat, c’est de l’argent facile. »
Presque tous les jeunes entrepreneurs interrogés sont devenus des serial entrepreneurs. Ils perçoivent que cette période de la vie est propice à la création d’entreprise, compte tenu de leur peu de charges financières ou de responsabilités annexes, alors qu’ils débordent d’énergie, d’idées, d’insouciance et d’ambition.
Ces entrepreneurs-adolescents poursuivent avec détermination leur trajectoire entrepreneuriale. Les points positifs dans cette aventure adolescente sont légion. Ils apprécient l’autonomie financière acquise très tôt, la possibilité de passer à l’action, de s’adonner à leur passion ou de répondre à un besoin qu’ils ont souvent eux-mêmes éprouvé.
Deux caractéristiques frappantes : la confiance en soi et le fort sentiment d’auto-efficacité développés par ces adolescents. Contrairement à leurs aînés, ils ont un rapport décomplexé à l’échec, même s’ils ont une gestion « de bons pères de famille ». L’un d’eux confirme :
« La réussite, c’est d’abord beaucoup d’échecs ; ça accélère le processus d’apprentissage. »
Peu d’entre eux, cependant, expriment une sensibilité environnementale, alors que cette tendance se développe ensuite.
Enfin, il est marquant de constater que les jeunes femmes sont très sous-représentées dans l’échantillon français : phénomène culturel, discrimination additionnelle, barrière du digital ? Ces deux questions mériteraient d’être approfondies.
Christel Tessier Dargent a reçu des financements de Université Jean Monnet.
28.04.2025 à 12:59
Nadia-Yin Yu, Assistant Professor of Organizational Behavior and Human Resource Management, Neoma Business School
Pour être une réussite, la mise en place de nouveaux outils numériques doit être accompagnée, très en amont. Former, écouter, impliquer sont trois moments importants, mais les moyens à mobiliser diffèrent selon les situations. Les résultats de l’étude menée dans la police et dans une université le rappellent.
Dans de nombreuses entreprises, la mise en place d’un nouveau système informatique est perçue comme une avancée organisationnelle incontournable, répondant à des objectifs stratégiques : améliorer la performance, moderniser les processus, ou encore renforcer la sécurité. Pourtant, dans plus de 75 % des cas, ces projets échouent partiellement ou totalement. Une sous-estimation des réactions humaines face au changement est souvent en cause.
Depuis la pandémie de Covid-19, les organisations ont été poussées à adopter rapidement, et parfois à marche forcée, de nouveaux outils numériques. Si ces technologies sont censées améliorer l’efficacité et moderniser les pratiques, elles viennent souvent perturber les routines des employés, suscitant de l’incompréhension, du stress, voire du rejet. Il en résulte notamment une mauvaise utilisation des outils, une baisse de productivité, des frustrations… et de futurs projets abandonnés.
Alors, comment aider les utilisateurs à s’approprier ces nouvelles technologies ?
C’est à cette question que notre recherche tente de répondre. Elle est basée sur un modèle psychologique appelé le Coping Model of User Adaptation. Ce modèle explore la façon dont les utilisateurs réagissent – mentalement, émotionnellement et concrètement – lorsqu’on leur impose ou propose un nouvel outil technologique. Et surtout, comment les organisations peuvent-elles intervenir au bon moment et de la bonne façon pour rendre cette transition plus fluide et efficace.
À lire aussi : Transformation numérique : comment ne pas manquer la phase qui s’ouvre dans le travail ?
La mise en place d’un nouveau système informatique se déroule en plusieurs étapes : une phase de préparation (avant le déploiement) et une phase d’implémentation (après la mise en service). Pourtant, la majorité des recherches s’est concentrée sur la manière dont les utilisateurs réagissent une fois l’outil en place, en négligeant ce qui se joue en amont. Or, les perceptions initiales peuvent largement conditionner la suite.
Un exemple notable est l’échec de Quibi en présence d’un financement massif et d’un contenu soutenu par des célébrités en raison d’un mauvais positionnement avant le lancement et d’un manque de valeur ajoutée claire pour les utilisateurs dans un marché du streaming saturé.
Le caractère obligatoire ou volontaire de l’usage constitue également un élément très important, car cela change profondément la manière dont les individus s’y adaptent. Les stratégies de « coping » – c’est-à-dire les manières de faire face au changement – ne sont pas les mêmes selon que l’on agit sous contrainte ou par choix.
Chaque étape de la mise en place d’une nouvelle technologie appelle des actions spécifiques de la part du management. Une intervention efficace ne peut se limiter à une simple formation ou à une annonce ponctuelle. Elle doit s’inscrire dans un processus continu et adapté aux besoins des utilisateurs.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Dans la phase de préparation, avant même que la technologie ne soit déployée, la formation joue un rôle essentiel. Elle permet de réduire l’incertitude, d’atténuer les craintes et de créer des attentes positives. En parallèle, impliquer les utilisateurs dans le développement ou la sélection de l’outil favorise leur engagement. Cette participation renforce leur sentiment de contrôle et augmente les chances d’appropriation, notamment dans les contextes où l’usage de la technologie reste volontaire.
Une fois l’outil mis en place, d’autres leviers deviennent prioritaires. L’accompagnement dans les premiers temps est crucial : les utilisateurs doivent pouvoir s’appuyer sur un support accessible et des retours constructifs pour surmonter les difficultés initiales. En outre, le sentiment de justice perçue dans le processus de changement joue un rôle important. Les utilisateurs doivent sentir que les décisions sont cohérentes, transparentes et équitables, sans quoi la défiance peut s’installer.
Enfin, il est indispensable d’adapter ces interventions au contexte dans lequel la technologie est introduite. Dans un cadre obligatoire, où les utilisateurs n’ont pas le choix, ils ont tendance à mobiliser des ressources collectives pour faire face au changement : entraide, discussions entre collègues, apprentissage en groupe. Le rôle du management est alors de soutenir ces dynamiques collaboratives.
À l’inverse, dans un cadre volontaire, l’adaptation se fait souvent de manière plus individuelle, en fonction des préférences et des besoins de chacun. Ici, la souplesse, la clarté des bénéfices et la reconnaissance du libre arbitre sont des facteurs clés de réussite.
Pour tester notre modèle, nous avons mené deux études de terrain dans des contextes très différents. Dans le premier cas, nous avons observé une situation d’usage obligatoire, au sein d’une organisation policière en Asie. Dans le second, il s’agissait d’un usage volontaire, dans une université asiatique.
Dans le contexte obligatoire, les agents de police devaient passer d’un ancien système de communication (appelé CCII) à une version plus récente et plus performante (CCIII). Ce nouvel outil offrait des fonctionnalités avancées, conçues pour améliorer la prise de décision et l’efficacité opérationnelle. Pour accompagner ce changement, plusieurs dispositifs avaient été mis en place : des formations, des mises à jour techniques et un suivi par le biais de retours d’expérience.
Les résultats des enquêtes menées avant et après l’introduction du système ont montré que la formation avait un impact direct sur la manière dont les agents percevaient l’utilité et la facilité d’utilisation du nouvel outil. Le soutien managérial pendant la période de transition – notamment la prise en compte des retours et la résolution rapide des problèmes – a également renforcé leur évaluation positive de la technologie.
Dans le contexte volontaire, les étudiants d’une université avaient la possibilité d’adopter Microsoft 365, qui proposait de nouveaux outils collaboratifs comme Teams, Word en ligne ou encore Excel avec accès à des solutions et des outils dans le cloud. L’ancien système restait disponible, et chaque étudiant pouvait choisir de migrer ou non. Là encore, des formations avaient été proposées, accompagnées de temps d’échange et d’améliorations techniques successives. Les données recueillies un mois avant et un mois après le déploiement ont montré que la participation des étudiants en amont – lorsqu’ils ont pu tester ou donner leur avis – jouait un rôle décisif dans leur perception de l’utilité et de la simplicité d’usage. Dans ce cas, c’est surtout le sentiment de justice dans la manière dont le changement a été mis en œuvre qui a influencé l’adoption.
Ces deux études illustrent clairement que les leviers efficaces varient selon le contexte. La formation et le traitement des retours sont essentiels quand l’usage est imposé. La participation et la transparence sont prioritaires quand l’adoption repose sur un choix individuel.
Ces deux études de terrain confirment qu’il n’existe pas de recette unique pour réussir l’implémentation d’une nouvelle technologie. Tout dépend du contexte d’usage, du moment dans le processus et de la manière dont les utilisateurs sont accompagnés.
Dans les situations où l’usage est obligatoire, il est crucial de miser sur des stratégies collectives d’adaptation. La formation, l’accompagnement continu et l’écoute active des retours permettent aux utilisateurs de mieux comprendre l’outil, d’en percevoir l’utilité, et de maintenir leur performance malgré les bouleversements initiaux. Ce type de soutien favorise une forme de « chaperonage » communautaire, où l’entraide entre collègues joue également un rôle clé.
Dans les contextes volontaires, l’approche doit être différente. Les utilisateurs ont besoin de sentir qu’ils gardent le contrôle. Leur engagement passe alors par la participation en amont, la clarté des bénéfices et une mise en œuvre perçue comme juste et respectueuse. Ici, l’adaptation est plus individuelle, portée par le sens que chacun donne à la technologie dans son propre cadre de travail ou d’étude.
Nos résultats montrent également que les premières impressions comptent. Les croyances formées avant l’introduction d’un outil ont tendance à se maintenir dans le temps. Dans un usage obligatoire, c’est l’utilité perçue qui pèse le plus sur la suite de l’expérience. En revanche, dans un usage volontaire, c’est la facilité d’usage initiale qui influence davantage l’adoption. Mieux vaut donc agir tôt pour installer un regard positif sur la technologie. Par ailleurs, une utilisation approfondie des fonctionnalités peut atténuer les baisses de performance souvent observées après le déploiement et améliorer la satisfaction au travail.
La réussite de l’adoption d’une nouvelle technologie ne repose pas sur ses seules qualités techniques. Cela dépend surtout de la manière dont elle est introduite, expliquée et accompagnée. Former, écouter, impliquer : ces trois dimensions, si elles sont bien calibrées au contexte, peuvent faire la différence entre un échec coûteux et une transition réussie.
Nadia-Yin Yu est une professeur de NEOMA Business School. Les auteurs de l'article de recherche original incluent Yue (Katherine) Feng de Hong Kong Polytechnic University, Kar Yan Tam et Michael C. Lai de Hong Kong University of Science and Technology.
28.04.2025 à 12:59
Yeonsin Ahn, Professeur assistant, stratégie et politique d'entreprise, HEC Paris Business School
Entre grands groupes et start-ups les cultures d’entreprise n’auraient rien à voir. D’un côté, process rigides et contrôle ; de l’autre, agilité et autonomie. Et pourtant…
Même s’il gagnait un salaire à six chiffres, en travaillant comme vice-président de l’ingénierie sur le logiciel de vidéoconférence Cisco WebEx, Eric Yuan n’était vraiment pas heureux chez Cisco Systems. « Aller au bureau pour travailler ne me faisait pas envie », a-t-il déclaré à CNBC Make It en 2019.
Yuan n’était pas satisfait de la culture d’entreprise de Cisco, où les nouvelles idées étaient souvent rejetées et où tout changement prenait du temps à se mettre en place. Ainsi, lorsqu’il a suggéré de construire à partir de zéro une nouvelle plateforme vidéo adaptée aux mobiles, l’idée a été rejetée par la direction de l’entreprise. Frustré par tant de résistance au changement, Yuan a finalement quitté l’entreprise en 2011 pour fonder Zoom, dont la valeur a augmenté de façon astronomique pendant les années de pandémie de Covid. Zoom est alors devenue une des applications de référence pour le travail à distance.
On pourrait penser que les fondateurs qui, comme Yuan, ont exprimé leur mécontentement à l’égard de la culture de leurs anciens employeurs créeraient de nouvelles entreprises avec des valeurs très différentes. Cependant, nous avons constaté qu’en moyenne, les fondateurs sont enclins à reproduire la culture de leur ancien employeur dans leur nouvelle entreprise, qu’ils en soient conscients ou non.
L’histoire de Yuan semble emblématique car elle combine les préjugés que beaucoup de gens se font aussi bien du géant de la technologie que de la start-up agile. Pourtant, nos recherches ont montré que cette distinction n’est en fait pas si claire.
À lire aussi : Les start-up, moins cool qu’elles n’en ont l’air
Nous avons aussi montré que plus de la moitié des fondateurs de start-ups technologiques états-uniennes ont une expérience antérieure dans une entreprise, souvent dans des géants comme Google ou Meta. La culture du travail dans ces grandes organisations n’est pas toujours aussi facile à oublier, lorsque les entrepreneurs se lancent à leur tour.
Pour notre recherche, nous avons identifié 30 items pour définir les différents types de cultures d’entreprise.
Il s’agit, par exemple, de l’équilibre entre la vie professionnelle et la vie privée, du travail d’équipe, de l’autorité, de l’innovation ou encore de la place occupée par la rémunération ou le rapport au client dans la culture… Des recherches antérieures avaient montré que les fondateurs de start-ups transfèrent des connaissances et des technologies acquises précédemment dans leur vie professionnelle. Nos recherches montrent empiriquement qu’ils en transfèrent également la culture du travail.
Trois conditions favorisant un tel transfert ont été identifiées :
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
la congruence de la culture : ce terme désigne le degré de cohérence des différents éléments qui constituent la culture de départ. Par exemple, dans notre échantillon se trouve une plateforme de services de localisation basée sur le cloud dont la culture est très cohérente. L’entreprise a trois éléments culturels très importants : elle est adaptative, orientée vers le client et exigeante. Ces éléments pointent constamment vers une culture de réactivité client. Nos données comprennent également une plateforme de vêtements de commerce électronique avec deux éléments culturels – l’orientation vers la croissance et l’équilibre entre vie professionnelle et vie privée – qui, étant mal alignés dans leurs significations, réduisent la congruence de sa culture. Nous avons constaté que plus la culture d’une organisation mère est congruente en interne – et donc, plus elle est facile à comprendre et à apprendre –, plus il est probable que les fondateurs transfèrent ses éléments à leurs nouvelles entreprises ;
la typicité de la culture : plus une organisation est atypique – c’est-à-dire plus elle se démarque des autres dans son domaine –, plus il est probable que sa culture soit transférée à la start-up. Quand la culture est atypique, les employés identifient plus facilement les éléments de cette culture et, par conséquent, s’en souviennent mieux et les intègrent davantage une fois qu’ils ont fondé leur start-up. Parce qu’une culture atypique singularise davantage une entreprise, les employés prennent davantage conscience que l’organisation les a choisis et qu’ils ont choisi d’y travailler. Cela crée un attachement cognitif chez l’employé envers l’organisation, qui va aussi augmenter la façon dont il intègre sa culture.
Dans notre étude, « l’atypicité » culturelle de chaque start-up a été mesurée en calculant les distances culturelles entre toutes les organisations d’une même catégorie de produits pour une année donnée. Si les fondateurs de start-ups sont souvent persuadés que leur culture d’entreprise est unique en son genre, nous avons constaté que ce n’était pas toujours le cas. Les fondateurs ont tendance à reproduire la culture de leurs anciens employeurs parce qu’ils sont habitués à cette façon de travailler.
De nombreux étudiants me disent qu’ils sont attirés par des environnements de travail plus créatifs et innovants, ce qu’ils associent souvent aux start-ups plutôt qu’aux entreprises traditionnelles et établies. Mais nos recherches suggèrent que cette perception pourrait ne pas être tout à fait exacte.
De même, les demandeurs d’emploi à la recherche de cultures uniques ou avant-gardistes pourront être surpris d’apprendre que les environnements des start-ups ressemblent plus souvent qu’on ne le dit à ceux des grandes entreprises technologiques.
Et, pour les fondateurs, notamment ceux qui ont quitté leurs postes précédents en raison de cultures d’entreprise frustrantes, les résultats de cette recherche peuvent être un signal d’alarme, pour qu’ils prennent conscience d’à quel point il est facile de recréer involontairement les environnements qu’ils avaient voulu quitter et ne pas reproduire.
Yeonsin Ahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 12:59
Dennys Eduardo Rossetto, Associate Professor of Global Innovation and Entrepreneurship, SKEMA Business School
Quelles sont les questions à se poser avant de débuter un programme d’innovation sociale ? Comment procéder ? Avec qui ? Autant d'interrogations auxquelles répond cet article.
La pandémie de Covid-19 a mis en lumière les défis sans précédent des systèmes de santé du monde entier et, en corollaire, leurs innovations. Parmi elles, le Nasa ventilator project. Ces respirateurs à faible coût sont produits en seulement trente-sept jours, avec une licence de production disponible dans le monde entier.
Cette invention illustre le pouvoir de l’innovation frugale. Elle pourrait être définie comme « la capacité à faire plus avec moins », afin d’apporter une valeur essentielle dans un monde où les limites planétaires sont dépassées. Pour les entreprises, c’est un moyen de rester compétitives et de prospérer dans un environnement aux ressources limitées. L’innovation frugale s’étend à des groupes de clients non desservis, tout en garantissant une « excellence abordable » ; ce qui ne signifie pas nécessairement des produits bon marché, mais des produits qui offrent une valeur ajoutée.
L’innovation frugale ne s’embarrasse pas de complexité inutile. Loin d’être l’apanage des marchés émergents, elle présente un intérêt à l’échelle mondiale. Pour mieux la comprendre, nous avons mené un travail de recherche en étudiant plus de 1 000 entreprises au Brésil, en Inde et aux États-Unis.
Pour les entreprises, un modèle est proposé :
Focus sur l’essentiel : évaluer la simplicité de conception de ses produits et supprimer les fonctionnalités non essentielles.
Réduction des coûts : rationaliser les processus internes pour améliorer l’efficacité.
Engagement durable et local : exploiter les ressources locales et conclure des partenariats pour créer davantage de valeur ajoutée.
Mettre l’accent sur l’essentiel, en enlevant les fonctionnements non indispensables, est la clé de l’innovation frugale. En fournissant des solutions fiables qui répondent efficacement à des besoins primaires, les entreprises parviennent à augmenter la satisfaction des clients.
Par exemple, la voiture Tata Nano offrait un moyen de locomotion simple mais efficace à 1 500 euros. Initialement conçue comme un véhicule abordable pour le marché indien, elle a démontré son intérêt dans les pays développés, avec les enjeux de durabilité et de réduction des coûts.
Pourtant, la Tata Nano a été un échec commercial dans les pays développés. Pourquoi ?
Essentiellement à cause des perceptions négatives héritées de son image de « voiture la moins chère ». Ce positionnement a fait douter les consommateurs de sa qualité, sans compter le statut social peu flatteur associé. Des rapports ont fait état de problèmes de sécurité et dissuadé les acheteurs potentiels. Après une baisse des ventes, sa production a été arrêtée.
La réduction des coûts permet de conserver les fonctionnalités essentielles, tout en optimisant l’utilisation des ressources et en minimisant les dépenses. Elle passe par la rationalisation des processus et l’exploitation des matériaux locaux.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
En Inde, la jambe de Jaipur est une prothèse à 50 euros conçue à partir de matériaux disponibles localement, notamment du plastique. L’objectif : devenir accessible aux amputés à faibles revenus, dans un pays aux 10 millions de personnes vivant avec une infirmité.
Autre enjeu, celui des électrocardiogrammes (ECG) au pays de Gandhi. L’entreprise GE Healthcare a créé un appareil portable ECG à bas prix, le Max 400. Au lieu de concevoir une nouvelle imprimante à partir de zéro, l’équipe Recherche & développement (R&D) a adapté une imprimante déjà utilisée dans les bus pour imprimer les tickets. Le pari est réussi. Le produit permet de proposer un diagnostic fiable, pour un coût modeste, et de facto rendre la santé plus abordable.
Toutefois, si les coûts sont réduits au détriment des fonctionnalités essentielles ou de la qualité, l’innovation frugale peut conduire à des produits de qualité médiocre.
L’enjeu ? Trouver un équilibre entre la réduction des coûts et la fiabilité.
L’innovation frugale vise également à s’appuyer sur les ressources, les populations et les spécificités locales.
Au Brésil, la marque de cosmétiques Natura a su s’adapter en se tournant vers les matières premières locales et les populations locales. Le groupe est à la 4e place du secteur derrière le Français L’Oréal, l’Américain Procter&Gamble et l’Anglo-Néerlandais Unilever. L’entreprise travaille notamment avec plus 4 000 familles de fournisseurs, en évitant les intermédiaires. Elle compose certains de ses produits avec l’ucuuba, le fruit d’un arbre amazonien connu sous le nom de muscadier fou (Virola surinamensis).
Adopter l’innovation frugale renforce donc la résilience et la capacité d’adaptation des organisations dans n’importe quel pays du monde.
Les managers qui souhaiteraient miser sur l’innovation frugale doivent, avant toute chose, évaluer les ressources de leur entreprise. Pour ce faire, il faut se poser les questions suivantes : la simplicité de conception est-elle une priorité de votre entreprise ? Vos processus sont-ils rationalisés en vue de réduire les déchets ? Exploitez-vous les ressources locales efficacement ?
En adoptant, par exemple, des listes de vérification qui passent en revue les fonctionnalités essentielles, la rentabilité et les possibilités de collaboration, les managers peuvent identifier les domaines à améliorer et optimiser le déploiement des ressources…
En somme, l’innovation frugale ne se limite pas à une stratégie économique ; elle représente une voie d’avenir pour répondre aux grands défis sociaux et environnementaux, en conciliant efficacité, inclusion et durabilité.
Dennys Eduardo Rossetto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.04.2025 à 17:21
Emmanuel Hirsch, Professeur émérite d'éthique médicale, Université Paris-Saclay
Le 27 mai 2025, le suffrage des députés sera sollicité pour deux propositions de lois relatives à la fin de vie : l’une en faveur de l’euthanasie et du suicide assisté, l’autre à propos des soins palliatifs et d’accompagnement. Retour sur dix points de vigilance éthique à prendre en compte durant les débats.
Au cours de son audition le 2 avril 2025 par la commission des Affaires sociales de l’Assemblée nationale, le président du Conseil national de l’ordre des médecins s’est dit favorable à ce que la fonction du médecin puisse en certaines circonstances justifier qu’il pratique une euthanasie.
Pour respecter la personne dans ses droits et la prémunir de toute souffrance, le Code de déontologie médicale qui avait évolué, notamment en tenant compte des deux dernières lois relatives aux droits des malades en fin de vie (2005, 2016), préconisait déjà les conditions de recours à la sédation, y compris « profonde et continue maintenue jusqu’au décès ».
Il évoluera désormais du point de vue de ses principes. Le médecin n’aura pas l’autorité de contester la demande de la personne qui solliciterait son assistance pour abréger sa vie, au risque d’être poursuivi pour « délit d’entrave » s’il était amené à y faire obstacle.
La clause de conscience lui sera cependant accordée, alors que le Code de santé publique intégrera l’euthanasie et le suicide médicalement assisté aux devoirs et aux bonnes pratiques du professionnel de santé comme s’agissant d’un traitement indifférencié (qui fera l’objet d’enseignements universitaires). Toutefois, une question se pose : qu’en est-il d’une clause de conscience dès lors que la loi, avec sa transposition dans la déontologie, érige de nouvelles normes ?
Dans la loi du 4 mars 2002 relative aux droits des malades et à la qualité du système de santé, la personne peut exprimer son refus d’un traitement ou de sa poursuite. Sa volonté doit être respectée par le médecin. Son obligation est alors de l’informer des conséquences de sa décision et de maintenir la relation médicale selon ce que la personne souhaite.
Désormais, le refus de soin pourrait être accompagné de l’obligation impartie au médecin de donner suite à une demande de mort provoquée, ne serait-ce qu’en indiquant un confrère susceptible de la satisfaire si lui-même s’y refuse (une liste des médecins pratiquant l’acte légal devrait dans ce cas être établie). L’engagement du soin est dès lors doté d’une autre signification.
L’avis n°1 du Collectif Démocratie, éthique et solidarités, publié le 3 avril 2025, présente une analyse détaillée des impacts de la proposition de loi relative à la fin de vie rédigée notamment par des universitaires, des professionnels, des personnes malades et des membres représentatifs de la société civile.
La collégialité s’est imposée dans le processus décisionnel notamment d’arrêt et de limitation de traitements actifs en réanimation, d’un soin estimé disproportionné ou comme relevant d’une obstination déraisonnable, ainsi que dans l’indication d’une sédation profonde et continue maintenue jusqu’au décès.
Qu’en sera-t-il de ce dispositif d’examen contradictoire d’une demande de mort médicalisée qui a priori devra être considérée recevable dès lors que la personne invoque une souffrance insupportable, sans du reste être contrainte de la formaliser par écrit ?
Qu’en sera-t-il de la pertinence des éléments d’arbitrage de la décision intervenant sur un temps limité à 15 jours, sans recours systématique aux éclairages d’un psychiatre et sans validation par un magistrat, ne serait-ce que du respect des formes (l’avis n° 63 du Comité consultatif national d’éthique énonçait que « le juge resterait bien entendu maître de la décision [« d’exception d’euthanasie »]) ? Sur ce point, les maladies mentales justifient une attention spécifique, pas seulement du point de vue de la faculté de jugement de la personne, mais aussi de l’accessibilité au suivi et aux traitements adaptés.
Qu’en sera-t-il des modalités de l’exercice individuel d’une délibération autorisant l’acte létal approuvé en conscience par un médecin ? Quelles compétences et quelle expertise mobilisera-t-il, à la suite de quelle formation et sous quel contrôle ?
Les directives anticipées pourraient porter sur l’expression d’une demande d’euthanasie ou de suicide assisté. Déjà si peu rédigées, tant anticiper s’avère délicat, ces directives de mort anticipées assigneront la personne au dilemme d’avoir à se prononcer sur un choix qui jusqu’à présent ne s’imposait pas à elle.
Qu’en sera-t-il du respect de la volonté de la personne si son autonomie décisionnelle et sa capacité d’expression sont compromises au terme de sa vie ? Comment un soignant pourra-t-il encore adopter la juste position entre devoir de protection d’une personne et obligation de s’en dégager dès lors qu’est exprimée la volonté d’une mort provoquée ? Ne conviendrait-il pas d’assurer un accompagnement approprié à la rédaction d’une demande d’euthanasie, bénéficiant d’informations personnalisées ?
La fonction de la personne de confiance susceptible d’être consultée à propos d’un acte létal sera-t-elle requalifiée ? N’aurait-on pas à reconnaître une position aux proches de la personne qui, dans la rédaction actuelle de la proposition de loi, sont exclus de toute forme de consultation dans le processus décisionnel ? Quel en sera l’impact sur leur propre souffrance et leur deuil ?
Si s’imposait le modèle d’une mort digne, parce que maîtrisée, indolore et médicalisée, comprendra-t-on encore demain la volonté de vivre sa vie y compris en des circonstances considérées par certains « indignes d’être vécues » ?
Un neurologue, un psychiatre ou un cancérologue devra-t-il d’emblée intégrer à la planification concertée des soins, l’option de l’acte létal ? Conviendra-t-il d’anticiper cette éventualité dès l’annonce de la maladie, ou alors en situation d’aggravation posant comme inévitable une mort à échéance rapprochée ?
Pour éviter tout risque de discrimination, les règles de bioéthique interdisent d’établir la liste des affections « d’une particulière gravité ». Dès lors ne serait-il pas pernicieux d’énoncer des repères indicatifs d’un pronostic vital en phase avancée ou terminale ?
Cet échelonnage n’inciterait-il pas à justifier le renoncement de la poursuite d’un traitement, voire d’un soin, dès lors que leurs coûts induits en fin de vie pourraient être estimés disproportionnés au regard de leur intérêt pour la personne, ou du point de vue de la justice sociale ou intergénérationnelle ?
Le pronostic vital engagé en phase avancée ou terminale est l’un des cinq critères déterminant l’éligibilité de la demande d’euthanasie ou de suicide assisté formulée par la personne.
Rappelons que cette dernière devra « être âgée d’au moins dix-huit ans, de nationalité française ou résidant de façon stable ou régulière en France », « présenter une souffrance physique ou psychologique liée à cette affection, qui est soit réfractaire aux traitements, soit insupportable [selon elle] lorsqu’elle a choisi de ne pas recevoir ou d’arrêter de recevoir un traitement », enfin « être apte à manifester sa volonté de façon libre et éclairée. »
Au cours de l’audition par la commission des Affaires sociales de l’Assemblée nationale le 2 avril 2025, le président du comité d’éthique de l’Académie nationale de médecine a cependant considéré que ce pronostic vital devait être posé sur « la phase avancée et terminale, non de manière alternative ».
Nombre de personnes atteintes de maladies chroniques bénéficient en effet aujourd’hui de traitements permettant une qualité de vie dans la durée, y compris en phase avancée d’évolution de leur pathologie. Certaines personnes atteintes d’une maladie au pronostic péjoratif défient les prédictions néfastes, alors que d’autres ne survivent pas alors que leur pronostic vital ne semblait pas engagé.
Une distinction explicite et incontestable doit donc circonscrire le strict cadre d’application, en derniers recours, d’une loi favorable à la mort provoquée. C’est-à-dire si les souffrances sont incontrôlables, et que l’échéance imminente du décès peut être anticipée selon des éléments de prévisibilité probants (ce qu’à ce jour aucune donnée scientifique ne permet d’affirmer avec certitude). La Haute Autorité de santé doit rendre un avis à ce propos. Si les souffrances s’avèrent « réfractaires » à la suite de l’interruption des traitements sur décision de la personne, la justification de l’acte létal n’est-elle pas relativisée ?
En situation de décision complexe, la culture palliative s’est imposée pour étayer les arbitrages et proposer des lignes de conduite lorsque les circonstances ne permettent plus de poursuivre une stratégie thérapeutique à visée curative, sans abolir pour autant l’accès à d’autres modalités d’accompagnement soignant.
Il est évident que le dispositif d’accès de tous aux soins palliatifs ou même aux consultations douleur est d’une complexité organisationnelle et d’un coût sans rapport avec la décision d’accéder à l’usage d’une substance létale.
Au moment où le service public hospitalier subit une crise qui entrave les politiques de prévention (y compris du suicide), le recours aux traitements et au suivi médical routiniers, que le secteur médico-social est, pour nombre d’établissements, en situation de fragilité économique, que les professionnels sont démotivés par des annonces paradoxales qui les inquiètent au point d’envisager de renoncer à poursuivre leur carrière, est-il crédible d’affirmer que chaque citoyen bénéficiera de la possibilité d’exercer son droit optionnel de décider librement entre fin de vie accompagnée par des soins palliatifs et mort programmée ?
Quels encadrements assurent aujourd’hui l’expression d’un choix autonome, dans un contexte de pratiques dégradées imposant des arbitrages aléatoires ?
Notre impréparation aux circonstances humaines de la maladie chronique, aux situations de handicap et de dépendance induit des maltraitances. Les conditions du « mal mourir » et du « long mourir », tout particulièrement en établissement, influent sur la revendication d’un « bien mourir » dans un cadre conforme à de justes aspirations à la dignité.
Doit-on pour autant se résigner à admettre, sans y apporter les évolutions indispensables, le constat de carences institutionnalisées à l’égard des plus vulnérables, y compris au domicile qui parfois ajoute à l’isolement des maltraitances y compris dans les négligences de l’accompagnement ?
Consacre-t-on l’attention qui s’impose aux causes des injustices socio-économiques qui s’accentuent dans le parcours de maladie, du vieillissement ou en situation de handicap ? Les personnes des plus vulnérables dans notre société bénéficient-elles d’un environnement qui les prémunisse du risque d’être, plus que d’autres, et sans affirmer un libre-choix, soumises aux procédures d’une anticipation de la mort faute d’être en mesure d’assumer de manière autonome leur souveraineté sur leur vie ?
Que certains médecins considèrent en conscience leur engagement jusque dans la responsabilité de consentir à abréger la vie d’une personne sur demande, justifie que des repères soient posés. En effet, les équivoques risquent d’être préjudiciables à l’intérêt direct de la personne malade par nature en situation de haute vulnérabilité.
De même, la représentation des valeurs attachées à la tradition et à la culture médicale pourrait être entachée de soupçons dès lors que l’évolution des pratiques serait comprise comme de nature à relativiser la rigueur des engagements. Le dernier acte de soin doit être un soin.
L’aide à mourir serait légitimée par l’État comme un acte d’ultime compassion, distinct d’une pratique soignante, en cas de circonstances exceptionnelles de souffrances réfractaires défiant les capacités d’assurer la continuité d’un soin consenti par la personne.
Dans sa version actuelle, l’article 38 du Code de déontologie médicale précise que
« le médecin doit accompagner le mourant jusqu’à ses derniers moments, assurer par des soins et mesures appropriés la qualité d’une vie qui prend fin, sauvegarder la dignité du malade et réconforter son entourage. Il n’a pas le droit de provoquer délibérément la mort. »
Comment repenser, renouveler et énoncer l’éthique médicale, dès lors que le Code de santé publique transposera une demande sociétale de mort médicalement provoquée, bouleversant un des principes essentiels de la déontologie, celui de ne pas nuire ?
Des recherches scientifiques s’imposent à propos de l’anticipation de l’impact des pratiques légalisées de l’euthanasie et du suicide assisté sur l’éthique des pratiques médicales et soignantes. Elles devront être produites dans l’évaluation des conditions d’application de la loi si elle est votée et concerneraient :
l’application d’une législation par nature normative à des circonstances individuelles singulières ;
les critères mobilisés dans le processus décisionnel, l’analyse des procédures collégiales et les critères d’arbitrage ;
les dilemmes décisionnels au sein d’une équipe soignante ;
les dispositifs de protection des personnes plus vulnérables du fait notamment de leur incapacité décisionnelle ou des conséquences de maladies mentales ;
la relation entre les compétences au sein d’une équipe en termes de prévention de la douleur, de soins de support, de soins palliatifs et l’incidence des demandes de mort provoquée ;
la relation de confiance entre la personne malade, ses proches et l’équipe soignante :
les risques de discriminations accentués par des facteurs socioculturels ou socio-économiques ;
les modalités de l’engagement thérapeutique dans le contexte des thérapeutiques innovantes coûteuses.
La loi relative à la fin de vie conclura un processus en cinq étapes (1999, 2002, 2005, 2016) débuté par le vote de la loi visant à garantir de droit à l’accès aux soins palliatifs. À la suite d’un processus d’élaboration mené sur plus de vingt-cinq ans que le législateur pourrait envisager le dernier acte de libéralisation de l’accès à la mort médicalement provoquée.
S’il en était ainsi, et sans être certain à ce jour du contenu du texte de loi sur lequel le Parlement se prononcera, la loyauté contraint cependant à admettre que les pays qui ont légalisé l’euthanasie ne sont pas parvenus à maintenir dans la durée les règles d’encadrement qu’ils s’étaient initialement fixées. Il serait sage de reconnaître que la France ne fera pas mieux qu’eux.
Les critères restrictifs énoncés et parfois discutés ne résisteront pas mieux à l’épreuve du temps que ceux érigés comme repères affirmés intangibles depuis 1994 dans le cadre des lois relatives à la bioéthique. L’acceptabilité démocratique des pratiques médicalisées de l’euthanasie et du suicide assisté dépendra donc :
(1) de notre capacité à en contrôler la mise en œuvre dans un cadre indépendant, fixant les règles d’une évaluation publique renouvelée à échéance de trois ans et adossée à des études scientifiques pluridisciplinaires ;
(2) d’une procédure de décision collégiale rigoureusement définie, instruite et validée a priori par un magistrat ;
(3) de la proposition d’un dispositif dédié pour accompagner la personne dans sa décision en amont et en aval de la sollicitation d’un médecin, avec, selon son choix, la faculté d’y associer un proche ;
(4) d’une évaluation des conséquences péjoratives, selon de critères établis a priori, de l’application de cette loi, imposant si nécessaire un moratoire afin d’apporter les correctifs qui s’imposeraient ;
(5) d’un service public de santé fonctionnel, disposant des compétences et des moyens requis, en mesure de favoriser l’exercice d’un choix délibéré d’accès aux soins palliatifs ou de mort anticipée selon les critères établis par le législateur, et non par défaut, sans exposer la personne en situation de vulnérabilité ou de précarité à un risque de discrimination ;
(6) d’un dispositif adapté aux conditions de la pratique d’un acte létal à domicile, justifiant la disponibilité de professionnels dans un contexte de pénurie, et des règles de contrôle spécifiques de la validation de la procédure ;
(7) de leurs conséquences sur la fonction même d’un établissement de santé (notamment spécialisé en psychiatrie et dans la prévention du suicide) ou du médico-social (notamment accueillant des personnes en situation de handicaps), ainsi que sur les valeurs engagées et la cohésion d’une équipe opposée à intervenir. À ce propos le recours à une clause de conscience « collective » est évoqué.
La règle de droit, si elle intégrait dans les prochains mois la mort médicalement provoquée, devra être adossée à l’exercice inconditionnel de l’esprit de discernement, ainsi qu’à l’exigence d’une approche personnalisée et relationnelle attachée au respect des valeurs d’humanité et aux droits fondamentaux de la personne. Assigné à la réflexion et à la démarche à la fois politique, éthique et juridique, ce devoir est aussi un défi.
Pour aller plus loin :
- Emmanuel Hirsch est l’auteur des ouvrages « Fins de la vie. Les devoirs d’une démocratie », collectif, et « Anatomie de la bienveillance. Réinventer une éthique de l’hospitalité », coll. éditions du Cerf, à paraître en mai 2025.
Emmanuel Hirsch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.04.2025 à 10:42
Charlotte Emlinger, Économiste, CEPII
Kevin Lefebvre, Économiste, CEPII
Les sanctions promulguées à l’encontre de la Russie depuis février 2022 sont souvent contournées. Pour autant, elles n’ont pas été inefficaces car la Russie est contrainte de payer bien plus cher pour ses importations, notamment celles de biens utilisés sur le champ de bataille.
L’invasion de l’Ukraine par la Russie en 2022 a conduit les pays occidentaux à imposer à Moscou un ensemble de sanctions. L’Union européenne (UE) a ainsi restreint ses exportations vers la Russie pour plus de 2 000 produits sur les 4 646 exportés avant la guerre. Ces sanctions touchent des biens de consommation finale, des produits intermédiaires et des équipements avancés. Parmi ces derniers, 20 % sont des biens à double usage, ayant des applications à la fois civiles et militaires, comme les hélicoptères ou les équipements de communication radio.
Après le début de la guerre et l’imposition des sanctions, les importations russes ont connu une baisse de 16 %. Cette réduction masque une chute de 64 % des importations en provenance de pays imposant des sanctions et, dans le même temps, une augmentation de 58 % des importations en provenance des autres pays.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Dans ce contexte, la présence sur le champ de bataille de drones et de missiles russes contenant des composants occidentaux, tels que des processeurs, des cartes mémoires ou des amplificateurs, pose la question de l’efficacité des sanctions. Malgré les restrictions, la Russie a en effet continué à s’approvisionner en produits sanctionnés, et leurs importations ont même augmenté de 34 % grâce à une diversion du commerce (Graphique 1), la Chine remplaçant largement l’UE comme principal fournisseur de ces produits (Graphique 2).
Ainsi, un tiers des produits sanctionnés par l’UE ont été entièrement compensés par d’autres fournisseurs, cette proportion atteignant même deux tiers pour la liste restreinte des produits à double usage et des technologies avancées exploitées par l’armée russe sur le champ de bataille en Ukraine.
À titre d’exemple, alors que l’UE était le principal fournisseur de radios de communication importées par la Russie en janvier 2021, pour un montant de 3,4 millions de dollars, contre 0,66 million de dollars pour les importations en provenance de Chine, la chute des exportations de l’UE à partir de 2022 a largement été compensée par l’explosion des exportations chinoises sur cette période (Graphique 3).
Si le contournement des sanctions a permis à la Russie de continuer à se procurer des biens critiques, cela ne signifie pas pour autant que les sanctions ont été inefficaces. Car ce contournement des sanctions occidentales a un coût : depuis la guerre (février 2022), le prix des importations russes (toutes origines confondues) a augmenté de 13 % de plus en moyenne que celui des importations du reste du monde (à produits et origines identiques), mais de 22 % en provenance des pays qui n’ont pas imposé de sanctions et de 122 % pour les produits stratégiques.
Ce renchérissement des importations russes provient en partie de la hausse des coûts de transport et d’assurance vers la Russie - de 3 % de plus qu’ailleurs depuis la guerre - du fait des sanctions commerciales et financières. Elle est néanmoins loin d’être le seul facteur explicatif de l’inflation à l’entrée du marché russe.
À la suite des restrictions commerciales, certains pays comme la Turquie ou l’Arménie ont servi d’intermédiaires pour acheminer des biens sanctionnés vers la Russie. Ces réexportations, loin d’être négligeables pour certains produits stratégiques comme les radios de communication (Graphique 5), ne constituent pourtant pas, d’après notre récente étude, un facteur majeur de la hausse des prix observée à l’entrée du marché russe.
Reste l’augmentation des marges des exportateurs : les prix des importations russes, nets des coûts de fret, ont en effet crû de 9 % de plus qu’ailleurs en moyenne depuis la guerre, avec une augmentation particulièrement marquée - de 45 % - pour les produits stratégiques. Les fournisseurs de la Russie ont ainsi pu profiter de la réduction de la concurrence sur le marché russe et exploiter sa dépendance pour augmenter leurs marges.
Par ailleurs, il y a toutes les raisons de penser que les nouveaux fournisseurs exportent des produits de moindre qualité, puisque ces origines étaient, avant la guerre, en moyenne moins chères que celles des pays qui ont imposé des sanctions. La Russie importait peu depuis ces pays avant 2022, ce qui suggère que le changement de fournisseur est une option de second choix.
Les restrictions occidentales à l’exportation ont donc atteint un de leurs objectifs en rendant l’approvisionnement de la Russie en biens stratégiques non seulement plus difficile et plus coûteux, mais aussi de moindre qualité.
Alors que les performances de l’économie russe (faible déficit public, faible dette publique, excédent commercial…) défient les prédictions, l’inflation se stabilise à un haut niveau, dépassant 10 % début 2025. Si la hausse des dépenses militaires et la pénurie de main-d’œuvre expliquent une partie de cette augmentation, les sanctions commerciales, à travers leur effet sur le prix des importations, contribuent également à nourrir cette hausse du niveau général des prix.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.04.2025 à 10:42
Maxime Parola, Doctorant en Art, Université Côte d’Azur
Le réalisateur David Cronenberg revient dans les salles, le 30 avril 2025, avec un nouveau long-métrage, les Linceuls, mettant en scène Diane Kruger et Vincent Cassel. Ce 23ᵉ film se distinguera-t-il du reste de son oeuvre ? Celle-ci est jusqu'ici marquée par un schéma narratif récurrent. Analyse.
Maître de la métamorphose et des dérives corporelles, David Cronenberg a sculpté une œuvre aussi dérangeante qu’influente, redéfinissant les frontières du cinéma d’horreur. Si sa filmographie est largement connue pour sa cohérence thématique et sa diversité esthétique, peu d’auteurs ont pourtant souligné son étonnante homogénéité narrative.
Sur les 22 longs-métrages de David Cronenberg jusqu’ici sortis, 19 partagent une structure quasi identique (les trois autres étant The Brood, Fast Company et le dernier Crimes of The Future). Videodrome (1983) est, dans ce sens, un cas intéressant, car sa structure peut servir d’exemple matriciel à l’ensemble des autres œuvres de Cronenberg.
Dans Videodrome, nous suivons l’histoire de Max, directeur d’une chaîne pornographique. Il noue une relation avec Nicki, une jeune femme avec qui il expérimente une sexualité nouvelle pour lui. Il découvre par ailleurs une nouvelle émission, Videodrome, qui l’expose à son insu à un signal vidéo capable de transformer son corps. Menant l’enquête sur cette émission et sur ses symptômes, il se retrouve au milieu d’un conflit entre deux groupes : la « nouvelle chair », menée par le professeur O’Blivion et sa fille Bianca ; et Videodrome, mené par Barry Convex et son complice Harlan.
Après de multiples rebondissements et transformations de son corps, Max finit par s’isoler dans une épave où Nicki lui envoie un message pour lui dire qu’il peut accéder à une « nouvelle chair » s’il accepte de se suicider, ce qu’il fait. Le film se conclut ici, mais dans une autre version du scénario, une scène supplémentaire était prévue où Max, Bianca et Nicki se retrouvaient dans le décor du programme Videodrome avec de multiples mutations, pour avoir une relation sexuelle d’un genre nouveau.
En suivant l’idée d’une trame narrative unique à l’origine de tous les films de Cronenberg, chaque œuvre serait alors une variante de cette trame, intégrant soit l’ensemble de ses éléments narratifs, soit seulement une partie. Videodrome présente un intérêt particulier, car il est, selon moi, le film le plus proche de cette trame narrative originelle.
Cette trame raconte l’histoire d’un homme sans enfant, engagé dans une relation de séduction à un moment ou un autre. Il rencontre une figure masculine titulaire d’un savoir sur le corps (souvent un médecin, mais pas toujours). Ce savoir lui est transmis symboliquement par le biais d’un intermédiaire qui peut être un objet, une créature, un savoir, voire une idée. Ce savoir modifie ensuite le corps du héros, littéralement dans le premier tiers de l’œuvre de Cronenberg, ou symboliquement dans les films suivants. À l’aide de son nouveau corps, le héros essaie d’accéder à un stade d’évolution inédit où serait possible un nouveau type de rapport sexuel permettant une fusion totale. La situation tourne inévitablement au vinaigre, entraînant le plus souvent la mort du héros ou, a minima, une fin profondément tragique.
On retrouve cette même structure narrative à l’origine de toutes les histoires de Cronenberg.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Par exemple, dans Cosmopolis, le personnage d’Eric voit son corps symbolique, incarné par sa voiture, se transformer à partir du moment où un médecin lui diagnostique une prostate asymétrique. Cette imperfection insupportable sur laquelle le médecin refuse d’agir provoque l’effondrement moral et physique du personnage, jusqu’à sa confrontation avec son assassin, qui lui avoue lui aussi avoir une prostate asymétrique. Il rejoint ainsi la catégorie des « frères ennemis », récurrente chez Cronenberg.
La figure archétypique du sachant en tant que père symbolique à la fois positif et négatif, incarnée par les personnages d’O’Blivion et de Convex dans Videodrome, est également particulièrement bien représentée dans Scanners. Dans ce long-métrage de 1981, le médecin qui aide le héros se révèle être le savant fou qui a créé sa maladie. Il est aussi le père du héros et de l’antagoniste principal. On voit ici comment la figure du sachant est dédoublée entre un père protecteur (perçu comme tel par le héros) et un père prédateur (perçu comme tel par le frère ennemi du héros).
Le psychanalyste Jacques Lacan a proposé plusieurs concepts qui peuvent être utiles pour donner une cohérence à l’œuvre de Cronenberg.
La quête de fusion chez ses personnages peut être rapprochée à « l’impossible du rapport sexuel » chez Lacan. Ce dernier explique qu’il existe une angoisse universelle due à l’impossibilité de fusionner avec l’autre : le rapport mathématique 1+1 ne fait jamais 1. Les transformations corporelles chez Cronenberg sont alors des tentatives pour contourner cet impossible au travers d’un corps nouveau permettant d’accéder à une jouissance totale qui ne serait limitée par aucun impossible.
Un autre concept lacanien peut permettre de mieux appréhender ces mutations : le corps symbolique. Il s’agit de la partie du corps homogène à un langage dont l’unité est le signifiant. Cronenberg explique par exemple que, dans Videodrome, le pistolet qui fusionne avec la main est la représentation à l’écran d’un jeu de mots : le signifiant « arme de poing » devient un poing-arme dans le film. Pour Cronenberg, jouer sur les mots revient à jouer sur le corps. David Roche le disait déjà très bien en partant du film Shivers (1975), où il identifiait la créature comme étant elle-même un signifiant surgissant de la bouche.
Si l’on reprend Videodrome avec ces idées, le film raconte l’histoire d’un homme dont le corps symbolique va être transformé par un signifiant incarné dans le film par le « signal Videodrome ». Les transformations vont lui permettre de développer de nouveaux organes sexuels (le signifiant poing-arme est assimilé au signifiant phallus) qui doivent lui permettre de réussir un rapport sexuel au sens de Lacan, et ainsi accéder à la fusion avec ses partenaires.
Mais l’impossible n’est pas montrable et, pour Cronenberg, il semble plus fort de laisser le spectateur face à un écran noir pour le confronter à son propre rapport à l’angoisse. On retrouve la même idée très littéralement à la fin de The Fly (1986), où le personnage tente de physiquement fusionner avec sa femme enceinte, mais échoue in extremis.
Si on reste dans le champ de la psychanalyse lacanienne, on peut interpréter la trame narrative commune à une sorte de remake du mythe freudien de la horde primitive. Freud raconte que, à l’origine des temps, il y avait un père qui possédait toutes les femmes, car il possédait un signifiant particulier : le phallus. Les fils du père finirent par en avoir marre. Ils le tuèrent, puis le mangèrent pour s’approprier le phallus. Mais afin que ne se reproduise pas l’hégémonie du père et que chacun se soumette à une loi commune, ils érigèrent une statue en son nom. Lacan revient sur ce mythe en soulignant que, derrière le prétendu pouvoir du père, se trouve surtout la croyance des fils en ce pouvoir.
Cette question de la croyance est prédominante dans les personnages de Cronenberg qui semblent adhérer avec une grande conviction au savoir du père, envers et contre toutes conséquences. Ceux-ci se jettent à corps perdu dans leur quête de fusion jusqu’à des fins systématiquement tragiques.
La seule issue possible pour le héros cronenbergien semble être le renoncement à la fusion et, donc, à la jouissance totale qu’elle pourrait permettre. Mais un seul fera ce choix et évitera ainsi une fin tragique. Il s’agit de Joey/Tom dans A History of Violence (2005) qui fait le choix de renoncer à la toute jouissance de « Joey » jusqu’en s’en laver symboliquement les mains afin de retrouver la vie de « Tom ». On peut noter qu’il est aussi le seul personnage de Cronenberg à avoir des enfants (The Brood (1979) est, pour moi, à part). Cronenberg semble croire que seule la paternité peut concurrencer pour ces personnages le fantasme d’une jouissance totale.
Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.04.2025 à 10:41
Jean-Marc Figuet, Professeur d'économie, Université de Bordeaux
Lancée trois jours avant l’investiture de Donald Trump, la crypto $TRUMP, sans utilité concrète, a pourtant connu une flambée spectaculaire. Comment expliquer ce phénomène ?
Et si la notoriété politique devenait une monnaie sonnante et trébuchante ? C’est le pari, provocateur et potentiellement lucratif, qu’a fait Donald Trump en lançant sa cryptomonnaie, sobrement baptisée $TRUMP, le 17 janvier 2025, soit trois jours avant son retour officiel à la Maison Blanche.
Commercialisé sur la blockchain Solana, ce memecoin a connu une envolée fulgurante. Introduit à environ 8 dollars, il a atteint un sommet à 77,24 $, le 19 janvier 2025, portant brièvement sa capitalisation à plus de 27 milliards de dollars. Mais cette dynamique s’est rapidement essoufflée. Après s’être stabilisé autour de 8,46 $, début avril, le cours du jeton est retombé à environ 7,50 $, le 17 avril.
Derrière ce jeton numérique, sans utilité réelle, se cache un phénomène bien connu des économistes : celui de la spéculation, nourrie par la croyance collective, les effets de réseau et le charisme d’un homme politique. Une bulle peut émerger même dans un marché parfaitement rationnel), dès lors que les investisseurs anticipent une hausse continue du prix. Abreu et Brunnermeier prolongent cette analyse en montrant comment les comportements stratégiques – chacun espérant sortir avant les autres – peuvent entretenir artificiellement une valorisation déconnectée des fondamentaux.
Dans une perspective historique, toutes les bulles, des tulipes hollandaises au bitcoin, partagent un même noyau. Celui d’un récit séduisant, puis d’une rupture brutale.
Le $TRUMP n’est pas seulement un actif volatil, c’est aussi le révélateur d’une frontière de plus en plus poreuse entre capital politique et capital financier. Dès lors, peut-on encore parler de simple mode cryptomonnaie ? ou s’agit-il du symptôme d’une économie au sein de laquelle l’influence personnelle devient un levier monétaire ?
En tant qu’économiste, je propose ici une lecture critique de ce phénomène inédit à la croisée des marchés, des symboles et du pouvoir.
Dans l’univers des cryptomonnaies, on distingue habituellement deux grandes familles. D’un côté, les projets fondés sur une innovation technologique ou financière, tels qu’Ethereum, les stablecoins ou les protocoles DeFI. De l’autre, les memecoins, ces jetons sans utilité pratique. Dotés d’un potentiel spéculatif fort, ils sont souvent alimentés par une communauté active ou une figure emblématique. $TRUMP s’inscrit pleinement dans cette seconde catégorie. Une distinction qui oppose les crypto-actifs à visée fonctionnelle (utility tokens) à ceux sans valeur d’usage et à finalité purement spéculative, comme les memecoins.
Cette dissociation entre valeur d’usage et valorisation de marché n’est pas propre au $TRUMP. Elle a été observée dès les premiers travaux académiques sur le bitcoin, qui montrent qu’il peine à remplir les fonctions économiques classiques de la monnaie. Comme le rappelle l’économiste Figuet :
« Le bitcoin ne peut pas être considéré comme une monnaie : l’absence de valeur intrinsèque et de cours légal se traduit par une forte volatilité qui ne lui permet pas de remplir les fonctions monétaires traditionnelles. »
Le $TRUMP pousse cette logique encore plus loin, en supprimant toute dimension technique ou transactionnelle au profit d’un pur récit spéculatif.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
À l’instar de Dogecoin ou Shiba Inu, le $TRUMP n’offre aucun service concret, ne repose sur aucun protocole technique particulier, et ne donne pas accès à des produits ou droits. Sa seule valeur repose sur son image : celle d’un président controversé, au fort pouvoir de mobilisation, qui transforme sa popularité en actif financier. Cette absence de « fondamentaux » ne l’a pas empêché de connaître une valorisation (brièvement) fulgurante. Dans un marché où les attentes sont autoréalisatrices, la valeur d’un actif peut alors naître de la seule croyance qu’il prendra de la valeur. Si suffisamment de personnes pensent que le $TRUMP montera, elles achètent, faisant ainsi monter le prix et confortant cette croyance.
Ce phénomène n’est pas nouveau. L’économiste Shiller a montré que les bulles spéculatives ne reposent pas uniquement sur des données économiques, mais aussi sur des croyances partagées, amplifiées par les médias et par les récits collectifs. Il approfondit cette idée en introduisant le concept d’economic narratives, ces histoires simples, virales et émotionnelles qui façonnent nos décisions économiques. Le récit du $TRUMP en est un exemple presque caricatural : un président devenu monnaie, un jeton comme déclaration politique, un actif numérique soutenu par une promesse implicite de pouvoir.
Le $TRUMP n’est pas un simple produit crypto. C’est un objet politique symbolique, investi d’un récit puissant et d’une forte charge émotionnelle. Et sur les marchés, parfois, cela suffit.
À la différence d’autres memecoins, le $TRUMP n’est pas né d’un simple mème internet ou d’un engouement collectif anonyme. Il est adossé à une figure politique bien réelle. Il incarne ainsi un tournant : la monétisation directe du capital politique.
En économie, on parle depuis longtemps de capital immatériel pour désigner les ressources non tangibles telles que la réputation, la visibilité ou l’image de marque. Les économistes Akerlof et Kranton ont montré que l’identité peut influencer profondément les comportements économiques, notamment lorsque des actifs sont associés à des appartenances symboliques. Dans le cas du $TRUMP, le jeton agit autant comme un instrument spéculatif que comme un marqueur d’engagement politique.
On peut également rapprocher cette logique de la brand equity. La valeur d’une marque ne tient pas uniquement à ses produits, mais aussi à l’ensemble des associations mentales qu’elle évoque. Le nom Trump, déjà décliné en produits immobiliers, alimentaires ou médiatiques, s’étend désormais au domaine des cryptomonnaies, avec pour seule promesse la persistance de l’aura présidentielle. Ce projet s’inscrit dans un écosystème plus large : NFTs à l’effigie de Trump, plateforme Truth Social, promesse d’un stablecoin patriotique ou d’un crypto Monopoly…
Cette stratégie de tokenisation de l’image politique pose une question nouvelle pour les économistes : à partir de quand la notoriété devient-elle une matière monétaire ?
Le cas du $TRUMP illustre parfaitement le fonctionnement d’un actif purement spéculatif : sans valeur d’usage, sans rendement attendu, mais dont le prix monte parce que d’autres y croient ou espèrent que d’autres y croiront. Ce phénomène repose sur un mécanisme bien connu : l’anticipation autoréalisatrice. Dans le cas du $TRUMP, ce type de comportement a été amplifié par un phénomène typique des marchés crypto : le FOMO (Fear Of Missing Out), c’est-à-dire la peur de manquer une opportunité.
À lire aussi : Le Fomo : Syndrome psychologique et outil marketing ?
Plus le prix monte, plus les acheteurs se ruent sur le jeton, de peur d’arriver trop tard. L’ascension fulgurante du prix en deux jours s’explique en grande partie par cette dynamique collective. Mais cette excitation est d’autant plus fragile que la structure du marché est déséquilibrée.
Seuls 20 % des jetons ont été initialement vendus au public, les 80 restants étant détenus par deux entités affiliées à Trump, libérés progressivement. Cette concentration crée un risque bien connu dans les marchés peu régulés : celui du pump and dump. Il s’agit d’une stratégie consistant à faire artificiellement monter un actif par effets d’annonce ou d’influence, puis à vendre massivement une fois le prix élevé, laissant les derniers entrants subir la chute.
Dans le cas du $TRUMP, aucun élément ne permet de dire qu’un tel schéma a été volontairement orchestré. Mais les conditions sont réunies : un récit viral, une offre concentrée, une bulle rapide suivie d’une chute brutale. On retrouve ici tous les ingrédients d’un actif hautement spéculatif, porté par une logique narrative et mimétique plus que par une analyse fondamentale.
Ce qui rend le $TRUMP particulièrement sensible n’est pas seulement sa dynamique spéculative. C’est aussi le fait qu’il soit directement lié à un chef d’État en exercice, à la fois émetteur indirect du jeton (via un trust familial) et acteur central du pouvoir réglementaire. Le président des États-Unis, dont les décisions influencent les orientations fiscales et financières du pays, est en position de tirer profit (même indirectement) d’un actif volatil qu’il a contribué à lancer.
Dans un système démocratique, cette situation soulève une problématique classique de conflit d’intérêts, analysée notamment par l’OCDE. Lorsqu’un détenteur d’une fonction publique peut bénéficier d’un avantage économique privé à travers ses décisions, l’intégrité de la fonction est en jeu. Dans le cas du $TRUMP, l’imbrication entre intérêts politiques et marchés financiers n’est ni théorique ni symbolique. Elle est concrète, visible, et potentiellement influente.
Ce cas invite à poser une question plus large : jusqu’où peut-on privatiser le capital symbolique du pouvoir ? Dans un monde où les frontières entre sphère publique et marchés sont de plus en plus floues, le risque est celui d’une monétisation du charisme, où la notoriété devient un actif négociable, une valeur refuge ou spéculative, selon le cycle politique.
Cette expérience inédite soulève des questions éthiques et économiques majeures, qu’aucune régulation n’encadre encore clairement. Espérons que le $TRUMP ne soit qu’un mirage, et non le prélude à une ère où l’influence politique se négocie sur les marchés financiers.
Jean-Marc Figuet a reçu des financements publics pour sa recherche.
27.04.2025 à 10:39
Kinga Morsanyi, Reader in Mathematical Cognition, Loughborough University
Carlo Tomasetto, Full Professor in Developmental and Educational Psychology, Università di Bologna
Que les parents s’impliquent dans les apprentissages de leurs enfants est en général bénéfique. Mais lorsqu’ils souffrent eux-mêmes d’anxiété mathématique, les choses se corsent. Explications.
On appelle anxiété mathématique le sentiment de tension et de peur qui surgit lorsqu’on est confronté à des chiffres ou à la nécessité d’effectuer des calculs. Il s’agit d’une variété courante de stress scolaire : selon un rapport de l’OCDE, environ 40 % des écoliers et étudiants éprouvent nervosité, impuissance ou anxiété dans les situations de la vie quotidienne où les mathématiques jouent un rôle, comme la résolution de problèmes ou les devoirs de maths.
Nous savons que l’angoisse des maths se manifeste dès les premières années d’école primaire, et qu’elle nuit à la fois aux résultats scolaires et à l’apprentissage de cette matière. Cependant, ses origines sont moins connues.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Notre nouvelle recherche, menée en collaboration entre les universités de Bologne et Trieste en Italie et Loughborough au Royaume-Uni, s’est penchée sur la question du rôle des parents dans le développement de l’anxiété mathématique chez leurs enfants.
Nous nous sommes demandé si le fait d’avoir un parent atteint d’anxiété mathématique augmentait la probabilité que l’enfant se heurte au même écueil.
Nous avons suivi 126 enfants italiens de l’âge de trois ans à l’âge de huit ans, évaluant à plusieurs reprises, durant cette période, leurs compétences en mathématiques et leur degré d’angoisse face à cette matière. Au début de cette étude, nous avons également mesuré l’angoisse des maths présente chez leurs parents.
Nous avons découvert qu’en réalité, le fait d’avoir un parent affecté d’une forte angoisse des mathématiques n’augmentait pas la probabilité que l’enfant lui-même en souffre. Résultat qui se démarque de ce qu’ont montré les recherches concernant l’anxiété en général : le fait de grandir avec un parent souffrant d’anxiété entraîne chez l’enfant une plus forte probabilité de développer un trouble anxieux.
Ce que nous avons appris, cependant, c’est que les enfants de parents atteints d’angoisse des maths avaient de moins bons résultats en mathématiques.
Au cours des années de maternelle, plus les parents souffraient d’angoisse des maths, moins les capacités élémentaires de calcul des enfants étaient élevées. Et les enfants ayant de moins bons résultats en mathématiques dans leurs premières années de scolarisation gardaient le même retard à l’âge de huit ans.
Ces découvertes sont une surprise, car on pourrait s’attendre à ce que l’influence puissante de l’école sur l’apprentissage des maths chez les enfants l’emporte sur l’influence parentale.
Nous avons découvert également que le rapport entre l’anxiété mathématique des parents et les capacités d’apprentissage mathématique des enfants restait identique lorsqu’on prenait en compte le niveau d’éducation des parents. Autrement dit, les résultats inférieurs de ces enfants en mathématiques ne pouvaient s’expliquer par le bas niveau d’éducation générale de leurs parents.
Ces découvertes apportent de la nuance à la question plus large de savoir s’il est bénéfique que les parents s’impliquent dans l’apprentissage mathématique de leurs enfants.
Pour l’apprentissage linguistique – lecture et écriture – les recherches sont unanimes : le fait que les parents pratiquent des activités de cet ordre avec leurs enfants est bénéfique. S’ils passent plus de temps à lire des livres avec leurs enfants, à leur raconter des histoires et à discuter avec eux, cela a un impact positif immédiat sur les résultats des enfants.
Pour ce qui est des maths, en revanche, la question est moins tranchée. Les recherches montrent, certes, que plus les parents et les enfants s’adonnent ensemble à des activités impliquant les mathématiques, comme compter, jouer à des jeux de société ou mesurer des ingrédients en cuisine, plus les enfants progressent en début d’apprentissage. Cependant, cet effet reste minime, et des études individuelles peuvent présenter des résultats contradictoires.
Dans certains cas, le fait que les parents aident leurs enfants dans l’apprentissage des maths peut même être lié à une dégradation des résultats de ceux-ci. Une étude plus ancienne, menée aux États-Unis, a montré que les enfants de personnes souffrant d’anxiété mathématique progressaient moins dans cette matière et étaient plus anxieux à la fin de l’année scolaire si les parents les avaient aidé à faire leurs devoirs.
Notre étude ajoute une pièce à ce puzzle en révélant que les parents peuvent avoir une influence négative sur le développement des aptitudes mathématiques de leurs enfants avant même qu’ils soient scolarisés.
Il est important de garder à l’esprit que l’influence parentale n’est qu’un facteur parmi d’autres du développement de ces aptitudes chez le petit enfant. Dans une même famille, les frères et sœurs peuvent présenter des écarts considérables quant à leurs résultats et leur confiance en eux. Les difficultés peuvent également surgir en raison d’autres facteurs, telle la dyscalculie, un trouble de l’apprentissage mathématique.
Néanmoins, nos résultats suggèrent que, toutes choses égales par ailleurs, le rapport affectif des parents aux mathématiques joue un rôle dans l’apprentissage mathématique de l’enfant.
Pour les parents préoccupés par leur propre angoisse des maths, il n’est jamais trop tard pour gagner en assurance et acquérir des compétences de base. Il existe des cours de mathématiques pour adultes, et les ressources en libre accès ne manquent pas, sur Internet, pour vous aider à prendre confiance en vous.
Il peut aussi être bon d’adopter un « growth mindset », ou « mentalité de croissance » – et d’aider votre enfant à en faire autant : l’idée étant d’admettre qu’en mathématiques, non seulement les erreurs ne sont pas une catastrophe, mais elles constituent une partie essentielle du processus d’apprentissage.
Le simple fait de parler des mathématiques de façon plus positive est un bon début. Des parents qui manifestent de l’intérêt, de l’enthousiasme et prodiguent des encouragements à leurs enfants lorsqu’ils commencent les mathématiques peuvent faire une grande différence.
Kinga Morsanyi bénéficie d'un financement du Conseil de la recherche économique et sociale (Centre for Early Mathematics Learning ; ES/W002914/1).
Carlo Tomasetto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.04.2025 à 10:38
Florent Laroche, Maître de conférence en économie, Université Lumière Lyon 2
Dans la Face cachée de la sobriété (éditions de l’Aube), Florent Laroche s’interroge sur les limites de la sobriété, cette stratégie le plus souvent individuelle pour consommer moins. C’est tout le paradoxe de notre situation : la sobriété contemporaine de l’urbain vivant dans une société de consommation n’a rien à voir avec celle de l’ermite d’autrefois. Nous vous proposons de lire un extrait de cet ouvrage.
Face aux enjeux du XXIe siècle et aux limites planétaires, le concept de sobriété est érigé en solution au consumérisme. Il est reconnu que la technologie ne pourra pas tout faire sans une inflexion notable des modes de vie vers la réduction des consommations, le retour à l’essentiel. Le concept de sobriété incarne cette idée loin d’être nouvelle. Une simple recherche dans le dictionnaire rappelle que la sobriété a toujours été liée à une certaine vertu, qu’elle se trouve chez le paysan qui vit simplement « de pain et d’eau » comme l’écrit Zola ou chez l’ermite qui s’exclut du monde et de son confort matériel pour se rapprocher du divin.
Qu’elle soit choisie ou subie, la sobriété n’a cessé de fasciner nos sociétés pour être défendue en ce début de siècle comme une vertu au chevet de la planète. Prônée comme « heureuse » par Pierre Rabhi ou Jean-Baptiste de Foucauld, elle pourrait être salutaire pour sauver les hommes des périls de la consommation. Encore faut-il qu’elle puisse massivement les convaincre. On se trouve bien loin de renoncer à toutes choses pour vivre chichement dans une cabane sans presque aucun revenu comme a pu le faire à son époque Henry David Thoreau, les ermites des premiers monastères ou les zadistes des temps modernes. Et c’est toute la question : que se passe-t-il quand on fait de la sobriété que l’on pourrait appeler partielle ? Que se passe-t-il quand on réduit une ou deux consommations par bonne conscience sans toucher à l’ensemble et que, pour la grande majorité, les revenus ne diminuent pas, voire continuent d’augmenter ?
Face à la crise énergétique de 2022, des solutions ont été trouvées pour réduire la sensibilité aux prix de l’énergie : kit éthanol, GPL, voiture électrique, pompe à chaleur, isolation, panneaux solaires, chauffage au bois… En définitive, il y a fort à parier que toutes ces actions, dont l’achat d’un pull, permettent aujourd’hui et dans les années à venir de gagner de l’argent. Cet argent que l’on n’aura pas à dépenser en énergie, qu’en fait-on ?
À lire aussi : La face cachée du vrac
La question peut être appliquée à de nombreux autres domaines. On a souvent plaisir à cultiver la terre, entretenir un potager, voir pousser des fruits rouges dans le jardin. Mais quelle satisfaction, un samedi d’été, de passer à côté du rayon fruits et légumes dans son supermarché sans avoir à acheter ces mêmes fruits rouges à un prix exorbitant ! On en profite pour acheter de la crème chantilly ou peut être quelques yaourts supplémentaires, à moins de les faire soi-même. Dans ce cas, les économies seront d’autant plus grandes et garantiront l’espérance d’autres consommations.
D’un point de vue plus formel, la sobriété est souvent pensée comme un mode de vie total sans aucune possibilité de profiter des économies générées par la modération de ses consommations et le retour à l’essentiel. Malheureusement, elle s’applique rarement de cette manière dans un monde plutôt riche où la plupart des besoins les plus basiques sont couverts par l’abondance. À vouloir faire des économies sans modifier fondamentalement son mode de vie et son niveau de revenu, on risque ainsi de tomber inéluctablement dans le piège de la sobriété vorace.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Interrogée sous l’angle de l’économie, la sobriété appliquée à une ou plusieurs consommations dans un contexte de richesse ne fait que produire de la richesse supplémentaire à disposition et contribue très certainement à accroître, au final, les consommations ; consommer moins pour consommer plus. Les économistes connaissent assez bien ce phénomène pour l’avoir qualifié « d’effet rebond ». Il a été démontré pour la première fois en Angleterre en 1865 par l’économiste William Stanley Jevons qui a observé une situation très paradoxale où la consommation de charbon augmentait alors même que les locomotives les plus récentes en consommaient moins par unité pour rouler.
L’explication se trouve dans la présentation du problème. Les nouvelles locomotives consommant moins de charbon, il devenait possible de transporter plus pour le même prix ce qui contribuait à accroître l’offre avec en définitive la capacité d’acheter plus de charbon pour faire rouler plus de locomotives. Faire acte de sobriété pourrait ainsi contribuer à relâcher les contraintes pour obtenir l’effet inverse de celui souhaité. Le phénomène est connu depuis plus d’un siècle et c’est pourtant cette même sobriété que l’on dresse aujourd’hui comme principale solution face à l’impuissance annoncée de la technologie pour répondre aux enjeux écologiques et énergétiques du XXIe siècle. Pour comprendre l’écueil qui se dresse face à nous, il est important de rappeler que la sobriété des mystiques n’est pas celle d’une société riche.
Qu’est-ce que la sobriété dans une économie développée pour des personnes qui n’entendent pas voir leurs revenus baisser ? Il est à parier que sans modification majeure de son niveau de vie, toute économie réalisée sur un poste de dépense permet nécessairement, par ré-allocation de ce qui est gagné (le surplus), d’accroître la consommation sur un autre poste voire de permettre une nouvelle consommation, participant ainsi à l’accroissement global des consommations et en définitive des productions. La sobriété dans une économie riche appellerait donc et surtout donnerait les moyens de consommer avec toujours plus d’appétit, d’être toujours plus voraces au grand dam des objectifs de développement durable.
Florent Laroche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.04.2025 à 15:41
Elizabeth Sheppard Sellam, Responsable du programme « Politiques et relations internationales » à la faculté de langues étrangères, Université de Tours
Coupes budgétaires, scandales, limogeages, licenciements à l’intérieur ; désengagement progressif de théâtres majeurs à l’extérieur, accompagné de menaces de déploiement massif face à des alliés, comme au Groenland ou à la frontière du Mexique : avec Donald Trump, la politique militaire des États-Unis connaît une transformation fulgurante qui suscite moult interrogations et inquiétudes, au pays comme ailleurs dans le monde.
Cent jours après son retour au pouvoir, Donald Trump a entamé une reconfiguration brutale et idéologique de l’appareil militaire des États-Unis. Loin d’un simple ajustement stratégique, c’est une transformation profonde de la défense nationale qui est à l’œuvre : coupes budgétaires massives, marginalisation de figures clés du Pentagone, recentrage des priorités sur des zones jugées politiquement rentables et retour assumé à une armée plus « loyale » que compétente.
Cette stratégie s’accompagne de scandales internes, de dérives autoritaires et d’un affaiblissement du moral des troupes. Le bilan des cent premiers jours touche bien au-delà de la sphère militaire : il pose une question centrale sur l’avenir de l’armée dans un État de droit fragilisé. L’opinion publique reste divisée entre ceux qui voient dans ces mesures un assainissement nécessaire et ceux qui dénoncent la dénaturation d’une institution républicaine.
Malgré l’annonce d’un budget record de 1 000 milliards de dollars pour Le Pentagone, les premières mesures de l’administration Trump 2 sont marquées par des coupes ciblées : les dépenses baisseront de 8 % par an pendant cinq ans sur les lignes jugées secondaires. Sont épargnées la modernisation de l’arsenal nucléaire, les technologies de surveillance et les opérations frontalières.
En revanche, des contrats majeurs avec Accenture ou [Deloitte](https://fr.wikipedia.org/wiki/Big_Four_(audit_et_conseil) ont été révoqués, et près de 61 000 postes civils sont appelés à disparaître. Le message est clair : il s’agit à la fois de réduire les coûts et de restaurer l’efficacité, même au prix de la stabilité interne.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Cette logique touche durement la logistique et l’entretien, ralentit la modernisation des systèmes et affecte directement l’entraînement des troupes. Pete Hegseth, le nouveau secrétaire à la défense, a ordonné la révision des standards physiques pour toutes les unités de combat, au nom d’une « culture du guerrier ». Priorité affichée : létalité et discipline. Réalité : une armée qui perd en cohésion et en compétences, déstabilisée par des choix idéologiques plus que fonctionnels.
La menace du gel des programmes de formation conjointe avec les alliés, divulguée par les médias suédois, a été démentie, mais reste une possibilité.
Les coupes budgétaires affectent aussi la recherche et le développement dans les domaines cyber, spatial et de l’intelligence artificielle, mettant en péril la compétitivité technologique des États-Unis dans des secteurs clés de la guerre du futur. Plusieurs experts militaires craignent un effet retardé, où les gains à court terme en efficacité budgétaire se paieront d’une perte de supériorité décisive dans une dizaine d’années. Ce pari sur le temps long, fondé sur une confiance idéologique dans la résilience de l’appareil militaire, pourrait s’avérer risqué dans un environnement stratégique aussi instable.
En parallèle de cette rationalisation budgétaire, la structure hiérarchique de l’armée est bouleversée par une série de renvois spectaculaires de hauts gradés : Timothy Haugh (directeur de l'agence américaine de renseignement, la NSA), Shoshana Chatfield (représentante à l’Otan), Charles Q. Brown Jr (chef d’état-major interarmées), Susannah Meyers (responsable de l’unique base américaine au Groenland)… Tous perçus comme critiques, non alignés, ou coupables d’avoir manifesté des doutes sur la ligne imposée depuis la Maison Blanche. Le Pentagone assume : il s’agit de restaurer la loyauté.
Mais les profils ciblés ne trompent pas : femmes, officiers issus de minorités, responsables attachés aux alliances multilatérales. L’offensive contre les politiques DEI (diversité, équité, inclusion) a d’ailleurs pris un tour systématique. Clubs dissous à West Point, livres retirés des bibliothèques militaires, suppression puis restauration de références historiques aux Tuskegee Airmen (les premiers aviateurs militaires afro-américains des États-Unis) ou aux Navajo Code Talkers (soldats issus du peuple navajo ayant mis au point un code indéchiffrable durant la Seconde Guerre mondiale) : c’est une mémoire militaire alternative que l’administration tente de configurer.
Les militaires eux-mêmes expriment de plus en plus leur malaise face à ce qui est perçu comme une croisade idéologique.
Les initiatives autour du mentorat, du soutien psychologique ou de la médiation ont été supprimées, car jugées « non prioritaires ». Le climat se durcit, et les départs anticipés sont à craindre, ce qui pourrait avoir des effets de longue durée. Ce phénomène pourrait durablement affaiblir la capacité de commandement intermédiaire, déjà sous pression.
Sur la scène internationale, l’administration Trump adopte une logique de repli sélectif. L’aide à l’Ukraine est brièvement suspendue en mars 2025. En avril, quand les villes ukrainiennes de Soumy et de Kryvyï Rih sont frappées par des missiles russes, la réaction des États-Unis est pour le moins évasive. Le 4 avril, après la frappe sur Kryvyï Rih, qui tue 11 adultes et 9 enfants, l’ambassadrice à Kiev Bridget Brink déplore les vies perdues sans citer la Russie, suscitant de vives critiques de Volodymyr Zelensky (elle pointera d’ailleurs la Russie du doigt après la frappe sur Soumy, le 13 avril, qui a fait plus de 30 victimes). Keith Kellogg, conseiller spécial de Trump pour la Russie et l’Ukraine, parle à propos de Soumy d’une « attaque au-delà de toute décence », sans plus de conséquences concrètes. Trump, pour sa part, se contente d’accuser… Volodymyr Zelensky et Joe Biden d’être à l’origine de la guerre. La volte-face des États-Unis vis-à-vis de l’Ukraine se ressent de plus en plus clairement.
Mais le désengagement ne s’arrête pas là. La promesse d’intégration de l’Ukraine à l’Otan est abandonnée. Les relations avec les alliés européens sont tendues. Contre l’avis du général Cavoli, commandant des forces des États-Unis en Europe (Eucom), Washington menace de retirer 10 000 soldats d’Europe.
En Asie-Pacifique, la doctrine est floue : alors que la Chine intensifie ses pressions sur Taïwan, les États-Unis gardent le silence, mais des rumeurs persistent notamment sur une réduction des effectifs stationnés en Corée du Sud.
En revanche, le pouvoir se redéploie ailleurs : Panama, la frontière du Mexique, le Groenland.
Moins d’alliés, plus de contrôle politique : c’est une géopolitique de l’entre-soi qui se dessine, déconnectée des alliances traditionnelles et source d’incertitude.
Les effets de cette stratégie se font sentir à tous les niveaux. Le retrait logistique de Pologne et les retards de maintenance affaiblissent l’aptitude à réagir rapidement en cas de besoin (« readiness »). Le moral des troupes décline. L’incertitude sur les déploiements, les coupes dans les effectifs civils et les révisions de standards alimentent une forme de désillusion.
Les écoles des bases militaires voient apparaître des mobilisations d’élèves contre la suppression de clubs ou de manuels. À Stuttgart, une cinquantaine d’élèves ont quitté leurs cours en signe de protestation, lors d’une visite de Pete Hegseth. Chez les anciens combattants, la colère monte : les associations comme VoteVets dénoncent la trahison des promesses faites aux militaires.
Parallèlement, des fuites sur les méthodes de communication non sécurisées exposent l’improvisation de l’équipe dirigeante. Un journaliste aurait été ajouté par erreur à un groupe discutant d’opérations classifiées au Yémen (Signalgate).
Un climat de peur paralyse toute contestation au sein du commandement. La loyauté prime sur la compétence, au détriment du professionnalisme. Des officiers anonymes évoquent une purge politique permanente. Cette culture du silence, accentuée par l’absence de stratégie claire, aggrave le malaise et affaiblit l’efficacité opérationnelle.
Le refus de Trump de se rendre à Dover (Delaware) pour accueillir les corps de soldats morts lors d’un accident en Lituanie est plus qu’un symbole : il incarne un abandon du pacte moral entre la nation et son armée. La fracture civilo-militaire se creuse, tout comme la méfiance entre institutions. Des généraux en retraite, des diplomates, et même certains élus républicains comme le président de la commission des forces armées du Sénat, le sénateur républicain Roger Wicker, du Mississippi, commencent à exprimer publiquement leurs inquiétudes.
Au niveau mondial, la stratégie trumpienne crée un vide. L’imprévisibilité de Washington affaiblit les alliances, brouille les doctrines et laisse le champ libre aux puissances révisionnistes. Le leadership des États-Unis, déjà contesté, sort durablement amoindri de ce tournant idéologique et partisan.
L’armée américaine, longtemps pilier du système international, se retrouve instrumentalisée et isolée, au moment où le monde aurait besoin de clarté, de cohérence et de stabilité. Dans les capitales alliées, le doute s’installe : les États-Unis sont-ils encore un partenaire fiable ?
Elizabeth Sheppard Sellam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.04.2025 à 15:31
Quentin Bletery, Géophysicien, Directeur de Recherche IRD à l'Observatoire de la Côte d'Azur., Institut de recherche pour le développement (IRD)
Savoir prédire les séismes permettrait de sauver de nombreuses vies chaque année. La grande question est de savoir si, avant qu’un séisme se déclenche, il pourrait y avoir des signaux précurseurs mesurables. La communauté des géophysiciens n’a pas encore atteint de consensus sur cette problématique.
Les tremblements de terre et les tsunamis qu’ils génèrent ont causé la mort de près d’un million de personnes au cours des vingt-cinq dernières années. Des systèmes d’alerte existent, mais ils sont basés sur les premiers signaux émis par le séisme, et ne procurent donc que quelques secondes d’alerte avant les premières secousses, quelques dizaines de minutes avant le tsunami éventuel. Si des progrès importants sont réalisés pour améliorer ces systèmes, ceux-ci sont intrinsèquement limités en termes de temps d’alerte, car ils n’utilisent que des signaux émis par un séisme déjà initié.
Pour alerter plus de quelques secondes en avance, il faudra donc être capable de prédire les séismes avant que ceux-ci ne se déclenchent. Pourra-t-on un jour atteindre cet objectif ?
Les humains ont cherché à prédire les tremblements de terre depuis bien longtemps. Dans les années 1970, de nombreux scientifiques ont pensé que cet objectif était à portée de main. En Californie, un séisme semblait se produire tous les vingt-deux ans, ce qui a poussé les sismologues à prédire qu’un tremblement de terre se produirait, selon ce schéma de récurrence, en 1988. Mais le séisme annoncé n’eut lieu qu’en 2004, et devant l’échec de cette prédiction, la communauté scientifique devint, dans les années 1990, de plus en plus sceptique à l’idée de la prédictibilité des séismes. Cet évènement a rendu l’idée de prédire les séismes « taboue » durant de longues années, en particulier aux États-Unis, où toute mention du terme « prédiction » a été proscrite. Elle reste aujourd’hui considérée comme impossible par une grande partie de la communauté.
Néanmoins, les travaux expérimentaux et théoriques suggèrent l’existence d’une phase de préparation des séismes. Les données sismologiques (qui enregistrent les vibrations du sol) et géodésiques (qui enregistrent les déplacements du sol) sont en forte croissance et nous donnent des informations de plus en plus fines sur ce qu’il se passe en profondeur. Dans ces conditions, la prédiction des séismes restera-t-elle impossible pour toujours ?
Un séisme est un glissement rapide entre deux « blocs de Terre » le long de l’interface qui les sépare : une faille. Les plus grands « blocs de Terre » sont connus sous le nom de plaques tectoniques. Celles-ci se déplacent lentement (quelques millimètres par an) les unes par rapport aux autres, mais leur mouvement relatif est largement bloqué le long des failles qui les séparent. Les failles étant bloquées, et les plaques n’arrêtant pas de se déplacer, un « déficit de glissement » s’accumule. Ce déficit est compensé, en quelques secondes, lors d’évènements rares mais violents : les séismes.
Mais alors, se pourrait-il que le glissement rapide se produisant lors des séismes commence avec un glissement lent accélérant jusqu’à la rupture sismique ? C’est ce que montrent les expériences réalisées en laboratoire et ce que prédisent les modèles physiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les expériences et les modèles suggèrent l’existence d’une phase préparatoire des séismes pendant laquelle le glissement lent s’accélère et s’étend progressivement jusqu’à atteindre une taille critique à partir de laquelle un séisme se déclenche. Cette taille critique est très faible dans la plupart des expériences réalisées en laboratoire, car ces expériences sont réalisées sur des « failles » de très petites tailles parfaitement planes et homogènes.
Des travaux théoriques ont montré que cette taille critique peut être beaucoup plus grande et la durée de la phase préparatoire beaucoup plus longue (et donc potentiellement détectable) pour des failles hétérogènes qui sont beaucoup plus réalistes que les failles homogènes planes des expériences en laboratoire.
Si l’on observe bien des signaux pré-sismiques en laboratoire, cela est beaucoup plus difficile sur des failles naturelles. La raison est simple : les capteurs sont beaucoup plus loin. Les chercheurs utilisent essentiellement deux types de capteurs : les capteurs sismologiques et les capteurs géodésiques. Les capteurs sismologiques (les sismomètres) enregistrent les vibrations du sol, alors que les capteurs géodésiques (tels que les GPS) mesurent les déplacements du sol.
Pour rechercher des indices de glissement lent le long des failles, il semble ainsi naturel de regarder les données GPS. Malheureusement, lorsque l’on regarde les déplacements mesurés par GPS dans les heures, ou les jours, précédant les grands séismes, on voit essentiellement ce que l’on appelle du bruit, c’est-à-dire des signaux qui n’ont pas une origine tectonique, mais qui sont dus à des erreurs de correction dans le traitement de données GPS. Ce bruit masque tout potentiel signal pré-sismique qui serait nécessairement de faible amplitude. Comment pourrait-on ainsi extraire un signal de faible amplitude « noyé » dans des données bruitées ?
Nous avons proposé une approche, dans un article publié en 2023 dans le journal Science, pour augmenter le rapport signal sur bruit et faire ressortir de potentiels signaux de faible amplitude. L’approche ne vise pas à prédire les séismes, mais à explorer l’existence de signaux faibles en « stackant » (c’est-à-dire, simplement, en additionnant) toutes les données GPS enregistrées avant tous les grands séismes.
Bien sûr, additionner brutalement toutes les données n’aurait pas de sens, car selon le type de séisme et la configuration source-station les déplacements potentiellement générés par un hypothétique glissement précurseur ne seront pas tous dans la même direction. Nous avons donc calculé tous les déplacements attendus sur chaque station avant chaque grand séisme, puis nous avons calculé le produit scalaire entre les déplacements attendus et les déplacements observés.
Le produit scalaire est une mesure de la cohérence entre les déplacements attendus et observés. Si les déplacements observés sont plus ou moins dans la même direction que les déplacements attendus, leur produit scalaire sera positif. Dans le cas contraire, il sera négatif. Ainsi, si les mesures GPS ne contiennent que du bruit sans rapport avec un potentiel signal pré-sismique, les produits scalaires ont une probabilité égale d’être positif ou négatif, et sommer un grand nombre de ceux-ci devrait donner un résultat proche de 0. Au contraire, si les mesures GPS contiennent un signal pré-sismique faible, on s’attend, en sommant un grand nombre de produits scalaires, à obtenir des valeurs plutôt positives.
Ainsi, nous avons sommé les produits scalaires des déplacements attendus et observés toutes les cinq minutes pendant les 48 heures précédant tous les évènements de magnitude supérieure à 7. Cela représente un total de 3 026 séries temporelles GPS enregistrées avant 90 séismes (Figure 1).
Le résultat est une série temporelle décrivant la cohérence entre les déplacements attendus et les déplacements observés en fonction du temps avant les grands séismes (Figure 2).
Cette série temporelle montre une augmentation de la cohérence entre déplacements attendus et observés dans les deux heures précédant les séismes, qui pourrait être la trace d’une accélération du glissement lent pré-sismique aboutissant à la rupture sismique. Le signal est subtil, mais nous avons reproduit l’exercice sur des données enregistrées à 100 000 dates différentes (ne précédant pas des séismes) et obtenu un signal similaire dans seulement 0,3 % des cas, ce qui en fait un signal statistiquement très significatif.
Étant donné les implications potentielles, nous avons publié avec l’article tous nos codes et toutes nos données pour que la communauté scientifique puisse vérifier et travailler sur des approches alternatives, auxquelles nous n’aurions pas pensé.
Quatre jours après la publication de l’article, deux scientifiques américains, reconvertis dans la vulgarisation scientifique, ont publié, sur leur blog, un article faisant état de doutes concernant l’origine tectonique du signal. Cet article a eu un fort écho médiatique, en raison de l’activité de vulgarisateur des auteurs et de la force de l’argument principal avancé : après avoir corrigé les données GPS de ce que les auteurs considèrent comme du bruit (des fluctuations dans les données qu’ils considèrent non liées à l’activité tectonique), le signal disparaît du stack. La conclusion des auteurs de ce blog est que le signal est le résultat d’une coïncidence malchanceuse de facteurs improbables faisant apparaître du bruit GPS comme un signal tectonique.
Nous avons récemment publié un article dans le journal Seismica montrant que la probabilité d’une telle coïncidence est extrêmement faible, et avancé l’hypothèse que la correction de bruit proposée puisse altérer la détection d’un signal réel.
À ce jour, la communauté scientifique est partagée et le débat autour de cette question est plus vivant que jamais. Un débat en ligne a même été organisé entre les auteurs du blog et nous-mêmes devant un parterre de scientifiques (une première dans la communauté scientifique travaillant sur les séismes). Les termes du débat sont extrêmement techniques et l’issue est incertaine.
La multiplication des stations GPS (et des autres instruments géophysiques) apporte un nombre croissant d’observations à mesure que de nouveaux séismes se produisent et laisse augurer le fait que, si les experts ne parviennent pas à déterminer l’origine du signal, le temps le fera – le signal devenant de plus en plus, ou de moins en moins, clair à mesure que de nouvelles données seront ajoutées au stack.
Si le signal s’avère être le résultat d’une combinaison malencontreuse de bruit corrélé, alors la perspective de la prédiction s’éloignera encore un peu plus. Si le signal s’avère être la preuve d’une phase de glissement préparatoire des séismes, alors cette perspective se rapprochera un peu. Un peu seulement, car, même dans cette hypothèse, l’approche que nous avons proposée ne pourra malheureusement pas prédire les séismes.
En effet, celle-ci utilise toutes les données enregistrées avant tous les évènements passés en faisant l’hypothèse que l’épicentre et les mécanismes des séismes sont connus. Elle ne saurait ainsi avoir une quelconque ambition prédictive.
On considère généralement qu’un stack amplifie le rapport signal sur bruit d’un facteur égal à la racine carrée du nombre d’observations. Dans notre cas, cela voudrait dire que le signal identifié sur la figure 2 a été amplifié d’un facteur 55 grâce au stack. Il faudrait donc augmenter la sensibilité (ou réduire le bruit) des enregistrements GPS d’un facteur (au moins) 55 pour être capable d’identifier un signal sur une station unique.
De tels progrès représentent des avancées technologiques majeures et sont improbables dans les années à venir. Cependant, si l’existence d’une phase préparatoire (potentiellement observable) des séismes se confirme, cela motiverait certainement le développement de technologies nouvelles et le déploiement de réseaux de stations denses qui pourraient faire de la prédiction des séismes une perspective pas si lointaine.
Quentin Bletery a reçu des financements de l'European Research Council (ERC).
25.04.2025 à 14:59
Joëlle Rollo-Koster, Professor of Medieval History, University of Rhode Island
Pendant quatre siècles, l’Église catholique a interdit la lecture de centaines d’ouvrages jugés subversifs – de Galilée à Simone de Beauvoir. À partir de 1966, la censure est officiellement levée et les papes valorisent de plus en plus la lecture comme acte spirituel et intellectuel. Le pontificat de François a marqué une nouvelle étape : il recentre le regard sur la lecture comme outil d’émancipation, loin de toute prescription normative.
Pendant 400 ans, l’Église catholique maintient l’Index Librorum Prohibitorum, une longue liste d’ouvrages interdits. Conçu au XVIe siècle, il prend forme sous le pape Paul IV. Son index de 1559 inclue tous les livres écrits par des personnes considérées comme hérétiques – quiconque s’écarte du dogme, au sens le plus large.
Avant même l’index, les dirigeants de l’Église toilèrent peu la liberté de pensée. Mais dans les décennies précédant sa création, l’Église durcit son attitude face à de nouveaux défis : la diffusion rapide de l’imprimerie et la Réforme protestante.
La Contre-Réforme catholique, formalisée lors du concile de Trente (1545-1563), renforce le dogmatisme pour contrer les réformateurs. Le concile décrète que la Vulgate, traduction latine de la Bible, suffit à comprendre les Écritures, rendant superflue l’étude des versions originales en grec et en hébreu.
Les évêques et le Vatican commencent à établir des listes d’ouvrages interdits d’impression et de lecture. Entre 1571 et 1917, la Congrégation de l’Index, une institution vaticane spéciale, examine les écrits et dresse des listes de lectures prohibées, approuvées par le pape. Les catholiques qui lisent ces livres risquent l’excommunication.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’historien Jésus Martinez de Bujanda a établi la liste la plus complète des livres interdits par l’Église à travers les siècles. On y trouve l’astronome Johannes Kepler, Galilée, ainsi que des philosophes de toutes les époques, d’Érasme et René Descartes à la féministe Simone de Beauvoir et l’existentialiste Jean-Paul Sartre. Sans oublier les écrivains : Michel de Montaigne, Voltaire, Denis Diderot, David Hume, l’historien Edward Gibbon et Gustave Flaubert. Bref, l’index est un who’s who des sciences, de la littérature et de l’histoire.
En 1966, le pape Paul VI abolit l’index. L’Église ne peut plus punir les fidèles pour leur lecture, mais les déconseille toujours, comme le souligne l’historien Paolo Sachet. L’impératif moral de ne pas les lire persiste.
Les lignes bougent malgré tout peu à peu. Jean-Paul II et Benoît XVI poursuivent une valorisation exigeante de la lecture, dans la tradition chrétienne du dialogue entre foi et raison.
Jean-Paul II était un passionné de théâtre et du « mot » qui connectait pour lui le langage, le divin et la foi. Suivant aussi dans un certain sens les humanistes, il discute « la théologie du corps » la beauté et la dignité de l’humain. Il écrit des pièces pour le theatre sacré et traduit en polonais l’Œdipes Roi de Sophocle. Quant à Benoît XVI ce fut avant tout un théologien. Dans ses écrits, lui aussi approche la littérature comme chemin vers le divin.
Avec François s’opère un déplacement notable : s’il ne rompt pas avec ses prédécesseurs, il recentre le regard sur la lecture comme expérience personnelle, outil d’émancipation et d’ouverture au monde, loin de toute prescription normative.
Le 21 novembre 2024, François publie par exemple une lettre soulignant l’importance d’étudier l’histoire de l’Église – surtout pour les prêtres, afin de mieux comprendre le monde dans lequel ils vivent. Pour le pape :
« étudier et raconter l’histoire aide à maintenir allumée “la flamme de la conscience collective”. »
François plaide pour une étude de l’histoire ecclésiale sans filtre, authentique, y compris dans ses défauts. Il insiste sur les sources primaires et encourage les étudiants à poser des questions. François critique l’idée que l’histoire se réduit à une chronologie – un apprentissage par cœur sans analyse des événements. En 2024, le pape demande aux historiens de se libérer de toute idéologie.
En 2019, François renomme les Archives secrètes vaticanes en Archives apostoliques vaticanes. Bien qu’ouvertes aux chercheurs depuis 1881, le terme « secrètes » évoque quelque chose de « réservé à quelques-uns », a-t-il écrit.
Sous son pontificat, le Vatican ouvre les archives de Pie XII, permettant d’étudier son action pendant la Seconde Guerre mondiale, sa connaissance de la Shoah et sa réponse face à l’Allemagne nazie.
Outre son respect pour l’histoire, le pape souligne son amour de la lecture. Dans une lettre aux futurs prêtres, publiée le 17 juillet 2024, il écrit :
« Dans la lecture, le lecteur s’enrichit de ce qu’il reçoit de l’auteur, mais cela lui permet en même temps de faire fleurir la richesse de sa propre personne, de sorte que chaque nouvelle œuvre qu’il lit renouvelle et élargit son univers personnel. »
Il poursuit son propos en expliquant que l’« obsession » des écrans, avec leurs « fausses nouvelles empoisonnées, superficielles et violentes », nous détourne de la littérature. Il partage son expérience de jeune professeur de littérature jésuite à Santa Fe, avant d’ajouter une phrase qui aurait stupéfié les « papes de l’index » :
« Bien sûr, je ne vous demande pas de faire les mêmes lectures que moi. Chacun trouvera des livres qui parlent à sa propre vie et qui deviendront de véritables compagnons de route. »
Citant son compatriote, le romancier Jorge Luis Borges, François rappelle aux catholiques que lire, c’est :
« écouter la voix d’un autre. […] Nous ne devons jamais oublier combien il est dangereux de cesser d’écouter les voix qui nous interpellent ! »
Avec la disparition de François, le Vatican reste profondément divisé entre progressistes et conservateurs. Alors que nombre de démocraties modernes penchent vers le nationalisme, le fascisme et la censure, l’une des grandes réalisations du pape François aura été, à mes yeux, son engagement envers les humanités, avec une compréhension profonde des défis auxquels elle fait face.
Joëlle Rollo-Koster ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.04.2025 à 13:08
Maxime Massey, Docteur en Sciences de Gestion & Innovation - Chercheur affilié à la Chaire Improbable, ESCP Business School
Philippe Naccache, Professeur Associé, INSEEC Grande École
Sylvain Bureau, Professeur - Directeur Chaire Improbable by Galeries Lafayette, ESCP Business School
The 2024 arrest and subsequent release of activist Paul Watson, the founder of the NGO Sea Shepherd that fights to protect ocean biodiversity, highlighted a division between two opposing camps. There are those who want to stay true to the NGO’s DNA by continuing to practice strong activism against poaching states, and those who believe there is too much at stake in remaining confrontational and advocate instead for more measured actions to institutionalize the NGO. This opposition reflects the dilemma faced by many “pirate organizations,” a concept introduced by scholars Rudolph Durand and Jean-Philippe Vergne.
Pirate organizations are defined by three key characteristics.
They develop innovative activities by exploiting legal loopholes;
they defend a “public cause” to support neglected communities, who in turn support them;
by introducing innovations that address specific social needs, they disrupt monopolies and contribute to transforming economic and social systems.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
However, to do these things effectively, pirate organizations must become legitimate. An organization is considered legitimate when its various audiences (customers, media, the state, etc.) perceive its actions as desirable according to prevailing values, norms and laws. Legitimacy is built through a process known as legitimation. For pirate organizations, this is particularly challenging, as they are often viewed as both illegal and illegitimate by the state and established industry players. These actors apply pressure to hinder legitimation. So how do pirate organizations build their legitimacy? We examined this question through the emblematic case of Heetch.
Heetch is a French urban transport start-up launched in 2013 when its founders observed that “young people in Paris and its suburbs struggle to travel at night due to a lack of suitable options.” They decided to create a ride-hailing platform connecting private drivers with passengers.
This business model, based on the principles of the “sharing economy,” encroached on the monopoly of taxis and the regulated sector of professional chauffeur-driven vehicles (VTCs). Despite challenges, Heetch gradually built its legitimacy through three distinct phases, responding to pressures in different ways.
When Heetch launched in 2013, a conflict was brewing in the urban transport sector. On one side, there were new applications for VTC services (such as Uber) and for private driver platforms (such as UberPop and Heetch); on the other, there were traditional taxis and their booking departments (such as G7). The latter, along with government authorities, began exerting pressure to shut down the apps, with Uber receiving most of the media attention.
During this phase, Heetch adopted a strategy of “clandestine pragmatism.” The start-up avoided direct confrontations and stayed “under the radar” of the media. This approach is similar to “bootlegging” – concealing an innovative activity during its early stages. Heetch built a pragmatic legitimacy among its immediate audience using informal techniques such as word-of-mouth. However, its legitimacy remained limited, because it operated outside media scrutiny and without state approval.
In June 2015, taxi drivers organized massive protests against the “unfair competition” posed by new ride-hailing apps. The Paris police issued a ban on UberPop-like applications, including Heetch’s.
While Uber shut down UberPop, Heetch exploited a legal loophole – its name was not explicitly mentioned in the ban – and continued operations. In response, the state cracked down on Heetch: around 100 drivers were placed in police custody and the founders were summoned to court, facing charges of “illegal facilitation of contact” with drivers, “complicity in unlawful taxi operations” and “misleading commercial practices.”
Heetch reacted by engaging in “subversive activism.” The founders spoke out in the media to defend their service, emphasizing its public utility, particularly for young suburban residents needing nighttime mobility. The start-up generated buzz by releasing a satirical video featuring altered images of political figures in their youth. Heetch leveraged its pragmatic legitimacy, already established within its community, to gain media legitimacy among a broader audience of people, including journalists and policymakers. The organization gained public recognition, but also faced increasing legal battles.
In March 2017, a court ruled against Heetch, deeming its operations illegal. Heetch temporarily suspended its service but relaunched two weeks later with a new business model employing professional drivers. Two months later, Heetch attempted to reintroduce private drivers, but, after facing additional legal action, it abandoned this approach after six months to focus exclusively on legal transportation services.
During this phase, Heetch practised “tempered radicalism.” The company integrated into the system while continuing its “fight” in a more moderate manner, avoiding direct confrontation with the state and industry players. It adopted three key strategies:
compliance – respecting the law;
compromise – balancing its transportation service with its public mission;
manipulation – lobbying to influence regulations.
Through this approach, Heetch secured regulatory legitimacy while strengthening its existing pragmatic and media legitimacy. The company was recognized by the French government and included in the French Tech 120 and Next 40 programmes for the country’s most promising start-ups. It also became the first ride-hailing platform to attain “mission-driven company” status.
Ultimately, our study highlights the value of piracy as a strategy for kickstarting the growth of an organization that serves a public cause. By embracing this approach, a pirate organization can drive systemic change to address social or environmental challenges.
That said, piracy carries an inherent risk: at some point, it will likely face a legitimacy crisis triggered by resistance from monopolies or public authorities. The recent struggles of Paul Watson serve as testament. As he aptly puts it: “You can’t change the world without making waves.”
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
24.04.2025 à 17:52
Olivier Mathonat, Enseignant chercheur à l'Ircom - Doctorant en communication, Université Bourgogne Europe
Les obsèques du pape François auront lieu ce samedi. Elles vont donner lieu à une multitude d’hommages, la plupart du temps respectueux et empreints de solennité, comme si l’exercice critique journalistique disparaissait soudainement.
Les funérailles du pape seront un « media event » : un événement fédérateur, dont le déroulement est connu à l’avance, suivi en direct par des audiences très nombreuses. Ces cérémonies télévisées, identifiées comme telles par les sociologues Daniel Dayan et Elihu Katz, dans les années 1990, ont également pour particularité une couverture médiatique sur le registre laudatif.
En pareille occasion, en effet, les journalistes de télévision, pris par leur volonté d’initier les publics à l’événement solennel qu’ils retransmettent, abandonnent ponctuellement leur posture d’enquêteurs parfois contestataires pour revêtir les habits de maîtres de cérémonie respectueux. Ils se font les relais du sens donné à cet événement par l’institution organisatrice, ici l’Église catholique, parfois la royauté.
Le phénomène à l’œuvre fut en effet le même avec la monarchie anglaise lors des funérailles d’Elizabeth II ou le couronnement de Charles III. Comme le soulignent Dayan et Katz, lors de ce type d’évènement, les journalistes sont « transformés en prêtres, en “photographes de noces”, en convives », ce qui les conduit à adopter « une révérence qui touche à la componction ». L’heure ne sera donc pas – encore – au droit d’inventaire, mais à la mise en scène de l’unité, de la continuité et du recueillement, dans un récit médiatique suspendu à la solennité du moment.
Au-delà du rituel de la cérémonie en elle-même, les télévisions du monde entier se feront probablement l’écho de la « performance » de communion de la foule, silencieuse et priante, rassemblée place Saint-Pierre. Comme l’observait la doctorante en médias Liz Hallgren à l’occasion des funérailles d’Elizabeth II :
« En mettant en avant les foules massées pour “faire la queue” et voir le cercueil de la reine exposé, ou celles rassemblées pour assister à ses funérailles, les médias, notamment occidentaux, ont façonné l’image d’un collectif uni dans le deuil. »
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
On pourra certainement observer une différence de traitement importante entre ce qui sera retransmis à la télévision et ce qu’on pourra lire sur les réseaux sociaux. Des travaux sur les événements cérémoniels ont en effet montré récemment qu’en contraste avec le discours unanimement respectueux développé à la télévision, les médias sociaux sont les vecteurs d’une multiplicité de discours, parfois virulents ou moqueurs. Cette perspective s’oppose au consensus médiatique généralement observé dans le cas d’un deuil. Relevons d’ailleurs que c’est en fait à une confrontation de perspectives médiatiques qu’on assiste, car comme l’indiquait également Liz Hallgren à propos de la reine d’Angleterre :
« La couverture médiatique traditionnelle du décès de la reine reflétait une nostalgie pour une époque révolue de la télévision et des médias d’information traditionnels, où ces derniers constituaient la principale, voire l’unique, source d’information pour leur public. »
« Bon vieux temps » de la perspective unique de la télévision versus multiplicité actuelle des supports et des points de vue exprimés en ligne, en somme.
Cette surmédiatisation des funérailles ne fera qu’ouvrir une chronique qui alimentera les médias ces prochaines semaines : le processus rituel de désignation du prochain pape. Nombre de spectateurs, habituellement très éloignés du catholicisme, vont alors suivre avec intérêt les préparatifs du conclave, entendront une nouvelle fois le récit – exagéré – de la première réclusion des cardinaux à Viterbe en 1274, guetteront la couleur de la fumée s’échappant de la chapelle Sixtine.
Cet attrait manifestera, s’il était encore nécessaire, le pouvoir intégrateur des rites, comme les Jeux olympiques l’ont montré d’une certaine façon, l’été dernier. Quitte à faire regretter aux publics français que nous ayons si peu de rituels nationaux autres que sportifs, comme Régis Debray l’affirmait dans Libération il y a vingt ans, deux jours avant l’élection de Benoît XVI :
« Il y a une joie à se rassembler, il y a un bonheur intense à se fondre au coude à coude dans une foule organisée. Notre déficit cérémoniel crée un vide à combler. Les philosophes dans le vent depuis cinquante ans, individualistes et libertaires, antitotalitaires et libéraux, parlent de cette euphorie comme d’une basse et vilaine écume. Ils parlent droits, sexe, langage, liberté, valeurs. Mais plus jamais de fraternité. Communautaire est un vilain mot. Communisme est obscène, où il y avait pourtant communion. Ne parlons pas de la patrie et du Parti. On ne va plus au meeting ni à la guerre. Les rites civiques s’effacent. Alors, que reste-t-il ? Le sport et le pape. »
Le pape, donc. Ou plutôt ce qu’il incarne dans cette période de deuil globalisé : une figure autour de laquelle se cristallisent des récits de communion et d’unité, dépassant les appartenances religieuses. À travers la scénographie ancienne des funérailles pontificales et la médiatisation de l’émotion collective, c’est une forme de récit de l’universalité qui se joue.
Universel, c’est d’ailleurs ce que signifie l’étymologie de « catholique ». Ce qui tend à démontrer la pertinence de la proposition de Dayan et Katz, pour qui « les cérémonies télévisées sont susceptibles de produire la communauté même à laquelle elles s’adressent ». Pendant quelques jours, quelques heures, l’Église catholique va atteindre cette ambition d’universalité.
Pourtant, ce moment d’unanimité, sans doute prolongé par l’enthousiasme que suscitera l’annonce du successeur du pape François, ne fera que précéder un retour de la fragmentation. Avant cela, nombre de commentateurs, y compris sur les réseaux sociaux, salueront l’élection du nouveau pontife d’un « Habemus papam » (« Nous avons un pape »), reprenant à leur compte l’expression des catholiques. Alors que pour bon nombre d’entre eux « habetis » ou « habent papam » (« vous avez», « ils ont un pape ») serait plus approprié. Signe, en creux, de la force persistante d’une formule rituelle.
Olivier Mathonat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.