28.04.2025 à 17:26
Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)
L’arme nucléaire, du fait des conséquences désastreuses qu’entraînerait son emploi, est vouée à rester un élément de dissuasion. Si la menace du recours à cette arme ultime est fréquemment brandie côté russe, il n’en demeure pas moins que les responsables au Kremlin ont pleinement conscience des coûts pratiquement incalculables qu’une telle décision engendrerait. Pour autant, si le pire n’est jamais certain, il n’est jamais à exclure totalement.
La situation géopolitique extrêmement perturbée aux marches du continent européen remet sur le devant de la scène l’arme nucléaire. Les menaces explicites ou implicites de son utilisation contre un pays de l’Union européenne (UE) ou contre l’Ukraine, exprimées par Vladimir Poutine, la proposition d’extension de l’arsenal nucléaire français à d’autres États européens, avancée par Emmanuel Macron, et le questionnement sur la crédibilité des armes nucléaires américaines présentes en Europe : le contexte invite à s’interroger sur le risque qu’une arme nucléaire soit employée sur le continent, voire sur la possibilité qu’éclate une guerre nucléaire à grande échelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Depuis leur apparition en 1945, depuis Hiroshima et Nagasaki, les armes nucléaires occupent une place à part dans l’arsenal mondial. Si elles sont la quasi représentation du Mal absolu, de la destruction complète de pays, de continents voire de l’humanité entière, elles ne constituent pas des armes d’emploi. En effet, à partir de 1949, quand les Soviétiques ont à leur tour acquis l’arme atomique, cette dernière est devenue une arme dite de non-emploi, une arme politique, symbolique et stratégique. Une arme de dissuasion. Sa modernisation continue a pour fonction première d’augmenter son efficacité justement pour la rendre plus dissuasive, plus crédible face à un adversaire agressif. Elle est conçue pour ne pas être utilisée.
Le fondement de la dissuasion nucléaire est bien connu : un adversaire doté de l’arme nucléaire n’attaquera pas un pays nucléaire ou un pays sous protection nucléaire, car il aura la certitude d’être détruit en retour. Dit de manière plus cynique, l’attaque n’a aucun intérêt, car elle n’engendre aucun gain pour celui qui frappe en premier.
La « paix nucléaire », centrale au temps de la guerre froide, n’a jamais cessé d’être, mais devient un concept plus prégnant depuis l’invasion de l’Ukraine par la Russie. Si cette forme de paix armée a été efficace depuis 1949, elle constitue par construction un équilibre instable, fondé non pas sur l’amour de la paix mais sur la peur et le calcul. En Europe, continent où plusieurs puissances sont dotées (la Russie, la France, le Royaume-Uni et les armes américaines disposées dans plusieurs pays européens), cet équilibre est d’autant plus décisif.
Les caractéristiques de notre continent – sa densité, son urbanisation, ses pays membres stratégiquement et militairement connectés – sont telles qu’une attaque nucléaire de la Russie, même limitée, si tant est que ce mot ait un sens en matière nucléaire, entraînerait des conséquences incalculables au sens premier du terme en matière politique, humanitaire, économique et écologique.
À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs
Compte tenu de l’espace relativement restreint que constitue l’Europe, toute frappe sur le continent ne pourrait qu’être perçue comme menaçante de manière existentielle pour tous les autres pays. Une telle perspective est politiquement et stratégiquement insoutenable pour les pays européens.
Il est d’ailleurs remarquable de constater que les menaces plus ou moins explicites de Vladimir Poutine sur l’éventualité de l’usage nucléaire en réponse au soutien occidental de l’Ukraine sont restées lettre morte. Certes, l’Europe reste exposée aux surenchères stratégiques russes, mais la ligne rouge nucléaire n’a pas été franchie.
Si l’arsenal français, strictement indépendant en termes d’emploi a joué un rôle dans ce constat, l’Organisation du traité de l’Atlantique Nord (Otan) joue un rôle décisif dans la décision du président russe de ne pas monter aux extrêmes. Si ce dernier a attaqué l’Ukraine dans le cadre de ce qui peut être appelé une « sanctuarisation agressive », il ne peut menacer un pays voisin membre de l’Otan, en vertu de l’article 5 de son traité qui stipule que toute attaque contre un pays membre constitue une attaque contre l’ensemble de l’Organisation.
Si l’article 5 n’engendre pas une réponse militaire automatique de la part de l’Otan, contrairement à ce qu’on peut entendre souvent, il est quasiment certain, et le plus important est que cela soit aussi quasiment certain dans l’esprit de la direction russe, qu’une attaque nucléaire entraînerait une riposte nucléaire. Nous sommes ici au cœur du phénomène dissuasif.
Néanmoins, le désengagement progressif des États-Unis sous l’administration Trump et ses déclarations anti-européennes voire anti-otaniennes affaiblissent par nature le caractère dissuasif de cette organisation, ce qui doit impérativement pousser les pays européens à renforcer leurs propres capacités de dissuasion, à la fois conventionnelles et nucléaires.
Une éventualité parfois évoquée est que la Russie utilise des armes nucléaires dites « du champ de bataille », de faible puissance, calibrées pour détruire des concentrations de forces adverses, afin de pouvoir dégager un espace permettant de développer une offensive. Une telle utilisation « limitée » serait d’une nature telle qu’elle n’engendrerait pas une riposte des pays de l’Otan.
Nous ne croyons pas à un tel scénario. Même tactique, c’est-à-dire de faible puissance, une arme nucléaire provoque de tels effets de souffle, de chaleur, de radiation, d’impulsion électromagnétique, de panique sociale et d’insécurisation des pays voisins qu’une seule frappe de ce type ne pourrait pousser qu’à l’escalade dont le paroxysme serait une confrontation nucléaire.
Au demeurant, l’évocation répétée, et jamais suivie d’effets, par la direction russe d’un recours au nucléaire tactique est une démonstration claire du caractère escalatoire d’une arme nucléaire de faible puissance – même si la réticence de Moscou à employer de tels moyens peut aussi être partiellement attribuée au fait que les Chinois ont fait comprendre aux Russes qu’ils étaient absolument opposés à tout usage du nucléaire et au fait que l’administration Biden, il n’y a pas si longtemps, a clairement fait savoir au Kremlin qu’un tel développement entraînerait une riposte américaine massive sur les forces russes.
Indépendamment du champ militaire, l’usage par la Russie de l’arme nucléaire aurait un coût immense en matière politique et diplomatique.
Il est fort probable que compte tenu de l’énormité des conséquences d’une frappe nucléaire, un pays qui lancerait une telle initiative deviendrait indéfendable pour ses propres amis ou pour les pays neutres.
Un tel pays perdrait sa légitimité internationale. Il verrait fort probablement les sanctions économiques de toute part s’abattre sur son économie. Dans un monde où l’image et la réputation façonnent les alliances, aucun acteur réaliste ne prendrait le risque d’un tel isolement, a fortiori la Russie, à l’économie peu performante.
Malgré les menaces récurrentes de la direction russe, l’usage de son arsenal nucléaire, comme c’est d’ailleurs le cas de tous les pays dotés, à l’exception peut-être de la Corée du Nord, reste soumis à des procédures strictes. Le président, bien que central dans la chaîne de commandement, n’agit pas seul. Le contrôle des clés nucléaires implique plusieurs étapes.
Il n’est pas acquis que l’ensemble de la chaîne décisionnelle menant à une frappe nucléaire suive son président, a fortiori dans un système russe souvent décrit comme mafieux, où les hautes autorités ont, non seulement, à redouter les effets directs d’une escalade militaire, mais également les effets qu’aurait une escalade sur leurs biens, souvent colossaux.
Il n’est pas exclu également que certains membres de la chaîne décisionnelle puissent bloquer une décision de frappe pour des raisons politiques ou morales.
Le déclenchement d’une escalade nucléaire par la Russie aurait des conséquences majeures sur la distribution du pouvoir sur la planète. Un conflit nucléaire en Europe pourrait être une opportunité majeure pour la Chine, même si son économie mondialisée en pâtirait. En effet, un effondrement de l’Europe couplé à un affaiblissement des États-Unis et de la Russie dans le pire des scénarios pourrait faire de la Chine la seule puissance intacte sans avoir eu à prendre part au conflit. Cette perspective, insoutenable pour les Européens, les Américains, mais également les Russes, est de nature à freiner toute tentation de dérapage nucléaire.
Nous venons de le constater, une guerre nucléaire en Europe demeure hautement improbable. Il ne s’agit pas ici de morale, bien qu’il ne soit pas illégitime de penser que les dirigeants mondiaux en possèdent une, mais plutôt de lucidité. La terreur mutuelle, le jeu des alliances, les conséquences de différentes natures, les risques d’escalades incontrôlées et la position d’attente de la Chine rendent l’usage de l’arme nucléaire peu opérant.
La capacité destructrice de l’arme, son caractère de menace existentielle pour un continent voire pour toute l’humanité ne peuvent servir des intérêts rationnels, ne peut valider des calculs avantageux pour l’une des parties.
L’humain est un être à la fois rationnel et émotionnel. Certains scénarios d’usage de l’arme, certes improbables, peuvent être explorés. Ces scénarios constitueraient alors des situations de rupture radicale où le rationnel serait supplanté par l’émotionnel sous la forme de la panique, du désespoir, de la perte de contrôle.
Il est possible d’imaginer un effondrement du régime autoritaire du président Poutine, provoquant l’indépendance de régions non russes dotées nucléairement et qui pourraient faire usage de l’arme. Un tel effondrement de la technostructure russe pourrait engendrer une rupture de la chaîne décisionnelle, amenant un acteur secondaire ou un chef militaire isolé à envisager une frappe, par calcul voire par folie.
Un autre scénario serait celui engageant le désespoir : face à un prochain effondrement économique l’empêchant de financer son économie de guerre, face à une éventuelle défaite militaire russe en Ukraine pour des raisons que nous ne voyons pas encore, la Russie pourrait envisager la menace comme existentielle, ce qui la pousserait à tenter le tout pour le tout, malgré la perspective d’une riposte dévastatrice.
Autre scénario, et l’histoire de la guerre froide nous le prouve, une guerre nucléaire pourrait être la résultante d’un malentendu technique ou d’un accident (lancement d’un missile par erreur, mauvaise interprétation de données radar, dysfonctionnement des systèmes d’alerte précoces entraînant une riposte automatique). Les grandes puissances ont bien entendu multiplié les systèmes de sécurité, mais une telle hypothèse a une probabilité non nulle.
Enfin, un retrait complet des garanties de sécurité ou un retrait américain de l’Europe, bien qu’improbable, pourrait conduire la direction russe à penser qu’une attaque nucléaire puisse être possible, négligeant de fait les arsenaux français et britannique.
Ces scénarios sont très peu probables. Alors oui, une guerre nucléaire est impossible en Europe… presque impossible. Ce « presque » nous entraîne néanmoins, Français et Européens, à cultiver notre vigilance stratégique, à user d’une diplomatie incessante et à se préparer à l’impensable même si le pire est hautement improbable.
Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 17:25
Jeremy Howick, Professor and Director of the Stoneygate Centre for Excellence in Empathic Healthcare, University of Leicester
Selon une nouvelle étude analysant des résultats provenant d’hôpitaux du monde entier, les problèmes de communication entre professionnels de santé mettraient chaque année en danger la vie d’un grand nombre de patients.
Afin de déterminer les causes de survenue d’incidents qui mettent en jeu la sécurité des patients, mes collègues et moi-même avons analysé 46 études publiées entre 2013 et 2024 et portant sur plus de 67 000 patients non seulement en Europe, mais aussi en Amérique du Nord et du Sud, en Asie et en Australie. Nos résultats, alarmants, indiquent que dans 1 cas sur 10, l’incident est uniquement survenu en raison d’un problème de communication entre soignants. Par ailleurs, ce type de problème contribue – à côté d’autres facteurs – à la survenue d’un incident de sécurité sur quatre.
Il ne faut pas oublier que derrière ces statistiques désincarnées se trouvent des personnes réelles, qui ont été meurtries en raison d’erreurs qui auraient pu être évitées. Ainsi, dans l’un des cas documentés, un médecin qui tentait de réduire au silence une pompe qui bipait a accidentellement arrêté la perfusion d’Amiodarone – un médicament utilisé en cas d’arythmie cardiaque – d’un patient. Il a omis d’informer l’infirmière de sa manipulation. Résultat : le rythme cardiaque du patient a dangereusement augmenté.
Dans un autre cas, un patient est mort car une infirmière n’a pas informé le chirurgien que son patient souffrait de douleurs abdominales postopératoires et avait un taux de globules rouges faible – autant de signes d’une possible hémorragie interne. Une meilleure communication aurait permis d’éviter ce décès.
Ces résultats confirment ce que de nombreux professionnels de santé soupçonnaient depuis longtemps : les défaillances de communication constituent une menace directe pour la sécurité des patients. Il est particulièrement inquiétant de constater que ces incidents se produisent dans de nombreux systèmes de santé à travers le monde.
Rien qu’au Royaume-Uni, plus de 1 700 vies sont perdues chaque année en raison d’erreurs médicamenteuses. Dans le monde, 3 millions de décès surviennent annuellement pour la même raison. Au moins la moitié de ces cas, qui sont souvent dus à une mauvaise communication, pourraient être évités.
Aux États-Unis, les défaillances de communication contribuent à plus de 60 % de tous les événements indésirables graves associés aux soins hospitaliers. Selon les experts, ces chiffres sont probablement sous-évalués, car les incidents impliquant la sécurité des patients sont souvent sous-déclarés.
Notre recherche comble une lacune importante dans la compréhension du phénomène. Si des études antérieures avaient déjà établi que la communication pouvait s’avérer problématique dans les environnements de soins, notre analyse est la première à quantifier précisément l’impact de ce type de lacunes sur la sécurité des patients.
Une analyse statistique distincte, portant uniquement sur une sélection d’études considérées comme « de haute qualité » a donné des résultats similaires, ce qui renforce la validité de nos conclusions.
L’importance cruciale que revêt la mise en place d’une communication efficace entre soignants a notamment été soulignée dans plusieurs grandes enquêtes visant à évaluer l’origine des défaillances des systèmes de santé. Au Royaume-Uni, les rapports Francis et Ockenden ont tous deux déterminé que l’inefficacité de la communication entre soignants était à l’origine de la survenue de décès évitables au sein des établissements Mid-Staffordshire NHS Foundation Trust et du Shrewsbury and Telford Hospital NHS Trust, respectivement. Selon le médiateur britannique de la santé, la mauvaise communication contribuerait à environ 48 000 décès dus à la septicémie chaque année.
Les insuffisances de communication causent donc un véritable préjudice. Les malentendus qui en résultent sont à l’origine de graves erreurs médicales, avec pour conséquence la formulation de diagnostics erronés, la mise en place de traitements sous-optimaux, ou la sous-estimation de complications potentiellement mortelles.
Malgré cet alarmant constat, il faut souligner que des interventions ciblées peuvent améliorer la communication. Certains de nos travaux ont ainsi montré que des praticiens sensibilisés et formés pour adopter une communication plus empathique envers les patients changent leurs comportements, ce qui se traduit par une prise en charge aboutissant à de meilleurs résultats.
De même, lorsque les professionnels de santé apprennent à mieux communiquer entre collègues, des améliorations mesurables s’ensuivent. Une étude publiée dans le prestigieux New England Journal of Medicine a révélé que la mise en place d’un protocole de communication structuré au sein d’équipes de chirurgie pouvait réduire la survenue d’événements indésirables de 23 % en un an. D’autres travaux ont révélé que l’utilisation de procédures normalisées de transmission entre les équipes réduisait les erreurs médicales de près de 30 %.
Ces interventions ne requièrent qu’un investissement limité en regard des gains apportés : une demi-journée de mise en œuvre peut suffire. Les systèmes de santé ont donc à leur disposition un levier particulièrement intéressant pour diminuer significativement la survenue d’événements préjudiciables.
Les preuves sont là. Reste maintenant aux dirigeants d’établissement, aux enseignants et aux décideurs à agir. Pour mieux protéger la vie des patients, la formation des soignants à la communication doit devenir une norme universelle – et non demeurer un supplément optionnel.
Jeremy Howick est financé par le Stoneygate Trust et reçoit occasionnellement des honoraires pour ses conférences.
28.04.2025 à 17:01
Pierre-Antoine Chardel, Docteur en philosophie, HDR en sciences sociales, Professeur, Institut Mines-Télécom Business School
Virginie Martin, Docteure sciences politiques, HDR sciences de gestion, Kedge Business School
À l’heure où Elon Musk privatise l’espace public numérique en imposant ses propres règles sur X, créant une confusion majeure entre liberté et impunité, la question du commun et celle de « faire société » deviennent plus aiguës que jamais. Le commun, que nous entendons ici comme la capacité de s’entendre sur des règles de vie collective, est à la base de tout projet démocratique. Mais il n’est pas un acquis, il ne se décrète pas : il s’organise de manière sensible.
La métamorphose numérique et le bouleversement des technologies avec les pratiques de communication (via Internet et les réseaux sociaux en ligne) qui lui sont inhérentes sont souvent présentées comme étant au cœur des transformations que nous vivons d’un point de vue existentiel. Dans certains cas même, la conjonction des mutations technologiques et du tout communicationnel affaiblit paradoxalement le commun. Elle favorise une multiplicité vertigineuse qui brouille toujours davantage les grandes orientations de sens, pourtant essentielle à notre cohésion collective.
Il convient donc, plus que jamais, de réfléchir à l’organisation et la distribution du pouvoir dans ce commun fragmenté, et au bout du compte, la possibilité de les comprendre pour y bâtir des stratégies collectives riches de sens. Cela, en sachant que la redéfinition des réseaux classiques de communication et d’information rebat les cartes de la hiérarchie de celles et ceux qui les dominent et qui y prennent la parole.
Dans un monde en réseau(x) où est le centre, où est la périphérie ? En quoi la possibilité donnée à chacun d’avoir une audience, et la probabilité paradoxalement réduite de se faire comprendre de tous, altèrent-elles la nature du pouvoir, et la nature des « élites » ? Comment faire exister une parole institutionnelle dans un univers média/technologique où elle n’a plus aucun monopole ? Comment le concept traditionnel de pouvoir s’articule-t-il avec la notion à la mode, mais ô combien polysémique, d’influence ? Quelles nouvelles règles pour le « marché des idées » et les manipulations cognitives en tous genres ?
Ces questions sont d’autant plus cruciales qu’aujourd’hui, les « experts » détenteurs de savoirs et donc de pouvoir(s) voient leur parole largement concurrencée par des influenceurs de tous ordres. Sur la toile, la hiérarchisation des compétences est profondément bousculée. L’horizontalisation des savoirs passant par des biais médiatiques (médias traditionnels ou réseaux sociaux) gagne en puissance.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Il faut donc nous interroger sur les conséquences pour les disciplines scientifiques, pour l’avenir du monde académique et des chercheurs eux-mêmes. Comment gérer une telle fragmentation de l’accès aux connaissances alors même que la toile tend à créer une confusion des genres ? On y trouve sans doute plus d’arguments d’autorité que de vérités scientifiques, la sphère digitale étant créatrice de beaucoup d’indistinction.
Dans ce contexte toujours, que devient la culture de l’écrit, traditionnel attribut des élites et vecteur de pouvoir dans « l’ancien monde » ? Est-elle condamnée au déclassement, dans un monde internationalisé où règnent les images, poussées en avant par les algorithmes des plateformes ?
Assiste-t-on à l’avènement d’une sorte de technicisme froid, la machine et ses codes contraignant notre pensée et la formatant en imposant des normes éditoriales drastiques (la plateforme X, par exemple, limite les publications à 280 caractères), au risque de simplifier et de travestir le message de départ ? Jusqu’à quel point peut-on, en outre, laisser les algorithmes gérer la hiérarchisation d’une information, ceci au risque d’impacter les équilibres politiques eux-mêmes ?
Comme le décrit fort justement la philosophe Anne Alombert, tandis que le Web était fondé sur des liens hypertextes, permettant une navigation intentionnelle, les algorithmes de recommandations orientent les utilisateurs, comme si la « toile », sorte de rhizome, s’était transformée en silo. De telles réalités structurelles doivent très certainement aujourd’hui nous inciter à créer des politiques algorithmiques alternatives, plus ouvertes et contributives. Comme le souligne Anne Alombert :
« Ce passage de la recommandation automatique et privée (fondée sur les choix des entreprises et la quantification des vues) à la recommandation contributive et citoyenne (fondée sur les interprétations des citoyens et la qualité des contenus) est non seulement plus que souhaitable, mais tout à fait possible. »
L’enjeu sociétal est d’autant plus crucial que le vrai pouvoir semble avoir glissé du côté de celles et ceux qui contrôlent les infrastructures de diffusion – ce sont les entreprises propriétaires des réseaux sociaux qui décident de ce qui peut être visible ou pas, en privatisant ainsi les dynamiques de modération en fonction de leurs propres normes et valeurs –, mais aussi du côté de celles et ceux qui peuvent développer des outils pour les décrypter et les interpréter. À l’heure où les logiques de prédation des données sont exacerbées, une réinstauration d’un minimum de confiance et de transparence dans la conception des algorithmes se doit d’être engagée : en s’appuyant par exemple sur des initiatives qui visent à s’attaquer aux biais qu’ils peuvent véhiculer.
Dans une telle perspective, une nouvelle production de savoir s’impose, plus collaborative et transdisciplinaire, renouant en ce sens avec une certaine expérience du commun. Un enjeu est aussi, d’un point de vue éthique, de rendre possible des conceptions plus vertueuses des technologies à l’heure où les systèmes d’IA tendent à fragiliser l’exercice même du libre-arbitre. Vis-à-vis de ces tendances, il nous faudrait apprendre à « visualiser les réseaux sans paniquer », en évitant de les laisser produire d’irréversibles effets de prolétarisation.
Face à l’opacité des algorithmes et au risque d’un éclatement du commun, une alternative possible est d’apprendre à mieux comprendre ces systèmes : décrypter leur logique (grâce à des initiatives comme AlgorithmWatch), réguler (avec des cadres comme le DSA) et explorer des alternatives (comme Mastodon ou Wikipédia). Ce travail de transparence et de conception collective permettrait de ne pas subir passivement les effets de ces architectures numériques, mais de les penser comme des espaces à réinvestir. Sans cet effort, nous restons à la merci d’un vertigineux tourbillon technologique.
Des outils de cartographie numérique, notamment, permettent d’aiguiser notre regard sur des phénomènes invisibles à l’œil nu. Des cartes et des flux de données personnelles peuvent mettre en lumière les circuits par lesquels nos informations sont collectées, revendues et exploitées par les grandes plateformes numériques. Des pratiques de data visualisation et de design graphique, en rendant visible et sensible l’invisible, peuvent alors contribuer à faire émerger une meilleure compréhension de nos environnements numériques. Par exemple, la cartographie des réseaux sociaux peut révéler des dynamiques souvent imperceptibles : des outils graphiques permettent d’identifier la formation de chambres d’écho, où certaines idées circulent en boucle sans contradiction, ou encore de repérer la structuration des réseaux d’influence et leur poids dans la diffusion de l’information.
Sans ces efforts de représentation, de design et d’interprétation de nos activités en ligne, il sera difficile d’évoluer avec clairvoyance dans nos sociétés des réseaux. Au-delà d’une certaine panique morale qui nous envahit, ce sont là des pistes pour développer une relation plus sereine avec nos technologies numériques en vue de rendre possible une meilleure compréhension des nouveaux milieux qu’elles façonnent.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
28.04.2025 à 17:00
Philippe Delacote, Directeur de recherche en économie à l'INRAE et Chaire Economie du Climat, Inrae
Seuls 30 % des surfaces agricoles sont couvertes par les assurances en cas de crise climatique. Pour répondre au défi de la vulnérabilité, les stratégies individuelles comme les politiques publiques doivent se concentrer sur la recherche de résilience.
Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 6 a pour objet, « Le système alimentaire à l’heure des choix ».
Le changement climatique a des impacts multiples sur de nombreux secteurs d’activité, tant dans les pays industrialisés que dans les pays du Sud. Ces impacts résultent non seulement de l’augmentation des températures moyennes, mais aussi de la fréquence et de l’intensité accrues des événements météorologiques extrêmes, tels que les sécheresses et les tempêtes. L’agriculture, en particulier, est fortement concernée.
Ainsi, en 2024, le ministère de l’agriculture indique que la production des céréales à paille en France a subi une baisse de 22 % par rapport aux cinq années précédentes, en raison de conditions climatiques extrêmes. Des études menées par Maxime Ollier et ses coauteurs ont démontré que les risques climatiques affectent de manière hétérogène les secteurs agricoles, en fonction des systèmes de production et de la localisation des exploitations.
Le réflexe naturel qui vient à l’esprit quand on parle de risque est d’envisager la couverture assurantielle. Ainsi il existe une offre d’assurance « multirisque récolte », qui, en théorie, devrait couvrir les acteurs contre les chocs liés au climat. Or, plusieurs facteurs limitent la portée de cette solution. En effet, le taux de couverture de l’assurance récolte est aujourd’hui limité en France : seuls 30 % des surfaces agricoles sont couvertes.
À lire aussi : Et si l’assurance verte pouvait aider à réduire les produits phytosanitaires dans les vignobles...
Les travaux de thèse de Richard Koenig ont montré que, malgré un taux de subvention important, le montant des franchises est un frein important à la souscription, ainsi que les délais de versement de la subvention. Or, la branche assurance récolte présente un déficit important, avec un rapport sinistre sur prime structurellement supérieur à 100 %. On peut donc en déduire que le rôle joué par les assurances récolte dans la protection des agriculteurs français sera certes utile, mais limité.
Face à ces multiples chocs et à l’impossibilité de l’assurance de couvrir l’ensemble de ces risques, la vulnérabilité des exploitants agricoles est une question centrale. Cette vulnérabilité peut être définie selon trois critères : l’exposition, la résistance et le rétablissement. L’exposition fait référence au fait que certains secteurs ou zones géographiques sont particulièrement concernés par les chocs liés au changement climatique. La résistance correspond à la capacité des agriculteurs à absorber ces chocs. Enfin, le rétablissement évoque leur aptitude à se relever après ces perturbations. Il est donc essentiel de comprendre dans quelle mesure ces impacts dépendent du contexte socio-économique local et des caractéristiques des acteurs concernés.
Dans ce contexte, où l’agriculture est l’un des secteurs les plus affectés par le changement climatique, il est crucial que les stratégies individuelles et les politiques publiques se concentrent sur la recherche de résilience. Cet objectif peut être décliné selon trois grands principes : sobriété, agilité et protection. Premièrement, l’agriculture doit évoluer vers une utilisation plus sobre des ressources, notamment en réduisant la dépendance aux énergies fossiles et aux intrants chimiques. En effet, le secteur agricole contribue fortement aux émissions de gaz à effet de serre – 18,7 % des émissions françaises, selon le Citepa – et joue un rôle dans la dégradation des écosystèmes et de la qualité de l’eau. Or, le climat et les écosystèmes sont les socles sur lesquels repose l’activité agricole ; il n’y aura donc pas d’adaptation possible sans un effort d’atténuation sans précédent. Cela implique le développement de pratiques agroécologiques, telles que l’agroforesterie, et l’optimisation de l’usage de l’eau, comme le choix de cultures moins dépendantes des apports en eau.
Deuxièmement, l’agilité se manifeste au niveau des systèmes de production, en favorisant la diversification des cultures et des pratiques, mais aussi au niveau des chaînes de valeur, par la diversification des sources d’approvisionnement et des débouchés. Il est important que l’ancrage local soit renforcé, tout en maintenant des liens de partenariats plus éloignés, afin de diversifier les risques non seulement climatiques, mais aussi géopolitiques ou épidémiologiques. La recherche de partenariats de long terme, qui permettent de construire la confiance, est également préférable à une recherche court-termiste du mieux-disant.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Enfin, la protection des plus vulnérables nécessite d’abord leur identification, puis la priorisation de certaines politiques publiques en leur faveur. On peut penser ici à un ciblage plus important des politiques d’aides à la transition écologique ou à l’accès aux assurances récolte.
Plusieurs enseignements peuvent être tirés de ces réflexions sur la résilience des acteurs et des systèmes agricoles. Tout d’abord, la priorité doit être donnée à la lutte contre le changement climatique et la dégradation des écosystèmes. Bien que l’action en faveur de la protection de l’environnement puisse engendrer des coûts, l’inaction entraînera des coûts nettement supérieurs, en particulier pour les secteurs agricoles. Le coût du changement climatique se fait déjà durement ressentir dans certains secteurs ou régions. L’impact global du changement climatique sur le secteur agricole et de l’agroalimentaire français a été estimé par le Conseil général de l’alimentation, de l’agriculture et des espaces ruraux à plus de 4 milliards d’euros par an d’ici à 2050, soit un peu plus de 4 % du PIB agricole. Or, chaque tonne de gaz à effet de serre supplémentaire ne fera qu’accroître ces coûts et les défis associés. Enfin, il est indispensable que les stratégies d’adaptation et d’atténuation soient complémentaires : des stratégies d’adaptation qui auraient comme conséquence la hausse des émissions de gaz à effet de serre et des pressions supplémentaires sur des écosystèmes ne peuvent qu’être néfastes à long terme.
L’agroécologie, dont le fondement est d’utiliser les solutions fondées sur le fonctionnement des écosystèmes pour répondre aux problèmes posés aux agriculteurs, va dans ce sens d’une recherche de synergie entre adaptation et atténuation.
Au total, il apparaît que les actions de certains acteurs contre les politiques environnementales agissent comme un but contre leur camp. En faisant mine de défendre les intérêts des secteurs agricoles, ces actions amplifient au contraire les problèmes auxquels sont confrontés de nombreux acteurs du monde agricole.
Les politiques de protection de l’environnement ne sont pas parfaites, et les exploitants agricoles doivent être consultés pour améliorer leur mise en œuvre. Il est cependant indispensable de les accentuer, et d’affirmer qu’il n’existera pas de protection durable de l’agriculture sans la protection et la restauration des écosystèmes sur lesquels ces activités reposent.
Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 6 a pour objet « Le système alimentaire à l’heure des choix ». Vous pourrez y lire d’autres contributions. Le titre et les intertitres ont été produits par la rédaction de The Conversation France.
Philippe Delacote a reçu des financements de Chaire Economie du Climat.
28.04.2025 à 16:58
Sylvain Bellefontaine, Économiste senior, spécialiste des pays émergents et en développement et analyste risque pays, en charge de l'économie internationale, de la Chine, de la Turquie, du Mexique et du Nigeria, Agence Française de Développement (AFD)
La guerre économique est en cours. Mais Donald Trump pourra-t-il persévérer dans la voie de la confrontation avec Pékin, étant donné les risques de déstabilisation économique et financière, une dépendance mutuelle a priori plus difficilement substituable pour les États-Unis et la détermination sans faille affichée par les autorités chinoises ?
Alors que le capitalisme mondialisé du gagnant-gagnant a laissé place à l’idée d’un « capitalisme de la finitude », du fait de la prise de conscience générale du caractère limité des ressources planétaires, la guerre commerciale, technologique et monétaire s’intensifie entre les États-Unis et la Chine. Et à ce stade, les dirigeants chinois apparaissent plus résolus à réagir que lors du premier mandat de Donald Trump.
Objectivement, les États-Unis ne sont pas en position de force sur tous les plans, ce qui pourrait les conduire à privilégier un « super deal » avec Pékin (cf. tableau infra). Néanmoins, dans un scénario d’escalade extrême des tensions sino-américaines, le risque est celui d’une déstabilisation majeure de l’ordre économique mondial, voire d’un basculement sur le terrain géopolitique et militaire.
La relation économique sino-états-unienne résume les grands déséquilibres macroéconomiques mondiaux, dans un jeu comptable à somme nulle, illustré par les positions extérieures nettes des deux pays. Ces déséquilibres peuvent perdurer ou se réguler graduellement par des ajustements coopératifs ou des évolutions non concertées mais convergentes des modèles économiques et de société. Aucune de ces options n’apparaît envisageable, à très court terme, compte tenu de l’escalade dans le rapport de force entre les États-Unis et la Chine.
Le projet de l’administration Trump est un miroir aux alouettes. D’une part, il prône une relocalisation des investissements et une réindustrialisation (qui prendraient au mieux des années) pour soutenir l’emploi et l’autonomie stratégique du pays, à travers une dépréciation du dollar « concertée avec les partenaires ». D’autre part, il cherche à maintenir l’hégémonie du dollar comme devise de réserve internationale, tout en préservant le modèle consumériste.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Ce double objectif antinomique sur le dollar remet au goût du jour le dilemme de Triffin, matérialisé lors de la suspension de la convertibilité du dollar en or en 1971, en vertu duquel le dollar devait satisfaire deux objectifs inconciliables : la stabilité en tant qu’étalon de mesure pour les monnaies et les marchandises, et l’abondance en tant que moyen de règlement international et instrument de réserve.
Avec la menace de retrait des garanties de sécurité états-uniennes, les tarifs douaniers sont brandis comme une arme coercitive et de négociation envers le reste du monde vassalisé. À double emploi, ils sont aussi envisagés comme un moyen, au mieux très partiel, de substituer les taxes à l’importation aux impôts domestiques, rappelant les États-Unis du tournant du XXe siècle.
À lire aussi : Recréer un second « Gilded Age » (Âge doré) : les illusions de Trump
Quant à la Chine, elle se présente avec ses certitudes sur sa puissance industrielle et exportatrice, déployant une stratégie fondée sur le triptyque représailles-adaptation-diversification. Mais des doutes existent quant à sa capacité à rééquilibrer son modèle de croissance vers la consommation, dans un contexte de sur-épargne accentuée par la morosité ambiante post-pandémie.
La crise immobilière, la déflation, l’endettement élevé (entreprises et collectivités locales), le ralentissement structurel de la croissance économique et le déclin démographique font poindre le spectre d’une « japonisation précoce ». Les similitudes avec la trajectoire du Japon pourraient même être renforcées par un éventuel nouvel accord sur les parités des devises comme celui du Plaza en 1985.
Les deux puissances systémiques mondiales s’affranchissent, chacune à sa manière, des justes règles de la concurrence et du commerce international. Les États-Unis jouissent (encore) du privilège exorbitant du dollar et de son pendant, à savoir l’extraterritorialité du droit américain. La Chine assure ses parts de marché mondiales (14 % au global et 22 % sur les biens manufacturés) en subventionnant ses secteurs stratégiques et en pratiquant une forme de dumping qui lui permet d’exporter ses surcapacités, aidée par le Renminbi, une devise chinoise jugée sous-évaluée par les autorités américaines, contrairement aux analyses du FMI.
Depuis quatre décennies, la relation sino-américaine est passée de la coopération à la « coopétition », pour glisser à partir de 2018 et dangereusement en 2025 vers la confrontation, à mesure que la Chine basculait du statut d’atelier manufacturier de biens à faible valeur ajoutée à concurrent direct sur les biens et services innovants, technologiques, verts et à haute valeur ajoutée.
Au cœur de la « première révolution industrielle » chinoise des années 1980-2000, l’attractivité pour les investisseurs étrangers, notamment à travers le déploiement de zones économiques spéciales (zones franches) et les transferts de technologies, a laissé place à une économie quasi schumpetérienne de l’innovation. Cette « seconde révolution industrielle » a été renforcée par des objectifs de « sinisation » des chaînes de valeur, d’indépendance technologique ainsi que d’autosuffisance et de sécurisation énergétique et alimentaire.
Traditionnel market maker sur le marché mondial des matières premières, des hydrocarbures aux produits agricoles, la Chine a très tôt pris conscience de l’importance des métaux critiques et stratégiques (dès les années 1980 pour les terres rares), domaine dans lequel elle dispose d’une position dominante, surtout en tant que transformateur avec une maîtrise complète de la chaîne de valeur.
En 2020, les produits manufacturés chinois généraient plus d’un tiers de la valeur ajoutée dans le commerce mondial de biens manufacturés. En 2022, 56 % des robots industriels installés dans le monde l’ont été en Chine et 45 % des brevets mondiaux ont été déposés par la Chine entre 2019 et 2023. Même si les États-Unis maintiennent leur leadership dans le domaine des start-ups, la Chine recense 340 licornes (start-ups privées valorisées à plus d’un milliard de dollars US), dont plus d’un quart sont impliquées dans le secteur de l’intelligence artificielle (dont DeepSeek) et des semi-conducteurs.
En avril 2025, le niveau prohibitif atteint par les droits de douane bilatéraux et les autres mesures non tarifaires annihile les échanges commerciaux sino-américains. Toutefois, les exemptions accordées par l’administration Trump sur certains produits, dont les ordinateurs et smartphones, illustrent la dépendance des États-Unis envers la Chine.
En 2024, malgré la perte de parts de marché aux États-Unis depuis le premier mandat de Donald Trump (14 % vs. 22 % en 2018), le marché états-unien absorbait (encore) 14,6 % des exportations chinoises, hors exportations « indirectes » transitant désormais par des pays tiers tels que le Vietnam. L’excédent commercial de la Chine envers les États-Unis ressortait à 279 milliards de dollars US en 2023, soit 26 % de son excédent global, alors que le déficit bilatéral des États-Unis était de 340 milliards de dollars US, soit 30 % de leur déficit global.
Loin d’être anecdotique, les terres rares extraites aux États-Unis sont raffinées en Chine et les IDE américains sur le sol chinois représentent des capacités de production installées importantes dans la filière des véhicules et batteries électriques.
Depuis la crise financière de 2008, consciente de son exposition excessive aux bons du Trésor américain, la Chine en a réduit sa détention de 1 300 milliards de dollars US en 2011 à 761 milliards de dollars US en janvier 2025. Ce montant encore significatif en termes absolus ne représente que 2 % de la dette publique des États-Unis, détenue à 22 % seulement par des non-résidents.
Si la stabilité du marché obligataire américain dépend plus largement des investisseurs résidents, le projet évoqué de contraindre le reste du monde à continuer de financer les déficits publics du pays à des conditions favorables (échange de dette contre des obligations à très long terme) ou d’imposer une taxe sur les détenteurs étrangers de bons du Trésor pourrait générer un risque majeur de déstabilisation financière mondiale en démonétisant l’actif sans risque de référence.
L’opinion publique américaine, les lobbies économiques, les marchés financiers, les GAFAM, les dissensions au sein de l’administration, ou encore les élus républicains en quête de réélection sont des forces de rappel qui pourraient imposer à Donald Trump une désescalade voire un « super deal » avec Xi Jinping. A contrario, l’entêtement dans des droits de douane punitifs pourrait générer une crise économique et financière mondiale profonde et une dislocation de l’ordre international.
Dans ce bras de fer entre Washington et Pékin, le temps joue donc pour le second. Le régime chinois est déterminé à faire de la Chine la première puissance économique mondiale d’ici à 2049, pour le centenaire de la République populaire. Il a montré sa capacité à se projeter sur le temps long et à instiller une dose d’adaptabilité du modèle d’« économie sociale de marché » suffisante à sa perpétuation, et il ne doit pas rendre compte de son action dans les urnes.
Dans sa relation au monde, la Chine poursuit sa stratégie séculaire de réserve de façade et propose le récit d’un pays ouvert, libre-échangiste, à la recherche de la concorde mondiale, se positionnant pour un ordre multipolaire et en contre-puissance des États-Unis. Dans le cadre de sa stratégie de soft power incarnée par le club des BRICS+ et la Belt & Road Initiative, la Chine a diversifié ses actifs financiers internationaux et investi tous azimuts en Asie, en Amérique latine et en Afrique.
Parallèlement à l’aversion croissante des investisseurs internationaux vis-à-vis du marché chinois dans une stratégie de derisking-decoupling, les firmes chinoises pourraient continuer de s’extravertir en investissant à l’étranger dans une stratégie de nearshoring et de contournement des barrières protectionnistes, notamment dans l’accès au marché européen.
Le désengagement des États-Unis du cadre multilatéral pourrait être une opportunité pour la Chine de renforcer son influence dans les instances internationales, en se présentant comme le principal défenseur des pays en développement, du libre-échange et de l’aide internationale, dans une forme d’inversion des valeurs.
Malgré tout, la position ambiguë de la Chine sur la guerre en Ukraine, ses accointances avec la Russie, la Corée du Nord et l’Iran, ses visées ostensibles sur Taïwan et son expansionnisme territorial en mer de Chine demeurent des sources d’inquiétude. La Chine, qui n’a plus été impliquée dans un conflit armé depuis la guerre sino-vietnamienne de 1979, a augmenté ses dépenses militaires au cours des dernières années, pour les porter à 245 milliards de dollars US officiellement en 2024 – mais peut-être de l’ordre de 450 milliards de dollars US en réalité, soit encore moitié moins, exprimé en dollars, que le budget de la défense des États-Unis.
Voici un tableau volontairement binaire des scénarios géoéconomiques possibles, qui n’exclut pas d’autres hypothèses comme un scénario intermédiaire de « guerre commerciale universelle larvée » impliquant l’UE, voire d’autres puissances régionales.
Sylvain Bellefontaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 16:54
Deransart Colin, Enseignant-chercheur en neurosciences, Grenoble Institut des Neurosciences (GIN), Université Grenoble Alpes (UGA)
Bertrand Favier, Dr Vétérinaire, Maitre de conférences à l'UFR de Chimie Biologie, Université Grenoble Alpes (UGA)
Boulet sabrina, Professeur des Universités- Neurosciences, Université Grenoble Alpes (UGA)
Véronique Coizet, CR Inserm en Neurosciences, Université Grenoble Alpes (UGA)
L’expérimentation animale fait débat. La recherche scientifique est-elle prête à se passer des animaux ? Les alternatives sont-elles suffisantes ? La discussion mérite en tout cas d’être menée de la manière la plus objective possible.
La maladie de Parkinson touche plus de 270 000 personnes en France. Lorsque le diagnostic est posé, la destruction des neurones producteurs de dopamine est trop avancée pour envisager des traitements curatifs. Pour obtenir des marqueurs précoces de la maladie, et permettre des traitements préventifs, l’équipe des chercheurs du Professeur Boulet du Grenoble Institut des Neurosciences a développé une recherche métabolomique par Résonance Magnétique Nucléaire.
A l’image de l’analyse des gaz d’échappement d’une voiture lors d’un contrôle technique dont la recherche des produits de combustion permet de déceler d’éventuelles anomalies de fonctionnement du moteur, la métabolomique par Résonance Magnétique Nucléaire permet l’identification de toutes les substances organiques de petites tailles (comme certains acides aminés) ou de leurs produits de dégradation issus des cascades des évènements moléculaires se produisant dans les cellules. L’identification de ces substances ou métabolites au sein d’un échantillon biologique, comme le sang ou d’autres tissus, permet donc de déceler d’éventuels marqueurs de la maladie (biomarqueurs). Cette approche se situe en aval de l’étude des gènes (génomique), de l’ensemble des ARN messagers (transcriptomique) et de l’ensemble des protéines (protéomique). Cette approche novatrice permet donc d’appréhender l’ensemble des facteurs (génétiques, environnementaux, nutritionnels…) dont la résultante est susceptible de conduire à une maladie.
Les chercheurs ont croisé les métabolites issus de trois modèles animaux complémentaires de la maladie de Parkinson et ont soumis aux mêmes analyses des échantillons de sang issus de patients nouvellement diagnostiqués mais non encore traités (patients de novo).
En 1959 les biologistes William Russel et Rex Burch ont proposé des recommandations éthiques en expérimentation animale connues sous le terme de « règle des 3 R » qui font encore aujourd’hui consensus à l’égard du traitement éthique des animaux de laboratoire. Ces recommandations visent à remplacer quand cela est possible l’utilisation d’animaux par des modèles alternatifs, réduire le nombre d’animaux requis et raffiner les expérimentations en minimisant les contraintes imposées aux animaux (douleur, souffrance, angoisse…).
Il semble contraire au critère de réduction de faire appel à une multiplicité de modèles animaux différents pour une même étude. Dans cette étude, utiliser trois modèles a permis de recouper entre elles les données, et d’en augmenter la portée « translationnelle » des résultats, c’est-à-dire ce qui permet de les transposer à l’humain. En effet, chaque modèle présentait des caractéristiques complémentaires de la maladie de Parkinson, chacun imitant différentes phases de la maladie, depuis la phase où seuls des déficits de motivation sont présents, jusqu’à celle avec des symptômes moteurs. De plus, les chercheurs ont développé une échelle de cotation de la progression de la maladie calquée sur ce qui existe en clinique humaine, évaluant les performances motivationnelles, motrices et l’étendue des lésions neurologiques. Cela a amélioré l’aspect translationnel de ces études et a participé aussi au raffinement des expérimentations.
Le premier modèle porte sur des rats traités par une neurotoxine ciblant les neurones dopaminergiques. Il est ainsi possible de constituer des lots d’animaux mimant de façon stable et sans évolution temporelle, un stade précis de la maladie ; ceci est une simplification de la maladie humaine où chaque patient est un cas particulier évolutif. En complément, les chercheurs ont sélectionné un second modèle reflétant la nature progressive de la pathologie dont le marqueur est lié à la production d’une protéine délétère. Bien que ce modèle permette chez un même animal de suivre la progression de la pathologie, il n’englobe pas tous les symptômes neuropsychiatriques caractéristiques du stade précoce de la maladie (tel que l’apathie).
Enfin, le troisième modèle, induit par injection d’une neurotoxine à des macaques, reproduit l’évolution des phases cliniques de la maladie et présente une plus grande homologie avec l’humain. L’homologie d’un modèle se réfère à sa capacité à mimer les mécanismes physiologiques sous-jacents à l’origine de la pathologie étudiée chez l’humain : on parle donc d’identité de causalité et de mécanismes mis en jeu.
Chez ces animaux, les dérégulations métaboliques ont amené à identifier six métabolites, potentiellement liés au processus neurodégénératif, dont les niveaux combinés constituent un biomarqueur métabolique composite. Ce biomarqueur permet de discriminer les animaux imitant la maladie de Parkinson des témoins, et ce, dès la phase précoce. Ce résultat n’aurait pas été atteint si une seule situation, un seul modèle animal, avait été étudié.
Les résultats obtenus chez les animaux ont ensuite été comparés avec les résultats de patients de novo (diagnostiqués mais non encore traités) provenant de deux banques différentes. Les mêmes six métabolites constituant le biomarqueur identifié chez les animaux ont permis de distinguer les patients de novo des patients sains avec un niveau élevé de sensibilité et de spécificité.
Les chercheurs ont également montré que la dérégulation de 3 des 6 métabolites composant le biomarqueur peut être partiellement corrigée par un médicament mimant les effets de la dopamine. Ce traitement permet de corriger le déficit de motivation des animaux à la phase précoce. Cette amélioration partielle a également été observée dans un sous-ensemble des patients de l’étude. Cela renforce l’intérêt du biomarqueur identifié et suggère que ce marqueur permettrait de surveiller l’évolution des traitements d’une manière moins contraignante que les méthodes d’imagerie médicale actuelles.
Outre les perspectives diagnostiques de cette étude, ces travaux ont également permis d’identifier un mécanisme de régulation du métabolisme cellulaire sur lequel on pourrait agir pour contrer les effets de la maladie, offrant ainsi des perspectives thérapeutiques. Ceci illustre notamment à quel point recherche fondamentale et recherche appliquée sont fortement indissociables l’une de l’autre. Nous venons de le voir au travers de cet exemple, mais de nombreuses recherches montrent l’intérêt de l’expérimentation animale, comme dans le cas des travaux de Pasteur sur la rage, les travaux grenoblois sur les approches par stimulations électriques intracérébrales profondes qui ont permis de révolutionner la prise en charge de nombreux patients parkinsoniens à travers le monde, ou encore, plus proche de nous, les travaux sur les ARN messagers ayant permis la mise au point de vaccins contre la Covid-19 et ont valu à leurs auteurs le prix Nobel de Médecine 2023.
Au-delà de ces avancées scientifiques, les détracteurs de l’expérimentation animale mettent en avant la faible transposabilité des résultats obtenus chez l’animal à l’homme, un de leurs argument étant que « 90 % des traitements testés avec succès sur les animaux se révèlent inefficaces ou dangereux pour les êtres humains ». Ceci leur permet notamment de justifier le recours à l’utilisation de modèles alternatifs à l’animal, tels que des modèles in vitro ou in silico.
Cette citation nous semble cependant partielle et partiale. Il n’a pas été démontré que la transposabilité des tests in vitro et/ou in silico soit meilleure en l’état actuel des techniques.
En réalité, ces tests sont les premiers cribles de l’ensemble des tests précliniques et la contribution des animaux est essentielle puisqu’en fin de phase pré-clinique, ils permettent d’exclure 40 % de candidats médicaments, notamment sur la base de risques potentiels chez l’humain.
Par ailleurs, les auteurs dutexte cité après avoir souligné cette faible transposabilité, proposent plutôt de mettre l’accent sur la robustesse des approches expérimentales, en assurant une recherche rigoureuse tant sur les animaux que chez les humains. Ils suggèrent ainsi « d’harmoniser la conception des protocoles expérimentaux menés chez l’humain (étude clinique) avec celle des études précliniques réalisées chez l’animal dont l’utilisation demeure indispensable, balayant la vision manichéenne qui voudrait que s’opposent une communauté pro-expérimentation animale et une autre, pro-méthodes alternatives. »
Le fait d’attribuer des capacités cognitives à l’autre – humain comme animal – nous confère un socle commun de droits moraux et apporte du sens à nos actions. Le domaine de l’expérimentation animale n’échappe pas à cette règle.
Il a été avancé que les chercheurs utilisant des animaux à des fins scientifiques auraient une moindre empathie vis-à-vis de la souffrance animale que le reste de la population.
Cette observation nous parait occulter un point important. De même qu’un chirurgien ne s’évanouit pas à la vue du sang au moment crucial de son intervention, en tant que chercheurs travaillant sur des modèles animaux, nous réfléchissons aux conséquences de nos actes. Leur aspect émotionnel est maîtrisé, mais non oblitéré : le chercheur n’a aucun intérêt à négliger la souffrance animale. Une expérience sur un modèle animal perd de sa puissance de déduction si certains animaux sont en panique, d’autres en stress, ou en prostration. Bien au contraire, la qualité de la science dans ce domaine va de pair avec le bien-être des animaux. La démarche de raffinement citée plus haut vise également à limiter les symptômes au strict minimum pour l’étude de la maladie, et elle est indissociable d’une empathie raisonnée avec les animaux utilisés.
Il est nécessaire également de rappeler que la qualité de nos avancées médicales comme de nos services de soins assume que le nombre moyen d’animaux que chaque Français « utilisera » au cours de sa vie entière est de 2,6 animaux. Ce nombre est à mettre lui-même en rapport avec les 1298 animaux, en moyenne, que pour toute sa vie un(e) Français(e) utilisera pour se nourrir. L’utilisation d’animaux en recherche expérimentale telle qu’elle est pratiquée de nos jours dans un cadre raisonné et contrôlé, et dans le respect du bien-être animal, reste, selon nous, une nécessité pour l’évolution de nos connaissances, même si son bannissement « à terme » tel qu’inscrit dans le marbre de la loi européenne doit nous inciter à en limiter le nombre et à développer des alternatives.
Enfin, en ce qui concerne le respect effectif des lois relatives à l’utilisation d’animaux en recherche, dont l’obligation d’appliquer les 3R, les inspecteurs vétérinaires départementaux ont à leur disposition des sanctions dissuasives qui peuvent être lourdes en cas de maltraitance.
En tant que chercheurs, nous savons que la recherche en expérimentation animale est sujette à des controverses : nos détracteurs adhèrent aux idées développées par les mouvements opposés à l’expérimentation animale en partie parce qu’il n’y a pas de manifestation de ceux qui sont en faveur de cette pratique. C’est précisément pour cela qu’il nous incombe de rendre compte à nos concitoyens de ce que nous faisons dans nos laboratoires.
Colin Deransart a reçu des financements de la Ligue Française Contre les Epilepsies, des Laboratoires GlaxoSmithKline, de la Fondation Electricité de France, de l'ANR et d'un Programme Hospitalier de Recherche Clinique.
Bertrand Favier est membre de l'AFSTAL. Sa recherche actuelle est financée par l'ANR et la Société Française de Rhumatologie en plus de son employeur.
Boulet sabrina a reçu des financements de l'ANR, la Fondation de France, la fondation pour la Rechercher sur le Cerveau, la fondation France Parkinson.
Véronique Coizet a reçu des financements de l'ANR, la fondation France Parkinson, la Fondation de France. Elle est présidente du comité d'éthique de l'Institut des Neurosciences de Grenoble et membre du comité Santé et bien-être des animaux.
28.04.2025 à 13:10
Fiona Ottaviani, Associate professor en économie - Grenoble Ecole de Management, F-38000 Grenoble, France - coordinatrice recherche Chaire Unesco pour une culture de paix économique - co-titulaire Chaire Territoires en Transition, Grenoble École de Management (GEM)
Eléonore Lavoine, Doctorante en gestion - Evaluation de l'utilité sociale territoriale, Grenoble École de Management (GEM)
Fanny Argoud, Doctorante en sciences de gestion, Aix-Marseille Université (AMU)
Hélène L'Huillier, Chercheuse et évaluatrice indépendante, partenaire du Campus de la Transition, ESSEC
Lola Mercier Valero, Assistante de recherche, Grenoble École de Management (GEM)
Thibault Daudigeos, Professeur Associé au département Homme, Organisations et Société, Grenoble École de Management (GEM)
Pour sortir de l’approche coûts-bénéfices, place aux co-bénéfices. Ils désignent les multiples effets positifs générés par une même action, qu’ils soient sociaux, économiques ou environnementaux. Concrètement, comment mettre en œuvre cette approche et à quoi sert-elle ?
Il vous arrive sans doute d’aller chercher votre pain en vélo ou à pied plutôt qu’en voiture, en vous disant que c’est bon pour la planète, mais aussi pour la santé et le porte-monnaie. Saviez-vous que ce type d’effets positifs multiples liés à une même action porte un nom : les co-bénéfices ?
Face à l’approche des coûts-bénéfices, qui a irrigué le raisonnement économique au cours des dernières décennies, se développe cette approche. Elle offre une grille de lecture plus adaptée pour comprendre l’interdépendance des crises actuelles et les façons d’y répondre. Penser les co-bénéfices amène à concilier les multiples dimensions d'un projet… souvent considérées inconciliables.
Par exemple, dans le rapport de l’Agence de la transition écologique (Ademe) « Indicateurs de bien vivre et co-bénéfices de la sobriété », nous montrons que la sobriété et les actions associées ne sont ni perçues positivement ni mises en œuvre par l’ensemble des acteurs des territoires, alors qu’elles sont également un levier du bien vivre.
Alors, qu’apporte cette approche par rapport à une réflexion économique traditionnelle fondée sur les coûts-bénéfices ? Concrètement, comment la mettre en œuvre ?
L’économiste Éloi Laurent situe l’apparition de la définition des co-bénéfices à la Commission santé et changement climatique sous l’égide de la revue médicale The Lancet, il y a une quinzaine d’années. Ils sont abordés comme des « avantages collatéraux liés à la réduction des émissions de gaz à effet de serre, tels que l’amélioration de la qualité de l’air, l’innovation technologique ou la création d’emplois ».
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Actuellement, la notion de co-bénéfices est de plus en plus utilisée par les institutions internationales. Le Groupe intergouvernemental d’experts sur l’évolution du climat (Giec), la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES), la Banque mondiale, ou encore, à l’échelle nationale, la Commission de l’économie du développement durable (CEDD) ou l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), s’en sont ainsi emparés ces dernières années.
Le rapport Nexus, ou « Affronter ensemble cinq crises mondiales interconnectées en matière de biodiversité, d’eau, d’alimentation, de santé et de changement climatique », a été récemment publié par la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES). Il mobilise la notion de co-bénéfices pour mettre en lumière l’interconnexion des enjeux et des crises, mais également les réponses pouvant répondant durablement à ces crises.
Soixante-dix réponses générant des co-bénéfices sur plusieurs des cinq éléments du « Nexus » – la biodiversité, l’eau, l’alimentation, la santé et le changement climatique – sont proposées dans le deuxième volet du rapport intitulé « Transformative Change ».
À titre d’exemple, une des réponses combine la restauration des écosystèmes riches en carbone tels que les forêts, les sols, les mangroves et la gestion de la biodiversité pour réduire le risque de propagation des maladies des animaux aux humains.
Face aux crises environnementales et sociales actuelles, il est urgent de repenser et de réinventer nos modèles d’organisation socioéconomique. La tendance est de penser les réponses face à ces crises en silo, alors qu’elles sont intrinsèquement liées. Les acteurs économiques visent le zéro carbone (ou zéro émission nette), sans interroger l’incidence des choix faits sur les autres volets environnementaux ou sociaux. Comme le montre le rapport croisé du GIEC et de la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services écosystémiques (IPBES), les interrelations entre changement climatique et biodiversité sont nombreuses.
Les valeurs créées sont souvent réduites à différents indicateurs financiers et monétaires avec une approche par les coûts et bénéfices. On pourrait décider de remplacer un véhicule thermique par un véhicule électrique si les économies réalisées en termes de consommation énergétique, mais aussi de réduction d’émissions de CO2, sont supérieures à l’investissement consenti. Malgré son utilité pour la décision, cette approche oblitère les relations entre les différents enjeux environnementaux, économiques et sociaux.
L’approche coûts-bénéfices renvoie à l’idée que les différentes formes de capital pourraient se compenser. Elle oblige fréquemment un chiffrage monétaire d’éléments n’ayant pas de prix de marché. Cette approche amène à considérer qu’une vie humaine n’aurait pas la même valeur selon l’endroit où l’on naît…
S’en détacher pour les co-bénéfices permet de mieux répondre aux interdépendances des enjeux et d’identifier les leviers de changement systémique. L'idée : prendre en compte les conséquences sur la pollution, l’épuisement des ressources ou le bien-être de la population.
Faire du vélo se traduit par des co-bénéfices sur la santé mentale et physique et l’émission de CO2. Cette approche est indispensable pour penser les enjeux de transition : les transitions sont interdépendantes, il faut les penser comme un tout. Une politique climatique efficace ne peut se limiter à la réduction des émissions de CO2, sans considérer son impact sur les emplois locaux, les conditions de vie de la population ou les inégalités socio-spatiales.
Dans les organisations, penser les co-bénéfices permet de répondre aux impératifs sociaux et environnementaux, d’optimiser l’utilisation des ressources financières, personnelles et ressources naturelles et de maximiser les effets positifs d’une seule action sur diverses dimensions. Il y a, selon l’économiste chilien Manfred Max-Neef, un gain d’efficience.
À titre d’illustration, le partage des infrastructures des entreprises ou collectivités peut être positif tant du point de vue de l’artificialisation des sols, de l’optimisation de l’usage de l’énergie, que du point de vue du lien social.
Cette approche plus systémique constitue une fenêtre d’opportunité pour les entreprises afin de sortir d’une logique de conformité et d’un raisonnement en silo promus par la Directive européenne relative à la publication d'informations en matière de durabilité par les entreprises (CSRD). Pour les collectivités, sur fond de pénurie budgétaire, le ciblage d’actions couplant des bénéfices socioéconomiques et environnementaux s’avère de plus en plus essentiel. L’intégration de co-bénéfices dans les méthodes de pilotage et d’évaluation d’impact des organisations est une voie prometteuse pour répondre aux exigences d’une transition plus juste et soutenable.
La prochaine fois que vous irez chercher du pain en vélo, songez combien il serait loisible d’étendre à d’autres champs de tels co-bénéfices !
Le rapport sur les cobénéfices de la sobriété et les indicateurs de bien vivre a été commandité par l'ADEME et écrit par la chaire Territoires en transition et le campus de la transition.
Le rapport sur les cobénéfices de la sobriété et les indicateurs de bien vivre a été commandité par l'ADEME et écrit par la chaire Territoires en transition et le Campus de la transition.
Eléonore Lavoine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 12:59
Christel Tessier Dargent, Maître de Conférences, Université Jean Monnet, Saint-Etienne, IAE Saint-Etienne
Ils ont entre 10 et 18 ans, vivent en France et se sont lancés très jeunes dans l’entrepreneuriat… Phénomène de mode ou vague de fond ? Quels sont les risques et les opportunités pour ces adolescents-entrepreneurs ?
Mineurs, ils développent leur business « sous les radars ». L’Institut national de la statistique et des études économiques (Insee) ne donne pas de chiffres sur les moins de 18 ans qui dirigent une entreprise, même s’ils sont la coqueluche des médias.
Ils choisissent, par exemple, de s’émanciper à 16 ans, pour devenir micro-entrepreneurs, un statut aux obligations réduites, adapté à une petite activité sans risque, mais à forte valeur ajoutée. Alternative : sans être émancipés, enregistrer une entreprise unipersonnelle à responsabilité limitée (EURL) ou société par actions simplifiée unipersonnelle (Sasu, avec l’autorisation de leurs parents, formes plus classiques d’entreprise permettant un développement rapide et la gestion d’actifs plus importants.
Les plus jeunes gèrent leurs affaires dans une zone grise, recourant à des proches, souvent leurs parents comme prête-noms, ou opérant temporairement en économie informelle. Ce qui semble encore un épiphénomène en France représente une tendance plus marquée dans les pays anglo-saxons.
Au Royaume-Uni, le nombre d’adolescents-entrepreneurs, âgés de 16 à 19 ans, a été multiplié par huit entre 2009 et 2020 : 6 800 entreprises ont été enregistrées, avec une augmentation de 20 % pendant la pandémie de Covid. Aux États-Unis, on estime à deux millions le nombre d’entrepreneurs adolescents (même si, là encore, les statistiques manquent de rigueur), avec d’éclatantes success stories.
À l’autre extrême du spectre, l’entrepreneuriat dit de nécessité représente pour les personnes vulnérables, dont certains adolescents dans des contextes socio-économiques difficiles, un moyen de survie face à la pauvreté.
Pour les pouvoirs publics, l’entrepreneuriat apparaît ainsi comme un outil permettant de réduire le chômage des jeunes, mais aussi d’offrir aux nouvelles générations les moyens de relever les défis du monde contemporain. En France, où souffle depuis le début du XXIe siècle un esprit entrepreneurial inédit, de nombreux dispositifs encouragent l’entrepreneuriat des étudiants. Le programme Pépite, lancé en 2014, a pour vocation de sensibiliser à la culture entrepreneuriale sur les campus français et d’accompagner les étudiants-entrepreneurs dans leurs projets.
Certains chercheurs mentionnent l’intérêt de dispositifs d’éducation entrepreneuriale dès le primaire et le secondaire. La France est actuellement classée parmi les pays les moins en pointe sur le sujet, à l’instar de l’Allemagne et du Japon.
Les premiers de la classe : la Finlande, les Pays-Bas, la Norvège, le Qatar et les Émirats arabes unis caracolent en tête
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Une recherche réalisée auprès d’une trentaine d’entrepreneurs ayant développé leurs entreprises avant leur majorité nous éclaire sur l’intérêt, mais aussi sur les limites de ces initiatives. Elle a été présentée dans le cadre de la conférence RENT 2025.
Les vingt-cinq informants de cette étude, dont seulement deux jeunes femmes, habitent aux quatre coins de la France. Ils ont entre 13 et 17 ans. Ils ont lancé leurs projets dans le numérique, mais aussi dans la mode, l’ameublement ou l’artisanat.
Nous parlons bien d’adolescents entrepreneurs. Il ne s’agit pas de vente de limonade sur le trottoir ou de bijoux en pâte Fimo à des copines de classe, mais bien de produits innovants, de recrutements de personnel et de revenus à cinq chiffres… Une aventure pour laquelle il a fallu convaincre des parents, souvent inquiets et qui encouragent la poursuite d’études en parallèle.
Des parents disposant parfois d’un capital financier et social propice à soutenir les ambitions de leur progéniture, mais rarement entrepreneurs eux-mêmes.
À lire aussi : Les youtubeurs stars : des entrepreneurs créatifs et innovants
Dans ce contexte, il faut souligner le rôle prépondérant de la digitalisation comme facilitateur externe pour ces digital natives. Les « enfants du numérique » s’emparent aisément de ces technologies qui leur offrent de nouvelles façons de faire, de nouvelles opportunités d’affaires et des modèles commerciaux innovants.
Un jeune entrepreneur résume :
« J’ai trouvé l’idée [un site comparateur de prix] sur Internet, je me suis formé sur YouTube, et j’ai lancé mon entreprise sur un ordi dans ma chambre. »
Comme l’évoque un autre informant :
« Avec le numérique, ce qui compte, ce n’est pas l’âge, mais l’expérience. »
Souvent autodidactes, ils se détournent de l’éducation traditionnelle, jugée peu pertinente et partiellement obsolète. Ils lui préfèrent une formation ciblée via des sites dénichés sur le web : codage, IA, marketing digital, rédaction de statuts juridiques, etc. Les plateformes leur permettent de recruter aisément des free-lancers à travers le monde.
Les investissements initiaux prennent souvent la forme de financements participatifs. Le travail à distance leur permet de masquer leur jeune âge et de construire une légitimité sur la seule base de l’expertise développée.
Leur maîtrise des réseaux sociaux permet un personal branding efficace et la création d’un solide écosystème entrepreneurial virtuel. Ce monde numérique se prolonge dans le monde réel, où se crée une solidarité entre pairs qui pallie l’absence de structures institutionnelles.
Les risques et problématiques, évoqués de façon très transparente par ces entrepreneurs-adolescents sont importants. L’un explique :
« Pour ne pas bosser gratuitement, je récupérais des enveloppes de cash dans le métro. »
Un autre complète :
« Il m’a fallu trois mois pour obtenir un statut, personne ne [me] connaissait. »
L’absence de légitimité et la discrimination liée à la perception négative du jeune âge sont répandues, notamment auprès des clients et investisseurs.
L’inexistence de structures d’accompagnement est un frein pour conseiller le jeune dans le développement de son projet, ainsi que la méconnaissance des dispositifs existants par les administrations. Un informant confirme :
« Impossible de se former sur la fiscalité, la comptabilité. Aucune structure n’est prévue pour nous, aucun conseil. »
Surtout, ils rencontrent des difficultés à maintenir une bonne santé physique et mentale face au stress et à la lourde charge de travail. L’un d’eux l’explique :
« Je bossais cent heures par semaine, enfermé dans ma chambre. J’ai dû arrêter le lycée. Je n’avais même plus le temps de faire du sport. »
Cette pression est accentuée pour beaucoup par la nécessité de poursuivre une scolarité classique en parallèle de l’activité entrepreneuriale, contrairement aux artistes ou sportifs de haut niveau par exemple. Le sport étude, un modèle pour ces entrepreneurs-adolescents ?
« Les journaux racontent n’importe quoi, les influenceurs, ça n’est pas de l’entrepreneuriat, c’est de l’argent facile. »
Presque tous les jeunes entrepreneurs interrogés sont devenus des serial entrepreneurs. Ils perçoivent que cette période de la vie est propice à la création d’entreprise, compte tenu de leur peu de charges financières ou de responsabilités annexes, alors qu’ils débordent d’énergie, d’idées, d’insouciance et d’ambition.
Ces entrepreneurs-adolescents poursuivent avec détermination leur trajectoire entrepreneuriale. Les points positifs dans cette aventure adolescente sont légion. Ils apprécient l’autonomie financière acquise très tôt, la possibilité de passer à l’action, de s’adonner à leur passion ou de répondre à un besoin qu’ils ont souvent eux-mêmes éprouvé.
Deux caractéristiques frappantes : la confiance en soi et le fort sentiment d’auto-efficacité développés par ces adolescents. Contrairement à leurs aînés, ils ont un rapport décomplexé à l’échec, même s’ils ont une gestion « de bons pères de famille ». L’un d’eux confirme :
« La réussite, c’est d’abord beaucoup d’échecs ; ça accélère le processus d’apprentissage. »
Peu d’entre eux, cependant, expriment une sensibilité environnementale, alors que cette tendance se développe ensuite.
Enfin, il est marquant de constater que les jeunes femmes sont très sous-représentées dans l’échantillon français : phénomène culturel, discrimination additionnelle, barrière du digital ? Ces deux questions mériteraient d’être approfondies.
Christel Tessier Dargent a reçu des financements de Université Jean Monnet.
28.04.2025 à 12:59
Nadia-Yin Yu, Assistant Professor of Organizational Behavior and Human Resource Management, Neoma Business School
Pour être une réussite, la mise en place de nouveaux outils numériques doit être accompagnée, très en amont. Former, écouter, impliquer sont trois moments importants, mais les moyens à mobiliser diffèrent selon les situations. Les résultats de l’étude menée dans la police et dans une université le rappellent.
Dans de nombreuses entreprises, la mise en place d’un nouveau système informatique est perçue comme une avancée organisationnelle incontournable, répondant à des objectifs stratégiques : améliorer la performance, moderniser les processus, ou encore renforcer la sécurité. Pourtant, dans plus de 75 % des cas, ces projets échouent partiellement ou totalement. Une sous-estimation des réactions humaines face au changement est souvent en cause.
Depuis la pandémie de Covid-19, les organisations ont été poussées à adopter rapidement, et parfois à marche forcée, de nouveaux outils numériques. Si ces technologies sont censées améliorer l’efficacité et moderniser les pratiques, elles viennent souvent perturber les routines des employés, suscitant de l’incompréhension, du stress, voire du rejet. Il en résulte notamment une mauvaise utilisation des outils, une baisse de productivité, des frustrations… et de futurs projets abandonnés.
Alors, comment aider les utilisateurs à s’approprier ces nouvelles technologies ?
C’est à cette question que notre recherche tente de répondre. Elle est basée sur un modèle psychologique appelé le Coping Model of User Adaptation. Ce modèle explore la façon dont les utilisateurs réagissent – mentalement, émotionnellement et concrètement – lorsqu’on leur impose ou propose un nouvel outil technologique. Et surtout, comment les organisations peuvent-elles intervenir au bon moment et de la bonne façon pour rendre cette transition plus fluide et efficace.
À lire aussi : Transformation numérique : comment ne pas manquer la phase qui s’ouvre dans le travail ?
La mise en place d’un nouveau système informatique se déroule en plusieurs étapes : une phase de préparation (avant le déploiement) et une phase d’implémentation (après la mise en service). Pourtant, la majorité des recherches s’est concentrée sur la manière dont les utilisateurs réagissent une fois l’outil en place, en négligeant ce qui se joue en amont. Or, les perceptions initiales peuvent largement conditionner la suite.
Un exemple notable est l’échec de Quibi en présence d’un financement massif et d’un contenu soutenu par des célébrités en raison d’un mauvais positionnement avant le lancement et d’un manque de valeur ajoutée claire pour les utilisateurs dans un marché du streaming saturé.
Le caractère obligatoire ou volontaire de l’usage constitue également un élément très important, car cela change profondément la manière dont les individus s’y adaptent. Les stratégies de « coping » – c’est-à-dire les manières de faire face au changement – ne sont pas les mêmes selon que l’on agit sous contrainte ou par choix.
Chaque étape de la mise en place d’une nouvelle technologie appelle des actions spécifiques de la part du management. Une intervention efficace ne peut se limiter à une simple formation ou à une annonce ponctuelle. Elle doit s’inscrire dans un processus continu et adapté aux besoins des utilisateurs.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Dans la phase de préparation, avant même que la technologie ne soit déployée, la formation joue un rôle essentiel. Elle permet de réduire l’incertitude, d’atténuer les craintes et de créer des attentes positives. En parallèle, impliquer les utilisateurs dans le développement ou la sélection de l’outil favorise leur engagement. Cette participation renforce leur sentiment de contrôle et augmente les chances d’appropriation, notamment dans les contextes où l’usage de la technologie reste volontaire.
Une fois l’outil mis en place, d’autres leviers deviennent prioritaires. L’accompagnement dans les premiers temps est crucial : les utilisateurs doivent pouvoir s’appuyer sur un support accessible et des retours constructifs pour surmonter les difficultés initiales. En outre, le sentiment de justice perçue dans le processus de changement joue un rôle important. Les utilisateurs doivent sentir que les décisions sont cohérentes, transparentes et équitables, sans quoi la défiance peut s’installer.
Enfin, il est indispensable d’adapter ces interventions au contexte dans lequel la technologie est introduite. Dans un cadre obligatoire, où les utilisateurs n’ont pas le choix, ils ont tendance à mobiliser des ressources collectives pour faire face au changement : entraide, discussions entre collègues, apprentissage en groupe. Le rôle du management est alors de soutenir ces dynamiques collaboratives.
À l’inverse, dans un cadre volontaire, l’adaptation se fait souvent de manière plus individuelle, en fonction des préférences et des besoins de chacun. Ici, la souplesse, la clarté des bénéfices et la reconnaissance du libre arbitre sont des facteurs clés de réussite.
Pour tester notre modèle, nous avons mené deux études de terrain dans des contextes très différents. Dans le premier cas, nous avons observé une situation d’usage obligatoire, au sein d’une organisation policière en Asie. Dans le second, il s’agissait d’un usage volontaire, dans une université asiatique.
Dans le contexte obligatoire, les agents de police devaient passer d’un ancien système de communication (appelé CCII) à une version plus récente et plus performante (CCIII). Ce nouvel outil offrait des fonctionnalités avancées, conçues pour améliorer la prise de décision et l’efficacité opérationnelle. Pour accompagner ce changement, plusieurs dispositifs avaient été mis en place : des formations, des mises à jour techniques et un suivi par le biais de retours d’expérience.
Les résultats des enquêtes menées avant et après l’introduction du système ont montré que la formation avait un impact direct sur la manière dont les agents percevaient l’utilité et la facilité d’utilisation du nouvel outil. Le soutien managérial pendant la période de transition – notamment la prise en compte des retours et la résolution rapide des problèmes – a également renforcé leur évaluation positive de la technologie.
Dans le contexte volontaire, les étudiants d’une université avaient la possibilité d’adopter Microsoft 365, qui proposait de nouveaux outils collaboratifs comme Teams, Word en ligne ou encore Excel avec accès à des solutions et des outils dans le cloud. L’ancien système restait disponible, et chaque étudiant pouvait choisir de migrer ou non. Là encore, des formations avaient été proposées, accompagnées de temps d’échange et d’améliorations techniques successives. Les données recueillies un mois avant et un mois après le déploiement ont montré que la participation des étudiants en amont – lorsqu’ils ont pu tester ou donner leur avis – jouait un rôle décisif dans leur perception de l’utilité et de la simplicité d’usage. Dans ce cas, c’est surtout le sentiment de justice dans la manière dont le changement a été mis en œuvre qui a influencé l’adoption.
Ces deux études illustrent clairement que les leviers efficaces varient selon le contexte. La formation et le traitement des retours sont essentiels quand l’usage est imposé. La participation et la transparence sont prioritaires quand l’adoption repose sur un choix individuel.
Ces deux études de terrain confirment qu’il n’existe pas de recette unique pour réussir l’implémentation d’une nouvelle technologie. Tout dépend du contexte d’usage, du moment dans le processus et de la manière dont les utilisateurs sont accompagnés.
Dans les situations où l’usage est obligatoire, il est crucial de miser sur des stratégies collectives d’adaptation. La formation, l’accompagnement continu et l’écoute active des retours permettent aux utilisateurs de mieux comprendre l’outil, d’en percevoir l’utilité, et de maintenir leur performance malgré les bouleversements initiaux. Ce type de soutien favorise une forme de « chaperonage » communautaire, où l’entraide entre collègues joue également un rôle clé.
Dans les contextes volontaires, l’approche doit être différente. Les utilisateurs ont besoin de sentir qu’ils gardent le contrôle. Leur engagement passe alors par la participation en amont, la clarté des bénéfices et une mise en œuvre perçue comme juste et respectueuse. Ici, l’adaptation est plus individuelle, portée par le sens que chacun donne à la technologie dans son propre cadre de travail ou d’étude.
Nos résultats montrent également que les premières impressions comptent. Les croyances formées avant l’introduction d’un outil ont tendance à se maintenir dans le temps. Dans un usage obligatoire, c’est l’utilité perçue qui pèse le plus sur la suite de l’expérience. En revanche, dans un usage volontaire, c’est la facilité d’usage initiale qui influence davantage l’adoption. Mieux vaut donc agir tôt pour installer un regard positif sur la technologie. Par ailleurs, une utilisation approfondie des fonctionnalités peut atténuer les baisses de performance souvent observées après le déploiement et améliorer la satisfaction au travail.
La réussite de l’adoption d’une nouvelle technologie ne repose pas sur ses seules qualités techniques. Cela dépend surtout de la manière dont elle est introduite, expliquée et accompagnée. Former, écouter, impliquer : ces trois dimensions, si elles sont bien calibrées au contexte, peuvent faire la différence entre un échec coûteux et une transition réussie.
Nadia-Yin Yu est une professeur de NEOMA Business School. Les auteurs de l'article de recherche original incluent Yue (Katherine) Feng de Hong Kong Polytechnic University, Kar Yan Tam et Michael C. Lai de Hong Kong University of Science and Technology.
28.04.2025 à 12:59
Yeonsin Ahn, Professeur assistant, stratégie et politique d'entreprise, HEC Paris Business School
Entre grands groupes et start-ups les cultures d’entreprise n’auraient rien à voir. D’un côté, process rigides et contrôle ; de l’autre, agilité et autonomie. Et pourtant…
Même s’il gagnait un salaire à six chiffres, en travaillant comme vice-président de l’ingénierie sur le logiciel de vidéoconférence Cisco WebEx, Eric Yuan n’était vraiment pas heureux chez Cisco Systems. « Aller au bureau pour travailler ne me faisait pas envie », a-t-il déclaré à CNBC Make It en 2019.
Yuan n’était pas satisfait de la culture d’entreprise de Cisco, où les nouvelles idées étaient souvent rejetées et où tout changement prenait du temps à se mettre en place. Ainsi, lorsqu’il a suggéré de construire à partir de zéro une nouvelle plateforme vidéo adaptée aux mobiles, l’idée a été rejetée par la direction de l’entreprise. Frustré par tant de résistance au changement, Yuan a finalement quitté l’entreprise en 2011 pour fonder Zoom, dont la valeur a augmenté de façon astronomique pendant les années de pandémie de Covid. Zoom est alors devenue une des applications de référence pour le travail à distance.
On pourrait penser que les fondateurs qui, comme Yuan, ont exprimé leur mécontentement à l’égard de la culture de leurs anciens employeurs créeraient de nouvelles entreprises avec des valeurs très différentes. Cependant, nous avons constaté qu’en moyenne, les fondateurs sont enclins à reproduire la culture de leur ancien employeur dans leur nouvelle entreprise, qu’ils en soient conscients ou non.
L’histoire de Yuan semble emblématique car elle combine les préjugés que beaucoup de gens se font aussi bien du géant de la technologie que de la start-up agile. Pourtant, nos recherches ont montré que cette distinction n’est en fait pas si claire.
À lire aussi : Les start-up, moins cool qu’elles n’en ont l’air
Nous avons aussi montré que plus de la moitié des fondateurs de start-ups technologiques états-uniennes ont une expérience antérieure dans une entreprise, souvent dans des géants comme Google ou Meta. La culture du travail dans ces grandes organisations n’est pas toujours aussi facile à oublier, lorsque les entrepreneurs se lancent à leur tour.
Pour notre recherche, nous avons identifié 30 items pour définir les différents types de cultures d’entreprise.
Il s’agit, par exemple, de l’équilibre entre la vie professionnelle et la vie privée, du travail d’équipe, de l’autorité, de l’innovation ou encore de la place occupée par la rémunération ou le rapport au client dans la culture… Des recherches antérieures avaient montré que les fondateurs de start-ups transfèrent des connaissances et des technologies acquises précédemment dans leur vie professionnelle. Nos recherches montrent empiriquement qu’ils en transfèrent également la culture du travail.
Trois conditions favorisant un tel transfert ont été identifiées :
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
la congruence de la culture : ce terme désigne le degré de cohérence des différents éléments qui constituent la culture de départ. Par exemple, dans notre échantillon se trouve une plateforme de services de localisation basée sur le cloud dont la culture est très cohérente. L’entreprise a trois éléments culturels très importants : elle est adaptative, orientée vers le client et exigeante. Ces éléments pointent constamment vers une culture de réactivité client. Nos données comprennent également une plateforme de vêtements de commerce électronique avec deux éléments culturels – l’orientation vers la croissance et l’équilibre entre vie professionnelle et vie privée – qui, étant mal alignés dans leurs significations, réduisent la congruence de sa culture. Nous avons constaté que plus la culture d’une organisation mère est congruente en interne – et donc, plus elle est facile à comprendre et à apprendre –, plus il est probable que les fondateurs transfèrent ses éléments à leurs nouvelles entreprises ;
la typicité de la culture : plus une organisation est atypique – c’est-à-dire plus elle se démarque des autres dans son domaine –, plus il est probable que sa culture soit transférée à la start-up. Quand la culture est atypique, les employés identifient plus facilement les éléments de cette culture et, par conséquent, s’en souviennent mieux et les intègrent davantage une fois qu’ils ont fondé leur start-up. Parce qu’une culture atypique singularise davantage une entreprise, les employés prennent davantage conscience que l’organisation les a choisis et qu’ils ont choisi d’y travailler. Cela crée un attachement cognitif chez l’employé envers l’organisation, qui va aussi augmenter la façon dont il intègre sa culture.
Dans notre étude, « l’atypicité » culturelle de chaque start-up a été mesurée en calculant les distances culturelles entre toutes les organisations d’une même catégorie de produits pour une année donnée. Si les fondateurs de start-ups sont souvent persuadés que leur culture d’entreprise est unique en son genre, nous avons constaté que ce n’était pas toujours le cas. Les fondateurs ont tendance à reproduire la culture de leurs anciens employeurs parce qu’ils sont habitués à cette façon de travailler.
De nombreux étudiants me disent qu’ils sont attirés par des environnements de travail plus créatifs et innovants, ce qu’ils associent souvent aux start-ups plutôt qu’aux entreprises traditionnelles et établies. Mais nos recherches suggèrent que cette perception pourrait ne pas être tout à fait exacte.
De même, les demandeurs d’emploi à la recherche de cultures uniques ou avant-gardistes pourront être surpris d’apprendre que les environnements des start-ups ressemblent plus souvent qu’on ne le dit à ceux des grandes entreprises technologiques.
Et, pour les fondateurs, notamment ceux qui ont quitté leurs postes précédents en raison de cultures d’entreprise frustrantes, les résultats de cette recherche peuvent être un signal d’alarme, pour qu’ils prennent conscience d’à quel point il est facile de recréer involontairement les environnements qu’ils avaient voulu quitter et ne pas reproduire.
Yeonsin Ahn ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.04.2025 à 12:59
Dennys Eduardo Rossetto, Associate Professor of Global Innovation and Entrepreneurship, SKEMA Business School
Quelles sont les questions à se poser avant de débuter un programme d’innovation sociale ? Comment procéder ? Avec qui ? Autant d'interrogations auxquelles répond cet article.
La pandémie de Covid-19 a mis en lumière les défis sans précédent des systèmes de santé du monde entier et, en corollaire, leurs innovations. Parmi elles, le Nasa ventilator project. Ces respirateurs à faible coût sont produits en seulement trente-sept jours, avec une licence de production disponible dans le monde entier.
Cette invention illustre le pouvoir de l’innovation frugale. Elle pourrait être définie comme « la capacité à faire plus avec moins », afin d’apporter une valeur essentielle dans un monde où les limites planétaires sont dépassées. Pour les entreprises, c’est un moyen de rester compétitives et de prospérer dans un environnement aux ressources limitées. L’innovation frugale s’étend à des groupes de clients non desservis, tout en garantissant une « excellence abordable » ; ce qui ne signifie pas nécessairement des produits bon marché, mais des produits qui offrent une valeur ajoutée.
L’innovation frugale ne s’embarrasse pas de complexité inutile. Loin d’être l’apanage des marchés émergents, elle présente un intérêt à l’échelle mondiale. Pour mieux la comprendre, nous avons mené un travail de recherche en étudiant plus de 1 000 entreprises au Brésil, en Inde et aux États-Unis.
Pour les entreprises, un modèle est proposé :
Focus sur l’essentiel : évaluer la simplicité de conception de ses produits et supprimer les fonctionnalités non essentielles.
Réduction des coûts : rationaliser les processus internes pour améliorer l’efficacité.
Engagement durable et local : exploiter les ressources locales et conclure des partenariats pour créer davantage de valeur ajoutée.
Mettre l’accent sur l’essentiel, en enlevant les fonctionnements non indispensables, est la clé de l’innovation frugale. En fournissant des solutions fiables qui répondent efficacement à des besoins primaires, les entreprises parviennent à augmenter la satisfaction des clients.
Par exemple, la voiture Tata Nano offrait un moyen de locomotion simple mais efficace à 1 500 euros. Initialement conçue comme un véhicule abordable pour le marché indien, elle a démontré son intérêt dans les pays développés, avec les enjeux de durabilité et de réduction des coûts.
Pourtant, la Tata Nano a été un échec commercial dans les pays développés. Pourquoi ?
Essentiellement à cause des perceptions négatives héritées de son image de « voiture la moins chère ». Ce positionnement a fait douter les consommateurs de sa qualité, sans compter le statut social peu flatteur associé. Des rapports ont fait état de problèmes de sécurité et dissuadé les acheteurs potentiels. Après une baisse des ventes, sa production a été arrêtée.
La réduction des coûts permet de conserver les fonctionnalités essentielles, tout en optimisant l’utilisation des ressources et en minimisant les dépenses. Elle passe par la rationalisation des processus et l’exploitation des matériaux locaux.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
En Inde, la jambe de Jaipur est une prothèse à 50 euros conçue à partir de matériaux disponibles localement, notamment du plastique. L’objectif : devenir accessible aux amputés à faibles revenus, dans un pays aux 10 millions de personnes vivant avec une infirmité.
Autre enjeu, celui des électrocardiogrammes (ECG) au pays de Gandhi. L’entreprise GE Healthcare a créé un appareil portable ECG à bas prix, le Max 400. Au lieu de concevoir une nouvelle imprimante à partir de zéro, l’équipe Recherche & développement (R&D) a adapté une imprimante déjà utilisée dans les bus pour imprimer les tickets. Le pari est réussi. Le produit permet de proposer un diagnostic fiable, pour un coût modeste, et de facto rendre la santé plus abordable.
Toutefois, si les coûts sont réduits au détriment des fonctionnalités essentielles ou de la qualité, l’innovation frugale peut conduire à des produits de qualité médiocre.
L’enjeu ? Trouver un équilibre entre la réduction des coûts et la fiabilité.
L’innovation frugale vise également à s’appuyer sur les ressources, les populations et les spécificités locales.
Au Brésil, la marque de cosmétiques Natura a su s’adapter en se tournant vers les matières premières locales et les populations locales. Le groupe est à la 4e place du secteur derrière le Français L’Oréal, l’Américain Procter&Gamble et l’Anglo-Néerlandais Unilever. L’entreprise travaille notamment avec plus 4 000 familles de fournisseurs, en évitant les intermédiaires. Elle compose certains de ses produits avec l’ucuuba, le fruit d’un arbre amazonien connu sous le nom de muscadier fou (Virola surinamensis).
Adopter l’innovation frugale renforce donc la résilience et la capacité d’adaptation des organisations dans n’importe quel pays du monde.
Les managers qui souhaiteraient miser sur l’innovation frugale doivent, avant toute chose, évaluer les ressources de leur entreprise. Pour ce faire, il faut se poser les questions suivantes : la simplicité de conception est-elle une priorité de votre entreprise ? Vos processus sont-ils rationalisés en vue de réduire les déchets ? Exploitez-vous les ressources locales efficacement ?
En adoptant, par exemple, des listes de vérification qui passent en revue les fonctionnalités essentielles, la rentabilité et les possibilités de collaboration, les managers peuvent identifier les domaines à améliorer et optimiser le déploiement des ressources…
En somme, l’innovation frugale ne se limite pas à une stratégie économique ; elle représente une voie d’avenir pour répondre aux grands défis sociaux et environnementaux, en conciliant efficacité, inclusion et durabilité.
Dennys Eduardo Rossetto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.04.2025 à 17:21
Emmanuel Hirsch, Professeur émérite d'éthique médicale, Université Paris-Saclay
Le 27 mai 2025, le suffrage des députés sera sollicité pour deux propositions de lois relatives à la fin de vie : l’une en faveur de l’euthanasie et du suicide assisté, l’autre à propos des soins palliatifs et d’accompagnement. Retour sur dix points de vigilance éthique à prendre en compte durant les débats.
Au cours de son audition le 2 avril 2025 par la commission des Affaires sociales de l’Assemblée nationale, le président du Conseil national de l’ordre des médecins s’est dit favorable à ce que la fonction du médecin puisse en certaines circonstances justifier qu’il pratique une euthanasie.
Pour respecter la personne dans ses droits et la prémunir de toute souffrance, le Code de déontologie médicale qui avait évolué, notamment en tenant compte des deux dernières lois relatives aux droits des malades en fin de vie (2005, 2016), préconisait déjà les conditions de recours à la sédation, y compris « profonde et continue maintenue jusqu’au décès ».
Il évoluera désormais du point de vue de ses principes. Le médecin n’aura pas l’autorité de contester la demande de la personne qui solliciterait son assistance pour abréger sa vie, au risque d’être poursuivi pour « délit d’entrave » s’il était amené à y faire obstacle.
La clause de conscience lui sera cependant accordée, alors que le Code de santé publique intégrera l’euthanasie et le suicide médicalement assisté aux devoirs et aux bonnes pratiques du professionnel de santé comme s’agissant d’un traitement indifférencié (qui fera l’objet d’enseignements universitaires). Toutefois, une question se pose : qu’en est-il d’une clause de conscience dès lors que la loi, avec sa transposition dans la déontologie, érige de nouvelles normes ?
Dans la loi du 4 mars 2002 relative aux droits des malades et à la qualité du système de santé, la personne peut exprimer son refus d’un traitement ou de sa poursuite. Sa volonté doit être respectée par le médecin. Son obligation est alors de l’informer des conséquences de sa décision et de maintenir la relation médicale selon ce que la personne souhaite.
Désormais, le refus de soin pourrait être accompagné de l’obligation impartie au médecin de donner suite à une demande de mort provoquée, ne serait-ce qu’en indiquant un confrère susceptible de la satisfaire si lui-même s’y refuse (une liste des médecins pratiquant l’acte légal devrait dans ce cas être établie). L’engagement du soin est dès lors doté d’une autre signification.
L’avis n°1 du Collectif Démocratie, éthique et solidarités, publié le 3 avril 2025, présente une analyse détaillée des impacts de la proposition de loi relative à la fin de vie rédigée notamment par des universitaires, des professionnels, des personnes malades et des membres représentatifs de la société civile.
La collégialité s’est imposée dans le processus décisionnel notamment d’arrêt et de limitation de traitements actifs en réanimation, d’un soin estimé disproportionné ou comme relevant d’une obstination déraisonnable, ainsi que dans l’indication d’une sédation profonde et continue maintenue jusqu’au décès.
Qu’en sera-t-il de ce dispositif d’examen contradictoire d’une demande de mort médicalisée qui a priori devra être considérée recevable dès lors que la personne invoque une souffrance insupportable, sans du reste être contrainte de la formaliser par écrit ?
Qu’en sera-t-il de la pertinence des éléments d’arbitrage de la décision intervenant sur un temps limité à 15 jours, sans recours systématique aux éclairages d’un psychiatre et sans validation par un magistrat, ne serait-ce que du respect des formes (l’avis n° 63 du Comité consultatif national d’éthique énonçait que « le juge resterait bien entendu maître de la décision [« d’exception d’euthanasie »]) ? Sur ce point, les maladies mentales justifient une attention spécifique, pas seulement du point de vue de la faculté de jugement de la personne, mais aussi de l’accessibilité au suivi et aux traitements adaptés.
Qu’en sera-t-il des modalités de l’exercice individuel d’une délibération autorisant l’acte létal approuvé en conscience par un médecin ? Quelles compétences et quelle expertise mobilisera-t-il, à la suite de quelle formation et sous quel contrôle ?
Les directives anticipées pourraient porter sur l’expression d’une demande d’euthanasie ou de suicide assisté. Déjà si peu rédigées, tant anticiper s’avère délicat, ces directives de mort anticipées assigneront la personne au dilemme d’avoir à se prononcer sur un choix qui jusqu’à présent ne s’imposait pas à elle.
Qu’en sera-t-il du respect de la volonté de la personne si son autonomie décisionnelle et sa capacité d’expression sont compromises au terme de sa vie ? Comment un soignant pourra-t-il encore adopter la juste position entre devoir de protection d’une personne et obligation de s’en dégager dès lors qu’est exprimée la volonté d’une mort provoquée ? Ne conviendrait-il pas d’assurer un accompagnement approprié à la rédaction d’une demande d’euthanasie, bénéficiant d’informations personnalisées ?
La fonction de la personne de confiance susceptible d’être consultée à propos d’un acte létal sera-t-elle requalifiée ? N’aurait-on pas à reconnaître une position aux proches de la personne qui, dans la rédaction actuelle de la proposition de loi, sont exclus de toute forme de consultation dans le processus décisionnel ? Quel en sera l’impact sur leur propre souffrance et leur deuil ?
Si s’imposait le modèle d’une mort digne, parce que maîtrisée, indolore et médicalisée, comprendra-t-on encore demain la volonté de vivre sa vie y compris en des circonstances considérées par certains « indignes d’être vécues » ?
Un neurologue, un psychiatre ou un cancérologue devra-t-il d’emblée intégrer à la planification concertée des soins, l’option de l’acte létal ? Conviendra-t-il d’anticiper cette éventualité dès l’annonce de la maladie, ou alors en situation d’aggravation posant comme inévitable une mort à échéance rapprochée ?
Pour éviter tout risque de discrimination, les règles de bioéthique interdisent d’établir la liste des affections « d’une particulière gravité ». Dès lors ne serait-il pas pernicieux d’énoncer des repères indicatifs d’un pronostic vital en phase avancée ou terminale ?
Cet échelonnage n’inciterait-il pas à justifier le renoncement de la poursuite d’un traitement, voire d’un soin, dès lors que leurs coûts induits en fin de vie pourraient être estimés disproportionnés au regard de leur intérêt pour la personne, ou du point de vue de la justice sociale ou intergénérationnelle ?
Le pronostic vital engagé en phase avancée ou terminale est l’un des cinq critères déterminant l’éligibilité de la demande d’euthanasie ou de suicide assisté formulée par la personne.
Rappelons que cette dernière devra « être âgée d’au moins dix-huit ans, de nationalité française ou résidant de façon stable ou régulière en France », « présenter une souffrance physique ou psychologique liée à cette affection, qui est soit réfractaire aux traitements, soit insupportable [selon elle] lorsqu’elle a choisi de ne pas recevoir ou d’arrêter de recevoir un traitement », enfin « être apte à manifester sa volonté de façon libre et éclairée. »
Au cours de l’audition par la commission des Affaires sociales de l’Assemblée nationale le 2 avril 2025, le président du comité d’éthique de l’Académie nationale de médecine a cependant considéré que ce pronostic vital devait être posé sur « la phase avancée et terminale, non de manière alternative ».
Nombre de personnes atteintes de maladies chroniques bénéficient en effet aujourd’hui de traitements permettant une qualité de vie dans la durée, y compris en phase avancée d’évolution de leur pathologie. Certaines personnes atteintes d’une maladie au pronostic péjoratif défient les prédictions néfastes, alors que d’autres ne survivent pas alors que leur pronostic vital ne semblait pas engagé.
Une distinction explicite et incontestable doit donc circonscrire le strict cadre d’application, en derniers recours, d’une loi favorable à la mort provoquée. C’est-à-dire si les souffrances sont incontrôlables, et que l’échéance imminente du décès peut être anticipée selon des éléments de prévisibilité probants (ce qu’à ce jour aucune donnée scientifique ne permet d’affirmer avec certitude). La Haute Autorité de santé doit rendre un avis à ce propos. Si les souffrances s’avèrent « réfractaires » à la suite de l’interruption des traitements sur décision de la personne, la justification de l’acte létal n’est-elle pas relativisée ?
En situation de décision complexe, la culture palliative s’est imposée pour étayer les arbitrages et proposer des lignes de conduite lorsque les circonstances ne permettent plus de poursuivre une stratégie thérapeutique à visée curative, sans abolir pour autant l’accès à d’autres modalités d’accompagnement soignant.
Il est évident que le dispositif d’accès de tous aux soins palliatifs ou même aux consultations douleur est d’une complexité organisationnelle et d’un coût sans rapport avec la décision d’accéder à l’usage d’une substance létale.
Au moment où le service public hospitalier subit une crise qui entrave les politiques de prévention (y compris du suicide), le recours aux traitements et au suivi médical routiniers, que le secteur médico-social est, pour nombre d’établissements, en situation de fragilité économique, que les professionnels sont démotivés par des annonces paradoxales qui les inquiètent au point d’envisager de renoncer à poursuivre leur carrière, est-il crédible d’affirmer que chaque citoyen bénéficiera de la possibilité d’exercer son droit optionnel de décider librement entre fin de vie accompagnée par des soins palliatifs et mort programmée ?
Quels encadrements assurent aujourd’hui l’expression d’un choix autonome, dans un contexte de pratiques dégradées imposant des arbitrages aléatoires ?
Notre impréparation aux circonstances humaines de la maladie chronique, aux situations de handicap et de dépendance induit des maltraitances. Les conditions du « mal mourir » et du « long mourir », tout particulièrement en établissement, influent sur la revendication d’un « bien mourir » dans un cadre conforme à de justes aspirations à la dignité.
Doit-on pour autant se résigner à admettre, sans y apporter les évolutions indispensables, le constat de carences institutionnalisées à l’égard des plus vulnérables, y compris au domicile qui parfois ajoute à l’isolement des maltraitances y compris dans les négligences de l’accompagnement ?
Consacre-t-on l’attention qui s’impose aux causes des injustices socio-économiques qui s’accentuent dans le parcours de maladie, du vieillissement ou en situation de handicap ? Les personnes des plus vulnérables dans notre société bénéficient-elles d’un environnement qui les prémunisse du risque d’être, plus que d’autres, et sans affirmer un libre-choix, soumises aux procédures d’une anticipation de la mort faute d’être en mesure d’assumer de manière autonome leur souveraineté sur leur vie ?
Que certains médecins considèrent en conscience leur engagement jusque dans la responsabilité de consentir à abréger la vie d’une personne sur demande, justifie que des repères soient posés. En effet, les équivoques risquent d’être préjudiciables à l’intérêt direct de la personne malade par nature en situation de haute vulnérabilité.
De même, la représentation des valeurs attachées à la tradition et à la culture médicale pourrait être entachée de soupçons dès lors que l’évolution des pratiques serait comprise comme de nature à relativiser la rigueur des engagements. Le dernier acte de soin doit être un soin.
L’aide à mourir serait légitimée par l’État comme un acte d’ultime compassion, distinct d’une pratique soignante, en cas de circonstances exceptionnelles de souffrances réfractaires défiant les capacités d’assurer la continuité d’un soin consenti par la personne.
Dans sa version actuelle, l’article 38 du Code de déontologie médicale précise que
« le médecin doit accompagner le mourant jusqu’à ses derniers moments, assurer par des soins et mesures appropriés la qualité d’une vie qui prend fin, sauvegarder la dignité du malade et réconforter son entourage. Il n’a pas le droit de provoquer délibérément la mort. »
Comment repenser, renouveler et énoncer l’éthique médicale, dès lors que le Code de santé publique transposera une demande sociétale de mort médicalement provoquée, bouleversant un des principes essentiels de la déontologie, celui de ne pas nuire ?
Des recherches scientifiques s’imposent à propos de l’anticipation de l’impact des pratiques légalisées de l’euthanasie et du suicide assisté sur l’éthique des pratiques médicales et soignantes. Elles devront être produites dans l’évaluation des conditions d’application de la loi si elle est votée et concerneraient :
l’application d’une législation par nature normative à des circonstances individuelles singulières ;
les critères mobilisés dans le processus décisionnel, l’analyse des procédures collégiales et les critères d’arbitrage ;
les dilemmes décisionnels au sein d’une équipe soignante ;
les dispositifs de protection des personnes plus vulnérables du fait notamment de leur incapacité décisionnelle ou des conséquences de maladies mentales ;
la relation entre les compétences au sein d’une équipe en termes de prévention de la douleur, de soins de support, de soins palliatifs et l’incidence des demandes de mort provoquée ;
la relation de confiance entre la personne malade, ses proches et l’équipe soignante :
les risques de discriminations accentués par des facteurs socioculturels ou socio-économiques ;
les modalités de l’engagement thérapeutique dans le contexte des thérapeutiques innovantes coûteuses.
La loi relative à la fin de vie conclura un processus en cinq étapes (1999, 2002, 2005, 2016) débuté par le vote de la loi visant à garantir de droit à l’accès aux soins palliatifs. À la suite d’un processus d’élaboration mené sur plus de vingt-cinq ans que le législateur pourrait envisager le dernier acte de libéralisation de l’accès à la mort médicalement provoquée.
S’il en était ainsi, et sans être certain à ce jour du contenu du texte de loi sur lequel le Parlement se prononcera, la loyauté contraint cependant à admettre que les pays qui ont légalisé l’euthanasie ne sont pas parvenus à maintenir dans la durée les règles d’encadrement qu’ils s’étaient initialement fixées. Il serait sage de reconnaître que la France ne fera pas mieux qu’eux.
Les critères restrictifs énoncés et parfois discutés ne résisteront pas mieux à l’épreuve du temps que ceux érigés comme repères affirmés intangibles depuis 1994 dans le cadre des lois relatives à la bioéthique. L’acceptabilité démocratique des pratiques médicalisées de l’euthanasie et du suicide assisté dépendra donc :
(1) de notre capacité à en contrôler la mise en œuvre dans un cadre indépendant, fixant les règles d’une évaluation publique renouvelée à échéance de trois ans et adossée à des études scientifiques pluridisciplinaires ;
(2) d’une procédure de décision collégiale rigoureusement définie, instruite et validée a priori par un magistrat ;
(3) de la proposition d’un dispositif dédié pour accompagner la personne dans sa décision en amont et en aval de la sollicitation d’un médecin, avec, selon son choix, la faculté d’y associer un proche ;
(4) d’une évaluation des conséquences péjoratives, selon de critères établis a priori, de l’application de cette loi, imposant si nécessaire un moratoire afin d’apporter les correctifs qui s’imposeraient ;
(5) d’un service public de santé fonctionnel, disposant des compétences et des moyens requis, en mesure de favoriser l’exercice d’un choix délibéré d’accès aux soins palliatifs ou de mort anticipée selon les critères établis par le législateur, et non par défaut, sans exposer la personne en situation de vulnérabilité ou de précarité à un risque de discrimination ;
(6) d’un dispositif adapté aux conditions de la pratique d’un acte létal à domicile, justifiant la disponibilité de professionnels dans un contexte de pénurie, et des règles de contrôle spécifiques de la validation de la procédure ;
(7) de leurs conséquences sur la fonction même d’un établissement de santé (notamment spécialisé en psychiatrie et dans la prévention du suicide) ou du médico-social (notamment accueillant des personnes en situation de handicaps), ainsi que sur les valeurs engagées et la cohésion d’une équipe opposée à intervenir. À ce propos le recours à une clause de conscience « collective » est évoqué.
La règle de droit, si elle intégrait dans les prochains mois la mort médicalement provoquée, devra être adossée à l’exercice inconditionnel de l’esprit de discernement, ainsi qu’à l’exigence d’une approche personnalisée et relationnelle attachée au respect des valeurs d’humanité et aux droits fondamentaux de la personne. Assigné à la réflexion et à la démarche à la fois politique, éthique et juridique, ce devoir est aussi un défi.
Pour aller plus loin :
- Emmanuel Hirsch est l’auteur des ouvrages « Fins de la vie. Les devoirs d’une démocratie », collectif, et « Anatomie de la bienveillance. Réinventer une éthique de l’hospitalité », coll. éditions du Cerf, à paraître en mai 2025.
Emmanuel Hirsch ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.