LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

29.04.2025 à 17:30

Trump face aux juges : le bras de fer

Anne E. Deysine, Professeur émérite juriste et américaniste, spécialiste des États-Unis, questions politiques, sociales et juridiques (Cour suprême), Université Paris Nanterre – Université Paris Lumières

Depuis son retour à la Maison Blanche, Donald Trump s’en prend avec virulence aux juges, qu’il accuse de s’opposer à sa volonté par parti pris politique. Mais ceux-ci refusent de plier.
Texte intégral (3065 mots)

Selon Donald Trump, les décisions rendues contre ses décrets les plus controversés s’expliquent par le fait que les juges ayant pris ces décisions seraient tous de gauche et déterminés à l’empêcher de mettre en œuvre le programme pour lequel il a été élu. Des accusations qui ne résistent pas à l’examen : en réalité, les juges tentent d’exercer leur rôle de contre-pouvoir face à un exécutif qui considère les lois du pays, et même la Constitution, comme des obstacles irritants et injustifiés.


Pendant quarante ans, Donald Trump a eu des dizaines de démêlés avec la justice. Jusqu’en 2020, il apparaissait comme un justiciable difficile guidé par Roy Cohn, son avocat sans scrupule ; mais après sa défaite à la présidentielle de novembre 2020, il a basculé dans une dénonciation violente, systématique et populiste du système judiciaire.

Alors que 60 juges différents ont conclu à l’absence de fraude électorale et estimé que la victoire de Joe Biden ne souffrait d’aucune contestation, le perdant s’est lancé dans de multiples diatribes accusant les juges d’être des « gauchistes » maladivement hostiles à sa personne. Poursuivi au niveau fédéral pour des faits graves (ses tentatives de s’opposer à la certification des résultats de l’élection de novembre 2020 et la conservation à son domicile privé de Floride de documents classés secret défense) ainsi qu’au niveau des États (deux affaires pénales et plusieurs au civil, pour fraude financière, harcèlement et diffamation), Trump passe aux insultes et menaces contre les procureurs qui osent le poursuivre et contre les magistrats qui se prononcent sur les diverses motions fantaisistes et manœuvres spécieuses de ses avocats.

Mais grâce à ses habituelles manœuvres dilatoires et à l’aide d’une juge nommée par lui (Aileen Cannon en Floride) et l’appui de la Cour suprême (rappelons que durant son premier mandat, il a nommé au sein de ce cénacle de neuf juges trois juges très conservateurs), il n’est condamné que dans une affaire mineure à New York – l’affaire Stormy Daniels – dans laquelle le juge, en raison de son élection, a renoncé à prononcer une peine.

Sa réélection en novembre 2024 annonçait une nouvelle salve d’attaques contre les institutions judiciaires du pays ; et au bout de cent jours, on peut constater que le bras de fer est bel et bien enclenché.

Le pouvoir judiciaire, cible de toutes les attaques

Depuis son retour à la Maison Blanche, le 20 janvier 2025, Trump a signé plus de 130 décrets dont bon nombre sont contraires à la loi : limogeages massifs de fonctionnaires, gel des subventions fédérales aux agences et aux États ou à la Constitution par la tentative de mettre fin au droit du sol sans amendement à la Loi fondamentale. Ce qui a suscité une avalanche de référés et d’actions en justice afin d’éviter le « préjudice irréparable », qui est le critère d’intervention des juridictions en procédure d’urgence.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une soixantaine de juges a déjà statué contre Trump, suspendant l’application de plusieurs décrets, exigeant la réintégration de fonctionnaires limogés en violation de leurs droits, la levée du gel sur les sommes votées par le Congrès et destinées à certaines agences dont l’agence de développement international Usaid, ou encore l’interdiction temporaire (par la Cour suprême) de la poursuite des expulsions vers le Venezuela en vertu de la loi sur les ennemis étrangers (Alien Ennemies Act).


À lire aussi : Trump et la lutte contre les migrants : ce qu’il a fait, ce qu’il veut faire… et ce qu’il peut faire


Il est difficile de s’y retrouver car, souvent, les recours sont intentés devant plusieurs juges et, selon les cas, la décision émane d’un juge de première instance, d’une cour d’appel ou même de la Cour suprême, saisie en procédure d’urgence, qui a déjà statué plusieurs fois en matière d’immigration en particulier.

Trump est entouré de radicaux extrémistes partisans de la doctrine de l’exécutif unitaire (c’est-à-dire favorables à un pouvoir exécutif tout-puissant), qui le poussent à ne pas se plier aux décisions de justice et qui inondent les réseaux sociaux de critiques et de menaces de mise en accusation et de destitution de ces juges.

Pourtant, tous ne sont pas des « juges Obama » ou d’affreux gauchistes, loin de là. Bon nombre ont été nommés par Ronald Reagan (John C. Coughenour), par George W. Bush ou par Trump lui-même (Carl J. Nichols). Le juge James E. Boasberg, au centre du contentieux sur l’expulsion d’immigrés vers l’Amérique latine, a été nommé en 2002 par George W. Bush à la Cour supérieure du district de Columbia, puis promu par Obama ; le très respecté juge J. Harvie Wilkinson a, quant à lui, été nommé en 1984 par Ronald Reagan à la Cour d’appel du quatrième circuit, où il siège depuis quarante ans.

Le fait qu’il faille « préciser » le cursus d’un juge afin de justifier ses décisions est d’ailleurs en soi un signe de la polarisation doublée de désinformation qui caractérise les États-Unis aujourd’hui. Tâche quasi impossible quand une juriste accomplie, comme la juge Paula Xinis, nommée en 2015, donc par Obama, rend une décision rejetant l’expulsion d’un immigré salvadorien, pourtant fondée sur le droit et non sur ses opinions personnelles. Le juge Engelmayer, nommé par Obama, qui a refusé à Elon Musk l’accès aux données privées et confidentielles du Trésor, a même été accusé de « fomenter un coup d’État contre le gouvernement élu », tweet repris par de nombreux abonnés et retweeté par Musk.

Post d’Elon Musk sur X, 8 février 2025.

Selon les membres de l’administration, les commentateurs de Fox News et les troupes Maga (Make America Great Again), ces juges sont des activistes qui n’auraient pas le droit de s’opposer à l’action « légitime » du président. C’est ce qu’a déclaré le vice-président J. D. Vance, qui, dès 2021, citait le 7e président Andrew Jackson, furieux d’une décision rendue par la Cour suprême de l’époque, qui aurait déclaré : « Le président de la Cour a rendu sa décision. Qu’il se débrouille maintenant pour la faire appliquer. »

Depuis qu’il est redevenu président, Trump dispose du soutien logistique et de la chambre d’écho de cette blogoshère de droite qui répercute critiques, accusations et demandes de destitution afin de délégitimer le pouvoir judiciaire et, par la répétition permanente, d’acclimater l’idée que les juges sont des militants de gauche empêchant le président de faire ce que lui ont demandé des électeurs qui lui ont offert en novembre dernier « une victoire écrasante » – en fait, un peu plus de 49 % des suffrages.

Ces accusations sont un bel exemple des retournements de logique dont Trump est passé maître. Ce sont les juges qui violeraient la Constitution et mettraient la démocratie en danger en s’opposant au chef de l’État. Trump et ses alliés cherchent à réécrire l’histoire de façon à inscrire leurs assauts contre le système judiciaire dans la lignée d’autres présidents, notamment le démocrate Franklin D. Roosevelt (en fonctions de 1932 à 1945). Ce dernier, confronté à l’opposition systématique de la Cour qui invalidait les lois du New Deal, avait envisagé d’y ajouter quelques membres. Devant l’opposition unanime des républicains et des démocrates, Roosevelt avait dû renoncer à son projet ; mais les juges de la Cour suprême avaient finalement évolué. Ce qui confirme que la Cour ne peut durablement être trop en avance (comme elle le fut, dans les années 1960, quand elle a jugé la ségrégation inconstitutionnelle et qu’elle a renforcé les droits civiques et les libertés individuelles) ou en retard (comme à l’époque du New Deal et, peut-être, actuellement) sur l’opinion majoritaire dans le pays.

Deux inconnues majeures subsistent : que fera la Cour suprême en dernier ressort ? Et l’administration Trump se pliera-t-elle à ses décisions ?

Menaces et intimidations inacceptables dans un État de droit

Trump et ses affidés ont menacé plusieurs juges de destitution. Il avait, dès 2017, déjà appelé à celle du juge Curiel – d’origine mexicaine mais né aux États-Unis – qu’il accusait d’être « un Mexicain qui le haïssait à cause du mur de frontière ».

En 2023, Trump a réclamé la destitution du juge Engoron, appelé à se prononcer sur les pratiques de fraude financière massive au sein de l’empire Trump. Les juges fédéraux, nommés à vie, peuvent faire l’objet de la même procédure de mise en accusation que le président en cas de « trahison, corruption ou autres faits graves ».

Au cours de l’histoire des États-Unis, seuls 15 juges ont été mis en accusation par la Chambre et seulement huit ont été destitués par le Sénat — pour alcoolisme ou fraude fiscale, mais pas pour la teneur de leurs décisions. En d’autres termes, cette procédure exceptionnelle n’a jamais été et ne saurait être mise en œuvre en cas de désaccord avec les décisions rendues par le juge.

C’est ce qu’a souligné le président de la Cour suprême, John Roberts, le 19 mars dernier, intervenant une nouvelle fois dans le débat pour rappeler qu’en cas de désaccord avec une décision, il y a la voie normale de l’appel.

Or, il est difficile de ranger John Roberts parmi les « gauchistes » : c’est lui qui a, entre autres, accordé une immunité quasi totale à Donald Trump dans la décision rendue par la Cour, le 1er juillet 2024.


À lire aussi : Donald Trump, une candidature aidée par la justice américaine


Son intervention est bien un signe de la gravité de la situation. Le président de la Cour suprême se sent obligé de rappeler l’indépendance de la justice, les juges ne pouvant être l’objet de menaces, de pressions et d’accusations diverses de la part des membres de l’administration et de la blogoshère de droite.

Le Chief Justice Roberts avait déjà repris le président Trump en 2018, lui expliquant qu’il n’y avait pas de « juges Obama » ou de « juges Trump », mais des juges compétents et dévoués qui font de leur mieux pour appliquer le droit en toute justice. Puis, dans son rapport annuel, rendu le 31 décembre 2024, le président de la Cour avait dénoncé les attaques personnelles visant les juges :

« La violence, l’intimidation et la défiance sont totalement inacceptables, car elles minent notre république et la primauté du droit. »

Ces menaces sont effectivement inacceptables dans un État de droit et dans un système où les contre-pouvoirs fonctionnent, mais elles mettent le doigt sur une vraie difficulté. Le pouvoir judiciaire a été créé comme étant « le plus faible », expliquait Alexander Hamilton dans le Fédéraliste. Il ne dispose ni de l’épée (l’exécutif) ni du porte-monnaie (le législatif). Dès lors, si l’exécutif viole la loi ou la Constitution et refuse d’exécuter ses décisions lui ordonnant d’agir ou de ne pas agir, il n’y a pas grand-chose que le pouvoir judiciaire puisse faire de lui-même.

Quels contre-pouvoirs ?

La Cour suprême a accepté plusieurs saisines en urgence et a rendu plusieurs décisions temporaires et nuancées dans les affaires d’expulsion de migrants vers le Venezuela, mais qui ont été présentées par l’administration Trump comme des victoires politiques. Sur le fond, il n’est pas certain qu’elle invalide certains des actes du président, y compris le décret, clairement inconstitutionnel, qui prétend abolir le droit du sol sans amender la Constitution. Peut-être pour éviter une crise constitutionnelle dans l’hypothèse où l’administration refuserait de se plier à ses décisions.

Le Congrès est pour le moment aux ordres, mais il semble se réveiller sur la question des droits de douane : plusieurs sénateurs républicains ont tenté de revenir sur les habituelles délégations de pouvoir au président en matière de politique commerciale. La résolution bipartisane en ce sens n’a aucune chance d’être adoptée, mais c’est un signal fort qui montre que les élus ont entendu le mécontentement des citoyens. Or, les élections de mi-mandat (Midterms) auront lieu en novembre 2026, et une bonne partie des élus se présenteront de nouveau. Au cours des deux années à venir, le Congrès pourrait bloquer de nombreuses velléités autoritaires du président.

Aux États-Unis, les sursauts viennent toujours de la base et du peuple. C’est à l’opinion publique de pousser les élus à agir, d’inciter la Cour suprême à jouer son rôle de contre-pouvoir et de garant de la Constitution et des libertés, et de faire comprendre à l’administration Trump qu’elle doit respecter la Constitution et les valeurs de la primauté du droit (Rule of Law).

The Conversation

Anne E. Deysine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.04.2025 à 17:30

Reconnaissance de l’État de Palestine par la France : une décision symbolique et tardive

Insaf Rezagui, Université Paris Cité

Reconnaître la Palestine : c’est un projet qu’Emmanuel Macron a récemment dévoilé. Mais qu’est-ce que cette formule implique réellement ?
Texte intégral (2164 mots)

La France pourrait reconnaître la Palestine au mois de juin prochain. Mais cette reconnaissance ne se produira que si l’Arabie saoudite, dans le même temps, reconnaît Israël, ce qui reste incertain. Dans tous les cas de figure, une reconnaissance officielle, en soi, tient avant tout du symbole dès lors qu’elle ne s’accompagne pas de mesures concrètes.


Le 9 avril dernier, Emmanuel Macron a annoncé que la France pourrait reconnaître l’État de Palestine en juin prochain, à l’occasion d’une conférence qui se tiendra au siège des Nations unies à New York et qui sera co-présidée par la France et l’Arabie saoudite. Il plaide pour une reconnaissance groupée, encourageant d’autres États occidentaux à s’associer à cette démarche. Toutefois, cette initiative reste conditionnée à une reconnaissance d’Israël par l’Arabie saoudite, s’inspirant des accords de normalisation conclus en 2020 entre certains États arabes (Maroc, Soudan, Émirats arabes unis, Bahreïn) et l’État israélien.

Cette annonce intervient alors qu’Israël a unilatéralement rompu, le 17 mars, la trêve qui était en vigueur à Gaza depuis le 19 janvier. Depuis la reprise de la guerre, les bombardements de l’armée israélienne ont causé la mort de près de 1 700 Palestiniens.

Avec cette reconnaissance annoncée, le président français entend accroître la pression sur le gouvernement israélien afin de parvenir à une nouvelle trêve et de relancer la perspective de la solution à deux États défendue aujourd'hui notamment par l’Union européenne - et prévue rappelons-le dès 1947 par la résolution 181 (II) du l'ONU - une perspective qui semble fragilisée par la réalité coloniale sur le terrain, où l’autorité israélienne contrôle l’intégralité du territoire palestinien de la mer Méditerranée au fleuve Jourdain.

Une reconnaissance symbolique et tardive

En droit international, l’existence d’un État ne dépend pas de sa reconnaissance par d’autres, dès lors qu’il remplit les critères constitutifs de l’État : un gouvernement, un territoire, une population et la souveraineté, c’est-à-dire l’indépendance. La Palestine a proclamé son indépendance en novembre 1988 et, depuis, elle participe activement à la vie internationale. Elle est reconnue par 147 des 193 États membres de l’ONU, a adhéré à près de 100 traités multilatéraux, est membre de 21 organisations internationales et bénéficie du statut d’observateur dans de nombreuses autres.

Cependant, et c’est là tout l’enjeu, l’existence de l’État palestinien sur le terrain est empêchée par un fait internationalement illicite, reconnu comme tel le 19 juillet dernier par la Cour internationale de justice (CIJ) : l’occupation militaire israélienne, qui prend aujourd’hui la forme d’une annexion d’une large partie du territoire palestinien.

La reconnaissance doit donc être distinguée de l’existence d’un État. Selon la définition de l’Institut de droit international dans sa résolution de 1936, la reconnaissance est « l’acte libre par lequel un ou plusieurs États constatent l’existence sur un territoire déterminé d’une société humaine politiquement organisée, indépendante de tout autre État existant, capable d’observer les prescriptions du droit international et manifestent en conséquence leur volonté de la considérer comme membre de la Communauté internationale ».

La reconnaissance revêt un caractère essentiellement symbolique, dans la mesure où elle a une valeur déclarative et non constitutive. Aucune forme particulière n’est requise pour procéder à une reconnaissance : elle peut résulter d’un acte officiel, tel qu’un décret, ou de la combinaison de plusieurs éléments attestant de cette volonté.

En réalité, la France reconnaît déjà de facto l’État de Palestine. Cette reconnaissance découle d’une série de prises de position officielles, de déclarations, de votes favorables au sein des organisations internationales et de pratiques diplomatiques. Ainsi, la France a systématiquement soutenu les résolutions visant à renforcer le statut juridique de la Palestine à l’ONU. Elle a voté en faveur de son admission comme État membre à l’Unesco en octobre 2011, puis soutenu la résolution de l’Assemblée générale du 29 novembre 2012 attribuant à la Palestine le statut d’État non membre observateur.

Plus récemment, le 10 mai 2024, elle a voté pour l’admission de l’État de Palestine à l’ONU et, le 18 septembre dernier, elle a appuyé la résolution de l’Assemblée générale de l’ONU dans laquelle l’organe onusien appelait les États à favoriser la réalisation du droit du peuple palestinien à l’autodétermination, ce qui implique une reconnaissance de la Palestine.

Par ailleurs, la représentante de la Palestine en France a le rang d’ambassadrice et la France entretient avec l’Autorité palestinienne des relations diplomatiques, politiques et économiques significatives. Elle dispose également d’un consulat à Jérusalem en charge des relations avec la population palestinienne. En somme, les faits attestent déjà d’une reconnaissance de l’État de Palestine par la France.

Une reconnaissance sans portée réelle faute de mesures concrètes

C’est pourquoi l’annonce d’Emmanuel Macron, qui intervient tardivement alors que, nous l’avons dit, 147 États – parmi lesquels l’Espagne, l’Irlande, la Suède ou encore la Norvège – reconnaissent déjà la Palestine, s’apparente avant tout à une manœuvre diplomatique visant à accentuer la pression sur le gouvernement israélien. Elle demeure par ailleurs incertaine, car elle ne se produira que si l’Arabie saoudite reconnaît Israël. Or, si des discussions informelles en vue d’une normalisation étaient en cours entre les deux pays avant le 7 octobre 2023, la guerre à Gaza rebat les cartes, l’Arabie saoudite ne pouvant faire fi de son opinion publique qui reste largement acquise à la cause palestinienne. Il apparaît donc peu probable que, aussi longtemps que la guerre à Gaza n’aura pas cessé, l’Arabie saoudite reconnaisse Israël (qui demeure non reconnu par une vingtaine d’États dans le monde).

Par ailleurs, le souhait de relancer la solution à deux États est plus utopique que jamais, dans la mesure où Israël rejette explicitement l’idée d’un État de Palestine en Palestine et que seules les autorités israéliennes contrôlent l’intégralité de la Palestine historique. La Cour internationale de justice a rappelé la réalité de l’occupation israélienne et la forme qu’elle prend actuellement dans sa décision du 19 juillet dernier : accentuation des colonies de peuplement, dépossession massive des terres, accaparement des ressources naturelles palestiniennes au profit des colons, augmentation des violences des colons contre les Palestiniens, situation pouvant être qualifiée de ségrégation raciale et d’apartheid, etc. Cette réalité coloniale laisse peu de place à toute perspective d’un État de Palestine.

De plus, en juillet dernier, la Knesset, le Parlement israélien, a adopté une résolution transpartisane rejetant toute reconnaissance de l’État de Palestine. Cette position contrevient au droit international, en particulier au droit à l’autodétermination des Palestiniens, peuple colonisé. Dans son avis du 19 juillet 2024, la CIJ a rappelé que le sort d’un peuple colonisé ne saurait être soumis à la volonté de la puissance occupante. Par conséquent, la mise en œuvre du droit à l’autodétermination ne peut en aucun cas être conditionnée à la tenue de négociations politiques entre Palestiniens et Israéliens, comme le soutiennent certains États occidentaux, dont la France.

Dans ce contexte, toute reconnaissance demeure symbolique si elle ne s’accompagne pas de l’adoption de mesures concrètes. Dans une résolution adoptée en septembre 2024, l’Assemblée générale de l’ONU avait rappelé les mesures que les États devaient adopter pour permettre la réalisation du droit à l’autodétermination du peuple palestinien : « ne pas prêter aide ou assistance au maintien de la situation » d’occupation ; faire la distinction « dans leurs échanges en la matière, entre Israël et le Territoire palestinien occupé » ; cesser « la fourniture ou le transfert d’armes, de munitions et de matériels connexes à Israël » qui pourraient être utilisés en Palestine ; prohiber « l’importation de tout produit provenant des colonies » ; respecter les trois ordonnances de la Cour internationale de justice rendues dans la procédure engagée par l’Afrique du Sud contre l'État d’Israël au titre de la convention internationale contre le génocide, etc.

Rappelons également que la France doit respecter ses obligations de membre de la Cour pénale internationale (CPI). Elle a notamment l’obligation de coopérer avec la Cour dans la mise en œuvre des mandats d’arrêt que celle-ci a émis contre Nétanyahou et son ancien ministre de la défense Yoav Gallant. Or, elle a récemment autorisé le survol de son territoire par un avion transportant le premier ministre israélien, ce qui constitue un manquement aux obligations qui lui incombent en vertu du Statut de Rome.

Déjà en novembre dernier, la France avait affirmé que Benyamin Nétanyahou devait pouvoir bénéficier des immunités reconnues aux chefs d’État des pays non parties à la CPI, adoptant une position contraire aux exigences de l’article 27 du Statut de Rome, lequel précise qu’il ne peut y avoir d’immunités devant la Cour, son Statut s’appliquant « à tous de manière égale, sans aucune distinction fondée sur la qualité officielle ». D’ailleurs, la France a toujours affirmé qu’elle mettrait en œuvre le mandat d’arrêt de la CPI émis contre Vladimir Poutine, alors que, tout comme Benyamin Nétanyahou (chef de gouvernement), il est le chef d’un État non partie à la Cour. Cette position renforce les accusations de « deux poids-deux mesures » souvent exprimées à l’encontre de Paris.

En faisant du droit international une variable d’ajustement de sa politique étrangère, la France est devenue inaudible dans ce conflit. Il est contradictoire de vouloir reconnaître l’État de Palestine tout en manquant à ses obligations juridiques. Répétons-le : une telle reconnaissance, symbolique en l’état, ne risque pas de produire beaucoup d’effets si elle n’est pas accompagnée de mesures concrètes.

The Conversation

Insaf Rezagui ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.04.2025 à 17:29

Trump n’est pas imprévisible : il déroule un plan libertarien

Fabrice Flipo, Professeur en philosophie sociale et politique, épistémologie et histoire des sciences et techniques, Institut Mines-Télécom Business School

Donald Trump applique un agenda « libertarien ». Ce courant valorise le talent individuel, la famille, le patrimoine et la religion. La liberté y prime sur l’égalité, et la morale sur l’État de droit.
Texte intégral (1835 mots)

La sphère médiatique semble déconcertée : lors de son premier mandat, Trump avait baissé les droits de douane, désormais, il les relève ; il joue la Russie, puis l’Ukraine. La conclusion ? Trump serait « imprévisible ». Rien n’est plus faux : Donald Trump a derrière lui une équipe, un agenda, un plan cherchant à enrayer le déclin des valeurs « américaines ». Ce plan peut être qualifié de « libertarien », un courant qui valorise le talent individuel, la famille, le patrimoine et la religion. La liberté y prime sur l’égalité, et la morale sur l’État de droit.


Le fait est quasiment passé inaperçu. Certains médias s’en sont fait l’écho mais en limitant son importance, évoquant une minorité « d’extrémistes » avec lesquels Donald Trump avait dû composer. En avril 2023, la Heritage Foundation, l’un des plus importants think tank conservateur, publie un plan de 922 pages intitulé « Mandate for Leadership.The Conservative Promise ».

Le document est issu d’une vaste concertation des think tanks conservateurs, 53 d’entre eux figurent dans le conseil d’orientation. Tout est détaillé, des fonctions de la Maison Blanche au rôle des différentes agences gouvernementales ou à celui des fonctionnaires. L’Agenda 47 de Trump, ou programme du 47e président des États-Unis, est très similaire, et ce qu’il décide depuis quelques mois va dans le même sens. Le fil conducteur est libertarien, courant politique relativement méconnu en France.

La promesse des conservateurs

Le « Mandate for Leadership » peut être résumé en un certain nombre de points structurants : la famille, les valeurs virilistes, l’anticommunisme, la caporalisation des organisations, étatiques ou non, qui doivent porter les valeurs conservatrices. Les mesures en faveur de la diversité, de l’équité et de l’inclusion doivent être entièrement supprimées et sont même qualifiées de « racistes », au profit d’un traitement égal devant la loi, d’opportunités égales pour toutes et tous et du mérite individuel.

Bon nombre de prérogatives fédérales doivent repasser au niveau local, celui des États. La Chine est perçue comme la principale, sinon l’unique, menace géopolitique sérieuse, pour de multiples raisons, d’où une volonté de redéploiement des ressources. L’approche de l’économie est partiellement en rupture avec le libre-échange tel que défendu par l’Organisation mondiale du commerce (OMC) ou Paul Krugman, qui sont d’ailleurs explicitement pris à partie comme irréaliste et issu d’universitaires dans leur tour d’ivoire.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Le « Mandate for leadership » veut « reprendre les rênes du gouvernement » contre « la bureaucratie ». L’axiome central est le suivant : « Le choix du personnel, c’est de la politique. » Ce premier engagement est donc à première vue antilibéral. Mais il est adossé en réalité à ce principe conservateur qui veut que la morale soit première, et le droit seulement second. Par ailleurs, les ressources doivent être prioritairement réorientées pour contrer l’influence de la Chine, y compris celles de l’Usaid.

L’action de l’État est affaiblie, mais surtout réorientée. Le département de l’agriculture doit respecter les familles, les tracteurs et les fermiers, plutôt que de chercher à transformer le système agroalimentaire. L’éducation doit revenir aux États. La question de la race doit être évacuée sur le plan formel (colorblind society) – ceci, sans rien entreprendre pour lutter contre le racisme. L’Agence de l’environnement doit s’en tenir à des enjeux de pollution locale. Le département de la santé doit promouvoir des familles stables et mariées. La responsabilité des patients doit être rétablie, notamment la liberté de conscience – y compris en situation de pandémie. L’administration nationale sur l’atmosphère et les océans doit être empêchée de « nuire », étant inutilement alarmiste et préjudiciable à la prospérité. Et enfin l’enjeu est de rétablir un commerce équitable (fair trade) et des droits de douane réciproques (reciprocal tariffs).

Les écarts avec la plateforme proposée par Trump sur son site de campagne sont assez faibles, et plus encore avec les actes qui sont actuellement engagés. Si l’on en croit la liste partielle publiée sur Wikipédia, les 220 premières actions de Trump sont cohérentes. C’est aussi ce que constatait la revue en ligne le Grand Continent, en février 2025, estimant que plus d’un tiers du programme des conservateurs avait été mis en œuvre.

Comment qualifier le positionnement politique de Trump ?

En dépit de cette cohérence, le cas Trump semble interroger tous les médias. Plusieurs explications peuvent être avancées. La première est que le conservatisme est une famille de pensée peu connue, en France ; et plus encore le libertarisme dit « de droite » – car il existe aussi un courant libertarien « de gauche ». Le philosophe John Rawls, théorisait pourtant ce courant sous l’appellation d’« aristocratie naturelle ». Ses caractéristiques principales sont de défendre l’ouverture des carrières aux talents, tout en refusant les mesures qui cherchent à établir formellement une égalité des chances. La base de la société n’est pas l’individu mais la famille, et le patrimoine. La liberté prime sur l’égalité. La religion est une obligation. La morale prime sur l’État de droit, ce qui explique que ce courant soit en partie « illibéral ».

Les grands théoriciens sont Ludwig von Mises, Murray Rothbard et Robert Nozick. Un de leurs exemples préférés est le joueur de basket, dont le salaire dépend directement de la performance : s’il est bon, le public accepte de payer pour le voir jouer, et refuser dans le cas contraire. Les mesures en faveur de l’égalité telles que la redistribution sont jugées entraver le talent. Ce n’est pas un utilitarisme, au sens d’une pensée politique cherchant à maximiser la richesse. L’argent n’est qu’un moyen parmi d’autres de passer des contrats. Ce courant se réfère beaucoup à la Constitution des États-Unis et à cet événement jugé fondateur du pays : la révolte de 1773 contre le Royaume-Uni à Boston, au cours de laquelle des cargaisons de thé anglais furent jetées à la mer.

Une diversité de profils libertariens

Sébastien Caré a mené une enquête empirique sur ce courant, aux États-Unis. Il distingue cinq idéaux types qui sont instructifs, en termes de base électorale du trumpisme.

Le premier est le « paléolibertarien » ou « redneck », souvent chrétien, hostile aux LGBTQIA+ et que l’on imagine aisément s’identifiant aux personnages de western, ou à la Petite Maison dans la prairie.

Le second s’inspire de la romancière Ayn Rand (1905-1982), auteure de la Vertu d’égoïsme (2008), qui conditionnait un changement d’ampleur, dans l’esprit du Tea Party, à la mise au point d’« un programme d’action à longue portée, avec les principes servant à unifier et à intégrer des mesures particulières dans une voie cohérente ». Comment ne pas penser au Project 2025 ?

La troisième sorte de libertarien est acclimaté à l’establishment et désigne, par exemple, les think tanks tels que la Heritage Foundation.

Le quatrième type est le « libertarien libertaire » qui correspond en fait aux libertariens de gauche, et est évidemment opposé à Trump.

La cinquième catégorie correspond à ceux que Caré appelle les « cyberlibertariens », qui voient le cyberespace comme un monde où ils peuvent réaliser leur utopie. Il est utile d’ajouter que les deux derniers courants ont fortement investi le numérique au cours d’une période qui va des années 1970 à 2000, d’après Ted Turner qui en fut un acteur autant qu’un témoin privilégié.

Ces différents types de libertariens peuvent illustrer la diversité des publics qui se reconnaissent dans le document élaboré par les conservateurs : des « rednecks » (ploucs), des travailleurs du numérique et une partie de l’establishment lui-même, ce qui explique que le courant ne soit pas de taille résiduelle comme en France.

Le libertarisme n’est pas un fascisme ni un courant autocrate

Le libertarisme est assez étranger aux États dont la culture étatique est fermement ancrée (en France par exemple). Partiellement illibéral, ce n’est pas un fascisme pour autant, ni un courant autocrate. Ce serait contradictoire avec son apologie de la liberté.

Si Trump affiche une forme d’impérialisme comme dans le cas du Groenland, il n’a pas sorti les tanks, ni empoisonné ses adversaires politiques comme le fait Poutine. Quant aux variations en intensité dans ses positions, elles s’expliquent en large partie par sa manière de voir les « deals » : demander énormément au départ, pour stupéfier son interlocuteur, et revenir ensuite à des positions plus raisonnables.

The Conversation

Fabrice Flipo travaille sur les questions d'émancipation.

29.04.2025 à 17:28

Adolescentes et résistantes pendant la Seconde Guerre mondiale : naissance d’un engagement

Marie Picard, Doctorante en sociologie, Université de Rouen Normandie

Si elles sont souvent restées dans l’ombre, un certain nombre de jeunes femmes, parfois encore adolescentes, se sont engagées dans la Résistance. Qui étaient-elles ?
Texte intégral (1734 mots)

Si elles sont souvent restées dans l’ombre, un certain nombre de jeunes femmes, parfois encore adolescentes, se sont engagées dans la Résistance. Qui étaient-elles ? Comment leur action pendant la Seconde Guerre mondiale a-t-elle orienté leurs choix et leur militantisme à venir ? La recherche s’empare de ces questions.


En avril 1945, le camp de concentration de Mauthausen en Autriche est libéré par les forces alliées. Gisèle Guillemot fait partie des prisonnières et des prisonniers évacués. Résistante, elle avait été arrêtée deux ans plus tôt, en avril 1943. Comme elle, de nombreuses jeunes femmes se sont engagées contre l’ennemi nazi.

Quatre-vingts ans après la fin de la Seconde Guerre mondiale, des zones d’ombre persistent autour de ces figures, « ossature invisible de la Résistance ». Qui étaient-elles ? Comment sont-elles entrées en résistance ? Quelle place cet engagement a-t-il eu dans leur parcours ?


Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !


À partir d’une recherche en cours sur les résistantes en Normandie, cet article propose de se pencher sur les parcours de certaines d’entre elles. Elles ont entre 15 et 20 ans au début de la guerre et lors de leurs premiers actes de résistance. Leurs actions sont diverses : distributions de tracts, sabotages, transports d’armes et de matériel, transmission de renseignements, rédaction et impression de journaux clandestins…

La Résistance se définit comme un mouvement social particulièrement complexe et original. L’engagement militant et politique que cela sous-tend pose la question de son origine et de ses causes. Les résistantes justifient généralement leurs actions comme naturelles et allant de soi. Mais l’observation de leurs parcours biographiques amène à questionner les déterminants sociaux et politiques issus de leur enfance et les différentes sphères de socialisation côtoyées.

Premiers pas vers la Résistance : un héritage familial ?

La famille est généralement caractérisée comme la principale sphère de socialisation politique primaire. Dans le cas des jeunes résistantes, les événements vécus dans ce cadre, ainsi que les valeurs transmises par l’éducation montrent une réelle politisation pendant l’entre-deux-guerres.

Les positionnements idéologiques des parents des résistantes, lorsqu’ils sont identifiés, reflètent une enfance vécue dans un cadre orienté politiquement. Par ailleurs, dans leurs discours, les résistantes opèrent elles-mêmes la liaison entre leur éducation familiale et les idées déterminant leur engagement dans la Résistance.

C’est le cas de Paulette Lechevallier-Renault, née en 1920, 19 ans au début des hostilités. Si ses parents, décédés jeunes, n’ont pas manifesté d’orientations politiques claires, elle porte une attention particulière au rejet de l’injustice, inculqué par son père, qui l’a conduite à « ne pas accepter la guerre ».

« Simone Segouin, portrait d’une jeune femme dans la Résistance » (France 3 Centre-Val de Loire, 2021).

Certains événements historiques sont prégnants dans les biographies des résistantes. La Première Guerre mondiale en particulier laisse une trace dans le parcours des familles, en figurant d’abord comme un des événements historiques selon lequel les individus situent leur propre parcours.

Marie-Thérèse Fainstein, née Lavenue, est née en 1921, soit « trois ans après la fin de la Première Guerre mondiale » comme elle le précise dans un témoignage. D’autres résistantes ont connu la perte d’un parent, souvent leur père, décédé sur le front, tué par les Allemands.

L’occupation du territoire par les Allemands rappelle d’ailleurs pour les familles l’occupation vécue jusqu’à la Grande Guerre, en particulier en Alsace-Lorraine. L’existence d’un sentiment patriotique est commune au sein des différentes familles. Cet attachement à l’identité nationale s’observe dans les discours des résistantes relatifs à leur prise de décision et à leur volonté d’agir.La famille s’illustre donc comme un espace où les marques des contextes sociohistoriques et politiques forment des dispositions à l’engagement militant.

De même, les constats autour de la socialisation primaire à l’engagement dépassent les clivages de genre entre hommes et femmes présents dans la société française de l’entre-deux-guerres où l’éducation à la contestation et au militantisme est plutôt transmise aux garçons qu’aux filles.

Un militantisme nourri par l’école et les pairs

La socialisation par l’école ainsi que par les pairs renforce ces dispositions et contribue à forger l’outillage politique des résistantes. Aussi, bien que des résistantes agissent dans des cellules de résistance familiales, pour d’autres, les premières actions se font dans des cercles extérieurs à l’environnement parental.

La décision d’agir est inhérente à un militantisme qui s’exerce déjà, en lien avec d’autres causes politiques défendues à cette période. Par exemple, la prise de position face à la non-intervention en Espagne est citée de nombreuses fois dans les carrières de militantes des résistantes. Cet élément matérialise un militantisme affirmé : participation aux campagnes de solidarité, actions de solidarité envers les enfants espagnols…

« Résistantes. Des histoires passées sous silence », War Memories, IUT de Lannion, 2019.

Gisèle Guillemot date notamment le « commencement » de sa vie politique lors de ses 14 ans, au moment de l’accueil des réfugiés espagnols en France auquel elle a contribué.

Le cadre scolaire et les études forment un espace de socialisation politique parallèle, où les espaces d’expression sont multiples. Le rôle joué par l’école est fondamental dans le parcours de Gisèle Guillemot et, en particulier, l’influence de ses directeurs, dans son engagement antifasciste et contre l’occupant nazi :

« C’est dans cette école que j’ai pris le goût de la vie politique et sociale. »

Les canaux de construction des premières actions de résistance se font par l’entremise d’individus rencontrés lors des études. Le tournant de Marie-Thérèse Fainstein (née Lavenue) dans la Résistance débute par la lettre reçue d’une de ses camarades de l’École normale d’institutrices et cette question :

« Est-ce qu’on pourrait faire quelque chose ? »

Les étapes qui ont permis à ces jeunes femmes de devenir des résistantes traduisent des parcours variés et des espaces multiples de socialisation au militantisme. La famille, bien que partie prenante de la construction des idées politiques, s’accompagne d’autres groupes sociaux fréquentés par les résistantes, tels que les individus issus de leur lieu de formation ou leurs collègues et amis.

Les traces de la Résistance après la Libération

Pour ces jeunes femmes, dont les prises de position se construisent avant-guerre, la Résistance apparaît comme le terreau d’un engagement politique à venir.

Augusta Pieters, née Dolé, avait à peine 18 ans au début de la guerre, et tout juste 20 ans lorsqu’elle effectue le ravitaillement de résistants et la liaison entre des membres du Parti communiste clandestin. Après-guerre, elle participe activement à la mise en place de l’Union des femmes françaises (UFF) à Dieppe et milite au Parti communiste français (PCF). Lors des élections municipales de 1959, elle est candidate sur la liste du PCF dans cette même ville. Son engagement se poursuit, notamment pendant la guerre d’Algérie qu’elle réprouve en menant des actions diverses.

En parallèle, les résistantes s’illustrent dans des engagements associatifs, constitutifs d’une continuité des groupes sociaux issus de la Résistance, y compris de la déportation.

Gisèle Guillemot milite en particulier au sein de la Fédération nationale des déportés, internés et résistants patriotes (FNDIRP).

De son côté, Marie-Thérèse Fainstein (née Lavenue) est membre de plusieurs associations, telles que l’Association de déportés et internés de la Résistance et familles de disparus en Seine-Maritime (ADIF).

Les 80 ans de la fin de la Seconde Guerre mondiale voient la multiplication des initiatives mémorielles, et les résistantes elles-mêmes ont joué un rôle dans ce processus à partir des années 1980 et 1990.

Leurs témoignages émergent, notamment dans le cadre scolaire, accompagnés de l’injonction aux jeunes générations :

« Ne pas oublier. »

The Conversation

Marie Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.04.2025 à 17:23

L’interaction humain-machine, des années 1960 à l’intelligence artificielle, itinéraire d’un pionnier

Michel Beaudouin-Lafon, Chercheur en informatique, Université Paris-Saclay

Chloé Mercier, Chercheuse en modélisation informatique et cognitive pour l'éducation, Université de Bordeaux

Serge Abiteboul, Directeur de recherche à Inria, membre de l'Académie des Sciences, École normale supérieure (ENS) – PSL

Michel Beaudouin-Lafon est un chercheur en informatique français, il est l’un des pionniers de l’interaction humain-machine.
Texte intégral (4211 mots)

Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.


Michel Beaudouin-Lafon est un chercheur en informatique français dans le domaine de l’interaction humain-machine. Il est professeur depuis 1992 à l’Université de Paris-Saclay. Ses travaux de recherche portent sur les aspects fondamentaux de l’interaction humain-machine, l’ingénierie des systèmes interactifs, le travail collaboratif assisté par ordinateur et plus généralement les nouvelles techniques d’interaction. Il a co-fondé et a été premier président de l’Association francophone pour l’interaction humain-machine. Il est membre senior de l’Institut universitaire de France, lauréat de la médaille d’argent du CNRS, ACM Fellow et, depuis 2025, membre de l’Académie des sciences.


Binaire : Pourrais-tu nous raconter comment tu es devenu un spécialiste de l’interaction humain-machine ?

Michel Beaudouin-Lafon : J’ai suivi les classes préparatoires au lycée Montaigne à Bordeaux. On n’y faisait pas d’informatique, mais je m’amusais déjà un peu avec ma calculatrice programmable HP29C. Ensuite, je me suis retrouvé à l’ENSEEIHT, une école d’ingénieur à Toulouse, où j’ai découvert l’informatique… un peu trop ardemment : en un mois, j’avais épuisé mon quota de calcul sur les cartes perforées !

À la sortie, je n’étais pas emballé par l’idée de rejoindre une grande entreprise ou une société de service. J’ai alors rencontré Gérard Guiho de l’université Paris-Sud (aujourd’hui Paris-Saclay) qui m’a proposé une thèse en informatique. Je ne savais pas ce que c’était qu’une thèse : nos profs à l’ENSEEIHT, qui étaient pourtant enseignants-chercheurs, ne nous parlaient jamais de recherche.

Fin 1982, c’était avant le Macintosh, Gérard venait d’acquérir une station graphique dont personne n’avait l’usage dans son équipe. Il m’a proposé de travailler dessus. Je me suis bien amusé et j’ai réalisé un logiciel d’édition qui permettait de créer et simuler des réseaux de Pétri, un formalisme avec des ronds, des carrés, des flèches, qui se prêtait bien à une interface graphique. C’est comme ça que je me suis retrouvé à faire une thèse en IHM : interaction humain-machine.

Binaire : Est-ce que l’IHM existait déjà comme discipline à cette époque ?

M. B.-L. : Ça existait mais de manière encore assez confidentielle. La première édition de la principale conférence internationale dans ce domaine, Computer Human Interaction (CHI), a eu lieu en 1982. En France, on s’intéressait plutôt à l’ergonomie. Une des rares exceptions : Joëlle Coutaz qui, après avoir découvert l’IHM à CMU (Pittsburgh), a lancé ce domaine à Grenoble.

Binaire : Et après la thèse, qu’es-tu devenu ?

M. B.-L. : J’ai été nommé assistant au LRI, le laboratoire de recherche de l’Université Paris-Sud, avant même d’avoir fini ma thèse. Une autre époque ! Finalement, j’ai fait toute ma carrière dans ce même laboratoire, même s’il a changé de nom récemment pour devenir le LISN, laboratoire interdisciplinaire des sciences du numérique. J’y ai été nommé professeur en 1992. J’ai tout de même bougé un peu. D’abord en année sabbatique en 1992 à l’Université de Toronto, puis en détachement à l’Université d’Aarhus au Danemark entre 1998 et 2000, et enfin plus récemment comme professeur invité à l’université de Stanford entre 2010 et 2012.

En 1992, au cours d’un workshop au Danemark, j’ai rencontré Wendy Mackay, une chercheuse qui travaillait sur l’innovation par les utilisateurs. Un an plus tard, nous étions mariés ! Cette rencontre a été déterminante dans ma carrière pour combiner mon parcours d’ingénieur, que je revendique toujours, avec son parcours à elle, qui était psychologue. Wendy est spécialiste de ce qu’on appelle la conception participative, c’est-à-dire d’impliquer les utilisateurs dans tout le cycle de conception des systèmes interactifs. Je vous invite d’ailleurs à lire son entretien dans Binaire. C’est cette complémentarité entre nous qui fait que notre collaboration a été extrêmement fructueuse sur le plan professionnel. En effet, dans le domaine de l’IHM, c’est extrêmement important d’allier trois piliers : (1) l’aspect humain, donc la psychologie ; (2) le design, la conception, la créativité ; et (3) l’ingénierie. Ce dernier point concerne la mise en œuvre concrète, et les tests avec des vrais utilisateurs pour voir si ça marche (ou pas) comme on l’espère. Nous avons vécu la belle aventure du développement de l’IHM en France, et sa reconnaissance comme science confirmée, par exemple, avec mon élection récente à l’Académie des Sciences.

*Binaire : L’IHM est donc une science, mais en quoi consiste la recherche dans ce domaine ? *

M. B.-L. : On nous pose souvent la question. Elle est légitime. En fait, on a l’impression que les interfaces graphiques utilisées aujourd’hui par des milliards de personnes ont été inventées par Apple, Google ou Microsoft, mais pas vraiment ! Elles sont issues de la recherche académique en IHM !

Si on définit souvent l’IHM par Interface Humain-Machine, je préfère parler d’Interaction Humain-Machine. L’interaction, c’est le phénomène qui se produit lorsqu’on est utilisateur d’un système informatique et qu’on essaie de faire quelque chose avec la machine, par la machine. On a ainsi deux entités très différentes l’une de l’autre qui communiquent : d’un côté, un être humain avec ses capacités cognitives et des moyens d’expression très riches ; et de l’autre, des ordinateurs qui sont de plus en plus puissants et très rapides mais finalement assez bêtes. Le canal de communication entre les deux est extrêmement ténu : taper sur un clavier, bouger une souris. En comparaison des capacités des deux parties, c’est quand même limité. On va donc essayer d’exploiter d’autres modalités sensorielles, des interfaces vocales, tactiles, etc., pour multiplier les canaux, mais on va aussi essayer de rendre ces canaux plus efficaces et plus puissants.

Ce phénomène de l’interaction, c’est un peu une sorte de matière noire : on sait que c’est là, mais on ne peut pas vraiment la voir. On ne peut la mesurer et l’observer que par ses effets sur la machine et sur l’être humain. Et donc, on observe comment l’humain avec la machine peuvent faire plus que l’humain seul et la machine seule. C’est une idée assez ancienne : Doug Engelbart en parlait déjà dans les années 60. Et pourtant, aujourd’hui, on a un peu tendance à l’oublier car on se focalise sur des interfaces de plus en plus simples, où c’est la machine qui va tout faire et on n’a plus besoin d’interagir. Or, je pense qu’il y a vraiment une valeur ajoutée à comprendre ce phénomène d’interaction pour en tirer parti et faire que la machine augmente nos capacités plutôt que faire le travail à notre place. Par extension, on s’intéresse aussi à ce que des groupes d’humains et de machines peuvent faire ensemble.

La recherche en IHM, il y a donc un aspect recherche fondamentale qui se base sur d’autres domaines (la psychologie mais aussi la sociologie quand on parle des interactions de groupes, ou encore la linguistique dans le cadre des interactions langagières) qui permet de créer nos propres modèles d’interaction, qui ne sont pas des modèles mathématiques ; et ça, je le revendique parce que je pense que c’est une bonne chose qu’on ne sache pas encore mettre le cerveau humain en équation. Et puis il y a une dimension plus appliquée où on va créer des objets logiciels ou matériels pour mettre tout ça en œuvre.

Pour moi, l’IHM ne se résume pas à faire de nouveaux algorithmes. Au début des années 90, Peter Wegener a publié dans Communications of the ACM – un des journaux de référence dans notre domaine – un article qui disait « l’interaction est plus puissante que les algorithmes ». Cela lui a valu pas mal de commentaires et de critiques, mais ça m’a beaucoup marqué.

*Binaire : Et à propos d’algorithmes, est-ce que l’IA soulève de nouvelles problématiques en IHM ? *

M. B.-L. : Oui, absolument ! En ce moment, les grandes conférences du domaine débordent d’articles qui combinent des modèles de langage (LLM) ou d’autres techniques d’IA avec de l’IHM.

Historiquement, dans une première phase, l’IA a été extrêmement utilisée en IHM, par exemple pour faire de la reconnaissance de gestes. C’était un outil commode, qui nous a simplifié la vie, mais sans changer nos méthodes d’interaction.

Aux débuts de l’IA générative, on est un peu revenu 50 ans en arrière en matière d’interaction, quand la seule façon d’interagir avec les ordinateurs, c’était d’utiliser le terminal. On fait un prompt, on attend quelques secondes, on a une réponse ; ça ne va pas, on bricole. C’est une forme d’interaction extrêmement pauvre. De plus en plus de travaux très intéressants imaginent des interfaces beaucoup plus interactives, où on ne voit plus les prompts, mais où on peut par exemple dessiner, transformer une image interactivement, sachant que derrière, ce sont les mêmes algorithmes d’IA générative avec leurs interfaces traditionnelles qui sont utilisés.

Pour moi, l’IA soulève également une grande question : qu’est-ce qu’on veut déléguer à la machine et qu’est-ce qui reste du côté humain ? On n’a pas encore vraiment une bonne réponse à ça. D’ailleurs, je n’aime pas trop le terme d’intelligence artificielle. Je n’aime pas attribuer des termes anthropomorphiques à des systèmes informatiques. Je m’intéresse plutôt à l’intelligence augmentée, quand la machine augmente l’intelligence humaine. Je préfère mettre l’accent sur l’exploitation de capacités propres à l’ordinateur, plutôt que d’essayer de rendre l’ordinateur identique à un être humain.

*Binaire : La parole nous permet d’interagir avec les autres humains, et de la même façon avec des bots. N’est-ce pas plus simple que de chercher la bonne icône ? *

M. B.-L. : Interagir par le langage, oui, c’est commode. Ceci étant, à chaque fois qu’on a annoncé une nouvelle forme d’interface qui allait rendre ces interfaces graphiques (avec des icônes, etc.) obsolètes, cela ne s’est pas vérifié. Il faut plutôt s’intéresser à comment on fait cohabiter ces différentes formes d’interactions. Si je veux faire un schéma ou un diagramme, je préfère le dessiner plutôt que d’imaginer comment le décrire oralement à un système qui va le faire (sans doute mal) pour moi. Ensuite, il y a toujours des ambiguïtés dans le langage naturel entre êtres humains. On ne se contente pas des mots. On les accompagne d’expressions faciales, de gestes, et puis de toute la connaissance d’un contexte qu’un système d’IA aujourd’hui n’a souvent pas, ce qui le conduit à faire des erreurs que des humains ne feraient pas. Et finalement, on devient des correcteurs de ce que fait le système, au lieu d’être les acteurs principaux.

Ces technologies d’interaction par la langue naturelle, qu’elles soient écrites ou orales, et même si on y combine des gestes, soulèvent un sérieux problème : comment faire pour que l’humain ne se retrouve pas dans une situation d’être de plus en plus passif ? En anglais, on appelle ça de-skilling : la perte de compétences et d’expertise. C’est un vrai problème parce que, par exemple, quand on va utiliser ces technologies pour faire du diagnostic médical, ou bien prononcer des sentences dans le domaine juridique, on va mettre l’être humain dans une situation de devoir valider ou non la décision posée par une IA. Et en fait, il va être quand même encouragé à dire oui, parce que contredire l’IA revient à s’exposer à une plus grande responsabilité que de constater a posteriori que l’IA s’est trompée. Donc dans ce genre de situation, on va chercher comment maintenir l’expertise de l’utilisateur et même d’aller vers de l’upskilling, c’est-à-dire comment faire pour qu’un système d’IA le rende encore plus expert de ce qu’il sait déjà bien faire, plutôt que de déléguer et rendre l’utilisateur passif. On n’a pas encore trouvé la façon magique de faire ça. Mais si on reprend l’exemple du diagnostic médical, si on demande à l’humain de faire un premier diagnostic, puis à l’IA de donner le sien, et que les deux ont ensuite un échange, c’est une interaction très différente que d’attendre simplement ce qui sort de la machine et dire oui ou non.

Binaire : Vous cherchez donc de nouvelles façons d’interagir avec les logiciels, qui rendent l’humain plus actif et tendent vers l’upskilling.

M. B.-L. : Voilà ! Notre équipe s’appelle Ex Situ, pour Extreme Situated Interaction. C’est parti d’un gag parce qu’avant, on s’appelait In Situ pour Interaction Située. Il s’agissait alors de concevoir des interfaces en fonction de leur contexte, de la situation dans laquelle elles sont utilisées.

Nous nous sommes rendus compte que nos recherches conduisaient à nous intéresser à ce qu’on a appelé des utilisateurs « extrêmes », qui poussent la technologie dans ses retranchements. En particulier, on s’intéresse à deux types de sujets, qui sont finalement assez similaires. D’un part, les créatifs (musiciens, photographes, graphistes…) qui par nature, s’ils ont un outil (logiciel ou non) entre les mains, vont l’utiliser d’une manière qui n’était pas prévue, et ça nous intéresse justement de voir comment ils détournent ces outils. D’autre part, Wendy travaille, depuis longtemps d’ailleurs, dans le domaine des systèmes critiques dans lequel on n’a pas droit à l’erreur : pilotes d’avion, médecins, etc.

Dans les industries culturelles et créatives (édition, création graphique, musicale, etc.), les gens sont soit terrorisés, soit anxieux, de ce que va faire l’IA. Et nous, ce qu’on dit, c’est qu’il ne s’agit pas d’être contre l’IA – c’est un combat perdu de toute façon – mais de se demander comment ces systèmes vont pouvoir être utilisés d’une manière qui va rendre les humains encore plus créatifs. Les créateurs n’ont pas besoin qu’on crée à leur place, ils ont besoin d’outils qui les stimulent. Dans le domaine créatif, les IA génératives sont, d’une certaine façon, plus intéressantes quand elles hallucinent ou qu’elles font un peu n’importe quoi. Ce n’est pas gênant au contraire.

Binaire : L’idée d’utiliser les outils de façon créative, est-ce que cela conduit au design ?

M. B.-L. : Effectivement. Par rapport à l’ergonomie, qui procède plutôt selon une approche normative en partant des tâches à optimiser, le design est une approche créative qui questionne aussi les tâches à effectuer. Un designer va autant mettre en question le problème, le redéfinir, que le résoudre. Et pour redéfinir le problème, il va interroger et observer les utilisateurs pour imaginer des solutions. C’est le principe de conception participative, qui implique les acteurs eux-mêmes en les laissant s’approprier leur activité, ce qui donne finalement de meilleurs résultats, non seulement sur le plan de la performance mais aussi et surtout sur l’acceptation.

Notre capacité naturelle d’être humain nous conduit à constamment réinventer notre activité. Lorsque nous interagissons avec le monde, certes nous utilisons le langage, nous parlons, mais nous faisons aussi des mouvements, nous agissons sur notre environnement physique ; et ça passe parfois par la main nue, mais surtout par des outils. L’être humain est un inventeur d’outils incroyables. Je suis passionné par la facilité que nous avons à nous servir d’outils et à détourner des objets comme outils ; qui n’a pas essayé de défaire une vis avec un couteau quand il n’a pas de tournevis à portée de main ? Et en fait, cette capacité spontanée disparaît complètement quand on passe dans le monde numérique. Pourquoi ? Parce que dans le monde physique, on utilise des connaissances techniques, on sait qu’un couteau et un tournevis ont des propriétés similaires pour cette tâche. Alors que dans un environnement numérique, on a besoin de connaissances procédurales : on apprend que pour un logiciel il faut cliquer ici et là, et puis dans un autre logiciel pour faire la même chose, c’est différent.

C’est en partant de cette observation que j’ai proposé l’ERC One, puis le projet Proof-of Concept OnePub, qui pourrait peut-être même déboucher sur une start-up. On a voulu fonder l’interaction avec nos ordinateurs d’aujourd’hui sur ce modèle d’outils – que j’appelle plutôt des instruments, parce que j’aime bien l’analogie avec l’instrument de musique et le fait de devenir virtuose d’un instrument. Ça remet en cause un peu tous nos environnements numériques. Pour choisir une couleur sur Word, Excel ou Photoshop, on utilise un sélecteur de couleurs différent. En pratique, même si tu utilises les mêmes couleurs, il est impossible de prendre directement une couleur dans l’un pour l’appliquer ailleurs. Pourtant, on pourrait très bien imaginer décorréler les contenus qu’on manipule (texte, images, vidéos, son…) des outils pour les manipuler, et de la même façon que je peux aller m’acheter les pinceaux et la gouache qui me conviennent bien, je pourrais faire la même chose avec mon environnement numérique en la personnalisant vraiment, sans être soumis au choix de Microsoft, Adobe ou Apple pour ma barre d’outils. C’est un projet scientifique qui me tient à cœur et qui est aussi en lien avec la collaboration numérique.

Binaire : Par rapport à ces aspects collaboratifs, n’y a-t-il pas aussi des verrous liés à la standardisation ?

M. B.-L. : Absolument. On a beau avoir tous ces moyens de communication actuels, nos capacités de collaboration sont finalement très limitées. À l’origine d’Internet, les applications s’appuyaient sur des protocoles et standards ouverts assurant l’interopérabilité : par exemple, peu importait le client ou serveur de courrier électronique utilisé, on pouvait s’échanger des mails sans problème. Mais avec la commercialisation du web, des silos d’information se sont créés. Aujourd’hui, des infrastructures propriétaires comme Google ou Microsoft nous enferment dans des “jardins privés” difficiles à quitter. La collaboration s’établit dans des applications spécialisées alors qu’elle devrait être une fonctionnalité intrinsèque.

C’est ce constat qui a motivé la création du PEPR eNSEMBLE, un grand programme national sur la collaboration numérique, dont je suis codirecteur. L’objectif est de concevoir des systèmes véritablement interopérables où la collaboration est intégrée dès la conception. Cela pose des défis logiciels et d’interface. Une des grandes forces du système Unix, où tout est très interopérable, vient du format standard d’échange qui sont des fichiers textes ASCII. Aujourd’hui, cela ne suffit plus. Les interactions sont plus complexes et dépassent largement l’échange de messages.

C’est frustrant car on a quand même fait beaucoup de progrès en IHM, mais il faudrait aussi plus d’échanges avec les autres disciplines comme les réseaux, les systèmes distribués, la cryptographie, etc., parce qu’en fait, aucun système informatique aujourd’hui ne peut se passer de prendre en compte les facteurs humains. Au-delà des limites techniques, il y a aussi des contraintes qui sont totalement artificielles et qu’on ne peut aborder que s’il y a une forme de régulation qui imposerait, par exemple, la publication des API de toute application informatique qui communique avec son environnement. D’ailleurs, la législation européenne autorise le reverse engineering dans les cas exceptionnels où cela sert à assurer l’interopérabilité, un levier que l’on pourrait exploiter pour aller plus loin.

Cela pose aussi la question de notre responsabilité de chercheur pour ce qui est de l’impact de l’informatique, et pas seulement l’IHM, sur la société. C’est ce qui m’a amené à m’impliquer dans l’ACM Europe Technology Policy Committee, dont je suis Chair depuis 2024. L’ACM est un société savante apolitique, mais on a pour rôle d’éduquer les décideurs politiques, notamment au niveau de l’Union européenne, sur les capacités, les enjeux et les dangers des technologies, pour qu’ils puissent ensuite les prendre en compte ou pas dans des textes de loi ou des recommandations (comme l’AI ACT récemment).

Binaire : En matière de transmission, sur un ton plus léger, tu as participé au podcast Les petits bateaux sur Radio France. Pourrais-tu nous en parler ?

M. B.-L. : Oui ! Les petits bateaux. Dans cette émission, les enfants peuvent appeler un numéro de téléphone pour poser des questions. Ensuite, les journalistes de l’émission contactent un scientifique avec une liste de questions, collectées au cours du temps, sur sa thématique d’expertise. Le scientifique se rend au studio et enregistre des réponses. A l’époque, un de mes anciens doctorants ou étudiants avait participé à une action de standardisation du clavier français Azerty sur le positionnement des caractères non alphanumériques, et j’ai donc répondu à des questions très pertinentes comme “Comment les Chinois font pour taper sur un clavier ?”, mais aussi “Où vont les fichiers quand on les détruit ?”, “C’est quoi le com dans.com ?” Évidemment, les questions des enfants intéressent aussi les adultes qui n’osent pas les poser. On essaie donc de faire des réponses au niveau de l’enfant mais aussi d’aller un petit peu au-delà, et j’ai trouvé cela vraiment intéressant de m’adresser aux différents publics.

Je suis très attaché à la transmission, je suis issu d’une famille d’enseignants du secondaire, et j’aime moi-même enseigner. J’ai dirigé et participé à la rédaction de manuels scolaires des spécialités informatiques SNT et NSI au Lycée. Dans le programme officiel de NSI issu du ministère, une ligne parle de l’interaction avec l’utilisateur comme étant transverse à tout le programme, ce qui veut dire qu’elle n’est concrètement nulle part. Mais je me suis dit que c’était peut-être l’occasion d’insuffler un peu de ma passion dans ce programme, que je trouve par ailleurs très lourd pour des élèves de première et terminale, et de laisser une trace ailleurs que dans des papiers de recherche…

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

29.04.2025 à 17:22

Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique

Anne Blavette, Chargée de recherche CNRS en génie électrique, École normale supérieure de Rennes

En Espagne, au Portugal et dans le sud de la France, une coupure massive de courant a eu lieu lundi 28 avril. Alors que les causes sont encore inconnues, une spécialiste répond à nos questions sur les instabilités des réseaux.
Texte intégral (2438 mots)
À Grenade, en Andalousie, où le courant a été coupé de 12h33 le 28 avril à 5h30 du matin le 29 avril 2025. Dexter Benjamin, CC BY-SA

Lundi 28 avril, l’Espagne, le Portugal et une partie du Pays basque français ont été touchés par une coupure d’électricité majeure qui a perturbé l’ensemble de la région. Alors que la situation est presque rétablie moins de 24 heures plus tard, les causes de l’incident sont encore inconnues. Anne Blavette travaille sur l’optimisation de la gestion de l’énergie au sein des réseaux électriques avec un fort taux d’énergies renouvelables et répond à nos questions sur les instabilités des réseaux.


The Conversation : L’événement d’hier a surpris la population par son ampleur et ses conséquences sur le fonctionnement de pays entiers — des trains aux distributeurs de billets, en passant par l’accès à Internet perturbé jusqu’au Maroc — qui nous rappellent notre dépendance aux systèmes électriques. Quel est votre regard de spécialiste sur un tel événement ?

Anne Blavette : L’évènement qui s’est déclenché hier est assez incroyable, car un incident de cette ampleur géographique est très rare.

À l’heure actuelle, ses causes sont en cours d’investigation. Cependant, il est déjà impressionnant de voir que l’alimentation a presque entièrement été rétablie à 9h le lendemain matin, que ce soit au Portugal ou en Espagne, tandis que l’impact a été mineur en France (quelques minutes d’interruption).

On peut saluer l’efficacité des équipes des différents gestionnaires de réseau (espagnols, portugais et français) qui ont réalisé et réalisent encore un travail très important après les déconnexions et arrêts automatiques de liaisons électriques et centrales électriques, notamment avec des redémarrages zone par zone et le rétablissement progressif des connexions internationales. Ces opérations se font en parallèle des vérifications minutieuses de l’état du réseau. Cette procédure rigoureuse est nécessaire pour éviter que le réseau ne s’effondre à nouveau. Le travail ne sera pas encore achevé même lorsque l’ensemble de la population sera reconnecté, car les investigations sur l’origine de l’incident se poursuivront.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le Portugal et le Pays basque français ont aussi été touchés. Est-ce parce que les réseaux sont connectés localement ?

A. B. : Oui, le Portugal est connecté au réseau européen via l’Espagne, et des connexions existent entre l’Espagne et la France. Cela permet de mieux échanger de l’énergie et d’assurer en général une bien meilleure stabilité du réseau que des réseaux non interconnectés. D’ailleurs, la France participe à la réalimentation électrique de l’Espagne via les interconnexions.

Quelles sont les fragilités typiques d’un réseau électrique ?

A. B. : Un point important pour qu’un réseau électrique soit stable est que l’équilibre entre la consommation et la production d’électricité soit assuré à chaque instant (on parle d’équilibre production-consommation ou offre-demande).

Or, on a vu hier sur le réseau espagnol un brusque décrochage de la production/consommation de l’ordre d’une dizaine de gigawatts. Cela correspond à une perte d’environ 60 % de la consommation pour ce jour. Je cite le journal le Monde : « M.Sanchez a affirmé qu’il n’y avait “jamais” eu un tel “effondrement” du réseau électrique espagnol, précisant que “15 gigawatts” d’électricité avaient été “soudainement perdus"sur le réseau, le tout "en à peine cinq secondes” […] "Quinze gigawatts correspondent approximativement à 60 % de la demande" en électricité de l’Espagne à cette heure-là de la journée, a décrit le chef du gouvernement, qui a présidé une réunion de crise sur cette panne géante. »

La charge électrique en Espagne, telle qu’elle avait été prévue en orange, et celle, réelle, en violet. entsoe

Dans le cas d’un brusque décrochage de cet ordre, il y a une coupure électrique sur une grande région (qu’on qualifie de blackout), car le système devient instable. La raison du décrochage d’hier en Espagne semble encore inconnue et est en cours d’investigations par les gestionnaires de réseau et les autorités publiques.

Qu’est-ce qu’une instabilité du réseau électrique ? Qu’est-ce qui peut provoquer de telles instabilités ?

A. B. : Un réseau stable fonctionne dans des plages définies pour plusieurs grandeurs, notamment la fréquence et la tension électrique. En dehors de ces plages, le réseau peut être instable. Par exemple, si la tension en un point du réseau devient brusquement excessive, cela peut entraîner des déconnexions d’appareils qui se mettent en protection. Prenons, par exemple, le cas de panneaux photovoltaïques : s’ils se déconnectent, l’énergie qu’ils devaient produire peut manquer aux consommateurs, créant ainsi un déséquilibre entre la consommation et la production électrique. Sans opération de remédiation à ce problème, ce déséquilibre pourrait entraîner de graves conséquences pour le réseau électrique.

La seule opération à réaliser à ce stade est de délester très rapidement les consommateurs (c’est-à-dire réaliser une coupure électrique) afin de rétablir l’équilibre entre consommation et production, avant de pouvoir les réalimenter progressivement dans une configuration stable pour le réseau.

Si un incident peut provoquer un blackout, ce dernier peut aussi être provoqué par une succession d’éléments : on parle ainsi de « pannes en cascade ». Mais une panne, en cascade ou isolée, peut entraîner également une propagation à d’autres régions ou d’autres pays et accroître la sévérité de l’incident initial.

De nombreuses causes d’incident sont possibles : pannes de centrales électriques, phénomènes météorologiques extrêmes, etc.

Cependant, l’état du réseau électrique européen est contrôlé avec une grande vigilance par les gestionnaires de réseaux et bénéficie de systèmes automatisés permettant de réagir de façon de façon instantanée et adéquate dans l’urgence : cela a permis notamment de couper la propagation éventuelle vers la France en déconnectant la liaison de la France vers la Catalogne.

Cette carte présente le réseau de transport d’électricité existant (lignes de haute et très haute tension, pylônes électriques), ainsi que les ouvrages (lignes, postes électriques) en projet, ayant obtenus une déclaration d’utilité publique (DUP). RTE

Comme la consommation électrique de chacun varie tout le temps, la consommation à l’échelle d’un pays est variable. De même, certains moyens de production d’électricité utilisés (éolien, photovoltaïque…) présentent une production variable avec la météo. Les déséquilibres entre la production d’électricité et la consommation sont donc permanents, et une des tâches des gestionnaires de réseaux de transport d’électricité est d’équilibrer ce qui est produit et ce qui est consommé. Comment ces déséquilibres sont-ils gérés d’habitude ?

A. B. : Il y a tout d’abord un effet de foisonnement à l’échelle d’un pays qui permet de « lisser » les variations individuelles de chaque consommateur ou producteur : la consommation nationale est, par exemple, beaucoup plus lisse que les consommations individuelles. Cela la rend par ailleurs beaucoup plus prédictible, et l’équilibre offre-demande commence par un aspect de prédiction de la consommation, mais également des productions d’énergies renouvelables.

On vient ensuite compléter avec des moyens de production ou de stockage entièrement contrôlables (centrales thermiques, hydroélectricité…) qui permettront d’atteindre l’équilibre à chaque instant.

Bien entendu, certains déséquilibres imprévus peuvent exister et ils sont corrigés par de la réserve qui permet de maintenir la stabilité du réseau. Cette réserve est tirée par exemple d’une marge obligatoire de fonctionnement de centrales électriques (qui peuvent donc produire un peu plus ou un peu moins, selon les besoins). Or, dans le cas de l’Espagne, le déséquilibre était trop important pour réaliser cette compensation, étant plusieurs dizaines de fois supérieure aux réserves disponibles.

Mais il y a aussi d’autres moyens d’ajuster l’offre-demande en amont, notamment en déplaçant la consommation grâce à des tarifs incitatifs (par exemple des heures creuses lorsque la production photovoltaïque est à son maximum) ou par des informations citoyennes, comme ce qui est réalisé via EcoWatt. Dans ce dispositif géré par le gestionnaire de réseau de transport français RTE, les utilisateurs peuvent être alertés en cas de forte demande sur le réseau (généralement en hiver en France, à cause du chauffage électrique), afin de réduire leur consommation sur de courtes plages horaires qui peuvent être critiques pour le réseau ou nécessiter des moyens de production fortement émetteurs de CO2.

The Conversation

Anne Blavette a reçu des financements pour ses travaux de recherche de diverses agences et partenaires de financements, notamment l'ANR, l'ADEME, la région Bretagne, etc. et a collaboré/collabore avec divers partenaires publics et privés dont RTE, SRD, EDF, etc.

29.04.2025 à 16:37

Cyberattacks: how companies can communicate effectively after being hit

Paolo Antonetti, Professeur, EDHEC Business School

An effective communication strategy after a cyberattack can help a company position itself as a victim – if the strategy includes a commitment to affected consumers and employees.
Texte intégral (1461 mots)

In its latest annual publication, insurance group Hiscox surveyed more than 2,000 cybersecurity managers in eight countries including France. Two thirds of the companies in the survey reported having been the victim of a cyberattack between mid-August 2023 and September 2024, a 15% increase over the previous period. In terms of potential financial losses, Statista estimated that cyberattacks cost France up to €122 billion in 2024, compared to €89 in 2023 – a 37% rise.

A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!

The main forms of cyberattacks on French businesses, the recommendations for how companies can protect themselves, and the technical and legal responses they can adopt are well documented.

However, much less is known about appropriate communications and public relations responses to cyberattacks. The issues at stake are critical. When a company is the target of a cyberattack, should it systematically accept responsibility, or can it instead claim to be a victim to protect its reputation? A wrong answer can aggravate the situation and undermine the confidence of customers and investors.

Positioning as a victim

Our recent research questions the assumption that accepting causal responsibility should be the norm after a cyberattack: we show that positioning oneself as a victim can be more effective in limiting damage to one’s image – provided claims of victimhood are deployed intelligently.

There is evidence that firms need a strategy to present themselves effectively as victims of cybercriminals. Some firms, such as T-Mobile and Equifax, have in the past paid compensation to consumers while refusing to accept any responsibility, essentially presenting themselves as victims.

Similarly, the large French telecommunications operator Free presented itself as a victim when communicating about the large-scale cyberattack that affected its operations last October, which may have had an impact on its image. The UK’s TalkTalk initially framed itself as a victim of a cybercrime but was later criticized for its inadequate security measures.

Victimhood and sympathy

Clumsily declaring itself as the sole entity to blame or the sole victim of a cyberattack – which is what interests us here – can be risky and backfire on a company, damaging its credibility rather than protecting its reputation.

When companies present themselves as victims of cybercrime, they can elicit sympathy from stakeholders. People tend to be more compassionate toward businesses that depict themselves as wronged rather than those that deny responsibility or shift blame. In essence, this strategy frames the organization as a target of external forces beyond its control, rather than as negligent or incompetent. It leverages a fundamental social norm – people’s instinctive tendency to support those they see as victims.

But claims of victimhood must align with public expectations and the specific context of the breach. They should not be about shirking responsibility, but about acknowledging harm in a way that fosters understanding and trust. The following approaches and choices can help.

  • align with public perception

The reactions of stakeholders often depend on their understanding of the situation. If the attack is perceived as an external and malicious act, it is crucial for a company to adopt a consistent stance by emphasizing that it itself has been a victim. But if internal negligence is proven, claiming victim status could be counterproductive. The swiftness of a company’s response, the level of transparency and the relative stance taken are all part of a good strategy.

  • express support for stakeholders

Adopting a position of victimhood does not mean denying all responsibility or minimizing the consequences of an attack. The company must show that it takes the situation seriously by expressing empathy and commitment to affected stakeholders. It must pay particular attention to those affected inside the organization: a claim of victimhood should be part of an apology or a message expressing concern. An effective message must be sincere and oriented toward concrete solutions.

  • consider reputation

We find that it is easier for companies to claim victimhood persuasively if they are perceived as virtuous. This reputation can be due to a positive track record in terms of corporate social responsibility or because they are a not-for-profit institution (e.g. a library, a university or a hospital). Virtuous victims generate sympathy and empathy, and this is also reflected after a cyberattack.

  • highlight the harmfulness and sophistication of the attack

The results of our study also show that public acceptance of victim status is more effective when the cyberattack is perceived to be the work of highly competent malicious actors. It is also important for a company to persuade the public that the attack harmed the company, while keeping the main focus of the response on the public.

  • don’t complain

It is essential to distinguish between legitimate claims of victim status and communication that could be perceived as an attempt to exonerate oneself. An overly plaintive tone could undermine a company’s credibility. The approach should be factual and constructive, focusing on the measures taken to overcome the crisis.

  • test reactions before communicating widely

Companies’ responses to a cyberattack can vary depending on the context and the public. It is best to assess different approaches before embarking on large-scale communication. This can be done through internal tests, focus groups or targeted surveys. Subtle differences in the situation can cause important shifts in how the public perceives the breach and what the best response might be.

Our study sheds light on a shift in public expectations about crisis management: in the age of ubiquitous cybercrime, responsibilities are often shared. Poorly managed communication after a cyberattack can lead to a lasting loss of trust and expose a company to increased legal risks. Claiming victim status effectively, with an empathetic and transparent approach, can help mitigate the impact of the crisis and preserve the organization’s reputation.


This article was written with Ilaria Baghi (University of Modena and Reggio Emilia).

The Conversation

Paolo Antonetti ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.04.2025 à 12:24

Une approche plus positive d’Alzheimer : identifier et préserver les capacités qui restent fonctionnelles

Susana López Ortiz, Personal Docente e Investigador en Ciencias de la Salud, Universidad Europea Miguel de Cervantes

Alejandro Santos-Lozano, Chair professor, Universidad Europea Miguel de Cervantes

Celia García Chico, Personal Docente e Investigador en Ciencias de la Salud, Universidad Europea Miguel de Cervantes, Universidad Europea Miguel de Cervantes

Le concept de « capacités intrinsèques » se concentre sur les facultés qui n’ont pas été perdues chez les malades d’Alzheimer. Une approche également prometteuse pour le vieillissement en bonne santé.
Texte intégral (2192 mots)
L’Organisation mondiale de la santé décline les capacités intrinsèques autour de cinq dimensions principales : la locomotion, la cognition, l’état psychologique, la vitalité et les capacités sensorielles d’audition et de vision. Studio Romantic/Shuttersrtock

Le concept de « capacités intrinsèques », défini par l’Organisation mondiale de la santé (OMS), se concentre sur les facultés – sensorielles, psychologiques ou motrices – restées intactes chez les personnes atteintes de la maladie d’Alzheimer. Une nouvelle approche prometteuse pour cette pathologie, comme pour le vieillissement en bonne santé.


En 1967, Marta Cinta était danseuse étoile au New York City Ballet. Près de cinquante ans plus tard, en 2014, elle est arrivée dans une maison de retraite à Alicante, en Espagne, avec un diagnostic de maladie d’Alzheimer. Elle y a passé les dernières années de sa vie, jusqu’en mars 2020, date de son décès.

Lorsqu’elle est entrée en institution, de nombreuses personnes ont certainement pensé qu’il ne restait « plus rien d’elle ». Mais un jour, un thérapeute de l’initiative Música para Despertar (Musique pour l’éveil, en français, ndlr) a décidé de jouer la musique du célèbre ballet le Lac des cygnes, de Piotr Ilitch Tchaïkovski, et la réaction de Marta a ému toute l’Espagne.

Atteinte d’Alzheimer, l’ancienne ballerine Marta Cinta écoute le Lac des cygnes et la chorégraphie lui revient. Pierre-Louis Caron, France Info.

Vidéo tournée par Música para despertar (Musique pour l’éveil)

L’artiste d’origine espagnole a commencé à danser dans son fauteuil roulant, en bougeant ses bras avec une délicatesse qui semblait impossible pour une personne atteinte de sa maladie.


Chaque mardi, le plein d’infos santé : nutrition, bien-être, nouveaux traitements… Abonnez-vous gratuitement dès aujourd’hui.


La danse de Marta Cinta à un stade déjà avancé de la maladie a fait réfléchir à la possibilité de réorienter le traitement de la maladie d’Alzheimer : et si le cœur du problème résidait dans la manière dont nous comprenons les capacités dont disposent les personnes âgées qui souffrent de cette maladie ?

Définir les capacités intrinsèques

Pour apporter des réponses à cette question, nous nous référons d’abord au concept de capacités intrinsèques, introduit en 2015 par l’Organisation mondiale de la santé (OMS) dans son « Rapport mondial sur le vieillissement et la santé ». Selon les auteurs de rapport, le concept fait référence à l’ensemble des capacités physiques et mentales d’un individu à un moment donné, et non uniquement à ses déficits et à ses maladies.


À lire aussi : Qu’est-ce que la cognition ?


Depuis, l’OMS a identifié cinq dimensions principales autour des capacités intrinsèques : la locomotion, la cognition, l’état psychologique, la vitalité et les capacités sensorielles (définies par l’audition et la vision de la personne).

Une approche plus positive

À l’heure actuelle, les personnes âgées consultent un médecin quand un déclin évident de leurs capacités a déjà été constaté ou au moment où un événement indésirable survient. Cependant, des données scientifiques montrent que le déclin fonctionnel peut se manifester avant l’apparition de symptômes cliniques évidents de démence. De plus, nous savons que ce déclin peut être retardé, ou certains de ses aspects inversés, si des interventions appropriées sont mises en œuvre.

Dans cette logique, les capacités intrinsèques se concentrent sur l’évaluation des capacités qui sont maintenues (et non de celles qui sont perdues), ce qui peut se révéler particulièrement crucial dans les maladies neurodégénératives telles que la maladie d’Alzheimer.

L’anticipation comme stratégie

La maladie d’Alzheimer, qui est une pathologie neurodégénérative chronique et progressive, a traditionnellement été abordée dans une perspective qui se concentre uniquement et exclusivement sur la perte de mémoire. Cependant, cette conception peut être considérée comme réductrice, car elle minimise la détérioration de la personne et rend invisibles les capacités qui restent intactes, telles que les capacités sensorielles, psychologiques ou motrices.

L’approche fondée sur les capacités intrinsèques recherche précisément le contraire : observer, prévenir et préserver. De fait, la détection précoce de déficiences concernant certaines capacités ou d’autres peut aider à mettre en place des interventions individualisées et efficaces qui aident à maintenir des capacités intrinsèques adéquates plus longtemps.

De plus, une détérioration dans un des domaines de capacités intrinsèques peut entraîner une réaction en chaîne. Par exemple, une perte auditive non détectée peut conduire à un isolement social, ce qui peut affecter l’humeur et favoriser un mode de vie plus sédentaire.

Améliorer la vie des personnes atteintes de la maladie d’Alzheimer

Selon le « Rapport mondial 2023 sur la maladie d’Alzheimer », environ 40 % des cas de démence pourraient être évités ou retardés en agissant sur 12 facteurs de risque tout au long de la vie, notamment l’éducation, la sédentarité, l’hypertension ou la santé auditive.

(Ce rapport est édité par Alzheimer Disease International, ou ADI, une fédération internationale d’associations consacrées à la maladie d’Alzheimer et aux démences partout dans le monde. ADI revendique des « relations officielles » avec l’OMS, ndlr.)

Ces facteurs sont présents dès les premiers stades de la vie. De ce fait, la prévention relève, non seulement, du système de santé, mais aussi des politiques publiques, des communautés et des établissements d’enseignement.

Agir à ces différents niveaux ne nécessite pas d’interventions cliniques complexes, mais plutôt des stratégies individuelles et communautaires qui contribuent à renforcer les capacités intrinsèques de ces personnes. On citera, par exemple, la promotion de l’activité physique, qui renforce la dimension locomotrice ; la mise en œuvre de thérapies cognitives et de stimulations sensorielles, qui contribuent à améliorer la cognition ; ou la création de lieux de rencontre pour les personnes âgées, en raison de leur importance pour la prise en charge de l’aspect psychologique.


À lire aussi : Pour booster son cerveau, quelles activités physiques privilégier après 60 ans ?


À terme, au-delà des essais cliniques et de la recherche de nouveaux biomarqueurs, les capacités intrinsèques pourraient devenir une arme puissante pour anticiper les effets de la maladie d’Alzheimer et améliorer la vie des malades.

Une étude longitudinale dans laquelle a été analysée la trajectoire en termes de capacités intrinsèques de près de 15 000 personnes a montré que le déclin dans des domaines comme la locomotion et la cognition est fortement prédictif de l’apparition de démence, d’invalidité et de mortalité.

Objectif : préserver l’autonomie

Nous avons vu l’utilité des capacités intrinsèques pour appréhender la maladie d’Alzheimer selon une nouvelle approche. Elles se positionnent également comme l’un des principaux concepts pour comprendre le vieillissement en bonne santé. C’est ce qu’affirme la Décennie pour le vieillissement en bonne santé (2020-2030), un document qui présente la stratégie de l’OMS en matière de vieillissement et de santé.

Ce rapport définit le vieillissement en bonne santé comme

« le processus de développement et de maintien des aptitudes fonctionnelles qui permet aux personnes âgées de jouir d’un état de bien-être. Les aptitudes fonctionnelles sont les capacités qui permettent aux individus d’être et de faire ce qu’ils jugent valorisant ».

Les auteurs soulignent également que la qualité de vie des personnes âgées et de leurs familles, ainsi que des communautés dans lesquelles elles vivent, est l’objectif principal du vieillissement en bonne santé.


À lire aussi : Vivre plus longtemps, mais moins bien ? Les inégalités qui pèsent sur le grand âge


Pour y parvenir, l’OMS propose quatre domaines d’action clé pour passer d’un modèle de dépendance à un modèle de participation active :

  1. changer la façon dont nous concevons l’âge et le vieillissement ;

  2. créer des communautés qui soutiennent les capacités des personnes âgées ;

  3. fournir des soins intégrés et centrés sur la personne ;

  4. garantir l’accès aux soins de longue durée lorsqu’ils sont nécessaires.

Connaître et comprendre les dimensions qui composent les capacités intrinsèques et les facteurs de risque qui influencent l’apparition et la progression de la démence permettrait de développer des stratégies visant à préserver les capacités physiques et mentales des personnes âgées. Par exemple, au moyen d’activités ciblées telles que l’entraînement fonctionnel ou la stimulation cognitive.

En outre, l’intégration d’évaluations des capacités intrinsèques tout au long de la vie pourrait améliorer la compréhension des liens entre les processus qui sous-tendent le vieillissement et l’adhésion à des modes de vie sains.

Encourager ces habitudes permettrait, non seulement, d’accroître les bénéfices apportés par leur pratique, mais aussi de favoriser leur maintien à long terme, en promouvant un vieillissement actif, sain et indépendant.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

28.04.2025 à 17:28

Sur Internet, des adolescents confrontés de plus en plus jeunes à des images pornographiques

Laurence Corroy, Professeure des universités, Université de Lorraine

Confrontés de plus en plus tôt à des contenus pornographiques en ligne, les adolescentes et adolescents peinent à aborder le sujet avec les adultes qui les entourent.
Texte intégral (1946 mots)

Si les adolescentes et adolescents se retrouvent confrontés de plus en plus précocement à de la pornographie en ligne, il leur est très difficile d’aborder le sujet avec des adultes. Retour sur une enquête de terrain alors que les éditeurs de sites sont sommés d’instaurer un contrôle d’âge pour l’accès à ces contenus sensibles.


Dès que l’on parle des adolescents et de leurs relations au numérique, les débats se polarisent, sans qu’il y ait nécessairement le réflexe de recueillir leur témoignage. En recherche, il est pourtant extrêmement important de leur donner la parole, ce qui permet de mieux mesurer leur capacité d’analyse et de distance vis-à-vis des messages médiatiques.

Dans le cadre de l’étude Sexteens, menée en Grand Est, nous avons rencontré plus d’une soixantaine d’adolescents pour évoquer avec eux les représentations de la sexualité et de l’amour dans les séries pour ados qu’ils regardent. Ces séries ont la particularité de mettre en scène des personnages principaux du même âge qu’eux, la plupart évoluant dans un cadre qu’ils connaissent bien, celui du lycée.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Au cours de cette enquête, nous avons décidé de les interroger sur leur rapport à la pornographie seulement s’ils abordaient spontanément eux-mêmes le sujet au cours de l’entretien. La question n’était pas au cœur de notre recherche, nous ne voulions néanmoins pas l’éluder si les adolescents la soulevaient.

Nous avons ainsi recueilli les paroles d’une vingtaine de lycéennes et de lycéens sur leur confrontation à la pornographie. Ces témoignages sont précieux pour comprendre le choc ressenti et les ambivalences perçues face à ces images obscènes, alors que de plus en plus de mineurs sont exposés à ce type de contenus et que les éditeurs de sites pornographiques sont sommés de contrôler l’âge des internautes.

Un âge précoce d’exposition

Le premier enseignement de ce terrain concerne l’âge d’exposition à des images pornographiques. Celles et ceux, majoritaires, qui ont été confrontés à de la pornographie sans l’avoir désiré, l’ont été avant l’entrée au collège et l’ont particulièrement mal vécu.

Qu’il s’agisse de pop-ups qui s’ouvrent sur des sites de streaming ou d’images montrées délibérément par des élèves ou des enfants de leur entourage souvent plus âgés, les lycéens racontent leur stupéfaction, proche de l’incompréhension, puis la honte ou l’effroi qu’ils ont ressentis, comme le rappelle Marco :

« Depuis tout petit, je traîne sur Internet, parce que mon père est informaticien. J’ai eu un ordinateur très tôt à la maison. Je me rappelle qu’une fois, je cherchais soit des informations sur un jeu, soit à regarder un film en streaming. Je devais avoir au maximum 10 ans. Et il y a eu une fenêtre pop-up qui s’est ouverte. Je n’ai même pas compris. Ça m’a fait peur. Je ne sais pas comment expliquer… J’étais un petit peu dégoûté, c’était plutôt un sentiment de répulsion, mais en même temps un peu intrigué. »

Pour celles et ceux qui ont désiré consulter volontairement des sites pornographiques, ils étaient collégiens. La pression à la conformité peut jouer, les autres élèves en ayant discuté devant eux. Il faut pouvoir en parler, montrer qu’on a grandi. Ce visionnage s’apparente alors à un rite de passage, pour de jeunes adolescents autour de 13 ans :

Charlotte : « C’était volontaire. Un jour, je sais pas, c’était le matin et j’étais sur mon ordinateur. Je me suis dit, “Bah, je pense que je me sens prête, et c’est le moment de, de voir en fait”, on m’avait déjà proposé de regarder, etc. J’avais dit non. »

Qui te l’avait proposé ?

Charlotte : « Des amis garçons au collège.»

Pour des adolescents avides d’informations sur la sexualité, la pornographie paraît une possibilité plus accessible que d’aborder la question directement avec leurs parents, à une période de bouleversement pubertaire :

Claire : « Ça doit être à 13 ans. Je crois que c’est moi qui avais cherché. Y avait peut-être une scène dans un film ou quelque chose comme ça. Ou moi qui avais cherché. Je vous dis 13 ans, parce c’est l’âge où j’ai eu mes règles et c’était parti. Je pense que c’était sur Internet. On ne va pas dire que ça m’avait choqué, mais en tout cas ça m’avait dégoûtée. Vraiment j’ai vu ça… Et encore, c’était sur un truc connu pour être féministe ! Et vraiment j’ai vu ça et me suis dit : “C’est pas pour moi.” »

La sidération et le dégoût ne provoquent pas chez les enfants, même très jeunes, le réflexe d’en parler à leurs parents. Bien au contraire. L’épreuve est vécue seul, éventuellement entre pairs si le visionnage a été en duo ou en groupe.

Quels que soient les sentiments et les émotions suscitées, aucun d’entre eux n’en a parlé à des adultes. Ces derniers semblent les grands absents, tant les jeunes rapportent craindre leurs réactions. Amélie, qui a visionné de la pornographie de façon accidentelle avec sa cousine, évoque son incapacité à en discuter :

« C’est resté entre nous. Déjà, on avait peur de se faire engueuler. Et puis, on n’avait trop rien à dire dessus. On a vu et on a fait : “Bon.” Et après, il y a eu la curiosité parce qu’on ne savait pas du tout ce que c’était. Du coup, on est restées devant par curiosité. »

Des critiques argumentées

Pour autant, à l’exception d’un seul garçon qui a témoigné de son plaisir à regarder tous les jours « pour se branler », et dont les critiques portaient uniquement sur les performances mises en scène, tous les autres lycéens ont dénoncé des rapports de genre problématiques dans les films pornographiques, estimant qu’ils sont « dégradants » pour les femmes, « déshumanisants » et qu’il s’agit souvent de « représentations violentes de la sexualité ». Ils dénoncent des scripts sexuels et des corps irréalistes qui deviennent vecteurs de complexes.

Enquête sur les jeunes et la pornographie en 2018 (France 3 Grand Est).

Les filles jugent ainsi de manière très négative les rapports sexuels mis en scène, en ce qu’ils peuvent susciter des attentes irréalistes de la part des garçons dans la vraie vie, et critiquent des standards esthétiques très éloignés de leurs propres vécus corporels. Les garçons, quant à eux, évoquent les durées des rapports qui « mettent la pression » et déconnectés du réel.

Enfin, plusieurs adolescents ont rappelé le caractère addictif des images pornographiques, sans qu’ils ne puissent ou ne veuillent en expliquer la raison. Ils déclarent avoir des amis qui en ont besoin « de temps en temps ». Garçons et filles prêtent essentiellement aux garçons une appétence pour la pornographie, comme le résume laconiquement Coralie :

« Mes amis garçons et mon copain, ben eux ils approuvent hein, c’est des garçons hein… Mais moi, je trouve que c’est pas super. »

Ces représentations genrées des usages corroborent en partie des études récentes qui montrent une fréquentation plus assidue et un temps passé sur les sites pornographiques bien plus importants pour les adolescents que pour les adolescentes.

Un dialogue nécessaire

Le dialogue avec les adultes est-il impossible ou souhaité ? Nos enquêtés se sont tous déclarés favorables à l’introduction de cette thématique dans le cadre de l’éducation à la vie affective et relationnelle et à la sexualité.


À lire aussi : Une nouvelle éducation à la sexualité dans les établissements scolaires ?


Si discuter avec ses propres parents de la sexualité paraît difficile, voire impossible ou tabou pour beaucoup d’entre eux, cela ne signifie pas qu’ils ne désirent pas être accompagnés par les adultes. Ils aimeraient que le consentement, le plaisir et la pornographie soient systématiquement abordés à l’école. À l’instar d’Emmanuel, qui a apprécié la discussion sur la pornographie en classe et en a gardé un souvenir très vif :

« On avait comparé ça à une cigarette, parce que la première, elle est bien, parce que c’est la première et tout ça, et puis après, on se sent obligé de recommencer, de recommencer, de recommencer ! Puis en fait, c’est nocif. C’est nocif à mort ! Ça fait baisser la confiance en soi, c’est, c’est du gros cliché ! Puis surtout, les actrices, elles doivent être… elles doivent être exploitées, violées des fois. »

Déconstruire les messages médiatiques, développer son esprit critique, repérer les discours discriminatoires et sexistes, éduquer au consentement font partie d’une éducation aux médias et à l’information au sens large, fondamentale pour pouvoir prendre du pouvoir vis-à-vis d’images qui imposent par leur puissance itérative des scripts sexuels et des rapports de genre qui posent question. Les adolescents ont besoin de leurs aînés pour y parvenir. Soyons au rendez-vous.


Les entretiens ont eu lieu dans quatre lycées différents, en filières générales et technologiques et professionnelles. Julie Brusq, Mouna El Gaïed, Aurélie Pourrez, chercheuses à l’Université de Lorraine, au Crem (Centre de recherche sur les médiations. Communication – Langue – Art – Culture), ont participé à cette enquête.

The Conversation

Laurence Corroy a reçu des financements de la Maison des Sciences de l'Homme de Lorraine.

28.04.2025 à 17:27

La décroissance impliquerait-elle le retour à l’âge de la bougie ?

Marc Germain, Maître de conférences émérite d'économie, Université de Lille

Le « jour du dépassement » a été atteint le 19 avril dernier. Une étude réfute les liens entre décroissance et retour à l’âge de la bougie. Au pire ? Un retour au PIB par habitant de 1964…
Texte intégral (2270 mots)
Le 19 avril, la France atteint son « jour de dépassement » écologique. À cette date, notre pays a consommé l’ensemble des ressources naturelles produites pour satisfaire la consommation de sa population et absorber ses déchets pour toute l’année. JHDTProductions/Shutterstock

Le « jour du dépassement » a été atteint le 19 avril dernier. Diminuer le produit intérieur brut (PIB) pour faire disparaître ce dépassement écologique n’impliquerait pas de retourner à l’âge de la bougie. C’est ce que conclut une étude appliquée à la France et à l’Allemagne. Le PIB par habitant soutenable d’aujourd’hui correspondrait à un niveau observé dans les années 1960. Tout en gardant les technologies actuelles.


En 2020, le président Macron balayait la demande de moratoire de la gauche et des écologistes sur le déploiement de la 5G en renvoyant ses opposants au « modèle amish et au retour à la lampe à huile ». En 2024, le premier ministre Attal estimait que « la décroissance, c’est la fin de notre modèle social, c’est la pauvreté de masse ». Au vu de ces citations, tout refus du progrès ou toute baisse volontaire de l’activité économique est assimilé à un retour en arrière, voire à un monde archaïque.

Pourtant, le 1er août 2024, l’humanité atteignait son « jour de dépassement » écologique. À cette date, celle-ci avait consommé l’ensemble des ressources naturelles que la planète avait produites pour satisfaire sa consommation et absorber ses déchets pour toute l’année.

Dans le cas de la France, le jour du dépassement était déjà atteint le 19 avril. Malgré ses limites, le jour du dépassement est un indicateur pédagogique très utilisé pour mesurer le degré de non-soutenabilité du « train de vie » moyen d’une population sur le plan environnemental. Plus ce jour intervient tôt dans l’année, moins ce train de vie est durable.

Afin de reculer le jour du dépassement (et idéalement de le ramener au 31 décembre), on peut schématiquement opposer deux grandes stratégies.

  • La première vise à découpler les activités humaines de leur empreinte environnementale, principalement par le progrès technique. C’est la posture « techno-solutionniste ».

  • La deuxième, promue notamment par les partisans de la décroissance, ne croit pas en la faisabilité de ce découplage. Elle prône une réduction volontaire et ciblée des activités humaines elles-mêmes.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une étude récente, appliquée en particulier à la France, réfute les citations du premier paragraphe. Elle montre que la baisse du PIB permettant de faire disparaître le dépassement écologique en France n’impliquerait nullement un retour à l’âge de la bougie (ou de la lampe à huile), mais à un PIB par habitant observé dans les années 1960.

Définition de l’empreinte écologique

Le point de départ de l’étude consiste à faire le lien entre empreinte écologique, PIB et population d’un pays, à travers l’identité suivante :

E = eyP

où :

  • E désigne l’empreinte écologique. Selon le Global Footprint Network (GFN), l’organisme qui produit les statistiques relatives à l’empreinte écologique, celle-ci mesure la surface de terre et d’eau biologiquement productive dont un individu, un pays ou une activité a besoin pour produire toutes les ressources qu’il consomme et pour absorber les déchets qu’il génère.

  • y = Y/P est le PIB par habitant, où Y et P désignent respectivement le PIB et la population du pays.

  • e = E/Y est définie comme l’intensité écologique du PIB. À titre d’illustration, considérons une économie qui ne produit que des denrées agricoles. L’intensité écologique est alors l’empreinte écologique liée à la production d’un euro de ces denrées. L’intensité est (entre autres) déterminée par la technologie, dans la mesure où elle est d’autant plus faible que les ressources sont utilisées efficacement par l’économie.

En résumé, l'empreinte écologique est le produit de la population, de sa consommation de richesses et de l'efficacité des moyens utilisés pour produire ces richesses.

Empreinte écologique en France et en Allemagne

Les graphiques ci-dessous illustrent les évolutions contrastées des différentes variables présentes dans la formule précédente pour la France et pour l’Allemagne.

On observe que, depuis 1970, l’empreinte écologique globale E est restée plus ou moins stable en France, avant de décroître, depuis 2010. En revanche, l’empreinte écologique est tendanciellement décroissante en Allemagne, depuis 1990. Cette évolution plus favorable s’explique notamment par la croissance sensiblement plus faible de la population de ce pays.

Les évolutions des composantes e, y, P de l’empreinte écologique sont similaires dans les deux pays. L’empreinte écologique est tirée vers le haut par la croissance du PIB/hab y et, dans une bien moindre mesure, par la hausse de la population P.

En revanche, l’empreinte écologique est tirée vers le bas par la baisse continue de l’intensité écologique e. Cette baisse de e est due à différents facteurs, notamment le progrès technique et la tertiarisation de l’économie – les services ayant une empreinte moindre que l’industrie par unité de richesses produites.

Dépassement écologique

La deuxième étape de l’étude consiste à définir le dépassement écologique d’un pays. Celui-ci est défini comme le rapport entre l’empreinte par habitant du pays et la biocapacité par habitant au niveau mondial. La biocapacité est la capacité des écosystèmes à produire les matières biologiques utilisées par les humains et à absorber les déchets de ces derniers, dans le cadre de la gestion et des technologies d’extraction en cours.

Si d désigne le dépassement d’un pays, alors celui-ci est en dépassement si d > 1. Le jour du dépassement de ce pays survient alors avant le 31 décembre, et ce, d’autant plus tôt que d est élevé. Le Global Footprint Network (GFN) interprète le rapport d comme le nombre de planètes Terre nécessaire pour soutenir la consommation moyenne des habitants du pays.

Évolution du dépassement en France et en Allemagne. Fourni par l'auteur

L’évolution au cours du temps du dépassement en France et en Allemagne est décrite par le graphique ci-dessus. Il montre que, si tous les habitants du monde avaient la même empreinte écologique moyenne que celle des Français ou des Allemands à l’époque actuelle, il faudrait à peu près les ressources de trois planètes pour la soutenir.

PIB soutenable

La dernière étape de l’étude concerne la notion de PIB/hab soutenable d’un pays, défini comme le rapport entre le PIB/hab observé et le dépassement écologique.

Le PIB/hab soutenable correspond au niveau de vie maximal moyen compatible avec l’absence de dépassement écologique. Le tableau suivant décrit le calcul du PIB/hab soutenable pour la France et l’Allemagne en 2022 – la dernière année disponible au moment de l’étude.

Pour expliquer ce tableau, considérons les chiffres pour la France. Les deuxième et troisième lignes renseignent respectivement le PIB/hab observé y et le dépassement d de ce pays en 2022. La quatrième ligne calcule le PIB/hab soutenable s, en divisant le PIB/hab observé y par le dépassement d (autrement dit s=y/d). Ce chiffre correspond au niveau maximal du PIB/hab compatible avec l’absence de dépassement.

En d’autres termes, si au lieu d’avoir été égal à 38 816 $, le PIB/hab avait été égal à 13 591 $, la France n’aurait pas été en dépassement en 2022.

Le PIB/hab soutenable étant approximativement égal au tiers du PIB/hab observé, ramener celui-ci à un niveau soutenable supposerait une décroissance de l’ordre des deux tiers. L’ampleur de cette décroissance fait écho à d’autres travaux visant à quantifier les impacts de politiques de décroissance.

La dernière ligne du tableau indique que le PIB/hab qui aurait été soutenable en 2022 en France (13 591 $) correspond à peu près au PIB/hab effectivement observé en 1964. En écho avec les citations évoquées au début de cet article, ce résultat suggère que la décroissance du PIB nécessaire pour faire disparaître le dépassement écologique en France n’impliquerait aucunement un retour à l’âge de la bougie.

Pas un retour aux années 1960

Les résultats de l’étude ne suggèrent pas pour autant un retour pur et simple aux années 1960. En effet, ils sont obtenus en neutralisant le dépassement au moyen de la seule réduction du PIB/hab, alors que l’intensité écologique (déterminée, en particulier, par la technologie) et la population sont fixées à leurs niveaux actuels. Si les résultats supposent une baisse sensible de la production globale de l’économie, ils n’impliquent pas de renoncer à la technologie actuelle.

Il importe de souligner que notre étude s’est limitée à des pays industrialisés, et ne concerne donc pas les pays émergents ou en voie de développement. Nombre de questions n’ont pas été abordées, à l’exemple de celle de la répartition de l’effort de décroissance entre habitants aux revenus très différents ou entre activités économiques.

Notre étude résumée ici doit donc être prise pour ce qu’elle est : un exercice simple visant à remettre en question certains discours dénigrant la décroissance en tant que stratégie de neutralisation du dépassement écologique, dans le cadre du débat autour de la nécessaire réduction des impacts des activités humaines.

The Conversation

Marc Germain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.04.2025 à 17:27

Livraison du dernier kilomètre : quelles solutions demain pour décarboner la logistique ?

Tristan Bourvon, Coordinateur Logistique & Transport de marchandises, Ademe (Agence de la transition écologique)

Focus sur trois solutions de décarbonation de la logistique : les centres de distribution urbains, les microhubs et la mutualisation des circuits courts alimentaires de proximité.
Texte intégral (2575 mots)
Les microhubs en ville peuvent faciliter le relais entre poids lourds et vélos-cargos pour la livraison du dernier kilomètre. Shutterstock

Comment réduire l’impact climatique des premier et dernier kilomètres des livraisons ? Pour le secteur de la logistique, le défi est de taille. Outre les leviers technologiques, comme le recours à des énergies renouvelables pour les véhicules, des solutions organisationnelles existent. La question du soutien des pouvoirs publics se pose, si l’on souhaite que ces solutions soient déployées à grande échelle en France.


La logistique représente au moins 16 % des émissions de gaz à effet de serre en France, soit 63 millions de tonnes équivalent CO2. Elle est également une source significative d’artificialisation des sols : elle représente environ 4 % de l’artificialisation totale en France entre 2010 et 2019.

La logistique urbaine pèse quant à elle pour 25 % des émissions de gaz à effet de serre des transports en ville, pour 33 % des émissions de polluants atmosphériques et 30 % de l’occupation de la voirie, sans oublier les nuisances sonores qu’elle génère.

Pour que l’objectif de la stratégie nationale bas carbone (SNBC) de baisser de 50 % des émissions de gaz à effet de serre à horizon 2030 soit tenu, les évolutions technologiques telles que l’électrification des flottes ne suffiront pas, quand bien même elles sont indispensables. Il faut donc transformer ce secteur qui représente aujourd’hui 1,8 million d’emplois en France. L’optimisation des flux logistiques et la réduction de leur impact doit aussi passer par des innovations organisationnelles.

Au cours des dernières décennies, plusieurs types de solutions ont déjà été expérimentées en France. L’Agence de la transition écologique (Ademe) a lancé, en 2024, l’eXtrême Défi Logistique, un programme d’innovation visant à imaginer puis à déployer des démarches d’optimisation de la logistique du premier et dernier kilomètre. Dans le cadre de ce programme, elle a identifié trois solutions existantes particulièrement intéressantes sur lesquelles elle a mené une analyse rétrospective :

  • les centres mutualisés de distribution urbaine,

  • les microhubs (microplateformes logistiques, en général optimisées pour une livraison finale par des modes de transport doux),

  • et la mutualisation des circuits courts alimentaires de proximité.

L’enjeu était de mettre en évidence les forces et les faiblesses de chacune d’entre elles afin d’identifier les conditions auxquelles elles pourraient être mises en œuvre à grande échelle en France. Un appel à projets « Ideation », a également été lancé, dans le cadre de l’eXtrême Défi Logistique, pour imaginer et concevoir ce type de solutions sur des territoires partout en France. Quatorze lauréats sont soutenus par l’Ademe. Dès début 2026, une phase d’expérimentation sera lancée pour tester concrètement ces solutions.

En quoi consistent ces différentes solutions et à quelles conditions peuvent-elles fonctionner ? Quel rôle peuvent jouer les collectivités pour assurer leur succès, la coordination entre seuls acteurs privés paraissant compliquée à impulser ?

Des centres de distribution urbaine

La première solution, dont l’Ademe a recensé dans son étude 33 expérimentations, bénéficie déjà d’un certain recul. Les « centres de distribution urbaine » (CDU) sont de petits entrepôts installés en périphérie des centres-villes qui agrègent les flux de différents transporteurs et grossistes pour ensuite organiser des tournées de distribution optimisées vers les centres-villes.

Le but est de réduire le nombre de kilomètres parcourus, le nombre d’arrêts des véhicules, mais aussi les coûts de la livraison du dernier kilomètre. La mutualisation des flux, dont ces CDU sont une forme, participerait dans les villes denses à une diminution de 10 % à 13 % des émissions de gaz à effet de serre.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les premiers projets de CDU, issus du principe des gares routières nées dans les années 1960, émergent dans les années 1990. Parmi les cas étudiés, une partie est privée ou semi-privée, prise en charge par des opérateurs eux-mêmes et d’autres mixtes ou publics. Ces derniers sont portés par les pouvoirs publics et s’apparentent à un « service public » de livraison de marchandises. Certains CDU sont dits « spécifiques » et associés à une activité particulière (chantier de BTP, livraison de marchandises dans un lieu contraint comme un aéroport…). Enfin, les CDU peuvent être mutualisés, c’est-à-dire partagés entre plusieurs plusieurs opérateurs de transport.

L’étude a montré que les difficultés étaient essentiellement liées au modèle économique, du fait notamment d’un manque de flux. Les projets qui ont réussi à se pérenniser ont trouvé un équilibre entre coûts d’exploitation et revenus, en diversifiant leurs sources de financement et en intégrant des services à valeur ajoutée comme le stockage déporté ou la préparation de commande.

Des entrepôts agrégeant les colis en périphérie urbaine permettent d’optimiser la livraison en centre-ville. Shutterstock

Le milieu étant concurrentiel, l’idéal est que la démarche soit portée par une collectivité, qui initie par exemple une structure juridique (coopérative, groupement d’intérêt économique, délégation à une société locale) et met en place une réglementation incitative. Comme des restrictions de circulation ou la mise à disposition de véhicules électriques uniquement qui attireront certains acteurs.

À Lille, un centre qui avait fermé va ainsi être relancé pour réaliser des tournées de livraison mutualisées entre les transporteurs du dernier kilomètre.

Des microhubs au cœur des villes

Autre option, plus récente et encore balbutiante : les microhubs, qui ne bénéficient pas du même recul que les centres de distribution urbains. Ces mini-entrepôts prennent souvent la forme d’une structure légère implantée en cœur de ville, par exemple sur une place de parking. Ces petites installations visent à stocker temporairement de la marchandise afin de réduire les distances parcourues pour la distribution et/ou le ramassage des biens.

Ils facilitent également la rupture de charge entre un poids lourd et des vélos-cargos. La possibilité d’entreposer pour une durée limitée les marchandises permet d’éviter tout temps d’attente entre l’arrivée d’un poids lourd pour décharger et le relais par des vélos cargo. Ces derniers peuvent ainsi rayonner autour du microhub pour réaliser les approvisionnements des établissements économiques locaux.

Autrement dit, les microhubs pallient un déficit en espaces fonciers pour la logistique urbaine dans des zones urbaines denses ou permettent de répondre à un besoin exceptionnel, par exemple pour un événement de grande ampleur qui porte atteinte à la performance logistique, comme l’organisation d’un grand événement sportif type Jeux olympiques. Ces expérimentations présentent aussi l’intérêt de tester la pertinence d’une implantation temporaire pour la logistique urbaine avant d’envisager d’éventuels aménagements plus pérennes. Ils peuvent être fixes ou mobiles, temporaires (de quelques mois à quelques années) ou durables.

D’après l’étude, le modèle souffre de moins de verrous économiques que les centres de distribution urbains, mais il requiert une volonté politique en faveur de la cyclologistique : ce sont souvent les enjeux fonciers et une absence de cadre réglementaire structurant qui limitent leur succès. À Nantes, un projet porté par Sofub (filiale de la Fédération des usagers de bicyclettes), vise ainsi à évaluer le potentiel de déploiement de microhubs sur plusieurs territoires afin de tester leur pertinence.

Mutualiser les circuits courts alimentaires de proximité

La mutualisation des circuits courts alimentaires de proximité (CCAP), enfin, entend répondre aux problématiques que pose la vente d’aliments secs ou frais en filière courte en envisageant la mise en commun des ressources et des moyens mobilisés pour faire circuler ces produits entre producteurs et consommateurs. Dans le cadre de notre étude, le rayon est fixé à 160 km. Les producteurs étant en général contraints d’utiliser leur propre camionnette pour venir en ville commercialiser leurs produits, la démarche est coûteuse, les véhicules souvent vieillissants ne sont en outre pas forcément bien remplis. Ainsi, les circuits courts alimentaires ne sont ainsi pas toujours aussi vertueux qu’espéré.

L’idée de la mutualisation des CCAP est de mettre en place des organisations mutualisées pour acheminer les récoltes vers les villes de façon professionnalisée. Plus matures que les microhubs, les structures porteuses de ce schéma, nées il y a une vingtaine d’années, connaissent déjà de nombreux succès. Elles impliquent toutefois de prendre en compte beaucoup de critères : le type de consommateurs (entreprises ou particuliers), la complexité du circuit court, l’internalisation ou non des opérations logistiques, le support de mutualisation (matériel ou plate-forme virtuelle)…

La principale difficulté relevée par l’étude est de convaincre les producteurs de changer leurs habitudes et d’identifier la structure qui va se charger de cette organisation. Une association de producteurs ? La collectivité ? La Chambre d’agriculture ?

À cet égard, un projet prometteur mené par le Département de l’Aveyron a été retenu comme lauréat de l’appel à projets de l’Ademe : il associe la Chambre d’agriculture, les collectivités partenaires et les programmes alimentaires territoriaux (PAT) pour créer une société coopérative d’intérêt collectif (Scic) qui aura pour objet d’optimiser la logistique des circuits courts à l’échelle du département, au travers du ramassage mutualisé et de la distribution optimisée.

L’approche, à l’échelle d’un département entier, permet d’envisager des gains d’efficacité et d’échelle assez importants, tout en facilitant le recours à ces offres par les acteurs locaux.

Quel rôle pour les collectivités ?

L’analyse rétrospective de ces trois options de décarbonation de la livraison a mis en évidence la nécessité, pour que ces solutions fonctionnent :

  • d’un modèle économique robuste,

  • d’une localisation stratégique,

  • d’une bonne coordination entre parties prenantes,

  • d’un soutien réglementaire et financier,

  • et d’un bon usage des outils numériques et des plates-formes collaboratives.

Elle souligne aussi que ces solutions ont toutes besoin, pour fonctionner, d’être encouragées par une volonté politique plus forte des collectivités. Laisser s’organiser des acteurs privés entre eux ne suffira pas, la coopération entre collectivités, transporteurs, commerçants et citoyens est déterminante pour l’adhésion et l’acceptabilité de ces projets.

Ce rôle des collectivités peut prendre différentes formes. Elles peuvent accompagner des projets en facilitant l’accès au foncier, en incitant à la mutualisation des flux, en mettant en place des leviers réglementaires et en intégrant ces infrastructures dans la planification urbaine.

Les collectivités peuvent également développer des incitations économiques et fiscales, pour soutenir les initiatives locales et encourager les transporteurs à utiliser ces infrastructures.

Elles peuvent enfin améliorer la collecte et le partage des données sur les flux logistiques, afin d’optimiser la planification et le suivi des performances environnementales et économiques.

À Padoue, en Italie, un péage urbain a par exemple été mis en place pour les véhicules de marchandises. Livrer dans la ville exige une licence et, en parallèle, un opérateur municipal, exonéré du péage urbain, a été mis en place. Les acteurs économiques ont ainsi le choix entre payer le péage ou passer par cet acteur municipal. En France, la ville de Chartres a elle aussi limité l’accès au centre-ville pour les véhicules de livraison et a créé une solution locale.

The Conversation

Tristan Bourvon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.04.2025 à 17:26

Pourquoi une guerre nucléaire est (presque) impossible en Europe

Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES - UCLy (Lyon Catholic University)

L’utilisation de l’arme nucléaire aurait des conséquences si catastrophiques, non seulement pour les pays ciblés, mais aussi pour ceux qui l’emploieraient en premier, qu’elle semble hautement improbable.
Texte intégral (2835 mots)

L’arme nucléaire, du fait des conséquences désastreuses qu’entraînerait son emploi, est vouée à rester un élément de dissuasion. Si la menace du recours à cette arme ultime est fréquemment brandie côté russe, il n’en demeure pas moins que les responsables au Kremlin ont pleinement conscience des coûts pratiquement incalculables qu’une telle décision engendrerait. Pour autant, si le pire n’est jamais certain, il n’est jamais à exclure totalement.


La situation géopolitique extrêmement perturbée aux marches du continent européen remet sur le devant de la scène l’arme nucléaire. Les menaces explicites ou implicites de son utilisation contre un pays de l’Union européenne (UE) ou contre l’Ukraine, exprimées par Vladimir Poutine, la proposition d’extension de l’arsenal nucléaire français à d’autres États européens, avancée par Emmanuel Macron, et le questionnement sur la crédibilité des armes nucléaires américaines présentes en Europe : le contexte invite à s’interroger sur le risque qu’une arme nucléaire soit employée sur le continent, voire sur la possibilité qu’éclate une guerre nucléaire à grande échelle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’arme nucléaire, un moyen essentiellement politique

Depuis leur apparition en 1945, depuis Hiroshima et Nagasaki, les armes nucléaires occupent une place à part dans l’arsenal mondial. Si elles sont la quasi représentation du Mal absolu, de la destruction complète de pays, de continents voire de l’humanité entière, elles ne constituent pas des armes d’emploi. En effet, à partir de 1949, quand les Soviétiques ont à leur tour acquis l’arme atomique, cette dernière est devenue une arme dite de non-emploi, une arme politique, symbolique et stratégique. Une arme de dissuasion. Sa modernisation continue a pour fonction première d’augmenter son efficacité justement pour la rendre plus dissuasive, plus crédible face à un adversaire agressif. Elle est conçue pour ne pas être utilisée.

Le fondement de la dissuasion nucléaire est bien connu : un adversaire doté de l’arme nucléaire n’attaquera pas un pays nucléaire ou un pays sous protection nucléaire, car il aura la certitude d’être détruit en retour. Dit de manière plus cynique, l’attaque n’a aucun intérêt, car elle n’engendre aucun gain pour celui qui frappe en premier.

La « paix nucléaire », centrale au temps de la guerre froide, n’a jamais cessé d’être, mais devient un concept plus prégnant depuis l’invasion de l’Ukraine par la Russie. Si cette forme de paix armée a été efficace depuis 1949, elle constitue par construction un équilibre instable, fondé non pas sur l’amour de la paix mais sur la peur et le calcul. En Europe, continent où plusieurs puissances sont dotées (la Russie, la France, le Royaume-Uni et les armes américaines disposées dans plusieurs pays européens), cet équilibre est d’autant plus décisif.

L’Europe, un théâtre trop risqué pour un agresseur

Les caractéristiques de notre continent – sa densité, son urbanisation, ses pays membres stratégiquement et militairement connectés – sont telles qu’une attaque nucléaire de la Russie, même limitée, si tant est que ce mot ait un sens en matière nucléaire, entraînerait des conséquences incalculables au sens premier du terme en matière politique, humanitaire, économique et écologique.


À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs


Compte tenu de l’espace relativement restreint que constitue l’Europe, toute frappe sur le continent ne pourrait qu’être perçue comme menaçante de manière existentielle pour tous les autres pays. Une telle perspective est politiquement et stratégiquement insoutenable pour les pays européens.

Effet supposé d’un emploi de la Tsar-Bomba russe (57 mégatonnes) sur la région parisienne : le cercle rouge (rayon de 35 km) correspond à la zone de destruction complète. Nasa, CC BY-ND

Il est d’ailleurs remarquable de constater que les menaces plus ou moins explicites de Vladimir Poutine sur l’éventualité de l’usage nucléaire en réponse au soutien occidental de l’Ukraine sont restées lettre morte. Certes, l’Europe reste exposée aux surenchères stratégiques russes, mais la ligne rouge nucléaire n’a pas été franchie.

Le rôle dissuasif de l’Otan

Si l’arsenal français, strictement indépendant en termes d’emploi a joué un rôle dans ce constat, l’Organisation du traité de l’Atlantique Nord (Otan) joue un rôle décisif dans la décision du président russe de ne pas monter aux extrêmes. Si ce dernier a attaqué l’Ukraine dans le cadre de ce qui peut être appelé une « sanctuarisation agressive », il ne peut menacer un pays voisin membre de l’Otan, en vertu de l’article 5 de son traité qui stipule que toute attaque contre un pays membre constitue une attaque contre l’ensemble de l’Organisation.

Si l’article 5 n’engendre pas une réponse militaire automatique de la part de l’Otan, contrairement à ce qu’on peut entendre souvent, il est quasiment certain, et le plus important est que cela soit aussi quasiment certain dans l’esprit de la direction russe, qu’une attaque nucléaire entraînerait une riposte nucléaire. Nous sommes ici au cœur du phénomène dissuasif.

Néanmoins, le désengagement progressif des États-Unis sous l’administration Trump et ses déclarations anti-européennes voire anti-otaniennes affaiblissent par nature le caractère dissuasif de cette organisation, ce qui doit impérativement pousser les pays européens à renforcer leurs propres capacités de dissuasion, à la fois conventionnelles et nucléaires.

L’arme nucléaire tactique est en fait stratégique

Une éventualité parfois évoquée est que la Russie utilise des armes nucléaires dites « du champ de bataille », de faible puissance, calibrées pour détruire des concentrations de forces adverses, afin de pouvoir dégager un espace permettant de développer une offensive. Une telle utilisation « limitée » serait d’une nature telle qu’elle n’engendrerait pas une riposte des pays de l’Otan.

Nous ne croyons pas à un tel scénario. Même tactique, c’est-à-dire de faible puissance, une arme nucléaire provoque de tels effets de souffle, de chaleur, de radiation, d’impulsion électromagnétique, de panique sociale et d’insécurisation des pays voisins qu’une seule frappe de ce type ne pourrait pousser qu’à l’escalade dont le paroxysme serait une confrontation nucléaire.

Au demeurant, l’évocation répétée, et jamais suivie d’effets, par la direction russe d’un recours au nucléaire tactique est une démonstration claire du caractère escalatoire d’une arme nucléaire de faible puissance – même si la réticence de Moscou à employer de tels moyens peut aussi être partiellement attribuée au fait que les Chinois ont fait comprendre aux Russes qu’ils étaient absolument opposés à tout usage du nucléaire et au fait que l’administration Biden, il n’y a pas si longtemps, a clairement fait savoir au Kremlin qu’un tel développement entraînerait une riposte américaine massive sur les forces russes.

Le coût politique et diplomatique pour le pays agresseur

Indépendamment du champ militaire, l’usage par la Russie de l’arme nucléaire aurait un coût immense en matière politique et diplomatique.

Il est fort probable que compte tenu de l’énormité des conséquences d’une frappe nucléaire, un pays qui lancerait une telle initiative deviendrait indéfendable pour ses propres amis ou pour les pays neutres.

Un tel pays perdrait sa légitimité internationale. Il verrait fort probablement les sanctions économiques de toute part s’abattre sur son économie. Dans un monde où l’image et la réputation façonnent les alliances, aucun acteur réaliste ne prendrait le risque d’un tel isolement, a fortiori la Russie, à l’économie peu performante.

L’emploi de l’arme nucléaire ne dépend pas du seul Poutine

Malgré les menaces récurrentes de la direction russe, l’usage de son arsenal nucléaire, comme c’est d’ailleurs le cas de tous les pays dotés, à l’exception peut-être de la Corée du Nord, reste soumis à des procédures strictes. Le président, bien que central dans la chaîne de commandement, n’agit pas seul. Le contrôle des clés nucléaires implique plusieurs étapes.

Il n’est pas acquis que l’ensemble de la chaîne décisionnelle menant à une frappe nucléaire suive son président, a fortiori dans un système russe souvent décrit comme mafieux, où les hautes autorités ont, non seulement, à redouter les effets directs d’une escalade militaire, mais également les effets qu’aurait une escalade sur leurs biens, souvent colossaux.

Il n’est pas exclu également que certains membres de la chaîne décisionnelle puissent bloquer une décision de frappe pour des raisons politiques ou morales.

La question chinoise

Le déclenchement d’une escalade nucléaire par la Russie aurait des conséquences majeures sur la distribution du pouvoir sur la planète. Un conflit nucléaire en Europe pourrait être une opportunité majeure pour la Chine, même si son économie mondialisée en pâtirait. En effet, un effondrement de l’Europe couplé à un affaiblissement des États-Unis et de la Russie dans le pire des scénarios pourrait faire de la Chine la seule puissance intacte sans avoir eu à prendre part au conflit. Cette perspective, insoutenable pour les Européens, les Américains, mais également les Russes, est de nature à freiner toute tentation de dérapage nucléaire.

Nous venons de le constater, une guerre nucléaire en Europe demeure hautement improbable. Il ne s’agit pas ici de morale, bien qu’il ne soit pas illégitime de penser que les dirigeants mondiaux en possèdent une, mais plutôt de lucidité. La terreur mutuelle, le jeu des alliances, les conséquences de différentes natures, les risques d’escalades incontrôlées et la position d’attente de la Chine rendent l’usage de l’arme nucléaire peu opérant.

La capacité destructrice de l’arme, son caractère de menace existentielle pour un continent voire pour toute l’humanité ne peuvent servir des intérêts rationnels, ne peut valider des calculs avantageux pour l’une des parties.

Peut-on en conclure qu’une guerre nucléaire en Europe est absolument impossible ?

L’humain est un être à la fois rationnel et émotionnel. Certains scénarios d’usage de l’arme, certes improbables, peuvent être explorés. Ces scénarios constitueraient alors des situations de rupture radicale où le rationnel serait supplanté par l’émotionnel sous la forme de la panique, du désespoir, de la perte de contrôle.

Il est possible d’imaginer un effondrement du régime autoritaire du président Poutine, provoquant l’indépendance de régions non russes dotées nucléairement et qui pourraient faire usage de l’arme. Un tel effondrement de la technostructure russe pourrait engendrer une rupture de la chaîne décisionnelle, amenant un acteur secondaire ou un chef militaire isolé à envisager une frappe, par calcul voire par folie.

Un autre scénario serait celui engageant le désespoir : face à un prochain effondrement économique l’empêchant de financer son économie de guerre, face à une éventuelle défaite militaire russe en Ukraine pour des raisons que nous ne voyons pas encore, la Russie pourrait envisager la menace comme existentielle, ce qui la pousserait à tenter le tout pour le tout, malgré la perspective d’une riposte dévastatrice.

Autre scénario, et l’histoire de la guerre froide nous le prouve, une guerre nucléaire pourrait être la résultante d’un malentendu technique ou d’un accident (lancement d’un missile par erreur, mauvaise interprétation de données radar, dysfonctionnement des systèmes d’alerte précoces entraînant une riposte automatique). Les grandes puissances ont bien entendu multiplié les systèmes de sécurité, mais une telle hypothèse a une probabilité non nulle.

Enfin, un retrait complet des garanties de sécurité ou un retrait américain de l’Europe, bien qu’improbable, pourrait conduire la direction russe à penser qu’une attaque nucléaire puisse être possible, négligeant de fait les arsenaux français et britannique.

Ces scénarios sont très peu probables. Alors oui, une guerre nucléaire est impossible en Europe… presque impossible. Ce « presque » nous entraîne néanmoins, Français et Européens, à cultiver notre vigilance stratégique, à user d’une diplomatie incessante et à se préparer à l’impensable même si le pire est hautement improbable.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.04.2025 à 17:25

Un incident hospitalier sur dix serait dû à un problème de communication, selon une nouvelle étude

Jeremy Howick, Professor and Director of the Stoneygate Centre for Excellence in Empathic Healthcare, University of Leicester

Selon une nouvelle étude analysant des résultats provenant d’hôpitaux du monde entier, les problèmes de communication entre soignants mettraient chaque année en danger la vie d’un grand nombre de patients.
Texte intégral (1166 mots)

Selon une nouvelle étude analysant des résultats provenant d’hôpitaux du monde entier, les problèmes de communication entre professionnels de santé mettraient chaque année en danger la vie d’un grand nombre de patients.


Afin de déterminer les causes de survenue d’incidents qui mettent en jeu la sécurité des patients, mes collègues et moi-même avons analysé 46 études publiées entre 2013 et 2024 et portant sur plus de 67 000 patients non seulement en Europe, mais aussi en Amérique du Nord et du Sud, en Asie et en Australie. Nos résultats, alarmants, indiquent que dans 1 cas sur 10, l’incident est uniquement survenu en raison d’un problème de communication entre soignants. Par ailleurs, ce type de problème contribue – à côté d’autres facteurs – à la survenue d’un incident de sécurité sur quatre.

Il ne faut pas oublier que derrière ces statistiques désincarnées se trouvent des personnes réelles, qui ont été meurtries en raison d’erreurs qui auraient pu être évitées. Ainsi, dans l’un des cas documentés, un médecin qui tentait de réduire au silence une pompe qui bipait a accidentellement arrêté la perfusion d’Amiodarone – un médicament utilisé en cas d’arythmie cardiaque – d’un patient. Il a omis d’informer l’infirmière de sa manipulation. Résultat : le rythme cardiaque du patient a dangereusement augmenté.

Dans un autre cas, un patient est mort car une infirmière n’a pas informé le chirurgien que son patient souffrait de douleurs abdominales postopératoires et avait un taux de globules rouges faible – autant de signes d’une possible hémorragie interne. Une meilleure communication aurait permis d’éviter ce décès.

Ces résultats confirment ce que de nombreux professionnels de santé soupçonnaient depuis longtemps : les défaillances de communication constituent une menace directe pour la sécurité des patients. Il est particulièrement inquiétant de constater que ces incidents se produisent dans de nombreux systèmes de santé à travers le monde.

Un problème d’ampleur

Rien qu’au Royaume-Uni, plus de 1 700 vies sont perdues chaque année en raison d’erreurs médicamenteuses. Dans le monde, 3 millions de décès surviennent annuellement pour la même raison. Au moins la moitié de ces cas, qui sont souvent dus à une mauvaise communication, pourraient être évités.

Aux États-Unis, les défaillances de communication contribuent à plus de 60 % de tous les événements indésirables graves associés aux soins hospitaliers. Selon les experts, ces chiffres sont probablement sous-évalués, car les incidents impliquant la sécurité des patients sont souvent sous-déclarés.

Notre recherche comble une lacune importante dans la compréhension du phénomène. Si des études antérieures avaient déjà établi que la communication pouvait s’avérer problématique dans les environnements de soins, notre analyse est la première à quantifier précisément l’impact de ce type de lacunes sur la sécurité des patients.

Une analyse statistique distincte, portant uniquement sur une sélection d’études considérées comme « de haute qualité » a donné des résultats similaires, ce qui renforce la validité de nos conclusions.

L’importance cruciale que revêt la mise en place d’une communication efficace entre soignants a notamment été soulignée dans plusieurs grandes enquêtes visant à évaluer l’origine des défaillances des systèmes de santé. Au Royaume-Uni, les rapports Francis et Ockenden ont tous deux déterminé que l’inefficacité de la communication entre soignants était à l’origine de la survenue de décès évitables au sein des établissements Mid-Staffordshire NHS Foundation Trust et du Shrewsbury and Telford Hospital NHS Trust, respectivement. Selon le médiateur britannique de la santé, la mauvaise communication contribuerait à environ 48 000 décès dus à la septicémie chaque année.

Les insuffisances de communication causent donc un véritable préjudice. Les malentendus qui en résultent sont à l’origine de graves erreurs médicales, avec pour conséquence la formulation de diagnostics erronés, la mise en place de traitements sous-optimaux, ou la sous-estimation de complications potentiellement mortelles.

L’espoir d’une amélioration

Malgré cet alarmant constat, il faut souligner que des interventions ciblées peuvent améliorer la communication. Certains de nos travaux ont ainsi montré que des praticiens sensibilisés et formés pour adopter une communication plus empathique envers les patients changent leurs comportements, ce qui se traduit par une prise en charge aboutissant à de meilleurs résultats.

De même, lorsque les professionnels de santé apprennent à mieux communiquer entre collègues, des améliorations mesurables s’ensuivent. Une étude publiée dans le prestigieux New England Journal of Medicine a révélé que la mise en place d’un protocole de communication structuré au sein d’équipes de chirurgie pouvait réduire la survenue d’événements indésirables de 23 % en un an. D’autres travaux ont révélé que l’utilisation de procédures normalisées de transmission entre les équipes réduisait les erreurs médicales de près de 30 %.

Ces interventions ne requièrent qu’un investissement limité en regard des gains apportés : une demi-journée de mise en œuvre peut suffire. Les systèmes de santé ont donc à leur disposition un levier particulièrement intéressant pour diminuer significativement la survenue d’événements préjudiciables.

Les preuves sont là. Reste maintenant aux dirigeants d’établissement, aux enseignants et aux décideurs à agir. Pour mieux protéger la vie des patients, la formation des soignants à la communication doit devenir une norme universelle – et non demeurer un supplément optionnel.

The Conversation

Jeremy Howick est financé par le Stoneygate Trust et reçoit occasionnellement des honoraires pour ses conférences.

50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   Fiabilité faible
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓