15.04.2026 à 16:58
Magalie Sabot, Psychocriminologue à l'Office central pour la répression des violences aux personnes, Université Paris Cité
Les enquêtes sur les cold cases, ces meurtres non résolus depuis des décennies, reposent sur des méthodes souvent méconnues. L’analyse victimologique et la connaissance du cercle proche des victimes permettent de faire émerger de nouveaux indices. Récit d’une enquête portant sur le meurtre d’une adolescente, survenu il y a quarante ans.
Lorsque les policiers arrivent sur son lieu de travail, Anne ne peut imaginer que c’est pour elle qu’ils font le déplacement. De l’annonce, elle ne retient que quelques mots, secs et hachurés : sa fille unique de 16 ans a été tuée de plusieurs coups de couteau au sein du domicile familial. Malgré le choc, les proches sont rapidement entendus : la famille, puis les amis, les camarades et les voisins.
Nous sommes dans les années 1980, l’enquête sur le meurtre de Sophie ne fait que débuter (le prénom de la victime et certains éléments ont volontairement été modifiés).
À l’époque, l’ADN n’est pas encore au cœur des investigations criminelles et aucune trace génétique ne sera collectée. Alors, quand l’Office central pour la répression des violences aux personnes (OCRVP) reprend l’affaire quarante ans plus tard, il faut mobiliser d’autres leviers pour retrouver le meurtrier.
L’unité d’analyse comportementale (UACP), formée de trois psychocriminologues, constitue l’un des outils mis à la disposition des enquêteurs pour reprendre ces affaires complexes restées irrésolues.
L’annonce d’un décès dans des circonstances criminelles constitue, pour les proches, une épreuve émotionnelle. Elle les confronte à une réalité brutale susceptible d’altérer temporairement leurs capacités de compréhension, de réaction et d’expression. Si certaines manifestations sont attendues (pleurs, cris, colère), d’autres réponses, telles que la sidération, la distanciation ou une apparente froideur, peuvent également survenir. Ces réactions ne sauraient être interprétées comme une absence d’affect : elles relèvent fréquemment d’un état de choc. Il importe, dès lors, de ne pas assimiler ces mécanismes défensifs à des indices de dissimulation.
Cependant, cette lecture clinique ne peut occulter les réalités de l’enquête criminelle qui conduit souvent à orienter les investigations vers l’entourage de la victime. Les statistiques criminologiques montrent en effet que, dans de nombreux homicides, l’auteur appartient au cercle familial ou relationnel.
D’après les données du ministère de l’intérieur, en 2023, sur les 996 personnes décédées à la suite d’un homicide en France, environ une sur quatre l’a été dans un cadre familial. Et lorsque l’on considère spécifiquement les victimes féminines, plus d’une sur deux a été tuée dans un contexte intrafamilial.
À l’échelle internationale, les recherches criminologiques menées à partir d’homicides résolus montrent que les meurtres commis par des auteurs totalement inconnus de leurs victimes restent rares. Ils représentent en moyenne entre 9 % et 20 % des cas, selon les pays et les périodes étudiées. Une recherche menée en 2021 en Algérie confirme encore ces résultats : dans plus de 80 % des homicides étudiés, un lien de connaissance existe entre la victime et son meurtrier (dans 21 % des cas il s’agit d’un membre de la famille, dans 12 % d’une relation intime, dans 28 % d’un voisin, dans 14 % d’un ami, dans 6 % d’une relation professionnelle).
S’agissant du meurtre de Sophie, un facteur de vulnérabilité spécifique doit aussi être intégré à l’analyse : l’adolescence. Des travaux menés en 2024 en Italie indiquent que, entre 13 et 18 ans, les jeunes femmes sont tuées par un partenaire intime dans neuf cas sur dix (62 % par le partenaire actuel, 26 % par un ancien partenaire).
Lorsque l’auteur est identifié, le profil correspond à celui d’un jeune homme légèrement plus âgé que la victime (environ + 3,9 ans). Dans plus de la moitié des situations, le passage à l’acte s’inscrit dans un contexte de rupture ou de conflit amoureux.
Au vu de ces éléments, les enquêteurs procèdent dès que possible à l’audition de l’entourage de la victime, afin de mieux cerner quelles étaient ses préoccupations, ses dynamiques relationnelles et ses histoires adolescentes. Si l’on en croit ces données chiffrées, le criminel serait juste là, caché dans son cercle de connaissance.
Les parents endeuillés sont-ils vraiment des témoins fiables ? Tandis que l’enquête vise à objectiver le profil d’une victime, les parents évoquent avant tout leur enfant, investi d’une forte charge affective. Cette proximité favorise l’émergence de biais cognitifs lors des déclarations initiales : idéalisation post-mortem, minimisation des conflits, biais de loyauté familiale ainsi que des mécanismes défensifs liés à la honte ou à la culpabilité. En relisant les premières auditions, cela transparaît souvent dans certaines formules récurrentes des proches, telles que « Elle n’aurait jamais fréquenté de mauvaises personnes », « Elle était appréciée de tous » ou encore « J’aurais dû être au domicile ce jour-là ».
S’y ajoutent des phénomènes de contamination intertémoins, les échanges intrafamiliaux contribuant à l’élaboration d’un récit homogénéisé. Il en résulte fréquemment la construction d’un portrait lissé : famille sans difficulté, adolescente sans problème, dans lequel certains aspects de la vie intime restent dans l’ombre.
À lire aussi : Trois mythes sur les biais cognitifs, ces raccourcis mentaux qui peuvent nous induire en erreur
Afin de limiter les effets des biais cognitifs dans la conduite des enquêtes, les services de police recourent à des grilles structurées d’exploration victimologique. Ces outils méthodologiques visent à examiner de manière systématique l’ensemble des dimensions de la vie de la victime : sphère affective et sexuelle, relations sociales et professionnelles, vulnérabilités, habitudes de vie ainsi que d’éventuels changements récents de comportement.
La structuration des informations recueillies permet ensuite une mise en perspective comparative des données, faisant apparaître les convergences, les divergences, les zones d’ombre ou encore les éléments susceptibles d’avoir été tus. Dans le cadre de la réouverture d’un dossier ancien, ces portraits victimologiques constituent un appui essentiel aux nouvelles auditions : ils orientent les investigations vers les éléments demeurés lacunaires, insuffisamment explorés ou précédemment passés sous silence, et favorisent ainsi une reprise d’enquête plus exhaustive et méthodologiquement sécurisée.
À lire aussi : « Cold case » : Comment élucider un crime effacé par le temps ?
Dans l’affaire criminelle du meurtre de Sophie, l’analyse conduite au sein de l’OCRVP a mis en évidence une période de remaniement identitaire marquée, où la contestation des normes parentales et les conduites transgressives s’inscrivaient dans un processus adolescent classique.
Les auditions des amies se révèlent, à cet égard, particulièrement fécondes. Elles font émerger des éléments souvent ignorés du cercle familial : des expériences affectives et sexuelles, l’usage de cannabis et d’alcool en soirée et, un projet de fugue pour rejoindre celui qu’elle pensait être son grand amour.
Toutefois, l’examen psychocriminologique suggère également l’existence d’un décalage possible entre les récits livrés au groupe de pairs et la réalité des conduites de Sophie : certaines expériences semblent avoir été enjolivées pour se donner une image plus téméraire, plus audacieuse. Dès lors, l’enjeu analytique ne réside pas seulement dans l’accumulation d’informations factuelles, mais aussi dans l’appréhension des écarts entre les différentes représentations sociales de la victime afin de cerner, au plus près, la dynamique identitaire à l’œuvre.
L’analyse victimologique, dans le cadre de l’enquête criminelle, est l’étude de la victime permettant de déduire les circonstances de sa sélection par l’auteur et la dynamique du crime. À l’OCRVP, cette analyse est réalisée par les psychologues de l’Unité d’analyse comportementale psychocriminologique.
Cependant, cette discipline a longtemps occupé une place secondaire au profit du profilage criminel, focalisé quasi exclusivement sur le criminel recherché. Le profilage s’est, en effet, historiquement construit à partir de l’analyse des traces comportementales laissées sur la scène de crime (mode opératoire, signature, mise en scène), à partir desquelles les enquêteurs tentaient d’inférer les caractéristiques du suspect.
Pourtant, les travaux de criminologues spécialisés dans l’analyse comportementale, comme Wayne Petherick ou Brent Turvey, soulignent le rôle central de la connaissance de la victime dans la compréhension du processus criminel. C’est en croisant l’analyse victimologique et le profilage criminel du suspect que l’on peut éclairer trois aspects essentiels de l’enquête : le contexte du crime, les liens éventuels entre auteur et victime, et les pistes d’investigation à privilégier.
Le lieu dans lequel se trouvait la victime, sa vulnérabilité et sa capacité à se défendre donnent des indices sur la façon dont le meurtrier a agi. Celui-ci choisit souvent sa victime en fonction de ce qu’elle lui permet de réaliser : satisfaire des fantasmes, répondre à ses pulsions ou simplement profiter d’une opportunité donnée. L’analyse victimologique, articulée aux éléments objectivés sur la scène de crime, permet ainsi d’inférer le mode d’approche, le mode d’attaque, les risques assumés et, dans une certaine mesure, le mobile.
L’analyse victimologique du meurtre de Sophie éclaire plusieurs traits du comportement de l’auteur. L’adolescente n’ouvrait pas la porte aux inconnus, suggérant une approche par ruse mobilisant certaines compétences sociales. Le crime survient alors qu’elle est seule à son domicile, dans le cadre d’une activité routinière, laissant penser à un repérage préalable et à une capacité d’anticipation.
Son caractère « calme », sa petite corpulence et ses faibles capacités de résistance physique indiquent de la part de l’agresseur une violence disproportionnée et une perte de contrôle émotionnel, suggérant un auteur colérique et impulsif. L’autopsie révèle également que Sophie n’a pas été violée, ce qui nous oriente vers un mobile non sexuel. Enfin, le corps n’a pas été déplacé et la scène n’a fait l’objet d’aucune mise en scène, ce qui laisse penser à un départ précipité.
La reprise du dossier par les enquêteurs de l’OCRVP ouvrira la voie à l’exploration de nouvelles hypothèses, notamment par la réaudition des témoins de l’époque. Leur mémoire sera-t-elle altérée par les années ? Ou le temps deviendra-t-il un allié ?
Certains dossiers traités au sein de l’OCRVP enseignent que les années passées peuvent transformer les dynamiques psychologiques et relationnelles des témoins. L’éloignement émotionnel, la maturation individuelle ou la reconfiguration des liens interpersonnels sont susceptibles de lever d’anciennes inhibitions et de délier certains secrets.
Ces remaniements psychiques favorisent parfois l’émergence d’éléments demeurés tus au moment des faits : un terrain d’analyse privilégié pour les psychocriminologues.
Créé en 2023, le Centre de recherche de la police nationale pilote la recherche appliquée au sein de la police nationale. Il coordonne l’activité des opérateurs scientifiques pour développer des connaissances, des outils et des méthodes au service de l’action opérationnelle et stratégique.
Magalie Sabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.04.2026 à 16:57
Frédérique Sandretto, Chargée d'enseignement en civilisation américaine, Université Côte d’Azur
L’ultimatum lancé par Donald Trump à l’Iran, suivi d’un recul rapide, a donné lieu à de multiples moqueries. En effet, ce n’est pas la première fois, loin de là, que le président des États-Unis émet des menaces avant de se rétracter au dernier moment. Cette pratique peut relever d’un calcul de négociation fondé sur l’intimidation, mais elle peut aussi être lue comme le signe d’une incohérence devenue consubstantielle au trumpisme. À terme, la répétition de tels épisodes fragilise la crédibilité politique en affaiblissant la portée des déclarations présidentielles.
Mardi 7 avril 2026, le monde entier avait les yeux rivés sur Donald Trump. Dans une séquence de tension maximale, le président des États-Unis avait lancé un ultimatum au gouvernement iranien, affirmant être prêt à « détruire une civilisation entière » si ses exigences n’étaient pas satisfaites. Cette déclaration, d’une violence extrême, s’inscrivait dans une logique d’escalade verbale caractéristique de ses prises de parole en contexte de crise. Pourtant, une heure avant la fin de son ultimatum, il annonçait qu’il allait examiner les dix conditions posées par l’Iran et entérinait un cessez-le-feu de quinze jours.
Si cette désescalade ne peut qu’être saluée au regard des risques encourus, elle a immédiatement suscité une lecture critique désormais synthétisée par un acronyme, TACO, pour « Trump Always Chickens Out », que l’on peut traduire en français par « Trump se dégonfle toujours ».
Ce concept de « TACO » ne relève pas seulement de la formule médiatique. Il tend à conceptualiser une dynamique récurrente dans la pratique politique de Donald Trump : une initiale montée aux extrêmes, suivie d’un recul stratégique.
L’expression « se dégonfler » renvoie ici à l’idée d’un abandon de la menace initiale, non pas nécessairement par faiblesse, mais dans le cadre d’une séquence de négociation où l’excès verbal constitue un levier. Cette logique s’apparente à une stratégie de maximalisation rhétorique : poser des exigences intenables ou proférer des menaces disproportionnées afin de créer un rapport de force, puis accepter un compromis qui apparaît, par contraste, comme une concession mesurée.
Toutefois, réduire cette pratique à une simple tactique de négociation serait insuffisant. La répétition de ce schéma dans le temps suggère qu’il s’agit d’un habitus politique, au sens d’une disposition durable à agir et à parler selon des modalités constantes. Depuis ses premières campagnes jusqu’à ses prises de position les plus récentes, Trump a systématiquement privilégié une rhétorique de l’excès : insultes, menaces, annonces spectaculaires. Mais cette radicalité discursive ne se traduit pas toujours en actes. Donald Trump a récemment réactivé l’idée d’un contrôle stratégique du Groenland, en insistant sur son importance militaire et énergétique face à la Russie et à la Chine. Il a durci le ton en évoquant la nécessité pour les États-Unis de sécuriser l’île, laissant planer une logique de contrainte plutôt que de simple négociation. Toutefois, aucune initiative diplomatique ou militaire concrète n’a été engagée après ces déclarations.
Le non-passage à l’acte devient, dès lors, un élément structurant de son mode de gouvernement.
Ce décalage entre parole et action appelle plusieurs interprétations. Il peut d’abord être compris comme une rationalité stratégique fondée sur une logique d’intimidation maximale. En énonçant des menaces extrêmes, Trump cherche à remodeler les anticipations de son adversaire en l’obligeant à intégrer un scénario de destruction totale. Cette projection du pire agit comme un levier psychologique puissant. Elle modifie le cadre de la négociation en rendant toute concession ultérieure acceptable, voire rationnelle, du point de vue de l’adversaire. Dans cette optique, la menace n’est pas destinée à être exécutée, mais à produire un effet en amont de l’action. Le recul final ne constitue donc pas un renoncement, mais l’aboutissement d’un processus où la parole remplace l’acte.
Cependant, une telle lecture, que l’on qualifiera de stratégique, se heurte à une seconde interprétation, plus critique, qui met en évidence les limites structurelles de cette pratique. Le décalage répété entre parole et action peut révéler une incapacité à assumer les conséquences concrètes des déclarations initiales. La radicalité du discours engage le président dans une logique dont il ne maîtrise pas nécessairement les implications, notamment face aux contraintes militaires, diplomatiques et institutionnelles. Le passage de la posture à la décision constitue alors un moment de tension, où les coûts potentiels de l’action apparaissent de manière plus tangible. Ce moment produit un réajustement, perçu extérieurement comme un recul, mais qui traduit en réalité une difficulté à transformer la parole en action.
Ce phénomène met également en lumière une dissociation croissante entre communication et décision. La parole présidentielle tend à fonctionner de manière autonome, comme un instrument de mise en scène du pouvoir, indépendamment de sa traduction opérationnelle. Cette autonomie produit une inflation verbale caractérisée par la répétition de menaces extrêmes, sans articulation systématique avec une stratégie d’action cohérente. L’espace public se trouve ainsi saturé par des annonces spectaculaires qui ne débouchent pas sur les mesures correspondantes.
Dans les deux cas, qu’il s’agisse d’une stratégie maîtrisée ou d’une contrainte subie, le résultat observable demeure identique. La parole politique perd progressivement sa capacité à produire des effets. À force de ne pas être suivie d’actes, elle s’expose à un phénomène d’usure qui affaiblit sa crédibilité. Les adversaires peuvent intégrer ce décalage dans leurs anticipations et ajuster leur comportement en conséquence, réduisant l’efficacité même de la menace. Le discours, initialement conçu comme un instrument de puissance, tend alors à se retourner contre son émetteur en contribuant à fragiliser sa position dans le jeu stratégique international.
Cette dynamique pose inévitablement la question de la crédibilité du discours politique. Qui peut encore croire à des annonces systématiquement démenties par les faits ? La crédibilité, en politique internationale comme en politique intérieure, repose en grande partie sur la prévisibilité et la cohérence entre parole et action. Or, la répétition du schéma « menace puis retrait » affaiblit la portée des déclarations présidentielles. À force d’annoncer des ruptures majeures sans les concrétiser, le discours perd sa capacité à produire des effets.
Cette problématique peut être éclairée par la notion de performativité. Un discours performatif est un énoncé qui produit l’action qu’il énonce : dire, c’est faire. Dans le cas de Trump, le discours se veut explicitement performatif : annoncer une sanction, une attaque ou une rupture doit en principe suffire à modifier le comportement de l’adversaire. Cependant, en l’absence de mise en œuvre effective, ce discours devient paradoxalement anti-performatif. L’écart entre l’énoncé et l’action annule l’effet attendu et peut même produire l’effet inverse : décrédibiliser la parole présidentielle.
Enfin, il convient de s’interroger sur la nature de cette stratégie de communication. Est-elle pleinement intentionnelle ou résulte-t-elle des contradictions internes du président américain ? D’un côté, on peut y voir une méthode maîtrisée, fondée sur la théâtralisation du conflit et la recherche d’un avantage maximal dans la négociation. De l’autre, cette oscillation permanente entre radicalité et retrait peut traduire une difficulté à stabiliser une ligne politique cohérente, notamment sous la pression des contraintes institutionnelles, diplomatiques et militaires.
À l’approche des élections de mi-mandat de novembre 2026, la question de la stratégie TACO se pose avec acuité. Faut-il y voir une méthode délibérée ou le symptôme de contradictions internes ? D’un côté, cette stratégie peut être interprétée comme un outil de gestion de crise fondé sur une montée aux extrêmes, destinée à maximiser les concessions adverses avant un compromis. Elle permettrait d’éviter une escalade militaire tout en donnant l’image d’une fermeté initiale. De l’autre, elle peut traduire une difficulté à maintenir une ligne politique cohérente sous l’effet de contraintes institutionnelles et diplomatiques. Ces deux dimensions contribuent à produire une dynamique instable. À court terme, cette approche peut apparaître efficace en évitant des conflits ouverts. À moyen terme, elle risque d’affaiblir la crédibilité des États-Unis sur la scène internationale.
Dans ce contexte, la séquence iranienne d’avril 2026 pourrait constituer un test politique majeur, révélant si cette stratégie renforce ou fragilise durablement le leadership présidentiel.
Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.04.2026 à 16:57
Julien Pomarède, Associate professor in International Politics, Promoter of the WEAPONS Project (FNRS - 2025-2028) (Université de Liège) - Research Fellow REPI ULB. Promoter « WEAPONS » Research Project (FNRS - 2025-2028), Université de Liège
La guerre moderne est marquée par une dérive où la violence est avant tout un fait procédural et auto-suffisant, détaché de ses finalités politiques ou de fondements éthiques. Depuis la Première Guerre mondiale jusqu’aux conflits actuels, cette logique se traduit par un fétichisme technologique de la destruction, où l’efficacité militaire est mesurée par l’intensité des frappes. Aujourd’hui, malgré des technologies plus « précises », cette dynamique persiste et s’accompagne d’un affaiblissement des normes morales et juridiques, produisant des guerres longues, dévastatrices et souvent stratégiquement inefficaces.
Chacun à sa manière, Hannah Arendt (1906-1975), Günther Anders (1902-1992) et Zygmunt Bauman (1925-2017) ont identifié un danger essentiel propre à la modernité : l’aliénation de la raison humaine par la raison technique. De l’Holocauste aux armes nucléaires, ils ont pointé du doigt ce même danger dans le domaine de la violence organisée : une mise en technique de la violence telle que son exécution ne suivrait plus que le culte de sa propre procéduralité, aux dépens du jugement humain et éthique.
Ce regard permet de cerner une pathologie qui structure et rend possible la conduite dite « stratégique » des guerres actuelles et modernes.
La guerre menée contre l’Iran suscite une critique récurrente : l’incapacité de l’administration Trump comme du gouvernement Nétanyahou à définir un objectif politique au-delà de la démonstration de force.
Des objectifs sont publiquement articulés, certes : en bref, il s’agit d’empêcher l’Iran d’acquérir des capacités nucléaires. Mais, d’une part, ils sont vagues et fort incertains. Plus fondamentalement, l’horizon de la guerre semble ne pas sortir d’une accumulation de destructions massives, illustrée par le discours militariste du secrétaire à la guerre, Pete Hegseth, qui érige la puissance de feu en vertu quasi sacrée, et, en dépit de la fragile trêve actuelle, par la menace du président de renvoyer l’Iran à « l’âge de pierre », l’extension des cibles vers les infrastructures civiles ayant d’ailleurs déjà débuté.
Toutefois, limiter cette dérive à quelques dirigeants serait une erreur. Les administrations Trump et Nétanyahou ont certes poussé cette exaltation de la force particulièrement loin, mais elle s’inscrit dans une histoire plus profonde : celle d’un fétichisme technique et pathologique de la violence qui structure la pensée stratégique moderne, cette manière instrumentale-rationnelle par laquelle les États conçoivent l’usage organisé de la force pour le transformer en résultats politiques. Car, même si ces présentes guerres et leurs motivations peuvent paraître dépourvues de logique sensée, elles n’auraient pas été rendues possibles sans l’existence d’une raison stratégique d’arrière-fond qui rationalise cette violence, en lui donnant sens et légitimité. Sans quoi, par exemple, les militaires ne seraient pas invités à donner des conférences de presse pour commenter les opérations aux côtés des responsables politiques.
À gros traits, ce fétichisme technique se manifeste à travers deux aspects.
D’une part, l’usage des armes répond moins à des stratégies cohérentes d’articulation des moyens et des fins de la guerre qu’à une logique d’optimisation technique ou d’empilement des destructions. Les élites politico-militaires donnent, certes, des objectifs à la guerre — heureusement, dirait-on. Mais ces buts sont largement soumis à une violence qui a pour logique sa propre exécution procédurale et où les succès se résument, par conséquent, à comptabiliser le nombre d’ennemis tués et d’infrastructures détruites. Le niveau de destruction, et de respect du droit international humanitaire, varie, de même que les décisions politiques et militaires peuvent être plus ou moins (dé)mesurées dans ce qu’elles cherchent à détruire ; mais la trame technocentrée demeure.
D’autre part, cette croyance attribue aux armes une capacité quasi magique à résoudre les conflits, ou du moins à en assurer une sortie, produisant un obsurantisme technique de la guerre. Ce phénomène nourrit des guerres prolongées où la vision et l’escalade de violence supplantent la perspective politique et stratégique.
Ce culte technocentré, c’est donc fondamentalement un culte de la férocité qui, sous des airs froids, rationnels et sophistiqués, érige la capacité et le volume de destruction en valeur intrinsèque. En bref, taper plus fort et plus vite que celui d’en face. Et cette férocité technocentrée produit des résultats souvent limités ou des échecs, à des coûts humains et matériels variables mais souvent considérables, et dont les conséquences peuvent s’étaler des années après le conflit.
Ce que l’on voit en Iran, en Ukraine ou à Gaza est la continuité d’une pathologie de la pensée stratégique qui s’avère donc moins stratégique que technocratique dans sa manière d’envisager la guerre. Il convient de penser ce phénomène sur le temps long, dans un moment où les digues éthiques et morales d’encadrement de cette férocité cèdent à grande vitesse.
La Première Guerre mondiale constitue une sorte de moment charnière où le gigantisme de la destruction devient une fin en soi. Deux conditions rendent possible cette évolution. D’un côté, l’industrialisation accélérée de la production d’armements depuis la fin du XIXe siècle ; de l’autre, la guerre de positions, qui encourage une escalade technologique destinée à débloquer le front, tout en renforçant paradoxalement son immobilisation.
Ainsi, les tranchées se transforment en laboratoire d’innovations dont l’objectif premier est de tuer, mutiler ou asphyxier les corps à des échelles encore jamais vécues. L’artillerie se diversifie : nouveaux calibres, nouvelles munitions, obus à fragmentation pensés pour maximiser les mutilations des corps, gaz destinés à brûler les chaires et étouffer les poumons. Et cette logique fut poussée loin. L’armée française procéda ainsi à des prélèvements de viscères de soldats intoxiqués pour mesurer les effets des agents chimiques et en optimiser la toxicité. À cette croissance technologique macabre s’ajoutent des débats minutieux sur les rendements létaux des tirs, les commandements militaires donnant instruction à leurs troupes de privilégier les zones de tir confinées pour améliorer l’absorption des gaz et accroître leur létalité.
À lire aussi : Guerres du XXᵉ siècle : une histoire de rupture entre l’humain et son environnement
On présente souvent la Seconde Guerre mondiale comme le retour de la mobilité et de la « vraie » stratégie, par contraste avec celle de 14-18. Mais la logique technocentrée reste intacte. L’ultima ratio de la guerre demeure la destruction de masse et son affinement technique, ce que Michael Sherry qualifia de « fanatisme technologique ». Les bombardements stratégiques, dont les recherches ont montré les résultats limités l’illustrent de manière éclatante. Les incendies de Hambourg (1943), Dresde (février 1945) et surtout Tokyo (1945) reposent sur une quête explicite d’annihilation par le feu.
À lire aussi : Une arme de destruction massive contre les civils : une histoire de la guerre aérienne
L’armée américaine va jusqu’à reconstruire sur son site de test dans le désert de l’Utah (Dugway) des îlots urbains japonais et allemands afin d’étudier l’adhérence du gel napalm (substance incendiaire) et la vitesse de propagation des flammes parmi ces différentes structures d’habitation, l’objectif étant de déterminer scientifiquement quels types de bombes seraient les plus efficaces pour incinérer les villes. Une des conclusions qui ressortit de ces tests est que les villes japonaises étaient plus facilement inflammables, le bois et le papier étant largement utilisés dans les habitations. L’apocalypse incendiaire de Tokyo en fut le résultat. Les bombardements atomiques des 6 et 9 août 1945 parachevèrent ce fanatisme technologique.
Les conflits de la guerre froide prolongent ce culte technocentré de la férocité. Dès 1950, la guerre de Corée ouvre la voie. Les États-Unis recourent à un bombardement incendiaire débridé pour contenir la poussée sino-coréenne, utilisant encore plus de napalm que contre le Japon durant la Seconde Guerre mondiale. Des villes nord-coréennes sont quasi entièrement rasées. Des officiers reconnaissent qu’il n’y avait même plus de cibles militairement valables bien avant la fin du conflit, tellement que les bombardements furent intenses, ce qui n’empêcha pas l’US Air Force de continuer à bombarder. Le récit documenté que fait Robert Neer de ces atrocités dans Napalm soulève le cœur. Et ce n’est même pas une victoire qui résulta de cet acharnement.
En Indochine, l’armée française s’appuie sur l’artillerie, le napalm (d’abord obtenu via un appui américain) et les bombardements pour compenser l’impasse face au Viet Minh. Dans l’artillerie, les rapports soulignent systématiquement que la référence reste « la brutalité » de la Grande Guerre. Villages, rizières, stocks de nourriture et bétail sont pilonnés, bombardés et incendiés, dans l’espoir illusoire que le surplus de destruction puisse compenser.
Après Diên Biên Phu, les États-Unis prennent le relais au Vietnam et poussent cette fuite en avant jusqu’à l’absurde, qui tourne là aussi au massacre de masse. Comme l’a minutieusement documenté Nick Turse, le Vietnam fut une litanie d’atrocités appuyée par une croyance inaltérable en la validité stratégique de déploiements de moyens de destruction à peine imaginables et leur analyse statistique.
Après la guerre froide, les armées occidentales entrent dans une ère de retenue plus grande dans l’usage de la force, avec un accent mis sur le respect du droit international humanitaire. Les conflits des années 1990-2000 ne présentent plus les traits des destructions massives du XXe siècle. Pour autant, le technocentrisme de la violence persiste, rhabillé par le langage de la précision et le développement de nouvelles technologies (guidage laser, bombes « intelligentes », algorithmisation du ciblage). Même si le niveau physique de dégâts est effectivement moindre, les résultats n’en seront pas meilleurs.
La « guerre contre la terreur » des années 2000-2010 en est l’illustration. En Afghanistan comme en Irak, l’impasse donne lieu à la même réponse : augmenter les moyens d’une guerre high tech. Entre 2009 et 2012, le « surge » en Afghanistan multiplie les opérations, le niveau de violence augmente, de même que les pertes civiles. Des épisodes particulièrement brutaux demeurent, comme des villages rasés à coups d’obus d’artillerie. Pourtant, l’équation politico-stratégique ne se modifie pas. Malgré les dépenses militaires très élevées, ces contre-insurrections débouchèrent sur des guerres civiles et constituèrent des échecs cuisants.
Le recours aux assassinats ciblés à l’échelle globale via les drones, censé réduire la guerre à une série d’opérations ponctuelles, produit une conflictualité à durée indéterminée. Comme s’attelle à le documenter le Cost of War Project, la « guerre contre la terreur » a eu des conséquences néfastes et très larges, allant des pertes humaines aux atteintes aux libertés individuelles, en passant par le déplacement des populations jusqu’à l’érosion du droit international (conception extensive de la légitime défense, tortures, détentions extra-judiciaires) qui s’accélère aujourd’hui.
En Libye, pour éviter de s’enliser comme en Irak ou en Afghanistan, l’Otan choisit en 2011 une campagne aérienne de quelques mois, légalement présentée comme limitée à la protection des civils réprimés par Kadhafi, conformément au mandat du Conseil de sécurité (résolution 1973). Officiellement, il ne s’agit pas d’une opération visant le changement de régime, même si, là aussi, la question se pose de l’outrepassement du mandat de l’ONU par l’Otan vers un changement de régime de facto. Cette stratégie de service minimum fut à nouveau louée sur la base d’un technocentrisme, celui de la supériorité de la guerre aérienne, les officiers de l’Otan défilant en conférence de presse pour dénombrer, images à l’appui, les dégâts causés par les bombardements aux capacités militaires du régime de Tripoli.
Cette approche interventionniste a minima produit pourtant les mêmes catastrophes que les bourbiers que l’on voulait éviter. En affaiblissant brutalement l’appareil d’État, l’intervention fit le lit de la guerre civile qui s’ensuivit et de la déstabilisation régionale qui s’étendit jusqu’au Sahel.
Ce culte technocentré irrigue les conflits actuels. La différence, et non des moindres, étant un affaissement généralisé du respect du droit international et le retour à une férocité qui, un temps contenue, au moins dans les armées de l’Otan, semble retrouver ses affres du XXe siècle. En Ukraine, les deux camps se sont enfoncés dans une guerre d’artillerie et de drones où la mesure du conflit se résume au nombre de missiles tirés, de soldats tués, de drones abattus et d’infrastructures détruites. Du côté russe, l’acharnement dans la férocité inclut le bombardement et le pilonnage des civils.
En réponse aux effroyables attaques du Hamas du 7 octobre 2023, l’extrême intensité des bombardements israéliens à Gaza et l’usage croissant de systèmes d’IA, qui déshumanise encore plus la violence en automatisant la sélection de cibles et en accélérant les frappes, montrent que l’optimisation technologique de la férocité prime sur toute considération humaine ou politique. La fin, c’est la désolation, l’anéantissement généralisé de la vie, aussi bien la destruction physique des populations palestiniennes que des conditions mêmes de la vie à Gaza.
Dans la guerre en Iran, la trajectoire de la violence reste encore à définir. Il faut voir où mènera la fragile trêve actuelle. Mais, au fond, la férocité compense l’impasse et l’absence de vision. L’extension progressive de l’éventail des cibles vers les infrastructures civiles, l’obsession des instances politico-militaires américaines à rendre compte des « progrès » de la guerre à travers le dénombrement quantitatif des destructions, la récente décision du blocus du détroit d’Ormuz, sont la continuité d’une dynamique où la force n’apparaît pas comme autre chose que comme une dynamique qui se nourrit de sa propre logique.
De la Grande Guerre à l’Iran, en passant par l’Ukraine et Gaza, le fétichisme technique de la violence charrie une conviction institutionnalisée selon laquelle l’acharnement dans la férocité, le fait de frapper plus fort, plus vite, et avec plus de moyens, peut finir par payer. Et ce culte persiste, malgré ses échecs répétés, comme si l’accumulation des désastres ne suffisait jamais à l’invalider. Tout cela sans même parler des conséquences environnementales catastrophiques de cet obscurantisme technique de la guerre, qu’il contribue par ailleurs à invisibiliser.
Ce constat invite à une révision en profondeur de cet obscurantisme technique à partir duquel la force militaire est pensée. Et il y a urgence, dans un monde qui se remilitarise, où la puissance militaire est célébrée comme garante de stabilité (y compris par les Européens) et où les barrières morales tombent à grande vitesse, laissant présager un avenir où la dévastation du vivant ne fera que s’étendre.
Julien Pomarède a reçu des financements de l'ULiiège et de la Fondation nationale pour la recherche scientifique (FNRS) (projet WEAPONS - 2025-2029).