08.10.2025 à 16:33
Nicolas Picard, Chercheur associé au centre d'histoire du XIXème siècle, Université Paris 1 Panthéon-Sorbonne
Robert Badinter entre au Panthéon ce 9 octobre. Il fut la grande figure du combat contre la peine de mort au moment de son abolition en 1981. À l’époque, 62 % des Français y étaient pourtant favorables. Quel rôle l’opinion publique a-t-elle joué dans les débats relatifs à la peine capitale au cours du XXe siècle ? Quels ont été les déterminants – notamment médiatiques – de son évolution en faveur ou contre l’abolition ?
Ce jeudi 9 octobre, Robert Badinter entre au Panthéon, en hommage à son rôle dans l’abolition de la peine de mort, et, en juin 2026, Paris accueillera le 9e Congrès mondial contre la peine de mort. Cette abolition est inscrite dans la Constitution depuis 2007, après un vote quasi unanime des parlementaires (828 pour, 26 contre). Tout concourt à en faire aujourd’hui l’une des « valeurs de la République » les plus consensuelles, enseignée dans les manuels scolaires et défendue par la diplomatie française. L’abolition n’apparaît guère menacée, y compris à l’extrême droite : les partis politiques ne font plus figurer le rétablissement de la peine capitale dans leur programme, malgré les déclarations de certaines personnalités.
Pourtant, la peine de mort a suscité des débats particulièrement vifs dans notre pays. Indépendamment des arguments philosophiques et scientifiques sur sa légitimité et sur son efficacité dissuasive, ses partisans ont longtemps pu s’appuyer sur le « sentiment public » de la population, auquel la répression pénale devait nécessairement s’accorder. Les opposants ont, à l’inverse, souligné à quel point ce sentiment était versatile, superficiel, et difficilement évaluable. La question de l’adhésion populaire à la peine capitale s’est ainsi reconfigurée à plusieurs reprises au cours du siècle dernier.
L’idée qu’une écrasante majorité de citoyens serait en faveur de la peine de mort est largement répandue au début du XXe siècle, ce qui pourtant n’allait pas de soi au XIXe. Victor Hugo, lors de son discours à l’Assemblée nationale en 1848, affirme que, lors de la révolution de février, « le peuple […] voulut brûler l’échafaud » et regrette que l’on n’ait pas été « à la hauteur de son grand cœur ».
En 1871, la guillotine est d’ailleurs effectivement incendiée par un groupe de gardes nationaux pendant la Commune. Ce sont des partis progressistes, se présentant comme des défenseurs des intérêts populaires, qui poussent le thème de l’abolition dans leurs programmes, des socialistes aux radicaux. Ces derniers mettent l’abolition à l’ordre du jour parlementaire en 1906. Le président Fallières commence alors à gracier systématiquement les condamnés à mort en attendant l’examen du projet.
L’échec des [abolitionnistes] en 1908, témoigne d’un revirement spectaculaire, dans lequel l’évocation, ou la fabrication, de l’opinion publique joue le rôle principal. En pleine crise sécuritaire, alors que la presse déborde de faits divers sanglants et s’inquiète de la menace croissante des « apaches », ces jeunes voyous des faubourgs prêts à tous les crimes, l’abolition et les grâces présidentielles sont prises pour cible. De grands titres de la presse populaire n’hésitent pas à susciter l’engagement de leurs lecteurs, selon une logique réclamiste (visant à créer un évènement destiné à attirer l’attention du plus grand nombre).
À l’occasion d’une sordide affaire de meurtre d’enfant, l’affaire Soleilland, le Petit Parisien organise un « référendum »-concours rassemblant 1 412 347 réponses, avec un résultat sans appel : 77 % sont contre l’abolition. La mobilisation « populaire » s’observe également dans les pétitions des jurys s’élevant contre l’abolition, et dans la recrudescence des condamnations capitales. Dans l’Hémicycle, les députés opposés au projet évoquent cet état d’esprit d’une population inquiète. Cette popularité de la peine de mort semble vérifiée par les « retrouvailles » enthousiastes du public avec le bourreau, lors de la quadruple exécution de Béthune (Pas-de-Calais), en 1909, qui met un terme au « moratoire » décidé par Fallières.
Ces campagnes de presse et de pétitions des jurys reflètent-elles bien l’état de l’opinion publique ? Les principaux quotidiens sont ici juges et parties, prenant fait et cause pour la peine de mort et appelant leurs lecteurs à appuyer leur démarche. Le choix de faire campagne sur ce thème est un moyen pour les patrons conservateurs de ces titres, comme Jean Dupuy, de mettre en difficulté le gouvernement Clemenceau. De même, les pétitions des jurys sont en grande partie inspirées par une magistrature traditionnellement conservatrice. Il est certain que l’« opinion publique » a été influencée, mais l’écho rencontré par ces entreprises dans la population suppose une certaine réceptivité de celle-ci. En tous les cas, cette crainte de l’opinion a suffi à modifier les positions de nombreux députés radicaux, ralliés aux « morticoles ».
La période s’étendant de l’échec abolitionniste de 1908 à l’après-Seconde Guerre mondiale, marquée par les violences de masse, n’est guère propice à une reprise du débat. La Libération et l’épuration représentent sans doute le point d’acmé dans l’adhésion de la population au principe de la mise à mort. La haine contre les collaborateurs conduit, dans les premiers mois, à des lynchages et à une sévérité extrême des tribunaux chargés de l’épuration, mais aussi des cours d’assises ordinaires.
Néanmoins, passée cette vague vindicative, la peine de mort perd rapidement du terrain (du moins en France hexagonale). Au début des années 1950, le nombre de condamnations capitales s’effondre, passant de plusieurs dizaines à quelques unités par an, des propositions de loi en faveur de l’abolition sont régulièrement déposées, à gauche comme à droite, des comités militants se forment. Surtout, les Français ne semblent plus aussi réceptifs aux campagnes de presse prônant la sévérité. Alors que le journal Combat s’engage en avril 1950 pour élargir la peine capitale aux parents dont les maltraitances ont entraîné la mort de leurs enfants, les courriers des lecteurs poussent le quotidien à réorienter son propos pour dénoncer les « causes profondes du mal » : taudis, misère et alcoolisme.
C’est à cette époque que les sondages, nouvel outil venu des États-Unis, permettent d’objectiver l’opinion publique et posent régulièrement la question de la peine de mort. La courbe du soutien à l’abolition s’élève à partir du milieu des années 1950 : de 19 % en 1956, elle passe à 58 % en 1969, à la faveur de la prospérité économique retrouvée et de la contestation croissante des valeurs autoritaires. Nombre d’intellectuels s’engagent et influencent l’opinion par leurs œuvres, qu’il s’agisse des écrivains Albert Camus ou Marcel Aymé, du cinéaste André Cayatte ou de l’avocat Albert Naud. Avec le concile Vatican II (1962-1965), la diffusion d’un christianisme plus social et réformateur permet de rallier une partie des catholiques.
C’est à partir du début des années 1970, notamment après l’affaire de Clairvaux, pour laquelle Claude Buffet et Roger Bontems sont guillotinés, après trois ans sans exécution capitale, que la peine de mort regagne des partisans : 53 % sont en sa faveur en 1972, 62 % en septembre 1981, à la veille du vote de la loi d’abolition. Cette poussée s’observe alors même que de plus en plus d’autorités religieuses, d’associations et de personnalités publiques s’engagent contre la peine de mort.
Paradoxalement, l’abolition est ainsi votée dans un contexte de remontée des préoccupations sécuritaires. Mais que valent vraiment ces sondages ? Outre les traditionnelles critiques adressées à cet outil, les abolitionnistes soulignent l’écart existant entre ces chiffres et les réticences certaines des jurés à condamner à mort. Les condamnations capitales restent en effet exceptionnelles. Comme l’affirme Robert Badinter, la véritable abolition serait déjà en large partie à l’œuvre dans les prétoires : 16 condamnations pour l’ensemble des années 1970, et « seulement » 6 exécutions, alors que le thème de l’insécurité prospère dans les médias.
L’abolition est aussi tacitement acceptée par les électeurs, qui portent au pouvoir en 1981 un homme, François Mitterrand, et une majorité politique, qui n’ont pas fait mystère de leurs intentions en la matière. Certes, la peine de mort n’a sans doute pas été le déterminant majeur du vote, mais lors de l’émission télévisée « Cartes sur table », le candidat socialiste ne s’est pas dérobé, en affirmant clairement sa position. Durant la campagne des législatives de 1981 consécutive à la dissolution, le ministre de la justice Maurice Faure présente l’abolition comme un chantier prioritaire, ce qui ne nuit en rien à l’écrasante victoire socialiste. Fort de cette onction démocratique, son successeur, Robert Badinter, a cependant conscience qu’il faut saisir le moment. L’Assemblée nationale, et de manière plus étonnante le Sénat pourtant acquis à la droite, votent l’abolition à la fin du mois de septembre 1981.
Il faudra attendre 1998 pour voir, dans les sondages, la courbe du soutien à la peine de mort croiser celle du soutien à l’abolition. Dans le même temps, cependant, le thème du rétablissement de la peine capitale ne fait plus recette chez les parlementaires, malgré le dépôt de quelques propositions de loi. Sur le long terme, les bénéfices politiques d’une prise de position abolitionniste semblent largement l’emporter sur un engagement inverse. Les associations abolitionnistes mobilisent bien davantage et sont plus structurées que les partisans de la peine de mort. Ce paradoxe est-il la preuve de la superficialité de l’adhésion à la peine capitale, voire de la dissonance cognitive de citoyens qui affirment la soutenir mais qui admirent les responsables qui s’y opposent ?
Dans les dernières enquêtes, le soutien à la peine capitale progresse, passant d’un minimum de 32 % en 2009 à 49 % lors de la dernière mesure de ce type, en février 2025. Comparer les sondages de 1981, alors que des exécutions étaient encore possibles, et ceux de 2025, alors que la peine de mort s’enfonce dans un passé de plus en plus lointain et que la probabilité d’un rétablissement apparaît illusoire, n’a cependant guère de sens. On peut y voir surtout un corollaire du succès actuel des thèses sécuritaires, qui trouvent à s’épanouir dans d’autres dispositifs.
Nicolas Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:32
Jean Viviès, Professeur de littérature britannique, Aix-Marseille Université (AMU)
Que sait-on vraiment de ce tueur en série ? Pas grand-chose : même son nom est une invention. Aujourd’hui, l’enquête se poursuit au travers des recherches de la science forensique – l’ensemble des méthodes d’analyse fondées sur les sciences afin de servir au travail d’investigation –, mais aussi du côté de la stylométrie – un domaine de la linguistique qui utilise la statistique pour décrire les propriétés stylistiques d’un texte. Sans compter le travail des historiennes et historiens qui se penchent aussi sur les victimes du tueur, largement invisibilisées, et réduites non sans misogynie à un statut de « femmes de mauvaise vie ».
Jack l’Éventreur (« Jack the Ripper ») fascine toujours, à en juger par le nombre de livres et de films qui lui sont consacrés. Il y a eu depuis, malheureusement, bien d’autres tueurs en série, mais dans l’imaginaire il reste le premier à être qualifié ainsi, et le plus célèbre. La raison principale est sans doute qu’il n’a jamais été identifié. Une centaine de noms de suspects ont été évoqués, à l’époque des enquêtes puis au fil des décennies : immigrés, médecins, aristocrates, et certains un peu plus vraisemblables que d’autres, Aaron Kosminski – un barbier polonais –, Montague Druitt, un avocat, ou encore le peintre Walter Sickert, mais aucune certitude n’a pu être établie. L’auteur de Sherlock Holmes, Conan Doyle, s’amusa même à imaginer un assassin féminin : « Jill the Ripper ».
Certaines pistes de recherche actuelles s’appuient sur des travaux scientifiques et proposent des angles nouveaux.
Parmi les matériaux à exploiter se trouve la masse de lettres signées Jack l’Éventreur. La première de ces lettres est célèbre, adressée à « Dear Boss », le 25 septembre 1888. Sur un ton provocateur et théâtral, l’auteur y nargue la police et annonce d’autres meurtres. Depuis quelques années, la linguistique « forensique », discipline nouvelle, s’est penchée sur cette lettre et sur celles qui suivirent, notamment sur les trois qui semblent à l’analyse émaner de la même plume, « Saucy Jacky », le 1er octobre, et « From Hell », le 15 octobre.
Ces trois lettres ont été reçues avant que l’affaire ne soit rendue publique et sont donc les plus intéressantes. Les linguistes ont néanmoins étudié tous les textes prétendument écrits par « Jack l’Éventreur » afin de déterminer s’ils avaient été rédigés par la même personne. Un corpus Jack the Ripper a été compilé à partir des 209 textes comportant au total 17 643 mots. Andrea Nini de l’Université de Manchester a notamment fait progresser la question avec les outils numériques de la stylométrie.
On rappellera ici que, en fait, Jack l’Éventreur n’est pas le nom de l’assassin, mais celui de l’auteur de la première lettre, très probablement écrite par un journaliste au moment des faits et envoyée, non pas à la police mais, élément révélateur, à une agence de presse londonienne, la Central News Agency.
Toujours dans le domaine de la science forensique, les progrès en matière de recherche d’ADN ont semblé un temps de nature à élucider l’affaire. L’étude d’un ADN, prélevé sur le châle taché retrouvé près du corps d’une victime (Catherine Eddowes) et récupéré par un inspecteur de police de l’époque, a été confiée à Jari Louhelainen, biochimiste de l’Université John-Moores de Liverpool en collaboration avec David Miller, spécialiste de la reproduction à l’Université de Leeds. Ils ont extrait du châle de l’ADN mitochondrial et ont décelé une correspondance (« match ») entre une descendante de la victime et celle d’un suspect déjà bien repéré, un immigré polonais (Kosminski).
Russell Edwards, le commanditaire de ces recherches et actuel propriétaire du châle, a présenté cette découverte dans son livre Naming Jack the Ripper, paru en 2014. Mais d’autres spécialistes soulignent la provenance plutôt douteuse du morceau de tissu (a-t-il réellement été récupéré sur le lieu du crime ?) et le fait qu’il ait été beaucoup manipulé pendant plus d’un siècle. Aucune certitude ne peut en fait être tirée de ces analyses ADN.
D’autres tentatives, telles celle de la romancière Patricia Cornwell, à partir d’échantillons d’ADN prélevés sur un timbre et sur des enveloppes, et mettant en cause le peintre Walter Sickert, ont été largement diffusées dans deux de ses livres dont Ripper : The Secret Life of Walter Sickert (2017), mais elles n’ont pas convaincu la plupart des experts.
La nouveauté la plus importante se trouve du côté des études historiques proprement dites où une recherche récente a changé la focale, en s’intéressant non plus à la galaxie des suspects mais aux victimes, notamment aux cinq femmes des meurtres dits « canoniques ». Ces cinq femmes ont été jusqu’ici trop vite assimilées à des prostituées en raison de leur pauvreté. Pour trois d’entre elles, il n’existe pas d’élément avéré qui confirme leur condition de prostituées. Mary Ann Nichols, Annie Chapman, Elizabeth Stride, Catherine Eddowes et Mary Jane Kelly, puisque tels sont leurs noms, n’étaient pas véritablement des prostituées. Cette idée très répandue a été déconstruite, notamment par Hallie Rubenhold dans son livre The Five : The Untold Lives of the Women Killed by Jack the Ripper (2019).
L’historienne montre que c’est à propos de deux des victimes seulement, Mary Ann Nichols et la plus jeune, Mary Jane Kelly, que des preuves attestent qu’elles ont exercé de manière régulière la prostitution. Pour les trois autres, rien ne permet de l’affirmer. Il s’agissait avant tout de femmes pauvres, sans logement fixe, qui affrontaient une situation économique et sociale des plus difficile dans l’East End londonien des années 1880. Les registres de la police du temps de même que les différents témoignages ne confirment pas leur état de prostituées. Cette représentation s’est installée, inspirée de récits à sensation et de préjugés et stéréotypes assimilant pauvreté et immoralité. Leurs vies sont davantage marquées par la misère, l’alcoolisme, la violence domestique et l’instabilité sociale.
La majeure partie de la littérature consacrée à Jack l’Éventreur s’est fixée sur le tueur sans visage et au nom fictionnel au détriment de ses victimes. Un contre-récit des meurtres est néanmoins possible, rendant leur place à des victimes sans défense, accablées par l’extrême pauvreté dans le Londres victorien. Y voir, au-delà d’une fascinante énigme criminelle, qui demeure, une série de féminicides à resituer dans le cadre d’une histoire sociale et non dans les faits divers criminels change la perspective : on s’intéresse dès lors moins à la manière dont ces victimes sont mortes qu’à la manière dont elles ont vécu.
Certains écrivains avaient anticipé les travaux des historiens. Ainsi, Jack London, dans son livre quasi contemporain des événements The People of the Abyss (le Peuple de l’abîme, 1903), a décrit la misère extrême du quartier de Whitechapel après s’y être lui-même plongé et a dénoncé les conditions économiques qui exposaient les femmes à la violence.
Avant lui, George Bernard Shaw avait écrit au journal The Star dès les premiers meurtres en soulignant qu’ils avaient au moins le mérite de mettre en lumière les conditions de vie misérables de l’East End, que la bonne société victorienne ignorait. Ces crimes, qui se caractérisaient par des mutilations sexuelles, s’inscrivaient par ailleurs dans une époque où la sexualité était un enjeu essentiel de contrôle social.
Les travaux des chercheurs continuent dans leur registre propre de s’inscrire dans cette fascination de l’« underworld », un monde sous le monde. En parallèle la postérité du personnage de Jack l’Éventreur conserve depuis près de cent trente ans sa place dans l’imaginaire occidental. La littérature et le cinéma s’étaient vite emparés du personnage.
Reprenant l’intrigue imaginée, en 1913, par la romancière Marie Belloc, Alfred Hitchcock réalisa en 1927 The Lodger, dans lequel un mystérieux locataire assassine des jeunes femmes dans Londres. Certains films restent dans les mémoires comme From Hell (2001), d’Albert et Allen Hughes, ou Time After Time (C’était demain, 1979), de Nicholas Meyer. On y suit Jack l’Éventreur dans un San Francisco moderne, pourchassé par H. G. Wells auquel il a volé la machine à voyager dans le temps. Les téléfilms et séries, bandes dessinées ou jeux vidéo abondent. C’est donc à la fiction, qui a rivalisé d’emblée avec la science et à qui il revint aussi d’incarner l’Éventreur, de lui donner un visage et une identité qui ont échappé encore à ce jour aux multiples enquêtes, nourries de techniques et de perspectives nouvelles.
Les recherches des historiens, des linguistes, des biochimistes et des spécialistes de « ripperology » (terme dû à l’écrivain anglais Colin Wilson) se poursuivent ou se réorientent, modifiant au fil des décennies notre vision de la célèbre affaire. Pour autant, l’icône culturelle qu’est devenu Jack l’Éventreur, presque un personnage conceptuel, n’y fait pas obstacle en offrant à nombre de travaux novateurs la visibilité qu’ils méritent. Jack l’Éventreur au nom inventé est comme devenu l’inventeur de toute une nouvelle sphère de savoirs.
Jean Viviès ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:28
Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon
Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.
Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.
Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).
Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.
Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.
Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.
Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).
Heureusement, des solutions existent pour recycler la chaleur fatale.
L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.
Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.
Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.
Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.
Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.
Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.
Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.
À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir
Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :
Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).
La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.
On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.
Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.
Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.
Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».
Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.
Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.
Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)
08.10.2025 à 16:27
Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay
Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)
Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1
Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA
Marina Labalette, Cheffe de projet, IRT Saint Exupéry
Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA
C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?
L’un des leviers de la transition énergétique et de la décarbonation de l’économie  est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.
L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).
Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.
Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.
L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.
Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.
Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.
En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :
pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,
pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,
jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.
La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.
Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.
En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.
Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.
À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau
On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.
Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.
Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.
La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.
La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.
En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.
En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.
Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.
Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.
Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.
À lire aussi : Comment rendre l’électronique plus soutenable ?
Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.
Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.
Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.