09.10.2025 à 14:16
María del Valle Varo García, Research assistant professor, Universidad de Deusto
Le cerveau a ses propres règles, tout comme notre façon d’apprendre et de mémoriser. Les réseaux neuronaux sont plus actifs quand on écrit à la main que quand on tape au clavier, et les pauses réelles aident à consolider les connaissances.
Arrêtons-nous un instant et observons le doux flux de ces mots sous nos yeux, ce va-et-vient silencieux et la voix qui les lit dans notre tête. Combien d’entre eux resteront gravés dans votre mémoire dans cinq minutes ? Et combien resteront, sans effort, dans notre mémoire demain ? La question n’est pas anodine. Nous vivons à une époque où la vitesse domine notre façon d’apprendre et, paradoxalement, aussi d’oublier.
Tous les mots ne sont pas traités au même rythme. Vous avez peut-être entendu dire qu’une personne peut lire entre 200 et 300 mots par minute, en écouter environ 150 ou en lire encore moins au toucher en braille. Mais cette vitesse n’est pas synonyme de compréhension : en fait, au-delà de 500 mots par minute, l’assimilation chute de manière drastique. Et ce qui est absorbé est-il vraiment conservé ? Pas nécessairement. Dévorer avidement des mots n’est pas la même chose que s’imprégner de leur essence.
Pour que les mots prennent tout leur sens et se transforment en idées ou en concepts durables, ils doivent d’abord traverser l’espace fragile et éphémère de la mémoire opérationnelle, également appelée mémoire à court terme, chargée de maintenir l’information active pendant que le cerveau la traite. Mais cela ne suffit pas.
Pour que ce qui est retenu se stabilise, l’information doit être stockée dans un type de mémoire sémantique, affective, spatiale ou temporelle. Se souvenir de vacances implique une mémoire épisodique, teintée d’émotion et de lieu ; en revanche, savoir que la capitale de l’Italie est Rome renvoie à une mémoire sémantique, dépourvue de contexte personnel.
Il est difficile aujourd’hui de trouver un espace où le clavier n’a pas presque entièrement remplacé l’encre ou le graphite. Cependant, il convient de rappeler que l’écriture manuscrite reste un outil puissant pour le développement cognitif : écrire à la main active un réseau plus large de régions cérébrales (motrices, sensorielles, affectives et cognitives) que la dactylographie. Cette dernière, plus efficace en termes de vitesse, exige moins de ressources neuronales et favorise une participation passive de la mémoire de travail.
En revanche, l’utilisation active de la mémoire à court terme (à l’aide d’outils non numériques) s’avère plus bénéfique tant en classe que dans les contextes cliniques liés à la détérioration cognitive.
Le rythme et les pauses sont également déterminants dans ce passage de la mémoire de travail à la mémoire à long terme. Les pauses actives, ces brefs moments où nous interrompons notre étude pour nous étirer, marcher ou contempler quelque chose sans but immédiat, permettent au cerveau de réorganiser ce qui a été appris et de le consolider plus solidement.
Cependant, aujourd’hui, ces pauses sont souvent associées à des activités impliquant l’utilisation d’écrans : téléphones portables, télévision, tablettes. Si l’on pouvait faire une comparaison avec l’exercice physique, on pourrait s’imaginer dans une salle de sport où l’on court à 12 km/h pendant les pauses entre les séries. Il se passe quelque chose de très similaire lorsque nous utilisons nos pauses pour regarder des vidéos rapides, lire des titres ou naviguer sans but sur les réseaux sociaux : l’esprit ne se repose pas, ne se consolide pas, et l’attention se fragmente.
Les neurosciences soulignent également le rôle crucial du sommeil dans la consolidation de la mémoire. Pendant le sommeil à ondes lentes, le cerveau entre dans un état de synchronisation neuronale caractérisé par la prédominance des ondes delta (0,5-4 Hz), qui favorisent la réactivation des traces mnésiques – traces qui restent dans l’esprit après une expérience et qui servent de base à la mémoire et à la possibilité de se souvenir.
Ces oscillations lentes créent un environnement à faible interférence sensorielle qui facilite le dialogue entre l’hippocampe et le néocortex. On a notamment observé que les ondes thêta (4-8 Hz), plus fréquentes pendant la phase REM (Rapid Eye Movement) et également présentes dans les phases NREM (Non-Rapid Eye Movement) légères, interviennent dans ce transfert. Plus précisément, elles permettent le passage des souvenirs de leur stockage temporaire dans l’hippocampe vers les régions corticales de stockage à long terme.
De même, les fuseaux du sommeil, brefs schémas d’activité cérébrale qui se produisent pendant le sommeil léger, générés principalement par le thalamus, sont associés au renforcement des connexions neuronales pertinentes.
Diverses études utilisant la polysomnographie et la neuro-imagerie ont montré des corrélations entre la densité de ces fuseaux de sommeil et les performances dans les tâches de mémoire épisodique.
Il a été suggéré que ces oscillations agissent comme une sorte de « marqueur de pertinence » qui sélectionne les informations méritant d’être consolidées.
Ainsi, pendant notre sommeil, le cerveau exécute automatiquement un processus de réorganisation et de renforcement de la mémoire. Il donne la priorité à ce qui est significatif et élimine ce qui est non pertinent. Ce n’est pas un hasard si, au réveil, une mélodie ou une phrase apparemment insignifiante nous revient sans effort à l’esprit : ce sont les échos de ce travail nocturne minutieux qui écrit la mémoire.
Comprendre comment nous apprenons nous révèle également comment nous devrions vivre. Il ne s’agit pas seulement de réduire l’utilisation des écrans, mais aussi de retrouver un rythme plus humain. Écrire à la main aide à activer les réseaux neuronaux en profondeur ; pensons, par exemple, aux notes prises en classe et à la façon dont, en les relisant, les idées resurgissent plus clairement.
D’autre part, il est recommandé de reprendre l’habitude de faire de véritables pauses, loin des appareils : observer le vol d’un oiseau, sentir sa respiration, étirer son corps.
Il est également utile de renforcer ce que l’on a appris par de brefs exercices de récupération active.
De plus, il ne faut pas sous-estimer le rôle du sommeil profond : c’est là que la mémoire mûrit et fixe ce qui a été appris. Ce n’est que lorsque nous lui accordons le temps nécessaire pour se reposer et assimiler que la connaissance s’enracine véritablement. Ainsi, les mots qu’il lit aujourd’hui pourront devenir des souvenirs vivants, capables de l’accompagner au-delà des cinq prochaines minutes, peut-être même toute sa vie.
María del Valle Varo García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
09.10.2025 à 10:23
Marie-France Dignac, Directrice de recherches sur la biologie des sols, INRAE, Inrae
Jean-François Ghiglione, Directeur de recherche, Ecotoxicologue, Centre national de la recherche scientifique (CNRS)
Issus à 99 % du pétrole, les plastiques alimentent la crise écologique et climatique tout au long de leur cycle de vie. Derrière l’image trop familière des déchets qui polluent les rivières puis les océans, la production et le recyclage des plastiques sont aussi source d’émissions considérables de gaz à effet de serre, de quoi compromettre les efforts mondiaux de réduction des émissions. Surtout, les plastiques, un débouché du pétrole, entretiennent la dépendance de l’économie aux énergies fossiles. Le risque serait qu’ils deviennent la planche de salut des industriels de la pétrochimie à l’occasion de la COP30 sur le climat, qui se déroulera du 10 au 21 novembre 2025, à Belem, au Brésil.
À partir du 10 novembre 2025, la COP30 sur le climat réunira les États membres de l’Organisation des Nations unies (ONU) au cœur de la forêt amazonienne, au Brésil. Il s’agit d’un rendez-vous majeur du multilatéralisme, où l’on espère que les ambitions régulièrement formulées par les États vont enfin se concrétiser.
Le contexte international n’est pas forcément au beau fixe pour cela. Face à des pays qui nient la science, ou qui se soucient peu de l’environnement et de la santé humaine et refusent de comprendre que leurs propres économies en paieront le prix à long terme, les pays engagés dans la transition vers une économie moins polluante et moins dépendante des énergies fossiles peinent à se faire entendre. Les négociations en vue d’un traité contre la pollution plastique, qui n'ont toujours pas abouti à un texte, en fournissent un exemple éloquent.
Les preuves scientifiques sont pourtant très claires quant aux impacts de la production de plastiques sur la perte de biodiversité et la pollution à l’échelle planétaire. D’autant plus que ces impacts sont en réalité bien plus larges : les plastiques impactent la santé humaine et exacerbent le dépassement de toutes les autres limites planétaires. En cela, ils aggravent la crise écologique et climatique déjà en cours.
À lire aussi : Jusqu’à quand pourrons-nous dépasser les limites planétaires ?
L’impact climatique du secteur de la pétrochimie est moins souvent mis en avant que celui des secteurs de l’énergie et des transports, plus proches des consommateurs. Il fait pourtant figure d’éléphant dans la pièce : entre 4 et 8 % de la production de pétrole est aujourd’hui utilisée pour fabriquer des produits plastique. Près de 99 % de ces produits sont fabriqués à partir de pétrole.
Depuis l’extraction et le transport des combustibles fossiles, jusqu’à la fabrication, l’utilisation et l’élimination des plastiques, ces matériaux génèrent des émissions qui contribuent au réchauffement climatique. Les plastiques sont ainsi directement responsables de 3,5 % des émissions globales de gaz à effet de serre, dont la plupart sont générées lors de leur production.
Le recyclage des plastiques, souvent mis en avant par ces industriels, n’a rien d’une solution miracle. Toutes les technologies de traitement des déchets plastiques sont émettrices de gaz à effet de serre :
leur incinération libère le carbone qui les constitue sous forme de CO2,
leur mise en décharge entraîne des émissions de méthane (Bauer et coll., 2022)
de façon générale, recycler les plastiques nécessite de grandes quantités d’énergie.
Dans un scénario de statu quo, si la production et l’utilisation de plastiques continuent d’augmenter au rythme actuel (soit un doublement de la quantité de plastiques produits tous les 20 ans), les émissions de gaz à effet de serre provenant des plastiques pourraient représenter de 10 à 13 % du budget carbone total (c’est-à-dire, la quantité de gaz à effet de serre que l’on peut encore se permettre d’émettre tout en restant sous la barre d’une hausse de +1,5 °C à l’horizon 2050).
Et encore, les chiffres qui précèdent ne tiennent pas compte du fait que les plastiques participent directement à la mondialisation de l’économie. Ils permettent de transporter les biens et denrées sur de très longues distances et de ce fait favorisent une économie basée sur une production loin des zones de consommation, fortement émettrice de gaz à effet de serre.
La pollution plastique se retrouve dans les rivières, les océans ou sur terre, sous différentes tailles (macro, micro ou nanoplastiques), et peut persister pendant des siècles. Selon l’OCDE, environ 22 % des déchets plastiques finissent dans l’environnement, dont une grande partie dans l’océan, nuisant à la vie marine.
Les aliments, l’eau et l’air sont ainsi contaminés et les microplastiques finissent, à travers la chaîne alimentaire, également dans notre corps. Les preuves scientifiques de l’impact des plastiques sur la santé humaine sont de plus en plus solides.
Mais ce n’est pas tout. Les plastiques agissent également indirectement sur le réchauffement climatique. En effet, les débris plastiques en mer modifient les cycles du carbone et des nutriments. En agissant sur les processus microbiens, ils diminuent la productivité en nutriments à la surface de l’océan. Résultat : les « pompes à carbone » de l’océan, qui ont permis de piéger environ 31 % des émissions anthropiques de CO2 entre 1994 et 2007, fonctionnent moins bien.
Par ailleurs, une méta-analyse récente a montré que la présence de microplastiques dans l’eau ou dans les sols pourrait diminuer la photosynthèse, et donc limiter la production de biomasse carbonée. Avec des impacts sur la sécurité alimentaire, mais aussi sur les puits de carbone naturels et le climat.
À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?
Reconnaissant tous ces dangers des plastiques pour la santé humaine et la santé de l’environnement, un comité intergouvernemental de négociation (CIN) a été créé en mars 2022 afin d’élaborer un instrument international juridiquement contraignant pour mettre fin à la pollution plastique dans tous les environnements. Et ceci, en tenant compte de l’ensemble du cycle de vie des plastiques.
La deuxième partie de la cinquième réunion de ce comité (CIN-5.2) s’est tenue à Genève, du 5 au 14 août 2025. Les négociations étaient basées sur le projet de texte du président du CIN proposé à la fin de la première partie du CIN-5 à Busan, en 2024.
Plusieurs éléments de ce projet de texte peuvent avoir une réelle efficacité pour mettre fin à la pollution plastique. Il s’agit notamment :
de réduire la production de plastique (article 6),
d’interdire les produits plastique et les substances chimiques dangereuses pour les humains ou pour l’environnement (article 3),
de concevoir des produits en plastique moins polluants (article 5),
de limiter les fuites vers l’environnement (article 7)
et enfin de protéger la santé humaine (article 19).
Mais de nombreux pays font pression pour que ces mesures soient rejetées : les mêmes désaccords politiques qui avaient bloqué les négociations précédentes se sont reproduits à Genève.
Presque tous les plastiques sont fabriqués à partir de combustibles fossiles, c’est pourquoi les pays qui refusent de prendre des mesures ambitieuses – notamment l’Arabie saoudite, la Russie et l’Iran – sont essentiellement des pays producteurs de pétrole ou dotés d’industries pétrochimiques puissantes.
Les intérêts économiques en jeu sont donc importants. Ce groupe de pays partage les mêmes idées – nommé pour cela le « like-minded group » – et refuse d’inclure de tels objectifs. Ils privilégient un accord visant à gérer les déchets, sans réduire leur production.
À lire aussi : Comment échapper à la malédiction de la rente fossile ?
Mais ce faisant, ils dénigrent tous les modèles scientifiques sur l’évolution de la pollution plastique, qui montrent qu’il est nécessaire de réduire la quantité de plastique produite chaque année afin de réduire la pollution par les plastiques tout au long de leur cycle de vie. On a également pu noter la forte présence des lobbies des entreprises pétrolières et des fabricants de plastiques, qui ne cesse d’augmenter au fil des négociations.
Le manque de consensus à la fin des négociations du CIN-5.2 peut être vu comme un échec des négociations.
Toutefois, le rejet massif du texte faible proposé le 13 août a aussi montré qu’une grande majorité de pays ne sont pas prêts à accepter un traité vidé de sa substance.
De nombreux pays ont souligné que ce texte ne permettrait pas d’atteindre les objectifs pourtant fixés dans le mandat à l’origine de ces négociations, et ont appelé à des mesures ambitieuses en accord avec la science, notamment une réduction de la production de plastique et une régulation des produits et substances chimiques dangereux, pour protéger la santé humaine et de l’environnement. La majorité des pays s’est aussi déclarée favorable à la poursuite des discussions.
Le multilatéralisme a montré à Genève la capacité des pays à construire une coalition forte et ambitieuse, rassemblant près de 120 pays (les 75 pays de la Coalition de haute ambition (HAC) et leurs alliés) et basant ses positions sur les faits scientifiques.
Espérons que ces avancées se concrétisent avec la poursuite des discussions sur le traité contre la pollution plastique, et qu’elles soient prises en compte dans les négociations climatiques lors de la COP30. La production de plastique ne doit pas menacer les efforts réalisés par les États pour limiter le recours aux énergies fossiles dans les autres secteurs.
Comme il a été reconnu lors des dernières COP sur le climat, notamment la COP28 en 2023, le monde doit s’organiser pour sortir progressivement des énergies fossiles.
D’importants efforts de recherche ont été consacrés à cette transition dans les secteurs de l’énergie et des transports, qui utilisent la majeure partie des ressources fossiles pour produire de la chaleur, de l’électricité et des carburants. Les énergies renouvelables remplacent ainsi peu à peu les produits pétroliers dans le mix électrique, ainsi que dans le secteur des transports.
D’autres secteurs, par exemple l’industrie lourde, doivent se réinventer : en effet, ils sont davantage dépendants aux produits pétroliers dans leurs processus industriels mêmes.
À cet égard, la pétrochimie souffre d’un problème de fond : elle contribue à maintenir à un niveau élevé la demande en pétrole, qui constitue un intrant de ses procédés industriels. Les produits pétrochimiques devraient ainsi représenter plus d’un tiers de la croissance de la demande mondiale de pétrole d’ici 2030, et près de la moitié de celle-ci d’ici 2050.
Les plastiques ne doivent pas devenir le radeau de secours de l’industrie pétrolière. En plus de contribuer aux émissions globales de gaz à effet de serre, ils détruisent les sols, empoisonnent les eaux et nuisent aux organismes vivants, y compris les humains. Sur les sept milliards de tonnes de déchets plastiques générés dans le monde depuis l’invention de ce matériau, moins de 10 % ont été recyclés, et cinq milliards de tonnes se sont accumulés dans la nature.
Les industriels de la pétrochimie, de l’extraction des énergies fossiles et leurs alliés cherchent une fois de plus à déplacer le problème : la production de plastiques pose un problème sanitaire, écologique, et climatique majeur. Réduire la production de plastiques constitue un levier incontournable pour maîtriser leurs impacts sur la planète.
Marie-France Dignac a reçu des financements de l'Agence de la Transition Ecologique (ADEME) et de l'Agence Nationale de la Recherche (ANR).
Jean-François Ghiglione a reçu des financements de l'Agence nationale de la recherche (ANR), de l'ADEME, de l'OFB et de l'Agence de l'eau
09.10.2025 à 10:23
Mathieu Baudrin,, Sociologue sciences et des technologies, Direction Sciences sociales, économie et société, Anses, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Baptiste Monsaingeon, Maître de conférence en sociologie, Université de Reims Champagne-Ardenne (URCA)
Bernadette Bensaude-Vincent, Philosophe, Université Paris 1 Panthéon-Sorbonne
Des serres agricoles aux bouteilles d’eau, en passant par la recette du pain de mie, le plastique a transformé en profondeur toute l’industrie agroalimentaire. Face au problème grandissant de la pollution plastique, on peut s’inspirer, à travers l’approche des « métabolismes urbains », de ce qui était fait au début du XXe siècle.
La production massive de plastiques est devenue un marqueur de la seconde moitié du XXe siècle, souvent dénommée « l’âge des plastiques ». Leur introduction dans les chaînes de valeur de l’agroalimentaire date des années 1930. Elle procédait de deux dynamiques.
La première est l’essor de l’industrie pétrolière et de l’automobile : les plastiques étant un co-produit du craquage du pétrole, les compagnies pétrochimiques recherchent activement à étendre le marché des plastiques, qui se prêtent à tous les usages comme leur nom l’indique.
La seconde est l’intensification de l’agriculture, au lendemain de la Deuxième Guerre mondiale, pour faire face à une démographie galopante.
Le recours aux matières plastiques, progressif mais massif, a profondément modifié les pratiques alimentaires et agricoles, sans parler des aliments eux-mêmes.
Aujourd’hui, les impacts sanitaires et environnementaux des plastiques, en particulier sous leur forme micro et nanoparticulaires, sont avérés. La gestion (dont notamment le recyclage) des déchets plastiques n’est pas la seule en cause : c’est bien l’existence même des plastiques qui est en jeu.
Mais les mesures de réduction ou d’interdiction de l’usage de matières plastiques dans l’industrie agroalimentaire, du champ jusqu’au domicile des consommateurs, ne sauraient être appliquées sans une réflexion globale sur les pratiques actuelles de production, de distribution et de consommation des denrées alimentaires.
L’emballage des aliments fut le premier et reste le principal usage des plastiques dans l’agroalimentaire. Il correspond à un moment historique de changement dans la façon de stocker et de transporter les aliments, notamment grâce à la réfrigération.
C’est également un moment de reconfiguration des circuits de distribution avec le développement des supermarchés. Les plastiques deviennent alors incontournables et contribuent à structurer le marché alimentaire mondial tel que nous le connaissons aujourd’hui.
En effet, les emballages permettent d’allonger la durée de conservation des aliments et, surtout, facilitent la consommation nomade d’aliments et de boissons.
Si la bouteille en verre a permis la marchandisation de l’eau en lui attribuant une marque et des qualités, c’est bien l’invention de la bouteille d’eau en polyethylene terephthalate (PET) qui, à la fin des années 1970, a répandu son usage à l’échelle mondiale.
Les plastiques modifient jusqu’aux aliments eux-mêmes. C’est le cas du pain de mie commercialisé en sachets plastiques. Dès 1937, la firme Dupont lance un projet de recherche et développement (R&D) qui débouche sur l’ajout de « mycoban », un antifongique, à la farine utilisée pour réduire le risque de moisissure.
Les plastiques ont donc profondément changé nos manières de manger et même la nature de ce que l’on mange. Ils ont favorisé les aliments transformés par une foule d’intermédiaires et contribué à creuser le fossé entre les producteurs et les consommateurs de viande ou poisson conditionnés, surgelés, ou emballés.
En amont des supermarchés, les pratiques agricoles ont, à leur tour, été transformées par les plastiques. D’abord introduits dans les années 1950 comme substituts au verre dans les serres horticoles, ils se sont généralisés depuis les années 1970 pour les cultures maraîchères sous tunnels et l’ensilage du foin.
En Europe, l’expansion des plastiques a été facilitée par la politique agricole commune (PAC). Lancée en 1962 par la Communauté économique européenne (CEE), celle-ci était au départ destinée à encourager l’agriculture intensive et productiviste.
Or, les tunnels de plastique permettent justement de cultiver et de produire des fruits ou légumes dans des terrains peu propices et d’étendre les saisons de production. Depuis, les surfaces recouvertes par des serres ou tunnels en plastique en Espagne et en France n’ont cessé d’augmenter.
Mais cette plastification de certaines cultures s’accompagne aussi de mutations socioprofessionnelles. Dans les vastes plaines recouvertes de tunnels plastifiés abritant des cultures de fraises (ou autres) à haute valeur ajoutée, on fait appel à une main-d’œuvre souvent étrangère, saisonnière et bon marché. Celle-ci travaille dans des conditions difficiles.
Les plastiques ont ainsi envahi les pratiques de production et les circuits de distribution des denrées alimentaires. Le mot « agriplastique » témoigne de l’enchevêtrement d’éléments humains, économiques et techniques, dont la dynamique tend à se renforcer avec le temps. Cela aboutit, après plusieurs décennies, à ce que nous pourrions qualifier de verrou sociotechnique.
Que faire pour se libérer de cette omniprésence des plastiques dans l’agroalimentaire ? Les plastiques étant constitutifs des chaînes de valeurs décrites, il serait naïf de penser qu’on pourrait conserver cette organisation marchande tout en éliminant les matières plastiques.
Ce constat ne doit pas pour autant pousser les décideurs à l’inaction. Il invite plutôt à une réflexion d’envergure sur une possible réorganisation des chaînes de valeur agroalimentaires. Afin d’initier cette réflexion, nous proposons de revenir sur quelques leçons de l’histoire.
Au début du XXe siècle, l’économie des flux de denrées alimentaires entre populations rurales et urbaines fonctionnait en boucles quasi fermées. Les matières rejetées par les uns étaient utilisées, par exemple sous forme d’engrais, par les autres.
Dans ce contexte, la notion même de déchets n’existe pas encore, puisque rien n’est ni mis au rebut ni traité comme déchet ultime (c’est-à-dire, un déchet qui ne peut plus être traité davantage dans les conditions technicoéconomiques du moment).
Les fèces humaines sont alors vues comme des engrais agricoles, les chiffons peuvent devenir du papier, les carcasses d’animaux de travail sont réutilisées pour fabriquer des colles et autres produits du quotidien.
À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet
La rupture de ces « métabolismes urbains », tels que décrits par Sabine Barles, correspond historiquement à l’avènement de la chimie de synthèse. Se met alors en place un complexe industriel qui produit à la fois des engrais, des produits phytopharmaceutiques et des plastiques, trois catégories de produits constitutifs des chaînes de valeurs agricoles actuelles.
Il n’est certes ni envisageable – ni même souhaitable – de reproduire à l’identique les métabolismes urbains du début du XXe siècle. Ils reposaient largement sur la mobilisation d’une main-d’œuvre nombreuse sous-payée vivant dans la misère, par exemple les chiffonniers.
En revanche, on peut retenir l’idée d’une approche systémique, globale et métabolique au lieu de se contenter de chercher un matériau de substitution aux plastiques qui soulèvera, à son tour, des difficultés similaires. Il s’agit donc de repenser, avec les acteurs concernés, l’ensemble des filières agroalimentaires pour viser la sobriété plastique.
Cet article s’appuie sur le rapport d’expertise « Plastiques utilisés en agriculture et pour l'alimentation » Inrae/CNRS, publié en mai 2025.
Baptiste Monsaingeon a reçu des financements de l'ANR pour divers projets de recherche publique liés aux déchets et aux plastiques.
Bernadette Bensaude-Vincent et Mathieu Baudrin, ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
08.10.2025 à 16:33
Nicolas Picard, Chercheur associé au centre d'histoire du XIXème siècle, Université Paris 1 Panthéon-Sorbonne
Robert Badinter entre au Panthéon ce 9 octobre. Il fut la grande figure du combat contre la peine de mort au moment de son abolition en 1981. À l’époque, 62 % des Français y étaient pourtant favorables. Quel rôle l’opinion publique a-t-elle joué dans les débats relatifs à la peine capitale au cours du XXe siècle ? Quels ont été les déterminants – notamment médiatiques – de son évolution en faveur ou contre l’abolition ?
Ce jeudi 9 octobre, Robert Badinter entre au Panthéon, en hommage à son rôle dans l’abolition de la peine de mort, et, en juin 2026, Paris accueillera le 9e Congrès mondial contre la peine de mort. Cette abolition est inscrite dans la Constitution depuis 2007, après un vote quasi unanime des parlementaires (828 pour, 26 contre). Tout concourt à en faire aujourd’hui l’une des « valeurs de la République » les plus consensuelles, enseignée dans les manuels scolaires et défendue par la diplomatie française. L’abolition n’apparaît guère menacée, y compris à l’extrême droite : les partis politiques ne font plus figurer le rétablissement de la peine capitale dans leur programme, malgré les déclarations de certaines personnalités.
Pourtant, la peine de mort a suscité des débats particulièrement vifs dans notre pays. Indépendamment des arguments philosophiques et scientifiques sur sa légitimité et sur son efficacité dissuasive, ses partisans ont longtemps pu s’appuyer sur le « sentiment public » de la population, auquel la répression pénale devait nécessairement s’accorder. Les opposants ont, à l’inverse, souligné à quel point ce sentiment était versatile, superficiel, et difficilement évaluable. La question de l’adhésion populaire à la peine capitale s’est ainsi reconfigurée à plusieurs reprises au cours du siècle dernier.
L’idée qu’une écrasante majorité de citoyens serait en faveur de la peine de mort est largement répandue au début du XXe siècle, ce qui pourtant n’allait pas de soi au XIXe. Victor Hugo, lors de son discours à l’Assemblée nationale en 1848, affirme que, lors de la révolution de février, « le peuple […] voulut brûler l’échafaud » et regrette que l’on n’ait pas été « à la hauteur de son grand cœur ».
En 1871, la guillotine est d’ailleurs effectivement incendiée par un groupe de gardes nationaux pendant la Commune. Ce sont des partis progressistes, se présentant comme des défenseurs des intérêts populaires, qui poussent le thème de l’abolition dans leurs programmes, des socialistes aux radicaux. Ces derniers mettent l’abolition à l’ordre du jour parlementaire en 1906. Le président Fallières commence alors à gracier systématiquement les condamnés à mort en attendant l’examen du projet.
L’échec des [abolitionnistes] en 1908, témoigne d’un revirement spectaculaire, dans lequel l’évocation, ou la fabrication, de l’opinion publique joue le rôle principal. En pleine crise sécuritaire, alors que la presse déborde de faits divers sanglants et s’inquiète de la menace croissante des « apaches », ces jeunes voyous des faubourgs prêts à tous les crimes, l’abolition et les grâces présidentielles sont prises pour cible. De grands titres de la presse populaire n’hésitent pas à susciter l’engagement de leurs lecteurs, selon une logique réclamiste (visant à créer un évènement destiné à attirer l’attention du plus grand nombre).
À l’occasion d’une sordide affaire de meurtre d’enfant, l’affaire Soleilland, le Petit Parisien organise un « référendum »-concours rassemblant 1 412 347 réponses, avec un résultat sans appel : 77 % sont contre l’abolition. La mobilisation « populaire » s’observe également dans les pétitions des jurys s’élevant contre l’abolition, et dans la recrudescence des condamnations capitales. Dans l’Hémicycle, les députés opposés au projet évoquent cet état d’esprit d’une population inquiète. Cette popularité de la peine de mort semble vérifiée par les « retrouvailles » enthousiastes du public avec le bourreau, lors de la quadruple exécution de Béthune (Pas-de-Calais), en 1909, qui met un terme au « moratoire » décidé par Fallières.
Ces campagnes de presse et de pétitions des jurys reflètent-elles bien l’état de l’opinion publique ? Les principaux quotidiens sont ici juges et parties, prenant fait et cause pour la peine de mort et appelant leurs lecteurs à appuyer leur démarche. Le choix de faire campagne sur ce thème est un moyen pour les patrons conservateurs de ces titres, comme Jean Dupuy, de mettre en difficulté le gouvernement Clemenceau. De même, les pétitions des jurys sont en grande partie inspirées par une magistrature traditionnellement conservatrice. Il est certain que l’« opinion publique » a été influencée, mais l’écho rencontré par ces entreprises dans la population suppose une certaine réceptivité de celle-ci. En tous les cas, cette crainte de l’opinion a suffi à modifier les positions de nombreux députés radicaux, ralliés aux « morticoles ».
La période s’étendant de l’échec abolitionniste de 1908 à l’après-Seconde Guerre mondiale, marquée par les violences de masse, n’est guère propice à une reprise du débat. La Libération et l’épuration représentent sans doute le point d’acmé dans l’adhésion de la population au principe de la mise à mort. La haine contre les collaborateurs conduit, dans les premiers mois, à des lynchages et à une sévérité extrême des tribunaux chargés de l’épuration, mais aussi des cours d’assises ordinaires.
Néanmoins, passée cette vague vindicative, la peine de mort perd rapidement du terrain (du moins en France hexagonale). Au début des années 1950, le nombre de condamnations capitales s’effondre, passant de plusieurs dizaines à quelques unités par an, des propositions de loi en faveur de l’abolition sont régulièrement déposées, à gauche comme à droite, des comités militants se forment. Surtout, les Français ne semblent plus aussi réceptifs aux campagnes de presse prônant la sévérité. Alors que le journal Combat s’engage en avril 1950 pour élargir la peine capitale aux parents dont les maltraitances ont entraîné la mort de leurs enfants, les courriers des lecteurs poussent le quotidien à réorienter son propos pour dénoncer les « causes profondes du mal » : taudis, misère et alcoolisme.
C’est à cette époque que les sondages, nouvel outil venu des États-Unis, permettent d’objectiver l’opinion publique et posent régulièrement la question de la peine de mort. La courbe du soutien à l’abolition s’élève à partir du milieu des années 1950 : de 19 % en 1956, elle passe à 58 % en 1969, à la faveur de la prospérité économique retrouvée et de la contestation croissante des valeurs autoritaires. Nombre d’intellectuels s’engagent et influencent l’opinion par leurs œuvres, qu’il s’agisse des écrivains Albert Camus ou Marcel Aymé, du cinéaste André Cayatte ou de l’avocat Albert Naud. Avec le concile Vatican II (1962-1965), la diffusion d’un christianisme plus social et réformateur permet de rallier une partie des catholiques.
C’est à partir du début des années 1970, notamment après l’affaire de Clairvaux, pour laquelle Claude Buffet et Roger Bontems sont guillotinés, après trois ans sans exécution capitale, que la peine de mort regagne des partisans : 53 % sont en sa faveur en 1972, 62 % en septembre 1981, à la veille du vote de la loi d’abolition. Cette poussée s’observe alors même que de plus en plus d’autorités religieuses, d’associations et de personnalités publiques s’engagent contre la peine de mort.
Paradoxalement, l’abolition est ainsi votée dans un contexte de remontée des préoccupations sécuritaires. Mais que valent vraiment ces sondages ? Outre les traditionnelles critiques adressées à cet outil, les abolitionnistes soulignent l’écart existant entre ces chiffres et les réticences certaines des jurés à condamner à mort. Les condamnations capitales restent en effet exceptionnelles. Comme l’affirme Robert Badinter, la véritable abolition serait déjà en large partie à l’œuvre dans les prétoires : 16 condamnations pour l’ensemble des années 1970, et « seulement » 6 exécutions, alors que le thème de l’insécurité prospère dans les médias.
L’abolition est aussi tacitement acceptée par les électeurs, qui portent au pouvoir en 1981 un homme, François Mitterrand, et une majorité politique, qui n’ont pas fait mystère de leurs intentions en la matière. Certes, la peine de mort n’a sans doute pas été le déterminant majeur du vote, mais lors de l’émission télévisée « Cartes sur table », le candidat socialiste ne s’est pas dérobé, en affirmant clairement sa position. Durant la campagne des législatives de 1981 consécutive à la dissolution, le ministre de la justice Maurice Faure présente l’abolition comme un chantier prioritaire, ce qui ne nuit en rien à l’écrasante victoire socialiste. Fort de cette onction démocratique, son successeur, Robert Badinter, a cependant conscience qu’il faut saisir le moment. L’Assemblée nationale, et de manière plus étonnante le Sénat pourtant acquis à la droite, votent l’abolition à la fin du mois de septembre 1981.
Il faudra attendre 1998 pour voir, dans les sondages, la courbe du soutien à la peine de mort croiser celle du soutien à l’abolition. Dans le même temps, cependant, le thème du rétablissement de la peine capitale ne fait plus recette chez les parlementaires, malgré le dépôt de quelques propositions de loi. Sur le long terme, les bénéfices politiques d’une prise de position abolitionniste semblent largement l’emporter sur un engagement inverse. Les associations abolitionnistes mobilisent bien davantage et sont plus structurées que les partisans de la peine de mort. Ce paradoxe est-il la preuve de la superficialité de l’adhésion à la peine capitale, voire de la dissonance cognitive de citoyens qui affirment la soutenir mais qui admirent les responsables qui s’y opposent ?
Dans les dernières enquêtes, le soutien à la peine capitale progresse, passant d’un minimum de 32 % en 2009 à 49 % lors de la dernière mesure de ce type, en février 2025. Comparer les sondages de 1981, alors que des exécutions étaient encore possibles, et ceux de 2025, alors que la peine de mort s’enfonce dans un passé de plus en plus lointain et que la probabilité d’un rétablissement apparaît illusoire, n’a cependant guère de sens. On peut y voir surtout un corollaire du succès actuel des thèses sécuritaires, qui trouvent à s’épanouir dans d’autres dispositifs.
Nicolas Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:32
Jean Viviès, Professeur de littérature britannique, Aix-Marseille Université (AMU)
Que sait-on vraiment de ce tueur en série ? Pas grand-chose : même son nom est une invention. Aujourd’hui, l’enquête se poursuit au travers des recherches de la science forensique – l’ensemble des méthodes d’analyse fondées sur les sciences afin de servir au travail d’investigation –, mais aussi du côté de la stylométrie – un domaine de la linguistique qui utilise la statistique pour décrire les propriétés stylistiques d’un texte. Sans compter le travail des historiennes et historiens qui se penchent aussi sur les victimes du tueur, largement invisibilisées, et réduites non sans misogynie à un statut de « femmes de mauvaise vie ».
Jack l’Éventreur (« Jack the Ripper ») fascine toujours, à en juger par le nombre de livres et de films qui lui sont consacrés. Il y a eu depuis, malheureusement, bien d’autres tueurs en série, mais dans l’imaginaire il reste le premier à être qualifié ainsi, et le plus célèbre. La raison principale est sans doute qu’il n’a jamais été identifié. Une centaine de noms de suspects ont été évoqués, à l’époque des enquêtes puis au fil des décennies : immigrés, médecins, aristocrates, et certains un peu plus vraisemblables que d’autres, Aaron Kosminski – un barbier polonais –, Montague Druitt, un avocat, ou encore le peintre Walter Sickert, mais aucune certitude n’a pu être établie. L’auteur de Sherlock Holmes, Conan Doyle, s’amusa même à imaginer un assassin féminin : « Jill the Ripper ».
Certaines pistes de recherche actuelles s’appuient sur des travaux scientifiques et proposent des angles nouveaux.
Parmi les matériaux à exploiter se trouve la masse de lettres signées Jack l’Éventreur. La première de ces lettres est célèbre, adressée à « Dear Boss », le 25 septembre 1888. Sur un ton provocateur et théâtral, l’auteur y nargue la police et annonce d’autres meurtres. Depuis quelques années, la linguistique « forensique », discipline nouvelle, s’est penchée sur cette lettre et sur celles qui suivirent, notamment sur les trois qui semblent à l’analyse émaner de la même plume, « Saucy Jacky », le 1er octobre, et « From Hell », le 15 octobre.
Ces trois lettres ont été reçues avant que l’affaire ne soit rendue publique et sont donc les plus intéressantes. Les linguistes ont néanmoins étudié tous les textes prétendument écrits par « Jack l’Éventreur » afin de déterminer s’ils avaient été rédigés par la même personne. Un corpus Jack the Ripper a été compilé à partir des 209 textes comportant au total 17 643 mots. Andrea Nini de l’Université de Manchester a notamment fait progresser la question avec les outils numériques de la stylométrie.
On rappellera ici que, en fait, Jack l’Éventreur n’est pas le nom de l’assassin, mais celui de l’auteur de la première lettre, très probablement écrite par un journaliste au moment des faits et envoyée, non pas à la police mais, élément révélateur, à une agence de presse londonienne, la Central News Agency.
Toujours dans le domaine de la science forensique, les progrès en matière de recherche d’ADN ont semblé un temps de nature à élucider l’affaire. L’étude d’un ADN, prélevé sur le châle taché retrouvé près du corps d’une victime (Catherine Eddowes) et récupéré par un inspecteur de police de l’époque, a été confiée à Jari Louhelainen, biochimiste de l’Université John-Moores de Liverpool en collaboration avec David Miller, spécialiste de la reproduction à l’Université de Leeds. Ils ont extrait du châle de l’ADN mitochondrial et ont décelé une correspondance (« match ») entre une descendante de la victime et celle d’un suspect déjà bien repéré, un immigré polonais (Kosminski).
Russell Edwards, le commanditaire de ces recherches et actuel propriétaire du châle, a présenté cette découverte dans son livre Naming Jack the Ripper, paru en 2014. Mais d’autres spécialistes soulignent la provenance plutôt douteuse du morceau de tissu (a-t-il réellement été récupéré sur le lieu du crime ?) et le fait qu’il ait été beaucoup manipulé pendant plus d’un siècle. Aucune certitude ne peut en fait être tirée de ces analyses ADN.
D’autres tentatives, telles celle de la romancière Patricia Cornwell, à partir d’échantillons d’ADN prélevés sur un timbre et sur des enveloppes, et mettant en cause le peintre Walter Sickert, ont été largement diffusées dans deux de ses livres dont Ripper : The Secret Life of Walter Sickert (2017), mais elles n’ont pas convaincu la plupart des experts.
La nouveauté la plus importante se trouve du côté des études historiques proprement dites où une recherche récente a changé la focale, en s’intéressant non plus à la galaxie des suspects mais aux victimes, notamment aux cinq femmes des meurtres dits « canoniques ». Ces cinq femmes ont été jusqu’ici trop vite assimilées à des prostituées en raison de leur pauvreté. Pour trois d’entre elles, il n’existe pas d’élément avéré qui confirme leur condition de prostituées. Mary Ann Nichols, Annie Chapman, Elizabeth Stride, Catherine Eddowes et Mary Jane Kelly, puisque tels sont leurs noms, n’étaient pas véritablement des prostituées. Cette idée très répandue a été déconstruite, notamment par Hallie Rubenhold dans son livre The Five : The Untold Lives of the Women Killed by Jack the Ripper (2019).
L’historienne montre que c’est à propos de deux des victimes seulement, Mary Ann Nichols et la plus jeune, Mary Jane Kelly, que des preuves attestent qu’elles ont exercé de manière régulière la prostitution. Pour les trois autres, rien ne permet de l’affirmer. Il s’agissait avant tout de femmes pauvres, sans logement fixe, qui affrontaient une situation économique et sociale des plus difficile dans l’East End londonien des années 1880. Les registres de la police du temps de même que les différents témoignages ne confirment pas leur état de prostituées. Cette représentation s’est installée, inspirée de récits à sensation et de préjugés et stéréotypes assimilant pauvreté et immoralité. Leurs vies sont davantage marquées par la misère, l’alcoolisme, la violence domestique et l’instabilité sociale.
La majeure partie de la littérature consacrée à Jack l’Éventreur s’est fixée sur le tueur sans visage et au nom fictionnel au détriment de ses victimes. Un contre-récit des meurtres est néanmoins possible, rendant leur place à des victimes sans défense, accablées par l’extrême pauvreté dans le Londres victorien. Y voir, au-delà d’une fascinante énigme criminelle, qui demeure, une série de féminicides à resituer dans le cadre d’une histoire sociale et non dans les faits divers criminels change la perspective : on s’intéresse dès lors moins à la manière dont ces victimes sont mortes qu’à la manière dont elles ont vécu.
Certains écrivains avaient anticipé les travaux des historiens. Ainsi, Jack London, dans son livre quasi contemporain des événements The People of the Abyss (le Peuple de l’abîme, 1903), a décrit la misère extrême du quartier de Whitechapel après s’y être lui-même plongé et a dénoncé les conditions économiques qui exposaient les femmes à la violence.
Avant lui, George Bernard Shaw avait écrit au journal The Star dès les premiers meurtres en soulignant qu’ils avaient au moins le mérite de mettre en lumière les conditions de vie misérables de l’East End, que la bonne société victorienne ignorait. Ces crimes, qui se caractérisaient par des mutilations sexuelles, s’inscrivaient par ailleurs dans une époque où la sexualité était un enjeu essentiel de contrôle social.
Les travaux des chercheurs continuent dans leur registre propre de s’inscrire dans cette fascination de l’« underworld », un monde sous le monde. En parallèle la postérité du personnage de Jack l’Éventreur conserve depuis près de cent trente ans sa place dans l’imaginaire occidental. La littérature et le cinéma s’étaient vite emparés du personnage.
Reprenant l’intrigue imaginée, en 1913, par la romancière Marie Belloc, Alfred Hitchcock réalisa en 1927 The Lodger, dans lequel un mystérieux locataire assassine des jeunes femmes dans Londres. Certains films restent dans les mémoires comme From Hell (2001), d’Albert et Allen Hughes, ou Time After Time (C’était demain, 1979), de Nicholas Meyer. On y suit Jack l’Éventreur dans un San Francisco moderne, pourchassé par H. G. Wells auquel il a volé la machine à voyager dans le temps. Les téléfilms et séries, bandes dessinées ou jeux vidéo abondent. C’est donc à la fiction, qui a rivalisé d’emblée avec la science et à qui il revint aussi d’incarner l’Éventreur, de lui donner un visage et une identité qui ont échappé encore à ce jour aux multiples enquêtes, nourries de techniques et de perspectives nouvelles.
Les recherches des historiens, des linguistes, des biochimistes et des spécialistes de « ripperology » (terme dû à l’écrivain anglais Colin Wilson) se poursuivent ou se réorientent, modifiant au fil des décennies notre vision de la célèbre affaire. Pour autant, l’icône culturelle qu’est devenu Jack l’Éventreur, presque un personnage conceptuel, n’y fait pas obstacle en offrant à nombre de travaux novateurs la visibilité qu’ils méritent. Jack l’Éventreur au nom inventé est comme devenu l’inventeur de toute une nouvelle sphère de savoirs.
Jean Viviès ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.10.2025 à 16:28
Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon
Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.
Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.
Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).
Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.
Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.
Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.
Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).
Heureusement, des solutions existent pour recycler la chaleur fatale.
L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.
Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.
Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.
Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.
Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.
Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.
Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.
À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir
Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :
Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).
La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.
On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.
Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.
Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.
Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».
Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.
Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.
Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)