08.02.2026 à 18:22
Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de Lyon

Artificial Intelligence (AI) is now part of our everyday life. It is perceived as “intelligence” and yet relies fundamentally on statistics. Its results are based on previously learned patterns in data. As soon as we move away from the subject matter it has learned, we’re faced with the fact that there isn’t much that is intelligent about it. A simple question, such as “Draw me a skyscraper and a sliding trombone side-by-side so that I can appreciate their respective sizes” will give you something like this (this image has been generated by Gemini):
This example was generated by Google’s model, Gemini, but generative AI dates back to the launch of ChatGPT in November 2022 and is in fact only three years old. The technology has changed the world and is unprecedented in its adoption rate. Currently, 800 million users rely on ChatGPT every week to complete various tasks, according to OpenAI. Note that the number of requests tanks during the school holidays. Even though it’s hard to get hold of precise figures, this goes to show how widespread AI usage has become. Around one in two students regularly uses AI.
Three years is both long and short. It’s long in a field where technology is constantly changing, and short when it comes to social impacts. And while we’re only just starting to understand how to use AI, its place in society has yet to be defined – just as AI’s image in popular culture has yet to be established. We’re still wavering between extreme positions: AI is going to outsmart human beings or, on the contrary, it’s merely a useless piece of shiny technology.
Indeed, a new call to pause AI-related research has been issued amid fears of a superintelligent AI. Others promise the earth, with a recent piece calling on younger generations to drop higher education altogether, on the grounds that AI would obliterate university degrees.
Ever since generative AI became available, I have been conducting an experiment consisting of asking it to draw two very different objects and then checking out the result. The goal behind these prompts of mine has been to see how the model behaves once it departs from its learning zone. Typically, this looks like a prompt such as ‘Draw me a banana and an aircraft carrier side by side so that we can see the difference in size between the two objects’. This prompt using Mistral gives the following result:
I have yet to find a model that produces a result that makes sense. The illustration at the start of the article perfectly captures how this type of AI works and its limitations. The fact that we are dealing with an image makes the system’s limits more tangible than if it were to generate a long text.
What is striking is the outcome’s lack of credibility. Even a 5-year-old toddler would be able to tell that it’s nonsense. It’s all the more shocking that it’s possible to have long complex conversations with the same AIs without the impression of dealing with a stupid machine. Incidentally, such AIs can pass the bar examination or interpret medical results (for example, identifying tumours on a scan) with greater precision than professionals.
The first thing to note is that it’s tricky to know exactly what’s in front of us. Although AIs’ theoretical components are well known, a project such as Gemini – much like models such as ChatGPT, Grok, Mistral, Claude, etc. – is a lot more complicated than a simple Machine Learning Lifecycle (MLL) coupled with a diffusion model.
MML are AIs that have been trained on enormous amounts of text and generate a statistical representation of it. In short, the machine is trained to guess the word that will make the most sense from a statistical viewpoint, in response to other words (your prompt).
Diffusion models that are used to generate images work according to a different process. The process of diffusion is based on notions from thermodynamics: you take an image (or a soundtrack) and you add random noise (snow on a screen) until the image disappears. You then teach a neuronal network to reverse that process by presenting these images in the opposite order to the noise addition. This random aspect explains why the same prompt generates different images.
Another point to consider is that these prompts are constantly evolving, which explains why the same prompt will not produce the same results from one day to the next. Changes might be brought manually to singular cases in order to respond to user feedback, for example.
As a physician, I will thus simplify the problem and consider we’re dealing with a diffusion model. These models are trained on image-text pairs. It is therefore safe to assume that Gemini and Mistral models have been trained on dozens (or possibly hundreds) of thousands and images of skyscrapers (or aircraft carriers) on the one hand, and on a large mass of slide trombones on the other – typically, close-ups of slide trombones. It is very unlikely that these two objects are represented together in the learning material. Hence, the model doesn’t have a clue about these objects’ relative dimensions.
Such examples go to show how models have no internal representation or understanding of the world. The sentence ‘to compare their sizes’ proves that there is no understanding of what is written by machines. In fact, models have no internal representation of what “compare” means other than the texts in which the term has been used. Thus, any comparison between concepts that do not feature in the learning material will produce the same kinds of results as the illustrations given in the examples above. It will be less visible but just as ridiculous. For example, this interaction with Gemini: ‘Consider this simple question: “Was the day the United States was established a leap year or a normal year?"‘
When consulted with the prefix CoT (Chain of Thought, a recent development in LLMs whose purpose is to break down a complex question into a series of simpler sub-questions), the modern Gemini language model responded: "The United States was established in 1776. 1776 is divisible by 4, but it is not a century year (100 years), so it is a leap year. Therefore, the day the United States was established was in a normal year. ”
It is clear that the model applies the leap year rule correctly, thereby offering a good illustration of the CoT technique, but it draws the wrong conclusion in the final step. These models do not have a logical representation of the world, but only a statistical approach that constantly creates these types of glitches that may seem ‘off the mark’.
This realisation is all the more beneficial given that today, AI writes almost as many articles published on the Internet as humans. So don’t be surprised if you find yourself surprised when reading certain articles.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Frédéric Prost ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.02.2026 à 18:10
Jean-Marc Figuet, Professeur d'économie, ISG Lab, Université de Bordeaux

Une affirmation revient souvent : les criminels du monde entier utilisent les cryptomonnaies pour blanchir l’argent, en toute impunité. En effet, s’il est facile de tracer les échanges financiers via les blockchains, impossible d’identifier les personnes sans la coopération des acteurs comme Binance, Tether ou les prestataires de paiements. Car sur la blockchain, on peut tout voir sans savoir qui agit.
La promesse des blockchains publiques, comme Bitcoin ou Ethereum, est aussi simple qu’audacieuse : chaque transaction y est enregistrée, horodatée et visible par tous. À première vue, c’est un avantage décisif pour les enquêteurs financiers. À première vue seulement, car cette transparence se révèle souvent trompeuse. Si le registre décentralisé est public, les identités derrière les adresses restent inaccessibles sans intermédiaire.
Publiée en novembre 2025, l’enquête internationale The Coin Laundry (ICIJ) montre comment ce « paradoxe crypto » alimente une économie criminelle mondialisée, et comment l’identification des personnes dépend, en pratique, du bon vouloir d’intermédiaires privés, comme les plateformes (Binance) ou les guichets de conversion crypto-to-cash desks. Ces guichets sont des opérateurs, tels que Huione Guarantee ou Tether Operations Limited, souvent localisés dans des paradis fiscaux. Ces derniers convertissent des cryptoactifs en monnaie fiduciaire – euros, dollars – ou en actifs tangibles – or, immobilier – sans vérification systématique d’identité.
On peut tout voir sans savoir qui agit. Car la blockchain affiche seulement des transferts de crypto, pas des identités. Cet écart entre la traçabilité technique et la responsabilité juridique permet aux réseaux criminels de prospérer ; la transparence des flux ne garantit ni l’identification des acteurs, ni l’effectivité des contrôles.
Alors, comment concrètement ces transactions fonctionnent-elles ?
Sur une blockchain publique, l’unité de base n’est pas l’individu, mais l’adresse publique, c’est-à-dire une suite de caractères. Par exemple, 1A1zP1eP5QGefi2DMPTfTL5SLmv**** sur la blockchain Bitcoin. Cette adresse publique se crée en quelques secondes, sans pièce d’identité, en quantité illimitée. Elle est associée à une clé privée, par exemple L5oLkpXH3Z55rVgQv8gQJQ5v9X8fLpW7tQeNqW3TbKbYsZ1P**** qui elle, n’est connue que du propriétaire des cryptoactifs.
Les réseaux criminels exploitent cette pseudonymie en multipliant les adresses, en fragmentant les montants et en automatisant les transferts via des « services » variés – mixing, swaps décentralisés ou bridges. Le plus connu est le mixing, utilisé pour brouiller les traces des transactions en crypto.
Le mixeur Tornado Cash a permis le blanchiment de plusieurs milliards de dollars en 2022 et 2023, dont certains directement liés à des cyberattaques et des ransomwares. En 2022, le groupe Lazarus, lié à la Corée du Nord, a utilisé un mixeur pour blanchir 615 millions de dollars (plus de 520 millions d’euros) volés lors du piratage du jeu Axie Infinity. Les hackers ont subtilisé des Ethereum (ETH) et les ont envoyés à Tornado Cash qui a fragmenté puis redistribué ces ETH vers des centaines d’adresses différentes, rendant le suivi impossible. Les fonds ont ensuite été convertis en monnaie fiduciaire via des guichets asiatiques ou réinvestis dans des casinos en ligne.
Les cellules de renseignements publiques comme Tracfin en France, Europol dans l’Union européenne, ou privées telles que Chainanalysis utilisée par le FBI ou Interpol peuvent identifier des schémas de blanchiment sur la blockchain. Mais relier une adresse à une identité relève de la seule volonté de l’intermédiaire.
Un exemple rapporté par l’ICIJ illustre ce piège. Entre juillet 2024 et juillet 2025, des adresses associées au groupe cambodgien Huione ont transféré au moins 408 millions de dollars (345,8 millions d’euros) en stablecoins USDT vers des comptes clients sur Binance. Ces transactions se sont poursuivies malgré le classement d’Huione en tant qu’entité majeure de blanchiment d’argent, ou primary money laundering concern, dès le 1er mai 2025, par le Financial Crimes Enforcement Network, un département du Trésor américain.
La visibilité des transactions n’est pas en cause. Ce qui l’est, c’est la difficulté à convertir cette visibilité en attribution fiable et en action rapide, comme le gel, la saisie ou les poursuites.
Tant que les fonds en cryptomonnaie restent dans la blockchain (« on-chain »), leur traçabilité est totale. En revanche, dès que les fonds sortent de la blockchain (« off-chain ») par une conversion en monnaie légale ou l’achat d’actifs financiers… tout dépend des intermédiaires (plateformes, prestataires de paiement…). Ces derniers jouent un rôle comparable à celui de douaniers. Eux seuls peuvent relier une adresse à une identité, condition indispensable pour déclencher une action judiciaire.
À lire aussi : Comment les trafiquants de cocaïne blanchissent l’argent des cartels
L’enquête de l’ICIJ insiste sur une réalité moins technologique qu’institutionnelle. Même lorsque des signaux d’alerte existent, la réaction des intermédiaires peut être tardive, incomplète ou absente. Leur activité demeure structurée par un modèle économique fondé sur les volumes et les frais.
Binance, la principale plateforme, a généré plus de 17 milliards de dollars (14,4 milliards d’euros) de commissions sur les transactions en 2023. Cela crée une tension durable entre la croissance des flux, génératrice de revenus, et la traque des flux illicites. Comme le secret bancaire suisse dans les années 1990, les intermédiaires crypto aujourd’hui privilégient la rentabilité à court terme au détriment de la lutte contre la criminalité financière.
La différence ? Leur modèle est encore plus difficile à réguler, car il repose sur une technologie conçue pour contourner les contrôles.
Trois obstacles se cumulent.
Complexité technique
Les fonds peuvent changer de libellé, circuler via des services de swaps qui permettent d’échanger instantanément une cryptomonnaie contre une autre, franchir des ponts entre blockchains, ou emprunter des infrastructures décentralisées. Chaque étape n’efface pas la trace, mais multiplie les embranchements, donc les hypothèses, et accroît la difficulté probatoire.
Fragmentation juridique
Les plateformes, les prestataires et les serveurs sont dispersés géographiquement. L’entraide judiciaire internationale est lente. Et certaines juridictions sont peu coopératives, notamment dans les paradis fiscaux.
Asymétries économique et temporelle
Un criminel peut créer une nouvelle adresse en quelques clics alors qu’un enquêteur doit engager des procédures multiples dont l’issue est incertaine. L’ICIJ souligne l’émergence de crypto-to-cash desks qui permettent de convertir de grosses sommes de crypto en cash, avec des contrôles variables.
Un indicateur aide à saisir l’ampleur du phénomène. Pour 2024, l’Internet Crime Complaint Center du FBI estime à 9,3 milliards de dollars (7,8 milliards d’euros) les pertes déclarées par des victimes de crimes liés aux cryptomonnaies. Au-delà du chiffre, cela dit la vitesse d’adaptation des fraudeurs et la pression sur les capacités d’enquête.
L’Union européenne a créé deux instruments majeurs pour renforcent la traçabilité aux points d’entrée et de sortie du système régulé.
Le règlement européen Markets in Crypto-Assets, dit MiCA encadre les prestataires de services sur crypto-actifs via un régime d’autorisation depuis le 30 décembre 2024. Il crée de fait des exigences de gouvernance et des obligations de conformité.
À lire aussi : Comment les trafiquants de cocaïne blanchissent l’argent des cartels
La règle du « voyage des fonds » (règlement UE 2023/1113) impose, depuis le 30 décembre 2024, que certaines informations accompagnent les transferts afin de réduire l’opacité des flux dans les circuits régulés.
Leurs limites sont intrinsèques. Ils ne couvrent ni les échanges de pair à pair qui se réalisent sans intermédiaire (via des groupes Telegram), ni les plateformes offshore, localisées dans des paradis fiscaux, ni les portefeuilles auto-hébergés (MetaMask, Ledger…) où l’utilisateur contrôle seul ses clés.
En clair, la réglementation sécurise le pont sans combler les fossés.
Affirmer que « la blockchain est transparente » est un leurre. Cette transparence ne porte que sur les mouvements de fonds, jamais sur les acteurs et sur leur identité. La lutte contre le blanchiment se joue aux marges du système, c’est-à-dire dans la rigueur des contrôles Know Your Customer, la réactivité des plateformes, et la coopération internationale.
Trois priorités semblent aujourd’hui s’imposer :
harmoniser les règles pour éviter l’arbitrage entre des juridictions permissives et d’autres, strictes ;
doter les enquêteurs de moyens techniques et juridiques adaptés ;
sanctionner réellement les intermédiaires défaillants, afin de transformer la transparence en responsabilité.
Au vu de l’expérience de la coopération internationale pour lutter contre les paradis fiscaux, on peut supposer que le chemin sera, sans nul doute, périlleux pour atteindre ces priorités. Sans elles, la blockchain restera un registre ouvert où les criminels savent tourner les pages sans y laisser leur nom.
Jean-Marc Figuet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.02.2026 à 14:20
Boris Kosoy, Directeur de l'Institut du froid, des cryotechnologies et de l'écoénergétique à l'Université nationale technologique, Université nationale technologique d'Odessa
Jocelyn Bonjour, Professeur des universités au CETHIL (UMR5008), INSA Lyon – Université de Lyon; Université Jean Moulin Lyon 3
Sylvain Serra, Maître de conférences au Laboratoire de Thermique, Energétique et Procédés (LaTEP), Université de Pau et des pays de l’Adour (UPPA)
La guerre en Ukraine rappelle la vulnérabilité des infrastructures énergétiques, qui peuvent alors se muer en cibles militaires, pourtant proscrites en tant que telles par le droit des conflits armés : terminaux gaziers, centrales nucléaires, lignes à haute tension… Toutefois, des solutions existent pour rendre notre système énergétique plus résilient, par exemple celles fondées sur le stockage de chaleur plutôt que le simple transport d’électricité ou de gaz. Ce domaine demeure malheureusement, à l’heure actuelle, un impensé des politiques de transition énergétique.
Lorsque la Russie a entrepris de frapper systématiquement les infrastructures énergétiques ukrainiennes, des millions de personnes ont été brutalement plongées dans l’obscurité au cœur de l’hiver. Des postes électriques ont explosé, des transformateurs ont brûlé, les systèmes de chauffage se sont arrêtés, laissant des communautés entières sans défense. Ces attaques allaient bien au-delà de la destruction matérielle : elles révélaient un danger longtemps ignoré en Europe, celui d’une énergie désormais militarisable.
Pendant des décennies, les débats européens sur la sécurité énergétique ont porté sur les marchés, l’approvisionnement en combustibles et la décarbonation. Or la guerre en Ukraine a mis en lumière une vulnérabilité que ni les stocks stratégiques ni les mécanismes de régulation des prix ne peuvent corriger : la fragilité physique du réseau électrique.
À mesure que les systèmes deviennent plus numériques, plus interconnectés et plus essentiels à tous les aspects de la vie quotidienne, ils sont de plus en plus exposés aux cyberattaques, mais également aux missiles, aux sabotages et aux phénomènes climatiques extrêmes.
Cette nouvelle réalité impose une question clé. Lorsque les infrastructures électriques deviennent une cible militaire stratégique, comment renforcer la résilience énergétique d’un État ?
La guerre en Ukraine illustre de manière directe comment les conflits contemporains visent les fondements mêmes du fonctionnement d’un pays. Les frappes russes ont ciblé les centrales électriques, les corridors à haute tension, les postes de transformation, avec un objectif clair : déstabiliser l’ensemble de l’appareil d’État en perturbant l’alimentation énergétique.
De grandes centrales thermiques ont été délibérément mises à l’arrêt pour isoler des régions entières. Les installations hydrauliques du Dniepr ont également été frappées, créant des risques d’inondations massives et de coupures prolongées. Même les lignes d’alimentation des centrales nucléaires – jusqu’ici considérées comme intouchables – ont été visées à plusieurs reprises.
Ces attaques s’inscrivent dans une stratégie cohérente. En faisant tomber l’électricité, on fait tomber des services essentiels : les hôpitaux basculent sur des groupes électrogènes à l’autonomie limitée, les stations de pompage – qui permettent l’approvisionnement en eau potable – cessent de fonctionner, les télécommunications s’interrompent, les processus industriels se figent…
Les villes retrouvent soudain leur forme antérieure à l’ère électrique. L’électricité devient alors un levier militaire à part entière.
Ce scénario ne concerne pas seulement le territoire ukrainien. L’Europe possède des réseaux électriques très centralisés, hautement numérisés et déjà à des niveaux de charge élevés, avec des marges de manœuvre physiques et opérationnelles limitées.
Même en l’absence de conflit armé, ces réseaux sont exposés à une combinaison de risques : cyberattaques, actes de sabotage, phénomènes climatiques extrêmes, montée en puissance de l’électrification et dépendance accrue aux technologies numériques.
Les vulnérabilités européennes ressemblent à celles de l’Ukraine, mais leur origine est différente. En Ukraine, les vulnérabilités du système énergétique résultent à la fois d’un héritage de réseaux centralisés, d’un sous-investissement prolongé et de leur exploitation délibérée comme cibles militaires. En Europe de l’Ouest, elles proviennent principalement de choix de conception effectués en temps de paix.
Une grande partie des infrastructures européennes a été construite dans les années 1970, pendant une période où le risque géopolitique se résumait aux chocs pétroliers. Les grands actifs centralisés – centrales nucléaires françaises, terminaux GNL allemands, nœuds de transport d’électricité – ont d’abord été conçus pour être efficients, dans une logique d’optimisation économique et de fonctionnement en régime normal. Pourtant, une attaque ou un incident local peut entraîner des effets en cascade et en faire des points de défaillance majeurs.
La numérisation, tout en améliorant la gestion du réseau – par exemple grâce aux compteurs communicants qui permettent une meilleure visibilité des consommations, ou aux centres de pilotage du système électrique (ou dispatching) qui ajustent en temps réel l’équilibre entre production et demande – élargit le champ des menaces. Un simple piratage peut perturber le fonctionnement d’un poste électrique ou désorganiser la conduite du réseau, sans qu’aucune charge explosive ne soit déclenchée. Le changement climatique multiplie en outre les stress sur le réseau (par exemple, risque d’incendie ou de rupture du fait de la surchauffe), en particulier en Europe centrale et orientale.
Face à cela, l’Europe souffre de déficits structurels. L’Union européenne a développé des règles sectorielles pour le marché de l’électricité, la sécurité d’approvisionnement et, séparément, la cybersécurité. En revanche, elle ne s’est pas dotée d’un cadre transversal dédié à la résilience matérielle et opérationnelle des réseaux en situation de crise.
Elle ne dispose pas non plus d’une stratégie réellement coordonnée pour déployer des solutions de secours décentralisées (par exemple des micro-réseaux capables de fonctionner en « îlotage », des capacités locales de stockage d’énergie ou de chaleur, etc.), au-delà des réponses d’urgence comme le recours ponctuel à des groupes électrogènes. Enfin, l’Europe ne pratique que rarement des tests de résistance coordonnés (« stress tests », c’est-à-dire des exercices de crise et scénarios d’incident éprouvés de manière organisée). Faute de pilotage clair au niveau de l’UE, ce sujet demeure un impensé des politiques de transition énergétique.
Pourtant, garantir la stabilité du réseau électrique revient à garantir la continuité des industries et des services publics, de santé, mais aussi celle de la démocratie. La résilience énergétique est un élément central de la souveraineté d’un État.
À lire aussi : Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique
Le système énergétique européen est donc en transition, exposé à des menaces hybrides et engagé dans un mouvement de décentralisation, par exemple, avec la production décentralisée d’électricité photovoltaïque. Dans ce contexte, l’Europe ne doit pas seulement renforcer la résilience de son réseau électrique, mais également diversifier ses sources d’énergie et surtout ses modes de stockage de l’énergie.
Le stockage thermique (on parle de technologies TES, pour Thermal Energy Storage) désigne les moyens permettant d’accumuler un excès de production de chaleur pour la restituer plus tard, en fonction de la demande. Or, 50 % de la consommation d’énergie finale en Europe est utilisée pour le chauffage et le refroidissement. Stocker l’énergie directement sous forme de chaleur de façon décentralisée, au plus proche des consommateurs finaux, permet de répondre à une large partie des besoins sans passer par le réseau électrique.
Ces dispositifs, particulièrement robustes, sont déjà matures au plan technologique et ne nécessitent pas de terres rares, contrairement aux batteries électriques. Les TES offrent ainsi, pour des usages thermiques, une solution complémentaire aux batteries électriques. En ce sens, elles renforcent aussi indirectement la résilience du réseau électrique. De cette façon, ils peuvent réduire les pics de demande électrique, aussi bien en fonctionnement normal qu’en situation perturbée.
Trois grandes familles de TES existent :
Le stockage sensible (nommé d’après la « chaleur sensible », liée à l’augmentation de la température de fluides ou de matériaux – eau, céramique ou sels fondus pour des hautes températures), mais sans changement de phase (solide/liquide ou liquide/gaz). Il s’agit d’une solution simple, durable et à coûts maîtrisés.
Le stockage latent (d’après la « chaleur latente », en lien avec l’énergie absorbée ou libérée lors d’un changement de phase) est fondé sur des matériaux à changement de phase. Ces derniers offrent une forte densité énergétique, pour des variations de températures moindres.
Le stockage thermochimique, enfin, est fondé sur des réactions réversibles permettant un stockage longue durée avec un rendement élevé et sans pertes thermiques. C’est celui qui propose la densité énergétique la plus importante.
Les solutions fondées sur le stockage sensible sont aujourd’hui largement utilisées dans l’industrie alors que le stockage latent n’en est qu’aux prémices de la commercialisation. Les applications du stockage thermochimique, enfin, n’en sont encore qu’à la preuve de concept.
Ces technologies présentent des caractéristiques intéressantes : une longue durée de vie (plus de vingt à trente ans), une bonne résistance au cyclage thermique (c’est-à-dire, l’alternance de phases de charge et de décharge), l’absence de matériaux critiques, et enfin une sécurité d’utilisation intrinsèque.
Leur conception physique relativement simple ainsi que leur compatibilité avec les réseaux de chaleur, les procédés industriels ou encore les micro-réseaux (ou smart grids), intégrant des énergies renouvelables, renforcent encore leur intérêt.
Il est urgent de développer des écosystèmes de recherche transnationaux, y compris avec l’Ukraine, qui permettront de développer de nouvelles solutions TES innovantes. Le projet franco-ukrainien Nadiya, auquel nous participons, illustre cette dynamique. Ce projet réunit l’Université nationale de technologie d’Odessa, l’Université de Pau et des Pays de l’Adour et l’Insa Lyon afin de développer des systèmes de stockage d’énergie basés sur des matériaux à changement de phase avancés.
Dans ce projet, les chercheurs ukrainiens apportent des données empiriques uniques sur le fonctionnement des infrastructures sous attaque et les besoins thermiques en situation de crise. Ces enseignements sont précieux pour l’Europe, confrontée elle aussi à un risque énergétique accru.
À lire aussi : Le stockage massif d’électricité, brique indispensable de la flexibilité pour atteindre la neutralité carbone
Du point de vue technique, le stockage thermique ne résoudra pas tout, mais sa robustesse, sa durée de vie et son indépendance vis-à-vis des matériaux critiques en font un levier important d’autonomie et de stabilité.
L’expérience ukrainienne le montre : même lorsque l’électricité revenait par intermittence, de nombreuses installations industrielles devaient interrompre leur production, faute de chaleur. Dissocier la stabilité thermique de la stabilité électrique favorise ainsi la résilience énergétique globale.
Pourtant, l’Europe peine encore à intégrer le TES dans ses stratégies nationales. Son déploiement souffre de normes incomplètes, d’un manque de projets pilotes et d’une reconnaissance insuffisante au niveau politique. C’est regrettable.
En pratique, il conviendrait de renforcer la planification régionale de la résilience et de pratiquer régulièrement des tests de résistance (« stress tests ») et de sensibiliser davantage le grand public. À une échelle institutionnelle, la coopération entre les ministères nationaux de l’énergie et de la défense mériterait d’être renforcée.
Le Vieux Continent est aujourd’hui confronté à un choix déterminant : continuer à considérer l’énergie comme une simple marchandise, ou la reconnaître comme l’un des piliers fondamentaux de sa sécurité collective, au même titre que la défense ou la santé publique.
À lire aussi : La thermodynamique, cette science méconnue dont dépend la transition écologique
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.