URL du flux RSS

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

10.08.2025 à 14:17

Photovoltaïque et réseau électrique : comment une IA fiable et transparente pourrait faciliter la décarbonation

Gabriel Kasmi, Chercheur postdoctoral en IA appliquée au système électrique, Mines Paris - PSL
Les énergies renouvelables sont souvent accusées de déstabiliser le réseau électrique. Pour gérer une production décentralisée et intermittente, l’IA a un rôle à jouer.
Texte intégral (2413 mots)

Les énergies renouvelables sont souvent accusées de déstabiliser le réseau électrique. Des outils d’intelligence artificielle permettent de localiser les installations photovoltaïques, facilitant ainsi le suivi de leur déploiement et assurant leur insertion sans heurts au réseau électrique.


Le photovoltaïque est une source d’électricité renouvelable profondément décentralisée. De petite taille mais représentant 99 % des systèmes raccordés au réseau électrique, les installations en toiture chez les particuliers ou dans le tertiaire (ombrières, supermarchés…) ont un poids croissant sur réseau électrique.

Hier centralisée, la production électrique est désormais répartie entre des grandes centrales et des centaines de milliers de petites installations. Ainsi, l’équilibrage du système – essentiel afin d’éviter les blackouts – nécessite de nouveaux moyens afin de tenir compte de cette production décentralisée.

Équilibrer la production d’électricité en intégrant la production solaire décentralisée est tout à fait possible en principe. Encore faut-il savoir où les panneaux sont installés et quelle taille ils font. L’intelligence artificielle (IA) peut être mise à contribution pour automatiser ce suivi… à condition que la fiabilité des données puisse être garantie.

L’intégration des renouvelables au réseau électrique : des défis maîtrisables

Historiquement, la production d’électricité provient des centrales reliées au réseau de transport (haute tension), avant d’être acheminée vers le réseau de distribution (basse tension) et les gros consommateurs industriels. La production était « pilotable », c’est-à-dire que l’on peut l’ajuster assez rapidement en fonction de la demande.

L’essor de l’éolien terrestre et du solaire photovoltaïque, majoritairement raccordés au réseau de distribution, a profondément modifié cette organisation. Aujourd’hui, la production pilotable s’ajuste à une « demande nette », c’est-à-dire à la différence entre la consommation et la production renouvelable.

Par exemple, la demande française en électricité est historiquement sensible à la température (chauffage, climatisation), et la production renouvelable est sensible aux variables climatiques. Cette variabilité n’est pas problématique en soi : l’important est qu’une filière soit observable, c’est-à-dire que l’on peut mesurer ou estimer avec précision sa production – et quantifier les incertitudes de production.

Or actuellement, le photovoltaïque manque d’observabilité, principalement en raison d’une caractérisation incertaine du parc existant de systèmes.

Le photovoltaïque est en effet caractérisé par une très grande variété de systèmes, allant de grandes centrales à des installations sur des toitures individuelles. Une telle diversité d’installations facilite le déploiement rapide à grande échelle et fait du photovoltaïque un vecteur indispensable de la décarbonisation du système électrique, mais cette même caractéristique rend le suivi de son déploiement difficile. Ainsi, 99 % des installations photovoltaïques, représentant un cinquième de la puissance installée, sont ainsi installées sur des toitures (résidentielles ou tertiaires) de manière totalement décentralisée (à la différence par exemple des centrales au sol pour lesquelles les appels d’offres sont centralisés, et donc les capacités mieux connues).

Comment répertorie-t-on aujourd’hui les systèmes installés ?

Le cadastre photovoltaïque, qui recense toutes les installations photovoltaïques raccordées au réseau, est obtenu à partir des déclarations de raccordement et est sujet à des incertitudes, tant en termes de recensement des systèmes que d’estimation de leur puissance installée et de leur répartition géographique.

L’intelligence artificielle, appliquée à l’imagerie aérienne, offre une opportunité unique de cartographier automatiquement et à grande échelle les systèmes photovoltaïques, en estimant leur surface, leur orientation et leur puissance, permettant ainsi d’améliorer notre connaissance sur le nombre, la répartition et les caractéristiques des systèmes photovoltaïques sur toiture. De nombreux modèles ont ainsi été développés afin de cartographier des systèmes photovoltaïques sur toiture.

Cependant, et malgré leurs performances remarquables, ces modèles ne sont que rarement utilisés par les acteurs du système électrique pour compléter et corriger leurs registres, ce qui réduit l’impact de telles méthodes pour répondre au problème dit de l’observabilité du photovoltaïque sur toiture, et plus largement pour faciliter la décarbonation du système électrique.

Quels sont les freins à l’adoption de l’IA comme outil d’aide à la cartographie des systèmes photovoltaïque ?

Au cours de ma thèse, j’ai prêté une attention particulière à l’identification des verrous méthodologiques pour le déploiement d’outils d’IA permettant d’améliorer l’observabilité du photovoltaïque sur toiture. Je suis parti d’un paradoxe apparent : les outils et les méthodes pour détecter les panneaux solaires existaient déjà, mais les projets existants n’allaient pas au-delà des expérimentations en laboratoire. Plusieurs raisons peuvent expliquer ce décalage. D’une part, des facteurs institutionnels ou humains, liés au manque de formation à ces outils ou encore à la question de la responsabilité en cas d’erreur de l’IA. D’autre part, il existe des facteurs liés aux méthodes elles-mêmes, où il est apparu en particulier que la combinaison d’un manque de transparence et de fiabilité des algorithmes était un frein puissant à leur adoption.

Notre travail de recherche récent a ainsi proposé une méthode permettant d’améliorer à la fois la transparence et la fiabilité des algorithmes de cartographie. L’amélioration de la transparence repose sur des techniques d’IA explicable et permet de mieux comprendre comment « voit » le modèle. L’amélioration de la fiabilité repose sur cette meilleure connaissance du processus de décision du modèle.

Nous avons utilisé une technique d’IA explicable inédite qui permet de décomposer entre différentes échelles ce que « voit » l’IA sur l’image. Cette décomposition montre les cas où l’IA s’appuie sur des composantes de l’image facilement altérables (les hautes fréquences de l’image) s’apparentant à des motifs quadrillés dont la taille au sol est de l’ordre d’un mètre par un mètre. On peut facilement comprendre la corrélation entre les panneaux et les grilles, mais on comprend aussi que toutes les grilles ne sont pas des panneaux solaires ; et que tous les panneaux solaires ne présentent pas de grilles.

comment l’IA identifie un panneau solaire
Un exemple de détection expliquée par notre méthode d’explicabilité. À gauche se trouve l’image de panneau, telle que vue par le modèle. Les zones de cette image importantes pour la prédiction du modèle sont surimposées avec des couleurs chaudes (B). Cependant, cette surimposition n’indique pas quels sont les éléments importants dans ces régions. Sur l’animation (C), nous utilisons notre méthode d’explicabilité pour filtrer progressivement l’image jusqu’à ne retenir que ce qui est nécessaire pour que le modèle fasse sa prédiction. Ce filtrage montre que le modèle a besoin du motif en grilles (plutôt que la couleur ou la forme générale du panneau) pour identifier un panneau. Kasmi et collaborateurs, études de 2024 et 2025, Fourni par l'auteur

Cette méthode permet de mieux anticiper les occurrences de faux positifs mais aussi de faux négatifs.

Par exemple, dans une région où il y a de nombreuses verrières, qui présentent un motif grillé similaire, l’utilisateur anticipera une éventuelle surestimation du nombre réel de panneaux. À l’inverse, dans une région où les panneaux installés sont plus récents et donc plus susceptibles d’être sans cadre, on pourra s’attendre à une sous-estimation du nombre de panneaux. L’identification de potentiels faux négatifs est d’autant plus cruciale que s’il est simple d’éliminer les faux positifs par des post-traitements, il est plus difficile de lutter contre les faux négatifs.

Qu'est-ce que l'IA explicable ?

  • Les algorithmes de deep learning atteignent des performances remarquables dans de nombreuses applications. Ils sont néanmoins très complexes et donc difficiles à interpréter : on parle ainsi souvent de “boîtes noires”.
  • L’IA explicable (XAI) désigne l’ensemble des outils et méthodes permettant de décrire le fonctionnement d’un algorithme de deep learning de manière compréhensible pour un humain. Ces méthodes visent ainsi à améliorer la transparence des algorithmes, faciliter leur débogage, prévoir leurs cas d’échecs ou encore encourager leur adoption par des utilisateurs non spécialistes.
  • Dans notre cas, l’XAI nous a permis d’identifier un processus de décision (le modèle entraîné traduit souvent la présence d’un panneau PV avec un motif en forme de grille sur l’image), ce qui nous a permis d’identifier des cas d’échecs potentiels : la confusion de verrières pour des panneaux solaires.

Comment faire en sorte que l’IA reste fiable alors que les systèmes à détecter évoluent ?

Pour une IA, la fiabilité correspond à la faculté du système à atteindre une précision comparable à celle obtenue lors de l’entraînement initial du modèle, sur une période plus ou moins longue. En pratique, ces données d’entraînement sont figées, tandis que les données sur lesquelles le modèle est utilisé évoluent continuellement. Ainsi, la distribution statistique des données d’entraînement est de moins en moins représentative de celle des données sur lesquelles le modèle est déployé.

Il est établi que les IA sont sensibles à de tels changements de distributions (distribution shifts) et ainsi que les performances théoriques sont de moins en moins représentatives de la réalité. Pour la détection de panneaux solaires, on peut s’attendre à une baisse des détections liée au fait que le modèle n’a jamais « appris » à reconnaître les nouveaux panneaux. Les données d’entraînement sont ainsi biaisées par rapport aux conditions réelles, et les mises à jour des données d’entraînement veilleront à refléter la distribution actualisée des types de panneaux photovoltaïques.

L’IA seule ne résoudra pas l’ensemble des questions induites par la décarbonation du système électrique. Néanmoins, elle peut et doit y contribuer, compte tenu de la maturité des technologies, de la disponibilité des données et de l’appétence générale qui l’entoure. L’enjeu est double : d’une part, comprendre son fonctionnement et ses limites et, d’autre part, améliorer sa fiabilité, de sorte que l’adhésion à cette technologie soit fondée sur le discernement de l’utilisateur, plutôt que sur une foi aveugle en ces outils.

The Conversation

Gabriel Kasmi a reçu des financements de RTE et de l'Association Nationale de la Recherche et de la Technologie (thèse financée dans le cadre d'une convention Cifre). Il est membre du think tank Zenon.

06.08.2025 à 13:06

Nos GPS ont besoin de voir les trous noirs pour fonctionner, mais le wifi et les téléphones portables brouillent leur détection

Lucia McCallum, Senior Scientist in Geodesy, University of Tasmania
Nous dépendons des satellites en orbite autour de la Terre pour la navigation et les télécommunications. Eux dépendent de trous noirs lointains, mais le bruit radio émis par les activités humaines brouille l’image.
Texte intégral (1231 mots)
Certains trous noirs servent de points de repère à la géodésie pour localiser précisément la Terre dans l’espace. ESA/Hubble/L. Calçada (ESO), CC BY

La pollution électromagnétique a des conséquences inattendues. Par exemple, l’encombrement du spectre radioélectrique complique le travail des radiotélescopes. Ce que l’on sait rarement, c’est que ces télescopes ne servent pas seulement à faire de la recherche en astronomie : ils sont indispensables à certains services essentiels à notre civilisation… le GPS, par exemple !


Les scientifiques qui mesurent avec précision la position de la Terre sont aujourd’hui confrontés à un problème de taille. Leurs données sont essentielles au fonctionnement des satellites utilisés pour la navigation, pour les télécommunications et pour l’observation de la planète. Ce que l’on sait moins, c’est que ces mesures – issues d’une discipline appelée « géodésie » – dépendent du suivi de trous noirs situés dans des galaxies lointaines.

Le problème, c’est que, pour suivre ces trous noirs, les scientifiques ont besoin d’utiliser des bandes de fréquences spécifiques sur le spectre radioélectrique. Et avec la montée en puissance du wifi, des téléphones portables et d’Internet par satellite, il y a un embouteillage sur ces fameuses bandes de fréquence.

Pourquoi avons-nous besoin des trous noirs ?

Les satellites et les services qu’ils fournissent sont devenus essentiels à la vie moderne. De la navigation ultraprécise sur nos téléphones au suivi du changement climatique, en passant par la gestion des chaînes logistiques mondiales, le fonctionnement des réseaux électriques ou des transactions bancaires en ligne, notre civilisation ne peut pas se passer de ces compagnons en orbite.

Mais pour utiliser les satellites, il faut savoir précisément où ils se trouvent à tout moment. Leur positionnement repose sur ce qu’on appelle la « chaîne d’approvisionnement géodésique mondiale ».

Cette chaîne commence par l’établissement d’un référentiel de coordonnées stable sur lequel baser toutes les autres mesures. Comme les satellites se déplacent sans cesse autour de la Terre, que la Terre elle-même tourne autour du Soleil, et que le Soleil se déplace dans la galaxie, ce référentiel doit être soigneusement calibré à partir d’objets externes relativement fixes.

Or les meilleurs points d’ancrage que l’on connaisse sont les trous noirs, situés au cœur de galaxies lointaines, qui émettent des jets de rayonnement en dévorant des étoiles et du gaz.

Grâce à une technique appelée « interférométrie à très longue base », les scientifiques peuvent relier un réseau de radiotélescopes pour capter leurs signaux et pour dissocier les mouvements de rotation ou d’oscillation de la Terre de ceux des satellites.

Le rôle important des ondes radio

En effet, les radiotélescopes permettent de détecter les ondes radio émises par les trous noirs. Celles-ci traversent l’atmosphère sans difficulté, de jour comme de nuit et par tous les temps.

Mais ces ondes radio sont également utilisées pour les communications terrestres – wifi, téléphonie mobile, etc. L’utilisation des différentes fréquences est strictement encadrée, et quelques bandes étroites seulement sont réservées à l’astronomie radio.

Dans les décennies passées, toutes les bandes étaient encore peu usitées, et les scientifiques n’hésitaient pas à empiéter sur celles non réservées pour mieux capter les signaux des trous noirs… Mais aujourd’hui, si on souhaite que la géodésie atteigne la précision requise par nos technologies, on ne peut plus se contenter des bandes réservées à l’astronomie.

Des usages concurrents

Ces dernières années, la pollution électromagnétique d’origine humaine a explosé. Lorsque le wifi et la téléphonie mobile se sont développés, les scientifiques ont dû se rabattre sur des fréquences plus élevées.

Mais les bandes libres se font rares. Six générations de téléphonie mobile, chacune occupant une nouvelle fréquence, encombrent désormais le spectre, sans compter les milliers de satellites qui envoient directement des connexions Internet vers la Terre.

Aujourd’hui, la multitude de signaux est souvent trop puissante pour que les observatoires géodésiques puissent distinguer les très faibles signaux en provenance des trous noirs – ce qui menace, à terme, le fonctionnement de nombreux services satellitaires.

Que peut-on faire ?

Pour continuer à fonctionner à l’avenir et pour maintenir les services dont nous dépendons, la géodésie a besoin de davantage de bandes de fréquence.

Lors du partage du spectre radio à l’occasion des grandes conférences internationales, les géodésiens doivent absolument être présents à la table des négociations.

Parmi les solutions envisagées, on peut aussi imaginer des zones de silence radio autour des radiotélescopes essentiels. Un travail est également en cours avec les opérateurs de satellites pour éviter que leurs émissions radio ne soient dirigées directement vers ces télescopes.

Quoi qu’il en soit, toute solution devra être globale. Pour les mesures géodésiques, les radiotélescopes sont interconnectés à l’échelle de la planète, ce qui permet de simuler un télescope grand comme la Terre. Or, aujourd’hui, l’attribution des fréquences du spectre radio est principalement gérée par chaque État de manière indépendante, ce qui complique une quelconque coordination.

La première étape est peut-être de mieux faire connaître ce problème. Si nous voulons que les GPS fonctionnent, que les supermarchés soient approvisionnés et que nos virements bancaires arrivent à bon port, nous devons garder une vue dégagée sur les trous noirs des galaxies lointaines – ce qui signifie désengorger le spectre radio.

The Conversation

Lucia McCallum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.08.2025 à 13:06

Avant de cartographier le ciel avec la plus grande caméra au monde : que révèlent vraiment les « premières » images du télescope Vera-C.-Rubin ?

Pierre-Alain Duc, Directeur de recherche au CNRS, directeur de l'Observatoire astronomique de Strasbourg, Université de Strasbourg
Ces magnifiques « premières » images ont une importance qu’il convient de recontextualiser, car leur intérêt n’est pas forcément celui qui saute aux yeux.
Texte intégral (1418 mots)
Zoom dans l’amas de la Vierge. Cette image fait partie des « premières » images prises par le télescope Vera-C.-Rubin. NSF–DOE Vera-C.-Rubin Observatory, CC BY

L’observatoire Vera-C.-Rubin vient de débuter un grand sondage du ciel, le Legacy Survey of Space and Time (LSST) et a livré en juin 2025 de « premières » images au grand public : une grandiose visualisation d’une partie de l’amas de galaxies de la Vierge.

Mais de telles « premières » images ont une importance qu’il convient de relativiser, ou tout au moins recontextualiser car leur intérêt n’est pas forcément celui que l’on croit ou voit immédiatement.

Les images de Vera-C. Rubin se distinguent par la taille de leur champ exceptionnellement grande et la rapidité du nouvel observatoire, qui lui permet de cartographier des lumières même ténues sur une grande partie du ciel plusieurs fois par mois.


La « première lumière » d’un nouvel observatoire est un évènement symbolique et médiatique. Les images dévoilées ce jour-là au public ne sont en effet pas les vraies premières acquisitions – ces dernières servent des objectifs purement techniques et n’ont que peu d’intérêt pour le public. Elles ne témoignent pas forcément des buts scientifiques primaires qui ont motivé la construction du télescope. Elles existent essentiellement pour impressionner et susciter l’intérêt : pour cela, elles doivent posséder une valeur esthétique… qui ne doit pas occulter les performances techniques de l’instrument qui les a générées.

En quoi, alors, cette « première » image du sondage Legacy Survey of Space and Time (LSST), centrée sur l’amas de galaxies de la Vierge, est-elle originale et doit-elle nous interpeller ?

Parce qu’elle dévoile des astres encore inconnus ?

Pas tout à fait. Les structures les plus remarquables, visibles sur cette image, étaient familières, comme ce couple de spirales vues de face (au centre, à droite), cette galaxie naine mais étonnamment étendue et diffuse (en haut à droite) ou, enfin, ces spectaculaires traînées stellaires qui relient plusieurs galaxies d’un groupe situé à l’arrière-plan (en haut à droite), fruits de collisions en cours qui arrachent les étoiles à leurs galaxies.

Ces queues dites « de marée » avaient déjà été cartographiées par des caméras d’ancienne génération, comme Megacam sur le vénérable Canada-France-Hawaii Telescope (CFHT).

Parce que sa qualité optique est exceptionnelle ?

Obtenue depuis le sol, et subissant la turbulence de l’atmosphère qui floute toute lumière venue de l’espace, sa finesse est loin des standards des télescopes spatiaux Hubble, James-Webb ou Euclid, qui présentent une résolution spatiale de 5 à 10 fois meilleure.

Parce qu’elle présente d’éclatantes couleurs ?

Certes, mais depuis que le sondage du Sloan Digital Sky Survey (SDSS) a démarré en 2000, il a systématiquement observé une grande partie du ciel dans des bandes devenues standards (u,g,r,i,z) et a combiné ses images pour produire de « vraies couleurs ». Le public s’est habitué à une vision colorée des objets astronomiques.


À lire aussi : Comment sont façonnées les images du ciel? Dans les pas du télescope pionnier Hubble


Désormais, chaque nouvelle mission utilise sa propre palette qui varie selon le jeu utilisé de filtres.

Parce qu’elle dispose de canaux de diffusion importants ?

Certainement ! Les États-Unis ont une culture de médiation scientifique bien plus développée qu’en Europe, et leurs agences, dont le département de l’énergie américain et la Fondation nationale pour la science qui portent le projet LSST, accordent des moyens financiers conséquents aux actions de communication, relayées par l’ensemble des partenaires, parmi lesquels, en France, le CNRS dont l’Institut nucléaire et particules est chargé, entre autres, d’une grande partie de la chaîne de traitement des données.

Mais faut-il pour autant faire la fine bouche face à cette belle, mais pas si originale image produite par le LSST ? Assurément, non ! Elle mérite vraiment de s’y intéresser – non donc par ce qu’elle montre, mais par ce qu’elle cache !

Ce que cachent les premières images du nouveau télescope Vera-C.-Rubin et de son sondage LSST : un potentiel énorme et une prouesse technique

Ce qui est réellement derrière cette image, c’est un potentiel scientifique énorme, lui-même résultat d’une prouesse technique remarquable.

L’image a été acquise avec la plus grande caméra au monde. Elle dispose d’un capteur de 3,2 milliards de pixels (en fait une mosaïque de 189 capteurs CCD), soit 100 fois plus qu’un appareil photo classique.

Cette débauche de pixels permet de couvrir un champ de vue sans précédent de 9,6 degrés carrés, soit 45 fois la taille apparente de la pleine Lune ou 35 000 fois celui de la caméra du télescope spatial Hubble.

Avec cette vision large, le LSST pourra cartographier la surface totale de l’amas de la Vierge en seulement 10 clichés (l’image présentée ici ne couvre qu’une partie de l’amas), et quelques dizaines d’heures d’observations, contre quelques centaines d’heures pour le télescope Canada-France-Hawaii, avec lequel nous osions une comparaison plus haut.

La taille de la caméra du LSST est digne de celle de son télescope, pourvu d’un miroir de 8,4 mètres, le plus grand au monde entièrement consacré à l’imagerie. Avec une telle machinerie, l’ensemble du ciel austral peut être observé en seulement trois jours, des performances idéales pour repérer les phénomènes transitoires du ciel, comme les supernovae ou pour découvrir des astéroïdes dont la position varie d’une image sur l’autre.

Chaque nuit d’observation, les terabytes de données s’accumulent et, pendant les dix ans du sondage, les images vont être empilées pour in fine atteindre une sensibilité inégalée, mettant en jeu une chaîne de traitement complexe sans commune mesure avec celles mises en œuvre pour les sondages anciens.

Cette base de données qui, comme le grand vin, se bonifie avec le temps, permettra d’effectuer des avancées dans de multiples domaines de l’astrophysique, de la physique stellaire à la cosmologie.

Alors, oui, il est tout à fait légitime d’être impressionné par cette première image du LSST et par le potentiel de découvertes qu’elle dévoile.

Et pour finir, il convient de rappeler que l’observatoire qui l’a acquise, installé dans le désert chilien de l’Atacama, honore par son nom l’astrophysicienne Vera Rubin, à l’origine de la découverte de la matière noire dans les galaxies. Donner un nom de femme à un projet astronomique d’envergure est aussi une première !

The Conversation

Pierre-Alain Duc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.08.2025 à 13:05

Pourquoi un ventilateur donne-t-il un sentiment de fraîcheur ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
Ventilateurs et brumisateurs n’abaissent pas la température de la pièce, mais nous font ressentir de la fraîcheur. Explications entre physique et biologie.
Texte intégral (1375 mots)

Il fait 32 °C dans votre salon. Vous allumez le ventilateur, et en quelques secondes, une sensation de fraîcheur vous envahit. Pourtant, la température de l’air n’a pas changé. Alors, comment un simple souffle peut-il nous faire croire qu’il fait plus frais ? Pourquoi recommande-t-on aujourd’hui d’y ajouter un brumisateur ?

Ce phénomène, bien plus subtil qu’il n’y paraît, s’explique à l’interface entre physique et biologie au niveau de la peau ; et implique bien sûr notre système nerveux en ce qui concerne la perception sensorielle.


Contrairement à ce qu’on pourrait penser, un ventilateur ne refroidit pas l’air : il se contente de le mettre en mouvement. D’ailleurs, un ventilateur électrique émet un peu de chaleur en raison de son moteur qui convertit l’énergie électrique en chaleur.

Dans une pièce isolée de 1 mètre cube maintenue à -30 °C, un ventilateur peut faire monter la température de 1 °C : on voit bien que l’effet est minime et sans impact sensible dans la plupart des situations.

Ce que le ventilateur modifie, c’est notre perception. Il crée une sensation de fraîcheur, sans réellement baisser la température. Cette impression vient de notre propre corps, qui réagit aux flux d’air en activant ses mécanismes naturels de régulation thermique.

Pour comprendre cette sensation de fraîcheur, il faut donc s’intéresser à la manière dont notre organisme gère sa température interne. Car c’est là, dans les échanges constants entre notre peau, l’air et notre système nerveux, que se joue le vrai mécanisme du rafraîchissement.

En effet, le corps humain fonctionne un peu comme une machine thermique : il produit de la chaleur en permanence (quand on bouge, digère…).

Le rôle de la transpiration pour garder notre température interne à 37 °C

Pour éviter la surchauffe interne, l’organisme active un système de refroidissement très efficace : la transpiration.

Quand vous avez chaud, votre peau libère de la sueur. En s’évaporant, la sueur consomme de l’énergie (qu’on appelle la « chaleur latente de vaporisation ») : elle absorbe de la chaleur de votre corps. La sueur lui vole en quelque sorte des calories, ce qui le refroidit.

Mais ce mécanisme dépend beaucoup des conditions extérieures. Si l’air ambiant est chaud et humide, l’évaporation de la sueur devient moins efficace, car l’air est déjà presque saturé en humidité et est moins susceptible d’absorber celle de votre sueur. Résultat : vous continuez à transpirer, mais sans évaporation efficace, la sueur stagne sur la peau et n’extrait plus de chaleur. Autrement dit, elle ne vole plus les calories à votre peau qui permettraient à votre corps de se refroidir.

C’est là qu’intervient le ventilateur ! En brassant l’air saturé autour de la peau, le ventilateur le remplace par de l’air plus sec, ce qui favorise l’évaporation et aide votre corps à se refroidir.

En complément, l’utilisation d’un brumisateur apporte un refroidissement supplémentaire en projetant de fines gouttelettes d’eau sur la peau.

En ajoutant des gouttelettes, on augmente la quantité d’eau disponible pour l’évaporation, ce qui permet d’extraire davantage de chaleur de la peau et d’intensifier le refroidissement.

L’association du brumisateur et du ventilateur optimise le confort thermique dans les climats chauds en maximisant l’évaporation. En revanche, lorsque l’air est très humide et saturé de vapeur d’eau, ce mécanisme est inefficace, car l’évaporation est limitée.

Ainsi, le brumisateur est particulièrement performant dans les environnements secs, où l’air peut absorber facilement l’humidité, tandis que le ventilateur favorise le renouvellement de l’air humide autour de la peau, évitant ainsi la saturation locale et maintenant un gradient favorable à l’évaporation.

Brasser de l’air

Mais ce n’est pas tout. Même sans sueur, votre corps transfère de la chaleur à l’air ambiant : c’est la convection.

Cela signifie que l’air en contact avec votre peau se réchauffe légèrement. Quand l’air est immobile, cette couche d’air chaud reste collée à la peau comme une fine couverture.

En mettant l’air en mouvement, le ventilateur dissipe la fine couche d’air chaud qui entoure votre peau. Cela permet à la chaleur d’être évacuée plus rapidement, ce qui provoque une sensation quasi immédiate de fraîcheur.

Plus précisément, des chercheurs ont montré que, lorsque la vitesse de l’air augmente, l’évaporation de la sueur peut croître de près de 30 % pour une vitesse d’air de 2 mètres par seconde (ce qui équivaut à environ 7 kilomètres par heure). Parallèlement, la perte de chaleur par convection s’intensifie également grâce au renouvellement constant de l’air chaud proche de la peau.

Ce phénomène s’appelle l’« effet de refroidissement éolien », ou wind chill. Il explique pourquoi, en hiver, un vent fort peut vous faire ressentir un froid bien plus intense que la température réelle : par exemple, un 0 °C accompagné de vent peut être perçu comme -10 °C, car votre corps perd sa chaleur plus vite.

Température réelle, température ressentie

En été, c’est le même principe : le souffle du ventilateur ne fait pas baisser la température de la pièce, mais il favorise la perte de chaleur corporelle, donnant l’illusion que l’air ambiant est plus frais. C’est une température ressentie plus basse, pas une température réelle.

Un ventilateur est donc bien un allié optimal. Il n’abaisse pas la température de l’air, mais accélère la perte de chaleur de votre corps. Il facilite ainsi vos mécanismes naturels de refroidissement tels que l’évaporation de la sueur, la convection de la chaleur, la perception sensorielle de l’air en mouvement.

En réalité, l’air reste à la même température : c’est vous qui refroidissez plus vite… et votre cerveau traduit cette perte de chaleur par une agréable sensation de fraîcheur !


À lire aussi : Des canicules au froid glacial, comment corps et cerveau s’allient pour percevoir la température


Ce processus n’est pas trivial. Il repose sur une interaction complexe entre des récepteurs sensoriels situés dans la peau et des régions spécifiques du cerveau, notamment le cortex insulaire postérieur. Ces récepteurs détectent les variations de température corporelle et transmettent ces informations au cerveau, qui les intègre pour générer une sensation consciente de fraîcheur.

Ainsi, ce que vous ressentez comme une fraîcheur agréable est en réalité une perception cérébrale fine et sophistiquée de la baisse réelle de la température de votre corps.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

05.08.2025 à 16:57

Le projet iCRIME : Recréer virtuellement une scène de crime pour aider les enquêteurs et les magistrats à établir la vérité

David Brutin, Enseignant-chercheur, Aix-Marseille Université (AMU)
Le projet iCRIME vise à transformer la manière d’aborder les scènes de crime sanglantes grâce aux outils de la simulation numérique et de la réalité virtuelle.
Texte intégral (1420 mots)

Dans les enquêtes criminelles, chaque détail compte. Une trace de sang, l’angle d’un impact, la position d’un corps : tous ces éléments peuvent changer la compréhension d’une scène de crime. Pourtant, malgré les avancées technologiques en matière de criminalistique, les enquêteurs, les magistrats ou les jurés restent encore trop souvent confrontés à des difficultés majeures (difficile représentation d’une scène 3D pour les jurés, scène de crime originelle altérée, impossibilité de reconstitution) lorsqu’il s’agit de reconstituer des faits sanglants, par nature complexes.

C’est ce constat qui a conduit à la naissance du projet iCRIME, que je porte, un programme de recherche pluridisciplinaire financé par l’Agence nationale de la recherche (ANR), visant à transformer notre manière d’aborder les scènes de crime sanglantes grâce aux outils de la simulation numérique et de la réalité virtuelle.


Dans le cadre d’une enquête judiciaire, la scène de crime joue un rôle fondamental. C’est là que débute la construction du récit des événements. Mais cette scène, par nature éphémère, est rapidement figée, nettoyée, voire détruite. La fixation de la scène, quand cela est considéré comme nécessaire par le magistrat, est réalisée par la prise de photographies éventuellement complétées par un nuage de points dans l’espace captés par une technologie de télédétection qui utilise un laser.

Lors des procès, les magistrats doivent alors se baser sur des plans en deux dimensions, des photos ou des témoignages, souvent incomplets, pour comprendre ce qui s’est passé. Ce manque de lisibilité nuit parfois à l’analyse objective des faits, en particulier dans les affaires complexes où plusieurs versions s’opposent.

De plus, les reconstitutions judiciaires sont coûteuses, difficiles à organiser et peuvent être biaisées par l’environnement dans lequel elles se déroulent (lieux différents, conditions lumineuses éloignées de la réalité, impossibilité de reproduire des gestes avec précision, etc.). Ces limites sont connues de longue date par les acteurs de la justice.

Mais comment faire évoluer les pratiques tout en garantissant la rigueur scientifique et le respect du droit ? C’est à cette question qu’a voulu répondre iCRIME.

Pouvoir évoluer virtuellement dans une scène de crime

Notre projet est né d’une collaboration entre chercheurs, magistrats et acteurs des forces de sécurité intérieure. L’objectif est simple : mettre au service de la justice des outils immersifs et interactifs permettant de mieux comprendre les scènes de crime et les dynamiques d’événements.

iCRIME repose sur le traitement automatisé de quantités de données massives issues de l’archivage des scènes de crimes puis de leur restitution en réalité virtuelle. La simulation physique et dynamique des scènes de crimes est également ajoutée à iCRIME, c’est-à-dire la modélisation des comportements des corps, des projectiles, des fluides et des interactions entre objets dans un espace 3D réaliste.

D’ores et déjà, iCRIME propose de s’immerger dans un environnement virtuel en présence d’un avatar qu’il est possible de poignarder. La trajectoire des gouttes de sang résultantes est visualisée en direct et les impacts de gouttes de sang sur le sol ou sur les murs sont fidèles aux équations de la mécanique des fluides. Notre outil permet également d’effectuer le calcul inverse du point d’origine sur la base de taches de sang permettant ainsi de confronter différentes hypothèses sur la position de l’avatar.

Rassembler tous les acteurs de l’enquête dans une même scène

À terme, iCRIME proposera une immersion en réalité virtuelle dans des scènes de crime ensanglantées fidèlement modélisées. Grâce à un casque de réalité virtuelle, les utilisateurs peuvent déjà se déplacer librement dans un environnement numérique qui reproduit les lieux à l’identique. Cette immersion permettra une exploration intuitive, une meilleure appropriation de l’espace et une interaction directe avec les éléments de preuve. iCRIME ne se contentera pas de montrer une scène figée : il permettra d’analyser les hypothèses, de comparer plusieurs versions des faits et d’en débattre dans un espace partagé, que l’on soit enquêteur, expert, avocat ou magistrat. iCRIME permettra de « faire parler » la scène de crime.

Notre apport majeur réside dans notre capacité à simuler numériquement les événements via des modèles physiques élaborés par des chercheurs. Qu’il s’agisse d’un mouvement de corps ou de la dispersion de gouttelettes de sang, iCRIME repose sur des modèles physiques issus de la recherche expérimentale. Ces modèles validés, par des protocoles expérimentaux, permettront de confronter les différentes versions des faits par une analyse objective. Concrètement, cela signifie que l’on peut déjà reproduire une projection de sang depuis un point donné, analyser la trajectoire de la goutte, sa vitesse, son interaction avec des obstacles ou des surfaces.

Quand iCRIME sera certifié, il sera ainsi possible de vérifier si une version des faits est compatible avec les traces observées.

Améliorer la transparence et la contradiction

Cette approche ne se substitue pas à l’enquête, mais elle enrichit l’analyse en objectivant certaines hypothèses. La robustesse scientifique est au cœur du projet. Chaque simulation peut être paramétrée, rejouée, comparée, et surtout, elle laisse une trace : on peut documenter ce qui a été testé, selon quelles hypothèses, et avec quels résultats. C’est un outil au service de la transparence et de la contradiction, deux piliers du procès équitable.

iCRIME est certes encore en cours de développement, mais plusieurs usages sont d’ores et déjà envisagés. Par exemple, son utilisation dans ce que l’on appelle les « Cold Case » pour immerger un témoin, un suspect ou un mis en cause dans une scène de crime ancienne qui existerait toujours et qui serait reconstituée fidèlement en réalité virtuelle. iCRIME permettra ainsi de plonger une personne dans l’environnement pour lui faire évoquer des souvenirs ou des ressentis. Des images ou des sons pourront être joués pour favoriser la remontée de souvenirs afin d’aider à faire avancer une ancienne enquête. Les magistrats et les professionnels du droit voient clairement dans ces outils un levier pour renforcer la compréhension des affaires complexes.

Mais l’introduction de ces technologies dans la justice ne va pas sans débats : quel statut juridique accorder à une simulation même ouverte au contradictoire ? Comment éviter l’effet de persuasion que peut produire une scène immersive ? Quelle formation pour les magistrats, les avocats et les jurés ?

Autant de questions auxquelles notre projet tente de répondre. Son ambition n’est pas de trancher à la place du juge, mais de donner des clés de lecture plus fiables et rigoureuses. En cela, iCRIME s’inscrit dans une démarche de justice augmentée : une justice qui utilise les technologies non pour impressionner, mais pour éclairer.


David Brutin est le coordinateur d’un projet de recherche sur les technologies immersives au service des acteurs de la justice pénale, iCrime, soutenu par l’Agence nationale de la recherche ANR. Il a présenté ce projet au workshop interdisciplinaire pour la sécurité globale qui s’est déroulé les 26 et 27 mars 2025 à Paris-Saclay.

The Conversation

David Brutin a reçu des financements de l'ANR.

8 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞