18.08.2025 à 16:46
Ziteng Wang, Associate Lecturer, Curtin Institute of Radio Astronomy (CIRA), Curtin University
Dans le cosmos, certains objets émettent des pulsations plutôt qu’une lumière continue. Cette année, les astronomes ont découvert ASKAP J1832, un objet dans la Voie lactée qui émet à la fois des rayons X et des ondes radio, et qui ne ressemble à rien de connu.
Dans une étude publiée dans Nature au mois de mai, nous rapportons la découverte d’un nouveau phénomène transitoire à longue période – et, pour la première fois, qui émet également régulièrement des sursauts de rayons X.
Les transitoires à longue période sont une classe d’objets cosmiques récemment identifiés qui émettent d’intenses flashs d’ondes radio toutes les quelques minutes, voire à plusieurs heures d’intervalle, ce qui est beaucoup plus long que les émissions pulsées très rapides que nous détectons généralement chez les pulsars, qui sont issus de l’explosion d’une étoile massive en fin de vie.
La nature de ces objets transitoires à longue période et la manière dont ils génèrent leurs signaux inhabituels restent un mystère.
Notre découverte ouvre une nouvelle fenêtre sur l’étude de ces sources énigmatiques. Mais elle renforce également le mystère : l’objet que nous avons trouvé ne ressemble à aucun type d’étoile ou de système connu dans notre galaxie ni au-delà.
Le ciel nocturne recèle de nombreux éléments invisibles à l’œil nu, mais détectables à d’autres longueurs d’onde, comme les ondes radio.
Notre équipe de recherche scrute régulièrement le ciel radio à l’aide du SKA Pathfinder australien (ASKAP), exploité par le CSIRO dans la région de Wajarri Yamaji, dans l’ouest de l’Australie. Notre objectif est de trouver des objets cosmiques qui apparaissent et disparaissent – que l’on appelle « transients » en anglais, « objets transitoires », en français.
Les objets transitoires sont souvent liés à certains des événements les plus puissants et les plus spectaculaires de l’Univers, tels que la mort explosive d’étoiles.
Fin 2023, nous avons repéré une source extrêmement brillante, baptisée ASKAP J1832-0911 (d’après sa position dans le ciel), dans le plan de notre galaxie. Cet objet est situé à environ 15 000 années-lumière… c’est loin, mais toujours dans la Voie lactée.
Après la découverte initiale, nous avons commencé des observations de suivi à l’aide de télescopes situés dans le monde entier dans l’espoir de capter d’autres impulsions. Grâce à une surveillance continue, nous avons constaté que les impulsions radio provenant d’ASKAP J1832 arrivaient régulièrement, toutes les quarante-quatre minutes. Cela a confirmé qu’il s’agissait d’un nouveau membre du groupe peu fourni des transitoires à longue période.
Nous avons également fouillé les anciennes données provenant de la même partie du ciel, mais nous n’avons trouvé aucune trace de l’objet avant sa découverte en 2023. Ceci suggère qu’un événement spectaculaire s’est produit peu avant notre première détection, un événement suffisamment puissant pour « allumer » soudainement notre objet transitoire atypique.
Puis, en février 2024, ASKAP J1832 est devenu extrêmement actif. Après une période calme en janvier, la source s’est considérablement intensifiée : moins de 30 objets dans le ciel ont jamais atteint une telle luminosité dans le domaine radio… À titre de comparaison, la plupart des étoiles que nous détectons en radio sont environ 10000 fois moins lumineuses qu’ASKAP J1832 lors de cette flambée.
Les rayons X sont une forme de lumière que nous ne pouvons pas voir avec nos yeux. Ils proviennent généralement d’environnements extrêmement chauds et énergétiques. Bien qu’une dizaine d’objets similaires émettant des ondes radio (celles que nous avons détectées initialement) aient été découverts à ce jour, personne n’avait jamais observé d’émission X de leur part.
En mars, nous avons tenté d’observer ASKAP J1832 en rayons X. Cependant, en raison de problèmes techniques avec le télescope, l’observation n’a pas pu avoir lieu.
Puis, coup de chance ! En juin, j’ai contacté mon ami Tong Bao, chercheur postdoctoral à l’Institut national italien d’astrophysique, pour vérifier si des observations précédentes aux rayons X avaient capté la source. À notre grande surprise, nous avons trouvé deux observations antérieures provenant de l’observatoire à rayons X Chandra de la Nasa, bien que les données soient encore dans une période de diffusion limitée (et donc non encore rendues publiques en dehors d’un cercle restreint de chercheurs et chercheuses).
Nous avons contacté Kaya Mori, chercheur à l’université Columbia et responsable de ces observations. Il a généreusement partagé les données avec nous. À notre grande surprise, nous avons découvert des signaux X clairs provenant d’ASKAP J1832. Plus remarquable encore : les rayons X suivaient le même cycle de 44 minutes que les impulsions radio.
Ce fut un véritable coup de chance. Chandra était pointé vers une cible complètement différente, mais par pure coïncidence, il a capté ASKAP J1832 pendant sa phase inhabituellement brillante et active.
Un tel alignement fortuit est extrêmement rare, c’est comme trouver une aiguille dans une botte de foin cosmique.
La présence simultanée d’émissions radio et de sursauts X est une caractéristique commune des étoiles mortes dotées de champs magnétiques extrêmement puissants, telles que les étoiles à neutrons (étoiles mortes de grande masse) et les naines blanches (étoiles mortes de faible masse).
Notre découverte suggère qu’au moins certains objets transitoires à longue période pourraient provenir de ce type de vestiges stellaires.
Mais ASKAP J1832 ne correspond à aucune catégorie d’objet connue dans notre galaxie. Son comportement, bien que similaire à certains égards, reste atypique.
Nous avons besoin de plus d’observations pour vraiment comprendre ce qui se passe. Il est possible qu’ASKAP J1832 soit d’une nature entièrement nouvelle pour nous, ou qu’il émette des ondes radio d’une manière que nous n’avons jamais observée auparavant.
Ziteng Wang ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.08.2025 à 19:22
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
*En 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée, elle est pourtant à l’origine de cette découverte majeure. Découvrez son histoire et tous ses exploits scientifiques, notamment en virologie. *
« La science et la vie quotidienne ne peuvent pas et ne doivent pas être séparées. »
Cette phrase de Rosalind Franklin éclaire sa vision singulière : pour elle, la science n’était pas une abstraction, mais un chemin concret vers une meilleure compréhension du monde. Tout au long de sa vie, elle a su allier une rigueur scientifique sans faille à un engagement discret, dans un univers où les femmes peinaient encore à obtenir la reconnaissance qu’elles méritaient.
Ni figure publique ni militante affichée, Rosalind Franklin travaillait dans l’ombre, avec une exigence et une méthode implacables. Et pourtant, c’est grâce à son expertise que la lumière a traversé la molécule d’ADN, révélant sa fameuse forme en double hélice.
À une époque où la place des femmes en science restait fragile, elle imposa sa voie avec précision et détermination, convaincue que la véritable beauté réside dans la structure profonde des choses.
Le 25 juillet 1920, au cœur du quartier londonien de Notting Hill, naît Rosalind Elsie Franklin, deuxième enfant d’une fratrie de cinq. Issue d’une famille juive britannique aisée et cultivée, elle grandit dans un environnement où la rigueur intellectuelle et l’engagement social sont des piliers. Son père, Ellis Arthur Franklin, banquier passionné de physique, rêvait d’être scientifique mais a vu ses ambitions fauchées par la Première Guerre mondiale. Sa mère, Muriel Waley, militait activement pour l’éducation des femmes. Ce mélange d’idéalisme, de savoir et de devoir allait profondément façonner Rosalind.
Dès l’enfance, elle fait preuve d’une intelligence hors norme. À six ans, elle passe ses journées à résoudre des problèmes d’arithmétique, sans jamais faire d’erreur, selon sa tante. À neuf ans, elle se lance un défi personnel : finir chaque semaine première de sa classe. Elle tiendra ce pari pendant deux ans. Déjà se dessine une personnalité exigeante, compétitive et intensément tournée vers la connaissance. Mais dans la société britannique des années 1920, une telle ambition, chez une fille, suscite autant d’admiration que de réticence, dans un contexte où la place des femmes restait largement cantonnée à la sphère domestique.
Rosalind Franklin poursuit ses études au prestigieux St Paul’s Girls’ School, l’un des rares établissements à enseigner les sciences aux jeunes filles. Elle y brille, notamment en physique et en mathématiques. En 1938, elle entre au Newnham College de l’Université de Cambridge, l’un des deux collèges féminins de l’époque. Son choix de se spécialiser en chimie et en physique n’est pas encore courant chez les femmes.
En 1941, en pleine guerre mondiale, elle obtient son diplôme. Tandis que beaucoup de femmes sont orientées vers des rôles d’assistante, Rosalind refuse tout compromis et intègre un laboratoire du British Coal Utilisation Research Association (Association britannique pour la recherche sur l’utilisation du charbon). Elle y étudie la microstructure du charbon par diffraction des rayons X, technique qui deviendra sa spécialité.
Ces recherches, bien que menées dans un contexte de guerre, auront des retombées industrielles majeures, notamment pour la fabrication de masques à gaz et de matériaux isolants.
En 1945, Rosalind Franklin obtient un doctorat de Cambridge – un exploit pour une femme à cette époque. En effet, à cette période, Cambridge ne délivrait pas officiellement de diplômes aux femmes, ce qui rend cet accomplissement d’autant plus remarquable, car Franklin fait partie des premières à obtenir un doctorat dans un contexte universitaire encore très fermé aux femmes.
En 1947, une nouvelle étape marque sa vie : elle rejoint le Laboratoire Central des Services Chimiques de l’État, à Paris, sur invitation de Jacques Mering. Elle y perfectionne ses compétences en cristallographie par rayons X et découvre un environnement de travail plus ouvert, où sa parole est écoutée et ses idées respectées.
Elle se lie d’amitié avec des chercheurs, découvre la culture française, et adopte un mode de vie simple mais libre. Elle parcourt les Alpes à pied, discute dans les bistrots, s’immerge dans la langue et la gastronomie. Elle confiera plus tard :
« Je pourrais vagabonder en France pour toujours. J’adore le pays, les gens et la nourriture. »
Pour une femme qui a toujours ressenti le poids du sexisme britannique, la France offre alors un souffle de liberté. En effet, l’université britannique, en particulier Cambridge et King’s college, reste encore profondément patriarcale : les femmes sont exclues des clubs et réunions informelles et ne reçoivent officiellement des diplômes à Cambridge qu’à partir de 1947.
Mais la science l’appelle ailleurs. En 1951, elle retourne en Angleterre avec une bourse prestigieuse (Turner and Newall Fellowship). Elle rejoint le King’s College de Londres, au département de biophysique, pour travailler sur une mystérieuse molécule encore peu comprise : l’ADN. On sait, depuis Avery (1944), qu’elle joue un rôle dans l’hérédité, et Chargaff (1950) a établi que les bases azotées se répartissent selon des proportions constantes (A=T, G=C), mais la structure tridimensionnelle demeure inconnue. C’est là que son destin scientifique se joue.
Franklin apporte au projet son expertise pointue en diffraction X. En quelques mois, elle améliore considérablement les images de l’ADN, et capture l’une des photographies les plus célèbres de l’histoire de la biologie : le « cliché 51 ». Cette image révèle, avec une clarté inédite, la forme hélicoïdale de la molécule d’ADN. On y voit des taches disposées en forme de X, révélant que la molécule forme une double hélice régulière. L’espacement des taches renseigne sur la distance entre les bases (A, T, C et G), et leur symétrie suggère une structure très ordonnée.
Rosalind Franklin identifie également deux formes distinctes de l’ADN selon l’humidité (forme A et B), et démontre que les groupements phosphate sont orientés vers l’extérieur.
Mais derrière cette réussite, l’ambiance au laboratoire est tendue. Franklin est la seule femme scientifique du département, et ses collègues masculins, notamment Maurice Wilkins, voient son indépendance comme de l’insubordination. En effet, Wilkins pensait que Franlkin arrivait au laboratoire comme assistante sous sa direction. De son côté, Rosalind pensait avoir été recrutée pour diriger ses propres recherches sur l’ADN,de manière indépendante. Cette incompréhension institutionnelle a été exacerbée par une communication défaillante de la part de John Randall, directeur du laboratoire, qui n’a pas informé Wilkins de l’autonomie accordée à Franklin. Wilkins n’a appris cette décision que des années plus tard, ce qui a contribué à des tensions professionnelles. Ce dernier, persuadé qu’elle est son assistante, se heurte à son refus catégorique de toute hiérarchie injustifiée. Leur relation devient glaciale. Dans ce climat conservateur et misogyne, Franklin se heurte à un plafond de verre invisible, mais solide.
C’est dans ce contexte qu’un événement aux lourdes conséquences se produit. Sans son consentement, Wilkins montre le cliché 51 à James Watson, jeune chercheur de Cambridge. Ce dernier, avec Francis Crick, travaille lui aussi sur l’ADN, mais sans données expérimentales directes. En découvrant la photographie, Watson est stupéfait :
« Ma mâchoire s’est ouverte et mon pouls s’est emballé. »
La photographie de Franklin devient la pièce manquante qui leur permet de construire leur célèbre modèle de la double hélice. En avril 1953, trois articles fondamentaux sur l’ADN paraissent dans la revue Nature. Le premier, signé par Watson et Crick, propose le célèbre modèle en double hélice, fondé sur des raisonnements théoriques et des données expérimentales issues d’autres laboratoires – notamment le cliché 51, transmis à leur insu par Maurice Wilkins. Le second article, coécrit par Wilkins, Stokes et Wilson, présente des résultats de diffraction des rayons X qui confirment la présence d’une structure hélicoïdale, en cohérence avec le modèle proposé. Le troisième, rédigé par Rosalind Franklin et Raymond Gosling, expose avec rigueur leurs propres données expérimentales, parmi les plus décisives, mais sans que Franklin ait été informée de leur utilisation préalable par Watson et Crick. Bien que sa contribution soit déterminante, elle n’est mentionnée que brièvement dans les remerciements.
Watson la surnomme plus tard dans ses mémoires « Rosy », un diminutif qu’elle n’a jamais utilisé et qu’elle détestait. Il la décrit comme austère, inflexible, difficile – un portrait injuste qui trahit davantage les préjugés de l’époque que la réalité de sa personne. Ses collègues masculins l’appellent la « Dark Lady » de l’ADN.
Blessée, fatiguée par ce climat toxique, Franklin quitte le King’s College dès la fin 1953. Mais loin d’abandonner, elle rebondit immédiatement.
Elle rejoint alors le Birkbeck College, un établissement de l’Université de Londres situé à Bloomsbury, sur l’invitation du physicien John Bernal qui la qualifie de « brillante expérimentatrice ». Elle y obtient un poste de chercheuse senior, à la tête de son propre groupe de recherche, financé par l’Agricultural Research Council. Là, elle applique ses compétences en diffraction X à un nouveau domaine : les virus. Elle se lance dans l’étude du virus de la mosaïque du tabac, un petit virus végétal très étudié. Avec son équipe, les doctorants Kenneth Holmes et John Finch, le jeune chercheur postdoctoral Aaron Klug, futur prix Nobel, ainsi que l’assistant de recherche James Watt, elle démontre que l’ARN du virus est situé à l’intérieur d’une coque protéique hélicoïdale. Cette découverte est essentielle car elle montre la forme en 3D du virus, explique comment l’ARN est protégé à l’intérieur, et crée les bases pour mieux comprendre les virus. Cela a aidé à progresser dans la recherche pour trouver des traitements contre les infections virales.
Entre 1953 et 1958, elle publie plus de 15 articles majeurs, établissant les bases de la virologie moléculaire. Elle travaille également sur la structure du virus de la polio, en collaboration avec le futur prix Nobel Aaron Klug, récompensé en 1982 pour son développement de la microscopie électronique cristallographique et l’élucidation des complexes biologiques entre acides nucléiques et protéines. Elle est enfin dans un environnement où elle est écoutée, respectée, et même admirée.
Mais en 1956, le destin frappe cruellement. Au cours d’un séjour aux États-Unis, Franklin ressent de fortes douleurs abdominales. Le diagnostic tombe : cancer des ovaires. Elle a 36 ans. La maladie est probablement liée à son exposition répétée aux rayons X, à une époque où les protections étaient rudimentaires, voire absentes.
Malgré plusieurs opérations et de lourds traitements, elle continue de travailler, fidèle à sa discipline et à sa passion. Jusqu’à ses derniers mois, elle écrit, corrige, encourage, dirige. Elle meurt le 16 avril 1958, à l’âge de 37 ans.
Quatre ans après sa mort, en 1962, le prix Nobel de physiologie ou médecine est attribué à Watson, Crick et Wilkins pour la découverte de la structure de l’ADN. Rosalind Franklin n’est pas mentionnée. Officiellement, le prix ne peut être attribué à titre posthume. Officieusement, elle n’a jamais été sérieusement envisagée comme co-lauréate, car son nom ne circulait pas dans les cercles masculins du pouvoir scientifique.
Il faudra attendre les années 1970 pour que sa contribution soit pleinement reconnue. D’abord par Anne Sayre, amie de Franklin, journaliste américaine et amie proche de Franklin rencontrée à Londres dans les années 1950 grâce à leur cercle social commun lié au monde scientifique, qui publie Rosalind Franklin and DNA en 1975 pour rétablir les faits. Puis, bien après, en 2002, avec la biographie The Dark Lady of DNA, écrite par Brenda Maddox et qui rencontre un grand écho international.
Aujourd’hui, son nom est inscrit sur des bâtiments universitaires, des bourses, des prix scientifiques. En 2020, elle est sélectionnée par le magazine Nature parmi les plus grandes scientifiques du XXe siècle. En 2021, la mission spatiale européenne vers Mars, nommée Rosalind Franklin Rover, a été lancée pour chercher des traces de vie passée dans le sous-sol martien. Ce nom rend hommage à Franklin, dont les travaux sur la structure de l’ADN symbolisent la recherche des bases moléculaires du vivant.
Rosalind Franklin, longtemps éclipsée par ses pairs, incarne aujourd’hui bien plus qu’une figure oubliée de la science. Elle est devenue un symbole de ténacité, d’éthique scientifique, et de justice. Une pionnière dont l’éclat posthume inspire chercheuses et chercheurs à persévérer malgré les obstacles, les discriminations et les injustices qu’ils peuvent rencontrer.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.08.2025 à 14:17
Gabriel Kasmi, Chercheur postdoctoral en IA appliquée au système électrique, Mines Paris - PSL
Les énergies renouvelables sont souvent accusées de déstabiliser le réseau électrique. Des outils d’intelligence artificielle permettent de localiser les installations photovoltaïques, facilitant ainsi le suivi de leur déploiement et assurant leur insertion sans heurts au réseau électrique.
Le photovoltaïque est une source d’électricité renouvelable profondément décentralisée. De petite taille mais représentant 99 % des systèmes raccordés au réseau électrique, les installations en toiture chez les particuliers ou dans le tertiaire (ombrières, supermarchés…) ont un poids croissant sur réseau électrique.
Hier centralisée, la production électrique est désormais répartie entre des grandes centrales et des centaines de milliers de petites installations. Ainsi, l’équilibrage du système – essentiel afin d’éviter les blackouts – nécessite de nouveaux moyens afin de tenir compte de cette production décentralisée.
Équilibrer la production d’électricité en intégrant la production solaire décentralisée est tout à fait possible en principe. Encore faut-il savoir où les panneaux sont installés et quelle taille ils font. L’intelligence artificielle (IA) peut être mise à contribution pour automatiser ce suivi… à condition que la fiabilité des données puisse être garantie.
Historiquement, la production d’électricité provient des centrales reliées au réseau de transport (haute tension), avant d’être acheminée vers le réseau de distribution (basse tension) et les gros consommateurs industriels. La production était « pilotable », c’est-à-dire que l’on peut l’ajuster assez rapidement en fonction de la demande.
L’essor de l’éolien terrestre et du solaire photovoltaïque, majoritairement raccordés au réseau de distribution, a profondément modifié cette organisation. Aujourd’hui, la production pilotable s’ajuste à une « demande nette », c’est-à-dire à la différence entre la consommation et la production renouvelable.
Par exemple, la demande française en électricité est historiquement sensible à la température (chauffage, climatisation), et la production renouvelable est sensible aux variables climatiques. Cette variabilité n’est pas problématique en soi : l’important est qu’une filière soit observable, c’est-à-dire que l’on peut mesurer ou estimer avec précision sa production – et quantifier les incertitudes de production.
Or actuellement, le photovoltaïque manque d’observabilité, principalement en raison d’une caractérisation incertaine du parc existant de systèmes.
Le photovoltaïque est en effet caractérisé par une très grande variété de systèmes, allant de grandes centrales à des installations sur des toitures individuelles. Une telle diversité d’installations facilite le déploiement rapide à grande échelle et fait du photovoltaïque un vecteur indispensable de la décarbonisation du système électrique, mais cette même caractéristique rend le suivi de son déploiement difficile. Ainsi, 99 % des installations photovoltaïques, représentant un cinquième de la puissance installée, sont ainsi installées sur des toitures (résidentielles ou tertiaires) de manière totalement décentralisée (à la différence par exemple des centrales au sol pour lesquelles les appels d’offres sont centralisés, et donc les capacités mieux connues).
Le cadastre photovoltaïque, qui recense toutes les installations photovoltaïques raccordées au réseau, est obtenu à partir des déclarations de raccordement et est sujet à des incertitudes, tant en termes de recensement des systèmes que d’estimation de leur puissance installée et de leur répartition géographique.
L’intelligence artificielle, appliquée à l’imagerie aérienne, offre une opportunité unique de cartographier automatiquement et à grande échelle les systèmes photovoltaïques, en estimant leur surface, leur orientation et leur puissance, permettant ainsi d’améliorer notre connaissance sur le nombre, la répartition et les caractéristiques des systèmes photovoltaïques sur toiture. De nombreux modèles ont ainsi été développés afin de cartographier des systèmes photovoltaïques sur toiture.
Cependant, et malgré leurs performances remarquables, ces modèles ne sont que rarement utilisés par les acteurs du système électrique pour compléter et corriger leurs registres, ce qui réduit l’impact de telles méthodes pour répondre au problème dit de l’observabilité du photovoltaïque sur toiture, et plus largement pour faciliter la décarbonation du système électrique.
Au cours de ma thèse, j’ai prêté une attention particulière à l’identification des verrous méthodologiques pour le déploiement d’outils d’IA permettant d’améliorer l’observabilité du photovoltaïque sur toiture. Je suis parti d’un paradoxe apparent : les outils et les méthodes pour détecter les panneaux solaires existaient déjà, mais les projets existants n’allaient pas au-delà des expérimentations en laboratoire. Plusieurs raisons peuvent expliquer ce décalage. D’une part, des facteurs institutionnels ou humains, liés au manque de formation à ces outils ou encore à la question de la responsabilité en cas d’erreur de l’IA. D’autre part, il existe des facteurs liés aux méthodes elles-mêmes, où il est apparu en particulier que la combinaison d’un manque de transparence et de fiabilité des algorithmes était un frein puissant à leur adoption.
Notre travail de recherche récent a ainsi proposé une méthode permettant d’améliorer à la fois la transparence et la fiabilité des algorithmes de cartographie. L’amélioration de la transparence repose sur des techniques d’IA explicable et permet de mieux comprendre comment « voit » le modèle. L’amélioration de la fiabilité repose sur cette meilleure connaissance du processus de décision du modèle.
Nous avons utilisé une technique d’IA explicable inédite qui permet de décomposer entre différentes échelles ce que « voit » l’IA sur l’image. Cette décomposition montre les cas où l’IA s’appuie sur des composantes de l’image facilement altérables (les hautes fréquences de l’image) s’apparentant à des motifs quadrillés dont la taille au sol est de l’ordre d’un mètre par un mètre. On peut facilement comprendre la corrélation entre les panneaux et les grilles, mais on comprend aussi que toutes les grilles ne sont pas des panneaux solaires ; et que tous les panneaux solaires ne présentent pas de grilles.
Cette méthode permet de mieux anticiper les occurrences de faux positifs mais aussi de faux négatifs.
Par exemple, dans une région où il y a de nombreuses verrières, qui présentent un motif grillé similaire, l’utilisateur anticipera une éventuelle surestimation du nombre réel de panneaux. À l’inverse, dans une région où les panneaux installés sont plus récents et donc plus susceptibles d’être sans cadre, on pourra s’attendre à une sous-estimation du nombre de panneaux. L’identification de potentiels faux négatifs est d’autant plus cruciale que s’il est simple d’éliminer les faux positifs par des post-traitements, il est plus difficile de lutter contre les faux négatifs.
Pour une IA, la fiabilité correspond à la faculté du système à atteindre une précision comparable à celle obtenue lors de l’entraînement initial du modèle, sur une période plus ou moins longue. En pratique, ces données d’entraînement sont figées, tandis que les données sur lesquelles le modèle est utilisé évoluent continuellement. Ainsi, la distribution statistique des données d’entraînement est de moins en moins représentative de celle des données sur lesquelles le modèle est déployé.
Il est établi que les IA sont sensibles à de tels changements de distributions (distribution shifts) et ainsi que les performances théoriques sont de moins en moins représentatives de la réalité. Pour la détection de panneaux solaires, on peut s’attendre à une baisse des détections liée au fait que le modèle n’a jamais « appris » à reconnaître les nouveaux panneaux. Les données d’entraînement sont ainsi biaisées par rapport aux conditions réelles, et les mises à jour des données d’entraînement veilleront à refléter la distribution actualisée des types de panneaux photovoltaïques.
L’IA seule ne résoudra pas l’ensemble des questions induites par la décarbonation du système électrique. Néanmoins, elle peut et doit y contribuer, compte tenu de la maturité des technologies, de la disponibilité des données et de l’appétence générale qui l’entoure. L’enjeu est double : d’une part, comprendre son fonctionnement et ses limites et, d’autre part, améliorer sa fiabilité, de sorte que l’adhésion à cette technologie soit fondée sur le discernement de l’utilisateur, plutôt que sur une foi aveugle en ces outils.
Gabriel Kasmi a reçu des financements de RTE et de l'Association Nationale de la Recherche et de la Technologie (thèse financée dans le cadre d'une convention Cifre). Il est membre du think tank Zenon.
06.08.2025 à 13:06
Lucia McCallum, Senior Scientist in Geodesy, University of Tasmania
La pollution électromagnétique a des conséquences inattendues. Par exemple, l’encombrement du spectre radioélectrique complique le travail des radiotélescopes. Ce que l’on sait rarement, c’est que ces télescopes ne servent pas seulement à faire de la recherche en astronomie : ils sont indispensables à certains services essentiels à notre civilisation… le GPS, par exemple !
Les scientifiques qui mesurent avec précision la position de la Terre sont aujourd’hui confrontés à un problème de taille. Leurs données sont essentielles au fonctionnement des satellites utilisés pour la navigation, pour les télécommunications et pour l’observation de la planète. Ce que l’on sait moins, c’est que ces mesures – issues d’une discipline appelée « géodésie » – dépendent du suivi de trous noirs situés dans des galaxies lointaines.
Le problème, c’est que, pour suivre ces trous noirs, les scientifiques ont besoin d’utiliser des bandes de fréquences spécifiques sur le spectre radioélectrique. Et avec la montée en puissance du wifi, des téléphones portables et d’Internet par satellite, il y a un embouteillage sur ces fameuses bandes de fréquence.
Les satellites et les services qu’ils fournissent sont devenus essentiels à la vie moderne. De la navigation ultraprécise sur nos téléphones au suivi du changement climatique, en passant par la gestion des chaînes logistiques mondiales, le fonctionnement des réseaux électriques ou des transactions bancaires en ligne, notre civilisation ne peut pas se passer de ces compagnons en orbite.
Mais pour utiliser les satellites, il faut savoir précisément où ils se trouvent à tout moment. Leur positionnement repose sur ce qu’on appelle la « chaîne d’approvisionnement géodésique mondiale ».
Cette chaîne commence par l’établissement d’un référentiel de coordonnées stable sur lequel baser toutes les autres mesures. Comme les satellites se déplacent sans cesse autour de la Terre, que la Terre elle-même tourne autour du Soleil, et que le Soleil se déplace dans la galaxie, ce référentiel doit être soigneusement calibré à partir d’objets externes relativement fixes.
Or les meilleurs points d’ancrage que l’on connaisse sont les trous noirs, situés au cœur de galaxies lointaines, qui émettent des jets de rayonnement en dévorant des étoiles et du gaz.
Grâce à une technique appelée « interférométrie à très longue base », les scientifiques peuvent relier un réseau de radiotélescopes pour capter leurs signaux et pour dissocier les mouvements de rotation ou d’oscillation de la Terre de ceux des satellites.
En effet, les radiotélescopes permettent de détecter les ondes radio émises par les trous noirs. Celles-ci traversent l’atmosphère sans difficulté, de jour comme de nuit et par tous les temps.
Mais ces ondes radio sont également utilisées pour les communications terrestres – wifi, téléphonie mobile, etc. L’utilisation des différentes fréquences est strictement encadrée, et quelques bandes étroites seulement sont réservées à l’astronomie radio.
Dans les décennies passées, toutes les bandes étaient encore peu usitées, et les scientifiques n’hésitaient pas à empiéter sur celles non réservées pour mieux capter les signaux des trous noirs… Mais aujourd’hui, si on souhaite que la géodésie atteigne la précision requise par nos technologies, on ne peut plus se contenter des bandes réservées à l’astronomie.
Ces dernières années, la pollution électromagnétique d’origine humaine a explosé. Lorsque le wifi et la téléphonie mobile se sont développés, les scientifiques ont dû se rabattre sur des fréquences plus élevées.
Mais les bandes libres se font rares. Six générations de téléphonie mobile, chacune occupant une nouvelle fréquence, encombrent désormais le spectre, sans compter les milliers de satellites qui envoient directement des connexions Internet vers la Terre.
Aujourd’hui, la multitude de signaux est souvent trop puissante pour que les observatoires géodésiques puissent distinguer les très faibles signaux en provenance des trous noirs – ce qui menace, à terme, le fonctionnement de nombreux services satellitaires.
Pour continuer à fonctionner à l’avenir et pour maintenir les services dont nous dépendons, la géodésie a besoin de davantage de bandes de fréquence.
Lors du partage du spectre radio à l’occasion des grandes conférences internationales, les géodésiens doivent absolument être présents à la table des négociations.
Parmi les solutions envisagées, on peut aussi imaginer des zones de silence radio autour des radiotélescopes essentiels. Un travail est également en cours avec les opérateurs de satellites pour éviter que leurs émissions radio ne soient dirigées directement vers ces télescopes.
Quoi qu’il en soit, toute solution devra être globale. Pour les mesures géodésiques, les radiotélescopes sont interconnectés à l’échelle de la planète, ce qui permet de simuler un télescope grand comme la Terre. Or, aujourd’hui, l’attribution des fréquences du spectre radio est principalement gérée par chaque État de manière indépendante, ce qui complique une quelconque coordination.
La première étape est peut-être de mieux faire connaître ce problème. Si nous voulons que les GPS fonctionnent, que les supermarchés soient approvisionnés et que nos virements bancaires arrivent à bon port, nous devons garder une vue dégagée sur les trous noirs des galaxies lointaines – ce qui signifie désengorger le spectre radio.
Lucia McCallum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.08.2025 à 13:06
Pierre-Alain Duc, Directeur de recherche au CNRS, directeur de l'Observatoire astronomique de Strasbourg, Université de Strasbourg
L’observatoire Vera-C.-Rubin vient de débuter un grand sondage du ciel, le Legacy Survey of Space and Time (LSST) et a livré en juin 2025 de « premières » images au grand public : une grandiose visualisation d’une partie de l’amas de galaxies de la Vierge.
Mais de telles « premières » images ont une importance qu’il convient de relativiser, ou tout au moins recontextualiser car leur intérêt n’est pas forcément celui que l’on croit ou voit immédiatement.
Les images de Vera-C. Rubin se distinguent par la taille de leur champ exceptionnellement grande et la rapidité du nouvel observatoire, qui lui permet de cartographier des lumières même ténues sur une grande partie du ciel plusieurs fois par mois.
La « première lumière » d’un nouvel observatoire est un évènement symbolique et médiatique. Les images dévoilées ce jour-là au public ne sont en effet pas les vraies premières acquisitions – ces dernières servent des objectifs purement techniques et n’ont que peu d’intérêt pour le public. Elles ne témoignent pas forcément des buts scientifiques primaires qui ont motivé la construction du télescope. Elles existent essentiellement pour impressionner et susciter l’intérêt : pour cela, elles doivent posséder une valeur esthétique… qui ne doit pas occulter les performances techniques de l’instrument qui les a générées.
En quoi, alors, cette « première » image du sondage Legacy Survey of Space and Time (LSST), centrée sur l’amas de galaxies de la Vierge, est-elle originale et doit-elle nous interpeller ?
Pas tout à fait. Les structures les plus remarquables, visibles sur cette image, étaient familières, comme ce couple de spirales vues de face (au centre, à droite), cette galaxie naine mais étonnamment étendue et diffuse (en haut à droite) ou, enfin, ces spectaculaires traînées stellaires qui relient plusieurs galaxies d’un groupe situé à l’arrière-plan (en haut à droite), fruits de collisions en cours qui arrachent les étoiles à leurs galaxies.
Ces queues dites « de marée » avaient déjà été cartographiées par des caméras d’ancienne génération, comme Megacam sur le vénérable Canada-France-Hawaii Telescope (CFHT).
Obtenue depuis le sol, et subissant la turbulence de l’atmosphère qui floute toute lumière venue de l’espace, sa finesse est loin des standards des télescopes spatiaux Hubble, James-Webb ou Euclid, qui présentent une résolution spatiale de 5 à 10 fois meilleure.
Certes, mais depuis que le sondage du Sloan Digital Sky Survey (SDSS) a démarré en 2000, il a systématiquement observé une grande partie du ciel dans des bandes devenues standards (u,g,r,i,z) et a combiné ses images pour produire de « vraies couleurs ». Le public s’est habitué à une vision colorée des objets astronomiques.
À lire aussi : Comment sont façonnées les images du ciel? Dans les pas du télescope pionnier Hubble
Désormais, chaque nouvelle mission utilise sa propre palette qui varie selon le jeu utilisé de filtres.
Certainement ! Les États-Unis ont une culture de médiation scientifique bien plus développée qu’en Europe, et leurs agences, dont le département de l’énergie américain et la Fondation nationale pour la science qui portent le projet LSST, accordent des moyens financiers conséquents aux actions de communication, relayées par l’ensemble des partenaires, parmi lesquels, en France, le CNRS dont l’Institut nucléaire et particules est chargé, entre autres, d’une grande partie de la chaîne de traitement des données.
Mais faut-il pour autant faire la fine bouche face à cette belle, mais pas si originale image produite par le LSST ? Assurément, non ! Elle mérite vraiment de s’y intéresser – non donc par ce qu’elle montre, mais par ce qu’elle cache !
Ce qui est réellement derrière cette image, c’est un potentiel scientifique énorme, lui-même résultat d’une prouesse technique remarquable.
L’image a été acquise avec la plus grande caméra au monde. Elle dispose d’un capteur de 3,2 milliards de pixels (en fait une mosaïque de 189 capteurs CCD), soit 100 fois plus qu’un appareil photo classique.
Cette débauche de pixels permet de couvrir un champ de vue sans précédent de 9,6 degrés carrés, soit 45 fois la taille apparente de la pleine Lune ou 35 000 fois celui de la caméra du télescope spatial Hubble.
Avec cette vision large, le LSST pourra cartographier la surface totale de l’amas de la Vierge en seulement 10 clichés (l’image présentée ici ne couvre qu’une partie de l’amas), et quelques dizaines d’heures d’observations, contre quelques centaines d’heures pour le télescope Canada-France-Hawaii, avec lequel nous osions une comparaison plus haut.
La taille de la caméra du LSST est digne de celle de son télescope, pourvu d’un miroir de 8,4 mètres, le plus grand au monde entièrement consacré à l’imagerie. Avec une telle machinerie, l’ensemble du ciel austral peut être observé en seulement trois jours, des performances idéales pour repérer les phénomènes transitoires du ciel, comme les supernovae ou pour découvrir des astéroïdes dont la position varie d’une image sur l’autre.
Chaque nuit d’observation, les terabytes de données s’accumulent et, pendant les dix ans du sondage, les images vont être empilées pour in fine atteindre une sensibilité inégalée, mettant en jeu une chaîne de traitement complexe sans commune mesure avec celles mises en œuvre pour les sondages anciens.
Cette base de données qui, comme le grand vin, se bonifie avec le temps, permettra d’effectuer des avancées dans de multiples domaines de l’astrophysique, de la physique stellaire à la cosmologie.
Alors, oui, il est tout à fait légitime d’être impressionné par cette première image du LSST et par le potentiel de découvertes qu’elle dévoile.
Et pour finir, il convient de rappeler que l’observatoire qui l’a acquise, installé dans le désert chilien de l’Atacama, honore par son nom l’astrophysicienne Vera Rubin, à l’origine de la découverte de la matière noire dans les galaxies. Donner un nom de femme à un projet astronomique d’envergure est aussi une première !
Pierre-Alain Duc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.08.2025 à 13:05
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
Il fait 32 °C dans votre salon. Vous allumez le ventilateur, et en quelques secondes, une sensation de fraîcheur vous envahit. Pourtant, la température de l’air n’a pas changé. Alors, comment un simple souffle peut-il nous faire croire qu’il fait plus frais ? Pourquoi recommande-t-on aujourd’hui d’y ajouter un brumisateur ?
Ce phénomène, bien plus subtil qu’il n’y paraît, s’explique à l’interface entre physique et biologie au niveau de la peau ; et implique bien sûr notre système nerveux en ce qui concerne la perception sensorielle.
Contrairement à ce qu’on pourrait penser, un ventilateur ne refroidit pas l’air : il se contente de le mettre en mouvement. D’ailleurs, un ventilateur électrique émet un peu de chaleur en raison de son moteur qui convertit l’énergie électrique en chaleur.
Dans une pièce isolée de 1 mètre cube maintenue à -30 °C, un ventilateur peut faire monter la température de 1 °C : on voit bien que l’effet est minime et sans impact sensible dans la plupart des situations.
Ce que le ventilateur modifie, c’est notre perception. Il crée une sensation de fraîcheur, sans réellement baisser la température. Cette impression vient de notre propre corps, qui réagit aux flux d’air en activant ses mécanismes naturels de régulation thermique.
Pour comprendre cette sensation de fraîcheur, il faut donc s’intéresser à la manière dont notre organisme gère sa température interne. Car c’est là, dans les échanges constants entre notre peau, l’air et notre système nerveux, que se joue le vrai mécanisme du rafraîchissement.
En effet, le corps humain fonctionne un peu comme une machine thermique : il produit de la chaleur en permanence (quand on bouge, digère…).
Pour éviter la surchauffe interne, l’organisme active un système de refroidissement très efficace : la transpiration.
Quand vous avez chaud, votre peau libère de la sueur. En s’évaporant, la sueur consomme de l’énergie (qu’on appelle la « chaleur latente de vaporisation ») : elle absorbe de la chaleur de votre corps. La sueur lui vole en quelque sorte des calories, ce qui le refroidit.
Mais ce mécanisme dépend beaucoup des conditions extérieures. Si l’air ambiant est chaud et humide, l’évaporation de la sueur devient moins efficace, car l’air est déjà presque saturé en humidité et est moins susceptible d’absorber celle de votre sueur. Résultat : vous continuez à transpirer, mais sans évaporation efficace, la sueur stagne sur la peau et n’extrait plus de chaleur. Autrement dit, elle ne vole plus les calories à votre peau qui permettraient à votre corps de se refroidir.
C’est là qu’intervient le ventilateur ! En brassant l’air saturé autour de la peau, le ventilateur le remplace par de l’air plus sec, ce qui favorise l’évaporation et aide votre corps à se refroidir.
En complément, l’utilisation d’un brumisateur apporte un refroidissement supplémentaire en projetant de fines gouttelettes d’eau sur la peau.
En ajoutant des gouttelettes, on augmente la quantité d’eau disponible pour l’évaporation, ce qui permet d’extraire davantage de chaleur de la peau et d’intensifier le refroidissement.
L’association du brumisateur et du ventilateur optimise le confort thermique dans les climats chauds en maximisant l’évaporation. En revanche, lorsque l’air est très humide et saturé de vapeur d’eau, ce mécanisme est inefficace, car l’évaporation est limitée.
Ainsi, le brumisateur est particulièrement performant dans les environnements secs, où l’air peut absorber facilement l’humidité, tandis que le ventilateur favorise le renouvellement de l’air humide autour de la peau, évitant ainsi la saturation locale et maintenant un gradient favorable à l’évaporation.
Mais ce n’est pas tout. Même sans sueur, votre corps transfère de la chaleur à l’air ambiant : c’est la convection.
Cela signifie que l’air en contact avec votre peau se réchauffe légèrement. Quand l’air est immobile, cette couche d’air chaud reste collée à la peau comme une fine couverture.
En mettant l’air en mouvement, le ventilateur dissipe la fine couche d’air chaud qui entoure votre peau. Cela permet à la chaleur d’être évacuée plus rapidement, ce qui provoque une sensation quasi immédiate de fraîcheur.
Plus précisément, des chercheurs ont montré que, lorsque la vitesse de l’air augmente, l’évaporation de la sueur peut croître de près de 30 % pour une vitesse d’air de 2 mètres par seconde (ce qui équivaut à environ 7 kilomètres par heure). Parallèlement, la perte de chaleur par convection s’intensifie également grâce au renouvellement constant de l’air chaud proche de la peau.
Ce phénomène s’appelle l’« effet de refroidissement éolien », ou wind chill. Il explique pourquoi, en hiver, un vent fort peut vous faire ressentir un froid bien plus intense que la température réelle : par exemple, un 0 °C accompagné de vent peut être perçu comme -10 °C, car votre corps perd sa chaleur plus vite.
En été, c’est le même principe : le souffle du ventilateur ne fait pas baisser la température de la pièce, mais il favorise la perte de chaleur corporelle, donnant l’illusion que l’air ambiant est plus frais. C’est une température ressentie plus basse, pas une température réelle.
Un ventilateur est donc bien un allié optimal. Il n’abaisse pas la température de l’air, mais accélère la perte de chaleur de votre corps. Il facilite ainsi vos mécanismes naturels de refroidissement tels que l’évaporation de la sueur, la convection de la chaleur, la perception sensorielle de l’air en mouvement.
En réalité, l’air reste à la même température : c’est vous qui refroidissez plus vite… et votre cerveau traduit cette perte de chaleur par une agréable sensation de fraîcheur !
À lire aussi : Des canicules au froid glacial, comment corps et cerveau s’allient pour percevoir la température
Ce processus n’est pas trivial. Il repose sur une interaction complexe entre des récepteurs sensoriels situés dans la peau et des régions spécifiques du cerveau, notamment le cortex insulaire postérieur. Ces récepteurs détectent les variations de température corporelle et transmettent ces informations au cerveau, qui les intègre pour générer une sensation consciente de fraîcheur.
Ainsi, ce que vous ressentez comme une fraîcheur agréable est en réalité une perception cérébrale fine et sophistiquée de la baisse réelle de la température de votre corps.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.