10.11.2024 à 19:38
Bruno Castanié, Professeur en Structures Composites, Institut Clément Ader, INSA Toulouse
Arthur Cantarel, Maître de conférence - Institut Universitaire de Technologie de Tarbes , IMT Mines Albi – Institut Mines-Télécom
Florent Eyma, Professeur - Institut Universitaire de Technologie de Tarbes, IMT Mines Albi – Institut Mines-Télécom
Joel Serra, Ingénieur-Chercheur en mécanique des structures et matériaux composites, ISAE-SUPAERO
Ce mardi 5 novembre, le tout premier satellite en bois a été lancé dans l’espace. Il a été développé par des scientifiques de l’Université de Kyoto. Une preuve que le bois peut être envisagé comme un matériau de construction du futur.
Depuis l’invention de la roue, estimée à 4 000 ans av. J.-C., le bois a été utilisé par l’humanité pour ses déplacements terrestres. Hormis dans le nautisme, il est peu connu que son usage était encore fréquent à la fin du XXe siècle. Parmi les nombreux exemples documentés dans nos articles l’un des meilleurs avions de la Deuxième Guerre mondiale était le Mosquito, produit par De Havilland à 7 781 exemplaires, capable de voler à 680 km/h et dont la structure était faite de bouleau, douglas et balsa.
Jusqu’à aujourd’hui la société Robin Aircraft, établie à Dijon a produit le DR 400 en construction bois et toile à 2 700 exemplaires. Côté automobile, la société anglaise Morgan utilise encore le frêne pour une partie de ses châssis. Mais un des plus beaux exemples était la Costin Nathan Le Mans 1967 dont la structure était en contreplaqué pour un poids de seulement 400 kg, c’est la moitié de la Ferrari P4 de la même année.
Ces exemples montrent à la fois la légèreté et la résistance du bois mais aussi un savoir-faire en partie perdu. En effet, seule la marque anglaise Morgan utilise encore le bois pour ses voitures en petite série aujourd’hui.
La question de son utilisation est intimement liée à la ressource disponible. Si dans l’hémisphère Sud, la couverture forestière disparaît majoritairement à cause de son utilisation comme bois de chauffe, dans l’hémisphère Nord elle continue à augmenter. Pour l’Union européenne, l’augmentation du stock de bois sur pied a été de 30 % sur la période 2000-2020 et la couverture forestière représente 39 % de la surface des états membres. En France la couverture forestière a doublé en 100 ans. Malheureusement, ce sont essentiellement les résineux qui sont exploités alors qu’une utilisation structurale pour des véhicules nécessiterait des feuillus comme le peuplier ou le bouleau qui sont des essences locales et abondantes.
Nos recherches ont d’abord porté sur la caractérisation mécanique du contreplaqué seul ou pris en sandwich avec d’autres matériaux comme l’aluminium ; les fibres de carbone, de verre mais aussi de lin. Si les résistances trouvées sont satisfaisantes, le contreplaqué s’avère un matériau très complexe du fait de son mode d’obtention. On va trouver des caractéristiques différentes en fonction de la position du bois dans l’arbre (bois juvénile ou adulte, de printemps ou d’été). À cette complexité s’ajoute aussi une forte sensibilité du bois à son environnement en termes d’humidité et de chaleur.
Toutes ces complexités influent sur les caractéristiques mécaniques des plis qui constituent le contreplaqué et pour y remédier nous avons développé des méthodes d’identification grâce aux thèses de John Susainathan et d’Axel Peignon, du postdoctorat d’Hajer Hadiji et de l’ANR BOOST.
Les véhicules d’aujourd’hui doivent permettre d’absorber les chocs lors d’accidents. Ce sont le plus souvent des tubes en acier ou aluminium qui servent d’absorbeur d’énergie. Il était donc important de connaître la réponse du bois à des crashs. Lors de la thèse de Romain Guélou, nous avons testé des tubes fabriqués avec plusieurs essences (peuplier, bouleau et chêne) avec ou sans des peaux intérieures ou extérieures, en tissus de fibres de verre ou de carbone. Le comportement au crash du bois est très bon. Un tube avec des peaux en carbone et une âme en plis de bouleau a pu absorber l’énergie d’une masse de 170 kg lâchée à 4,2 m de hauteur. On a aussi pu montrer la contribution significative du bois puisqu’en passant de 2 à 6 plis de bouleau, l’énergie absorbée est multipliée par 2.
Récemment un groupe d’étudiants du département de génie mécanique de l’INSA Toulouse a montré que sur un véhicule léger, librement inspiré de l’Africar (une voiture avec un châssis bois extrêmement robuste conçue dans les années 1980 pour l’Afrique), les contraintes sont faibles et parfaitement supportables par un contreplaqué de bouleau ou de peuplier.
Les études menées à l’INSA Toulouse et à l’Institut Clément Ader depuis 12 ans montrent les possibilités de ce matériau historique que la nature a rendu très avancé pour une mobilité durable. Ces études s’inscrivent dans un mouvement de redécouverte et de réemploi. En France, la société Aura Aéro, basée à Toulouse a développé l’Integral R, avion d’acrobatie bois-carbone en cours de certification. À Belfort, les avions Mauboussin, avec qui nous collaborons, développent un avion dont la structure est en bois en s’inspirant du Mosquito.
À travers plusieurs programmes de recherches, le professeur Ulrich Müller et son équipe autrichienne ont démontré que le remplacement et le calcul de pièces de véhicules par du bois étaient avantageux économiquement et permettaient d’alléger les structures.
Mais le plus surprenant est l’utilisation du bois dans l’espace. Deux études sont actuellement en cours, au Japon et en Europe (Finlande), pour utiliser le bois comme matériau de structure de petits satellites.
L’étude japonaise LignoSat Space Wood vient de lancer un satellite en bois de magnolia sur une orbite terrestre basse. En plus d’être respectueux de l’environnement lors de sa fabrication et de brûler complètement dans l’atmosphère terrestre une fois désorbité, un satellite en bois sera largement transparent aux ondes radio. Les antennes de communication et de recherche pourraient ainsi être internes car le bois est transparent aux ondes radio, évitant ainsi des opérations de déploiement hasardeuses. Les tests effectués sur des échantillons de bois à la Station spatiale internationale (ISS) par des chercheurs de l’Université de Kyoto ont confirmé la détérioration minime et la bonne stabilité du bois dans l’espace. Le satellite européen est fabriqué en contreplaqué de bouleau finlandais, mais dopé pour l’aider à résister aux conditions spatiales.
Il existe donc un intérêt croissant pour le bois dans des domaines des transports parmi les plus variés. Si de nombreuses recherches ont été effectuées sur le bois en utilisation génie civil, il reste un domaine quasi vierge pour le contreplaqué dans le domaine des transports malgré un énorme potentiel en termes de développement durable. Des applications aéronautiques et spatiales ont déjà vu le jour mais pour les transports, hormis quelques réalisations d’amateurs éclairés, il n’y a pour l’instant aucune application industrielle.
Castanié Bruno a reçu des financements de l'ANR sur ce sujet.
Arthur Cantarel a reçu des financements de l'ANR.
Florent Eyma et Joel Serra ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
07.11.2024 à 17:16
François Vannucci, Professeur émérite, chercheur en physique des particules, spécialiste des neutrinos, Université Paris Cité
Il y a tout juste 50 ans, un groupe de physiciens découvrait un nouveau quark, « brique » de base des protons et des neutrons. Récit par l’un de ses découvreurs.
Au début des années 1970, les physiciens des particules disposaient de deux imposants centres d’accélérateurs pour étudier l’infiniment petit : l’européen CERN à Genève et l’américain Brookhaven près de New York. Chacun abritait un accélérateur de protons de 620 m de circonférence pouvant atteindre l’énergie alors faramineuse de 25 GeV. L’unité d’énergie est ici l’électron-volt (eV), 1eV étant l’énergie d’un électron traversant une tension de 1V. On emploie les multiples : keV (103), MeV (106) et GeV (109). Cela reste infinitésimal rapporté au monde ordinaire. 1 GeV, équivalent de la masse du proton, correspond à une énergie qui élèverait d’un milliardième de degré la température d’un gramme d’eau !
Grâce à ces machines, la physique multipliait le nombre de particules élémentaires en suivant une recette simple : bombardant une cible avec un faisceau de protons accélérés, on analysait les particules qui sortaient. On accumula ainsi environ 200 types d’objets élémentaires, en particulier de nombreuses résonances.
Qu’est-ce qu’une résonance ? Alors que les particules telles que protons, électrons, pions, kaons… peuvent être suivies sur des distances macroscopiques, les résonances se désintègrent dès leur création en donnant deux ou trois particules qu’il s’agit d’associer pour retrouver la résonance originelle. Empiriquement, on remarqua que plus leur masse était élevée, plus leur temps de vie était court jusqu’à atteindre 10-23 s. La discipline languissait depuis plusieurs années sans direction bien assurée devant un zoo hétéroclite à l’aspect assez brouillon.
200 objets élémentaires pour construire le monde, ce ne pouvait pas être le mot de la fin. Heureusement, les physiciens Murray Gell-Mann d’une part, et George Zweig d’autre part suggérèrent l’existence de constituants plus élémentaires à la base des particules répertoriées. Gell-Mann les appela quarks et montra que les 200 espèces connues pouvaient se comprendre comme assemblages de trois quarks différents qu’on nomme u, d et s. Zweig les appela « as » mais « quark », qui vient du roman de James Joyce Finnegans Wake, s’imposa.
Les quarks portent des charges électriques qui sont une fraction de la charge élémentaire de l’électron, respectivement +2/3 pour u et -1/3 pour d et s. Avec ces trois objets de base et trois antiquarks associés portant la charge opposée, on reconstruit deux familles de particules :
les baryons qui sont des triplets de quarks, par exemple uud et udd forment respectivement les protons et les neutrons ; les charges +1 et 0 sont bien restituées.
les mésons qui sont des paires associant un quark et un antiquark,
Avec les trois seuls dés à disposition, la nature construisait toutes les particules connues. Une association manquait, celle du baryon correspondant au triplet sss. C’était la prédiction du modèle. Une recherche fut menée et le « grand Ω » fut découvert à Brookhaven en 1964 à la masse prédite. Gell-Mann reçut le prix Nobel en 1969.
Toutes les particules connues ont une charge électrique +1, 0, -1 celle de l’électron. Des charges non entières supposées caractériser les quarks n’ont jamais été observées librement. Pourtant les quarks existent dans la mesure où ils opèrent au moment des interactions entre particules. Mais, dès qu’ils sont créés, ils « s’habillent » avec d’autres quarks ou antiquarks pour former les particules « réelles », baryons ou mésons. À notre niveau, les quarks restent des objets virtuels, nécessaires pour interpréter les observations.
Les quarks constituent le niveau le plus élémentaire de la matière explorée à ce jour. Leur « taille » est inférieure à 10-18 m alors que les particules qu’ils composent possèdent une taille mille fois supérieure.
En sus des deux laboratoires majeurs cités, il existait des centres plus modestes. En France, une machine à protons fonctionnait à Saclay et une à électrons à Orsay. Il y avait aussi un dispositif en développement sur le campus de Stanford, cœur de la Silicon Valley, au sud de San Francisco. Le laboratoire, appelé SLAC, avait construit un accélérateur « dans le parking », c’est-à-dire entièrement financé sur les frais de fonctionnement, sans demande spécifique de budget, ce qui mérite aujourd’hui d’être souligné ! C’était un dispositif accélérant en sens inverse des électrons et des positrons dans un collisionneur de 80 m de diamètre, d’énergie maximale 4 GeV par faisceau. Il prit le nom de SPEAR, « Stanford Positron Electron Accelerator Ring ».
Autour d’un point d’interaction entre positrons et électrons, un détecteur de conception nouvelle fut construit pour mesurer au mieux tous les produits de la collision. C’était le premier détecteur hermétique qui couvrait tout l’espace pour ne rien laisser s’échapper. On l’appela Mark1.
L’expérience commença à prendre des données dès 1973 et elles étaient embarrassantes. L’ordinateur qui gérait la prise de données enregistrait environ une collision toutes les deux à trois minutes qu’il signalait en émettant un bref son. Ce taux était plusieurs fois supérieur à ce que prédisait la théorie.
On variait l’énergie en un balayage relativement grossier, en pas de 50 MeV : ainsi, on mesurait le taux de collisions à 2,550 GeV puis 2,600 GeV puis 2,650 GeV… Deux problèmes apparaissaient. Tout d’abord, comme déjà mentionné, le taux d’interaction s’avérait nettement plus élevé que prédit. De plus, les données prises à l’énergie nominale de 3,100 GeV en trois périodes différentes n’étaient pas en accord entre elles, deux périodes donnant des taux beaucoup plus élevés que la troisième. La reproductibilité de la physique semblait violée.
Et alors, quelqu’un eut l’idée de faire un balayage beaucoup plus fin en énergie. Au lieu d’augmenter de 50 MeV en 50 MeV, on varierait l’énergie en pas plus serré de 2 MeV en 2 MeV. Et là, le miracle se révéla le 10 novembre 1974, c’était un dimanche. Nous étions trois ou quatre dans la salle de contrôle quand l’ordinateur, qui émettait son petit son à chaque nouvelle collision, au lieu de crépiter toutes les deux ou trois minutes, commença à accélérer le rythme. Ce fut le signal magique que tous nous espérions : entre les énergies de 3100 et 3120 MeV, le taux d’interactions, et donc le signal sonore de l’ordinateur, augmenta soudain d’un facteur 100. La « fusillade » dura quelques minutes. Puis, le pic découvert étant dépassé, l’ordinateur reprit son train-train de un coup en deux minutes.
Une structure manifeste s’était révélée, on venait de révéler une « résonance étroite » de masse 3096 MeV et de largeur 87 keV. Cette largeur indiquait un temps de vie 100 fois supérieur à l’attendu. On cherchait un profil de colline jurassienne et on découvrait un pic alpestre. Un phénomène totalement nouveau apparaissait.
Une publication fut vite écrite, signée par un groupe d’une trentaine de physiciens, contingent qui à l’époque semblait monstrueux et qui aujourd’hui s’avère bien modeste. Elle renouvela la vision du monde de l’infiniment petit et l’événement fut appelé la « révolution de novembre 74 »
Il fallait donner un nom. Quelques lettres grecques restaient libres et on choisit Ψ. Pourquoi cette particule possédait-elle une vie aussi longue ? L’interprétation n’était pas évidente. Deux écoles se disputèrent pendant une fébrile semaine au troisième étage du laboratoire où bivouaquaient les théoriciens, entre les tenants de la libération des couleurs, nouvelle « charge » imaginée pour associer les quarks entre eux, et ceux prônant l’apparition d’un nouveau quark. Le verdict tomba : l’expérience venait de découvrir le quatrième quark, appelé c pour charmé. Ceci complétait la liste des constituants élémentaires au-delà des trois quarks u, d et s introduits par Gell-Mann.
Et si un nouveau quark existe, il annonce toute une famille de particules charmées correspondant à toutes les combinaisons permises entre quatre quarks. Déjà, le 17 novembre, on trouvait le méson Ψ’ de masse 3700 MeV, autre avatar de ce qu’on a appelé le charmonium, qui associait un quark c à son anti-c.
Comme pour les nouveau-nés, le nom charme vient de la facétie d’un parrain. En astronomie, les planètes portent les noms de dieux antiques. Pour les particules, on aurait pu les numéroter, on choisit de les classer selon l’alphabet, grec de préférence. Ainsi Δ, μ, Φ, Σ, Λ… presque toutes les lettres furent mises à contribution. Le grec était favorisé pour que la physique égale en respectabilité sa sœur, la philosophie. Mais, vers les années 1960, le langage évolua. Les nouveaux scientifiques, moins imprégnés de culture classique, passèrent à des noms plus prosaïques. Les particules étranges avec leur quark s (strange) avaient balisé la voie. Charm fut adopté pour le c, et l’histoire se répétera avec le quark b beau (ou bottom) et le quark t vrai (truth ou top). On sait aujourd’hui qu’avec ces six objets la liste des quarks est au complet, il n’y a plus rien à découvrir sur ce front.
Pour clore l’histoire, la même résonance fut découverte indépendamment en collisions de protons à Brookhaven, et là le groupe choisit le nom J. Cette lettre, étrangère au grec, ressemble à un caractère chinois qui s’épelle comme le patronyme de son découvreur. Et pour ne froisser personne, les physiciens continuent à appeler le méson charmé du nom un peu baroque de J/Ψ.
François Vannucci ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
06.11.2024 à 15:40
Clément Ganino, Maitre de Conférence en Sciences de la Terre, Université Côte d’Azur
Le ralentissement spectaculaire de la croissance démographique il y a 74 000 ans, la chute de la civilisation minoenne, la Révolution française, la migration d’Européens vers les États-Unis au XIXe siècle… Derrière chacun de ces événements, l’influence possible d’une éruption volcanique.
Les grandes éruptions volcaniques sont des phénomènes spectaculaires qui peuvent de fait avoir des répercussions sur l’activité humaine, de façon locale ou globale, et ainsi avoir une influence sur l’histoire des civilisations et des arts. D’un point de vue géologique, une éruption consiste en l’émission de magma incandescent (sous forme de coulées ou d’éjectas) de cendres, de poussières et de gaz (vapeur d’eau, dioxyde de carbone ou gaz soufrés) le tout en proportions variables. Le dioxyde de carbone s’il est émis en grande quantité sur une courte période peut avoir un effet direct sur le climat via l’effet de serre.
Les gaz soufrés forment, eux, des aérosols, c’est-à-dire des particules dans l’atmosphère qui occultent une partie du rayonnement solaire. Ces aérosols peuvent ainsi contribuer à ce qu’on appelle un « hiver volcanique » avec une chute brutale des températures. S’ils sont émis en quantité, ces gaz peuvent changer significativement la composition globale de l’atmosphère et ses propriétés optiques. Enfin, après une éruption, le réservoir souterrain d’où provient le magma, « la chambre magmatique », peut se vider entièrement et provoquer ainsi un effondrement du sol en surface qu’on nomme caldeira.
Tâchons de revenir sur quelques éruptions qui ont, de par ces processus d’émission ou d’effondrement, marqué l’histoire, les arts, et peuvent également éclairer quelques enjeux du changement climatique actuel.
Si certaines éruptions n’ont pas laissé de traces écrites, elles ont pourtant considérablement impacté l’humanité.
L’éruption de Toba en Indonésie (environ 74 000 ans avant notre ère) a ainsi provoqué un hiver volcanique d’une durée de plusieurs années. Certains auteurs suggèrent qu’elle aurait de ce fait déclenché un goulot d’étranglement démographique chez les premiers Homo sapiens, réduisant la population humaine mondiale à quelques milliers d’individus et ralentissant l’expansion de l’humanité.
Les premiers témoignages de phénomènes éruptifs connus du paléolithique prennent ensuite la forme de peintures rupestres. Dans la grotte Chauvet en Ardèche, par exemple, en plus des représentations d’animaux généralement dangereux et puissants (lions, ours, mammouths, rhinocéros réalisées avec des pigments d’ocre rouge et de charbon), on trouve des gravures figurant le plus ancien témoignage d’éruption volcanique. Un dessin distinctif en gerbes paraboliques a été assimilé à une représentation de fontaines de laves typiques des éruptions dites « stromboliennes ».
Ces dernières sont caractérisées par des explosions d’intensité modérée éjectant à quelques dizaines de mètres de hauteur des particules de lave incandescentes de tailles variées (cendres, lapilli et bombes). La comparaison de l’âge d’occupation de ce site (37 000 à 33 500 ans) avec l’âge des plus jeunes volcans d’Ardèche (entre 19000 ans et 41000 ans) montre qu’il est possible que les habitants aient vécu et témoigné à travers ce dessin d’une éruption volcanique.
Cet exemple ne laisse cependant pas présager des conséquences humaines et matérielles des éruptions et il faut attendre le néolithique et la fresque de Çatal Höyük en Turquie pour avoir un témoignage probable des effets d’une éruption. Cette fresque dans une maison néolithique (6 600 avant J.-C.) montre ce qui semble être un volcan en éruption (vraisemblablement le mont Hasan), projetant des cendres ou de la lave vers une série de motifs en damier pouvant être interprétés comme les habitations de cette ancienne ville d’Anatolie centrale en proie à une éruption.
Ces deux exemples témoignent de l’influence des éruptions volcaniques, à minima sur l’imaginaire et sur l’histoire des prémices de l’art dans ces temps très reculés. Mais au-delà du spectacle local d’une éruption telle qu’elle peut être observée à proximité d’un volcan, les « grandes » éruptions volcaniques ont parfois eu un impact reconnu sur les populations de l’antiquité.
À lire aussi : Changement climatique : quel est le rôle des éruptions volcaniques ?
L’éruption de Théra (Santorin, Grèce) vers 1600 av. J.-C. a été l’une des plus puissantes de l’histoire. Elle a eu un impact majeur sur la florissante civilisation minoenne et des répercussions sur la proche civilisation mycénienne, commercialement liée aux Minoens. Une quantité massive de cendres a recouvert l’île de Santorin et lors de la formation d’une caldeira, une partie de l’île a été submergée dont la ville antique d’Akrotiri. Cette éruption pourrait d’ailleurs avoir inspiré le mythe de l’Atlantide, raconté par Platon dans ses Dialogues.
Au-delà de ces impacts majeurs mais locaux, l’éruption de Théra a projeté une immense quantité de cendres et d’aérosols dans l’atmosphère, provoquant des changements climatiques temporaires. L’« hiver volcanique » lié aux aérosols a pu modifier le cycle des moussons et sécheresses contribuant à de mauvaises récoltes dont témoigne le Papyrus égyptien d’Ipou-Our, décrivant de telles famines, ainsi que diverses catastrophes naturelles sous le règne d’Ahmôsis Iᵉʳ (vers 1550-1525 avant J.-C.).
Par la suite, d’autres éruptions majeures ont marqué l’histoire et notamment à la fin du XVIIIe siècle (1783-1784), lorsque le volcan Laki (Lakagigar) entra en éruption en Islande : 12 km3 de lave s’échappèrent alors d’une fissure de 30 km de long libérant de grandes quantités de fluorures dans l’atmosphère. Ces composés, une fois retombés sur les pâturages, provoquèrent une contamination massive intoxiquant le bétail (maladies osseuses, dentaires et mort de nombreuses bêtes). Près de 50 % du bétail islandais aurait péri et 20 % de la population islandaise (soit environ 10 000 personnes) aurait succombé à la famine créée par cet évènement causant l’une des plus grandes catastrophes démographiques dans l’histoire de l’île.
Au-delà de l’Islande, les émissions de gaz soufrés du Laki ont été suffisamment massives pour entrainer un refroidissement global (hiver volcanique) et un hiver particulièrement froid en Europe, affectant les récoltes, notamment en France, et contribuant à des pénuries alimentaires qui ont exacerbé les tensions économiques et sociales. Ces conditions ont été le terreau de la Révolution française (1789) qui elle-même a inspiré multiples soulèvements en Europe et dans le monde. L’histoire politique a ainsi été mise en mouvement par une éruption volcanique pourtant très peu explosive, et dont les volumes émis peuvent paraître dérisoires, notamment s’ils sont comparés à d’autres évènements éruptifs documentés aux échelles de temps géologiques comme la mise en place des grandes provinces magmatiques (Deccan, Sibérie, etc.).
À lire aussi : Quand les éruptions volcaniques provoquent des tsunamis
Au contraire, l’éruption du Tambora en Indonésie en 1815, a été extrêmement explosive. Elle a entrainé « l’année sans été » de 1816 qui a vu les températures mondiales chuter de plusieurs degrés, provoquant des récoltes désastreuses en Europe et en Amérique du Nord, et entrainant famines et troubles sociaux, cette fois-ci moteur de migrations massives, notamment aux États-Unis. Cette éruption, projetant d’énormes quantités de cendres et de particules dans l’atmosphère, a engendré des couchers de soleil spectaculaires et un « ciel strié » pendant plusieurs mois.
Selon certains auteurs, ils ont pu inspirer des peintres comme William Turner (Le Dernier Voyage du Téméraire ; Le bateau négrier) et Caspar David Friedrich, dont des paysages romantiques, tels que dans le célèbre Voyageur au-dessus de la mer de nuages (1818), pourraient également refléter un ciel teinté par les cendres et les particules résultant de l’éruption.
L’éruption cataclysmique du Krakatoa, à la fin du XIXe (1883), en plus des tsunamis dévastateurs qui ont tué des dizaines de milliers de personnes en Indonésie et ses environs, a également entrainé des phénomènes lumineux mondiaux remarquables liés aux particules dispersées dans l’atmosphère. Une étude a ainsi établi un lien entre l’éruption du Krakatoa et le spectaculaire crépuscule qui a inspiré l’une des peintures les plus célèbres du mouvement expressionniste : le Cri. Ce lien entre l’éruption du Krakatoa et l’œuvre de Munch reste débattu, certains auteurs préférant voir dans ce ciel inquiétant une figuration du phénomène purement météorologique des « nuages nacrés ».
Outre l’expressionnisme de Munch, certains auteurs estiment que l’impressionnisme de Claude Monet a pu être également influencé par le ciel chargé en aérosols volcaniques du Krakatoa. S’ils inspirent les volcanologues, les grands peintres inspirent également les géochimistes de l’environnement, qui préfèrent eux voir dans certaines de leurs toiles une représentation de phénomènes optiques liés à la pollution atmosphérique croissante en pleine révolution industrielle.
Le XXe siècle n’a pas été exempt d’éruptions, mais il a vu apparaître toute une série de mesures destinées à minimiser leurs impacts sur les populations. L’éruption de la montagne Pelée en 1902, dévastant la ville de Saint-Pierre en Martinique, a fait plus de 30000 victimes et engendré un déplacement massif de populations, modifiant la perception des risques volcaniques : les systèmes d’alerte ont été réévalués et des mesures de sécurité se sont développées et déployées dans les régions volcaniques.
De ce fait, l’éruption du Pinatubo (1991), aux Philippines, même si elle a été l’une des plus violentes du XXe siècle, a fait relativement peu de victimes (moins de 100) malgré la synchronicité de cet événement avec le passage du typhon Yunya. La surveillance volcanique couplée à des évacuations massives, a probablement sauvé des milliers de vies. Les systèmes actuels de surveillance des volcans combinent plusieurs techniques : des sismomètres mesurant les vibrations causées par les mouvements de magma, divers capteurs inspectant un éventuel bombement de la surface préalable à une éruption, des satellites de télédétection, des webcams et drones, ainsi que des dispositifs mesurant les émissions de gaz volcaniques. Des campagnes de sensibilisation et d’information et des procédures d’évacuation sont également préparées, limitant l’impact de possibles futures éruptions.
Très récemment, l’éruption sous-marine du Hunga Tonga, survenue le 15 janvier 2022 dans l’océan Pacifique Sud, a été d’une intensité extraordinaire, propulsant des cendres jusqu’à 58 km dans l’atmosphère et déclenchant des tsunamis dans plusieurs régions (l’Océanie mais également le Pérou ou la Californie).
Elle est considérée comme l’une des plus puissantes de l’histoire moderne, déployant une énergie cent fois supérieure à celle de la bombe nucléaire d’Hiroshima. Cette éruption a injecté environ 150 mégatonnes de vapeur d’eau dans la stratosphère, augmentant de 10 % la teneur stratosphérique en vapeur d’eau. Les températures dans la stratosphère tropicale ont de ce fait diminué d’environ 4 °C en mars et avril 2022. Les immenses quantités de vapeur d’eau injectées dans l’atmosphère par ce volcan ont, d’une certaine façon, permis de réaliser une expérience naturelle de géo-ingénierie, cette solution étant parfois envisagée comme une lutte de dernier recours contre le changement climatique.
Les éruptions volcaniques et leur étude n’ont sans doute pas fini d’influencer notre histoire.
Clément Ganino a reçu des financements de l'ANR et du CNRS.
06.11.2024 à 14:37
DIRIS Jean-Pierre, Coordinateur interministériel IRS ² et GOVSATCOM, Centre national d’études spatiales (CNES)
The ongoing transition to a digital economy has already had one observable consequence: a sharp rise in the need for connectivity enabling rapid data transmission. In a global market where connectivity offers are evolving quickly, satellites are now achieving technical and economic performances close to those of terrestrial solutions. The enormous advantage is their steady deployment cost, whatever the geographical area, and particularly in “white” zones not covered by terrestrial infrastructures.
The European IRIS² satellite constellation (is part of this transition, which requires more and more data-sharing infrastructure – currently dominated by US players. A satellite constellation enables different users to be connected via multiple satellites, providing a continuous and complete coverage of the planet.
With several public (China, US) and private (Oneweb, Starlink and Kuiper) constellation initiatives being developed and put into service to meet data processing and connectivity needs, the telecommunications sector is more strategic than ever for France and Europe. The IRIS2 programme is designed to meet this challenge.
After some attempts in the early 2000s, constellations have finally emerged, and projects are now credible and largely financed by public and private funds. Several factors have contributed to this emergence: advances in electronic miniaturisation, the performance of integrated digital components, the drastic reduction in launch costs and the industrial capacity to produce satellites in small series at lower cost.
Faced with the development of satellite telecommunications in low earth orbit (an area of the earth’s orbit up to 2,000 kilometres above sea level), the European Commission has adopted an approach, involving both the public and private sectors, that aims to strengthen Europe’s position in the constellation race to benefit European citizens and their institutions.
The European Union’s secure connectivity satellite constellation programme was decided on in March 2023. IRIS2 (Infrastructure for Resilience, Interconnectivity and Security by Satellite) will be the first multi-orbital satellite network in Europe. Some 300 satellites will be designed, manufactured and deployed in the first phase.
The constellation will provide a secure communications infrastructure for EU government bodies and agencies. The various communication links between users and the satellite command and control links will be protected, and the ground infrastructure will be secured.
The system will guarantee the EU’s strategic autonomy in the field of secure government communications. IRIS2 will also provide commercial services and seek to maximise synergies between government and commercial infrastructures. The constellation will strengthen the position of Europe, its industries and its operators in the world.
IRIS2 is associated with the EU’s existing GOVSATCOM programme, which provides secure government communications based on capacity from licensed operators or member states.
The EU funds IRIS2 with €2.4 billion under the Multiannual Financial Framework (MFF) 2021-2027; additional funding is being considered under the MFF 2028-2035. The funding is complemented by the European Space Agency (ESA) with €600 million (subscribed to in the ESA’s ministerial conference of November 2022), and by private commercial players under a concession contract.
Following validation of the EU’s regulation on the secure connectivity constellation programme in March 2023, the European Commission launched a call for tenders for the main IRIS2 development contract in May 2023. The tender was finalised by a consortium of three operators (Eutelsat, SES and Hispasat) associated with industrial subcontracting partners (Airbus, Thales, OHB, Deutsche Telekom and Orange) for a bid submission on September 2, 2024. The European Commission has examined the offer and just confirmed the contract award, with a view to sign the 12-year IRIS2 concession contract before the end of 2024.
In summer 2023, the European Commission launched a call for tenders to host the constellation’s ground infrastructure, and in April 2024 selected France (Toulouse) Italy (Fucino) and Luxembourg (Bettembourg) to host the IRIS2 control centres.
France’s former prime minister Elisabeth Borne decided to set up a French interministerial coordination for IRIS2 and GOVSATCOM, for which I have been tasked as coordinator, with the participation of representatives from the various ministries and agencies. The main objectives are to coordinate all French activities contributing to the development and operation of these programmes, to ensure a continuous relationship with European contacts (EU, ESA and the European Union Agency for the Space Programme) and to lead the French community of users of the connectivity provided by these programmes.
The aim of IRIS2 is to provide an autonomous and sovereign digital service to every member state of the European Union. Nowadays, space connectivity is indispensable, as it is the most reliable option when terrestrial telecommunication systems do not exist or have been damaged by a conflict or natural disaster, for example.
The programme will provide a wide variety of services to European governments and citizens. The system enables surveillance of borders and remote areas. The programme is indispensable for civil protection, particularly in the event of crises or natural disasters. It improves the delivery of humanitarian aid and the management of maritime emergencies, whether for search or rescue. Numerous smart connected networks – energy, finance, healthcare, data centres, etc. – will be monitored thanks to the connectivity provided by IRIS2. The system will also enable the management of various infrastructures: air, rail, road and vehicle traffic. Added to this are institutional telecoms services for embassies, for example, and new telemedicine services for intervention in isolated areas. Finally, IRIS2 will improve connectivity in areas of strategic interest for foreign security and defence policy: Europe, the Middle East, Africa, the Arctic, the Atlantic and Baltic regions, the Black Sea and the Mediterranean Sea.
The constellation’s satellites will be placed in two different orbits: low (up to 2,000 kilometres) and medium (between 2,000 and 35,786 km). By covering this range, IRIS2 will be able to provide low-latency communications services – i.e., ultra-fast information transmission comparable to the performance of terrestrial networks – and to complement other European space programmes.
IRIS2 is based on advanced technologies, with a relatively limited number of satellites compared with mega-constellations, which consist of many thousands. Its satellites will be designed to meet the environmental and regulatory standards of Europe’s future space law.
DIRIS Jean-Pierre ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.11.2024 à 16:07
Sara Webb, Lecturer, Centre for Astrophysics and Supercomputing, Swinburne University of Technology
En analysant les mouvements de certains objets du système solaire situés au-delà de Pluton, on note que les observations ne collent pas avec la théorie et que l’explication la plus simple serait la présence d’une neuvième planète. Les astronomes mènent l’enquête.
Notre système solaire est un endroit particulièrement encombré. Des millions d’objets s’y déplacent, qu’il s’agisse de planètes, de lunes, de comètes ou d’astéroïdes. Et chaque année, nous découvrons de plus en plus d’objets (généralement de petits astéroïdes ou des comètes) qui élisent domicile dans le système solaire.
En 1846, les astronomes avaient déjà trouvé les huit planètes principales. Mais cela n’a pas empêché les scientifiques d’en chercher d’autres. Au cours des 100 dernières années, nous avons découvert des corps lointains plus petits que nous appelons planètes naines, ce qui correspond à la classification actuelle de Pluton.
Chaque semaine, nos scientifiques répondent à vos questions.
N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.
Et bien sûr, les questions bêtes, ça n’existe pas !
La découverte de certaines de ces planètes naines nous a donné des raisons de penser que quelque chose d’autre pourrait se cacher à la périphérie du système solaire.
Ce n’est pas pour rien que les astronomes passent des centaines d’heures à essayer de localiser une neuvième planète, ou « planète X ». En effet, le système solaire tel que nous le connaissons n’a pas vraiment de sens sans elle.
Tous les objets du système solaire tournent autour du Soleil. Certains se déplacent rapidement, d’autres lentement, mais tous obéissent aux lois de la gravité. Tout ce qui a une masse est soumis à la gravité, y compris vous et moi. Plus un objet est lourd, plus il est soumis à la gravité.
La gravité d’une planète est si importante qu’elle influe sur la façon dont les choses se déplacent autour d’elle. C’est ce que nous appelons son « attraction gravitationnelle ». L’attraction gravitationnelle de la Terre est ce qui maintient tout sur le sol.
Par ailleurs, notre Soleil exerce la plus forte attraction gravitationnelle de tous les objets du système solaire, et c’est essentiellement pour cette raison que les planètes gravitent autour de lui.
C’est grâce à notre compréhension de l’attraction gravitationnelle que nous obtenons notre plus grand indice sur la possibilité d’une Planète X.
Lorsque l’on observe des objets très éloignés, tels que les planètes naines situées au-delà de Pluton, on constate que leurs orbites sont quelque peu inattendues. Elles se déplacent sur de très grandes orbites elliptiques (en forme d’ovale) et sont groupées.
Lorsque les astronomes utilisent des ordinateurs pour modéliser les forces gravitationnelles nécessaires pour que ces objets se déplacent ainsi, ils découvrent qu’il aurait fallu une planète d’une masse au moins dix fois supérieure à celle de la Terre pour provoquer ce phénomène.
C’est fascinant, mais la question qui se pose alors est la suivante : où se trouve cette planète ?
Le problème qui se pose aujourd’hui est d’essayer de confirmer que ces prédictions et ces modèles sont corrects. Le seul moyen d’y parvenir est de trouver la planète X, ce qui est certainement plus facile à dire qu’à faire.
Les scientifiques du monde entier sont à la recherche de preuves visibles de la présence de la planète X depuis de nombreuses années.
D’après les modèles informatiques, on pense que la planète X est au moins 20 fois plus éloignée du Soleil que Neptune. On essaie de la détecter en recherchant la lumière solaire qu’elle peut refléter, tout comme la Lune brille grâce à la lumière solaire réfléchie la nuit.
Cependant, comme la planète X se trouve très loin du Soleil, on s’attend à ce qu’elle soit très peu lumineuse et difficile à repérer, même pour les meilleurs télescopes de la Terre. De plus, on ne peut pas la chercher à n’importe quel moment de l’année.
On ne dispose que de petites fenêtres nocturnes où les conditions doivent être parfaitement réunies. Plus précisément, il faut attendre une nuit sans Lune et où l’endroit d’où nous observons est orienté vers la bonne partie du ciel.
Mais ne perdez pas espoir pour autant. Au cours de la prochaine décennie, de nouveaux télescopes seront construits et de nouvelles études du ciel seront lancées. Ils nous donneront peut-être l’occasion de prouver ou d’infirmer l’existence de la planète X.
Sara Webb ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.11.2024 à 17:18
Sara Bouchenak, Professeure d'Informatique - INSA Lyon, INSA Lyon – Université de Lyon
Les données utilisées pour entraîner les IA reflètent les stéréotypes et les préjugés de la société, par exemple envers des groupes sous-représentés. Pour conserver la confidentialité de données sensibles, comme les données de santé, tout en garantissant qu’elles ne sont pas biaisées, il faut adapter les méthodes d’apprentissage.
Plusieurs scandales ont éclaté ces dernières années, mettant en cause des systèmes d’aide à la décision basés sur l’intelligence artificielle (IA) qui produisent des résultats racistes ou sexistes.
C’était le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait des biais à l’encontre des femmes, ou encore du système guidant les soins hospitaliers dans un hôpital américain qui privilégiait systématiquement les patient de couleur blanche par rapport aux patients noirs. En réponse au problème de biais dans l’IA et les algorithmes d’apprentissage automatique, des législations ont été proposées, telles que le AI Act dans l’Union européenne, ou le National AI Initiative Act aux États-Unis.
Un argument largement repris concernant la présence de biais dans l’IA et les modèles d’apprentissage automatique est que ces derniers ne font que refléter une vérité de terrain : les biais sont présents dans les données réelles. Par exemple, des données de patients ayant une maladie touchant spécifiquement les hommes résultent en une IA biaisée envers les femmes, sans que cette IA ne soit pour autant incorrecte.
Si cet argument est valide dans certains cas, il existe de nombreux cas où les données ont été collectées de manière incomplète et ne reflètent pas la diversité de la réalité terrain, ou encore des données qui incluent des cas statistiquement rares et qui vont être sous-représentés, voire non représentés dans les modèles d’apprentissage automatique. C’est le cas, par exemple, de l’outil de recrutement d’Amazon qui exhibait un biais envers les femmes : parce que les femmes travaillant dans un secteur sont statistiquement peu nombreuses, l’IA qui en résulte rejette tout simplement les candidatures féminines.
À lire aussi : Le cruel dilemme des données de santé à l’ère de l’IA : vie privée ou équité ?
Et si plutôt que refléter, voire exacerber une réalité actuelle dysfonctionnelle, l’IA pouvait être vertueuse et servir à corriger les biais dans la société, pour une société plus inclusive ? C’est ce que proposent les chercheurs avec une nouvelle approche : l’« apprentissage fédéré ».
Les systèmes d’aide à la décision basés sur l’IA se basent sur des données. En effet, dans les approches classiques d’apprentissage automatique, les données provenant de plusieurs sources doivent tout d’abord être transmises à un dépôt (par exemple, un serveur sur le cloud) qui les centralise, avant d’exécuter un algorithme d’apprentissage automatique sur ces données centralisées.
Or ceci soulève des questions de protection des données. En effet, conformément à la législation en vigueur, un hôpital n’a pas le droit d’externaliser les données médicales sensibles de ses patients, une banque n’a pas le droit d’externaliser les informations privées des transactions bancaires de ses clients.
À lire aussi : Emploi, sécurité, justice : d’où viennent les « biais » des IA et peut-on les éviter ?
Par conséquent, pour mieux préserver la confidentialité des données dans les systèmes d’IA, les chercheurs développent des approches basées sur une IA dite « distribuée », où les données restent sur les sites possesseurs de données, et où les algorithmes d’apprentissage automatique s’exécutent de manière distribuée sur ces différents sites – on parle également d’« apprentissage fédéré ».
Concrètement, chaque possesseur de données (participant à l’apprentissage fédéré) entraîne un modèle local sur la base de ses propres données, puis transmet les paramètres de son modèle local à une entité tierce qui effectue l’agrégation des paramètres de l’ensemble des modèles locaux (par exemple, via une moyenne pondérée selon le volume de données de chaque participant). Cette dernière entité produit alors un modèle global qui sera utilisé par les différents participants pour effectuer leurs prédictions.
Ainsi, il est possible de construire une connaissance globale à partir des données des uns et des autres, sans pour autant révéler ses propres données et sans accéder aux données des autres. Par exemple, les données médicales des patients restent dans chaque centre hospitalier les possédant, et ce sont les algorithmes d’apprentissage fédéré qui s’exécutent et se coordonnent entre ces différents sites.
Avec une telle approche, il sera possible pour un petit centre hospitalier dans une zone géographique moins peuplée que les grandes métropoles – et donc possédant moins de données médicales que dans les grands centres hospitaliers, et par conséquent, possédant a priori une IA moins bien entraînée – de bénéficier d’une IA reflétant une connaissance globale, entraînée de manière décentralisée sur les données des différents centres hospitaliers.
D’autres cas d’applications similaires peuvent être mentionnés, impliquant plusieurs banques pour construire une IA globale de détection de fraudes, plusieurs bâtiments intelligents pour déterminer une gestion énergétique appropriée, etc.
Comparé à l’approche classique d’apprentissage automatique centralisé, l’IA décentralisée et ses algorithmes d’apprentissage fédéré peuvent, d’une part, exacerber encore plus le biais, et d’autre part, rendre le traitement du biais plus difficile.
En effet, les données locales des participants à un système d’apprentissage fédéré peuvent avoir des distributions statistiques très hétérogènes (des volumes de données différents, des représentativités différentes de certains groupes démographiques, etc.). Un participant contribuant à l’apprentissage fédéré avec un grand volume de données aura plus d’influence sur le modèle global qu’un participant avec un faible volume de données. Si ce dernier est dans d’une certaine zone géographique qui représente un groupe social en particulier, celui-ci ne sera malheureusement pas, ou très peu, reflété dans le modèle global.
Par ailleurs, la présence de biais dans les données d’un des participants à un système d’apprentissage fédéré peut entraîner la propagation de ce biais vers les autres participants via le modèle global. En effet, même si un participant a veillé à avoir des données locales non biaisées, il héritera du biais présent chez d’autres.
De plus, les techniques classiquement utilisées pour prévenir et corriger le biais dans le cas centralisé ne peuvent pas s’appliquer directement à l’apprentissage fédéré. En effet, l’approche classique de correction du biais consiste principalement à prétraiter les données avant l’apprentissage automatique pour que les données aient certaines propriétés statistiques et ne soient donc plus biaisées ?
À lire aussi : Apprendre à désapprendre : le nouveau défi de l’intelligence artificielle
Or dans le cas d’une IA décentralisée et d’apprentissage fédéré, il n’est pas possible d’accéder aux données des participants, ni d’avoir une connaissance des statistiques globales des données décentralisées.
Dans ce cas, comment traiter le biais dans les systèmes d’IA décentralisée ?
Une première étape est de pouvoir mesurer les biais des données décentralisées chez les participants à l’apprentissage fédéré, sans avoir directement accès à leurs données.
Avec mes collègues, nous avons conçu une nouvelle méthode pour mesurer et quantifier les biais dans les systèmes d’apprentissage fédéré, sur la base de l’analyse des paramètres des modèles locaux des participants à l’apprentissage fédéré. Cette méthode a l’avantage d’être compatible avec la protection des données des participants, tout en permettant la mesure de plusieurs métriques de biais.
Mais il peut aussi y avoir plusieurs types de biais démographiques, qui se déclinent selon différents attributs sensibles (le genre, la race, l’âge, etc.), et nous avons démontré qu’atténuer un seul type de biais peut avoir pour effet collatéral l’augmentation d’un autre type de biais. Il serait alors dommage qu’une solution d’atténuation du biais lié à la race, par exemple, provoque une exacerbation du biais lié au genre.
Nous avons alors proposé une méthode multi-objectifs pour la mesure complète des biais et le traitement conjoint et cohérent de plusieurs types de biais survenant dans les systèmes d’apprentissage fédéré.
Ces travaux sont le fruit d’une collaboration avec des collègues chercheurs, doctorants et stagiaires : Pascal Felber, (Université de Neuchâtel), Valerio Schiavoni (Université de Neuchâtel), Angela Bonifati (Université Lyon 1), Vania Marangozova (Université Grenoble Alpes), Nawel Benarba (INSA Lyon), Yasmine Djebrouni (Université Grenoble Alpes), Ousmane Touat (INSA Lyon).
Le projet CITADEL est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Le projet ANR CITADEL (ANR-24-CE25-6501) soutient en partie ces travaux.