25.03.2026 à 17:07
La science est-elle malade de ses revues ? Patrick Couvreur et Justine Fabre sont dans la Grande Conversation
Lire plus (319 mots)
Comment fonctionne vraiment l’édition scientifique ? Modèles économiques, poids des grands éditeurs, fraudes, évaluation des articles, open access, voie diamant : cette Grande Conversation, l'émission de The Conversation et CanalChat en partenariat avec l'Académie des sciences, propose de lever le voile sur un univers méconnu du grand public, mais décisif pour l’avenir de la recherche.
Les chercheurs produisent les articles, évaluent souvent bénévolement ceux de leurs pairs et contribuent à la mise en forme des publications. Pourtant, la diffusion de ces travaux est contrôlée par des éditeurs commerciaux. Avec la montée de l’open access, un nouveau modèle s’est imposé : les APC, les frais de publication que les chercheurs ou leurs institutions doivent payer pour rendre leurs articles accessibles.
Résultat : le système combine désormais deux logiques payantes. Les institutions continuent de payer des abonnements, tout en finançant de plus en plus les APC. En France, ces frais de pourraient dépasser 50 millions d’ici 2030. À cela s’ajoutent près de 90 millions d’euros d’abonnements aux revues. Économiquement insoutenable…
Des solutions existent, comme le modèle de publication scientifique en libre de l'Académie des Sciences et du CNRS, gratuit pour les auteurs comme pour les lecteurs. Mais elles tardent à se généraliser. Pourquoi? Quelles sont les logiques qui poussent les chercheurs à continuer de jouer le jeu des APC? Comment peut-on promouvoir l'open access? Nos deux invités, le chercheur Patrick Couvreur et la directrice du Patrimoine et des Ressources scientifiques de l'Académie des Sciences Justine Fabre, nous aident à y voir plus clair dans ce nouvel épisode de La Grande Conversation.
25.03.2026 à 15:27
IA : pourquoi former une « tête bien faite » n’a jamais été aussi crucial
Texte intégral (1580 mots)
Alors que l’intelligence artificielle générative produit des textes, des images et des raisonnements toujours plus convaincants, une question éducative essentielle émerge : que signifie encore comprendre ? À l’ère de la surcharge informationnelle, former une « tête bien faite » ne consiste plus à accumuler des savoirs, mais à apprendre à juger de leur profondeur, de leur validité et de leur inscription dans le réel.
Des étudiants peuvent rendre aujourd’hui des travaux irréprochables sur la forme : structurés, argumentés, parfois brillants. Pourtant, lorsqu’on les interroge, un malaise affleure. Ils peinent à expliquer ce qu’ils ont réellement compris, à justifier leurs choix, à relier ce qu’ils ont produit à une expérience vécue ou à une situation concrète. L’intelligence artificielle (IA) générative n’est pas toujours la cause directe de cette situation, mais elle en est un révélateur puissant. Car si produire de l’information n’a jamais été aussi simple, comprendre ce que l’on fait n’a jamais été aussi exigeant.
Connaître, savoir, comprendre : une distinction devenue centrale
À l’ère de l’IA, la question éducative ne peut plus être pensée en termes d’accumulation de connaissances. Elle impose de clarifier ce que l’on entend par connaître, savoir et comprendre, et d’interroger la manière dont ces dimensions s’articulent dans les processus d’apprentissage.
Deux grandes traditions épistémologiques permettent d’éclairer cette distinction. Le scientifique Michael Polanyi a montré que toute connaissance humaine comporte une part irréductiblement tacite : elle est enracinée dans l’expérience, l’action et l’engagement du sujet. « Nous savons plus que ce que nous pouvons dire », écrit-il, soulignant que la compréhension précède souvent sa formulation explicite. Cette connaissance en acte, souvent implicite, se construit dans le faire, l’essai, l’erreur et la confrontation au réel.
À l’inverse, le philosophe Gaston Bachelard a établi que le savoir scientifique ne procède pas d’un simple prolongement de l’expérience. Il exige une rupture avec les évidences premières et avec l’opinion, au prix d’un travail de construction rationnelle, critique et abstraite. « La science ne procède pas de l’opinion », rappelait-il, insistant sur la nécessité de former l’esprit à poser des problèmes plutôt qu’à accumuler des réponses.
Former une « tête bien faite », ce n’est donc ni accumuler des savoirs abstraits, ni se contenter d’une expérience brute. C’est apprendre à tenir ensemble ces deux dimensions : l’expérience vécue et la construction conceptuelle, l’action et la réflexivité.
Ce que l’IA sait faire – et ce qu’elle ne peut pas faire
Les systèmes d’intelligence artificielle excellent précisément là où le savoir est formalisable : calcul, synthèse, reproduction, mise en forme. Ils prennent en charge une part croissante du savoir explicite, stabilisé, calculable. Mais ils opèrent dans un régime spécifique : celui de la corrélation statistique et de la production d’énoncés plausibles.
L’IA ne connaît pas le monde, elle ne le comprend pas. Elle n’a ni expérience, ni rapport incarné au réel, ni accès aux conditions de pluralisme des phénomènes qu’elle décrit. L’information qu’elle génère est par nature probabiliste – elle repose sur des calculs de vraisemblance issus de corrélations statistiques plutôt que sur une compréhension des causes, contingente – elle dépend des données, des contextes d’énonciation et des paramètres techniques, et révisables – en ce sens qu’elle peut être corrigée, contredite ou reformulée à tout moment sans que cela n’implique une progression interne de la compréhension.
Cette distinction est aujourd’hui au cœur des travaux contemporains sur les usages éducatifs de l’IA, qui montrent que l’automatisation de certaines tâches cognitives peut, si elle est mal encadrée, appauvrir l’exercice du jugement critique.
Plus les productions de l’IA deviennent convaincantes, plus le risque est grand de confondre cohérence formelle et compréhension réelle, à savoir paraître véridique en lieu et place d’un énoncé prudent et ouvrant le dialogue.
Mesurer la complexité : une compétence qui s’apprend
Face à cette situation, un enjeu éducatif majeur émerge : la capacité à mesurer la complexité des choses. Distinguer ce qui relève de la surface informationnelle de ce qui engage une compréhension structurée. Apprécier les niveaux de profondeur d’un problème, d’un système ou d’une situation.
Or cette capacité ne se décrète pas. Elle se construit progressivement par l’expérience du réel. Elle suppose un travail actif de confrontation entre ce que l’on anticipe théoriquement et ce que révèle l’épreuve de la réalisation concrète. C’est dans l’écart, toujours instructif, entre le modèle et l’expérience que s’affinent les critères de jugement et que se développe une intelligence véritablement située, au sens où elle articule savoir formalisé et connaissance vécue.
Le savoir ne devient opérant qu’à condition d’être éprouvé, mis en tension avec le réel, réajusté à la lumière de ses résistances et de ses surprises. Inversement, l’expérience brute, si elle n’est pas reprise dans un cadre réflexif et conceptuel, demeure muette et difficilement transmissible. La formation doit donc organiser les conditions de cette circulation exigeante entre théorie et pratique, abstraction et incarnation.
Une révolution pédagogique autant que technologique
L’intelligence artificielle ne transforme pas seulement nos outils. Elle intervient au cœur même des fonctions cognitives supérieures : mémoire externalisée, accès instantané à l’information, génération de raisonnements apparents. Là où les technologies précédentes amplifiaient des capacités humaines déjà constituées, l’IA en reconfigure désormais l’équilibre.
L’enjeu éducatif se déplace en conséquence. Il ne s’agit plus principalement d’apprendre à produire ou à restituer de l’information mais d’apprendre à en évaluer la profondeur, la cohérence, les conditions de validité et les effets dans le réel. Cette mutation rejoint les analyses du sociologue Edgar Morin sur la pensée complexe, qui soulignent la nécessité de former des esprits capables de relier, de contextualiser et d’affronter l’incertitude plutôt que de réduire le réel à des réponses simplifiées.
Des travaux récents en sciences cognitives et en sciences de l’éducation montrent d’ailleurs que l’usage substitutif de l’IA peut conduire à une forme de délégation cognitive excessive, réduisant l’engagement intellectuel et la mémorisation à long terme, là où un usage réflexif et critique peut au contraire renforcer l’apprentissage.
Former des ingénieurs – et des citoyens – capables de juger
Former une tête bien faite à l’ère de l’IA implique ainsi de ne pas confondre délégation cognitive et renoncement intellectuel. Il s’agit de former des sujets capables de faire usage de systèmes puissants sans s’y soumettre, capables de maintenir une exigence de sens là où la machine ne produit que de la forme.
Chez IONIS, le développement des IONIS Institute of Technology (I2T) sur nos campus procède d’une conviction forte : si nos étudiants ingénieurs doivent maîtriser les technologies de l’intelligence artificielle, ils doivent tout autant apprendre à en éprouver les limites par la confrontation au réel. Le laboratoire, l’atelier et l’expérimentation deviennent alors des lieux centraux de formation du jugement.
Former de bons ingénieurs – et plus largement des citoyens éclairés – consiste à cultiver un esprit critique, mesuré et évolutif, nourri par l’expérience concrète, le faire et le défaire. À l’ère de l’IA, la question essentielle n’est donc pas seulement ce que nous attendons de la machine mais bien ce que nous attendons de l’humain : sa capacité à comprendre, à créer et à décider avec discernement dans des environnements incertains et technologiquement augmentés.
Clément Duhart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.03.2026 à 16:09
Après plus d’un demi-siècle, les astronomes percent les secrets d’une étoile mystérieuse
Texte intégral (2465 mots)

Découverte au début du XXe siècle, l’étoile Gamma Cassiopeiae a posé plusieurs énigmes aux astronomes. Si on comprend mieux aujourd’hui son fonctionnement, elle ouvre un pan insoupçonné du fonctionnement des astres.
Observer une étoile, voilà qui semble plutôt banal en astronomie. Aujourd’hui, on imagine davantage les énigmes cosmiques tapies dans les premiers instants de l’Univers ou sous les nuages des exoplanètes. Pourtant, une étoile visible chaque nuit recèle un mystère, enfin élucidé après cinquante ans de recherches !
Cet astre se cache au cœur de Cassiopée, une constellation en forme de W ou de M, selon son orientation cette nuit-là, et visible toute la nuit et toute l’année. Gamma Cassiopeiae – c’est son nom – est aussi appelée Navi, clin d’œil de l’astronaute Gus Grissom (Navi correspond à son deuxième prénom, Ivan à l’envers, qu’il utilisait pour la navigation). Peu connue du grand public, c’est pourtant une vedette pour les astronomes.
Il y a cent vingt ans, l’astronome italien Angelo Secchi pointe sa lunette vers cet astre pour en étudier le spectre. Le spectre d’une étoile, en général, ressemble à un arc-en-ciel, au sein duquel des raies noires apparaissent : elles correspondent aux couleurs absorbées par les différents éléments qui composent l’atmosphère de l’étoile. On peut donc retrouver sa composition en étudiant ces raies. Mais Secchi y repère une chose étrange : des raies brillantes, qui correspondent plutôt à la lumière émise, et non absorbée, par de l’hydrogène.
Une étoile pleine de mystères
Ce premier mystère a mis soixante-cinq ans à être résolu. L’astronome Otto Struve explique en 1931 que ces émissions inhabituelles naissent dans un disque de matière entourant l’étoile. On aurait pu croire observer ce que l’on appelle un disque d’accrétion, un disque de poussière et de gaz entourant les étoiles jeunes, à partir duquel se forment l’étoile et ses planètes. Mais ici, il s’agit en réalité d’un disque de décrétion, alimenté par de la matière éjectée par l’étoile ! Gamma Cassiopeiae (Gamma Cas) devint alors le prototype d’une nouvelle famille, celles des étoiles dites « Be », des étoiles chaudes qui émettent de la matière. Ce groupe rassemble en fait une bonne fraction des étoiles chaudes de type B. Beaucoup d’astronomes amateurs les prennent pour cible pour suivre leurs variations, au gré de l’évaporation ou de la reconstruction de leur disque.
Cependant, on découvrit il y a cinquante ans que Gamma Cas, le prototype, n’était pas si représentatif de sa famille ! En 1976, le satellite SAS-3, l’un des premiers télescopes spatiaux à observer dans le domaine des rayons X, détecta en effet une émission énergétique en provenance de Gamma Cas. Normalement, les émissions de rayons X des étoiles massives sont assez stables et peu intenses, représentant seulement un dix-millionième de leurs émissions totales. Elles proviennent de matière chauffée à seulement 5 millions de degrés. Gamma Cas, elle, brille 40 fois plus intensément, son émission de rayons X varie fortement en quelques minutes, voire en quelques secondes, et la température associée à ces émissions est estimée à 150 millions de degrés, provoquant une ionisation extrême de la matière.
L’étoile présente de plus des signatures de fluorescence, un phénomène qui se produit quand de la matière froide absorbe de la lumière (ici, des rayons X) puis la réémet à une fréquence légèrement différente – de nouveau, quelque chose de totalement inédit pour les étoiles massives.
Gamma Cas, la seule de son espèce ?
Au fil des ans, et surtout durant ces vingt dernières années, les télescopes spatiaux Chandra, XMM-Newton, et e-ROSITA ont repéré deux douzaines d’objets similaires à Gamma Cas : tous de type Be, tous dotés d’une émission X inhabituelle et parfaitement ordinaires par ailleurs. Environ 10 % des étoiles Be les plus massives semblent concernées. Ce n’est donc plus une curiosité, mais bien un phénomène astrophysique à part entière !
Bien sûr, les astronomes ont voulu expliquer ces propriétés étranges. Deux hypothèses principales ont été formulées : ces émissions, c’est soit de la faute de l’étoile, soit de celle d’un compagnon, c’est-à-dire un autre astre accompagnant l’étoile – ce qui ne serait pas surprenant, la plupart des étoiles massives vivant en couple ou en trio. Dans le premier cas, des rayons X naîtraient de l’interaction entre le champ magnétique de l’étoile et celui de son disque. Ce seraient des événements rapides et énergétiques, et la fluorescence serait alors provoquée par des rayons X se réfléchissant sur le disque autour de l’étoile.
Dans le second cas, il faut évidemment un compagnon. Or, les astronomes estiment aujourd’hui que les étoiles Be naissent justement à la suite d’interactions au sein de couples stellaires. D’ailleurs, Gamma Cas possède bien un compagnon, de masse similaire au Soleil. Au départ, Gamma Cas était une étoile bien moins massive, mais son compagnon lui a transféré de la matière, ce qui l’a fait grossir et tourner beaucoup plus vite. Dans le même temps, le compagnon, lui, est devenu compact. S’il s’agit d’un cœur stellaire dénudé (une stripped star, étoile ayant perdu ses couches externes lors du transfert de matière), il pourrait émettre un vent qui entrerait en collision avec le disque de décrétion, le choc générant des rayons X.
Hélas, les observations contredisent les prédictions de ce modèle, qui a dû être abandonné. Si le compagnon est une étoile à neutrons ou une naine blanche, il pourrait attirer la matière du disque et celle-ci, en tombant vers lui, générerait des émissions X. Pour le cas de l’étoile à neutrons, les calculs précis entrent ici aussi en conflit avec les observations. Restent donc deux scénarios : les rayons X sont produits près de l’étoile massive ou bien près du compagnon de type naine blanche.
Un nouveau satellite nous donne la clé du mystère
Pour trancher, il faut mesurer le mouvement imprimé dans l’émission X. En effet, dans un couple stellaire, aucun repos : les deux astres se tournent autour dans une valse (quasi) éternelle. L’un s’approche quand l’autre s’éloigne mais l’étoile, dix fois plus massive que son compagnon, bouge dix fois moins. L’émission X est soit liée à l’étoile Be et donc bouge comme elle, soit liée au compagnon et donc bouge comme lui. Facile par conséquent de faire la différence ? En théorie oui, mais en pratique, moins, car les instruments en rayons X manquaient jusqu’ici de précision.
C’est là qu’intervient XRISM, fleuron de l’Agence spatiale japonaise, JAXA. Lancé fin 2023, ce satellite embarque un instrument, baptisé Resolve, très particulier : il est capable de mesurer la lumière un photon à la fois et, ainsi, de fournir des caractéristiques sur sa cible, notamment sa vitesse, avec une précision inégalée.
XRISM a visé Gamma Cas trois fois, en décembre 2024, février et juin 2025, à chaque fois pendant une demi-journée environ. Trois mesures à trois moments clés du mouvement orbital. Verdict : les rayons X du gaz ultra chaud tout comme la fluorescence associée au gaz plus froid suivent le mouvement d’un compagnon stellaire. Après un demi-siècle, les astronomes percent donc enfin le secret de ces rayons X inattendus.
Mystère résolu ? Oui et non. Depuis des décennies, on prévoit que des étoiles de type Be soient associées à des naines blanches, mais on n’en avait encore trouvé aucune qui ne fasse pas débat dans notre galaxie. XRISM révèle enfin où elles se cachent : chez Gamma Cas et ses semblables.
Cependant, les modèles prédisaient aussi que ces naines blanches devaient être non seulement nombreuses (elles accompagneraient de 30 à 50 % des étoiles Be), mais aussi préférentiellement associées aux étoiles Be de faible masse. On en trouve ici une fraction plus modeste (10 %) et plutôt chez des étoiles de masse élevée. Clairement, les interactions dans les systèmes binaires ne sont pas encore complètement comprises. Nous n’avons donc pas fini d’entendre parler de Gamma Cas et de ses cousines !
Yaël Nazé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.