25.03.2026 à 15:27
Clément Duhart, Directeur de la Stragie et de l'Innovation, IONIS Education Group
Alors que l’intelligence artificielle générative produit des textes, des images et des raisonnements toujours plus convaincants, une question éducative essentielle émerge : que signifie encore comprendre ? À l’ère de la surcharge informationnelle, former une « tête bien faite » ne consiste plus à accumuler des savoirs, mais à apprendre à juger de leur profondeur, de leur validité et de leur inscription dans le réel.
Des étudiants peuvent rendre aujourd’hui des travaux irréprochables sur la forme : structurés, argumentés, parfois brillants. Pourtant, lorsqu’on les interroge, un malaise affleure. Ils peinent à expliquer ce qu’ils ont réellement compris, à justifier leurs choix, à relier ce qu’ils ont produit à une expérience vécue ou à une situation concrète. L’intelligence artificielle (IA) générative n’est pas toujours la cause directe de cette situation, mais elle en est un révélateur puissant. Car si produire de l’information n’a jamais été aussi simple, comprendre ce que l’on fait n’a jamais été aussi exigeant.
À l’ère de l’IA, la question éducative ne peut plus être pensée en termes d’accumulation de connaissances. Elle impose de clarifier ce que l’on entend par connaître, savoir et comprendre, et d’interroger la manière dont ces dimensions s’articulent dans les processus d’apprentissage.
Deux grandes traditions épistémologiques permettent d’éclairer cette distinction. Le scientifique Michael Polanyi a montré que toute connaissance humaine comporte une part irréductiblement tacite : elle est enracinée dans l’expérience, l’action et l’engagement du sujet. « Nous savons plus que ce que nous pouvons dire », écrit-il, soulignant que la compréhension précède souvent sa formulation explicite. Cette connaissance en acte, souvent implicite, se construit dans le faire, l’essai, l’erreur et la confrontation au réel.
À l’inverse, le philosophe Gaston Bachelard a établi que le savoir scientifique ne procède pas d’un simple prolongement de l’expérience. Il exige une rupture avec les évidences premières et avec l’opinion, au prix d’un travail de construction rationnelle, critique et abstraite. « La science ne procède pas de l’opinion », rappelait-il, insistant sur la nécessité de former l’esprit à poser des problèmes plutôt qu’à accumuler des réponses.
Former une « tête bien faite », ce n’est donc ni accumuler des savoirs abstraits, ni se contenter d’une expérience brute. C’est apprendre à tenir ensemble ces deux dimensions : l’expérience vécue et la construction conceptuelle, l’action et la réflexivité.
Les systèmes d’intelligence artificielle excellent précisément là où le savoir est formalisable : calcul, synthèse, reproduction, mise en forme. Ils prennent en charge une part croissante du savoir explicite, stabilisé, calculable. Mais ils opèrent dans un régime spécifique : celui de la corrélation statistique et de la production d’énoncés plausibles.
L’IA ne connaît pas le monde, elle ne le comprend pas. Elle n’a ni expérience, ni rapport incarné au réel, ni accès aux conditions de pluralisme des phénomènes qu’elle décrit. L’information qu’elle génère est par nature probabiliste – elle repose sur des calculs de vraisemblance issus de corrélations statistiques plutôt que sur une compréhension des causes, contingente – elle dépend des données, des contextes d’énonciation et des paramètres techniques, et révisables – en ce sens qu’elle peut être corrigée, contredite ou reformulée à tout moment sans que cela n’implique une progression interne de la compréhension.
Cette distinction est aujourd’hui au cœur des travaux contemporains sur les usages éducatifs de l’IA, qui montrent que l’automatisation de certaines tâches cognitives peut, si elle est mal encadrée, appauvrir l’exercice du jugement critique.
Plus les productions de l’IA deviennent convaincantes, plus le risque est grand de confondre cohérence formelle et compréhension réelle, à savoir paraître véridique en lieu et place d’un énoncé prudent et ouvrant le dialogue.
Face à cette situation, un enjeu éducatif majeur émerge : la capacité à mesurer la complexité des choses. Distinguer ce qui relève de la surface informationnelle de ce qui engage une compréhension structurée. Apprécier les niveaux de profondeur d’un problème, d’un système ou d’une situation.
Or cette capacité ne se décrète pas. Elle se construit progressivement par l’expérience du réel. Elle suppose un travail actif de confrontation entre ce que l’on anticipe théoriquement et ce que révèle l’épreuve de la réalisation concrète. C’est dans l’écart, toujours instructif, entre le modèle et l’expérience que s’affinent les critères de jugement et que se développe une intelligence véritablement située, au sens où elle articule savoir formalisé et connaissance vécue.
Le savoir ne devient opérant qu’à condition d’être éprouvé, mis en tension avec le réel, réajusté à la lumière de ses résistances et de ses surprises. Inversement, l’expérience brute, si elle n’est pas reprise dans un cadre réflexif et conceptuel, demeure muette et difficilement transmissible. La formation doit donc organiser les conditions de cette circulation exigeante entre théorie et pratique, abstraction et incarnation.
L’intelligence artificielle ne transforme pas seulement nos outils. Elle intervient au cœur même des fonctions cognitives supérieures : mémoire externalisée, accès instantané à l’information, génération de raisonnements apparents. Là où les technologies précédentes amplifiaient des capacités humaines déjà constituées, l’IA en reconfigure désormais l’équilibre.
L’enjeu éducatif se déplace en conséquence. Il ne s’agit plus principalement d’apprendre à produire ou à restituer de l’information mais d’apprendre à en évaluer la profondeur, la cohérence, les conditions de validité et les effets dans le réel. Cette mutation rejoint les analyses du sociologue Edgar Morin sur la pensée complexe, qui soulignent la nécessité de former des esprits capables de relier, de contextualiser et d’affronter l’incertitude plutôt que de réduire le réel à des réponses simplifiées.
Des travaux récents en sciences cognitives et en sciences de l’éducation montrent d’ailleurs que l’usage substitutif de l’IA peut conduire à une forme de délégation cognitive excessive, réduisant l’engagement intellectuel et la mémorisation à long terme, là où un usage réflexif et critique peut au contraire renforcer l’apprentissage.
Former une tête bien faite à l’ère de l’IA implique ainsi de ne pas confondre délégation cognitive et renoncement intellectuel. Il s’agit de former des sujets capables de faire usage de systèmes puissants sans s’y soumettre, capables de maintenir une exigence de sens là où la machine ne produit que de la forme.
Chez IONIS, le développement des IONIS Institute of Technology (I2T) sur nos campus procède d’une conviction forte : si nos étudiants ingénieurs doivent maîtriser les technologies de l’intelligence artificielle, ils doivent tout autant apprendre à en éprouver les limites par la confrontation au réel. Le laboratoire, l’atelier et l’expérimentation deviennent alors des lieux centraux de formation du jugement.
Former de bons ingénieurs – et plus largement des citoyens éclairés – consiste à cultiver un esprit critique, mesuré et évolutif, nourri par l’expérience concrète, le faire et le défaire. À l’ère de l’IA, la question essentielle n’est donc pas seulement ce que nous attendons de la machine mais bien ce que nous attendons de l’humain : sa capacité à comprendre, à créer et à décider avec discernement dans des environnements incertains et technologiquement augmentés.
Clément Duhart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.03.2026 à 16:09
Yaël Nazé, Astronome FNRS à l'Institut d'astrophysique et de géophysique, Université de Liège

Découverte au début du XXe siècle, l’étoile Gamma Cassiopeiae a posé plusieurs énigmes aux astronomes. Si on comprend mieux aujourd’hui son fonctionnement, elle ouvre un pan insoupçonné du fonctionnement des astres.
Observer une étoile, voilà qui semble plutôt banal en astronomie. Aujourd’hui, on imagine davantage les énigmes cosmiques tapies dans les premiers instants de l’Univers ou sous les nuages des exoplanètes. Pourtant, une étoile visible chaque nuit recèle un mystère, enfin élucidé après cinquante ans de recherches !
Cet astre se cache au cœur de Cassiopée, une constellation en forme de W ou de M, selon son orientation cette nuit-là, et visible toute la nuit et toute l’année. Gamma Cassiopeiae – c’est son nom – est aussi appelée Navi, clin d’œil de l’astronaute Gus Grissom (Navi correspond à son deuxième prénom, Ivan à l’envers, qu’il utilisait pour la navigation). Peu connue du grand public, c’est pourtant une vedette pour les astronomes.
Il y a cent vingt ans, l’astronome italien Angelo Secchi pointe sa lunette vers cet astre pour en étudier le spectre. Le spectre d’une étoile, en général, ressemble à un arc-en-ciel, au sein duquel des raies noires apparaissent : elles correspondent aux couleurs absorbées par les différents éléments qui composent l’atmosphère de l’étoile. On peut donc retrouver sa composition en étudiant ces raies. Mais Secchi y repère une chose étrange : des raies brillantes, qui correspondent plutôt à la lumière émise, et non absorbée, par de l’hydrogène.
Ce premier mystère a mis soixante-cinq ans à être résolu. L’astronome Otto Struve explique en 1931 que ces émissions inhabituelles naissent dans un disque de matière entourant l’étoile. On aurait pu croire observer ce que l’on appelle un disque d’accrétion, un disque de poussière et de gaz entourant les étoiles jeunes, à partir duquel se forment l’étoile et ses planètes. Mais ici, il s’agit en réalité d’un disque de décrétion, alimenté par de la matière éjectée par l’étoile ! Gamma Cassiopeiae (Gamma Cas) devint alors le prototype d’une nouvelle famille, celles des étoiles dites « Be », des étoiles chaudes qui émettent de la matière. Ce groupe rassemble en fait une bonne fraction des étoiles chaudes de type B. Beaucoup d’astronomes amateurs les prennent pour cible pour suivre leurs variations, au gré de l’évaporation ou de la reconstruction de leur disque.
Cependant, on découvrit il y a cinquante ans que Gamma Cas, le prototype, n’était pas si représentatif de sa famille ! En 1976, le satellite SAS-3, l’un des premiers télescopes spatiaux à observer dans le domaine des rayons X, détecta en effet une émission énergétique en provenance de Gamma Cas. Normalement, les émissions de rayons X des étoiles massives sont assez stables et peu intenses, représentant seulement un dix-millionième de leurs émissions totales. Elles proviennent de matière chauffée à seulement 5 millions de degrés. Gamma Cas, elle, brille 40 fois plus intensément, son émission de rayons X varie fortement en quelques minutes, voire en quelques secondes, et la température associée à ces émissions est estimée à 150 millions de degrés, provoquant une ionisation extrême de la matière.
L’étoile présente de plus des signatures de fluorescence, un phénomène qui se produit quand de la matière froide absorbe de la lumière (ici, des rayons X) puis la réémet à une fréquence légèrement différente – de nouveau, quelque chose de totalement inédit pour les étoiles massives.
Au fil des ans, et surtout durant ces vingt dernières années, les télescopes spatiaux Chandra, XMM-Newton, et e-ROSITA ont repéré deux douzaines d’objets similaires à Gamma Cas : tous de type Be, tous dotés d’une émission X inhabituelle et parfaitement ordinaires par ailleurs. Environ 10 % des étoiles Be les plus massives semblent concernées. Ce n’est donc plus une curiosité, mais bien un phénomène astrophysique à part entière !
Bien sûr, les astronomes ont voulu expliquer ces propriétés étranges. Deux hypothèses principales ont été formulées : ces émissions, c’est soit de la faute de l’étoile, soit de celle d’un compagnon, c’est-à-dire un autre astre accompagnant l’étoile – ce qui ne serait pas surprenant, la plupart des étoiles massives vivant en couple ou en trio. Dans le premier cas, des rayons X naîtraient de l’interaction entre le champ magnétique de l’étoile et celui de son disque. Ce seraient des événements rapides et énergétiques, et la fluorescence serait alors provoquée par des rayons X se réfléchissant sur le disque autour de l’étoile.
Dans le second cas, il faut évidemment un compagnon. Or, les astronomes estiment aujourd’hui que les étoiles Be naissent justement à la suite d’interactions au sein de couples stellaires. D’ailleurs, Gamma Cas possède bien un compagnon, de masse similaire au Soleil. Au départ, Gamma Cas était une étoile bien moins massive, mais son compagnon lui a transféré de la matière, ce qui l’a fait grossir et tourner beaucoup plus vite. Dans le même temps, le compagnon, lui, est devenu compact. S’il s’agit d’un cœur stellaire dénudé (une stripped star, étoile ayant perdu ses couches externes lors du transfert de matière), il pourrait émettre un vent qui entrerait en collision avec le disque de décrétion, le choc générant des rayons X.
Hélas, les observations contredisent les prédictions de ce modèle, qui a dû être abandonné. Si le compagnon est une étoile à neutrons ou une naine blanche, il pourrait attirer la matière du disque et celle-ci, en tombant vers lui, générerait des émissions X. Pour le cas de l’étoile à neutrons, les calculs précis entrent ici aussi en conflit avec les observations. Restent donc deux scénarios : les rayons X sont produits près de l’étoile massive ou bien près du compagnon de type naine blanche.
Pour trancher, il faut mesurer le mouvement imprimé dans l’émission X. En effet, dans un couple stellaire, aucun repos : les deux astres se tournent autour dans une valse (quasi) éternelle. L’un s’approche quand l’autre s’éloigne mais l’étoile, dix fois plus massive que son compagnon, bouge dix fois moins. L’émission X est soit liée à l’étoile Be et donc bouge comme elle, soit liée au compagnon et donc bouge comme lui. Facile par conséquent de faire la différence ? En théorie oui, mais en pratique, moins, car les instruments en rayons X manquaient jusqu’ici de précision.
C’est là qu’intervient XRISM, fleuron de l’Agence spatiale japonaise, JAXA. Lancé fin 2023, ce satellite embarque un instrument, baptisé Resolve, très particulier : il est capable de mesurer la lumière un photon à la fois et, ainsi, de fournir des caractéristiques sur sa cible, notamment sa vitesse, avec une précision inégalée.
XRISM a visé Gamma Cas trois fois, en décembre 2024, février et juin 2025, à chaque fois pendant une demi-journée environ. Trois mesures à trois moments clés du mouvement orbital. Verdict : les rayons X du gaz ultra chaud tout comme la fluorescence associée au gaz plus froid suivent le mouvement d’un compagnon stellaire. Après un demi-siècle, les astronomes percent donc enfin le secret de ces rayons X inattendus.
Mystère résolu ? Oui et non. Depuis des décennies, on prévoit que des étoiles de type Be soient associées à des naines blanches, mais on n’en avait encore trouvé aucune qui ne fasse pas débat dans notre galaxie. XRISM révèle enfin où elles se cachent : chez Gamma Cas et ses semblables.
Cependant, les modèles prédisaient aussi que ces naines blanches devaient être non seulement nombreuses (elles accompagneraient de 30 à 50 % des étoiles Be), mais aussi préférentiellement associées aux étoiles Be de faible masse. On en trouve ici une fraction plus modeste (10 %) et plutôt chez des étoiles de masse élevée. Clairement, les interactions dans les systèmes binaires ne sont pas encore complètement comprises. Nous n’avons donc pas fini d’entendre parler de Gamma Cas et de ses cousines !
Yaël Nazé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.03.2026 à 15:39
Dominique Escande, Directeur de Recherche émérite en physique, Aix-Marseille Université (AMU); Centre national de la recherche scientifique (CNRS)

Le chemin vers la fusion thermonucléaire est long et semé d’embûches. Une des nombreuses étapes a récemment été franchie dans le plus grand tokamak chinois, EAST, où la limite de densité de plasma qui était observée jusque-là a été dépassée.
Dans un tokamak (un type de machine expérimentale conçue pour exploiter l'énergie de la fusion), le plasma est le milieu où se produisent les réactions de fusion nucléaire. Plus celui-ci est dense, plus les atomes se rencontrent et ont de chance de fusionner et de libérer de l’énergie. L’expérience récente a produit des densités de 30 % à 65 % plus élevées que celles normalement atteintes dans cette machine, sans déclencher les instabilités perturbatrices qui se produisent généralement lorsque la limite de densité du plasma est dépassée.
Cette étude, co-dirigée par Ping Zhu et Ning Yan, que j’ai contribuée à interpréter, a été publiée début janvier dans la revue Science Advances et reprise par la revue Nature. Un point particulièrement prometteur est que cette avancée a une base théorique, que j’avais développée et publiée avec d’autres collègues quatre ans auparavant. En confirmant plusieurs de ses prédictions, l’expérience soutient la théorie, ce qui ouvre la voie à d’autres améliorations.
Le réchauffement climatique, la pollution de l’air, la géopolitique de l’énergie et le caractère intermittent des énergies renouvelables rendent urgent le développement de nouvelles centrales électriques à fonctionnement continu. Dans ce cadre, les atouts majeurs de la fusion thermonucléaire sont le fait que ses cendres et son combustible sont non radioactifs, ainsi que la vaste répartition mondiale de ce dernier et l’absence de risque d’accident nucléaire. Et c’est pourquoi, la communauté scientifique travaille depuis des décennies dans un esprit de collaboration à l’échelle mondiale (remarquablement, malgré la guerre en Ukraine, la Russie participe toujours au projet ITER).
Les recherches sur la fusion thermonucléaire contrôlée ont connu récemment une forte accélération grâce au projet de réacteur international de démonstration ITER – et aussi parce que davantage d’argent privé que public est investi dans ce type de recherche au niveau mondial depuis 2023.
Comme on l’a vu, une des contraintes ralentissant cette entreprise est l’existence d’une limite de densité du plasma dans les expériences réalisées jusqu’à présent : avec des densités de plasma trop faibles, les réactions nucléaires ont lieu trop peu souvent pour générer de l’énergie en quantité importante.
À cause de ce problème, les réacteurs tokamaks en projet sont gigantesques : ceci permet aux ions du plasma d’avoir plus de temps pour entrer en collision avant de s’échapper. ITER, par exemple, fait 23 000 tonnes pour 29 mètres de haut et 28 mètres de diamètre. Aussi, aujourd’hui, un des grands défis de la fusion thermonucléaire est de réaliser un réacteur plus petit, qui soit donc moins cher et plus robuste. Or, jusqu’à présent, nous étions coincés, car nous n’arrivions pas à dépasser expérimentalement une densité, apparemment limite, du plasma.
En 2021, mes collègues Fabio Sattin, Paolo Zanca et moi-même avions proposé une base théorique prédisant deux régimes d’auto-organisation plasma-paroi : le régime habituel où la densité de plasma est limitée et un autre régime sans limite de densité. Nous expliquions que ce régime pourrait être atteint en diminuant la quantité d’impuretés projetées par les parois, dues à leur bombardement par les ions du plasma. Nous suggérions à cette fin de démarrer le plasma en utilisant la stratégie utilisée pour le démarrage d’un autre type d’installation destinée à faire de la fusion thermonucléaire, les « stellarators ».
Cette stratégie a été appliquée avec succès dans EAST, où le régime sans limite de densité a été atteint, confirmant ainsi les résultats expérimentaux obtenus au sein du tokamak chinois J-TEXT annoncés en 2023 à la Fusion Energy Conference de l’AIEA à Londres (Royaume-uni).
Plus précisément, les expériences sur EAST ont combiné le contrôle de la pression initiale du gaz combustible avec un chauffage par résonance cyclotronique électronique pendant la phase de démarrage (ces deux facteurs combinés correspondent aux décharges stellarators), permettant une efficace diminution des interactions plasma-paroi dès le début de la décharge. Grâce à cette approche, l’accumulation d’impuretés et les pertes d’énergie ont été considérablement réduites, et le plasma atteint une densité élevée à la fin du démarrage. De plus, décharge après décharge, une diminution de la quantité d’impuretés a accompagné l’augmentation de la limite. Malheureusement, l’allocation maximale de temps expérimental n’a pas permis de voir jusqu’où pouvait aller cette nette amélioration… mais on peut donc espérer qu’elle se poursuive dans de futures expériences.
L’équipe de recherche d’EAST prévoit donc d’appliquer à nouveau cette méthode lors de la prochaine campagne expérimentale, avec l’idée d’accéder au régime sans limite de densité dans des conditions de plasma à haute performance.
Les physiciens travaillant sur d’autres tokamaks ont également été alertés, et pourraient être intéressés par l’utilisation du même scénario de démarrage pour repousser la limite de densité. Une proposition d’expérience a même déjà été faite pour le nouveau tokamak japonais JT60-SA.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Dominique Escande ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.