26.03.2026 à 15:44
Qu’est-ce que l’« IA agentique » ? Comprendre son histoire pour dépasser l’effet de mode
26.03.2026 à 15:44
Qu’est-ce que l’« IA agentique » ? Comprendre son histoire pour dépasser l’effet de mode
Réserver un voyage en comparant des centaines d’offres, rédiger un rapport à partir de plusieurs documents, analyser des données médicales ou corriger automatiquement un programme informatique : ces tâches exigent de la réflexion, de la méthode et des compétences variées. L’« IA agentique » promet désormais de les accomplir de manière autonome, en orchestrant les opérations nécessaires, en utilisant des outils et en corrigeant ses propres erreurs… Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’« agent autonome » tel qu’il a été élaboré dans les décennies précédentes.
Le cabinet Gartner a présenté 2026 comme l’année des « agents IA ». Ces systèmes dépassent la simple amélioration des assistants conversationnels. Les agents IA d’OpenClaw sont d’ores et déjà capables de dialoguer entre eux et d’exécuter des tâches complexes avec une supervision humaine limitée. Pour les entreprises, que ce soit dans l’industrie, l’administration ou la santé, la promesse est celle d’une automatisation plus souple qu’avec les logiciels traditionnels, capable de s’adapter à des situations variées plutôt que d’appliquer des règles prédéfinies.
Pourtant, derrière l’apparente nouveauté se cache une histoire plus ancienne. L’IA agentique s’inscrit dans la continuité de plusieurs décennies de recherche sur les agents autonomes et les systèmes multi-agents. Ce qui change aujourd’hui, ce sont les outils, notamment les grands modèles de langage et leur capacité à interagir plus naturellement avec les humains.
Les modèles conversationnels, comme ChatGPT, Gemini ou Claude, impressionnent par leur aptitude à résumer ou à rédiger des textes complexes. Pris isolément, ils restent toutefois essentiellement réactifs : ils produisent une réponse en fonction d’une requête. Un agent autonome va plus loin. Il peut analyser une demande, planifier une séquence d’opérations, utiliser des outils externes (moteur de recherche, base de données, logiciel), évaluer le résultat obtenu et ajuster sa stratégie si nécessaire.
Là où un modèle de langue se limite à écrire un programme informatique, un agent peut l’exécuter dans un environnement sécurisé, observer les erreurs éventuelles, corriger le code, puis le tester à nouveau. En somme, les agents IA ne font pas que parler, ils agissent.
Le passage de la génération de texte à l’action transforme la nature même du logiciel. Alors qu’un programme suit des instructions précisément définies à l’avance, un agent autonome peut, lui, adapter dynamiquement ses décisions en fonction du contexte, des résultats obtenus et des objectifs fixés. Il ne remplace pas nécessairement l’humain, mais modifie la répartition des tâches entre supervision et exécution.
Cette évolution ouvre des perspectives considérables. Dans les organisations, des agents peuvent automatiser des processus métiers laborieux. Dans l’industrie, ils peuvent coordonner des systèmes logiciels complexes. Dans le domaine médical, ils peuvent analyser des dossiers, rechercher des publications pertinentes et proposer des synthèses pour assister les médecins. Mais ces promesses s’accompagnent de risques.
En effet, les modèles actuels peuvent produire des informations inexactes, les fameuses hallucinations, et sont susceptibles de reproduire des biais présents dans leurs données d’entraînement. Si les agents sont cantonnés à un rôle d’assistant, ces limites sont déjà problématiques ; elles deviennent critiques lorsqu’elles concernent des systèmes capables d’agir sur des infrastructures techniques, notamment en exécutant des commandes système, en manipulant des fichiers ou en envoyant des requêtes réseau.
La question des agents d’IA n’est donc pas seulement technique : elle est aussi juridique, économique et sociétale. Elle touche à la transformation du travail qualifié et à la gouvernance des systèmes informatiques.
L’idée d’un agent autonome n’est pas née avec les modèles de langue. Elle remonte aux origines mêmes de l’intelligence artificielle. En 1956, lors de la conférence fondatrice de Dartmouth (au nord-est des États-Unis), l’un de ses organisateurs, Marvin Minsky, définissait déjà l’IA comme la conception de programmes capables d’accomplir des tâches mobilisant des capacités dites intelligentes telles que comprendre, apprendre, raisonner ou décider.
À partir des années 1980, la notion d’« agent intelligent » devient centrale. Un « agent » est alors défini comme un programme capable de percevoir son environnement, de prendre des décisions et d’agir pour atteindre des objectifs. Très tôt, les chercheurs développent le champ des systèmes multi-agents : des ensembles organisés de programmes autonomes qui interagissent dans un même environnement numérique. L’objectif est de comprendre comment ces entités peuvent se coordonner, coopérer ou entrer en compétition afin de résoudre des problèmes complexes.
Plusieurs travaux emblématiques illustrent concrètement cette approche. Le système HEARSAY-II repose sur un modèle de « tableau noir ». Plusieurs modules spécialisés pour la reconnaissance, l’analyse et l’interprétation du langage contribuent à la compréhension de la parole en partageant leurs hypothèses dans un espace commun structuré. Le Contract Net Protocol propose un mécanisme inspiré des appels d’offres : pour réaliser une tâche, un agent émet un appel à proposition, d’autres agents proposent leurs services, et les plus compétents se voient attribuer le contrat. Autrement dit la coordination entre agents est au cœur de l’IA depuis plusieurs décennies.
Mais si l’idée d’agent n’est pas nouvelle, l’« IA agentique » s’impose aujourd’hui auprès des non-spécialistes en raison du rôle central joué par les grands modèles de langue. Bien que dénués de compréhension causale et de compréhension du monde physique, ceux-ci fournissent aux agents une capacité linguistique et une forme de « sens commun » statistique qui facilitent l’interaction avec les humains et l’interprétation d’instructions complexes en langage naturel.
Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’agent autonome tel qu’il a été élaboré dans les décennies précédentes. Dans la pratique, elle repose encore le plus souvent sur une séquence d’actions où chaque étape est prévue et ordonnée à l’avance. Les travaux menés depuis les années 1990 sur les systèmes multi-agents qui portent sur la coopération, la négociation, l’allocation de tâches et l’adaptation collective offrent un réservoir d’idées encore largement sous-exploitées.
L’intégration de ces mécanismes avec les capacités des grands modèles ouvre pour demain des perspectives nouvelles : des agents capables non seulement d’exécuter un plan mais de s’organiser collectivement, de se spécialiser et de s’adapter à des environnements complexes.
L’IA agentique constitue ainsi une nouvelle étape plutôt qu’une rupture. Elle associe l’héritage théorique des systèmes multi-agents à la puissance récente des modèles génératifs. Comprendre cette filiation historique permet de dépasser l’effet de mode. L’IA agentique représente une tentative de transformer des modèles prédictifs en systèmes capables d’agir, de planifier et, peut-être demain, de s’organiser collectivement dans des environnements complexes.
Maxime MORGE a reçu des financements de Lyon 1 Université et CNRS, .
25.03.2026 à 17:07
Comment fonctionne vraiment l’édition scientifique ? Modèles économiques, poids des grands éditeurs, fraudes, évaluation des articles, open access, voie diamant : cette Grande Conversation, l'émission de The Conversation et CanalChat en partenariat avec l'Académie des sciences, propose de lever le voile sur un univers méconnu du grand public, mais décisif pour l’avenir de la recherche.
Les chercheurs produisent les articles, évaluent souvent bénévolement ceux de leurs pairs et contribuent à la mise en forme des publications. Pourtant, la diffusion de ces travaux est contrôlée par des éditeurs commerciaux. Avec la montée de l’open access, un nouveau modèle s’est imposé : les APC, les frais de publication que les chercheurs ou leurs institutions doivent payer pour rendre leurs articles accessibles.
Résultat : le système combine désormais deux logiques payantes. Les institutions continuent de payer des abonnements, tout en finançant de plus en plus les APC. En France, ces frais de pourraient dépasser 50 millions d’ici 2030. À cela s’ajoutent près de 90 millions d’euros d’abonnements aux revues. Économiquement insoutenable…
Des solutions existent, comme le modèle de publication scientifique en libre de l'Académie des Sciences et du CNRS, gratuit pour les auteurs comme pour les lecteurs. Mais elles tardent à se généraliser. Pourquoi? Quelles sont les logiques qui poussent les chercheurs à continuer de jouer le jeu des APC? Comment peut-on promouvoir l'open access? Nos deux invités, le chercheur Patrick Couvreur et la directrice du Patrimoine et des Ressources scientifiques de l'Académie des Sciences Justine Fabre, nous aident à y voir plus clair dans ce nouvel épisode de La Grande Conversation.
25.03.2026 à 15:27
IA : pourquoi former une « tête bien faite » n’a jamais été aussi crucial
Alors que l’intelligence artificielle générative produit des textes, des images et des raisonnements toujours plus convaincants, une question éducative essentielle émerge : que signifie encore comprendre ? À l’ère de la surcharge informationnelle, former une « tête bien faite » ne consiste plus à accumuler des savoirs, mais à apprendre à juger de leur profondeur, de leur validité et de leur inscription dans le réel.
Des étudiants peuvent rendre aujourd’hui des travaux irréprochables sur la forme : structurés, argumentés, parfois brillants. Pourtant, lorsqu’on les interroge, un malaise affleure. Ils peinent à expliquer ce qu’ils ont réellement compris, à justifier leurs choix, à relier ce qu’ils ont produit à une expérience vécue ou à une situation concrète. L’intelligence artificielle (IA) générative n’est pas toujours la cause directe de cette situation, mais elle en est un révélateur puissant. Car si produire de l’information n’a jamais été aussi simple, comprendre ce que l’on fait n’a jamais été aussi exigeant.
À l’ère de l’IA, la question éducative ne peut plus être pensée en termes d’accumulation de connaissances. Elle impose de clarifier ce que l’on entend par connaître, savoir et comprendre, et d’interroger la manière dont ces dimensions s’articulent dans les processus d’apprentissage.
Deux grandes traditions épistémologiques permettent d’éclairer cette distinction. Le scientifique Michael Polanyi a montré que toute connaissance humaine comporte une part irréductiblement tacite : elle est enracinée dans l’expérience, l’action et l’engagement du sujet. « Nous savons plus que ce que nous pouvons dire », écrit-il, soulignant que la compréhension précède souvent sa formulation explicite. Cette connaissance en acte, souvent implicite, se construit dans le faire, l’essai, l’erreur et la confrontation au réel.
À l’inverse, le philosophe Gaston Bachelard a établi que le savoir scientifique ne procède pas d’un simple prolongement de l’expérience. Il exige une rupture avec les évidences premières et avec l’opinion, au prix d’un travail de construction rationnelle, critique et abstraite. « La science ne procède pas de l’opinion », rappelait-il, insistant sur la nécessité de former l’esprit à poser des problèmes plutôt qu’à accumuler des réponses.
Former une « tête bien faite », ce n’est donc ni accumuler des savoirs abstraits, ni se contenter d’une expérience brute. C’est apprendre à tenir ensemble ces deux dimensions : l’expérience vécue et la construction conceptuelle, l’action et la réflexivité.
Les systèmes d’intelligence artificielle excellent précisément là où le savoir est formalisable : calcul, synthèse, reproduction, mise en forme. Ils prennent en charge une part croissante du savoir explicite, stabilisé, calculable. Mais ils opèrent dans un régime spécifique : celui de la corrélation statistique et de la production d’énoncés plausibles.
L’IA ne connaît pas le monde, elle ne le comprend pas. Elle n’a ni expérience, ni rapport incarné au réel, ni accès aux conditions de pluralisme des phénomènes qu’elle décrit. L’information qu’elle génère est par nature probabiliste – elle repose sur des calculs de vraisemblance issus de corrélations statistiques plutôt que sur une compréhension des causes, contingente – elle dépend des données, des contextes d’énonciation et des paramètres techniques, et révisables – en ce sens qu’elle peut être corrigée, contredite ou reformulée à tout moment sans que cela n’implique une progression interne de la compréhension.
Cette distinction est aujourd’hui au cœur des travaux contemporains sur les usages éducatifs de l’IA, qui montrent que l’automatisation de certaines tâches cognitives peut, si elle est mal encadrée, appauvrir l’exercice du jugement critique.
Plus les productions de l’IA deviennent convaincantes, plus le risque est grand de confondre cohérence formelle et compréhension réelle, à savoir paraître véridique en lieu et place d’un énoncé prudent et ouvrant le dialogue.
Face à cette situation, un enjeu éducatif majeur émerge : la capacité à mesurer la complexité des choses. Distinguer ce qui relève de la surface informationnelle de ce qui engage une compréhension structurée. Apprécier les niveaux de profondeur d’un problème, d’un système ou d’une situation.
Or cette capacité ne se décrète pas. Elle se construit progressivement par l’expérience du réel. Elle suppose un travail actif de confrontation entre ce que l’on anticipe théoriquement et ce que révèle l’épreuve de la réalisation concrète. C’est dans l’écart, toujours instructif, entre le modèle et l’expérience que s’affinent les critères de jugement et que se développe une intelligence véritablement située, au sens où elle articule savoir formalisé et connaissance vécue.
Le savoir ne devient opérant qu’à condition d’être éprouvé, mis en tension avec le réel, réajusté à la lumière de ses résistances et de ses surprises. Inversement, l’expérience brute, si elle n’est pas reprise dans un cadre réflexif et conceptuel, demeure muette et difficilement transmissible. La formation doit donc organiser les conditions de cette circulation exigeante entre théorie et pratique, abstraction et incarnation.
L’intelligence artificielle ne transforme pas seulement nos outils. Elle intervient au cœur même des fonctions cognitives supérieures : mémoire externalisée, accès instantané à l’information, génération de raisonnements apparents. Là où les technologies précédentes amplifiaient des capacités humaines déjà constituées, l’IA en reconfigure désormais l’équilibre.
L’enjeu éducatif se déplace en conséquence. Il ne s’agit plus principalement d’apprendre à produire ou à restituer de l’information mais d’apprendre à en évaluer la profondeur, la cohérence, les conditions de validité et les effets dans le réel. Cette mutation rejoint les analyses du sociologue Edgar Morin sur la pensée complexe, qui soulignent la nécessité de former des esprits capables de relier, de contextualiser et d’affronter l’incertitude plutôt que de réduire le réel à des réponses simplifiées.
Des travaux récents en sciences cognitives et en sciences de l’éducation montrent d’ailleurs que l’usage substitutif de l’IA peut conduire à une forme de délégation cognitive excessive, réduisant l’engagement intellectuel et la mémorisation à long terme, là où un usage réflexif et critique peut au contraire renforcer l’apprentissage.
Former une tête bien faite à l’ère de l’IA implique ainsi de ne pas confondre délégation cognitive et renoncement intellectuel. Il s’agit de former des sujets capables de faire usage de systèmes puissants sans s’y soumettre, capables de maintenir une exigence de sens là où la machine ne produit que de la forme.
Chez IONIS, le développement des IONIS Institute of Technology (I2T) sur nos campus procède d’une conviction forte : si nos étudiants ingénieurs doivent maîtriser les technologies de l’intelligence artificielle, ils doivent tout autant apprendre à en éprouver les limites par la confrontation au réel. Le laboratoire, l’atelier et l’expérimentation deviennent alors des lieux centraux de formation du jugement.
Former de bons ingénieurs – et plus largement des citoyens éclairés – consiste à cultiver un esprit critique, mesuré et évolutif, nourri par l’expérience concrète, le faire et le défaire. À l’ère de l’IA, la question essentielle n’est donc pas seulement ce que nous attendons de la machine mais bien ce que nous attendons de l’humain : sa capacité à comprendre, à créer et à décider avec discernement dans des environnements incertains et technologiquement augmentés.
Clément Duhart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.