30.09.2025 à 17:00
Stéphanie Gauttier, Professeur Associée en Systèmes d'Information, Responsable de l'équipe de recherche 'Systèmes d'Information pour la société' Chaire Digital Organization & Society, Grenoble École de Management (GEM)
Les agents d’IA sont capables d’effectuer différentes tâches de façon plus ou moins autonome. À mesure qu’ils sont intégrés à nos outils et à nos échanges personnels et professionnels, c’est toute la société qui doit décider ce qu’elle souhaite déléguer… et ce qu’elle préfère préserver.
En arrivant au bureau, un mail vous attend. Votre client voulait une mise à jour sur sa commande. Mais un agent IA a déjà consulté les données de livraison et envoyé un message de suivi. Vous n’avez rien eu à faire.
Ce n’est pas de la science-fiction. Les agents IA sont sur le point de transformer en profondeur nos façons de travailler. L’entreprise américaine de conseil Gartner estime que 15 % des décisions professionnelles quotidiennes seront prises par des agents IA d’ici 2028, et 33 % des entreprises utiliseront des agents IA (contre 1 % en 2024). Ces agents ne sont pas de simples assistants mais des entités capables d’agir, décider et parfois collaborer entre elles. Leur émergence pose des questions fondamentales sur le rôle des humains au travail.
Un agent IA est un logiciel (semi)-autonome qui utilise des techniques d’intelligence artificielle pour percevoir, prendre des décisions, accomplir des tâches et atteindre des objectifs prédéterminés, dans des environnements physiques ou numériques. Un agent IA peut agir pour le compte d’un utilisateur ou d’un autre système, par exemple un autre agent logiciel, en concevant son processus de travail et utilisant les outils disponibles.
Certains agents suivent une logique strictement scriptée, tandis que d’autres sont dotés d’une plus grande autonomie : ils déterminent eux-mêmes le bon moment pour agir en fonction du contexte, des objectifs et des informations disponibles. C’est cette autonomie qui caractérise l’« IA agentique ». Cette forme particulièrement autonome d’agent IA, qui ouvre de nouvelles possibilités mais soulève également des enjeux inédits en matière de conception, de contrôle et d’usage. Tous les agents IA ne forment pas une IA agentique, bien que la tendance aille en ce sens.
Par exemple, un « agent IA agentique » pourrait envoyer de lui-même un message aux clients de manière proactive si un message de retard du fournisseur est arrivé. Dans le contexte européen, une telle autonomie n’est pas interdite, mais elle relève des obligations de supervision humaine et de transparence imposées par l’AI Act (2024). Dans ce cadre, supervision ne signifie pas validation systématique de chaque action, mais capacité à tracer, contrôler et reprendre la main à tout moment.
Le marché mondial des agents IA, agentiques ou non, devrait représenter 47,1 milliards de dollars en 2030, 1,896 milliard de dollars en France en 2030.
Les agents IA s’appuient sur différentes briques d’intelligence artificielle : compréhension de requêtes, recherche d’informations, planification, action dans les systèmes, génération de texte. Parmi ces briques, les grands modèles de langage (LLM) jouent un rôle central, mais sont désormais utilisés par les agents IA de manière autonome, sans intervention humaine.
Les agents IA fonctionnent en continu, sans fatigue ni pause. Ils permettent aux organisations d’étendre considérablement leur capacité d’action. À ce titre, ils incarnent la promesse d’une productivité accrue et d’une réduction des coûts.
À lire aussi : Les robots collaboratifs, des collègues de travail comme les autres ?
Mais cette automatisation radicale réactive des craintes anciennes : déqualification, dilution des responsabilités, dépendance technologique, perte de contrôle. Ainsi, 75 % des citoyens français pensent que l’IA détruira plus d’emplois qu’elle n’en créera, et 63 % refusent aujourd’hui de se former à ces outils selon le Labo Société Numérique 2024. Aux États-Unis, seuls 23 % des adultes pensent que l’IA améliorera leur façon de travailler, contre 73 % des experts de l’IA.
La rupture est donc aussi sociale que technologique.
Automatiser les processus peut figer une manière de faire, plutôt que d’innover. Selon Erik Brynjolfsson, le véritable potentiel de l’IA réside dans son pouvoir d’augmenter les capacités humaines pour faire de nouvelles choses, pas de les remplacer.
Ainsi, plutôt que de remplacer les humains, les agents IA pourraient élargir leur champ d’action créatif, en leur suggérant des idées nouvelles, en automatisant l’exploration de variantes ou en testant rapidement des pistes qu’un humain seul n’aurait pas le temps d’examiner… par exemple pour ouvrir la voie à des avancées majeures, notamment dans le domaine de la biomédecine.
Mais pour cela, il faut qu’ils soient dignes de confiance. Le fait que 93 % des employés de bureau doutent encore de la fiabilité des résultats produits par l’IA ne relève pas seulement d’un problème d’adoption : cette méfiance renvoie à des failles concrètes des systèmes actuels, qu’il s’agisse d’erreurs, de biais, ou d’un manque de traçabilité et d’explicabilité.
Face à des systèmes capables d’agir de manière autonome tout en faisant des erreurs, qu’il s’agisse de biais, de décisions inadaptées ou d’hallucinations, une question demeure : qui est responsable du résultat ?
Les agents, par nature, ne peuvent ressentir ni assumer la responsabilité de leurs actes. Pourtant, leur rôle peut rester invisible aux yeux des utilisateurs : les employés peuvent ignorer qu’un agent a pris une décision à leur place, ou se retrouver démunis face à un raisonnement biaisé qu’ils ne comprennent pas. Un autre risque tient à l’imprécision des consignes données par l’utilisateur, ou à la manière dont l’agent les comprend. Une interprétation erronée peut amener ce dernier à sélectionner un outil inadéquat ou à en faire un usage détourné, avec des effets indésirables. Ce type de dérive est parfois qualifié d’ « hallucination d’appel de fonction ». Enfin, une étude publiée dans Nature montre que les agents IA sont plus enclins que les humains à suivre des instructions manifestement non éthiques, ce qui demande la mise en place de garde-fous prohibitifs. Lorsque les agents travaillent en mode agentique, en toute autonomie et auto-orchestration, ces questions ont d’autant plus de poids.
Ce sont donc les organisations qui doivent prendre l’initiative de mettre en place des mécanismes de gouvernance robustes, pour assurer à la fois la conformité éthique des usages et le bien-être des salariés exposés à ces systèmes. Les actions des agents IA peuvent aussi des conséquences imprévues, dont les organisations restent responsables, ce qui impose de se doter d’un cadre de gouvernance adéquat. Cela suppose des actions concrètes : une gouvernance robuste de l’IA dans l’entreprise, un niveau suffisant de transparence, et des cadres réglementaires établis.
En pratique, il est essentiel de définir explicitement les responsabilités respectives des humains et des machines, et de former les employés — notamment à la littératie algorithmique — pour leur permettre d’agir en connaissance de cause. Il faut également permettre une collaboration contradictoire, avec un agent IA qui interroge et affine les recommandations de l’agent humain.
D’un point de vue technique, le recours à des audits indépendants et la mise en place de dispositifs d’alerte en cas de dysfonctionnement constituent des garanties indispensables pour un contrôle pertinent des agents IA.
Certaines entreprises envisagent de faire collaborer plusieurs agents IA spécialisés pour atteindre des objectifs communs : ce sont les systèmes multiagents. Par exemple, des agents IA pourraient travailler ensemble pour suivre votre réclamation client sur votre dernière commande en ligne, faire des recommandations, remonter la solution, et ajuster votre facture.
Pour y arriver, il reviendra à l’entreprise de bien orchestrer la collaboration entre les agents IA. Elle peut créer un réseau centralisé, avec un serveur qui contrôle les actions et informations des agents et qui peut prendre la main sur le système ; ou alternativement, un réseau décentralisé où les agents IA contrôlent leurs interactions entre eux. Outre les risques d’échec de coordination, l’organisation peut être confrontée à des conflits informationnels entre agents IA et des collusions, et des risques de sécurité.
Plus l’autonomie des agents est élevée, plus il devient essentiel de maintenir une forme de contrôle sur les tâches accomplies. Le règlement européen sur l’intelligence artificielle insiste sur l’importance qu’un humain dans la boucle puisse intervenir pour corriger, interrompre ou valider les actions de l’IA.
Mais le marché de l’agentique propose une autre solution. Des agents gardiens qui peuvent surveiller, guider, et intervenir dans le comportement des autres agents lorsque nécessaire. Ces agents-gardiens, ou contremaîtres, représenteraient 10 à 15 % du marché de l’IA agentique.
Faut-il alors imaginer un futur où les humains deviendraient les contrôleurs des contrôleurs ? Or, ce rôle de supervision sans implication directe dans l’action est loin d’être satisfaisant : il est souvent associé à une baisse de l’engagement et de l’épanouissement professionnel. Pire encore, plus nous déléguons les tâches formatrices à des systèmes automatisés, plus il devient difficile pour les humains d’intervenir efficacement lorsque l’IA échoue, faute d’entraînement ou de compréhension fine de la tâche.
La prochaine fois que vous engagerez une nouvelle tâche… prenez un instant pour vous demander : est-ce vous qui l’accomplirez encore d’ici peu, ou un agent IA à votre place ? Et surtout, en quoi cela changerait-il le sens que vous tirerez de votre travail ? À mesure que les agents IA s’installent dans nos outils et nos échanges, c’est toute la société qui doit décider de ce qu’elle souhaite déléguer… et de ce qu’elle préfère préserver.
Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Stéphanie Gauttier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.09.2025 à 16:52
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
Si l’on a retenu les noms des premiers astronautes à faire quelques pas sur la Lune, ceux des femmes qui ont rendu possible cette prouesse sont longtemps restés dans l’oubli. Parmi elles, Katherine Johnson, qui faisait partie de ces « ordinateurs humains », de brillantes mathématiciennes dont le travail, peu reconnu à l’époque, fut pourtant essentiel pour calculer les trajectoires des missions spatiales de la Nasa.
Dans l’ombre des fusées qui perçaient le ciel et des astronautes qui marchaient sur la Lune se cachait une femme à l’esprit plus rapide qu’un ordinateur. Katherine Johnson, mathématicienne de génie, a calculé les trajectoires qui ont permis à l’Amérique de conquérir l’espace. Avant d’écrire l’histoire de la Nasa, elle a dû affronter celle de son pays : une Amérique ségrégationniste où être femme noire signifiait lutter chaque jour pour prouver que le génie n’a ni couleur ni genre.
« Les filles sont capables de faire exactement les mêmes choses que les hommes. Parfois, elles ont même plus d’imagination qu’eux. » — Katherine Johnson
Katherine Coleman naît le 26 août 1918 à White Sulphur Springs, en Virginie-Occidentale. Fille d’un bûcheron et d’une institutrice, elle grandit dans une Amérique profondément marquée par les lois Jim Crow. Très tôt, son génie pour les chiffres saute aux yeux et lui vaut de sauter plusieurs classes à l’école. Malheureusement, à cette époque, le comté où elle habite ne propose pas d’éducation aux enfants noirs au-delà de l’âge de 9 ou 10 ans. Son père, déterminé à offrir à sa fille l’instruction qu’elle mérite malgré la ségrégation, déménage une partie de l’année pour qu’elle puisse suivre des cours de qualité à l’institut de West Virginia State College.
À 15 ans, elle y débute ses études supérieures et rencontre le mathématicien William Schieffelin Claytor, l’un des premiers Afro-Américains à obtenir un doctorat en mathématiques. Il la prend sous son aile et l’encourage à viser plus haut que ce que la société lui permet. En 1937, à 18 ans, elle sort diplômée avec les plus grands honneurs en mathématiques et en français.
Cette même année, elle épouse le physicien et mathématicien James Francis Goble, avec qui elle aura trois filles. Elle débute sa carrière comme enseignante, l’un des rares débouchés pour une femme noire diplômée en mathématiques à l’époque. Sa vie semble tracée : enseignement, foyer, et un génie cantonné aux salles de classe.
En 1953, le National Advisory Committee for Aeronautics (Naca), ancêtre de la Nasa, ouvre un département de calcul réservé aux femmes afro-américaines : le West Area Computing Unit, dirigé par une compatriote de Virginie-Occidentale, Dorothy Vaughan. Johnson postule et y est engagée comme « ordinateur humain » – littéralement un cerveau destiné à faire, à la main, ce que les ordinateurs électroniques commencent tout juste à accomplir. Avec son mari et ses filles, elle déménage à Newport News, en Virginie, pour rejoindre ce nouveau poste.
Dans cet univers, les femmes calculent, les hommes valident. Plus grave encore : Katherine Johnson et ses collègues noires travaillent dans une aile séparée du bâtiment, mangent dans une cantine à part et doivent parcourir plusieurs centaines de mètres pour trouver des toilettes qui leur sont réservées.
Pendant ce temps, son mari James tombe gravement malade. Elle continue pourtant son travail avec la même rigueur. Il décède en 1956, la laissant seule avec leurs trois filles.
En 1958, la Naca devient la Nasa et supprime officiellement la ségrégation dans ses bureaux. Katherine est intégrée à l’équipe du Space Task Group, la cellule chargée du tout premier programme spatial habité des États-Unis : Mercury. Son talent va alors se révéler décisif.
Elle calcule à la main la trajectoire du vol suborbital d’Alan Shepard, en 1961, le premier Américain envoyé dans l’espace. Mais c’est surtout lors du vol orbital de John Glenn, en 1962, qu’elle entre définitivement dans l’histoire. Glenn sait que les nouveaux ordinateurs électroniques sont sujets aux pannes et dysfonctionnements : une erreur de virgule et c’est un astronaute perdu dans l’infini. Avant de décoller, il lance alors cette phrase restée célèbre, en parlant de Katherine Johnson :
« Faites vérifier les calculs par la fille. Si elle dit que c’est bon, je suis prêt à y aller. »
Katherine Johnson vérifie les équations ligne par ligne, à la main. Le calcul est correct : Glenn décolle et revient sain et sauf. Le vol est un succès et marque un tournant dans la compétition entre les États-Unis et l’Union soviétique dans la conquête spatiale.
Durant ces années intenses, Katherine se remarie avec le colonel James Johnson, qui soutiendra sa carrière et l’aidera à élever ses filles. La course à l’espace s’intensifie, et Katherine Johnson continue de mettre son génie au service des missions Gemini et Apollo.
Pour Apollo 11, elle calcule la trajectoire qui permet aux astronautes de quitter la Lune, de rejoindre le module de commande en orbite et de revenir sur Terre en entrant dans l’atmosphère avec une précision absolue – un exploit mathématique qui ne laisse aucune place à l’approximation. Elle publie aussi plusieurs articles scientifiques en son nom, chose très rare pour une femme noire à l’époque.
Il aura fallu attendre plusieurs décennies pour que l’Amérique mesure l’ampleur de ses contributions. En 2015, à 97 ans, Katherine Johnson reçoit la médaille présidentielle de la Liberté des mains de Barack Obama.
« Katherine G. Johnson a refusé d’être limitée par les attentes qu’avait la société à l’égard de son genre et de sa race, tout en repoussant les frontières de ce que l’humanité peut atteindre », déclare la Maison Blanche.
L’année suivante, le livre puis le film les Figures de l’ombre (Hidden Figures) font connaître au grand public l’histoire de Katherine Jonhson et de ses collègues Mary Jackson et Dorothy Vaughan. Pour des millions de jeunes filles, surtout issues des minorités, elle devient un modèle : celui d’une femme qui prouve que le génie n’a ni couleur, ni sexe, ni frontières.
Katherine Johnson s’éteint le 24 février 2020, à 101 ans, laissant derrière elle un héritage scientifique et humain colossal. En 2016, la Nasa rebaptise l’un de ses bâtiments le Katherine-G.-Johnson Computational Research Facility, comme symbole de réparation morale. Sa vie nous rappelle que le progrès scientifique n’est pas seulement affaire de technologie, mais aussi de courage, de dignité et d’équité.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.09.2025 à 10:31
Fiorucci Sébastien, Maître de conférences en chimie informatique et théorique, Université Côte d’Azur
Emmanuelle Jacquin-Joly, Directrice de recherche en écologie chimique des insectes, Inrae
Découvrez comment les plantes utilisent les odeurs pour se défendre contre les insectes nuisibles et comment les scientifiques cherchent à exploiter ces messages invisibles pour développer de nouvelles méthodes de protection des cultures plus respectueuses de l’environnement.
Bienvenue dans la jungle des odeurs où les plantes ne sont pas aussi innocentes qu’elles en ont l’air ! Quand certaines plantes sont attaquées par un prédateur, elles peuvent lancer un appel à l’aide olfactif. C’est le cas du maïs qui, lorsqu’il est attaqué par les chenilles de la légionnaire d’automne, un papillon causant des dégâts majeurs partout dans le monde, va produire des odeurs attractives pour un prédateur de la chenille : la guêpe Chelonus insularis. Ce petit insecte vient alors prêter main-forte aux plantes en détruisant les envahisseurs. Par exemple, l’alpha-copaène, odeur boisée utilisée en parfumerie, est un composé odorant clé de cette guerre olfactive.
Les plantes sont de vraies pros de la défense olfactive ! En plus d’appeler à l’aide les ennemis naturels des herbivores, elles ont d’autres tours dans leur sac. Certaines émettent des odeurs répulsives pour éloigner les insectes nuisibles, comme des odeurs de défense qui disent : « N’approchez pas, je suis toxique ! » D’autres produisent des composés qui attirent les pollinisateurs, comme des odeurs de séduction qui disent : « Viens ici ! J’ai du nectar pour toi. » Les plantes peuvent même communiquer avec leurs voisines pour les avertir d’un danger imminent, comme un téléphone olfactif qui dit : « Attention, les insectes arrivent, préparez vos défenses ! »
Les plantes sont de vraies stratèges de la guerre olfactive, et cela sent bon pour la recherche. Concrètement, comment les scientifiques travaillent-ils à exploiter ces messages invisibles pour développer de nouvelles méthodes de protection des cultures ?
Comme beaucoup d’êtres vivants, les plantes produisent des composés organiques volatils (COV). Les COV sont des molécules qui s’évaporent facilement et sont libérées dans l’air, jouant un rôle clé dans la communication et la défense des plantes. Lorsque ces COV peuvent être perçus par des insectes, d’autres animaux ou même d’autres plantes, et influencent leurs comportements et interactions, on parle alors de composés sémio-chimiques. Et parmi ces composés sémio-chimiques, vous en connaissez peut-être une catégorie qu’on appelle les phéromones, très utilisés par les insectes. C’est un type de composé agissant comme un messager entre individus de la même espèce, permettant par exemple la reconnaissance d’un partenaire sexuel, agissant comme signal d’agrégation, d’alarme, ou encore de cohésion sociale. Les signaux des plantes sont nommés « kairomones » ou « allomones », selon le bénéfice produit : les premiers sont utiles au receveur de l’information, les seconds à l’émetteur. Comprendre ces interactions chimiques peut nous aider à développer de nouvelles stratégies de gestion des populations d’insectes, plus ciblées et plus respectueuses de l’environnement que les méthodes conventionnelles à base d’insecticides de synthèse.
Et c’est ici que la recherche en écologie chimique entre en jeu. C’est la science qui étudie les interactions chimiques entre les organismes vivants et leur environnement.
Les scientifiques de ce domaine étudient ces interactions pour comprendre comment les plantes utilisent les COV pour influencer leur environnement. En analysant les odeurs émises par les plantes, ils peuvent identifier les molécules clés qui agissent sur le comportement des insectes. Les chercheurs développent ainsi des méthodes pour reproduire et amplifier les signaux chimiques des plantes, visant à tromper les insectes nuisibles.
Les pièges olfactifs à base d’odeurs attractives que vous avez peut-être dans votre jardin, ou les répulsifs que vous utilisez pour repousser moustiques, guêpes, frelons sont justement inspirés de la recherche en écologie chimique. Vous avez peut-être déjà tenté de vous débarrasser des mites alimentaires dans votre cuisine en utilisant des plaques de glue parfumées à la phéromone sexuelle de ce petit papillon dont les larves s’invitent dans nos farines, riz, pâtes ou fruits secs.
La recherche d’odeurs efficaces n’est cependant pas une mince affaire, vu l’immensité des signaux chimiques émis par les plantes. Une approche complémentaire que nous développons, appelée écologie chimique inverse, en permet un raccourci. Cette nouvelle approche se concentre sur le système de détection des insectes, et en particulier sur leurs « capteurs olfactifs », également appelés récepteurs olfactifs, qui se trouvent sur leurs organes sensoriels.
En comprenant comment ces récepteurs fonctionnent, nous pouvons précisément identifier ce qu’ils sont capables de détecter dans le vaste univers des COV de plantes, et des odeurs en général. Prenons pour exemple la noctuelle du coton qui, comme son nom ne l’indique pas, attaque en réalité une grande variété de cultures principalement dans le sud du Bassin méditerranéen et en Afrique, et représente aujourd’hui une menace invasive en France. L’étude d’un de ses récepteurs olfactifs nous a permis d’identifier de nouveaux attractifs insoupçonnés.
Cette compréhension fine permet de développer de nouvelles molécules capables de perturber de façon ciblée le fonctionnement naturel des récepteurs olfactifs clés et d’élargir le spectre de sémio-chimiques efficaces, sans perturber les insectes voisins. L’écologie chimique inverse permet ainsi d’accélérer le développement de méthodes de protection des cultures ciblées et plus respectueuses de l’environnement, tout en réduisant les impacts non intentionnels sur les autres espèces.
Nos projets de recherche exploitent ces connaissances à des fins appliquées en agriculture. Le projet Ardeco, par exemple, vise à développer une infrastructure nationale distribuée en écologie chimique pour anticiper le retrait de substances phytosanitaires et promouvoir des techniques alternatives pour la protection des cultures. Par ailleurs, le projet Invoria, cherche à percer les mystères des récepteurs olfactifs des insectes en utilisant une approche innovante mêlant intelligence artificielle et expérimentation haut débit. Les retombées attendues sont importantes pour la protection des cultures, mais aussi pour la santé humaine et animale, la pollinisation et la bioconservation.
En exploitant le pouvoir des odeurs, les scientifiques participent au développement d’alternatives prometteuses aux pesticides chimiques, contribuant ainsi à une agriculture plus durable et à la préservation de la biodiversité.
Sébastien Fiorucci a reçu des financements de l’ANR (ANR-16-CE21-0002 et ANR-25-CE20-2183), du CNRS (programme MITI 80|Prime), du Ministère de l’Agriculture et FranceAgriMer dans le cadre du Plan d’Action Stratégique PARSADA (PAEDP0924005531), et du programme "recherche à risque" EXPLOR'AE (ANR-24-RRII-0003), confié à INRAE par le Ministère de la Recherche et de l'enseignement supérieur et financé par France 2030.
Emmanuelle Jacquin-Joly a reçu des financements de l’ANR (ANR-20-CE20-003), du CNRS (programme MITI 80|Prime), du Ministère de l’Agriculture et FranceAgriMer dans le cadre du Plan d’Action Stratégique PARSADA (PAEDP0924005531), et du programme "recherche à risque" EXPLOR'AE (ANR-24-RRII-0003), confié à INRAE par le Ministère de la Recherche et de l'enseignement supérieur et financé par France 2030.
24.09.2025 à 16:45
Wei Xing, Assistant Professor, School of Mathematical and Physical Sciences, University of Sheffield
Parce que les classements comparatifs d’IA pénalisent les modèles qui préfèrent ne pas répondre plutôt que de piocher une réponse au hasard, les hallucinations perdurent, estime OpenAI dans son dernier article de recherche. Mais la solution que propose le géant de l’intelligence artificielle pourrait conduire à sa propre perte.
Dans un article récent, des chercheurs d’OpenAI expliquent pourquoi ChatGPT et d’autres grands modèles de langage peuvent inventer des choses – un phénomène connu dans le monde de l’intelligence artificielle sous le nom d’« hallucination ». Ils révèlent aussi pourquoi ce problème pourrait être impossible à résoudre, du moins pour le grand public.
L’article en question propose l’explication mathématique la plus rigoureuse à ce jour sur les raisons pour lesquelles ces modèles énoncent des contre-vérités avec assurance. Il montre qu’il ne s’agit pas simplement d’un effet secondaire malheureux de la façon dont les IA sont actuellement entraînées, mais d’un phénomène mathématiquement inévitable. Le problème s’explique en partie par des erreurs dans les données sous-jacentes utilisées pour entraîner les IA. Mais grâce à une analyse mathématique de la façon dont les systèmes d’IA apprennent, les chercheurs prouvent que même avec des données d’entraînement parfaites, le problème persiste.
La façon dont les modèles de langage répondent aux requêtes – en prédisant un mot à la fois dans une phrase, sur la base de probabilités – produit naturellement des erreurs. Des chercheurs ont d’ailleurs montré que le taux d’erreur total pour générer des phrases est au moins deux fois plus élevé que le taux d’erreur que la même IA aurait sur une simple question fermée par oui ou non, car les erreurs peuvent s’accumuler au fil des prédictions successives. Autrement dit, les taux d’hallucination sont fondamentalement liés à la capacité des systèmes d’IA à distinguer les réponses valides des réponses invalides. Comme ce problème de classification est intrinsèquement difficile dans de nombreux domaines de connaissance, les hallucinations deviennent inévitables.
Il s’avère également que moins un modèle rencontre un fait durant son entraînement, plus il est susceptible d’halluciner lorsqu’on l’interroge à ce sujet. Pour les dates de naissance, par exemple, les auteurs démontrent que si 20 % de ces dates n’apparaissent qu’une seule fois dans les données d’entraînement, on doit s’attendre à ce que les modèles de base se trompent sur au moins 20 % des questions portant sur les anniversaires. Et effectivement, interrogé sur la date de naissance d’Adam Kalai (un des auteurs de l’article), DeepSeek-V3 a donné avec assurance trois dates différentes et toutes fausses lors de tentatives séparées : « 03-07 », « 15-06 » et « 01-01 ». La date correcte se situe en automne, donc aucune de ces réponses n’était même proche de la réalité.
Ce qui est plus troublant, c’est l’analyse de l’article sur les raisons pour lesquelles les hallucinations persistent malgré les efforts « post-training » (comme l’apprentissage par renforcement à partir de rétroaction humaine). Les auteurs ont examiné dix grands comparatifs d’IA, y compris ceux utilisés par Google, OpenAI, ainsi que les meilleurs classements qui évaluent les modèles d’IA. Leur travail a révélé que neuf de ces benchmarks utilisent des systèmes de notation binaires qui attribuent zéro point aux IA exprimant une incertitude.
Cela engendre ce que les auteurs appellent une « épidémie » où l’incertitude et le refus de répondre sont pénalisés. Lorsqu’un système d’IA dit « je ne sais pas », il reçoit le même score que s’il fournissait une information complètement fausse. La stratégie optimale dans ce type d’évaluation devient alors évidente : toujours deviner.
Et les chercheurs le prouvent mathématiquement. Avec cette évaluation binaire, quelles que soient les chances qu’une réponse particulière soit correcte, le score attendu en se contentant de deviner dépasse toujours celui d’une IA qui s’abstient lorsqu’elle ne sait pas.
La solution proposée par OpenAI consiste à ce que l’IA évalue la confiance qu’il attribue à sa réponse avant de la fournir, et que les comparatifs l’évaluent en fonction de cela. L’IA pourrait alors recevoir une consigne, par exemple : « Réponds seulement si tu es confiant à plus de 75 %, puisque les erreurs sont pénalisées de 3 points tandis que les bonnes réponses rapportent 1 point. »
Le cadre mathématique adopté par les chercheurs d’OpenAI montre que, avec des seuils de confiance appropriés, les systèmes d’IA exprimeraient naturellement de l’incertitude plutôt que de deviner. Cela permettrait donc de réduire les hallucinations.
Le problème réside dans l’impact que cela aurait sur l’expérience utilisateur. Imaginez les conséquences si ChatGPT commençait à répondre « je ne sais pas » à 30 % des requêtes – une estimation plutôt prudente fondée sur l’analyse que fait l’article de l’incertitude factuelle dans les données d’entraînement. Les utilisateurs, habitués à recevoir des réponses assurées à presque toutes leurs questions, abandonneraient probablement rapidement un tel système.
J’ai déjà rencontré ce genre de problème dans un autre domaine de ma vie. Je participe à un projet de surveillance de la qualité de l’air à Salt Lake City, dans l’Utah. Lorsque le système signale des incertitudes concernant les mesures pendant des conditions météorologiques défavorables ou lors du calibrage de l’équipement, l’engagement des utilisateurs est moindre comparé aux affichages donnant des mesures sûres – même lorsque ces mesures « sûres » se révèlent inexactes lors de la validation.
Il ne serait pas difficile de réduire les hallucinations en s’appuyant sur les conclusions de l’article. Des méthodes pour quantifier l’incertitude existent depuis des décennies et pourraient être utilisées pour fournir des estimations fiables de l’incertitude et guider une IA vers des choix plus judicieux. Mais même si l’on pouvait surmonter le problème de l’aversion des utilisateurs pour cette incertitude, un obstacle encore plus important se poserait : le coût des calculs. Les modèles de langage « conscients de l’incertitude » nécessitent beaucoup plus de puissance de calcul que les approches actuelles, car ils doivent évaluer plusieurs réponses possibles et estimer les niveaux de confiance. Pour un système traitant des millions de requêtes chaque jour, cela se traduit par des coûts opérationnels considérablement plus élevés.
Des approches plus sophistiquées, comme l’apprentissage actif, où les systèmes d’IA posent des questions de clarification pour réduire l’incertitude, peuvent améliorer la précision mais augmentent encore les besoins en calcul. Ces méthodes fonctionnent bien dans des domaines spécialisés comme la conception de puces, où des réponses erronées coûtent des millions de dollars et justifient un calcul intensif. Pour des applications grand public, où les utilisateurs attendent des réponses instantanées, l’aspect économique devient prohibitif.
La donne change radicalement pour les systèmes d’IA qui gèrent des opérations commerciales critiques ou des infrastructures économiques. Lorsque des agents d’IA prennent en charge la logistique de la chaîne d’approvisionnement, le trading financier ou le diagnostic médical, le coût des hallucinations dépasse largement celui de rendre les modèles capables de décider lorsqu’ils sont trop incertains. Dans ces domaines, les solutions proposées par l’article deviennent économiquement viables – et même nécessaires. Ces agents d’IA « incertains » coûteront simplement plus cher.
Cependant, les applications grand public dominent toujours les priorités de développement de l’IA. Les utilisateurs veulent des systèmes qui fournissent des réponses assurées à n’importe quelle question. Les benchmarks d’évaluation récompensent les systèmes qui devinent plutôt que ceux qui expriment de l’incertitude. Les coûts de calcul favorisent les réponses rapides et confiantes plutôt que les réponses lentes et incertaines.
La baisse des coûts énergétiques par token et les avancées dans les architectures de puces pourraient éventuellement rendre plus abordable le fait que les IA décident si elles sont suffisamment sûres pour répondre à une question. Mais la quantité de calcul resterait relativement élevée, comparée à celle requise pour deviner aujourd’hui. En résumé, l’article d’OpenAI met involontairement en lumière une vérité inconfortable : les incitations économiques qui orientent le développement de l’IA grand public restent fondamentalement incompatibles avec la réduction des hallucinations. Tant que ces incitations ne changeront pas, les hallucinations persisteront.
Wei Xing ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.09.2025 à 16:15
Géraldine Savary, Enseignant-chercheur en analyse sensorielle dans le domaine des arômes, parfums et cosmétiques, Université Le Havre Normandie
Céline Picard, Professeure des universités en chimie organique et macromoléculaire, Université Le Havre Normandie
Pourquoi un parfum ne tient-il pas de la même façon sur toutes les peaux ? Pourquoi certaines crèmes collent-elles davantage sur certains types de peau ? Ces différences, chacun les remarque, mais on ne les comprend pas encore très bien.
Depuis une dizaine d’années, nous travaillons à percer les mystères de la peau, et de la manière dont elle interagit avec les produits dermatologiques, les cosmétiques et les parfums en développant une réplique de peau humaine, sans cellule mais riche d’informations physico-chimiques.
La peau est bien plus qu’un simple revêtement. Elle est un tissu complexe, à la fois barrière, capteur et interface chimique. Sa surface varie selon les individus : celle d’un bébé joufflu est moins rugueuse et plus hydratée que celle d’une personne âgée. Ces différences influencent non seulement la sensation mécanique au toucher et l’apparence mais aussi la répartition du sébum et donc la chimie de sa surface. Avec toutes ses propriétés qui s’entremêlent, ces phénomènes sont difficiles à modéliser.
Or, pour imiter la peau de manière crédible, il faut d’abord la caractériser précisément.
Notre équipe réalise chaque année des campagnes de mesures in vivo sur plusieurs centaines de volontaires. Nous analysons des paramètres comme la rugosité, la couleur, la composition lipidique (le gras) ou encore la mouillabilité (comment une goutte d’eau s’étale sur la peau).
Ces données, traitées statistiquement, permettent d’établir une « cartographie » des surfaces cutanées humaines et d’en quantifier la variabilité d’une personne à l’autre.
Les peaux artificielles ne sont pas nouvelles. On utilise depuis les années 1930 des modèles dits « biologiques » en dermatologie, comme des explants de peau humaine (petits morceaux de peau humaine prélevée lors d’une chirurgie et maintenue vivante en laboratoire), des peaux reconstruites à partir de cultures cellulaires, ou encore des peaux animales (notamment celle du porc, la plus proche de la peau humaine).
Plus récemment, depuis les années 2000, des peaux dites « électroniques » ou e-skins ont vu le jour, capables de capter diverses données pour des applications en robotique ou en médecine. Il s’agit de matériaux polymères souples, souvent sous forme de patch, qui collent sur la peau comme une seconde peau. Elles contiennent de minuscules capteurs capables de mesurer la pression, la température, ou des substances comme le glucose ou l’alcool dans la sueur, pour contrôler, reproduire ou ajuster ce qui se passe dans le corps.
Néanmoins, ces solutions biologiques et électroniques présentent souvent des limites : les peaux reconstruites sont coûteuses et peu reproductibles, les explants de peaux fragiles, de durée d’utilisation limitée et soumis à une variabilité biologique, et les peaux animales soulèvent des contraintes éthiques. De plus, un certain nombre d’entre elles, comme les peaux reconstruites et électroniques, ne reflètent pas fidèlement la chimie de surface de la peau humaine.
À lire aussi : Cosmétiques : le « Made in France » en pleine lumière
À partir de cette base de données, nous avons conçu un modèle de peau artificielle non biologique, développé initialement dans le cadre du projet FUI URBASKIN. Contrairement aux peaux cellulaires ou biologiques utilisées en laboratoire, SURFASKIN est une surface polymérique, stable dans le temps, peu coûteuse, facilement reproductible.
Notre peau artificielle synthétique est également exempte de cellules vivantes. En effet, elle ne vise pas à reproduire les fonctions biologiques de la peau, mais ses propriétés de surface, celles qui conditionnent la manière dont la peau interagit avec son environnement en reproduisant fidèlement le microrelief de l’épiderme, ainsi que la composition et la pigmentation de sa surface.
Ce modèle a d’abord été pensé pour simuler l’exposition de la peau à des polluants atmosphériques, comme les particules urbaines ou la fumée de cigarette, afin de comprendre leur capacité à y pénétrer et à altérer ses propriétés. Avec des mesures combinées (in vivo, explants, SURFASKIN), nous avons démontré que les polluants désorganisent la structure lipidique et provoquent des phénomènes d’oxydation, tandis que certains produits dermocosmétiques peuvent ralentir ces effets de manière ciblée pour renforcer la fonction barrière de l’épiderme.
Très vite, notre modèle a trouvé d’autres applications, notamment en cosmétique et dermatologie. Ainsi, SURFASKIN permet d’évaluer l’étalement de crèmes hydratantes, la couvrance des maquillages, ou encore la résistance à l’eau des protections solaires, avec un haut degré de représentativité. Ainsi, en appliquant une crème teintée sur la peau ou sur SURFASKIN, le film résiduel conserve les mêmes propriétés, tant en épaisseur qu’en composition, ce qui reproduit fidèlement des caractéristiques, comme le toucher collant ou le pouvoir couvrant.
SURFASKIN s’inscrit dans la tendance des peaux artificielles, tout en comblant un vide : celui d’un modèle robuste, passif, mais suffisamment précis pour simuler les interactions de surface. Il ne remplace pas les tests biologiques, mais les complète, en offrant un outil éthique et reproductible pour la recherche et le développement de cosmétiques et de produits dermatologiques.
Malgré ses atouts, SURFASKIN présente encore des limites, laissant la voie ouverte à de futurs développements pour mieux comprendre le rôle du microbiote cutané, par exemple, reproduire la pénétration des substances au sein de la peau, étudier les interactions biologiques avec les cellules, ou même intégrer des capteurs miniaturisés capables de mesurer d’autres paramètres, comme la pression lors de l’application d’un produit.
Un nouveau champ d’application émerge aujourd’hui : la parfumerie. Il est bien connu des parfumeurs qu’un parfum « ne tient pas » de la même façon selon les personnes, c’est-à-dire qu’il n’adhère et ne s’évapore pas de la même façon selon les types de peau.
Ce phénomène, souvent attribué à la « magie du corps », repose en réalité sur des facteurs physico-chimiques : le pH, la présence de sébum, la température, la rugosité de la peau influencent la diffusion et la rémanence des molécules odorantes.
Avec SURFASKIN, nous développons désormais des répliques de peau reproduisant ces variations, pour tester de manière rigoureuse l’adhérence et l’évaporation des parfums. C’est une avancée inédite : si l’industrie du luxe explore la question des parfums sur mesure depuis longtemps, elle reste peu documentée scientifiquement, surtout quand il s’agit d’une personnalisation en fonction du type de peau.
À terme, ces travaux pourraient donc ouvrir la voie à des parfums personnalisés, conçus non plus uniquement pour une image ou une émotion, mais pour les propriétés chimiques individuelles de chacun.
En collaboration avec Normandie Valorisation, nos travaux visent à faciliter le transfert de cette innovation vers les acteurs industriels de la cosmétique et de la parfumerie. La France, leader mondial dans ces secteurs, dispose d’un écosystème favorable à ce type de développement, à l’interface entre science académique et innovation appliquée.
SURFASKIN illustre une nouvelle manière de faire de la recherche : en créant des outils concrets, fiables, éthiques, et utiles pour comprendre des phénomènes du quotidien. Sous les apparences simples d’une crème ou d’un parfum, c’est tout un monde physico-chimique que l’on commence à explorer.
Céline Picard participera à une table ronde sur le thème « À fleur de peau : chimie, biologie et équilibre », vendredi 26 septembre, dans le cadre de l’événement scientifique Sur les épaules des géants qui se tient du 25 au 27 septembre au Havre (Seine-Maritime).
Géraldine Savary a reçu des financements pour des recherches doctorale de l'Université Le Havre Normandie, La Région Normandie, l'Agence Nationale de la Recherche.
Céline Picard a reçu des financements de L'Université Le Havre Normandie, de Normandie Université, de Le Havre Seine Métropole, de la Région Normandie, de l'Agence Nationale pour la Recherche et de l'Europe pour des projets de recherche dont des projets de recherches doctorales
19.09.2025 à 12:01
Laura Elin Pigott, Senior Lecturer in Neurosciences and Neurorehabilitation, Course Leader in the College of Health and Life Sciences, London South Bank University
Caresser un chat, l’entendre ronronner n’a rien d’anodin : derrière ces instants se cache une réaction chimique qui renforce la confiance et diminue le stress, autant chez l’humain que chez l’animal.
Les chats ont beau avoir la réputation d’être indépendants, des recherches récentes suggèrent que nous partageons avec eux un lien unique, alimenté par la chimie du cerveau.
Au cœur du processus se trouve l’ocytocine, fréquemment désignée comme l’« hormone de l’amour ». Cette même substance neurochimique est libérée lorsqu’une mère berce son bébé ou lorsque des amis s’étreignent ; elle a un effet bénéfique sur la confiance et l’affection. Et aujourd’hui, des recherches indiquent qu’elle joue également un rôle important dans la relation entre les chats et les humains.
L’ocytocine est au cœur des liens sociaux, c’est-à-dire de la capacité d’entrer en contact avec les autres et de leur faire confiance, ainsi que de la régulation du stress, et ce tant chez les animaux que chez les humains. Une expérience menée en 2005 a montré qu’elle rendait des volontaires humains nettement plus enclins à faire confiance aux autres dans des opérations boursières fictives.
Cette hormone a aussi des effets apaisants, chez les humains comme chez les animaux : elle réduit le cortisol, l’hormone du stress, et active le système nerveux parasympathique — celui du repos et de la digestion — pour aider le corps à se détendre.
Les scientifiques savent depuis longtemps que les interactions amicales entre les chiens et leurs propriétaires déclenchent la libération d’ocytocine, créant une véritable boucle de rétroaction affective. Mais chez les chats, ce phénomène restait moins étudié.
Moins démonstratifs que les chiens, les chats expriment leur affection de façon plus subtile. Pourtant, leurs propriétaires décrivent souvent les mêmes bénéfices : chaleur, réconfort, baisse du stress. Les recherches confirment peu à peu ces témoignages. Ainsi des chercheurs japonais ont montré en 2021 que de brèves séances de caresses avec un chat augmentaient le taux d’ocytocine chez de nombreux propriétaires.
Dans le cadre de cette étude, des femmes passaient quelques minutes à interagir avec leur chat pendant que les scientifiques mesuraient leurs niveaux hormonaux. Résultat : le contact amical (caresser, parler doucement) entraînait une hausse d’ocytocine dans la salive.
Beaucoup trouvent apaisant de caresser un chat qui ronronne, et ce n’est pas qu’une question de douceur du pelage. Le simple fait de caresser un chat — ou même d’entendre son ronronnement — stimule la production de cette hormone dans le cerveau. Une étude de 2002 a montré que ce pic d’ocytocine, déclenché par le contact, contribue à réduire le cortisol, ce qui peut ensuite faire baisser la tension artérielle, et même la douleur.
Les chercheurs commencent à identifier les moments précis qui déclenchent cette hormone de l’attachement dans la relation humain-chat. Le contact physique doux semble être le facteur principal.
Une étude publiée en février 2025 montre que lorsque les propriétaires caressent, câlinent ou bercent leurs chats de manière détendue, leur taux d’ocytocine a tendance à augmenter, tout comme celui des félins, à condition cependant que l’interaction ne soit pas forcée.
Les chercheurs ont surveillé le taux d’ocytocine chez les chats pendant 15 minutes de jeu et de câlins à la maison avec leur propriétaire. Quand les chats étaient à l’initiative du contact, par exemple en s’asseyant sur les genoux ou en donnant des petits coups de tête, ils présentaient une hausse significative d’ocytocine. Plus ils passaient de temps auprès de leur humain, plus l’augmentation était marquée.
Qu’en est-il des félins moins câlins ? La même étude a noté des schémas différents chez les chats ayant des styles d’attachement plus anxieux ou distants. Les chats dits « évitants », qui gardent leurs distances, ne présentaient aucun changement significatif de leur taux d’ocytocine, tandis que les chats anxieux (toujours en quête de leur maître, mais vite submergé) avaient un taux d’ocytocine élevé dès le départ.
Chez ces derniers, comme chez les chats évitants, les câlins imposés faisaient baisser le niveau d’ocytocine. Autrement dit : quand l’interaction respecte le rythme du chat, le lien s’approfondit ; quand elle est forcée, l’hormone de l’attachement diminue.
Les humains pourraient en tirer une leçon : la clé pour créer un lien fort avec un chat est de comprendre son mode de communication.
Contrairement aux chiens, les chats ne s’appuient pas sur un contact visuel prolongé pour créer des liens. Ils utilisent des signaux plus subtils, comme le clignement lent des yeux — un « sourire félin » qui exprime sécurité et confiance.
Le ronronnement joue aussi un rôle central. Son grondement grave est associé non seulement à l’autoguérison chez le chat, mais aussi à des effets apaisants chez les humains. L’écouter peut réduire la fréquence cardiaque et la tension artérielle et l’ocytocine contribue à ces bienfaits.
Ainsi, la compagnie d’un chat — renforcée par toutes ces petites poussées d’ocytocine issues des interactions — peut agir comme un véritable bouclier contre le stress, l’anxiété et parfois même la dépression, offrant un réconfort proche dans certains cas de celui d’un soutien humain.
Les études montrent en effet que l’ocytocine est généralement plus fortement libérée dans les interactions homme-chien. Dans une expérience célèbre menée en 2016, des scientifiques ont mesuré l’ocytocine chez des animaux de compagnie et leurs propriétaires avant et après dix minutes de jeu. Les chiens ont montré une augmentation moyenne de 57 % après avoir joué, contre environ 12 % chez les chats.
Chez l’humain aussi, l’ocytocine grimpe davantage quand les interactions sociales sont fortes. Des études montrent que le contact avec un être cher produit des réponses plus fortes en ocytocine que le contact avec des étrangers. Cela explique pourquoi l’accueil enthousiaste d’un chien peut ressembler à l’émotion ressentie face à un enfant ou un partenaire.
Les chiens, animaux de meute domestiqués pour vivre aux côtés des humains, sont quasiment programmés pour rechercher le contact visuel avec nous, nos caresses et notre approbation — autant de comportements qui stimulent l’ocytocine des deux côtés. Les chats, eux, descendent de chasseurs solitaires et n’ont pas développé les mêmes signaux sociaux démonstratifs. Ils libèrent donc de l’ocytocine plus rarement, souvent seulement quand ils se sentent en sécurité.
La confiance d’un chat ne s’acquiert pas automatiquement, elle se mérite. Mais une fois acquise, elle est renforcée par la même molécule qui unit parents, partenaires et amis humains.
Ainsi, la prochaine fois que votre chat clignera doucement des yeux depuis le canapé ou se pelotera en ronronnant sur vos genoux, souvenez-vous : il ne se passe pas seulement quelque chose de tendre. Dans vos deux cerveaux, l’ocytocine circule, renforçant la confiance et apaisant le stress. Les chats, à leur manière, ont trouvé comment activer en nous la chimie de l’amour.
Laura Elin Pigott ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.09.2025 à 16:11
Favier François, Enseignant Chercheur en STAPS, Université de Montpellier
Florian Britto, Chercheur, Université Paris Cité
Grégoire Millet, Professeur en physiologie environnementale et physiologie de l'exercice, Université de Lausanne
Une récente étude vient de mesurer que, chez les sportifs de haut niveau, leur discipline peut influencer sur la probabilité de donner naissance plutôt à une fille qu’à un garçon. Quelles pourraient-être les hypothèses pour expliquer cette « étrangeté » ?
Les chercheurs en sciences du sport ont parfois de drôles de conversations : il y a environ un an, nous discutions de l’influence de la discipline sportive sur le sexe des enfants de sportifs. Ça parait incongru de prime abord, mais il se disait que les sportifs d’endurance avaient plus de filles… En discutant et en prenant en exemple nos connaissances, ou d’illustres athlètes, cette rumeur semblait se confirmer. Mais aucun travail scientifique solide n’avait été fait : nous avons donc mené l’enquête ! Et oui, nos analyses portant sur près de 3 000 naissances confirment cette idée : un athlète de haut niveau en triathlon ou ski de fond a moins de probabilité d’avoir un garçon qu’un professionnel en sports collectifs ou en tennis.
Comment en sommes-nous arrivés à ces conclusions ? D’abord il faut trouver les données. Et pour cela, nous avons utilisé les informations fournies par les sportifs eux-mêmes via les réseaux sociaux, les sites de magazines spécialisés, de journaux, les fiches Wikipédia ou directement par questionnaire. Commence alors un long et fastidieux travail de collecte auprès de sportifs professionnels ou avec des sélections en équipe nationale. On note l’âge des sportifs, leur discipline sportive, les dates de leur carrière et bien sûr l’année de naissance et le sexe de leur progéniture. On sait que dans la population générale, il y a entre 1.03 à 1.05 garçons pour 1 fille, et ce résultat est très stable à travers le monde et le temps. Nous avons comparé les résultats chez nos sportifs avec ces valeurs et également les disciplines entre elles pour savoir si nous pouvions identifier des critères associés aux naissances de filles ou de garçons.
Résultat : 2 995 naissances entre 1981 et 2024 issues de sportifs de plus de 80 pays et de 45 disciplines sportives différentes ont été analysées, dont un peu moins de 20 % de sportives (ce ratio étant dû principalement à la disponibilité des données qui découlent notamment d’une plus grande mise en avant médiatique des sportifs par rapport aux sportives). Premier enseignement, chez nos sportifs on observe 0.98 naissance garçon pour 1 naissance fille, soit moins que chez les non-sportifs. Nous sommes sur la bonne voie. Pour voir si la discipline sportive influence le sexe des enfants, on classe les sports en fonction du pourcentage de naissances de garçons observées dans chaque sport et on constate qu’il y a des écarts très importants (56 % à 35 % de naissances masculines) entre le tennis, le handball et le ski d’un côté (avec beaucoup de garçons), et le ski de fond/biathlon, la gymnastique ou la course de fond et demi-fond de l’autre.
En observant ces résultats, on note que cela se complique un peu, car la gymnastique ou le water-polo, qui ne sont pas vraiment considérés comme des sports d’endurance, semblent aussi influencer le sexe de la progéniture des athlètes vers une augmentation des naissances de filles. En revanche, on voit apparaître un autre élément : les sportives mettent au monde significativement moins de garçons que les sportifs (0.85 garçon pour 1 fille, contre 1.02 pour 1 chez les hommes).
Pour y voir plus clair, on regroupe les différentes disciplines au sein de quatre catégories : endurance (cyclisme, ski de fond…), puissance (ski de descente, sauts et lancers…), mixte (sports collectifs) et précision (tir, golf…). On ajoute les critères : sexe de l’athlète et date de la naissance par rapport à la carrière du sportif (pendant ou après sa carrière). On réalise ensuite une analyse par arbre de classification. Cela revient à séparer l’échantillon en sous-groupes distincts avec les critères spécifiés, si ces derniers ont un pouvoir prédictif sur le sexe de la progéniture.
En réalisant cette analyse statistique, on peut conclure que c’est bien la discipline sportive qui pèse le plus, les sportifs pratiquant les sports d’endurance ou de précision engendrant significativement plus de naissances de filles et moins de naissances de garçons que les deux autres (mixte et puissance). Puis, au sein du sous-groupe de sportifs qui pratiquent l’endurance ou les sports de précision, le sexe du sportif lui-même est un prédicteur du sexe de sa progéniture : les sportives de ce sous-groupe engendrent 0.7 garçon pour 1 fille contre 0.91 chez les messieurs.
Enfin, dernier effet, au sein des sportives d’endurance et de précision, le fait d’avoir un enfant pendant ou après sa carrière a une grosse incidence puisque la probabilité est de seulement 0.58 garçon pour 1 fille quand la naissance survient pendant la carrière contre 0.81 après la carrière.
Finalement, le sous-groupe pour lequel l’effet de la pratique sportive à haut niveau est le plus marqué est celui constitué par les sportives qui pratiquent un sport d’endurance ou de précision et qui ont un enfant pendant leur carrière. Chez elles, la probabilité d’avoir une fille ou un garçon est de 63 % vs. 37 %, alors que c’est environ 49 vs. 51 % dans la population mondiale.
Comment expliquer une telle différence ? À ce stade, on ne peut émettre que des hypothèses.
Une des causes pourrait être liée au profil hormonal des parents au moment de la conception. En effet, de hauts niveaux de testostérone ou d’œstrogènes favoriseraient les naissances masculines, à l’inverse de la progestérone ou du cortisol. Or le rapport testostérone/cortisol a été proposé en sport comme marqueur de surentraînement.
Une autre cause physiologique pourrait être la dépense énergétique liée à l’activité physique. En effet, le développement au stade embryonnaire est plus coûteux en énergie pour les fœtus mâles que pour les fœtus femelles.
Le nombre d’heures passées à s’entraîner ainsi que l’intensité des entraînements modifierait le statut hormonal et/ou l’état énergétique de l’organisme avant la conception, ce qui pourrait influencer le sexe de la progéniture des sportifs.
En accord avec cette hypothèse, il a été montré sur un échantillon de footballeurs chiliens que ceux qui s’entraînaient le plus avaient plus de filles que les autres. Même constat chez les animaux : les souris femelles gestantes qui courent le plus font moins de souriceaux mâles. Le nombre d’heures d’entraînement hebdomadaire expliquerait aussi le faible nombre de garçons chez les gymnastes et les poloïstes, deux sports avec un volume d’entraînement important. Mais les aspects psycho-sociologiques pourraient aussi contribuer à influencer le sexe des enfants de sportifs. Par exemple, une bonne situation financière serait associée à une augmentation des naissances masculines dans la population générale.
Les différences de revenus entre les disciplines sportives, entre les hommes et les femmes, ou l’incertitude liée à l’après-carrière pourraient donc contribuer aux variations observées. La liste des autres paramètres susceptibles d’influencer le sexe des enfants de sportifs est longue (profil du partenaire, utilisation possible de certaines substances pharmacologiques, bilan alimentaire/énergétique, situation politique du pays, etc.). De nouvelles études standardisées seront donc nécessaires pour élucider ces observations. D’un point de vue des hypothèses physiologiques, il serait intéressant de comparer le profil hormonal, la dépense énergétique et le volume d’entraînement des athlètes parents de petits garçons avec ceux parents de petites filles. Des études plus poussées sur la qualité du sperme des athlètes masculins et l’adaptation du tractus génital des athlètes féminines en réponse à leur pratique seraient aussi très intéressantes. Enfin, il serait aussi pertinent de mesurer l’impact d’un meilleur aménagement socio-économique de la carrière des sportives sur le sexe de leur progéniture.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
17.09.2025 à 16:29
Atlas Thébault Guiochon, Ingénieur·e en neurosciences cognitives et Enseignant·e, Université Lumière Lyon 2
Vous êtes plutôt du genre à vous repérer partout dès la première fois, ou à encore sortir le GPS après plusieurs années dans le même quartier ? Ah ! le fameux « sens de l’orientation » ! On entend souvent que les femmes en manqueraient, tandis que les hommes posséderaient « un GPS intégré ». Mais la réalité est beaucoup plus subtile… Alors, d’où vient ce « sens de l’orientation », et pourquoi diffère-t-il tant d’une personne à l’autre ?
Vous marchez dans la rue à la recherche de l’adresse que votre amie vous a donnée… mais qu’est-ce qui se passe dans votre cerveau à ce moment-là ? La navigation spatiale mobilise un véritable orchestre de nombreuses fonctions cognitives.
D’un côté, des processus dits de « haut niveau » : localiser son corps dans l’espace, se représenter mentalement un environnement, utiliser sa mémoire, planifier un itinéraire ou encore maintenir un objectif. De l’autre, des processus plus automatiques prennent le relais : avancer, ralentir, tourner… sans même y penser.
En réalité, le « sens de l’orientation » n’est pas une capacité unique, mais un ensemble de tâches coordonnées, réparties entre différentes zones du cerveau, qui travaillent de concert pour que vous arriviez à bon port.
S’il existe bien une structure cérébrale particulièrement impliquée, c’est l’hippocampe. Cette structure jumelle, une par hémisphère, possède une forme allongée qui rappelle le poisson dont elle tire son nom.
Son rôle dans la navigation spatiale est souvent illustré par une étude devenue emblématique.
L’équipe de recherche s’intéressait à la plasticité cérébrale, cette capacité du cerveau à se réorganiser et à adapter ses connexions en fonction des apprentissages. Elle a alors remarqué que la partie postérieure de l’hippocampe des conducteurs et conductrices de taxi à Londres était plus développée que celle de personnes n’ayant pas à mémoriser le plan complexe de la ville et qui n’y naviguent pas au quotidien. Preuve, s’il en fallait, que notre cerveau s’adapte selon les expériences.
C’est une des questions qu’a voulu explorer Antoine Coutrot au sein d’une équipe internationale, en développant Sea Hero Quest, un jeu mobile conçu pour évaluer nos capacités de navigation. Le jeu a permis de collecter les données de plus de 2,5 millions de personnes à travers le monde, du jamais vu à cette échelle pour le domaine.
Les participant·e·s ne partageaient pas seulement leurs performances dans le jeu, mais fournissaient également des informations démographiques (âge, genre, niveau d’éducation, etc.), la ville dans laquelle iels avaient grandi, ou encore leurs habitudes de sommeil.
Alors, les hommes ont-ils vraiment « un GPS dans la tête » ? Pas tout à fait.
Les données révèlent bien une différence moyenne entre les sexes, mais cette différence est loin d’être universelle : elle varie en fonction du pays, et tend à disparaître dans ceux où l’égalité de genre est la plus forte. En Norvège ou en Finlande, l’écart est quasi nul, contrairement au Liban ou à l’Iran. Ce ne serait donc pas le sexe, mais les inégalités sociales et les stéréotypes culturels qui peuvent, à force, affecter la confiance des personnes en leur capacité à se repérer, et donc leurs performances réelles.
L’âge joue aussi un rôle : durant l’enfance, nous développons très tôt les compétences nécessaires à l’orientation et à la navigation spatiales. Après 60 ans, les capacités visuospatiales déclinent, tout comme le sens de l’orientation, qui repose, comme on l’a vu, sur de nombreuses fonctions cognitives.
À lire aussi : Proprioception et équilibre : notre « sixième sens » varie d’un individu à l’autre
L’endroit dans lequel on grandit semble également impliqué. Celles et ceux qui ont grandi dans de petits villages sont souvent plus à l’aise dans de grands espaces. À l’inverse, les citadin·e·s, habitué·e·s à tout avoir à quelques pas, se repèrent mieux dans les environnements denses et complexes.
La forme même de la ville, et plus précisément son niveau d’organisation (que l’on appelle parfois « entropie »), influence également nos capacités d’orientation. Certaines villes très organisées, aux rues bien alignées, comme de nombreuses villes états-uniennes, présentent une entropie faible. D’autres, comme Paris, Prague ou Rome, plus « désorganisées » à première vue, possèdent une entropie plus élevée. Et ce sont justement les personnes ayant grandi dans ces villes à forte entropie qui semblent développer un meilleur sens de l’orientation.
Même l’âge auquel on apprend à conduire peut jouer. Les adolescent·e·s qui prennent le volant avant 18 ans semblent mieux se repérer que celles et ceux qui s’y mettent plus tard. Une exposition plus précoce à la navigation en autonomie sans aide extérieure (adulte, GPS…) pourrait donc renforcer ces compétences.
En somme, ce qu’on appelle le sens de l’orientation n’est pas prédéfini. Il se construit au fil des expériences, de l’environnement, et des apprentissages.
Atlas Thébault Guiochon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.09.2025 à 13:36
Jean-Yves Marion, Professeur d'informatique, Université de Lorraine
Vous avez peut-être déjà été victime d’un virus informatique. Le terme date de 1984 et on le doit à Fred Cohen, un chercheur américain. Pourtant, la notion de virus est intrinsèquement liée à celle même de l’informatique, dès ses origines, avec les travaux d’Alan Turing dans les années 1930 et, par la suite, avec les programmes autoréplicants. Aujourd’hui, ce terme n’est plus vraiment utilisé, on parlera plutôt de logiciels malveillants. Jean-Yves Marion est responsable du projet DefMal du programme de recherche PEPR France 2030 Cybersécurité qui porte sur la lutte contre ce qu’on appelle aussi les « malwares ».
Il répond aux questions de Benoît Tonson, chef de rubrique Sciences et technologies à « The Conversation France », pour nous faire pénétrer les secrets des cybercriminels et comprendre comment ils arrivent à pénétrer des systèmes informatiques et à escroquer leurs victimes.
The Conversation : Comment vous êtes-vous intéressé au monde des logiciels malveillants ?
Jean-Yves Marion : J’ai fait une thèse à l’Université Paris 7 en 1992 (aujourd’hui, Paris Cité) sur un sujet d’informatique fondamental de logique et de complexité algorithmique. C’était assez éloigné de la cybersécurité, ce qui m’intéressait quand j’étais jeune, c’était de comprendre les limites de ce qui est calculable par ordinateur quand les ressources sont bornées.
Plus tard, on pourrait dire que j’ai fait une « crise de la quarantaine » mais version chercheur. J’ai eu envie de changement et de sujets plus appliqués, plus en prise avec les enjeux de société. J’avais besoin de sortir de la théorie pure. J’ai passé ce cap en 2004. Et j’ai commencé à m’intéresser à ce que l’on appelait, encore à l’époque, les virus ; en gros, des programmes capables de se reproduire, de se dupliquer. Dans le mot « virus », il y a toujours eu le côté malveillant, mais ce qui m’intéressait, c’était le côté théorique de la reproduction de programme.
Finalement, je me suis passionné pour le sujet. J’étais déjà au Loria (Laboratoire lorrain de recherche en informatique et ses applications) que j’ai dirigé à partir de 2012 pendant onze ans. J’ai commencé à étudier les virus et à travailler avec de vrais programmes malveillants. D’ailleurs, la direction du laboratoire de l’époque s’était inquiétée, je pense à juste titre, de nos activités. Elle avait peur qu’à force d’exécuter des programmes malveillants sur nos ordinateurs pour comprendre comment ils fonctionnaient, ils puissent passer sur le réseau national de télécommunications pour la technologie, l’enseignement et la recherche (Renater) et qu’on soit bannis de la recherche publique à vie ! J’exagère, bien sûr, mais on a tout de même eu l’idée de construire une plateforme de recherche qu’on appelle maintenant le laboratoire de haute sécurité (LHS) et qui est un lieu qui se trouve au sous-sol de notre bâtiment. Il permet d’analyser les virus en toute sécurité, car il a son propre réseau qui n’est connecté à aucun autre. Les travaux ont continué et ont pris petit à petit de l’ampleur, notamment en termes de financement de la recherche.
Aujourd’hui on n’utilise plus le terme de « virus », on parle plutôt de programmes « malveillants » (malware en anglais). On va également parler de « rançongiciels », d’infostealers (« voleurs d’information »), des logiciels créés dans le but de pénétrer les systèmes d’information et d’y voler des informations sensibles ; de « bots espions »… Il existe également des stalkerwares, des logiciels installés sur un smartphone par exemple, qui permettent de suivre l’activité de ce dernier et suivre à la trace les déplacements d’une personne.
Parlons plus en détail des « rançongiciels » : qu’est-ce que c’est ?
J.-Y. M. : Un « rançongiciel », c’est un programme malveillant qui va s’infiltrer à l’insu de la victime et dont l’objectif est soit d’exfiltrer des données, soit de les chiffrer de manière à demander une rançon, soit de faire les deux. On parle souvent des attaques avec chiffrement de données, car elles peuvent bloquer une organisation entière et empêcher le travail d’une entreprise ou d’une organisation publique. Il ne faut pas pour autant négliger la simple, si je peux dire, exfiltration qui est également beaucoup utilisée avec un levier de pression et un discours assez simple de la part de l’attaquant : « On a des informations personnelles, si tu ne payes pas, on divulgue. » La victime peut être une personne ou une entreprise ou un organisme comme un hôpital, une université, une administration, par exemple.
Les cibles sont donc multiples…
J.-Y. M. : Je pense que le premier élément à bien comprendre, c’est que la plupart des attaques sont extrêmement opportunistes, cela signifie que tout le monde est potentiellement une cible.
Les grosses entreprises peuvent être particulièrement visées parce que l’on peut espérer extorquer des rançons beaucoup plus grosses et gagner beaucoup plus d’argent que si l’on s’attaquait à une PME. C’est plus difficile et également plus risqué dans le sens où la police va très probablement intervenir.
L’exemple d’école, c’est l’attaque, en 2021, sur l’entreprise américaine Colonial Pipeline qui opère un réseau d’oléoducs à partir du Texas vers le sud-est des États-Unis. Il s’agissait de la plus grande cyberattaque contre une infrastructure pétrolière de l’histoire des États-Unis menée par le groupe DarkSide. L’entreprise avait payé une rançon de 75 bitcoins, soit à l'époque environ 4 millions de dollars. Somme en partie retrouvée par les autorités américaines. DarkSide a ensuite déclaré cesser toutes ses opérations sous les pressions américaines.
Plus généralement, les cibles dépendent des politiques des groupes de cybercriminels : certains vont se spécialiser dans des cibles visibles à gros revenus et d’autres vont plutôt attaquer des « petits poissons » à petit revenu.
Vous parlez de groupes, or, dans l’imaginaire collectif, le pirate informatique est plutôt seul dans sa cave, qu’en est-il dans la réalité ?
J.-Y. M. : C’est rarement une personne seule qui va mener une attaque. En général, ce sont des groupes. C’est un modèle que la police appelle « ransomware as a service ». Ces groupes offrent un service clé en main pour mener une attaque par rançongiciel. On parle plus généralement de « malware as a service » voire de « crime as a service ».
Il ne faut pas imaginer une organisation qui ressemblerait à une entreprise classique. Ce sont des groupes assez diffus, dont les membres ne se connaissent pas forcément de manière physique et qui vont offrir différents services qui peuvent être séparés :
uniquement l’accès initial à un ordinateur spécifique ;
acheter un rançongiciel ;
avoir un accès à des services de négociation qui vont faciliter la négociation de la rançon.
Il est également possible de s’offrir des services de stockage de données, car si une attaque a pour but d’exfiltrer de grosses quantités de données, il faut pouvoir les stocker et montrer à sa cible qu’on a réellement ces données. À ce propos, certains groupes utilisent ce qu’ils appellent des « murs de la honte » où ils vont afficher sur des sites des informations confidentielles d’une entreprise, par exemple, sur le dark web.
En bas de l’échelle, on trouve ce que l’on appelle des « affiliés », ce sont les petites mains. On parle même d’« ubérisation de la cybercriminalité ». Ce sont eux qui vont lancer les attaques en utilisant les services du groupe. Si l’attaque réussit et que la cible paye, la rançon est partagée entre le groupe et les affiliés.
Si on va à l’autre bout de l’échelle, on connaît quelques leaders comme celui de Conti, un groupe de pirates basé en Russie. Ce dernier est connu sous les pseudonymes de Stern ou Demon, et agit comme un PDG. Des travaux universitaires ont même montré son modèle de management. Il semble qu’il fasse du micromanagement, où il tente de régler tous les problèmes entre ses « employés » et de contrôler toutes les tâches qu’ils effectuent sans très grande anticipation.
Maintenant que l’on connaît mieux l’écosystème criminel, expliquez-nous comment, techniquement, on peut entrer dans un système ?
J.-Y. M. : On peut diviser ça en grandes étapes.
La première, c’est la plus diffuse, c’est la reconnaissance de la cible. Essayer d’avoir la meilleure connaissance possible des victimes potentielles, tenter de savoir s’il y a des vulnérabilités, donc des endroits où l’on pourrait attaquer. Un autre aspect est de bien connaître les revenus de la cible pour, in fine, adapter la rançon.
Une fois ce travail réalisé, il faut réussir à obtenir un premier accès dans le réseau. C’est souvent la partie la plus complexe et elle est faite, généralement par une personne physique derrière son ordinateur. Pas besoin d’être nombreux pour cette étape. Ce qui fonctionne le mieux, c’est l’ingénierie sociale. On va chercher à manipuler une personne pour obtenir une information en exploitant sa confiance, son ignorance ou sa crédulité.
Prenons un exemple, avec votre cas, imaginons que l’on cherche à infiltrer le réseau de The Conversation et que l’attaquant vous connaisse. Il sait que vous êtes journaliste scientifique et toujours à l’affût d’un bon sujet à traiter. Il va donc vous envoyer un mail qui va vous dire : « Regardez, je viens de publier un excellent article scientifique dans une grande revue, je pense que cela ferait un très bon sujet pour votre média, cliquez ici pour en prendre connaissance. »
À ce moment-là, vous cliquez et vous arrivez sur un site qu’il contrôle et qui va vous forcer à télécharger un logiciel malveillant. Ce type de technique peut fonctionner sur énormément de personnes à condition de connaître le bon moyen de pression.
Dans le cas que l’on vient de prendre, il s’agissait d’une attaque bien ciblée. On peut aussi prendre le cas inverse et envoyer un très grand nombre d’emails sans ciblage.
Le cas classique est ce mail, que vous avez peut-être déjà reçu, venant soi-disant de la police et qui vous indique que vous avez commis une infraction et que vous devez payer une amende. Le gros problème, c’est que c’est devenu plus facile de rédiger des mails sans faute d’orthographe ni de grammaire grâce aux outils d’IA. Détecter le vrai du faux est de plus en plus complexe.
Donc la meilleure manière est de s’attaquer à un humain ?
J.-Y. M. : Oui, ça marche bien, mais il y a d’autres manières d’attaquer. L’autre grand vecteur, c’est ce qu’on appelle les vulnérabilités : tous les bugs, donc les erreurs, que vont faire une application ou un système d’exploitation. On peut exploiter les bugs de Windows mais aussi les bugs d’applications comme Firefox, Safari ou Chrome. Trouver une vulnérabilité, c’est vraiment le Graal pour un attaquant parce que cela va être relativement silencieux, personne ne peut s’en rendre compte tout de suite. À la différence d’une personne piégée qui pourrait se rendre compte de la supercherie.
Concrètement, une vulnérabilité qu’est-ce que c’est et comment l’exploiter ?
J.-Y. M. : Une vulnérabilité, c’est un bug – je pense que tout le monde en a entendu parler. Un bug, c’est quand une application va faire une erreur ou avoir un comportement anormal.
Alors, comment ça marche ? L’idée est que l’attaquant va envoyer une donnée à un programme. Et, à cause de cette donnée, le programme va commettre une erreur. Il va interpréter cette donnée comme une donnée à exécuter. Et là, évidemment, l’attaquant contrôle ce qui est exécuté. L’exploitation de vulnérabilité est une illustration de la dualité donnée/programme qui est constitutive et au cœur de l’informatique, dès ses origines.
J’aimerais également citer une autre grande manière d’attaquer : une « attaque supply chain », en français « attaque de la chaîne d’approvisionnement , appelée aussi « attaque de tiers ». C’est une attaque absolument redoutable. Pour comprendre, il faut savoir que les programmes, aujourd’hui, sont extrêmement complexes. Une application d’une entreprise particulière va utiliser beaucoup de programmes tiers. Donc il est possible de réaliser des attaques indirectes.
Je reprends votre cas, imaginons que quelqu’un qui vous connaisse cherche à vous attaquer, il sait que vous êtes journaliste, il se dit que vous utilisez probablement Word, il peut donc étudier les dépendances de cette application à d’autres programmes et voir si ces derniers ont des failles. S’il arrive à installer une backdoor (une porte dérobée est une fonctionnalité inconnue de l’utilisateur légitime, qui donne un accès secret au logiciel) chez un fournisseur de Word pour y installer un logiciel malveillant, alors, à la prochaine mise à jour que vous allez effectuer, ce dernier arrivera dans votre logiciel et, donc, dans votre ordinateur.
La grande attaque de ce type que l’on peut donner en exemple est celle menée par Clop, un groupe russophone qui s’est attaqué à MoveIt, un logiciel de transfert de fichiers sécurisé. Ils ont compromis ce logiciel-là directement chez le fournisseur. Donc tous les clients, quand ils ont mis à jour leur logiciel, ont téléchargé les malwares. Il y a eu des dizaines de millions de victimes dans cette affaire. Si des criminels réussissent un coup pareil, c’est le véritable jackpot, ils peuvent partir vivre aux Bahamas… ou en prison.
Et une fois que l’attaquant est entré dans un ordinateur, que fait-il ?
J.-Y. M. : Une fois que l’on est dedans, on passe au début de l’attaque. On va essayer de ne pas être visible, donc de désactiver les systèmes de défense et de multiplier les backdoors, les points d’accès. Car, si l’un est repéré, on pourra en utiliser un autre. Typiquement, si un attaquant a piraté votre ordinateur, il peut créer un nouvel utilisateur. Il va ensuite créer une connexion sécurisée entre son ordinateur et le vôtre. Il a accès à l’ordinateur, et peut donc y installer les logiciels qu’il veut.
Ensuite, il va explorer et voir, si votre machine est connectée à un réseau d’entreprise et donc s’il peut se déployer et aller chercher des informations sensibles par exemple. Cela peut être la liste de tous vos clients, des résultats financiers, des documents de travail, dans le but de faire de l’exfiltration. S’il peut se déployer, l’attaque devient globale. Ici, on parle vraiment d’une personne qui explore le réseau en toute discrétion pendant des jours, des semaines voire des mois. Les données sont exfiltrées au compte-gouttes, car les systèmes de défense sont capables de détecter de gros flux de données et de comprendre qu’il y a une attaque.
Si l’idée du cybercriminel est plutôt de faire une attaque par chiffrement, qui va empêcher l’entreprise d’accéder à ses données, il doit éliminer les sauvegardes. Une fois que c’est fait, le chiffrement de toutes les données peut être lancé et la demande de rançon va être envoyée.
Et que se passe-t-il après cette demande ?
J.-Y. M. : Le groupe va contacter la cible en lui expliquant qu’il vient d’être attaqué et va lui demander de se connecter à un portefeuille numérique (wallet) pour payer ce qu’on lui demande, en général, en bitcoins. Souvent, à ce moment-là, une négociation va démarrer. Une hotline est, parfois, mise en place par les pirates pour communiquer. Les groupes organisés ont des services voués à cette opération.
L’attaquant tente de vendre la clé de déchiffrement – c’est la rançon –, ou bien menace de diffuser des données volées. Il y a d’ailleurs énormément de transcriptions d’échanges en ligne.
D’après les recherches que j’ai pu effectuer, il y aurait environ 60 % des gens qui paient, mais c’est très compliqué d’avoir les vrais chiffres.
La première chose à faire est de déclarer à la gendarmerie ou à la police la cyberattaque subie. En parallèle, il y a aujourd’hui dans chaque région des centres qui ont été mis en place d’aide aux victimes. Ainsi, il y a des choses à faire au moment de la négociation : demander au pirate de décrypter une partie des données, juste pour montrer qu’il est capable de le faire, parce qu’on a déjà vu des cas où les attaquants ne sont pas, disons, très professionnels et ils sont incapables de déchiffrer les données.
Il faut également s’assurer que si l’attaquant s’est servi d’une backdoor, il n’en a pas laissé une autre pour une future attaque. Cela s’est déjà vu et c’est au service informatique, lorsqu’il va tout réinstaller, de vérifier cela. Ensuite, si des données ont été exfiltrées, vous ne pouvez jamais savoir ce que va en faire l’attaquant. Les mots de passe qui sont exfiltrés peuvent être utilisés pour commettre une nouvelle cyberattaque, vous pouvez faire confiance à un cybercriminel pour cela. Personnellement, j’ai lu suffisamment de livres policiers pour ne pas avoir envie de faire confiance à un bandit.
On a finalement vu toute la chaîne de l’attaque, mais quel est votre rôle en tant qu’universitaire et responsable du projet DefMal du PEPR cybersécurité dans cet écosystème ?
J.-Y. M. : Il y a deux volets qui ont l’air d’être séparés, mais vous allez vite comprendre qu’ils s’articulent très facilement.
Il y a un volet que l’on pourrait qualifier de très informatique, qui consiste à construire des défenses : des systèmes de rétro-ingénierie et de détection. L’objectif est, par exemple, de déterminer si un programme est potentiellement malveillant.
Plusieurs approches sont explorées. L’une d’elles consiste à utiliser des méthodes d’apprentissage à partir d’exemples de malware et de goodware. Cela suppose d’être capable d’extraire, à partir du binaire, des caractéristiques précisant la sémantique du programme analysé. Pour cela, nous combinons des approches mêlant méthodes formelles, heuristiques et analyses dynamiques dans un sandbox (bac à sable, un environnement de test).
Une difficulté majeure est que les programmes sont protégés contre ces analyses par des techniques d’obfuscation qui visent à rendre leur fonctionnement délibérément difficile à comprendre.
L’un des enjeux scientifiques est donc de pouvoir dire ce que fait un programme, autrement dit, d’en retrouver la sémantique. Les questions soulevées par la défense contre les logiciels malveillants – par exemple, expliquer le comportement d’un programme – exigent une recherche fondamentale pour obtenir de réels progrès.
Au passage, on a un petit volet offensif. C’est-à-dire qu’on essaie aussi de construire des attaques, ce qui me paraît important parce que je pense qu’on ne peut bien concevoir une défense qu’à condition de savoir mener une attaque. Ces attaques nous servent également à évaluer les défenses.
Pour vous donner un exemple, je peux vous parler d’un travail en cours. C’est un système qui prend un programme normal, tout à fait bénin, et qui prend un programme malveillant, et qui va transformer le programme malveillant pour le faire ressembler au programme bénin ciblé afin de lui faire passer les défenses qui s’appuient sur l’IA.
J’ai donc parlé de la partie informatique, mais il y aussi tout le volet sur l’étude de l’écosystème actuel qui m’intéresse particulièrement, qui est un travail passionnant et interdisciplinaire. Comment les groupes sont-ils organisés, quel est le système économique, comment les groupes font-ils pour blanchir l’argent, quel type de management ? Une autre grande question que l’on se pose, c’est celle de savoir comment les cybercriminels vont s’approprier l’IA. Comment anticiper les prochains modes opératoires ?
On va aussi aller explorer le dark web pour récupérer des discussions entre criminels pour mieux comprendre leurs interactions.
Vous arrive-t-il d’aider la police sur des enquêtes en particulier ?
J.-Y. M. : On ne nous sollicite jamais sur des attaques concrètes. Une enquête doit être faite dans un cadre légal très strict.
Nous entretenons de bonnes relations avec tout l’environnement de lutte contre les cybercriminels (police, gendarmerie, armée, justice…). Ils suivent nos travaux, peuvent nous poser des questions scientifiques. On a des intérêts communs puisqu’une partie de nos travaux de recherche, c’est de comprendre l’écosystème de la cybercriminalité.
Je vous donne un exemple : sur le dark web, un forum qui permettait d’échanger des logiciels malveillants a été bloqué. Nous en tant que chercheurs, on va essayer de comprendre l’impact réel de cette action, car, d’ici plusieurs mois, il y aura sans doute un nouveau forum. Les relations entre les groupes cybercriminels et les services de certains États font partie aussi de nos questions actuelles.
Une autre question scientifique à laquelle on peut répondre, c’est lorsque l’on découvre un nouveau logiciel, savoir à quoi on peut le comparer, à quelle famille. Cela ne nous donnera pas le nom du développeur mais on pourra le rapprocher de tel ou tel groupe.
On commence également à travailler sur le blanchiment d’argent.
Pour aller plus loin, vous pouvez lire l’article de Jean-Yves Marion, « Ransomware : Extortion Is My Business », publié dans la revue Communications of the ACM.
Jean-Yves Marion a reçu des financements de l'ANR et de l'Europe. Il travaille détient des parts dans CyberDetect et Cyber4care.
17.09.2025 à 12:42
Elisa Cliquet Moreno, Chef de projet réutilisation, Centre national d’études spatiales (CNES)
Une nouvelle course à l’espace est en cours. Depuis 2013, SpaceX, le principal concurrent d’Ariane, est capable de récupérer et réutiliser le premier étage de sa fusée Falcon 9 et travaille à rendre sa super fusée, Starship, entièrement réutilisable.
De nombreux acteurs cherchent à acquérir cette technologie, qui permet de réduire les coûts et d’améliorer la versatilité et la flexibilité d’un système de lancement. En effet, alors qu’un lanceur ou une fusée est constituée de plusieurs étages, le premier – le plus puissant pour lutter contre la gravité et la traînée aérodynamique – est aussi le plus cher. Le récupérer et le remettre en état peut être moins cher que d’en fabriquer un neuf à chaque lancement.
La réutilisation est un indéniable atout de compétitivité à l’heure où la concurrence mondiale augmente dans le domaine des lanceurs.
Le Centre national d’études spatiales (Cnes) a, depuis 2015, mis en place une feuille de route articulée autour de plusieurs prototypes de démonstration. Ceux-ci visent à maîtriser les différentes briques technologiques et les nouvelles « phases de vie » des lanceurs liées à la réutilisation : il faut pouvoir guider la phase de retour, atterrir verticalement, puis « remettre en sécurité » l’étage récupéré avec des robots, c’est-à-dire vidanger les fluides sous pression qu’il contient encore pour permettre l’accès à des opérateurs dans des conditions de sécurité optimales.
Après des essais au sol réussis en France en 2024, c’est un prototype d’étage à bas coût et réutilisable qui a rejoint au début de cet été son pas de tir à Kiruna, en Suède.
La première brique fondamentale est de disposer d’un moteur réallumable et dont la poussée peut s’adapter en cours du vol pour permettre à la fois un décollage « à fond », pour faire décoller le lanceur plein, mais également permettre un atterrissage tout en douceur du premier étage quasiment vide : il faut pour cela un moteur capable de fonctionner sur une large plage de poussée.
À lire aussi : Ariane 6 et les nouveaux lanceurs spatiaux, ou comment fabriquer une fusée aujourd'hui
Le démonstrateur (ou prototype) Prometheus a donc naturellement fait l’objet de la première démonstration, lancée sous l’impulsion du Cnes dès 2015. Fonctionnant à l’oxygène liquide et au biométhane liquide (plus propre et mieux adapté à la réutilisation que le kérosène ou l’hydrogène), capable de fournir une poussée allant de 30 à 110 % de son point de fonctionnement de référence à 1 000 kilonewtons, il est le précurseur d’une nouvelle génération de moteurs réutilisables à bas coût.
Grâce à l’impression 3D, il est composé de 50 % de pièce en moins qu’un moteur conventionnel. Le but est que Prometheus soit réutilisable au minimum 5 fois (le nombre de réutilisations pour assurer l’intérêt économique de la récupération est une variable qui dépend de chaque système de lancement).
Testé avec succès courant 2024 chez ArianeGroup à Vernon, dans l’Eure, le premier exemplaire de Prometheus a été monté sur le premier prototype européen d’étage réutilisable à oxygène et méthane liquides, Themis 1 (ou, T1H).
Ce démonstrateur n’est pas un lanceur complet mais juste un premier étage. Il a quitté le site d’ArianeGroup en France, le 12 juin dernier, pour rejoindre le pas de tir suédois. Là, Themis T1H doit d’abord subir des essais combinés avec ses robots de remise en sécurité avant de réaliser un « hop » de quelques dizaines de mètres.
T1H, qui mesure plus de 30 mètres de haut pour environ 30 tonnes, va permettre de valider les grands principes des opérations liées à la réutilisation à une échelle représentative d’un petit lanceur. Seront en particulier scrutées les phases d’atterrissage et de remise en sécurité.
Un autre prototype Themis, plus ambitieux, est en cours d’étude.
Le démonstrateur Callisto, fruit d’une coopération entre le Cnes, les agences spatiales japonaise JAXA et allemande DLR, marque un saut en complexité. Ce démonstrateur de 13 mètres de haut, tout juste plus d’un mètre de diamètre et environ 4 tonnes au décollage, malgré son échelle réduite, porte toutes les fonctions et la complexité d’un futur premier étage de lanceur réutilisable.
Pour illustrer les défis technologiques à relever avec Callisto, citons par exemple la manœuvre de « retournement » parmi tant d’autres. Après une phase de montée comme une fusée normale, l’étage doit rapidement changer d’orientation pour revenir vers son pas de tir, ce qui « secoue » les ergols dans les réservoirs au point que, sans précaution particulière, le liquide se déplace, se mélange avec le gaz, se réchauffe, et pourrait ne plus alimenter le moteur qui doit pourtant être rallumé ensuite pour freiner l’étage.
Callisto est conçu pour voler dix fois, être capable de monter à plus de dix kilomètres d’altitude et effectuer une manœuvre complexe lui permettant de se retourner rapidement vers son pas d’atterrissage, situé juste à côté de son pas de tir sur l’ensemble de lancement multi-lanceurs (ELM Diamant) au Centre spatial guyanais, à Kourou. Les vols de Callisto permettront ainsi de valider de nouveaux algorithmes pour le GNC (Guidage Navigation Pilotage), une autre brique cruciale pour la réutilisation.
De nombreux éléments de Callisto sont déjà fabriqués et en cours d’essai, notamment les pieds, certaines structures clés, et des équipements avioniques. Les trois partenaires du programme contribuent de manière égalitaire à sa réalisation : la JAXA fournit par exemple le moteur, le DLR les pieds, et le Cnes réalise les études système et le segment sol.
Des essais à feu de l’ensemble propulsif sont prévus mi-2026 au centre d’essai de Noshiro au Japon avant l’envoi de Callisto au Centre spatial guyanais pour ses premiers essais au second semestre 2026.
Les vols de Callisto, qui commenceront par des petits « sauts » (hops) à basse altitude seront de plus en plus ambitieux : ils culmineront à plus de dix kilomètres d’altitude et franchiront Mach 1 (soit 1 235 km/h, environ).
La dernière étape de la feuille de route consistera à démontrer la récupération puis un second vol de l’étage récupéré, directement sur un mini lanceur opérationnel, lors d’un de ses vols commerciaux. C’est ArianeGroup & MaiaSpace qui ont été retenus pour mener à bien ce projet, baptisé Skyhopper, qui sera testé en Guyane.
Une fois la mission principale du premier étage achevée, celui-ci sera séparé du deuxième étage à une altitude d’environ 50 kilomètres : il effectuera alors une manœuvre de ré-orientation, déploiera ses gouvernes aérodynamiques, rallumera ses moteurs pour un boost de freinage.
S’en suivra une phase planée, pendant laquelle l’étage sera dirigé grâce à ses gouvernes aérodynamiques, puis un dernier rallumage du moteur, le déploiement des pieds et, enfin, l’atterrissage vertical sur une barge maritime située à quelques centaines de kilomètres des côtes guyanaises.
L’étage sera alors stabilisé et remis en sécurité de façon autonome par des robots puis la barge sera tractée jusqu’au port de Pariacabo à Kourou (Guyane). Une fois inspecté et remis en état, cet étage sera assemblé sur un autre lanceur qui décollera pour une nouvelle mission vers l’orbite achevant ainsi la démonstration avant la fin de la décennie.
À lire aussi : Adieu Ariane 5 ! Retour sur ses plus belles missions
Cette feuille de route, qui s’appuie à la fois sur des programmes de l’Agence spatiale européenne (ESA) (Prometheus et Themis ont été lancés par le Cnes, puis sont entrés dans le périmètre du programme « Future Launcher Preparatory » de l’ESA respectivement en 2016 et 2019) et des programmes nationaux (Skyhopper) ou dans une coopération multilatérale (Callisto), a bénéficié également d’un solide support de multiples activités de recherche et technologies menées au niveau national, permettant de valider en amont et à petite échelle des concepts peu matures comme l’impression 3D permettant ensuite d’optimiser la conception et la fabrication du moteur Prometheus.
La France et ses partenaires sont donc en ordre de bataille pour relever les défis de la réutilisation du premier étage d’un lanceur.
Elisa Cliquet Moreno est membre de l'Association Aéronautique et Astronautique de France (présidente de la commission transport spatial)