LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Binaire
L'informatique : science et technique au coeur du numérique

Blog Binaire


▸ les 10 dernières parutions

10.10.2025 à 08:01

L’intelligence artificielle et la fabrique du savoir clinique

Serge ABITEBOUL

Les récents progrès en intelligence artificielle ouvrent des perspectives inédites pour l’évaluation thérapeutique. Julie Josse, chercheuse en informatique, et cheffe d’une équipe Inria-Inserm sur “Precision Medicine by Data Integration and Causal Learning”, aborde le sujet. Julie Josse a reçu le Prix Jeune Chercheur 2024 de l’Académie de Sciences. Serge Abiteboul, Ikram Chraibi Kaadoud Dans cet […]
Texte intégral (3693 mots)
Les récents progrès en intelligence artificielle ouvrent des perspectives inédites pour l’évaluation thérapeutique. Julie Josse, chercheuse en informatique, et cheffe d’une équipe Inria-Inserm sur “Precision Medicine by Data Integration and Causal Learning”, aborde le sujet. Julie Josse a reçu le Prix Jeune Chercheur 2024 de l’Académie de Sciences. Serge Abiteboul, Ikram Chraibi Kaadoud
Julie Josse, site web perso

Dans cet article, nous discutons des développements récents de la recherche en apprentissage statistique, qui ambitionnent de repenser l’avenir des essais cliniques. Ces travaux visent à pallier les limites inhérentes à ces derniers et à permettre la prédiction des effets de traitement dans des populations distinctes de celles étudiées initialement. Ils s’inscrivent ainsi dans une perspective plus large de personnalisation des traitements, où la prise en charge est adaptée en fonction des caractéristiques individuelles de chaque patient.

Si la « médecine personnalisée » s’impose désormais comme un idéal régulièrement invoqué, force est de constater que, dans de nombreux domaines, le paradigme du one-size-fits-all — un traitement identique pour l’ensemble des patients — demeure prédominant. Cette situation s’explique entre autres par la difficulté, voire la subtilité, qu’il y a à établir de manière robuste l’effet moyen d’un traitement au sein d’une population donnée.

1) L’essai clinique randomisé : un étalon d’or aux nombreuses limitations. 

Les essais cliniques randomisés constituent l’étalon d’or de la médecine fondée sur les preuves (“evidence-based medicine”) pour évaluer l’efficacité d’une intervention sur une population. Dans leur forme la plus simple, ils consistent à recruter des volontaires puis à les répartir aléatoirement entre un groupe recevant le traitement étudié et un groupe témoin recevant un traitement de référence. Cette randomisation assure, en moyenne, l’équilibre des caractéristiques initiales (âge, facteurs de risque, antécédents médicaux) entre les groupes, permettant ainsi d’attribuer avec confiance toute différence observée à l’intervention testée. Les essais permettent donc d’isoler l’effet propre du traitement en minimisant l’influence de facteurs confondants : c’est ce que l’on appelle la validité interne.

Malgré leur rigueur méthodologique, les essais cliniques randomisés présentent des limitations majeures. Ils sont tout d’abord coûteux et chronophages : en contexte d’urgence sanitaire, comme lors de la pandémie de Covid-19, leur temporalité peut se révéler incompatible avec l’exigence de décisions rapides, rendant nécessaire le recours à d’autres sources de preuves pour évaluer l’efficacité d’un vaccin ou d’un traitement. Ensuite, il n’est ni possible ni éthique de mener un essai dans toutes les situations. On ne saurait, par exemple, assigner un groupe de volontaires à fumer pendant vingt ans afin d’en observer les effets. Enfin, les critères stricts d’inclusion et d’exclusion — souvent indispensables pour des raisons de sécurité — entraînent deux conséquences majeures :

  • Des populations restreintes : la taille médiane des essais cliniques en chirurgie n’atteint que 122 participants, ce qui limite non seulement la puissance statistique, compromettant la détection d’effets pourtant réels mais rend aussi difficile l’usage de méthodes d’intelligence artificielle, gourmandes en données, ou la personnalisation des traitements (identifier « un patient qui me ressemble »).
  • Un déficit de validité externe : ces critères conduisent à sélectionner des participants éloignés des profils rencontrés en pratique courante — par exemple, un groupe homogène d’hommes jeunes et en bonne santé, là où les patients réels sont souvent plus âgés, présentent des comorbidités, ou appartiennent à des populations vulnérables. Les femmes enceintes, les personnes âgées ou les patients avec des maladies chroniques en sont fréquemment exclus. Cela conduit à des effets de traitements estimés sur des populations qui diffèrent des populations qui pourraient bénéficier du traitement (en mathématiques, cela correspond à ce qu’on appelle un changement de distribution). Dans certains domaines, tels que les pathologies respiratoires ou allergiques, moins de 10 % des patients qui recevront effectivement le traitement dans la vie réelle correspondent au profil des participants inclus dans les essais [Pahus2019]. Cette absence de représentativité n’est pas anodine : elle réduit la portée clinique et politique des conclusions, et crée une inégalité dans la connaissance médicale, en laissant certains sous-groupes de patients avec un déficit de preuves pour guider leur prise en charge.
Représentation schématique d’un essai clinique randomisé

2) Les données de vie réelle : une richesse à exploiter avec prudence

Face aux limites des essais cliniques, les autorités sanitaires, telles que la U.S. Food and Drug Administration (FDA) et l’European Medicines Agency (EMA) [HMA_RW2024], s’appuient de plus en plus sur l’analyse de données dites « de vie réelle » pour guider la décision médicale et réglementaire en complément des essais cliniques. Ces données peuvent provenir de la recherche (registres, cohortes, biobanques, études épidémiologiques) ou de la pratique courante (dossiers médicaux électroniques, bases administratives ou d’assurance, applications patients).  Elles peuvent, dans une certaine mesure, être plus rapidement accessibles que les données d’essais cliniques, mais surtout elles offrent une représentation plus fidèle des populations susceptibles de bénéficier d’un traitement. Leur volume et leur diversité ouvrent ainsi des perspectives considérables.

Cependant, leur exploitation se heurte à un obstacle majeur : l’absence de randomisation. Dans les données de vie réelle, les traitements sont attribués selon des critères médicaux ou logistiques, ce qui introduit des biais de confusion.

Le saviez-vous? Corrélation n’est pas causalité. 

Qu’un traitement soit associé à une mortalité plus élevée ne signifie pas nécessairement qu’il en soit la cause. Cette corrélation peut s’expliquer par le fait que le traitement est prescrit prioritairement aux patients les plus graves, dont l’évolution est naturellement moins favorable. Dans ce contexte, la sévérité des patients représente une variable dite confondante, qui influence simultanément l’attribution du traitement et l’issue observée. 

C’est pourquoi l’analyse de données de vie réelle demeure exposée aux critiques. Pour établir un lien de causalité — et aboutir à des conclusions comparables à celles d’un essai randomisé (ce que l’on nomme l’« émulation d’essai clinique » [Hern2016]) — il est indispensable de distinguer l’effet propre d’un traitement de l’influence des variables confondantes. Cela suppose de disposer de l’ensemble de ces variables, comme la sévérité dans l’exemple précédent. La taille des bases de données ne résout pas ce problème : sans les bonnes variables, aucune méthode, même l’algorithme d’intelligence artificielle le plus sophistiqué, ne permet de séparer corrélation et causalité. En pratique, le “design” de l’étude  — sa conception et sa structuration pour répondre à une question précise  — est souvent plus déterminant que la méthode d’analyse. C’est pourquoi un dialogue étroit entre méthodologistes, cliniciens et experts en données est essentiel dès la conception du projet, afin d’identifier les informations à collecter et de définir les méthodes d’analyse les plus adaptées.

Ces méthodes peuvent aller des méthodes statistiques classiques, comme les régressions multivariées, à des approches plus récentes d’apprentissage statistique ou d’intelligence artificielle, telles que le double machine learning [Cherno2018]. Ces techniques permettent de modéliser des relations complexes et de traiter des données massives, hétérogènes et parfois décentralisées, notamment grâce à l’apprentissage fédéré.

Notons qu’il existe toutefois des approches, comme les analyses de sensibilité, qui permettent de renforcer la confiance dans les conclusions même en présence de facteurs confondants non observés. C’est notamment grâce à ce type de méthodes que l’effet causal du tabagisme sur le cancer du poumon a pu être conforté [Cornfield1959].

Le saviez-vous ? Pendant le Covid, les données de vie réelle ont ainsi été analysées pour démontrer l’efficacité du vaccin Pfizer et lancer les campagnes de vaccination avant la publication complète des résultats des essais cliniques [Haas2021].

3) Les promesses et les défis de l’intégration de données

Combiner les informations issues des essais randomisés et des données de vie réelle  constitue aujourd’hui un domaine de recherche extrêmement actif. L’idée centrale est que certaines connaissances peuvent émerger d’analyses intégratives, en combinant les forces des différentes sources de données, que l’on ne pourrait jamais obtenir en analysant chaque source de données isolément.

Parmi les applications à fort potentiel, trois se distinguent particulièrement :

  1. Prédire l’effet d’un traitement évalué dans un essai sur une nouvelle population cible, différente de celle de l’essai initial  — ce que l’on désigne parfois sous les termes de transportabilité, généralisation, et qui se rattache également aux méthodes d’adaptation de domaines.
  2. Comparer les résultats d’essais cliniques et de données de vie réelle afin de valider et consolider les méthodes d’analyse de données de vie réelle.
  3. Mieux estimer les effets hétérogènes d’un traitement (i.e. l’effet du traitement dépend des caractéristiques du patient), ouvrant la voie à une personnalisation plus fine des soins.

Prenons le premier cas : prédire l’effet d’un traitement dans une population cible différente de celle de l’essai. Ces approches, de plus en plus considérées comme essentielles, pour repenser le rôle des essais cliniques dans la production de preuves médicales, ont des implications majeures. En France, la prise en charge ou non des médicaments par la solidarité nationale repose sur leur efficacité [FHA2024], et l’amélioration thérapeutique conditionne aussi leur prix. Ainsi, la capacité à anticiper les bénéfices d’un traitement dans des populations diverses, notamment celles qui en bénéficient, peut influencer non seulement les prix (et donc les dépenses associées), mais aussi l’accès aux soins et les politiques de santé. Par ailleurs, des travaux récents suggèrent que les méthodes de généralisation pourraient également redéfinir le rôle de la méta-analyse [Berenfeld2025], traditionnellement placée au sommet de la hiérarchie de la médecine fondée sur les preuves.

Les techniques actuelles — pondération, régression, ou approches hybrides — permettent  d’ajuster les différences de caractéristiques entre la population de l’essai et la population cible. Imaginons un traitement dit hétérogène dont l’efficacité varie fortement selon l’âge : quasi nulle chez les jeunes, mais bénéfique pour les personnes âgées. Un essai incluant des participants de 20 à 65 ans, majoritairement âgés de 25 ans, ne reflète pas une population cible couvrant le même intervalle mais avec une majorité de participants autour de 60 ans. Pour prévoir l’effet du traitement, à partir des résultats de l’essai, dans la population cible, la méthode de pondération par probabilité inverse (inverse propensity weighting), couramment utilisée en sondages,  attribue plus de poids, aux participants âgés de l’essai, afin que la distribution des âges de l’échantillon pondéré corresponde à celle de la population cible. Ainsi, un traitement dont l’efficacité a été démontrée par un essai en France pourrait être réévalué pour les États-Unis en pondérant les participants français de façon à ce qu’ils ressemblent aux Américains.

Illustration des méthodes de généralisation:  pondération/duplication des patients de l’essai comparables à la population.

Un des principaux défis est que cette approche exige un certain recouvrement des caractéristiques entre les deux populations. Or, dans la pratique, ce recouvrement est souvent limité. Par exemple, si un essai a été mené uniquement sur des individus de 20 à 40 ans et que l’on souhaite prévoir l’effet du traitement chez des personnes de 40 à 60 ans (un traitement efficace chez de jeunes adultes le sera-t-il aussi chez les personnes âgées ?), ou encore si un traitement a été testé exclusivement chez des hommes et que l’on souhaite extrapoler aux femmes, on sort de la zone de simple réajustement statistique pour entrer dans celle de l’extrapolation, beaucoup plus incertaine et risquée. Ces situations posent des questions méthodologiques et cliniques majeures : les résultats obtenus dans un contexte géographique, culturel ou sanitaire donné peuvent-ils être valables dans un autre ? Autant de problématiques qui sont aujourd’hui au cœur des recherches en intelligence artificielle sur la fusion des données et la transportabilité des effets de traitement.

4) Quelle mesure choisir pour estimer un effet de traitement ?

Jusqu’à présent, nous avons surtout discuté des sources de données utilisées pour estimer un effet de traitement : les essais cliniques, qui permettent de démêler l’effet du traitement de celui des autres facteurs ; les données de vie réelle, plus représentatives des populations d’intérêt et disponibles en grand volume ; et enfin les approches qui combinent ces deux sources afin de tirer parti de leurs forces respectives et de compenser leurs faiblesses. Mais nous n’avons pas encore abordé une question centrale : comment mesure-t-on concrètement un effet de traitement ?

Prenons un exemple. Dans un essai clinique, un médicament vise à réduire le risque d’accident vasculaire cérébral (AVC) dans les cinq années suivant la prescription. Supposons que 3 % des patients non traités fassent un AVC, contre 1 % parmi les patients traités. À première vue, on peut dire que le traitement fonctionne.  Mais cet effet peut être exprimé de plusieurs manières.

Le saviez-vous ? La perception de l’ampleur de l’effet diffère considérablement selon la mesure utilisée.

En valeur absolue, la différence de risque montre une réduction de 2 points de pourcentage (0,02). En valeur relative, le rapport de risque indique un risque divisé par trois. Ainsi, une baisse de 3 % à 1 % semble modeste en absolu, mais spectaculaire en relatif.

C’est pourquoi les autorités de santé exigent, pour les essais cliniques, la présentation de plusieurs indicateurs afin de permettre une lecture nuancée des résultats. Et il est important que le public ait accès à ces différentes façons de lire les résultats. Il existe de nombreuses mesures d’effet — risk difference, risk ratio, odds ratio, number needed to treat (nombre de patients à traiter pour éviter un événement indésirable) — qui non seulement  donnent des impressions différentes, mais  dépendent aussi du risque de base: diviser un risque par trois n’a pas le même impact selon qu’il soit initialement de 90 % ou de 0,3 %. Et cela vaut déjà pour l’essai clinique, considéré comme la source de données la plus « propre », et ne concerne qu’un effet moyen dans la population, sans même aborder la question des effets individualisés. Une autre subtilité tient au fait qu’un effet peut apparaître homogène ou hétérogène selon la mesure retenue : ainsi, il peut varier avec l’âge en différence de risque, tout en restant constant en rapport de risque. Ce phénomène rappelle qu’il est essentiel de recourir à plusieurs indicateurs pour restituer une vision complète des effets d’un traitement, tout en affinant la compréhension mathématique des phénomènes sous-jacents. Cette diversité de mesures est fondamentale pour guider la décision médicale et réglementaire en tenant compte du contexte, des priorités et du profil des patients.

5) Et la personnalisation dans tout ça ? 

Nous avons vu comment estimer l’effet moyen d’un traitement dans une population donnée. Prédire cet effet dans une autre population constitue déjà, en un sens, une première étape vers la personnalisation des traitements. Mais il est possible d’aller plus loin. La littérature scientifique regorge d’extensions des méthodes classiques (pondération, régression, etc.) permettant d’adapter les traitements aux caractéristiques individuelles des patients. Cependant, il reste nécessaire de mener davantage de recherches pour renforcer la confiance dans les résultats produits par ces approches.

Prenons un exemple : pour déterminer la dose optimale d’un traitement en fonction du profil d’un patient, on trouve aisément plus d’une vingtaine d’algorithmes, chacun déclinable en plusieurs variantes. Résultat : des dizaines de recommandations possibles, parfois très éloignées de la dose que le médecin prescrirait réellement. Du point de vue du patient, cette disparité peut être déstabilisante ; du point de vue du médecin, elle constitue un obstacle majeur à l’adoption de ces méthodes. D’où l’importance de poursuivre les travaux, notamment pour mieux quantifier l’incertitude associée aux décisions — un défi qui reste largement statistique.

Par ailleurs, un fossé important subsiste entre la théorie et la pratique. Les articles méthodologiques abondent, mais les implémentations concrètes et pérennes restent rares. Les raisons sont multiples : incitations académiques orientées vers la production de nouvelles méthodes plutôt que la consolidation d’approches existantes ou encore absence d’infrastructures pour maintenir du code et des logiciels sur le long terme.

Il est crucial de rappeler que, même si l’IA permet d’exploiter des données toujours plus complexes et volumineuses, la qualité des données reste déterminante. Certaines informations essentielles peuvent être absentes des données: état psychologique, recours à des thérapies alternatives (ex. acupuncture), liens entre financement et gravité des cas, désaccords au sein des équipes soignantes. Ces éléments ne peuvent parfois être identifiés qu’au travers de discussions collaboratives.

En définitive, c’est le travail main dans la main entre expert IA, statisticien et clinicien qui permettra de transformer les avancées méthodologiques en bénéfices réels pour les patients et toutes les parties prenantes (personnels de santé, etc.).

Les avancées dans ce domaine sont prometteuses, et pourraient à court terme contribuer à éclairer les décisions des autorités de santé, tout en favorisant une médecine plus équitable et mieux personnalisée.

Julie Josse, Chercheuse Inria

Pour aller plus loin

[Pahus2019] Pahus, L., et al (2019). Randomised controlled trials in severe asthma: selection by phenotype or stereotype. European Respiratory Journal. 

[HMA_RW2024] Real-world evidence framework to support EU regulatory decision-making 3rd report on the experience gained with regulator-led studies from February 2024 to February. 2025https://www.ema.europa.eu/en/documents/report/real-world-evidence-framework-support-eu-regulatory-decision-making-3rd-report-experience-gained-regulator-led-studies-february-2024-february-2025_en.pdf

[Cherno2018] Chernozhukov et at. (2018).  Double/debiased machine learning for treatment and structural parameters. The Econometrics Journal.

[Hern2016] Hernan M. A. & Robins, J.M. (2016). Using Big Data to Emulate a Target Trial When a Randomized Trial Is Not Available. American Journal of Epidemiology.

[Cornfield1959] Cornfield J, Haenszel W, and Hammond EC et al. (1959). Smoking and lung cancer: recent evidence and a discussion of some questions. J Natl Cancer Inst., 22:173–203.

[Haas2021] Haas et al. (2021). Impact and effectiveness of mRNA BNT162b2 vaccine against SARS-CoV-2 infections and COVID-19 cases, hospitalisations, and deaths following a nationwide vaccination campaign in Israel: an observational study using national surveillance data. The Lancet. 

[Berenfeld2025] Berenfeld, C. et al. (2025). Causal Meta Analysis: Rethinking the foundations of evidence-based medicine.

[FHA2024] French Health Authority (2024). Pricing & reimbursement of drugs and hta policies in france.

 

PDF

03.10.2025 à 08:01

Le futur de l’intelligence artificielle se code aujourd’hui

Thierry VIEVILLE

Et si les intelligence artificielles (IA) programmaient elles-mêmes les ordinateurs qui … font tourner les IA ? Plus besoin de développeuses ni développeurs informatique alors ? Et bien : non. Ici, Éric Burel, formateur en intelligence artificielle générative, donc plongé au cœur de tels sujets, nous montre que ce lien fantasmagorique n’est qu’une croyance, tandis […]
Texte intégral (2598 mots)
Et si les intelligence artificielles (IA) programmaient elles-mêmes les ordinateurs qui … font tourner les IA ? Plus besoin de développeuses ni développeurs informatique alors ? Et bien : non. Ici, Éric Burel, formateur en intelligence artificielle générative, donc plongé au cœur de tels sujets, nous montre que ce lien fantasmagorique n’est qu’une croyance, tandis que le métier du développement informatique loin de disparaître connait une nouvelle révolution passionnante et riche de défis. Serge Abiteboul et Thierry Viéville.

Vous avez probablement déjà vu l’intelligence artificielle (IA) représentée sous la forme d’un robot humanoïde plus ou moins sympathique.

Illustrations pour le terme « Artificial Intelligence » sur la plateforme d’images libres de droits Pexels.

Cette représentation anthropomorphique est vivement critiquée, car les intelligences artificielles à notre disposition sont encore loin de prétendre à égaler l’humain, à part peut-être dans notre prédisposition à inventer ce que l’on ne sait pas.

Une alternative beaucoup plus pertinente pour illustrer l’intelligence artificielle serait une banale caisse à outils. Car l’intelligence est d’abord dans ce que l’utilisateur fait de l’IA.

Néanmoins, l’IA n’est pas un outil banal et je souhaite vous parler dans cet article du petit miracle qui s’opère lorsque l’on confie une intelligence artificielle générative à un développeur informatique.

L’IA générative, une IA démocratisée

Jusqu’à présent, l’intelligence artificielle était le pré carré des analystes de données et ingénieurs en apprentissage automatique – machine learning et deep learning. Pour chaque problème à résoudre, il fallait concevoir, entraîner et mettre en œuvre une nouvelle intelligence artificielle. Un algorithme capable de reconnaître des chats ne pouvaient pas reconnaître différentes espèces d’oiseaux tant qu’il n’était pas entraîné pour cela.

L’intelligence artificielle générative a engendré une disruption aussi brutale que soudaine qui s’explique en partie par sa capacité à parler comme l’humain, mais surtout par sa polyvalence.

Les grands modèles de langages ou « LLM » (voir un lexique sur ce sujet), c’est-à-dire les modèles profonds de grande taille qui sont le cerveau de l’IA générative, peuvent être programmés pour réaliser toutes sortes de tâches par le biais d’un prompt écrit en langage naturel.

« Genère moi un email », « reformule moi le titre de cet article », ou encore « écrit moi une dissertation, fait vite car je dois la rendre demain » sont désormais des instructions informatiques tout à fait valide, il suffit de donner ces prompts à ChatGPT et Mistral pour obtenir le résultat escompté.

Cette avancée ne se limite pas au texte, les modèles profonds de grande taille, appelés modèles de fondation, existent aussi pour les images, les séries temporelles et d’autres typologies de données.

Tout un chacun peut s’approprier l’IA générative depuis son ordinateur ou son smartphone et l’on peut déjà constater sa démocratisation en milieu professionnel, scolaire ou pour un usage personnel.

Les résultats sont impressionnants, amusants ou inquiétants selon le point de vue. Et pourtant, je pense que nous n’effleurons que la surface des capacités de l’intelligence artificielle générative si l’on se cantonne à cette utilisation directe.

La naissance d’une nouvelle informatique fondée sur l’intégration entre IA et génie logiciel

Intégrer l’IA générative dans des programmes informatiques décuple immédiatement sa puissance. Les instructions transmises à l’IA peuvent être multipliées à l’infini par des boucles, conditionnées par des opérations logiques, interconnectées avec les systèmes d’information des entreprises.

Illustration de l’exécution d’un prompt dans une boucle informatique, décuplant la puissance de l’IA générative.

Bien que le jargon puisse impressionner, il n’y a en fait ici rien de compliqué. Montre en main, il faut 30 minutes pour apprendre à des professionnels non développeurs comment déclencher leur premier appel vers un LLM depuis un outil d’automatisation libre tel que n8n.

Moyennant un peu de temps et de patience, tout le monde peut apprendre à créer des petits programmes intégrant l’intelligence artificielle, ce n’est pas plus dur que d’apprendre les bases de la guitare ou de la peinture à l’huile. En tant que formateur, j’utilise désormais l’IA générative comme un prétexte pour former les débutants en programmation aux langages Python et JavaScript.

Cette rencontre entre la programmation informatique traditionnelle et l’IA n’a rien anodin. On assiste à la naissance d’une nouvelle informatique qui n’est plus fondée uniquement sur des relations logiques formelles. L’IA apporte la créativité, la capacité de généralisation ou encore la tolérance aux incohérences qui manquaient jusqu’à présent à l’informatique.

L’IA générative permet d’apporter une réponse floue à des problèmes flous. Par exemple, tout le monde s’est déjà rendu compte que les processus administratifs n’étaient jamais vraiment rationnels et encore moins exempts de cas particuliers et de situations contradictoires. Un circuit logique ne peut pas capturer cette complexité, mais l’IA peut la tolérer par sa capacité à réagir aux situations inattendues.

C’est l’informatique qu’auraient voulu voir naître Von Neumann et Turing mais que la puissance de calcul de leur époque n’aurait jamais laissé espérer, les contraignants à une approche entièrement logique.

Le retour sur investissement de l’IA générative dépend fortement des développeurs informatiques

Il en résulte que l’impact de l’intelligence artificielle sur les entreprises ne découlera probablement pas de l’introduction de plateformes grand public comme ChatGPT ou Mistral, mais de l’appropriation de ces technologies par les acteurs traditionnels de l’automatisation, notamment les développeurs informatiques.

Je prône l’adoption du terme « développement LLM » pour qualifier cette discipline naissante, comme un miroir « développement web » ou du « développement logiciel » au sens large.

Le rôle des développeurs paraît encore sous-estimé aujourd’hui en 2025. La capacité de l’intelligence artificielle à parler comme les humains nous éblouit, mais réduit par là même notre capacité à observer des phénomènes plus techniques, plus discrets mais peut-être plus impactants.

Les développeurs informatiques eux-mêmes sont concentrés sur l’impact de la génération automatique de code informatique sur leur métier, dans un contexte économique difficile selon les domaines, et n’ont pas encore eu le temps de s’intéresser pleinement à la possibilité de créer leurs propres systèmes d’intelligence artificielle. On pourra se référer à un article récent sur le sujet avec une analyse économique.

Nous n’avons probablement qu’observé la partie émergée de « l’AI-ceberg », qui correspond à une utilisation directe de l’IA générative au travers d’une plateforme et à l’emploi de petits modèles spécialisés. La rencontre entre le génie logiciel et l’IA générative pourrait produire une croissance beaucoup plus soutenue avec un retour sur investissement réellement positif.

Le terme « agent » gagne toutefois en popularité en informatique. Il transcrit une forme extrême de symbiose entre l’informatique logique et l’IA. On peut définir un agent comme un programme informatique rendu autonome et capable de décision grâce à l’utilisation de l’intelligence artificielle en plusieurs points de son code.

Quand vous parlez à ChatGPT, vous parlez sans le savoir à un « agent », qui possède par exemple des capacités d’analyse de documents. Cette analyse ne provient qu’en partie du LLM, le cerveau du système : le découpage et le stockage des documents complexes dans des bases de données adéquates est tout aussi important pour produire une analyse de qualité. Ces étapes sont gérées par des systèmes informatiques traditionnels, non-intelligents. Le pré-traitement et le rangement optimal des documents est très important, au point qu’il s’agit d’un champ de recherche à part entière, le « RAG » ou « génération augmentée par une recherche ».

En définitive, tirer parti de l’intelligence artificielle n’est plus un problème de données, mais un problème de génie logiciel.

Mon opinion est que si demain tous les chercheurs en intelligence artificielle cessaient leurs travaux pour prendre des vacances bien méritées et que les LLM stagnaient pour toujours, il serait toujours possible de faire d’immense progrès en apprenant à utiliser plus intelligemment les modèles déjà existants.

Va-t-on tout automatiser ?

L’automatisation des métiers par l’IA est au cœur de toutes les réflexions. On peut citer dans ce domaine l’analyse de l’Organisation Internationale du Travail, qui procède à un découpage des métiers en tâches pour identifier celles qui sont automatisables par l’IA, ou encore les analyses du prix Nobel d’économie Daron Acemoğlu (lien vidéo).

Doit-on alors s’attendre à voir une vague d’automatisation de tâches toujours plus complexes, à mesure que les programmeurs informatiques s’approprient l’intelligence artificielle générative ?

C’est une hypothèse raisonnable mais je tends à adopter une approche conservatrice de l’automatisation. Car l’automatisation est une discipline empirique, un phénomène qui ne peut s’analyser pleinement qu’ex post. C’est-à-dire que pour prouver qu’une tâche est automatisable de façon certaine, il n’y a pas d’autre méthode que procéder à son automatisation.

Si l’on se contente de considérer que l’automatisation est possible, sans jamais la mettre en œuvre, nous sommes face à une automatisation hypothétique. Et les hypothèses n’apportent que très rarement des gains de productivité et des points de croissance dans l’économie.

Avons-nous seulement effleuré la surface de l’intelligence artificielle générative ?

Je réponds probablement, mais surtout je retourne réviser mon code Python, car c’est au tour des développeurs informatiques d’écrire la prochaine page de l’impact de l’intelligence artificielle sur les entreprises et la société au sens large.

Eric Burel, Ingénieur ENSIMAG,  LBKE – www.lbke.fr, Formateur en intelligence artificielle générative,

PDF

13.08.2025 à 10:16

Bonjour La Recherche

Serge ABITEBOUL

Après plus de dix ans d’hébergement par Le Monde, et une super expérience, binaire vient de migrer pour le site de La Recherche. Toutes les archives avec leur immense diversité, et leur incroyable valeur, sont disponibles. Nous remercions nos nombreux auteurs et très nombreux lecteurs et sommes convaincus qu’ils nous resteront fidèles. Notez notre nouvel […]
PDF

05.08.2025 à 22:02

Au revoir Le Monde

Serge ABITEBOUL

Après plus de dix ans d’hébergement par Le Monde, et une super expérience, Binaire migre à la demande du Monde. Nous gardons toute notre amitié au journal Le Monde que nous remercions pour la riche expérience de ces années. Nous rejoignions aujourd’hui le site de La Recherche. Toutes les archives avec leur immense diversité, et […]
PDF

24.07.2025 à 09:39

Gilles Dowek, grand scientifique, passeur de science et penseur engagé

binaire

Sa passion pour la programmation débute tôt : à quinze ans, il conçoit un jeu de Mastermind qui lui vaut, en 1982, le Prix scientifique Philips pour les jeunes. C’est la première de nombreuses distinctions. En 2007, il obtient le Grand prix de philosophie de l’Académie française pour le livre, “Les Métamorphoses du calcul. Une […]
PDF

18.07.2025 à 07:17

Binaire fait sa pause estivale

binaire

Pour un été non binaire : partez avec binaire dans vos favoris.

Nous faisons notre pause estivale avant de revenir partager avec vous des contenus de popularisation sur l’informatique !

À la rentrée nous parlerons à nouveau aussi bien de technologie que de science, d’enseignement, de questions industrielles, d’algorithmes, de data… bref, de tous les sujets en lien avec le monde numérique qui nous entoure …

Et nous le ferons sur une nouvelle plateforme … toujours en lien avec LeMonde.fr mais enrichi de nouveaux partenariats … à suivre.

D’ici là, vous pouvez tout de même passer l’été avec binaire en profitant de nos collections qui contiennent sûrement de beaux articles que vous n’avez pas encore eu le temps de lire :

Et que diriez vous de nous dire ce que vous pensez et souhaitez de binaire ?

Bienvenue dans notre petit sondage (4 minutes)

©Catherine Créhange undessinparjour avec sa gracieuse autorisation.

PDF

11.07.2025 à 05:24

Tu feras de l’IA avec Intelligence mon enfant.

binaire

Parmi toutes les initiatives des organisations internationales en lien avec l’IA, la Commission européenne et de l’Organisation de Coopération et de Développement Économiques, s’associent avec Code.org pour proposer un référentiel d’apprentissage de l’IA et de son usage en éducation (learning with and about IA), ouvert et surtout en cours de construction participative, invitant chacune et chacun à donner son avis. Voyons cela. Benjamin Ninassi et Ikram Chraibi Kaadoud.

Prologue

© Domaine public, via Wikipedia.

Nous sommes dans les années soixante-dix, mille huit cent soixante-dix. Et une monstruosité apparaît : des personnes se mettent à entendre des voix. Celles d’autres personnes … situées à des dizaines de kilomètres. Il y avait de quoi être terrorisé. On l’était. Maléfice ou magie ? Ce qui arrivait… c’étaient les premiers téléphones. Depuis, on a su expliquer à nos enfants comment cela peut marcher (en cours de physique) et quels usages technologiques (dans les cours éponymes) peuvent en être faits, y compris leurs limites (comme les “faux” appels).

© science etonnante, David Louapre

Nous sommes dans les années soixante-dix, deux mille soixante-dix. Et les enfants de rigoler, qu’un siècle avant … s’appelait “intelligence artificielle” une bien vieille famille de mécanismes d’I.A., c’est-à-dire d’Inférence Algorithmique, dont le fonctionnement paraissait alors… soit magique, soit potentiellement maléfique. Mais c’était avant. Et, dans cette vision de l’avenir, nous avons toutes et tous appris à la fois (i) comment fonctionnent ces algorithmes et (ii) comment apprendre en s’aidant de tels algorithmes (learn with and about AI) en le faisant avec discernement et parcimonie.

Extrait de la couverture de l’édition de la ré-édition ISBN : 9783730609767 de 2021, © Anaconda Verlag

À moins que, dans un futur bien plus dystopique, nous ayons uniquement permis aux personnes d’utiliser sans comprendre («pas besoin … ça marche tout seul »),  ni maîtriser (« il suffit de quelques clics, c’est si facile ») ces outils. Ce monde (imaginaire ?! …) serait alors plus fracturé et terrible à vivre qu’un monde totalitaire soumis à l’ultra surveillance comme George Orwell le cauchemardait. Car si notre quotidien (accès à l’information, choix offerts quant à nos décisions), devenu numérique, était aux mains de quelques personnes (par exemple “les plus riches du monde”), c’est notre propre mental qui serait empoisonné, rendu vulnérable par l’ignorance et l’absence d’esprit critique. De plus, au rythme actuel du réchauffement climatique, en 2070 avec une terre à +3°, les enfants ne rigoleront probablement plus beaucoup.

Que cela ne soit pas.

Depuis quelques mois, des deux côtés de l’Atlantique, une équipe apporte une contribution collégiale pour que notre avenir se fasse pour le meilleur quant à ces IAs dont on ne cesse de parler.

Vous avez dit A.I.L.F. ? (AI* Learning Framework**) 

http://ailiteracyframework.org

(*)  Disons “IA”, gardant à l’esprit que ce sont des outils (au pluriel) d’inférence algorithmique, ni moins, ni plus.
(**) Un cadre pour l’apprentissage de ces outils que l’on nomme intelligence artificielle.

L’école en 1950 Robert Doisneau © Silvana Editoriale

La maîtrise de l’IA, sa “littératie”, représente les connaissances techniques, les compétences durables et les bonnes attitudes (savoirs, savoir-faire et savoir être) qui permettent d’interagir avec l’IA, de créer avec de tels outils, de la gérer et de la concevoir, tout en évaluant de manière critique ses avantages, ses risques et ses implications éthiques.

C’est tout aussi indispensable que lire, écrire ou compter. Avec plusieurs points communs :
  – Ce sont des compétences universelles pour toutes et tous, mais avec de grandes variantes culturelles à respecter : tout le monde doit pouvoir apprendre l’IA et utiliser l’IA pour apprendre, et doit pouvoir devenir autonome par rapport à l’IA, mais dans le respect de sa diversité.
– Ce sont des compétences interdisciplinaires, qui ont vocation à s’intégrer dans toutes les disciplines concernées, informatique, mathématiques, et technologies, ainsi que les sciences humaines et les formations pédagogiques transversales des élèves. Beaucoup de ces compétences (esprit critique, pensée informatique, résolution de problème) sont déjà partagées – tant mieux – l’apport de ce cadre est d’aider à la faire dans le contexte de l’IA.
 – Ce sont des compétences pérennes : on parle de savoirs, savoir-faire et savoir être fondamentaux, qui seront encore pertinents lors de l’évolution attendue des outils actuels (de même qu’en informatique on n’apprend pas “le Python” (ou un autre langage) mais les algorithmes et le codage de l’information, en s’appuyant sur tel ou tel langage formel qui peut être amené à changer avec le temps).
 – Parmi les compléments à apporter à la version actuelle, les impacts environnementaux de l’IA, déjà pris en compte, sont à renforcer : les impacts environnementaux directs de chaque apprentissage, chaque inférence, chaque investissement en faveur d’une solution basée sur l’IA sont déjà réels aujourd’hui, ainsi que les impacts environnementaux délétères indirects de beaucoup de cas d’usage. 

Cette littératie cible principalement l’enseignement primaire et secondaire, mais est aussi ouverte au péri et extra scolaire, et à l’éducation familiale.

C’est une initiative conjointe de la Commission européenne et de l’Organisation de Coopération et de Développement Économiques. Code.org et des experts internationaux très divers soutiennent son développement.

Alors … concrètement ?

Découvrons et donnons notre opinion. Voici en une page ce cadre qui se veut inspirant, riche de ressources, sans aucune valeur contraignante:

Infographie du cadre proposé ©AILit, librement partageable et réutilisable, en citant la source.


C’est ici : http://ailiteracyframework.org que nous avons tous les éléments de présentation (avec une version traduite de la page de présentation :  https://tinyl.co/3OeN). Il y a même un “prompt” (l’instruction ou la question qui est posée de manière textuelle à un IA avec une interface langagière) pour interroger une IA à propos de cette littératie de l’IA.

Une première version, aboutie et soigneusement revue, est disponible, pour travailler sur des éléments précis. Pas d’erreur ! Elle a évidemment vocation à évoluer et être remodelée, voire questionnée en profondeur, en fonction des relectures et des retours.

Alors… à vous !

Au cours des prochains mois, nous sollicitons les commentaires des parties prenantes du monde entier. Pour participer, visitez www.teachai.org/ailiteracy/review. La version finale du cadre sera publiée en 2026, accompagnée d’exemples de maîtrise de l’IA dans les programmes, l’évaluation et la formation professionnelle.

Thierry Viéville, chercheur Inria.

Ok … 1,2,3 : comment me lancer dès maintenant ?

– Avec la formation ClassCode I.A.I. on se forme sans aucun prérequis technique aux bases de l’IA, pour piger comment ça marche:

              https://pixees.fr/classcode-v2/iai 



Ressource gratuitement utilisable et réutilisable.

– Former les enseignants au contexte, l’usage, la pertinence et les défis de ressources éducatifs mobilisant de l’intelligence artificielle dans un cadre éducatif : 

                         https://tinyl.co/3PMs



Avec une formation en ligne gratuite et des ressources multilingues réutilisables.

– Pour aller plus loin : 

       https://www.elementsofai.com 

est une formation mise à jour cette année qui permet de s’initier vraiment à aux fondements et usages de l’IA.


– Et tout aussi important : une formation sur les impacts environnementaux du numérique, dont l’IA :

    https://www.fun-mooc.fr/fr/cours/impacts-environnementaux-du-numerique

À l’heure ou transition écologique rime souvent avec transition numérique, qu’en est-il réellement des impacts environnementaux du numérique ? Comment dès à présent commencer à agir pour un numérique plus responsable et plus durable ?

PDF

04.07.2025 à 07:36

2025 : L’année de l’intelligence artificielle en France ?

binaire

« L’année 2025 pourrait bien marquer un tournant décisif pour l’intelligence artificielle en France. En quelques mois à peine, le pays a concentré sur son sol une série d’événements majeurs, des annonces économiques sans précédent, et une mobilisation politique et industrielle rarement vue à cette échelle »  C’est par ces propos que Jason RIchard nous partage ici son analyse de ce que les médias ont déjà largement relayé. Serge Abiteboul et Thierry Viéville.

L’IA, longtemps domaine de prospective ou de niche, est désormais partout  : dans les discours officiels, dans les stratégies d’investissement, dans les démonstrateurs technologiques, dans les débats publics… Et surtout, elle est devenue un axe structurant de la politique industrielle française. Alors, 2025 : coup d’accélérateur ou effet d’annonce ? Éléments de réponse à mi-parcours d’une année qui, semble avoir placé la France au centre du jeu.

Quatre grands événements au cours de ce premier semestre sont partagés avec plus de détail en annexe de cet article.

Une ambition qui se concrétise

La trajectoire n’est pas nouvelle. Dès 2018, la France avait lancé une stratégie nationale sur l’IA, misant sur l’excellence scientifique, la création de champions technologiques et une volonté de régulation éthique. Mais ce début 2025 a marqué une inflexion nette  : ce ne sont plus des promesses ou des feuilles de route, mais des réalisations concrètes, visibles et, surtout, financées.

Sommet Choose France 2025 : plus de 40 milliards d’euros annoncés, l’IA mise à l’honneur.

Sur le plan diplomatique, la France a accueilli à Paris, début février un sommet mondial sur l’action en matière d’IA, réunissant plus de 100 délégations internationales. Sur le plan économique, le sommet Choose France 2025, en mai, a vu l’annonce de 37 milliards d’euros d’investissements étrangers, dont près de 17 milliards spécifiquement orientés vers l’IA et les infrastructures numériques. De nouvelles giga-usines de données, des centres de calcul haute performance, des campus IA… autant de projets qui commencent à prendre racine sur le territoire, dans les Hauts-de-France, en Île-de-France ou encore en Provence. Ce n’est plus seulement une question de stratégie  : c’est désormais une réalité industrielle.

Une dynamique entre État, start-ups et investisseurs

World AI Cannes Festival 2025 : l’IA fait son show à Cannes

Ce mouvement est porté par une triple alliance entre l’État, les start-ups de la French Tech et les investisseurs internationaux. L’écosystème s’est structuré. On compte aujourd’hui en France près de 1 000 jeunes pousses spécialisées en IA, dont plusieurs sont devenues des licornes. Des journées entières leur ont été consacrées, à Station F comme au World AI Cannes Festival, et de nombreuses d’entre elles ont profité de ces événements pour nouer des contacts avec des fonds étrangers, tester leurs solutions, ou signer des premiers contrats.

Le gouvernement, de son côté, ne se contente plus d’un rôle de spectateur bienveillant. Il est co-investisseur, catalyseur, diplomate. Des partenariats stratégiques ont été tissés avec des acteurs nord-américains, émiratis, européens… dans une logique de souveraineté numérique partagée. L’objectif est clair  : faire de la France un point central pour entraîner, héberger et déployer les modèles d’IA de demain. Avec en ligne de mire, la maîtrise technologique autant que la compétitivité économique.

Des usages concrets… et des questions fondamentales

Station F Business Day 2025 : l’innovation IA made in France

Loin de se limiter aux infrastructures, l’IA s’immisce dans tous les secteurs  : santé, énergie, industrie, agriculture, éducation. Certains cas d’usage sont déjà déployés à grande échelle  : systèmes d’aide au diagnostic médical, optimisation des réseaux électriques, automatisation de processus industriels, ou encore agents conversationnels dans les services publics. L’heure est à l’intégration, à l’industrialisation, et à l’évaluation.

Mais cette dynamique pose des questions majeures. Comment garantir l’équité des systèmes algorithmiques  ? Comment réguler les modèles génératifs qui créent du faux plus vite qu’on ne peut le détecter  ? Comment protéger les données, les droits, l’emploi, dans un monde où les machines apprennent plus vite que les institutions ne légifèrent  ?

La réponse française est à double détente  : soutenir l’innovation sans naïveté, et réguler sans brider. Cela passe par l’appui au futur règlement européen (AI Act), par la participation active aux grands forums internationaux (OCDE, ONU, GPAI), mais aussi par une réflexion de fond sur l’inclusion et la transparence. Cette ligne de crête est peut-être ce qui distingue le plus la posture française sur l’IA en 2025.

Une question ouverte

Sommet Action IA 2025 : Paris capitale mondiale de l’IA

Alors, 2025 est-elle l’année de l’IA en France ? Il est encore trop tôt pour l’affirmer avec certitude. Mais jamais les planètes n’avaient été aussi bien alignées. Les infrastructures arrivent. Les financements suivent. L’écosystème s’organise. Le débat public s’anime. Et l’État joue pleinement son rôle. Ce n’est pas une révolution soudaine, mais plutôt une convergence de trajectoires, diplomatique, économique, technologique et sociale, qui pourrait, si elle se maintient, faire de la France l’un des pôles IA majeurs de la décennie.

Jason Richard, Business Innovation Manager chez Airbus Defence and Space.

Pour aller plus loin

Des articles détaillés sur chacun de ces événements marquants de ce premier semestre 2025 – Sommet pour l’action sur l’intelligence artificielle​, Station F Business Day 2025, World AI Cannes Festival 2025, Choose France – sont disponibles ici : 

Sommet Action IA 2025 : Paris capitale mondiale de l’IA.

Station F Business Day 2025 : l’innovation IA made in France.

World AI Cannes Festival 2025 : l’IA fait son show à Cannes.

Sommet Choose France 2025 : plus de 40 milliards d’euros annoncés, l’IA mise à l’honneur.

Une chose est sûre  : le deuxième semestre sera scruté de près.
Et en décembre, peut-être pourra-t-on écrire, cette fois avec certitude  : oui, 2025 aura été l’année de l’intelligence artificielle en France.

Références complémentaires :

Donner un sens à l’intelligence artificielle, pour une stratégie nationale  et européenne, Céric Villani et une équipe, 2018

Bilan du Sommet pour l’action sur l’IA, Rapport de l’Élysée, mars 2025.

La stratégie nationale pour l’intelligence artificielle, Ministère de l’Économie et des Finances, février 2025.

 

 

PDF

27.06.2025 à 07:44

L’IA contre les « oublis » aux caisses automatiques des supermarchés ? Mais c’est bien sûr !

binaire

 

Charles Cuvelliez et Jean-Jacques Quisquater nous proposent en collaboration avec le Data Protection Officer de la Banque Belfius ; Francis Hayen, une discussion sur le dilemme entre le RGPD et la mise en place de caméra augmentée à l’IA pour diminuer le nombre de vols, les oublis, le sous-pesage aux caisses automatiques des supermarchés, qui sont bien nombreux. Que faire pour concilier ce besoin effectif de contrôle et le respect du RGPD ? Et bien la CNIL a émis des lignes directrices, d’aucun diront désopilantes, mais pleines de bon sens. Amusons-nous à les découvrir. Benjamin Ninassi et Thierry Viéville.
Montage à partir d’une photo libre de droit. © CC-BY, binaire.

C’est le fléau des caisses automatiques des supermarchés : les fraudes ou les oublis, pudiquement appelées démarques inconnues, ou la main lourde qui pèse mal fruits et légumes. Les contrôles aléatoires semblent impuissants. Dans certaines enseignes, il y a même un préposé à la balance aux caisses automatiques. La solution ? L’IA pardi. Malgré le RGPD ? Oui dit la CNIL dans une note de mai 2025.

Cette IA, ce sont des caméras augmentées d’un logiciel d’analyse en temps réel. On les positionne en hauteur pour ne filmer que l’espace de la caisse, mais cela inclut le client, la carte de fidélité, son panier d’achat et les produits à scanner et forcément le client, flouté de préférence. L’algorithme aura appris à reconnaitre des « événements » (identifier ou suivre les produits, les mains des personnes, ou encore la position d’une personne par rapport à la caisse) et contrôler que tout a bien été scanné. En cas d’anomalie, il ne s’agit pas d’arrêter le client mais plus subtilement de programmer un contrôle ou de gêner le client en lui lançant une alerte à l’écran, propose la CNIL qui ne veut pas en faire un outil de surveillance en plus. Cela peut marcher, en effet. 

C’est que ces dispositifs collectent des données personnelles : même en floutant ou masquant les images, les personnes fautives sont ré-identifiables, puisqu’il s’agira d’intervenir auprès de la personne. Et il y a les images vidéo dans le magasin, non floutées. La correspondance sera vite faite.

Montage à partir d’une photo libre de droit. © CC-BY, binaire.

Mais les supermarchés ont un intérêt légitime, dit la CNIL, à traiter ces données de leurs clients (ce qui les dispense de donner leur consentement) pour éviter les pertes causées par les erreurs ou les vols aux caisses automatiques. Avant d’aller sur ce terrain un peu glissant, la CNIL cherche à établir l’absence d’alternative moins intrusive : il n’y en a pas vraiment. Elle cite par exemple les RFID qui font tinter les portiques mais, si c’est possible dans les magasins de vêtements, en supermarché aux milliers de référence, cela n’a pas de sens. Et gare à un nombre élevé de faux positifs, auxquels la CNIL est attentive et elle a raison : être client accusé à tort de frauder, c’est tout sauf agréable. Cela annulera la légitimité de la méthode.

Expérimenter, tester

Il faut qu’un tel mécanisme, intrusif, soit efficace : la CNIL conseille aux enseignes de le tester d’abord. Cela réduit-il les pertes de revenus dans la manière dont le contrôle par IA a été mis en place ? Peut-on discriminer entre effet de dissuasion et erreurs involontaires pour adapter l’intervention du personnel ? Il faut restreindre le périmètre de prise de vue de la caméra le plus possible, limiter le temps de prise de vue (uniquement lors de la transaction) et la stopper au moment de l’intervention du personnel. Il faut informer le client qu’une telle surveillance a lieu et lui donner un certain contrôle sur son déclenchement, tout en étant obligatoire (qu’il n’ait pas l’impression qu’il est filmé à son insu), ne pas créer une « arrestation immédiate » en cas de fraude. Il ne faut pas garder ces données à des fins de preuve ou pour créer une liste noire de clients non grata. Pas de son enregistré, non plus. Ah, si toutes les caméras qui nous espionnent pouvaient procéder ainsi ! C’est de la saine minimisation des données.

Pour la même raison, l’analyse des données doit se faire en local : il est inutile de rapatrier les données sur un cloud où on va évidemment les oublier jusqu’au moment où elles fuiteront.

Le client peut s’opposer à cette collecte et ce traitement de données mais là, c’est simple, il suffit de prévoir des caisses manuelles mais suffisamment pour ne pas trop attendre, sinon ce droit d’opposition est plus difficilement exerçable, ce que n’aime pas le RGPD. D’aucuns y retrouveront le fameux nudge effect de R. Thaler (prix Nobel 2017) à savoir offrir un choix avec des incitants cognitifs pour en préférer une option plutôt que l’autre (sauf que l’incitant est trop pénalisant, le temps d’attente).

Réutilisation des données pour entrainement

Un logo RGPD dérivé sur le site de l’EDPB ©EDPB.

Autre question classique dès qu’on parle d’IA : peut-on réutiliser les données pour entrainer l’algorithme, ce qui serait un plus pour diminuer le nombre de faux positifs. C’est plus délicat : il y aura sur ces données, même aux visages floutés, de nombreuses caractéristiques physiques aux mains, aux gestes qui permettront de reconnaitre les gens. Les produits manipulés et achetés peuvent aussi faciliter l’identification des personnes. Ce serait sain dit la CNIL de prévoir la possibilité pour les personnes de s’y opposer et dans tous les autres cas, de ne conserver les données que pour la durée nécessaire à l’amélioration de l’algorithme.

Les caisses automatiques, comme les poinçonneuses de métro, les péages d’autoroute, ce sont des technologies au service de l’émancipation d’une catégorie d’humains qui ont la charge de tâches pénibles, répétitives et ingrates. Mais souvent les possibilités de tricher augmentent de pair et il faut du coup techniquement l’empêcher (sauter la barrière par ex.). L’IA aux caisses automatiques, ce n’est rien de neuf à cet égard.

Une caisse en libre-service ©Eurofruit from Global , via Wikipédia

Mine de rien, toutes ces automatisations réduisent aussi les possibilités de contact social. La CNIL n’évoque pas l’alternative d’une surveillance humaine psychologiquement augmentée, sur place, aux caisses automatiques : imaginez un préposé qui tout en surveillant les caisses, dialogue, discute, reconnait les habitués. C’est le contrôle social qui prévient bien des fraudes.

 Quand on sait la faible marge que font les supermarchés, l’IA au service de la vertu des gens, avec toutes ces précautions, n’est-ce pas une bonne chose ?

 


Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles), Francis Hayen, Délégué à la Protection des Données & Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT). 

 

Pour en savoir plus :

PDF

20.06.2025 à 07:06

Les États-Unis frappent le Danemark au cœur de son système numérique !

binaire

Sur le blog binaire, nous aimons aussi la fiction, et Henri d’Agrain, nous partage ici une petite nouvelle bien … édifiante. Plaise à la vie que cela reste bien de la fiction. Yves Bertrand Serge Abiteboul
Dessiné aux bons soins de l’auteur par ChatGPT, qui ne s’est pas fait prier…

Bruxelles, le 4 juillet 2025, par notre envoyé spécial, Jean Pacet-Démayeur

Une décision historique et lourde de conséquences vient bouleverser les relations entre les États-Unis et l’Union européenne. Dans un contexte de tension croissante depuis six mois, le Président Trump a annoncé hier soir, à la veille des célébrations de l’Independence Day, qu’il avait signé un Executive Order avec effet immédiat, interdisant aux entreprises technologiques américaines de délivrer des produits et des services numériques au Danemark, membre de l’Union européenne. Cette mesure de rétorsion, sans précédent entre alliés historiques, est la conséquence du conflit diplomatique majeur que Donald Trump a provoqué en annonçant au début de l’année, et avant d’entrer à la Maison blanche le 20 janvier 2025, son projet d’annexion par les États-Unis du Groenland, y compris par la force armée.

Une annexion qui embrase les relations internationales

Tout a commencé il y a six mois en effet, lorsque Donald Trump a annoncé sa volonté d’annexer le Groenland, éventuellement par la force armée. L’île principale de l’Atlantique Nord représente en effet un atout géostratégique majeur en raison de sa proximité avec les routes maritimes critiques reliant l’Europe, l’Asie et l’Amérique du Nord, ainsi que pour ses riches réserves en matières premières stratégiques. Déjà en 2019, une rumeur prêtait à Donald Trump, au cours de son premier mandat, l’intention d’acheter le Groenland au Danemark.

Malgré des protestations fermes de l’Union européenne et des appels au dialogue international, le Président Donald Trump a justifié sa décision par des impératifs stratégiques et de sécurité nationale. En réponse, le Danemark a saisi le Conseil de sécurité des Nations Unis, appelant à une mobilisation diplomatique mondiale.

Un embargo numérique aux conséquences vertigineuses

Hier soir, dans une escalade sans précédent, la Maison-Blanche a annoncé qu’elle interdisait à toutes les entreprises américaines de la tech de continuer à fournir leurs services au Danemark et à son économie. Cette décision inclut des géants tels que Microsoft, Google, Amazon, Meta et Apple, dont les infrastructures, les logiciels et les plateformes sont omniprésents dans l’économie danoise. Il a par ailleurs annoncé que les États-Unis lèveront cet embargo numérique lorsque le Danemark aura accepté de leur vendre le Groenland à un prix raisonnable et conforme à l’offre d’achat formulée en avril 2025.

Le ministre danois de l’Économie a qualifié cette décision de « déclaration de guerre économique », prévenant que son pays faisait face à une « paralysie imminente ». En effet, le fonctionnement de l’économie danoise repose largement sur les services cloud de fournisseurs américains, tandis que son administration publique et son système éducatif dépendent étroitement d’outils tels que Microsoft 365. Plusieurs organisations professionnelles danoises ont par ailleurs appelé le Gouvernement a engager des négociations avec les États-Unis pour éviter l’effondrement de l’économie du pays.

Les conséquences sociales se font déjà sentir : la plupart des administrations publiques sont à l’arrêt, des milliers d’entreprises se retrouvent coupées de leurs outils de gestion, les services bancaires numériques sont indisponibles, et les citoyens constatent qu’ils ne peuvent plus accéder à leurs services du quotidien comme les applications de messagerie, les réseaux sociaux ou les plateformes de streaming. Les hôpitaux, quant à eux, s’inquiètent de l’accès à leurs systèmes de données patient, majoritairement hébergés sur des serveurs américains.

Une vulnérabilité européenne mise à nu

Cette crise expose cruellement le caractère systémique des dépendances numériques des États européens et de leur économie à l’égard des technologies américaines. Si le Danemark est le seul à être touché, d’autres États européens redoutent des mesures de rétorsions similaires. La Commission européenne, par la voix de sa Présidente, a déclaré que « l’Union européenne déplore de telles attaques contre l’intégrité économique et numérique de l’un de ses membres. » Elle a appelé au dialogue entre les États-Unis et le Danemark et à l’apaisement des tensions. Elle a par ailleurs proposé aux États membres d’apporter un soutien technique au Danemark. Elle suggère enfin de lancer les travaux nécessaires pour accélérer les stratégies d’investissements de l’Union dans des alternatives européennes, notamment en mettant en œuvre les préconisations inscrites dans le rapport que Mario Draghi, l’ancien président de la Banque centrale européenne, lui avait remis en septembre 2024.

Les réponses possibles du Danemark

Face à cette situation inédite, le gouvernement danois tente de réagir. Des négociations d’urgence ont été ouvertes avec des acteurs non américains pour assurer une transition vers des systèmes alternatifs, mais de telles démarches de migration prendront des mois, voire des années. Parallèlement, le pays envisage des mesures de rétorsion, comme le blocage des actifs américains sur son territoire, mais son poids économique relativement faible limite ses marges de manœuvre.

En attendant, les citoyens danois se préparent à vivre une crise sans précédent. Certains experts avertissent que cette situation pourrait entraîner une radicalisation de l’opinion publique contre les États-Unis, renforçant les partis politiques favorables à un rapprochement avec d’autres puissances mondiales.

Une fracture durable ?

Alors que la situation semble s’envenimer, de nombreux observateurs redoutent que cette crise ne marque un tournant dans les relations transatlantiques. L’embargo numérique américain pourrait non seulement remodeler les alliances stratégiques comme l’OTAN, mais aussi accélérer le développement de systèmes technologiques régionaux indépendants, que ce soit en Europe ou ailleurs. Une chose est certaine : le Danemark est devenu, bien malgré lui, le théâtre d’une confrontation qui pourrait redéfinir l’ordre international.

Henri d’Agrain, Délégué général du Cigref, Membre du Conseil scientifique de la SIF.

Cet article est repris du blog Linkedin de Henri.

PDF
10 / 10
 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
Romain MIELCAREK
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Blog Binaire
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Tristan NITOT
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Économistes Atterrés
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓