LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Binaire
Avec La Recherche et la Société Informatique de France

Blog Binaire

Blog collectif publié en collaboration avec La Recherche et la Société Informatique de France

▸ les 10 dernières parutions

27.02.2026 à 06:58

Affaire CrowdStrike : vent arrière pour l’impunité sur les bugs logiciels…

Charles CUVELLIEZ

En 2024, une mise à jour automatique du produit Falcon de la célèbre société de sécurité CrowdStrike a mis à l’arrêt des entreprises, des aéroports et des infrastructures critiques: elle a provoqué le plantage de 8,5 millions d’ordinateurs qui affichent des heures d’écran bleues (l’écran bleu de la mort, ou Blue Screen of Death). Un […]

L’article Affaire CrowdStrike : vent arrière pour l’impunité sur les bugs logiciels… est apparu en premier sur Blog binaire.

Texte intégral (2558 mots)

En 2024, une mise à jour automatique du produit Falcon de la célèbre société de sécurité CrowdStrike a mis à l’arrêt des entreprises, des aéroports et des infrastructures critiques: elle a provoqué le plantage de 8,5 millions d’ordinateurs qui affichent des heures d’écran bleues (l’écran bleu de la mort, ou Blue Screen of Death). Un peu moins de deux ans plus tard, un juge du Texas a débouté la plainte de l’État de New York via son « Controller », alors que les faits semblaient évidents pour mettre CrowdStrike sur le chemin d’une condamnation. Les astres n’étaient finalement pas alignés, mais le message n’est pas bon. C’est l’impunité face aux bugs qu’on laisse dans les logiciels . Lisons l’analyse de l’arrêt que nous livrent Jean-Jacques Quisquater, de l’Ecole Polytechnique de Louvain (Université de Louvain) et Charles Cuvelliez, de l’Ecole Polytechnique de Bruxelles (Université de Bruxelles), et Goedele Van de Plas,Senior Legal Counsel  à l’Aéroport de Bruxelles (Serge Abiteboul et Lonni Besançon).

______
CrowdStrike commercialise Falcon, une plateforme de cybersécurité de référence. Elle met automatiquement à jour ses logiciels à distance, sans redémarrage ni intervention de la part des clients. Falcon fonctionne au niveau du noyau du système d’exploitation, ce qui implique des risques accrus et une responsabilité accrue en la matière. Le produit est performant : son adoption par le gouvernement fédéral américain, 43 États sur 50 et plus de la moitié des entreprises du Fortune 500 en témoigne. Une mise à jour, en 2024, s’est mal passée. Elle a provoqué un écran bleu (le fameux écran bleu de la mort ou Blue Screen of Death – BSOD) sur des ordinateurs Windows, mettant hors service environ 8,5 millions de machines simultanément. Le fonctionnement de milliers d’entreprises fut affecté jusqu’à ce que des aéroports entiers soient mis à l’arrêt pendant plusieurs heures.
_____________

IN THE UNITED STATES DISTRICT COURT FOR THE WESTERN DISTRICT OF TEXAS AUSTIN DIVISION – IN RE CROWDSTRIKE HOLDINGS, INC. § SECURITIES LITIGATION – ORDER 1:24-CV-857-RP

Le PDG, George Kurtz, est apparu dans l’émission Today sur NBC pour s’excuser, expliquant qu’une mise à jour contenant un bug logiciel avait causé un problème avec le système d’exploitation Microsoft. 

Un autre dirigeant de CrowdStrike, Adam Meyers, a ensuite reconnu devant le Congrès que la société ne procédait ni à des tests de ses mises à jour dans un environnement de préproduction, ni à des déploiements progressifs. Il a indiqué que ces pratiques seraient désormais mises en place afin prévenir la répétition d’incidents similaires. L’admission de ces faits a suffi à entraîner l’introduction des actions en justice pour tromperie à l’égard les investisseurs, les plaignants, soutenant qu’un écart inacceptable existait entre les déclarations publiques de la société concernant les tests logiciels et la réalité de ses pratiques. Après l’incident, plusieurs analystes financiers ont même révisé à la baisse leur recommandation relative à l’action CrowdStrike. C’est dire.____

Selon le droit américain, pour conclure à une tromperie des investisseurs, il faut trois conditions :

• Que la fausse déclaration ou une omission soit liée à l’achat ou à la vente d’un titre ;
• Que celle-ci concernait un fait matériel ;
• Qu’elle a été faite avec intention ou témérité grave.

C’est Thomas P. DiNapoli, le comptroller de l’État de New York, qui a porté plainte en ce sens contre Crowdstrike devant un juge à Austin, au Texas. Cette plainte s’est transformée en action collective (class action). Un comptroller est la personne qui supervise les audits, les finances de l’État et les investissements du fonds de retraite public de New York (environ 270 milliards de dollars). Il a été débouté de bout en bout, ce qui soulève des interrogations sur l’impunité des entreprises qui mettent sur le marché des produits trop vite, en y laissant des défauts persistants
.

Déclarations erronées et omissions.

Les plaignants, Di Napoli et ceux qui se sont joints à sa plainte, ont d’abord soutenu que CrowdStrike avait induit les investisseurs en erreur en vantant une « équipe d’assurance qualité » chargée des tests, ce qui, selon eux, n’a visiblement pas fonctionné. La cour a rejeté cet argument : d’une part, aucun investisseur raisonnable ne se serait fondé sur cette phrase isolée pour une décision d’investissement, d’autre part, le juge retenu l’argumentation de Crowdstrike selon laquelle il s’agissait de test d’accessibilité (à comprendre au sens d’ergonomie et de facilité d’utilisation), et pas de tests liés aux mises à jour logicielles.
______

Les plaignants soutiennent ensuite que six déclarations de dirigeants de CrowdStrike ainsi que certaines pages web de l’entreprise seraient fausses ou trompeuses en ce qu’elles présenteraient de manière inexacte les modalités de tests des logiciels. À cet égard, ils visent notamment un contenu décrivant la réalisation de tests dans un « environnement de staging » censé être proche de la production (test de performance, de sécurité, de UAT) ainsi que l’adhésion au CI/CD (ou Continuous Integration/Continuous Development) ensemble de pratiques en développement logiciel visant à automatiser l’intégration du code, les tests et de son déploiement).

Il y avait aussi deux propos de Kurtz sur la capacité à détecter du « code insecure » dans les pipelines CI/CD et à contribuer à un déploiement sécurisé ; deux autres sur Falcon, qui permettrait d’éviter ou résoudre les écrans bleus au sein des aéroports liés à des PC plantés (ce qui évite d’envoyer un technicien sur place).______

Aucun investisseur raisonnable ne se serait fondé sur cette phrase isolée pour une décision d’investissement.

___________________

 

Crowdstrike a alors soutenu que les plaignants avaient extrait ces déclarations de leur contexte, argument auquel la cour a fait droit :

  • La page CI/CD/staging constitue un article éducatif, sans affirmer que CrowdStrike appliquerait elles-mêmes ces pratiques.
  • Les deux premières déclarations de Kurtz portaient sur la protection du code mise en œuvre par le client au moyen du produit (et non sur les procédures internes de CrowdStrike).
  • Kurtz présentait Falcon comme un outil permettant de remédier à distance aux « écrans bleus », ce qui n’implique nullement qu’il serait même exempt de tels incidents.
  • Chaudhary s’adressait aux clients développant via l’API Falcon, et non aux mécanismes de mises à jour interne de l’entreprise.

La cour conclut qu’aucun investisseur raisonnable n’aurait pu interpréter ces propos comme des garanties relatives aux tests internes de CrowdStrike ; les six allégations sont dès lors rejetées faute de démonstration de fausseté ou de caractère trompeur
.

______

Déclarations concernant les tests et/ou les mises à jour logicielles

Les plaignants ont contesté cinq déclarations de CrowdStrike relatives aux tests et mises à jour logicielles, les qualifiant de fausses ou trompeuses. Crowdstrike a toutefois répliqué que les plaignants confondaient le test du logiciel en tant que tel avec le test de l’évaluation de son efficacité à détecter les menaces. D’ailleurs, un investisseur s’intéresse avant tout à la question de savoir si le produit de Crowdstrike est efficace et s’il a été testé en ce sens. Même une déclaration d’un autre responsable selon laquelle le logiciel ne provoquera jamais d’écran bleu de la mort n’a pas été retenue par la cour : il s’agissait d’une simple exagération que tout investisseur sérieux ne considérerait pas comme déterminante pour l’acquisition d’actions Crowdstrike. En outre, les rapports annuels 2023 et 2024 de CrowdStrike avertissaient déjà abondamment les investisseurs des risques tels que les interruptions de service, les erreurs logicielles, les défauts, les déploiements incorrects et la faible tolérance client aux pannes — en mentionnant explicitement des incidents passés ainsi que des risques futurs potentiels. Ces mises en garde rendaient improbable la confiance d’un investisseur dans une simple remarque optimiste, la rendant, de ce fait, (même si c’est un peu un sophisme) non trompeuse.

______
______

 Un investisseur raisonnable aurait bien compris que des mises à jour rapides et automatisées ne sont pas nécessairement soumises aux mêmes procédures de test qu’un nouveau logiciel 

___________________

Les plaignants soutiennent avoir identifié les éléments indiquant que Crowdstrike procède habituellement à des déploiements progressifs (canari, dans le jargon, par similitude avec les canaris dans les mines censés avertir d’un coup de grisou possible) de ses mises à jour. En l’espèce, cependant, la mise à jour a été distribuée simultanément à l’ensemble à des clients. Là encore, le juge considère qu’il ne s’agit qu’un argument de pure forme : selon Crowdstrike, ces déploiements « canaris » concernent exclusivement l’introduction de de nouveaux services, et non les mises à jour liées aux signatures ou à la détection des menaces via sa plateforme.
______

Les plaignants critiquent enfin les rapports annuels 2023-2024, qui indiquent que le personnel technique surveille et teste le logiciel régulièrement. La Cour considère toutefois ces déclarations comme de simples affirmations générales non actionnables, qui ne portent pas spécifiquement sur les mises à jour automatisées ni sur des tests réalisés selon des protocoles traditionnels.

Un investisseur raisonnable aurait bien compris que des mises à jour rapides et automatisées ne sont pas nécessairement soumises aux mêmes procédures de test qu’un nouveau logiciel.

Finalement, la cour ne donne tort à Crowdstrike sur la non-existence d’une équipe assurance qualité distincte qui était obligatoire pour faire partie des fournisseurs officiels de l’administration fédérale US (FedRAMP) et du Pentagone.______

L’autre question examinée par la cour est celle de savoir si Crowdstrike a sciemment induit les investisseurs potentiels en erreur par l’ensemble de ses déclarations (balayées par la cour). L’argument avancé était que, puisque Falcon constitue le produit unique de Crowdstrike, les dirigeants devaient nécessairement savoir, sauf à faire preuve d’une grave négligence, qu’aucun de tests adéquats n’était effectué sur les mises à jour de Falcon. Kurtz et Sentonas vantent fréquemment les tests logiciels réalisé par Crowdstrike ou évoquent l’éradication des écrans bleus grâce à Falcon, ainsi que la non-certification du respect des exigences fédérales et l’absence évidente d’une équipe d’assurance qualité. Mais dès lors que la Cour a considéré l’ensemble de ces arguments, ou presque, comme non fondés, la question d’une éventuelle tromperie délibérée ne se pose même plus.

la cour ne donne tort à Crowdstrike sur la non-existence d’une équipe assurance qualité distincte.
___________________

Les leçons pour ne pas se faire pincer (car c’est bien cela !)

Si Crowdstrike s’en sort relativement bien ici, ce cas rappelle aux entreprises technologiques l’importance d’une communication rigoureuse et cohérente. Chaque déclaration publique doit être précisément formulée : lorsqu’il est question de tests, d’assurance qualité ou de conformité, il convient de distinguer clairement les intentions de conception les résultats obtenus et les pratiques internes. Si les engagements portent sur les performances observées chez le client lors de l’utilisation du produit, cela doit être explicitement indiqué. Les entreprises devraient éviter les affirmations catégoriques telles que « nos tests sont exhaustifs » et privilégier des formulations plus mesurées, centrées sur les objectifs plutôt que des garanties (« nos procédures visent à minimiser les risques »). Une documentation détaillée des procédures internes et des processus décisionnels renforce par ailleurs la crédibilité des déclarations en cas de contestation juridique. Enfin, la coordination de la communication sur l’ensemble des canaux — rapports financiers, déclarations des dirigeants et supports marketing — est essentielle pour éviter toute incohérence susceptible d’être interprétée comme une fausse déclaration.

L’ordonnance du juge Pitman accorde aux plaignants un délai très court, jusqu’au 26 janvier 2026 (pas de nouvelles depuis), pour modifier leur plainte. Ils devront rapidement déterminer s’ils sont en mesure d’apporter de nouveaux éléments factuels ; à défaut, une nouvelle version risquerait seulement de retarder un rejet définitif.

L’ordonnance du juge Pitman laisse aux plaignants un délai très court, jusqu’au 26 janvier 2026, pour modifier leur plainte. Ils doivent rapidement déterminer s’ils peuvent réunir de nouveaux éléments factuels ; à défaut, une nouvelle tentative risquerait seulement de retarder un rejet définitif.____

Charles Cuvelliez (ULB), Goedele Van de Plas (Aéroport de Bruxelles), Jean-Jacques Quisquater (UCL)

Pour en savoir plus : In the United States District Court for the Western District of Texas Austin division –  Order 1:24-CV-857-RP

L’article Affaire CrowdStrike : vent arrière pour l’impunité sur les bugs logiciels… est apparu en premier sur Blog binaire.

PDF

20.02.2026 à 07:06

Élaguer le beau pour laisser place à l’extraordinaire

Thierry VIEVILLE

« L’intelligence artificielle (ci-après : IA) s’apprête à transformer la médecine bien au-delà des débats courants sur l’éthique, l’automatisation ou la performance des algorithmes. Aussi importantes soient-elles, ces questions ne saisissent qu’une partie du phénomène », nous expliquent Masrour Makaremi, Philippe Salah et Thomas Boraud dans cet article. En effet, ils soulignent que « derrière les promesses technologiques émerge une mutation […]

L’article Élaguer le beau pour laisser place à l’extraordinaire est apparu en premier sur Blog binaire.

Texte intégral (3100 mots)
« L’intelligence artificielle (ci-après : IA) s’apprête à transformer la médecine bien au-delà des débats courants sur l’éthique, l’automatisation ou la performance des algorithmes. Aussi importantes soient-elles, ces questions ne saisissent qu’une partie du phénomène », nous expliquent Masrour Makaremi, Philippe Salah et Thomas Boraud dans cet article. En effet, ils soulignent que « derrière les promesses technologiques émerge une mutation aussi discrète que décisive : la reconfiguration de l’architecture cognitive du jugement clinique ». Comme pour d’autres métiers de haut niveau, l’IA ne modifie pas seulement ce que les médecins peuvent faire, mais aussi la manière dont ils perçoivent, hiérarchisent et intègrent l’information. Chloé Mercier et Thierry Viéville.
« De la souveraineté cognitive face à l’IA » prompt soumis à https://www.canva.com

« Élaguer le beau pour laisser place à l’extraordinaire »  fait allusion au tri cognitif qui protège l’instant rare où le sens clinique émerge : on parle d’insight. Voyons alors l’impact de l’IA sur un tel travail d’expertise.

De la souveraineté cognitive face à l’IA.

Ainsi, l’enjeu cesse d’être purement technique pour devenir épistémologique. Comment préserver la souveraineté cognitive du clinicien dans un environnement où l’information circule plus vite que la conscience ne peut l’intégrer ?

Car l’IA n’a de valeur que comme amplificateur du jugement humain. Les meilleures performances émergent lorsque les experts critiquent, ajustent et supervisent activement les propositions émanant des systèmes, plutôt que de les suivre passivement.

Dans cet ordre d’idées, une IA utile n’est donc pas celle qui « décide » mais celle qui soutient le praticien sans fragmenter son flow, sans alourdir sa charge mentale, sans troubler cette dynamique silencieuse qui sous-tend l’expertise. Car c’est précisément de cette alliance entre l’intelligence humaine et l’intelligence computationnelle que dépendra la possibilité d’une médecine vraiment augmentée : plus sûre, plus juste, plus lucide.

En médecine, décider revient d’abord à réduire la complexité de manière sélective et à extraire quelques signaux pertinents d’un océan d’informations. Or, cette fonction repose sur des mécanismes massivement parallèles, tacites et énergétiquement coûteux. Le cerveau humain traite environ 11 millions de bits par seconde, mais la conscience n’en saisit qu’une cinquantaine1 : c’est dans cette asymétrie que se loge l’intuition clinique. Chaque praticien connaît cet instant presque lumineux où un diagnostic complexe émerge : des indices dispersés s’assemblent, les schémas convergent, une cohérence nouvelle apparaît. Dans cet état de flow, le clinicien évolue comme si le temps se suspendait, dans un espace où l’effort se dissout, où l’expertise opère à un niveau non verbal, implicite, profondément intégré.

Dans ces conditions, l’IA agit comme un amplificateur. Elle élargit la bande passante perceptive, réduit certains biais et structure des masses d’information que nulle cognition humaine ne pourrait embrasser seule. Dans le même temps, elle introduit une tension nouvelle : pour dialoguer avec des systèmes fondés sur le langage, le médecin doit verbaliser un raisonnement qui, par nature, n’est pas verbalisable. Cette traduction forcée crée un goulot d’étranglement au moment même où la pensée clinique est censée être la plus fluide. L’expertise médicale est silencieuse ; les modèles actuels l’obligent à parler.

Le véritable enjeu est donc la souveraineté cognitive. Comment maintenir le praticien dans un état décisionnel performant, proche du flow, tout en distribuant intelligemment la charge cognitive entre l’humain et la machine ? Comment éviter que l’IA, en multipliant les frictions verbales, n’en vienne à fragmenter un raisonnement fondamentalement parallèle et implicite ?

Un clinicien ne peut véritablement assumer sa responsabilité que s’il reste majoritairement engagé dans son système 12, ce mode rapide, intuitif, intégré, qui constitue la signature de l’expertise. Dès que l’outil numérique force un basculement prolongé vers le système 2, analytique, verbal, séquentiel, il crée une surcharge qui fragmente l’attention, ralentit le raisonnement et, paradoxalement, réduit la capacité du praticien à être pleinement responsable de ses décisions et de ses actions.

Demander à un médecin de travailler dans un environnement où ses ressources cognitives sont constamment dépassées est non seulement inefficace, mais constitue aussi une forme de déresponsabilisation fonctionnelle. Le système dit « vous êtes responsable » alors que l’architecture cognitive affirme l’inverse.

Dans les faits, trois problématiques apparaissent :

  1. Le praticien accepte le système malgré la surcharge et renonce progressivement à son état d’expertise, opérant en deçà de ses capacités intuitives.
  2. Le praticien refuse le système et continue à travailler « à l’ancienne », recréant un environnement compatible avec son mode de pensée, mais incompatible avec les exigences contemporaines en matière de données.
  3. La voie la plus exigeante et la seule réellement intégrative : préserver l’engagement en système 1 tout en collaborant efficacement avec l’IA. C’est la seule trajectoire où l’humain et la machine peuvent devenir complémentaires sans s’annuler mutuellement.

Cette troisième voie n’est pas la plus simple : elle demande de repenser en profondeur la conception des outils et la chorégraphie cognitive du flux clinique. Mais c’est la seule qui puisse permettre une médecine réellement augmentée, où l’expert reste expert et où l’IA amplifie sa compétence plutôt que d’épuiser les ressources de celle-ci.

« L’allégorie du papillon et du cerveau » prompt soumis à https://www.canva.com/

L’allégorie du papillon.

On peut définir les exigences fondamentales auxquelles un flux de travail intégrant une IA doit satisfaire pour permettre à l’expertise clinique de s’exprimer pleinement. Un tel flux ne peut être conçu comme une simple chaîne de traitement algorithmique, mais comme une architecture cognitive continue, reliant les données à l’action clinique sans rupture perceptive ni déplacement du centre décisionnel. Il doit être pensé à partir du fonctionnement réel de l’expert, en respectant la manière dont l’intuition clinique se forme, se structure et se déploie dans l’action.

Une telle architecture implique de reconnaître que l’expertise humaine repose en grande partie sur des processus non verbaux, rapides et intégrés, fondés sur la reconnaissance de formes, l’extraction d’invariants et la tolérance à l’ambiguïté3. Contraindre ce raisonnement à une verbalisation séquentielle ou à des interfaces principalement textuelles introduit une friction cognitive qui altère le flow décisionnel. À l’inverse, un flux de travail adapté doit permettre à l’expertise implicite du praticien d’être progressivement structurée, transduite puis prolongée par l’IA, sans jamais la forcer à adopter un mode de raisonnement étranger à son fonctionnement naturel.

L’objectif n’est pas de transférer la décision à la machine, mais d’en amplifier la portée tout en préservant l’intuition experte, la souveraineté cognitive et la capacité du clinicien à produire du sens dans l’incertitude. Car toute décision humaine comporte une part irréductible de variabilité et de hasard, qui ne constitue pas une faiblesse à éliminer mais l’une des composantes essentielles de l’intelligence experte4.

Dans ce cadre, l’IA intervient comme un prolongement opérant du raisonnement clinique. Elle déploie, à partir d’une intuition structurée, des trajectoires d’action cohérentes, tandis que la validation finale demeure sous le contrôle du praticien. Cette validation devient fluide et immédiate lorsque les espaces cognitifs humains et artificiels ont été préalablement alignés, ce qui permet au clinicien de reconnaître la justesse d’une proposition sans avoir à en reconstruire analytiquement le cheminement.

La figure constitue la traduction visuelle de cette approche. Elle formalise une architecture de flux conçue non pas pour contraindre l’expertise, mais pour lui offrir un espace d’expression continu, de la perception implicite à l’action clinique. Elle illustre la façon dont une IA correctement intégrée peut prolonger le raisonnement expert sans en altérer la dynamique intime. La morphologie même de cette architecture, faite de convergences, de zones de transduction et de déploiements asymétriques, évoque la structure d’un papillon. Loin d’être fortuite, cette forme reflète la sensibilité du raisonnement expert aux conditions initiales, où de légères variations perceptives peuvent produire des effets décisionnels majeurs. C’est pour cette raison que nous avons choisi de désigner cette architecture sous le nom d’« allégorie du papillon ».

La première composante de ce flux correspond au formatage du système-1/IA. À ce niveau, l’IA traite des données numériques hétérogènes issues de structures algorithmiques multiples et les reformate de manière à les rendre directement compatibles avec la cognition experte. Ce travail ne vise pas à enrichir artificiellement l’information, mais à la présenter sous une forme immédiatement exploitable par le système 1, fondée sur la reconnaissance d’invariants (mieux définir ou expliquer) plutôt que sur l’analyse explicite.

L’extraction des invariants experts constitue le socle cognitif en amont du processus. Elle relève exclusivement du travail perceptif et intuitif du clinicien, avant toute interaction avec l’IA opérante. Cette zone représente le réservoir implicite d’expertise dans lequel l’expert reconnaît spontanément des régularités à partir de configurations complexes. Elle concentre le stock de connaissances structurées et la capacité de projection matricielle.

La zone centrale du schéma correspond à la transduction expert/IA. Il s’agit du moment décisif où l’expertise humaine cesse d’être diffuse pour devenir transmissible. Dans cet espace de co-élaboration cognitive, l’expert ne verbalise pas intégralement son raisonnement, mais opère une saisie immédiate de l’essence de la situation, structurée par l’intuition et l’extraction d’invariants clés. L’interaction humain-machine y est volontairement minimale et fluide, afin de permettre la transduction de la quintessence de la pensée experte vers l’IA sans rupture cognitive. Alignée sur le fonctionnement du système 1, cette étape préserve la continuité perceptive de l’expert tout en rendant son jugement opérable. Par transduction, on entend le processus par lequel une information est transformée d’un registre à un autre sans en perdre le contenu essentiel, mais en en modifiant le mode d’expression.

À l’aval de cette transduction, se déploie la phase d’IA opérante. À partir des invariants cliniques extraits et projetés dans un espace formalisé compatible avec le système artificiel, l’IA n’agit plus comme un simple outil d’analyse, mais comme un prolongement fonctionnel du raisonnement expert. Le cône visuel de la figure traduit cette dynamique d’expansion contrôlée : depuis une représentation condensée et structurée, l’IA déploie des trajectoires d’action selon une logique matricielle linéaire, sans réintroduire une complexité inutile pour le clinicien. Les flux internes orientés vers l’action demeurent continus et non conflictuels, ne requérant ni verbalisation supplémentaire ni arbitrage conscient prolongé. L’intervention de l’IA se situe ainsi clairement dans le champ opératoire, en aval de la cognition experte, sans être en concurrence avec celle-ci.

La validation sans friction constitue l’étape finale de la supervision du processus. Elle correspond au moment où le praticien conserve pleinement la maîtrise du jugement clinique tout en bénéficiant du déploiement opérant de l’IA. À cette étape précise, le système a déjà transformé les invariants extraits en propositions d’action cohérentes, structurées et contextualisées. La validation n’intervient donc pas comme un contrôle analytique a posteriori, mais comme une reconnaissance immédiate de la pertinence du travail accompli. Cette facilité de validation repose sur l’alignement préalable des espaces cognitifs : les actions proposées prolongent la logique du raisonnement initial sans la déformer ni l’enrichir artificiellement. Le praticien reconnaît la justesse plus qu’il ne l’analyse. Le contrôle n’est pas abandonné : il est même renforcé par la réduction de la charge cognitive associée à la supervision. L’IA opère, le clinicien valide, et c’est dans cette continuité silencieuse entre la proposition algorithmique et le jugement clinique que se joue la véritable souveraineté cognitive.

« L’intuition [des enfants] c’est parce qu’elle est surhumaine qu’il faut la croire ; c’est parce qu’elle est mystérieuse qu’il faut l’écouter ; c’est parce qu’elle semble obscure qu’elle est lumineuse » prompt soumis à https://www.canva.com/

Conclusion.

En conséquence, construire une véritable stratégie d’augmentation implique une révision conceptuelle profonde. Il faut repenser l’interface entre ces deux formes d’intelligence pour concevoir une architecture du choix à même de préserver la bande passante intuitive du praticien. L’échec de l’harmonisation à cet égard n’entraînerait pas l’obsolescence de l’expertise, mais un désentraînement progressif. L’expertise clinique repose avant tout sur un stock de connaissances hautement structurées, sur la reconnaissance des invariants, bien plus que sur une puissance de calcul brute5.

À l’inverse, une intégration juste pourrait transformer l’IA en une pompe cognitive : un dispositif capable d’activer des réseaux neuronaux plus larges, d’enrichir la perception, de concentrer l’énergie mentale du clinicien sur ce qu’il fait de mieux : discerner, synthétiser, produire du sens.

L’excellence clinique de demain dépendra de notre capacité à élaborer une grammaire de la collaboration humain/IA : une grammaire à même de reconnaître les limites métaboliques du cerveau, d’exploiter les forces computationnelles des machines et de protéger la capacité irremplaçable de l’intelligence humaine à créer du sens.

Victor Hugo écrivait au sujet de l’intuition que c’est « parce qu’elle est surhumaine qu’il faut la croire ; c’est parce qu’elle est mystérieuse qu’il faut l’écouter ; c’est parce qu’elle semble obscure qu’elle est lumineuse  »6. C’est précisément cette lumière-là que l’IA doit amplifier, sans jamais l’éteindre.

Masrour Makaremi, spécialiste en orthopédie dento-faciale-orthodontie. Docteur es science cognitive. Philippe Salah, Docteur es physique. CEO Dental Monitoring. Thomas Boraud, Directeur de Recherche CNRS, Directeur de l’Institut des Maladies Neurodégénératives -CNRS UMR 5293

Bibliographie :

1 : Fan J. An information theory account of cognitive control. Frontiers in Human Neuroscience. 2014 Sep 2;8:680. doi:10.3389/fnhum.2014.00680. PMID:25228875.

2 : Kahneman, Daniel. Système 1 / Système 2 : Les deux vitesses de la pensée. Traduction.

3 : Bilalić, Merim. The Neuroscience of Expertise. Cambridge : Cambridge University Press, 2017. ISBN 978-1107446519 (broché) ; ISBN 978-1107084599

4 : Boraud, Thomas. Matière à décision. Paris : CNRS Éditions, 2015. ISBN 978-2-271-08118-6.

5 : Kahneman, D. et Klein, G. Conditions for Intuitive Expertise: A Failure to Disagree. American Psychologist, 64(6), 515-526. 2009. https://doi.org/10.1037/a0016755.

6 : Hugo, Victor. William Shakespeare. Paris, A. Lacroix, Verboeckhoven et Cie, 1864, chapitre « Les Génies ».

L’article Élaguer le beau pour laisser place à l’extraordinaire est apparu en premier sur Blog binaire.

PDF

13.02.2026 à 07:36

Fragilités du Numérique : la Sobriété au service de la Résilience

Benjamin NINASSI

Comme évoqué à plusieurs reprises sur ce blog, les dynamiques environnementales actuelles du numérique ne sont pas soutenables. Pour rappel, la trajectoire climatique du secteur compatible avec l’accord de Paris, définie par l’Union internationale des télécommunications, demande que les émissions de GES du numérique baissent de 45% entre 2020 et 2030. Sur la même période, […]

L’article Fragilités du Numérique : la Sobriété au service de la Résilience est apparu en premier sur Blog binaire.

Texte intégral (1967 mots)

illustration smartphone ecran casse

Comme évoqué à plusieurs reprises sur ce blog, les dynamiques environnementales actuelles du numérique ne sont pas soutenables. Pour rappel, la trajectoire climatique du secteur compatible avec l’accord de Paris, définie par l’Union internationale des télécommunications, demande que les émissions de GES du numérique baissent de 45% entre 2020 et 2030. Sur la même période, rien qu’en France, la dernière étude ADEME/ARCEP, basée sur les données de 2022, révèle une augmentation de 45 % des émissions de GES du numérique. À partir de ce constat, Benjamin Ninassi nous partage deux chemins possibles.
Antoine Rousseau (éditeur invité) et Thierry Viéville.

Scénario 1 : priorité à l’Adaptation

Premier scénario : on continue comme aujourd’hui et on oublie l’accord de Paris, pour le numérique comme pour les autres secteurs. Les études des spécialistes des sciences de l’environnement nous alertent sur le fait qu’on va progressivement continuer à aller vers un monde de plus en plus fluctuant composé d’évènements climatiques plus fréquents, de plus en plus imprévisibles et de plus fortes magnitudes, compromettant notre capacité à habiter la planète. On peut également s’attendre à une augmentation des tensions internationales, des ruptures d’approvisionnements des flux énergies et/ou matières nécessaires entre autres à la continuité des services numérique.

incendie poteau telecomParmi ces phénomènes, on peut par exemple citer la fragilité du numérique aux inondations (par remontée de nappes, débordement d’eau, submersion marine et ruissellement), à l’augmentation des températures, aux vagues de chaleur, aux vents extrêmes, aux tempêtes et aux feux de forêt, ou encore aux pénuries d’eau induisant des conflits d’usage. Il ne s’agit pas de sciences fictions, certains de ces événements se sont déjà produit récemment sur notre territoire : en aout 2025 l’incendie de l’Aude a détruit plus de 900 poteaux d’acheminement télécom, la tempête Alex dans le département des Alpes-Maritimes en 2020 a provoqué la rupture de réseaux filaires situés en bordure des 85km de routes emportées par les crues.

Pour imaginer un numérique résilient face à ces phénomènes, la première étape consiste à identifier et à cartographier l’ensemble des fragilités du numérique. L’ARCEP a publié en 2025 une première étude sur la résilience des réseaux de communication du territoire français. Il apparaît nécessaire de poursuivre ce type de travaux en englobant l’ensemble des infrastructures, des services numériques, des approvisionnements en équipements et en considérant également, bien entendu, les besoins en compétences nécessaires pour leur fabrication, leur réparation et leur maintien en conditions opérationnelles. Ces vulnérabilités doivent être identifiées sur tous les axes : climatiques, géostratégiques, cybersécurité, souveraineté, etc.
De plus, il ne faut pas oublier les dépendances du numérique. En effet, pour fonctionner il est dépendant d’autres infrastructures : des routes pour accéder aux sites, des alimentations électriques, en eau… Chaque vulnérabilité sur ces infrastructures est également une vulnérabilité pour le numérique, il faut identifier ces fragilités sur l’ensemble des chaînes de dépendances, y compris les dépendances extraterritoriales, puisqu’aujourd’hui nous utilisons majoritairement des ressources numériques hébergées dans des centres de données situés à l’étranger.

Il faut néanmoins s’attendre à ce que l’ensemble de ces vulnérabilités, notamment celles concernant les approvisionnements en énergie et en matière, remette en cause le paradigme actuel de croissance infinie du numérique et nécessite, par exemple, d’éteindre au moins temporairement une partie des infrastructures en cas de délestage électrique.

Scénario 2 : priorité à l’Atténuation

L’autre scénario, plus souhaitable, consiste à espérer un sursaut politique et technologique mondial rendant l’ensemble des secteurs, dont le numérique, soutenable au moins du point de vue climatique. Or, pour réduire les émissions de GES du numérique, comme dans d’autres secteurs, les gains d’efficacité ne suffisent pas. Il semblerait même d’après les dynamiques de croissance des impacts environnementaux du numérique, que les gains d’efficacités réguliers du secteur nous éloignent de sa trajectoire environnementale à cause des effets rebonds et des effets d’accélération. Il apparaît indispensable de cumuler ces gains d’efficacité avec la mise en œuvre de politiques de sobriété. Donc réglementer, réguler. C’est une autre vulnérabilité potentielle du paradigme de croissance « infinie » du numérique, liée cette fois aux évolutions réglementaires. Celles-ci arrivent déjà pour des raisons sanitaires, par exemple, à la suite de la prise de conscience des impacts de l’économie de l’attention sur les plus jeunes, ou aux enjeux géostratégiques de souveraineté.

Dans les deux scénarios, on ne peut que s’attendre à ce qu’inévitablement le numérique finisse à terme par au moins se stabiliser en consommation de ressources, et donc en capacité, voire à décroître. Anticiper ce ralentissement et travailler dès maintenant à la planification des numériques critiques, utiles, accessoires et délétères, en imaginant des manières de prioriser l’utilisation des ressources numériques dans un monde contraint, c’est réduire les vulnérabilités de demain. C’est reprendre la main, pour tenter d’éviter de subir les intermittences sur des services critiques quand elles arriveront.

La Sobriété au service de la Résilience ?

Se préparer à ces fluctuations, tout comme envisager un numérique soutenable qui respecte des limites planétaires, nécessite de hiérarchiser les usages du numérique, à l’instar de ce que le Secrétariat Général à la Planification Écologique (SGPE) a préparé dans la planification environnementale de l’énergie, en proposant une hiérarchisation des usages de la biomasse locale (page 15).

Mais comment imaginer réaliser cette priorisation ?

Faut-il prioriser la connectivité de certains équipements par rapport à d’autres ? (Le smartphone pour les urgences pourrait être prioritaire sur les smart tv ou les casques de réalité virtuelle par exemple) ?
Faut-il prioriser au niveau des usages, en considérant que le numérique au service de la santé, des secours ou de la communication instantanée doit être prioritaire par rapport au divertissement ?
Faut-il prioriser sur le plan technologique, en considérant que l’accès au web traditionnel doit primer sur l’accès à des mondes en réalité virtuelle, ou qu’une recherche classique doit primer sur une recherche via un moteur d’IA générative ?
Faut-il prioriser au niveau des utilisateurs, en considérant qu’un hôpital doit être prioritaire sur l’accès aux infrastructures réseau par rapport à un escape game VR ?
Faut-il plutôt prioriser au niveau des plateformes directement, en considérant qu’un accès aux plateformes de mail ou de messagerie instantanée devrait être prioritaire par rapport aux plateformes de streaming vidéo ?

Mais en fait, qui devrait piloter cette priorisation ? À quels niveaux doit-elle se faire, au niveau européen ? Des États ? Des entreprises ?
Et sur quels critères (utilité sociétale, impact économique, administration publique, etc.) ? Peut-on imaginer que la contribution du service lui-même à la résilience de la société soit prise en compte, et qu’ainsi un service numérique qui participe à rendre la société résiliente devienne prioritaire par rapport à un service numérique qui rendrait la société plus vulnérable aux fluctuations ?

Est-ce que le développement de « lowtech numériques », actuellement une chimère à inventer, pourrait rendre prioritaire un usage parce qu’il fonctionne de manière frugale, indépendamment du type de service qu’il rend ?
Et opérationnellement parlant, comment mettre en œuvre cette priorisation ?

Les architectures complexes des services numériques font qu’un service qui peut paraître « simple » du point de vue de l’utilisateur se retrouve rapidement éclaté en différentes dépendances logicielles hébergées sur différentes infrastructures, situées sur différents territoires. Prioriser un service plutôt qu’un autre n’est pas aussi simple que d’ouvrir ou de fermer un robinet d’eau. Pourtant, en cas de réduction rapide des ressources (par exemple, un délestage électrique), il faudrait idéalement pouvoir éteindre rapidement les services moins prioritaires et conserver les services critiques (les secours, les hôpitaux, etc.).

Comment mettre en œuvre cette priorisation avec des services éclatés entre plusieurs centres de données ? Des services dépendants de briques logicielles extraterritoriales ? des services nécessitant certains types d’équipements spécifiques (GPU IA, casques VR…) sujet à des ruptures d’approvisionnement ?

De plus, un service numérique ça n’est pas qu’une infrastructure de production, c’est également des ressources matérielles dédiées à son développement, aux tests techniques, à la qualification fonctionnelle, à l’hébergement des codes sources, aux backups… est-ce que si un usage est considéré comme prioritaire, l’ensemble des ressources dont il a besoin le deviennent aussi ? Ou bien peut-on imaginer descendre à un niveau de priorisation où l’instance de production du service d’appel aux secours reste en ligne, mais ses instances de qualification et de tests sont arrêtées par manque de ressources ?

La sobriété est ainsi un outil non seulement au service de l’atténuation des impacts, mais également de la résilience. Elle permet à la fois de se préparer aux fluctuations et d’envisager un numérique soutenable, respectueux des limites planétaires. Mais déployer la sobriété nécessite à la fois des choix de société et des innovations technologiques pour la mettre en œuvre.

Réfléchir à cette priorisation, c’est précisément une question d’intérêt général, de gestion du bien commun, de « politique » (au sens noble et non partisan du terme).

La question de fond finalement, n’est-elle pas tout simplement : comment construire un numérique plus robuste, plus souhaitable ?

Benjamin Ninassi, Inria.

L’article Fragilités du Numérique : la Sobriété au service de la Résilience est apparu en premier sur Blog binaire.

PDF

06.02.2026 à 07:03

IA collaborative et application médicale

Thierry VIEVILLE

Cause commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Île-de-France et sur Internet partout dans le monde. Elle donne la parole à qui veut aider le monde à aller mieux et contribue à décloisonner la culture et les savoirs. Ses contenus sont partagés comme des biens communs, […]

L’article IA collaborative et application médicale est apparu en premier sur Blog binaire.

Texte intégral (694 mots)
©CC-BY

Cause commune est « la voix des possibles » une radio généraliste libre et indépendante sur les ondes en Île-de-France et sur Internet partout dans le monde.
Elle donne la parole à qui veut aider le monde à aller mieux et contribue à décloisonner la culture et les savoirs.
Ses contenus sont partagés comme des biens communs, pour toutes et tous.

 

Quand on se questionne sur l’IA, on pense tout de suite à ce qu’elle crée, presque aussi bien que des humains. Ici, Mathieu Even,  d’Inria et de l’INSERM, montre un moyen inédit d’utiliser  l’apprentissage automatique. Il partage sa thèse sur la manière de fédérer plusieurs apprentissages algorithmiques, avec leurs modèles, pour en inférer les causes d’un phénomène. Il applique cela au domaine médical. Animée par Serge Abiteboulcette émission radiophonique aborde ces questions tout en restant accessible et en expliquant en quoi ces notions précises peuvent révolutionner le domaine, en lien avec l’IA.  Chloé Mercier et Thierry Viéville.

— L’Apprentissage Fédéré (Federated Learning) avec le concept de décentralisation des données d’entraînement
— Confidentialité et sécurité des données grâce aux techniques de « confidentialité différentielle »
— Défis de l’informatique distribuée : l’asynchronie et l’absence de centralité
— L’inférence causale dans le domaine médical pour éviter les fausses pistes des corrélations
— La médecine personnalisée entre espoirs et freins

L’article IA collaborative et application médicale est apparu en premier sur Blog binaire.

PDF
10 / 10
 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Christophe LEBOUCHER
Michel LEPESANT
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Blog Binaire
Christophe DESCHAMPS
Dans les Algorithmes
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Fake Tech (C. LEBOUCHER)
Romain LECLAIRE
Tristan NITOT
Francis PISANI
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Blogs Mediapart
Bondy Blog
Dérivation
Économistes Atterrés
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
Laura VAZQUEZ
XKCD
🌓