LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Binaire
L'informatique : science et technique au coeur du numérique

Blog Binaire


▸ les 10 dernières parutions

21.11.2025 à 07:03

Les 10 problèmes de Hilbert de la cybersécurité.

Charles CUVELLIEZ

À la fin du XIXe siècle, le mathématicien David Hilbert posa une liste de 23 problèmes (l’hypothèse de Riemann, par exemple) dont la résolution serait d’un intérêt fondamental pour les mathématiques : ils ont orienté fortementles recherches depuis lors. Dans le même esprit, le Clay Mathematics Institute, à la fin du XXe siècle, décida d’attribuer […]

L’article Les 10 problèmes de Hilbert de la cybersécurité. est apparu en premier sur Blog binaire.

Texte intégral (4421 mots)
À la fin du XIXe siècle, le mathématicien David Hilbert posa une liste de 23 problèmes (l’hypothèse de Riemann, par exemple) dont la résolution serait d’un intérêt fondamental pour les mathématiques : ils ont orienté fortementles recherches depuis lors. Dans le même esprit, le Clay Mathematics Institute, à la fin du XXe siècle, décida d’attribuer un prix d’un million de US dollars à qui trouverait une solution satisfaisante à l’un des 7 problèmes proposés. En cybersécurité il y a désormais leur équivalent (sans encore de prix ni de porte-drapeau) : on pourrait les nommer les 10 problèmes de Hilbert de la cybersécurité, pour en montrer leur importance fondamentale pour le futur de la cybersécurité. Par  Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles et Jean-Jacques Quisquater, (Ecole Polytechnique de Louvain, Université de Louvain), endossé par Benjamin Ninassi et Serge Abiteboul.

Ils sont posés par l’Académie américaine des sciences : ce sont 10 problèmes techniques dont la résolution aurait un impact significatif sur la sécurité pratique des cybersystèmes. A la différence des problèmes de Hilbert, ceux-ci sont souvent causés ou entretenus par des facteurs humains ou sociétaux et des motivations inadaptées. Par contre, ils ne peuvent attendre un siècle pour être résolus. Ils sont exacerbés par la croissance fulgurante et continue de la production et de l’utilisation des technologies qui ont besoin de cybersécurité. Leur quasi-omniprésence dans les systèmes d’importance sociétale rend leur traitement urgent.

Développement de systèmes sécurisés

Il existe peu de pratiques qui démontrent que les composants logiciels et micrologiciels respectent tous les critères de sécurité. Les avancées vont des outils et bonnes pratiques aux techniques de modélisation, à l’amélioration des langages de programmation, à la gestion des preuves et au renforcement des compétences des développeurs et des évaluateurs.

Mais ces approches restent limitées.

La pression pour réduire les délais de développement, conjuguée à l’idée que la sécurité est coûteuse, lente et difficile à mesurer, décourage les développeurs. Sans méthodes fiables d’évaluation de la qualité et de la sécurité, aucun incitant suffisant n’émerge, et personne n’a intérêt à les créer.

Le défi fondamental est donc de concevoir des systèmes sécurisés dès leur conception (security by design) et capables d’évoluer de manière sécurisée (security by default).

────────────
Comment concevoir de manière fiable des systèmes qui sont sécurisés dès le départ (la sécurité by design) et les faire évoluer en toute sécurité ?
────────── 

Le problème difficile à résoudre est donc le suivant : « Comment concevoir de manière fiable des systèmes qui sont sécurisés dès le départ (la sécurité by design) et les faire évoluer en toute sécurité en réponse à l’évolution des besoins (security by default) ? »

La composition sécurisée

Les systèmes complexes sont construits en combinant des composants et des services qui diffèrent par leurs niveaux de sécurité car développés par des équipes aux expertises variables. L’objectif de la composition sécurisée, c’est d’arriver à avoir confiance dans la sécurité du système entier en ne disposant que de l’évaluation de sécurité des différentes parties qui le composent.

Réussir une composition sécurisée dépendra des propriétés techniques de chaque composant et ensuite des choix de conception lors de l’intégration et des dépendances croisées. Ces composants sont de différente nature : système d’exploitation sous-jacent, librairie logicielles open source utilisée, dépendance à d’autres systèmes physiques dans les cas d’OT (Operational Technology).

Chaque composant peut ne pas être la dernière version, pour des raisons de rétrocompatibilité, d’indisponibilité, d’impossibilité de mettre à jour les dépendances sur base des dernières versions de chaque composant. Au final, aussi, on reposera également sur les compétences des concepteurs et des développeurs, ainsi que sur la connaissance approfondie de tous les éléments du système quand ils sont assemblés.

────────────
« Quels sont les principes techniques permettant d’intégrer de manière sécurisée des systèmes à grande échelle à partir de composants et de services divers ?
────────────

Diverses plateformes de développement et référentiels (par exemple GitHub) donnent accès à des composants et services réutilisables, qui peuvent aider les développeurs à assembler des systèmes, à organiser des ressources et à appliquer des tests automatisés pendant l’intégration.

Mais ce à quoi il faudrait arriver, c’est une conception architecturale qui réduit les interdépendances entre les composants et favorise la résilience. Ainsi, une défaillance dans un composant ne se répercute pas sur les autres.

C’est vrai, on peut tester la résilience en injectant des défaillances dans les systèmes mais ce ne sont que des tests (non exhaustifs): ils interviennent à un stade avancé du processus et s’ils révèlent quelque chose, c’est trop tard ! La composition sécurisée, elle justement, se fait à la conception, au début.

Il est très complexe d’ajouter la résilience à un stade avancé du processus d’ingénierie.

La question difficile est donc la suivante : « Quels sont les principes techniques permettant d’intégrer de manière sécurisée des systèmes à grande échelle à partir de composants et de services divers ? »

La chaîne d’approvisionnement

Après avoir assuré (ou pour l’assurer) une composition sécurisée des systèmes complexes, la gestion sécurisée des sous-traitants devient un enjeu majeur car les systèmes complexes intègrent des composants issus de nombreux fournisseurs différents. Ces éléments peuvent provenir de sociétés commerciales, de projets open source, de développeurs indépendants, ou de services cloud, chacun soumis à des réglementations variées selon leur pays ou secteur ou à des niveaux des compétences différents

Les fournisseurs, soucieux de protéger leurs secrets commerciaux, hésitent souvent à divulguer des détails sur leurs composants, même à leurs clients ou aux autres acteurs de la chaîne d’approvisionnement. Les mises à jour sont essentielles pour corriger des vulnérabilités mais exigent ensuite des tests approfondis de compatibilité. Si une mise à jour fait défaut, les composants non sécurisés doivent être isolés ou encapsulés pour ne pas compromettre l’ensemble du système en cas de faille.

────────────
Comment peut-on développer et gérer en toute sécurité des systèmes logiciels et matériels complexes lorsque leurs composants et services sont issus de sources variées ?
────────────

Les SBOM (Software Bill of Materials) apportent une partie de la solution, mais restent limités et ne couvrent qu’un aspect des risques potentiels. Seule une petite partie des projets open source, malgré leur promesse d’une évaluation directe et d’une répartition de la maintenance sur toute une communauté, fait l’objet d’une attention soutenue en matière de qualité et de sécurité du code.  À ce jour, il n’existe pas de modèle fiable de chaîne d’approvisionnement capable de garantir, via des pratiques solides et des preuves, que tous les composants et services utilisés répondent aux normes de sécurité exigées.

La question centrale ou le troisième problème de Hilbert est : « Comment peut-on développer et gérer en toute sécurité des systèmes logiciels et matériels complexes lorsque leurs composants et services sont issus de sources variées ? »

Les incitants économiques

Les fournisseurs de produits de cybersécurité sont rarement tenus responsables, même lorsque leurs produits sont de mauvaise qualité et il existe peu d’incitations à récompenser les offres de haute qualité. Dans certains cas, la réputation de la marque et la demande éclairée des clients peuvent encourager de meilleures pratiques, mais il s’agit là d’exceptions plutôt que de la règle. Les fournisseurs se sont opposés à une réglementation plus stricte en arguant qu’une responsabilité accrue étoufferait l’innovation et nuirait à la compétitivité nationale.

────────────
Comment faire assumer la responsabilité et l’obligation de rendre des comptes de manière à encourager des niveaux de sécurité plus élevés et une innovation rapide ?
────────────

Qu’on se souvienne de la mise à jour de Crowdstrike qui a paralysé de nombreuses organisations et pour laquelle aucune responsabilité ne semble engagée à ce jour . Si la réputation ou la demande de certains clients peut encourager de meilleures pratiques, cela demeure exceptionnel. Les fournisseurs privilégient l’auto‑certification comme alternative à la responsabilité, mais cette approche reste limitée : être conforme à une norme ne reflète pas toujours la sécurité réelle et peut être manipulée.

La difficulté à mesurer objectivement la sécurité complique l’évaluation des progrès. L’instauration d’une responsabilité juridique pour certaines failles a été proposée, mais elle se heurte à de forts obstacles, notamment l’inadéquation de normes fixes face aux évolutions rapides et le coût élevé des litiges, inaccessibles à la plupart des utilisateurs lésés suite à un problème.

Le problème se pose donc ainsi : « Comment faire assumer la responsabilité et l’obligation de rendre des comptes de manière à encourager des niveaux de sécurité plus élevés et une innovation rapide ? »

L’interface homme-machine

Les interfaces humaines de nombreux systèmes informatiques sont souvent confuses et mal conçues, y compris pour des experts. Ce manque de clarté affecte l’authentification, la gestion de la confidentialité, la configuration des accès et la réponse aux alertes, faisant des erreurs humaines la principale source de failles de sécurité.

Leurs concepteurs misent souvent trop sur la formation et la sensibilisation des utilisateurs contre les attaquants qui exploitent les vulnérabilités humaines. Or, les solutions les plus efficaces reposent sur des interfaces mieux conçues, adaptés aux capacités réelles des utilisateurs plutôt que compensés par eux.

Il faut une science de la conception sécurisée, une sorte d’ergonomie cyber centrée sur l’utilisateur, intégrant la sécurité à l’expérience globale : protection des applications, confidentialité et gouvernance des données. Cela implique de reconnaître les limites humaines et de veiller à ce que les utilisateurs et les opérateurs puissent plus facilement surveiller, comprendre et contrôler les données collectées et partagées par leurs systèmes. L’un des principaux défis consiste à y parvenir sans submerger les utilisateurs par la complexité, sans réduire l’efficacité et sans créer involontairement de nouvelles attaques par une plus grande transparence.

────────────
Comment concevoir des systèmes de manière à réduire la capacité des cybercriminels à exploiter le comportement humain  ?
──────────── 

Le problème est donc le suivant : « Comment concevoir des systèmes de manière à réduire la capacité des cybercriminels à exploiter le comportement humain pour accéder aux systèmes ? »

Fiabilité de l’information

Les plateformes numériques permettent un ciblage précis à grande échelle, ce qui facilite la manipulation des opinions et les escroqueries. Ces plateformes collectent d’énormes quantités de données afin d’entraîner des algorithmes en ce sens, ne nous voilons pas la face.

Les technologies de détection s’efforcent de suivre le rythme des manipulations et autres deepfakes. Ce déséquilibre est accentué par la nature évolutive des environnements médiatiques en ligne.

Les plateformes sont motivées par des incitations commerciales visant à maximiser l’engagement des utilisateurs, ce qui conduit les algorithmes à amplifier les contenus préjudiciables ou trompeurs.

────────────
Comment les réseaux sociaux peuvent-ils soutenir la liberté d’expression et l’échange d’idées tout en protégeant la sécurité et la vie privée des utilisateurs et en les sensibilisant  ?
────────────

Une plus grande responsabilité est nécessaire quant à la manière dont les plateformes collectent et utilisent les données personnelles pour alimenter les algorithmes et la publicité. Mais force est de constater qu’on en est loin, à part le DSA en Europe que les USA combattent de toutes leurs forces. Les méthodes de détection des deepfakes et les techniques de tatouage numérique doivent être améliorées.  Ce serait un bon début mais c’est urgent de commencer. Les deepfakes ne concernent plus seulement les réseaux sociaux : ils inondent les plateformes de ventes en ligne, les applications de rencontres, les médias classiques.

Et bientôt, il ne sera même plus question de travestir le réel avec un deepfake lorsque des outils comme Sora (génération de vidéo par IA) rendront ringards la publication de vidéos captées dans le monde physique.

Le problème est donc le suivant : « Comment les réseaux sociaux peuvent-ils soutenir la liberté d’expression et l’échange d’idées tout en protégeant la sécurité et la vie privée des utilisateurs et en les sensibilisant aux fausses informations ? »

L’ubiquité des systèmes physiques

Les systèmes cyber-physiques (CPS) sont ceux qui interviennent dans les infrastructures civiles, les transports, et les appareils connectés à l’Internet des objets (IoT). Ce sont les hubs réseau, les caméras de sécurité, les thermostats, les téléviseurs, des systèmes de contrôle domestiques et industriels et autres capteurs. Ces systèmes sont vulnérables au départ parce qu’ils étaient traditionnellement considérés comme isolés des réseaux, ce qui a conduit à des approches techniques sujettes à normes de sécurité moins élevées que celles des systèmes informatiques traditionnels.

La conception de CPS sécurisés nécessite une expertise à la fois en matière de matériel et de logiciels. Mais la plupart des implémentations de CPS ne disposent pas de professionnels compétents dans tous ces domaines simultanément. Les CPS ne prennent souvent pas en charge les mises à jour à distance pour l’application de correctifs ou de patches ce qui amplifie la difficulté de repenser la conception du matériel et des logiciels déjà en place de manière sécurisée. De nombreux CPS fonctionnent pour des contrôles en temps réel, ce qui crée des dépendances internes complexes et complique le renforcement de la sécurité et la résilience, tant au niveau individuel que des réseaux distribués.

────────────
Comment mieux sécuriser l’Internet des objets et tous les appareils technologiques à vocation opérationnelle qui font tourner des systèmes ?
──────────── 

Le problème est donc le suivant : « Comment mieux sécuriser l’Internet des objets et tous les appareils technologiques à vocation opérationnelle qui font tourner des systèmes dans le monde réel »

Intelligence Artificielle

L’efficacité de l’IA dépend de nombreux facteurs, notamment de la qualité des données d’entraînement. Ces données sont collectées de manière opportuniste, mal entretenues, biaisées ou inexactes. Le recours aux données d’entraînement pose des défis complexes qui vont au-delà de la qualité et de la sécurité, tels que les questions de droits d’auteur et de propriété des données. Même les utilisateurs avancés ne peuvent que se forger une opinion limitée sur les systèmes d’IA. Ils négligent alors le large éventail de faiblesses et de vulnérabilités que ces systèmes présentent souvent.

────────────
Comment amener l’intelligence artificielle dans le cycle de développement logiciel sécurisé?
────────────

Nos biais cognitifs, telles que le biais d’automatisation, pousse les gens à faire trop confiance aux décisions des systèmes autonomes. La surface d’attaque est enfin trop vaste et comprend des vulnérabilités dans les données d’entraînement, l’architecture réseau et les entrées opérationnelles, en plus des risques de cybersécurité conventionnels du logiciel.

Par conséquent, les développeurs d’IA doivent donner la priorité à la responsabilité humaine explicite et garantir des résultats sécurisés dans leurs conceptions.

Le problème est donc le suivant : «Comment amener l’intelligence artificielle dans le cycle de développement logiciel sécurisé »

Sécurité Opérationnelle

On observe partout dans le monde une dépendance croissante vis-à-vis des systèmes à grande échelle tels que les infrastructures cloud fournies par Amazon Web Services, Azure et Google, ainsi que des applications majeures telles que les moteurs de recherche et les messageries électroniques de Microsoft et Google. Les utilisateurs ont une visibilité limitée sur la configuration de sécurité de ces systèmes et ne peuvent que se fier aux garanties fournies par les fournisseurs. Pour maintenir leur résilience face aux attaques et aux pannes, ces systèmes doivent être capables d’isoler les composants compromis, afin de permettre la poursuite de leur fonctionnement, et à terme, leur rétablissement. Toutefois, cela n’est possible que si les attaques sont détectées rapidement, si leur impact potentiel est évalué sans délai et si des mesures défensives appropriées sont prises.

Ce qui rend la tâche difficile ? La sécurité opérationnelle dans les grandes organisations se heurte à de nombreuses difficultés, notamment en matière de prévention, de détection, de réponse et de rétablissement. Une détection et une réponse efficaces exigent des renseignements sur les menaces, une pratique continue, des outils bien développés et une connaissance approfondie des réseaux et des applications utilisés dans l’organisation. L’identification des attaques et la compréhension de leurs effets peuvent être coûteuses et sujettes à des erreurs.

La récupération (recover) est un aspect essentiel de la sécurité, mais de nombreuses organisations ont du mal à y parvenir, comme le montrent les nombreux incidents liés aux ransomwares. Les systèmes sociétaux essentiels reposent souvent sur un petit nombre d’infrastructures clés, telles que les services cloud, qui peuvent devenir des points uniques de défaillance catastrophique, menaçant la sécurité, la disponibilité et l’intégrité.

────────────
Comment la résilience des systèmes opérationnels, les étapes de respond and recover, au sein des grandes organisations privées et gouvernementales, peut-elle être améliorée dans un environnement de menaces actives  ?
───────────

 

Le problème est donc le suivant : « Comment la résilience des systèmes opérationnels, les étapes de respond and recover, au sein des grandes organisations privées et gouvernementales, peut-elle être améliorée dans un environnement de menaces actives et de conséquences importantes ? »

Evaluation des risques

Évaluer la sécurité d’un système informatique est un défi majeur. Contrairement aux systèmes physiques, où certaines propriétés peuvent être facilement mesurées et testées, il existe très peu de critères mesurables de sécurité fiables et reproductibles. Souvent, on privilégie des aspects plus simples à mesurer, comme la performance ou la disponibilité, au détriment de la sécurité, qui est pourtant essentielle mais plus difficile à quantifier.

────────────
 Comment mieux évaluer l’ensemble des risques cyber, depuis les vulnérabilités techniques et les surfaces d’attaque jusqu’aux conséquences opérationnelles, à la résilience face aux attaques  ?
────────────

Si ce risque est complexe à évaluer, c’est parce qu’il dépend du contexte et des attaquants. Sous-estimer leurs capacités ou leur motivation peut avoir de lourdes conséquences. Les risques cyber ne se comportent pas comme les risques habituels (incendies, inondations) qu’on peut évaluer avec des modèles actuariels : ils reposent sur des corrélations cachées (par exemple des composants communs dans les chaînes d’approvisionnement) et des informations secrètes, comme les techniques des attaquants qui s’adaptent. Ainsi, une faille minime dans un module secondaire peut suffire à mettre en péril tout un système mal conçu. Les tests classiques « boîte noire », sans accès aux composants internes, ne garantissent pas de détecter toutes les failles. Les résultats peuvent d’ailleurs être trompeurs, à cause d’états internes persistants, de comportements imprévisibles ou de logiques dissimulées.

De plus, les fournisseurs montrent souvent peu de transparence, obligeant les clients à faire confiance à des évaluations tierces ou aux promesses du fournisseur lui-même.

En pratique, les organisations se reposent sur les déclarations des éditeurs, parfois complétées par des exercices de red team qui simulent des attaques. Mais cette approche reste limitée, coûteuse et demande une expertise spécialisée. Le logiciel open source peut offrir plus de confiance, grâce à la transparence et aux contributions collaboratives. Cependant, pour être efficace, il faut s’appuyer sur des évaluations solides et objectives, réalisées à la fois par les fournisseurs et par des experts indépendants.

Le problème difficile est donc: « comment mieux évaluer l’ensemble des risques cyber, depuis les vulnérabilités techniques et les surfaces d’attaque jusqu’aux conséquences opérationnelles, à la résilience face aux attaques et aux caractéristiques des menaces ? »

Combien de temps ?

A la différence des problèmes de Hilbert, ces problèmes difficiles cyber ne disposent pas d’un siècle pour être résolu. Chacun d’eux est un point de défaillance critique du fonctionnement de nos sociétés modernes. Les résoudre, c’est aussi imaginer plus de résilience en cas de défaillance matérialisée. Pour beaucoup de ces problèmes on aimerait bien disposer de métriques standards pour pouvoir rigoureusement comparer. Il est peu probable, hélas, que ceci se réalise de façon aussi simple dans ces cas-ci, car il faudra ‘abord formuler ces problèmes de façon bien plus rigoureuse pour affirmer qu’ils ont été « résolus » et de plus, alors que le cas mathématique le nombre d’axiomes est limités, ici l’équivalent n’est pas limité, les attaques, à formaliser.

Pour l’instant, on n’est nulle part.

Pour en savoir plus :

National Academies of Sciences, Engineering, and Medicine. 2025. Cyber Hard Problems: Focused Steps Toward a Resilient Digital Future. Washington, DC: The National Academies Press. https://doi.org/10.17226/29056.

L’article Les 10 problèmes de Hilbert de la cybersécurité. est apparu en premier sur Blog binaire.

PDF

14.11.2025 à 07:18

De l’impact de l’IA sur les auteurs

Thierry VIEVILLE

La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici  Stéphanie Le Cam, Enseignante-Chercheuse et Directrice de la Ligue des Auteurs Professionnels aborde l’enjeu du métier d’autrice ou auteur à l’heure de l’IA. Interview réalisée Erwan Le Merrer, président du conseil scientifique de […]

L’article De l’impact de l’IA sur les auteurs est apparu en premier sur Blog binaire.

Texte intégral (1986 mots)
Photo personnelle
La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’intelligence artificielle (IA) sur les métiers. Ici  Stéphanie Le Cam, Enseignante-Chercheuse et Directrice de la Ligue des Auteurs Professionnels aborde l’enjeu du métier d’autrice ou auteur à l’heure de l’IA. Interview réalisée Erwan Le Merrer, président du conseil scientifique de la SIF, Serge Abiteboul et Pierre Paradinas.

Pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ?

Je m’appelle Stéphanie Le Cam. Je suis maître de conférences en droit privé à l’Université Rennes 2, où je travaille plus particulièrement sur le droit d’auteur ainsi que sur le régime social des artistes-auteurs. Parallèlement à mon activité universitaire, j’occupe les fonctions de directrice générale de la Ligue des auteurs professionnels, une organisation qui rassemble aujourd’hui un peu plus de 2 800 autrices et auteurs du livre.

En quoi pensez-vous que l’IA a déjà transformé votre métier ?

En tant qu’enseignante-chercheuse, il est évident que l’intelligence artificielle va transformer en profondeur notre métier. Elle interroge d’abord nos pratiques pédagogiques, notamment les modalités d’évaluation. Demander à un étudiant de rédiger une copie n’a plus le même sens si l’on sait qu’il peut recourir à un modèle d’IAG pour la produire. Cela nous oblige à réfléchir à la finalité de l’enseignement, à la place de l’examen, mais aussi à la manière dont nous transmettons le savoir, longtemps pensée sur un mode très vertical.

Sur le plan de la recherche, l’impact est tout aussi direct. Mes travaux portent sur les transformations du travail de création et sur la précarité structurelle des métiers de la création. Or, l’arrivée de l’IA générative agit comme un véritable séisme dans ce champ : elle redéfinit les conditions de production et les équilibres juridiques et économiques. Elle met à mal de nombreux professionnels de la création et de l’information en les privant d’activités et de rémunérations et en les fragilisant encore plus.

Enfin, dans mes fonctions de directrice générale de la Ligue des auteurs professionnels, je mesure chaque jour à quel point les auteurs sont concernés, en particulier les illustrateurs et traducteurs. L’IA bouleverse déjà leur pratique et leur économie, et il est certain que dans les années à venir, cette question occupera une place centrale dans mon action syndicale.

« Sélection naturelle » (huile sur toile) du peintre norvégien Tor-Arne Moen. ©CC @commons.wikimedia.org

A quels changements peut-on s’attendre dans le futur ? Par exemple, quelles tâches pourraient être amenées à s’automatiser? A quel horizon ?

D’abord, en tant qu’enseignante-chercheuse, l’IA s’impose comme un outil facilitateur. Dans le montage de projets de recherche, elle permettrait d’aller plus vite pour compiler des données ou préparer des dossiers, mais je ne suis pas convaincue par la réalité de cette accélération, puisqu’elle doit aussi nous obliger à plus de contrôle, plus de vigilance… Si tant est qu’elle existe, elle n’est sans doute pas une bonne chose : la recherche repose aussi sur des temps longs, nécessaires pour construire une véritable analyse et une intelligence collective et définir ensemble les orientations. Si, demain, l’évaluation des projets devait être confiée à des algorithmes, nous perdrions une part essentielle de la délibération académique, et ce ne serait pas vertueux.

Dans l’enseignement, je suis prudente : recourir à l’IA est très risqué, car elle peut fragiliser l’évaluation des étudiants. En revanche, le développement de l’oralité dans les examens pourrait être une piste intéressante. On reproche souvent à l’université de ne pas y consacrer assez de place ; l’IA pourrait paradoxalement nous inciter à la réhabiliter. Enfin, il est certain que des tâches de recherche comme la veille médiatique, juridique ou jurisprudentielle sont déjà de plus en plus automatisées via les bases de données en ligne qui sont mises à la disposition des chercheurs. Cela peut représenter un gain, à condition de rester très vigilant sur la fiabilité et l’intégrité des données produites.

Ensuite, du point de vue des métiers que je représente à la Ligue des auteurs professionnels, l’impact est encore plus brutal. Les illustrateurs, en particulier, se trouvent déjà confrontés à une forme de remplacement massif. La concurrence est rude et le seuil des prix via les outils d’IA est va baisser, ce qui menace directement leur activité. Si nous n’anticipons pas la mise en place d’une vraie protection, beaucoup de professionnels vont être évincés, ce qui est inacceptable.

Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes?

Je ne raisonne pas directement en termes « d’embauche », mais plutôt en termes de compétences attendues chez les étudiants que je forme ou chez les professionnels que je côtoie. À l’université, ce que j’attends avant tout, ce n’est pas une expertise technique pointue en informatique ou en intelligence artificielle, mais une capacité à adopter un regard critique et à comprendre les usages de ces outils : savoir quand ils peuvent être utiles, mais aussi percevoir leurs limites et leurs biais.

Dans le monde du livre et de la création, la logique est un peu différente. Les auteurs et autrices doivent savoir en appréhender les mécanismes pour défendre leurs droits et leurs métiers. A titre d’exemple, celui qui l’utilise sans réflexion dans un processus de création, met en péril sa qualité d’auteur et s’expose à des risques juridiques importants. Ce que j’attends donc, ce n’est pas tant une compétence technique qu’une conscience des enjeux : économiques, juridiques, éthiques.

Pouvez-vous préciser quelles formations, à quel niveau?

Dès le lycée, il est important que les élèves acquièrent une culture générale de l’intelligence artificielle : comprendre comment fonctionnent les grands modèles, quelles données ils utilisent, quels biais ils véhiculent et quelles questions éthiques ou juridiques ils posent. Cela ne nécessite pas de compétences techniques avancées, mais bien une initiation critique, indispensable pour tout citoyen aujourd’hui.

Au niveau universitaire, il s’agit d’accompagner les étudiants afin qu’ils ne perdent jamais leur autonomie de pensée ni leur capacité de rédaction et de réflexion.

Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables?

A mon sens, l’enjeu est civilisationnel et concerne toutes les professions.

Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique?

Je ne crois pas que la question doive se réduire à un choix entre « former des informaticiens à nos métiers » ou « rendre nos spécialistes compétents en informatique ». Bien sûr, les profils d’informaticiens sont précieux, mais à condition qu’ils aient été sensibilisés à d’autres champs : l’éthique, les sciences cognitives, la psychologie sociale ou encore la psychodynamique du travail. Autant de disciplines qui permettent de penser ce que l’IA fait à nos manières de raisonner, de produire du savoir et de transmettre.

Mais je crois surtout qu’il faut ouvrir le spectre au-delà des seuls informaticiens. Les enjeux environnementaux, par exemple, sont majeurs : l’IA a une empreinte énergétique considérable, et il est nécessaire de former aussi des experts capables de mesurer et de réguler cet impact.

Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables ?

Pour les personnes déjà en poste, je crois que les besoins en formation continue sont exactement les mêmes. Il ne s’agit pas uniquement d’apprendre à manier des outils techniques, mais surtout d’acquérir une culture critique de l’IA.

Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA ?

Je commencerais par dire qu’il serait temps d’arrêter d’aspirer toutes les données sans aucune considération pour leur coût réel, ni pour la valeur du travail qui se cache derrière elles. Chaque donnée extraite pour entraîner un modèle d’IA correspond au travail d’enseignants-chercheurs, d’auteurs, d’illustrateurs, de traducteurs. Or, ces mêmes modèles viennent ensuite concurrencer directement leurs activités. Dans cette logique, il faut envisager d’abord une indemnisation des préjudices subis par l’ensemble des créateurs et des créatrices. Nous devons aussi partir du principe qu’il est encore beaucoup trop tôt de parler de contractualisation et de rémunération au sujets des usages futurs. Aucune rémunération gérée collectivement ne sera suffisante pour permettre aux professionnels de continuer à vivre dignement de leur activité. Il faut donc songer en parallèle à la mise en place d’un statut professionnel fort pour les créateurs et créatrices.

Ce n’est qu’à condition d’accorder la priorité à une création et une information durables que nous relèverons ce défi et continuer de développer dans un cadre équitable, respectueux des créateurs et bénéfique pour la société dans son ensemble.

Interview de Stéphanie Le Cam, Enseignante-Chercheuse et Directrice de la Ligue des Auteurs Professionnels,  réalisée par Erwan Le Merrer.

L’article De l’impact de l’IA sur les auteurs est apparu en premier sur Blog binaire.

PDF

11.11.2025 à 14:12

Quantum & Intelligence Artificielle

Serge ABITEBOUL

Vers une convergence des ruptures technologiques ? Nous avons le plaisir de vous inviter à une matinée consacrée aux technologies quantiques et d’intelligences artificielles, deux transformations majeures dont la complémentarité ouvre des perspectives inédites. La session ouvrira avec un état de l’art scientifique porté par deux experts reconnus du domaine : • Jean Senellart (Docteur […]

L’article Quantum & Intelligence Artificielle est apparu en premier sur Blog binaire.

Texte intégral (548 mots)

Vers une convergence des ruptures technologiques ?

Nous avons le plaisir de vous inviter à une matinée consacrée aux technologies quantiques et d’intelligences artificielles, deux transformations majeures dont la complémentarité ouvre des perspectives inédites.

La session ouvrira avec un état de l’art scientifique porté par deux experts reconnus du domaine :
Jean Senellart (Docteur en Informatique Linguistique de l’Université de Paris VII)
Virginie Ehrlacher (CNRS, spécialiste de la simulation quantique et des modèles hybrides)

Une table ronde réunira des acteurs industriels engagés dans le développement des infrastructures et plateformes quantiques :

👉 Ils partageront leurs visions sur l’ouverture, la mutualisation et les potentiels applicatifs à court terme.

  • IBM évoquera son partenariat avec HSBC autour d’applications financières hybrides IA-quantique.
  • Orange présentera ses travaux sur la détection de malware face aux cyber menaces et les services de communication quantique sécurisés.

Cet événement s’adresse aux décideurs et aux experts souhaitant anticiper les trajectoires croisées de l’IA et du quantique et discuter des enjeux stratégiques pour l’économie numérique.

📅 Date : 8 décembre 2025 
📍 Lieu : BivwAk! (3 rue Rossini 75009 Paris) ou en ligne
⏰ Horaires : 9h00 – 12h00  

 INSCRIPTION

 

🎯 Objectifs de l’événement

  • Explorer les synergies potentielles entre l’informatique quantique et les technologies d’Intelligence Artificielle.
  • Identifier des cas d’usage concrets avancés.
  • Permettre un échange entre le monde économique et le monde académique à la pointe de ces sujets.

L’article Quantum & Intelligence Artificielle est apparu en premier sur Blog binaire.

PDF

07.11.2025 à 07:48

Vers un risque d’effondrement des IA génératives ?

Thierry VIEVILLE

Que se passe t’il si un modèle d’intelligence artificielle (IA) générative s’entraine sur une proportion de plus en plus importante d’images auto-générées ? C’est à cette question que Quentin Bertrand, chargé de recherche et l’équipe-projet Malice du centre Inria de Lyon ont tenté de répondre. Pierre Paradinas et Thierry Viéville. L’International Conference on Learning Representations […]

L’article Vers un risque d’effondrement des IA génératives ? est apparu en premier sur Blog binaire.

Texte intégral (2357 mots)
Que se passe t’il si un modèle d’intelligence artificielle (IA) générative s’entraine sur une proportion de plus en plus importante d’images auto-générées ? C’est à cette question que Quentin Bertrand, chargé de recherche et l’équipe-projet Malice du centre Inria de Lyon ont tenté de répondre. Pierre Paradinas et Thierry Viéville.
Image générée via le modèle génératif Dall.E. Prompt utilisé : « image illustrant une IA s’entraînant sur des images générées par d’autres IA ».

L’International Conference on Learning Representations 2024 (ICLR 2024) est un événement rassemblant acteurs du monde économique et scientifiques du monde entier autour des avancées en Deep Learning. Lors de cette conférence, Quentin Bertrand, Joey Bose, Alexandre Duplessis, Marco Jiralerspong et Gauthier Gidel ont présenté un article intitulé « On the stability of iterative retraining of generative models on their own data ».

Dans celui-ci, les auteurs explorent ainsi les conditions dans lesquelles un modèle pourrait « s’effondrer » (collapse), un phénomène où, à force d’auto-alimentation, l’IA produit des résultats de plus en plus biaisés, homogènes, appauvris et inexact. Les résultats de cette étude pourraient bien apporter un nouvel éclairage sur un enjeu central des modèles génératifs. Explications.

L’apprentissage des modèles génératifs

Un modèle génératif d’images synthétiques ne crée pas d’illustrations à partir de rien. En effet, des modèles connus comme MidJourney, Stable Diffusion ou DALL·E, apprennent en étant alimentés par des jeux de données massifs (images, légendes, métadonnées, titre etc.). Ces données sont extraites de diverses sources sur le Web, souvent via des processus automatisés comme le web scraping, ou d’autres techniques d’acquisition de données. Une fois collectées, elles sont structurées et nettoyées pour l’entraînement de l’IA. Cette phase d’apprentissage permet à l’IA de comprendre ce qu’est un chat, un chien, un style artistique, une couleur ou une texture par exemple. Lorsqu’une requête est soumise, l’IA analyse les mots, les compare à sa base de données et génère une image en fonction des correspondances trouvées.

Quand des IA s’entrainent sur… des images d’IA

Et les résultats sont tellement impressionnants que les modèles génératifs remportent un succès grandissant auprès du grand public. Les images dites synthétiques envahissent aujourd’hui Internet. Et… comme un serpent qui se mordrait la queue, les IA commencent à s’entraîner sur une proportion toujours croissante d’images synthétiques. Détecter ce contenu dans les ensembles de données est devenu un problème complexe en soi. Les chercheurs et chercheuses développant de nouvelles générations de modèles génératifs doivent déjà faire face à la réalité suivante : leurs bases d’entraînement contiennent inévitablement du contenu artificiel, rendant ainsi leurs ensembles de données mixtes, c’est-à-dire combinant données réelles et autogénérées.

L’entraînement sur ces ensembles de données mixtes modifie-t-il les performances des modèles ? 

Plusieurs articles ont tenté de traiter la question. Parmi eux, citons « AI models collapse when trained on recursively generated data » publié dans la revue Nature. Dans celui-ci, les chercheurs s’interrogent sur le phénomène. Leur conclusion est alarmante : si ce processus n’est pas maîtrisé, il pourrait conduire à un effondrement des modèles génératifs. En effet, à force de traiter des données synthétiques, les productions des IA génératives deviendront de plus en plus homogènes, biaisées et sujettes aux erreurs. En ce sens, les productions vont perdre en diversité ainsi qu’en richesse de contenu. Pour illustrer cela, imaginez un processus de photocopie infinie où chaque nouvelle copie perd un peu plus de la richesse de l’original.

Échantillons générés par l’EDM entraîné sur l’ensemble de données FFHQ. Le réentraînement itératif du modèle exclusivement sur ses propres données générées entraîne une dégradation de l’image (rangée supérieure). En revanche, le réentraînement sur un mélange de données à moitié réelles et à moitié synthétiques (au milieu) donne une qualité similaire au réentraînement sur des données réelles (en bas). Tiré de « On the stability of iterative retraining of generative models on their own data » publié lors de la conférence ICLR 2024

Un effondrement pas si inévitable

L’article coécrit par Quentin Bertrand apporte une nuance essentielle aux conclusions de l’étude publiée dans Nature. En effet, les expérimentations menées sur les modèles génératifs les plus usités démontrent que l’entraînement peut rester stable, à condition que le modèle initial soit suffisasmment bien entraîné et qu’une part conséquente des données d’entraînement provienne de sources réelles plutôt que synthétiques. Le véritable enjeu n’est pas d’exclure chaque image synthétique mais plutôt de s’assurer d’un pourcentage suffisant d’images non synthétiques. Par contre, si le pourcentage d’images réelles devient trop faible, alors oui, l’IA risque effectivement de s’effondrer.

Par ailleurs, la curation humaine joue un rôle central dans la stabilité du modèle. La plupart des interfaces de modèles génératifs vous proposent parfois de choisir entre deux images générées. Ce processus de curation humaine agit comme une forme de « feedback indirect » pour la machine orientant l’évolution du modèle. En somme, à chaque fois que vous faites un choix, vous orientez manuellement l’IA et corrigez indirectement les erreurs potentielles. Pour être « performante » et contourner le problème d’une quantité toujours croissante d’images synthétiques, une IA générative doit à la fois contenir un pourcentage suffisant d’images réelles et disposer d’une méthode de curation humaine agissant comme feedback final.

La curation humaine : une solution sans risque ? 

Malheureusement non, le processus de curation peut également comporter des risques comme la réduction de la diversité culturelle et ethnique. En effet, si la majorité des utilisateurs préfèrent des images dans un certain style (ex : visages symétriques, peau lisse et blanche), alors l’IA produira plus souvent ce type d’images au détriment d’autres. Concernant les stéréotypes, lorsqu’on demande à une IA de représenter un métier qui ne comporte pas de distinction entre le féminin et le masculin, syntaxiquement parlant (par exemple en anglais : « Imagine a CEO » ou « Imagine a secretary »), l’IA aura tendance à représenter un homme en CEO et une femme en secrétaire.

Idem pour les IA génératives de textes. Si un modèle est réentraîné sur des réponses déjà optimisées pour être populaires, ne risquet-t-on pas d’exclure des styles d’écritures ou des tournures moins courantes ?

En conclusion, l’essor des modèles génératifs repose sur leur capacité à assimiler et reproduire des données issues du monde réel. Pourtant, face à la prolifération des contenus synthétiques, ces modèles doivent éviter l’écueil de l’auto-apprentissage excessif qui pourrait les mener à une homogénéisation appauvrissante, voire à un effondrement.

Loin d’un scénario catastrophe inéluctable, les recherches menées par Quentin Bertrand suggèrent que des solutions existent : maintenir une proportion suffisante de données réelles et intégrer la curation humaine comme garde-fou. Ces approches permettront d’assurer la diversité et la pertinence des contenus générés, tout en préservant la richesse informationnelle du web. Malgré tout, une question éthique demeure : comment s’assurer que la curation humaine respecte la diversité culturelle inhérente à l’espèce humaine ?

Un autre point qui peut être intéressant à mentionner est que nos travaux  essaient de fournir une contribution scientifique entre ces deux « opinions répandues » : celle qui vend que les données synthétiques vont détruire les modèles génératifs et celle qui vend que des données synthétiques ¨bien choisies¨ comme solution magique/miracle au manque de données. La réalité est probablement entre les deux et nécessite encore une quantification scientifique précise.

Quentin Bertrand, chargé de recherche au centre Inria de Lyon et membre de l’équipe-projet Malice, écrit par Manuel Jasse, chargé de communication, Centre Inria de Lyon.

En savoir plus :

L’article Vers un risque d’effondrement des IA génératives ? est apparu en premier sur Blog binaire.

PDF

31.10.2025 à 07:57

Cadres augmentés ou cadres remplacés ? Un enjeu de formation

Serge ABITEBOUL

Et si les intelligence artificielles (IA) servaient aussi à diriger nos entreprises ou leurs projets ? Après que beaucoup de métiers dits d’exécution ne soient plus indispensables, plus besoin de cadres non plus, alors ? Pas tout à fait. Ici, Anne-Cécile Lebrun Ingénieure et Docteure en sciences de gestion, nous propose une analyse de fond […]

L’article Cadres augmentés ou cadres remplacés ? Un enjeu de formation est apparu en premier sur Blog binaire.

Texte intégral (1771 mots)
Et si les intelligence artificielles (IA) servaient aussi à diriger nos entreprises ou leurs projets ? Après que beaucoup de métiers dits d’exécution ne soient plus indispensables, plus besoin de cadres non plus, alors ? Pas tout à fait. Ici, Anne-Cécile Lebrun Ingénieure et Docteure en sciences de gestion, nous propose une analyse de fond sur ce sujet. Serge Abiteboul et Thierry Viéville.

L’intelligence artificielle générative (IAg) s’impose dans les entreprises françaises, bouleversant les pratiques des cadres. Si certains postes peuvent être automatisés, des premières analyses indiquent que les fonctions des cadres seraient « augmentées » plutôt que massivement remplacées, en permettant à ceux-ci de se concentrer davantage sur des tâches stratégiques. Cette évolution du métier de cadre nécessite des plans de formation, précédés d’une réflexion sur l’introduction de l’IAg dans l’entreprise.

L’IA n’est plus une tendance futuriste : 53% des grandes entreprises, 46% des PME et 41% des TPE indiquent encourager ou accepter son utilisation au sein de leurs équipes d’après l’APEC. Elle transforme donc déjà le quotidien des entreprises et impacte les métiers de leurs salariés.

Si l’on se focalise sur l’IA générative (IAg), sa particularité est qu’elle est capable de réaliser des tâches complexes et non répétitives associées à des emplois très qualifiés. L’IAg est donc susceptible d’affecter « certains métiers de la connaissance, de la stratégie et de la créativité », comme l’indique la Commission de l’Intelligence Artificielle dans son rapport « IA : notre ambition pour la France » publié en mars 2024.

En théorie donc, les emplois des cadres seraient impactés par l’IAg, ce qui suscite des inquiétudes : va-t-elle supprimer et remplacer des emplois de cadres, ou au contraire stimuler leur productivité et, par le jeu de mécanismes économiques, créer des nouveaux emplois ?

Image libre de droit issue de la plateforme Pexels – Pavel Danilyuk

L’IA générative transforme-t-elle vraiment le rôle des cadres ?

Bien qu’il soit encore à ce stade difficile de prédire les impacts de l’IA sur le marché du travail et sur les emplois car les technologies ne sont pas stables, comme le rappelle l’Organisation Internationale du Travail (OIT), plusieurs études nous permettent d’apporter des premiers éléments de réponse.

Un working paper de l’OIT adopte une approche consistant à décomposer les métiers en tâches, afin d’identifier celles qui peuvent être automatisées, et montre que les postes de managers sembleraient peu menacés de remplacement par l’IAg. Ces postes relèveraient des emplois augmentés : certaines tâches, notamment créatives, seraient refaçonnées ou déléguées à l’IAg, libérant du temps pour celles à forte valeur, difficilement automatisables. Par exemple, Pescher et Tellis (2025) montrent que pour maximiser les effets de l’IAg dans le processus d’idéation, les managers devront plus que jamais concentrer leurs efforts sur la construction d’une culture organisationnelle tournée vers l’innovation. Ils auront également pour rôle d’encadrer l’IAg : prise de recul sur les résultats générés, évaluation et sélection des idées créatives proposées, etc.

Dans son rapport « IA : notre ambition pour la France » publié en mars 2024, qui favorise aussi une décomposition par tâches, la Commission de l’Intelligence Artificielle conclut que l’IA tendrait à avoir un effet global positif sur l’emploi « car celle-ci remplace des tâches et non des emplois ».

Ces études se focalisent sur le métier de « manager », toutefois tous les cadres ne sont pas managers. Si l’on regarde les résultats de l’estimation des effets potentiels de l’IAg sur les professions réalisée par l’OIT en 2025, certaines professions de cadres seraient en revanche très impactées par l’IAg, comme les cadres comptables.

On peut donc avancer que, si l’IAg ne « remplacera » pas la plupart des cadres, elle sera néanmoins vectrice de déplacements des tâches effectuées par ceux-ci et de modifications de leur nature, au-delà d’être un outil à maîtriser pour améliorer ses performances.

L’IA : une opportunité pour les cadres, à condition de se former

Qu’en pensent les cadres eux-mêmes ? L’étude de l’APEC publiée en juin 2025 s’est justement intéressée au regard que ceux-ci portent sur l’IA. Elle révèle qu’en mars 2025, près de 4 cadres sur 10 considèrent l’IA comme une opportunité pour leur métier, soit 15 points de plus qu’en mai 2023.

Image libre de droit issue de la plateforme Pexels – Pavel Danilyuk

En effet, plusieurs avantages de l’IAg sont perçus par les cadres qui utilisent celle-ci au travail au moins une fois par semaine : par exemple, 37% d’entre eux reconnaissent l’IA comme un levier de performance permettant de gagner en productivité et en efficacité, 28% comme un moyen d’améliorer la qualité de leur travail.

Cette étude souligne également qu’en mars 2025, 24% des cadres interrogés avaient suivi une formation sur l’IA, alors que 72% souhaitaient bénéficier d’une formation professionnelle, notamment une formation métier, preuve d’une forte demande.

En effet, il paraît difficile d’envisager des mutations plus ou moins importantes des métiers de cadres sans plans de formation appropriés. La formation professionnelle continue apparaît comme un atout stratégique pour anticiper, comprendre et maîtriser ces outils ; « l’investissement dans la formation professionnelle continue des actifs et les dispositifs de formation autour de l’IA » est d’ailleurs une préconisation de la Commission IA. Des incréments de salaire tendent à être observés pour les professionnels qui se forment en réponse à une exposition à l’IA.

La structuration du plan de formation évite les errances lors de l’introduction de l’IAg en entreprise

Toutefois, nous l’avons dit : il est aujourd’hui encore difficile pour les entreprises de circonscrire avec précision lesdites mutations alors que les technologies de l’IAg ne sont pas stabilisées, et d’en déduire des plans de formation précis. Le risque pour l’entreprise est alors de se disperser et de gaspiller temps et ressources dans des projets d’introduction de l’IAg inadéquats, et en particulier dans des plans de formation de ses managers mal calibrés.

Lors d’un entretien accordé en mai 2025 à la revue MIT Sloan Management Review, l’économiste Daron Acemoğlu invite les dirigeants et cadres d’entreprise à une réflexion structurée et approfondie, en évitant de se lancer dans des projets d’IAg précipitamment, sous prétexte d’une mode, ou de chercher systématiquement à réduire leurs coûts grâce à cette technologie. Selon lui, pour être compétitive et devenir leader dans son domaine à l’ère de l’IAg, une entreprise doit d’abord se demander comment celle-ci peut lui permettre d’améliorer ses produits et services.

Il paraît indispensable d’impliquer les cadres dans cette réflexion stratégique préalable : revue des technologies existantes, veille, évaluations des usages utiles, etc. Cela permettra de mieux anticiper les impacts de cette technologie sur les différentes fonctions et postes au sein de l’organisation. Une première formation d’acculturation à l’IAg à destination des cadres semble ici nécessaire.

Une fois la feuille de route établie, un plan de formation global pour les salariés — et en particulier les cadres — pourra alors être élaboré de façon éclairée, intégrant des modules métiers avancés et ciblés qui répondront avec pertinence aux besoins de l’entreprise.

Anne-Cécile Lebrun, Ingénieure et co-gérante de LBKE

L’article Cadres augmentés ou cadres remplacés ? Un enjeu de formation est apparu en premier sur Blog binaire.

PDF

24.10.2025 à 07:45

Coup d’œil dans le rétro de La Recherche

Serge ABITEBOUL

Le blog binaire change d’adresse, mais pas d’esprit ! En rejoignant La Recherche, notre blog consacré à la culture informatique s’inscrit dans la lignée d’un magazine emblématique du journalisme scientifique francophone,  La Recherche . Cette coopération est très naturelle : La Recherche s’est intéressée au numérique depuis longtemps. Nous revenons ici sur quelques articles publiés […]

L’article Coup d’œil dans le rétro de La Recherche est apparu en premier sur Blog binaire.

Texte intégral (944 mots)
Le blog binaire change d’adresse, mais pas d’esprit ! En rejoignant La Recherche, notre blog consacré à la culture informatique s’inscrit dans la lignée d’un magazine emblématique du journalisme scientifique francophone,  La Recherche . Cette coopération est très naturelle : La Recherche s’est intéressée au numérique depuis longtemps. Nous revenons ici sur quelques articles publiés dans ce domaine, grâce à Philippe Pajot, Directeur de Publication à LaRecherche qui a eu la gentillesse de partager ces articles de La Recherche traitant d’informatique.

Des grands entretiens :

Xavier Leroy : En informatique, la notion de confiance est fondamentale, propos recueillis par Philippe Pajot, mensuel 548, juin 2019.

Georges Gonthier : La blockchain est une technologie de rupture, propos recueillis par Philippe Pajot, mensuel 545, mars 2019.

Anne Canteaut : La meilleure garantie de sécurité est l’épreuve du temps, propos recueillis par Philippe Pajot, mensuel 541, novembre 2018.

Et des petits entretiens :

Leslie Ann Goldberg : Mon but est de comprendre combien certains problèmes sont difficiles, propos recueillis par Évrard-Ouicem Eljaouhari et Charlotte Mauger, août 2022.

Romain Gay : L’obfuscation révolutionne les techniques de chiffrement, dans trimestriel 567, octobre-décembre 2021.

Joris van der Hoeven : La complexité de la multiplication, propos recueillis par Philippe Pajot, avril 2019.

Des sujets fondamentaux :

Pascal Michel, Tristan Stérin et Shawn Ligocki : La longue quête du castor affairé, trimestriel 582, juillet-septembre 2025.

Patrick Massot : Pourquoi raconter des maths à unordinateur, trimestriel 571, octobre-décembre 2022.

Théo Ryffel : La nouvelle technologie de protection des données, trimestriel 564, février-mars 2021.

Papiers d’analyses et actualités :

David Chavalarias: La bataille invisible du numérique, trimestriel 582, juillet-septembre 2025.

Charles Cuvelliez,  et Jean-Jacques Quisquater : Affaire Pegasus : comment des téléphones ont-ils pu être contaminés sans action de leur propriétaire ?, août 2021.

Pierre-Louis Curien : Un prix pour le rapprochement des mathématiques et de l’informatique, propos recueillis par Philippe Pajot, novembre 2020.

Chroniques :

Serge Abiteboul : Davantage de filles en cours d’informatique : chiche !, mensuel 558, avril 2020.

Gérard Berry  : Musique et informatique un mariage d’amour, mensuel 556, février 2020.

Serge Abiteboul : Mais pourquoi les logiciels sont ils si gros , mensuel 544, février 2019.

Gérard Berry : Hommage à Maurice Nivat pionnier de l’informatique théorique, mensuel 530, décembre 2017.

Disponible sur abonnement 

Donald Knuth : Programmer, ou l’art d’expliquer des choses à un ordinateur,  propos recueillis par Philippe Pajot, trimestriel 583, octobre-décembre 2025.

Chloé Mercier, Serge Abiteboul et Thierry Viéville.

L’article Coup d’œil dans le rétro de La Recherche est apparu en premier sur Blog binaire.

PDF
6 / 10
 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Blog Binaire
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Tristan NITOT
Francis PISANI
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Économistes Atterrés
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
Laura VAZQUEZ
XKCD
🌓