11.07.2025 à 05:24
Tu feras de l’IA avec Intelligence mon enfant.
binaire
Prologue

Nous sommes dans les années soixante-dix, mille huit cent soixante-dix. Et une monstruosité apparaît : des personnes se mettent à entendre des voix. Celles d’autres personnes … situées à des dizaines de kilomètres. Il y avait de quoi être terrorisé. On l’était. Maléfice ou magie ? Ce qui arrivait… c’étaient les premiers téléphones. Depuis, on a su expliquer à nos enfants comment cela peut marcher (en cours de physique) et quels usages technologiques (dans les cours éponymes) peuvent en être faits, y compris leurs limites (comme les “faux” appels).

Nous sommes dans les années soixante-dix, deux mille soixante-dix. Et les enfants de rigoler, qu’un siècle avant … s’appelait “intelligence artificielle” une bien vieille famille de mécanismes d’I.A., c’est-à-dire d’Inférence Algorithmique, dont le fonctionnement paraissait alors… soit magique, soit potentiellement maléfique. Mais c’était avant. Et, dans cette vision de l’avenir, nous avons toutes et tous appris à la fois (i) comment fonctionnent ces algorithmes et (ii) comment apprendre en s’aidant de tels algorithmes (learn with and about AI) en le faisant avec discernement et parcimonie.

À moins que, dans un futur bien plus dystopique, nous ayons uniquement permis aux personnes d’utiliser sans comprendre («pas besoin … ça marche tout seul »), ni maîtriser (« il suffit de quelques clics, c’est si facile ») ces outils. Ce monde (imaginaire ?! …) serait alors plus fracturé et terrible à vivre qu’un monde totalitaire soumis à l’ultra surveillance comme George Orwell le cauchemardait. Car si notre quotidien (accès à l’information, choix offerts quant à nos décisions), devenu numérique, était aux mains de quelques personnes (par exemple “les plus riches du monde”), c’est notre propre mental qui serait empoisonné, rendu vulnérable par l’ignorance et l’absence d’esprit critique. De plus, au rythme actuel du réchauffement climatique, en 2070 avec une terre à +3°, les enfants ne rigoleront probablement plus beaucoup.
Que cela ne soit pas.
Depuis quelques mois, des deux côtés de l’Atlantique, une équipe apporte une contribution collégiale pour que notre avenir se fasse pour le meilleur quant à ces IAs dont on ne cesse de parler.
Vous avez dit A.I.L.F. ? (AI* Learning Framework**)
http://ailiteracyframework.org
(*) Disons “IA”, gardant à l’esprit que ce sont des outils (au pluriel) d’inférence algorithmique, ni moins, ni plus.
(**) Un cadre pour l’apprentissage de ces outils que l’on nomme intelligence artificielle.

La maîtrise de l’IA, sa “littératie”, représente les connaissances techniques, les compétences durables et les bonnes attitudes (savoirs, savoir-faire et savoir être) qui permettent d’interagir avec l’IA, de créer avec de tels outils, de la gérer et de la concevoir, tout en évaluant de manière critique ses avantages, ses risques et ses implications éthiques.
C’est tout aussi indispensable que lire, écrire ou compter. Avec plusieurs points communs :
– Ce sont des compétences universelles pour toutes et tous, mais avec de grandes variantes culturelles à respecter : tout le monde doit pouvoir apprendre l’IA et utiliser l’IA pour apprendre, et doit pouvoir devenir autonome par rapport à l’IA, mais dans le respect de sa diversité.
– Ce sont des compétences interdisciplinaires, qui ont vocation à s’intégrer dans toutes les disciplines concernées, informatique, mathématiques, et technologies, ainsi que les sciences humaines et les formations pédagogiques transversales des élèves. Beaucoup de ces compétences (esprit critique, pensée informatique, résolution de problème) sont déjà partagées – tant mieux – l’apport de ce cadre est d’aider à la faire dans le contexte de l’IA.
– Ce sont des compétences pérennes : on parle de savoirs, savoir-faire et savoir être fondamentaux, qui seront encore pertinents lors de l’évolution attendue des outils actuels (de même qu’en informatique on n’apprend pas “le Python” (ou un autre langage) mais les algorithmes et le codage de l’information, en s’appuyant sur tel ou tel langage formel qui peut être amené à changer avec le temps).
– Parmi les compléments à apporter à la version actuelle, les impacts environnementaux de l’IA, déjà pris en compte, sont à renforcer : les impacts environnementaux directs de chaque apprentissage, chaque inférence, chaque investissement en faveur d’une solution basée sur l’IA sont déjà réels aujourd’hui, ainsi que les impacts environnementaux délétères indirects de beaucoup de cas d’usage.
Cette littératie cible principalement l’enseignement primaire et secondaire, mais est aussi ouverte au péri et extra scolaire, et à l’éducation familiale.
C’est une initiative conjointe de la Commission européenne et de l’Organisation de Coopération et de Développement Économiques. Code.org et des experts internationaux très divers soutiennent son développement.
Alors … concrètement ?
Découvrons et donnons notre opinion. Voici en une page ce cadre qui se veut inspirant, riche de ressources, sans aucune valeur contraignante:

C’est ici : http://ailiteracyframework.org que nous avons tous les éléments de présentation (avec une version traduite de la page de présentation : https://tinyl.co/3OeN). Il y a même un “prompt” (l’instruction ou la question qui est posée de manière textuelle à un IA avec une interface langagière) pour interroger une IA à propos de cette littératie de l’IA.
Une première version, aboutie et soigneusement revue, est disponible, pour travailler sur des éléments précis. Pas d’erreur ! Elle a évidemment vocation à évoluer et être remodelée, voire questionnée en profondeur, en fonction des relectures et des retours.
Alors… à vous !
Au cours des prochains mois, nous sollicitons les commentaires des parties prenantes du monde entier. Pour participer, visitez www.teachai.org/ailiteracy/review. La version finale du cadre sera publiée en 2026, accompagnée d’exemples de maîtrise de l’IA dans les programmes, l’évaluation et la formation professionnelle.
Thierry Viéville, chercheur Inria.
Ok … 1,2,3 : comment me lancer dès maintenant ?
– Avec la formation ClassCode I.A.I. on se forme sans aucun prérequis technique aux bases de l’IA, pour piger comment ça marche:
https://pixees.fr/classcode-v2/iai
Ressource gratuitement utilisable et réutilisable.
– Former les enseignants au contexte, l’usage, la pertinence et les défis de ressources éducatifs mobilisant de l’intelligence artificielle dans un cadre éducatif :
https://tinyl.co/3PMs
Avec une formation en ligne gratuite et des ressources multilingues réutilisables.
– Pour aller plus loin :
est une formation mise à jour cette année qui permet de s’initier vraiment à aux fondements et usages de l’IA.
– Et tout aussi important : une formation sur les impacts environnementaux du numérique, dont l’IA :
https://www.fun-mooc.fr/fr/cours/impacts-environnementaux-du-numerique
À l’heure ou transition écologique rime souvent avec transition numérique, qu’en est-il réellement des impacts environnementaux du numérique ? Comment dès à présent commencer à agir pour un numérique plus responsable et plus durable ?
Texte intégral (2347 mots)
Prologue

Nous sommes dans les années soixante-dix, mille huit cent soixante-dix. Et une monstruosité apparaît : des personnes se mettent à entendre des voix. Celles d’autres personnes … situées à des dizaines de kilomètres. Il y avait de quoi être terrorisé. On l’était. Maléfice ou magie ? Ce qui arrivait… c’étaient les premiers téléphones. Depuis, on a su expliquer à nos enfants comment cela peut marcher (en cours de physique) et quels usages technologiques (dans les cours éponymes) peuvent en être faits, y compris leurs limites (comme les “faux” appels).

Nous sommes dans les années soixante-dix, deux mille soixante-dix. Et les enfants de rigoler, qu’un siècle avant … s’appelait “intelligence artificielle” une bien vieille famille de mécanismes d’I.A., c’est-à-dire d’Inférence Algorithmique, dont le fonctionnement paraissait alors… soit magique, soit potentiellement maléfique. Mais c’était avant. Et, dans cette vision de l’avenir, nous avons toutes et tous appris à la fois (i) comment fonctionnent ces algorithmes et (ii) comment apprendre en s’aidant de tels algorithmes (learn with and about AI) en le faisant avec discernement et parcimonie.

À moins que, dans un futur bien plus dystopique, nous ayons uniquement permis aux personnes d’utiliser sans comprendre («pas besoin … ça marche tout seul »), ni maîtriser (« il suffit de quelques clics, c’est si facile ») ces outils. Ce monde (imaginaire ?! …) serait alors plus fracturé et terrible à vivre qu’un monde totalitaire soumis à l’ultra surveillance comme George Orwell le cauchemardait. Car si notre quotidien (accès à l’information, choix offerts quant à nos décisions), devenu numérique, était aux mains de quelques personnes (par exemple “les plus riches du monde”), c’est notre propre mental qui serait empoisonné, rendu vulnérable par l’ignorance et l’absence d’esprit critique. De plus, au rythme actuel du réchauffement climatique, en 2070 avec une terre à +3°, les enfants ne rigoleront probablement plus beaucoup.
Que cela ne soit pas.
Depuis quelques mois, des deux côtés de l’Atlantique, une équipe apporte une contribution collégiale pour que notre avenir se fasse pour le meilleur quant à ces IAs dont on ne cesse de parler.
Vous avez dit A.I.L.F. ? (AI* Learning Framework**)
http://ailiteracyframework.org
(*) Disons “IA”, gardant à l’esprit que ce sont des outils (au pluriel) d’inférence algorithmique, ni moins, ni plus.
(**) Un cadre pour l’apprentissage de ces outils que l’on nomme intelligence artificielle.

La maîtrise de l’IA, sa “littératie”, représente les connaissances techniques, les compétences durables et les bonnes attitudes (savoirs, savoir-faire et savoir être) qui permettent d’interagir avec l’IA, de créer avec de tels outils, de la gérer et de la concevoir, tout en évaluant de manière critique ses avantages, ses risques et ses implications éthiques.
C’est tout aussi indispensable que lire, écrire ou compter. Avec plusieurs points communs :
– Ce sont des compétences universelles pour toutes et tous, mais avec de grandes variantes culturelles à respecter : tout le monde doit pouvoir apprendre l’IA et utiliser l’IA pour apprendre, et doit pouvoir devenir autonome par rapport à l’IA, mais dans le respect de sa diversité.
– Ce sont des compétences interdisciplinaires, qui ont vocation à s’intégrer dans toutes les disciplines concernées, informatique, mathématiques, et technologies, ainsi que les sciences humaines et les formations pédagogiques transversales des élèves. Beaucoup de ces compétences (esprit critique, pensée informatique, résolution de problème) sont déjà partagées – tant mieux – l’apport de ce cadre est d’aider à la faire dans le contexte de l’IA.
– Ce sont des compétences pérennes : on parle de savoirs, savoir-faire et savoir être fondamentaux, qui seront encore pertinents lors de l’évolution attendue des outils actuels (de même qu’en informatique on n’apprend pas “le Python” (ou un autre langage) mais les algorithmes et le codage de l’information, en s’appuyant sur tel ou tel langage formel qui peut être amené à changer avec le temps).
– Parmi les compléments à apporter à la version actuelle, les impacts environnementaux de l’IA, déjà pris en compte, sont à renforcer : les impacts environnementaux directs de chaque apprentissage, chaque inférence, chaque investissement en faveur d’une solution basée sur l’IA sont déjà réels aujourd’hui, ainsi que les impacts environnementaux délétères indirects de beaucoup de cas d’usage.
Cette littératie cible principalement l’enseignement primaire et secondaire, mais est aussi ouverte au péri et extra scolaire, et à l’éducation familiale.
C’est une initiative conjointe de la Commission européenne et de l’Organisation de Coopération et de Développement Économiques. Code.org et des experts internationaux très divers soutiennent son développement.
Alors … concrètement ?
Découvrons et donnons notre opinion. Voici en une page ce cadre qui se veut inspirant, riche de ressources, sans aucune valeur contraignante:

C’est ici : http://ailiteracyframework.org que nous avons tous les éléments de présentation (avec une version traduite de la page de présentation : https://tinyl.co/3OeN). Il y a même un “prompt” (l’instruction ou la question qui est posée de manière textuelle à un IA avec une interface langagière) pour interroger une IA à propos de cette littératie de l’IA.
Une première version, aboutie et soigneusement revue, est disponible, pour travailler sur des éléments précis. Pas d’erreur ! Elle a évidemment vocation à évoluer et être remodelée, voire questionnée en profondeur, en fonction des relectures et des retours.
Alors… à vous !
Au cours des prochains mois, nous sollicitons les commentaires des parties prenantes du monde entier. Pour participer, visitez www.teachai.org/ailiteracy/review. La version finale du cadre sera publiée en 2026, accompagnée d’exemples de maîtrise de l’IA dans les programmes, l’évaluation et la formation professionnelle.
Thierry Viéville, chercheur Inria.
Ok … 1,2,3 : comment me lancer dès maintenant ?
– Avec la formation ClassCode I.A.I. on se forme sans aucun prérequis technique aux bases de l’IA, pour piger comment ça marche:
https://pixees.fr/classcode-v2/iai
Ressource gratuitement utilisable et réutilisable.
– Former les enseignants au contexte, l’usage, la pertinence et les défis de ressources éducatifs mobilisant de l’intelligence artificielle dans un cadre éducatif :
https://tinyl.co/3PMs
Avec une formation en ligne gratuite et des ressources multilingues réutilisables.
– Pour aller plus loin :
est une formation mise à jour cette année qui permet de s’initier vraiment à aux fondements et usages de l’IA.
– Et tout aussi important : une formation sur les impacts environnementaux du numérique, dont l’IA :
https://www.fun-mooc.fr/fr/cours/impacts-environnementaux-du-numerique
À l’heure ou transition écologique rime souvent avec transition numérique, qu’en est-il réellement des impacts environnementaux du numérique ? Comment dès à présent commencer à agir pour un numérique plus responsable et plus durable ?
04.07.2025 à 07:36
2025 : L’année de l’intelligence artificielle en France ?
binaire
L’IA, longtemps domaine de prospective ou de niche, est désormais partout : dans les discours officiels, dans les stratégies d’investissement, dans les démonstrateurs technologiques, dans les débats publics… Et surtout, elle est devenue un axe structurant de la politique industrielle française. Alors, 2025 : coup d’accélérateur ou effet d’annonce ? Éléments de réponse à mi-parcours d’une année qui, semble avoir placé la France au centre du jeu.
Quatre grands événements au cours de ce premier semestre sont partagés avec plus de détail en annexe de cet article.
Une ambition qui se concrétise
La trajectoire n’est pas nouvelle. Dès 2018, la France avait lancé une stratégie nationale sur l’IA, misant sur l’excellence scientifique, la création de champions technologiques et une volonté de régulation éthique. Mais ce début 2025 a marqué une inflexion nette : ce ne sont plus des promesses ou des feuilles de route, mais des réalisations concrètes, visibles et, surtout, financées.

Sur le plan diplomatique, la France a accueilli à Paris, début février un sommet mondial sur l’action en matière d’IA, réunissant plus de 100 délégations internationales. Sur le plan économique, le sommet Choose France 2025, en mai, a vu l’annonce de 37 milliards d’euros d’investissements étrangers, dont près de 17 milliards spécifiquement orientés vers l’IA et les infrastructures numériques. De nouvelles giga-usines de données, des centres de calcul haute performance, des campus IA… autant de projets qui commencent à prendre racine sur le territoire, dans les Hauts-de-France, en Île-de-France ou encore en Provence. Ce n’est plus seulement une question de stratégie : c’est désormais une réalité industrielle.
Une dynamique entre État, start-ups et investisseurs

Ce mouvement est porté par une triple alliance entre l’État, les start-ups de la French Tech et les investisseurs internationaux. L’écosystème s’est structuré. On compte aujourd’hui en France près de 1 000 jeunes pousses spécialisées en IA, dont plusieurs sont devenues des licornes. Des journées entières leur ont été consacrées, à Station F comme au World AI Cannes Festival, et de nombreuses d’entre elles ont profité de ces événements pour nouer des contacts avec des fonds étrangers, tester leurs solutions, ou signer des premiers contrats.
Le gouvernement, de son côté, ne se contente plus d’un rôle de spectateur bienveillant. Il est co-investisseur, catalyseur, diplomate. Des partenariats stratégiques ont été tissés avec des acteurs nord-américains, émiratis, européens… dans une logique de souveraineté numérique partagée. L’objectif est clair : faire de la France un point central pour entraîner, héberger et déployer les modèles d’IA de demain. Avec en ligne de mire, la maîtrise technologique autant que la compétitivité économique.
Des usages concrets… et des questions fondamentales

Loin de se limiter aux infrastructures, l’IA s’immisce dans tous les secteurs : santé, énergie, industrie, agriculture, éducation. Certains cas d’usage sont déjà déployés à grande échelle : systèmes d’aide au diagnostic médical, optimisation des réseaux électriques, automatisation de processus industriels, ou encore agents conversationnels dans les services publics. L’heure est à l’intégration, à l’industrialisation, et à l’évaluation.
Mais cette dynamique pose des questions majeures. Comment garantir l’équité des systèmes algorithmiques ? Comment réguler les modèles génératifs qui créent du faux plus vite qu’on ne peut le détecter ? Comment protéger les données, les droits, l’emploi, dans un monde où les machines apprennent plus vite que les institutions ne légifèrent ?
La réponse française est à double détente : soutenir l’innovation sans naïveté, et réguler sans brider. Cela passe par l’appui au futur règlement européen (AI Act), par la participation active aux grands forums internationaux (OCDE, ONU, GPAI), mais aussi par une réflexion de fond sur l’inclusion et la transparence. Cette ligne de crête est peut-être ce qui distingue le plus la posture française sur l’IA en 2025.
Une question ouverte

Alors, 2025 est-elle l’année de l’IA en France ? Il est encore trop tôt pour l’affirmer avec certitude. Mais jamais les planètes n’avaient été aussi bien alignées. Les infrastructures arrivent. Les financements suivent. L’écosystème s’organise. Le débat public s’anime. Et l’État joue pleinement son rôle. Ce n’est pas une révolution soudaine, mais plutôt une convergence de trajectoires, diplomatique, économique, technologique et sociale, qui pourrait, si elle se maintient, faire de la France l’un des pôles IA majeurs de la décennie.
Jason Richard, Business Innovation Manager chez Airbus Defence and Space.
Pour aller plus loin
Des articles détaillés sur chacun de ces événements marquants de ce premier semestre 2025 – Sommet pour l’action sur l’intelligence artificielle, Station F Business Day 2025, World AI Cannes Festival 2025, Choose France – sont disponibles ici :
– Sommet Action IA 2025 : Paris capitale mondiale de l’IA.
– Station F Business Day 2025 : l’innovation IA made in France.
– World AI Cannes Festival 2025 : l’IA fait son show à Cannes.
– Sommet Choose France 2025 : plus de 40 milliards d’euros annoncés, l’IA mise à l’honneur.
Une chose est sûre : le deuxième semestre sera scruté de près. Et en décembre, peut-être pourra-t-on écrire, cette fois avec certitude : oui, 2025 aura été l’année de l’intelligence artificielle en France.
Références complémentaires :
Bilan du Sommet pour l’action sur l’IA, Rapport de l’Élysée, mars 2025.
Texte intégral (1794 mots)
L’IA, longtemps domaine de prospective ou de niche, est désormais partout : dans les discours officiels, dans les stratégies d’investissement, dans les démonstrateurs technologiques, dans les débats publics… Et surtout, elle est devenue un axe structurant de la politique industrielle française. Alors, 2025 : coup d’accélérateur ou effet d’annonce ? Éléments de réponse à mi-parcours d’une année qui, semble avoir placé la France au centre du jeu.
Quatre grands événements au cours de ce premier semestre sont partagés avec plus de détail en annexe de cet article.
Une ambition qui se concrétise
La trajectoire n’est pas nouvelle. Dès 2018, la France avait lancé une stratégie nationale sur l’IA, misant sur l’excellence scientifique, la création de champions technologiques et une volonté de régulation éthique. Mais ce début 2025 a marqué une inflexion nette : ce ne sont plus des promesses ou des feuilles de route, mais des réalisations concrètes, visibles et, surtout, financées.

Sur le plan diplomatique, la France a accueilli à Paris, début février un sommet mondial sur l’action en matière d’IA, réunissant plus de 100 délégations internationales. Sur le plan économique, le sommet Choose France 2025, en mai, a vu l’annonce de 37 milliards d’euros d’investissements étrangers, dont près de 17 milliards spécifiquement orientés vers l’IA et les infrastructures numériques. De nouvelles giga-usines de données, des centres de calcul haute performance, des campus IA… autant de projets qui commencent à prendre racine sur le territoire, dans les Hauts-de-France, en Île-de-France ou encore en Provence. Ce n’est plus seulement une question de stratégie : c’est désormais une réalité industrielle.
Une dynamique entre État, start-ups et investisseurs

Ce mouvement est porté par une triple alliance entre l’État, les start-ups de la French Tech et les investisseurs internationaux. L’écosystème s’est structuré. On compte aujourd’hui en France près de 1 000 jeunes pousses spécialisées en IA, dont plusieurs sont devenues des licornes. Des journées entières leur ont été consacrées, à Station F comme au World AI Cannes Festival, et de nombreuses d’entre elles ont profité de ces événements pour nouer des contacts avec des fonds étrangers, tester leurs solutions, ou signer des premiers contrats.
Le gouvernement, de son côté, ne se contente plus d’un rôle de spectateur bienveillant. Il est co-investisseur, catalyseur, diplomate. Des partenariats stratégiques ont été tissés avec des acteurs nord-américains, émiratis, européens… dans une logique de souveraineté numérique partagée. L’objectif est clair : faire de la France un point central pour entraîner, héberger et déployer les modèles d’IA de demain. Avec en ligne de mire, la maîtrise technologique autant que la compétitivité économique.
Des usages concrets… et des questions fondamentales

Loin de se limiter aux infrastructures, l’IA s’immisce dans tous les secteurs : santé, énergie, industrie, agriculture, éducation. Certains cas d’usage sont déjà déployés à grande échelle : systèmes d’aide au diagnostic médical, optimisation des réseaux électriques, automatisation de processus industriels, ou encore agents conversationnels dans les services publics. L’heure est à l’intégration, à l’industrialisation, et à l’évaluation.
Mais cette dynamique pose des questions majeures. Comment garantir l’équité des systèmes algorithmiques ? Comment réguler les modèles génératifs qui créent du faux plus vite qu’on ne peut le détecter ? Comment protéger les données, les droits, l’emploi, dans un monde où les machines apprennent plus vite que les institutions ne légifèrent ?
La réponse française est à double détente : soutenir l’innovation sans naïveté, et réguler sans brider. Cela passe par l’appui au futur règlement européen (AI Act), par la participation active aux grands forums internationaux (OCDE, ONU, GPAI), mais aussi par une réflexion de fond sur l’inclusion et la transparence. Cette ligne de crête est peut-être ce qui distingue le plus la posture française sur l’IA en 2025.
Une question ouverte

Alors, 2025 est-elle l’année de l’IA en France ? Il est encore trop tôt pour l’affirmer avec certitude. Mais jamais les planètes n’avaient été aussi bien alignées. Les infrastructures arrivent. Les financements suivent. L’écosystème s’organise. Le débat public s’anime. Et l’État joue pleinement son rôle. Ce n’est pas une révolution soudaine, mais plutôt une convergence de trajectoires, diplomatique, économique, technologique et sociale, qui pourrait, si elle se maintient, faire de la France l’un des pôles IA majeurs de la décennie.
Jason Richard, Business Innovation Manager chez Airbus Defence and Space.
Pour aller plus loin
Des articles détaillés sur chacun de ces événements marquants de ce premier semestre 2025 – Sommet pour l’action sur l’intelligence artificielle, Station F Business Day 2025, World AI Cannes Festival 2025, Choose France – sont disponibles ici :
– Sommet Action IA 2025 : Paris capitale mondiale de l’IA.
– Station F Business Day 2025 : l’innovation IA made in France.
– World AI Cannes Festival 2025 : l’IA fait son show à Cannes.
– Sommet Choose France 2025 : plus de 40 milliards d’euros annoncés, l’IA mise à l’honneur.
Une chose est sûre : le deuxième semestre sera scruté de près. Et en décembre, peut-être pourra-t-on écrire, cette fois avec certitude : oui, 2025 aura été l’année de l’intelligence artificielle en France.
Références complémentaires :
Bilan du Sommet pour l’action sur l’IA, Rapport de l’Élysée, mars 2025.
27.06.2025 à 07:44
L’IA contre les « oublis » aux caisses automatiques des supermarchés ? Mais c’est bien sûr !
binaire
Charles Cuvelliez et Jean-Jacques Quisquater nous proposent en collaboration avec le Data Protection Officer de la Banque Belfius ; Francis Hayen, une discussion sur le dilemme entre le RGPD et la mise en place de caméra augmentée à l’IA pour diminuer le nombre de vols, les oublis, le sous-pesage aux caisses automatiques des supermarchés, qui sont bien nombreux. Que faire pour concilier ce besoin effectif de contrôle et le respect du RGPD ? Et bien la CNIL a émis des lignes directrices, d’aucun diront désopilantes, mais pleines de bon sens. Amusons-nous à les découvrir. Benjamin Ninassi et Thierry Viéville. |

C’est le fléau des caisses automatiques des supermarchés : les fraudes ou les oublis, pudiquement appelées démarques inconnues, ou la main lourde qui pèse mal fruits et légumes. Les contrôles aléatoires semblent impuissants. Dans certaines enseignes, il y a même un préposé à la balance aux caisses automatiques. La solution ? L’IA pardi. Malgré le RGPD ? Oui dit la CNIL dans une note de mai 2025.
Cette IA, ce sont des caméras augmentées d’un logiciel d’analyse en temps réel. On les positionne en hauteur pour ne filmer que l’espace de la caisse, mais cela inclut le client, la carte de fidélité, son panier d’achat et les produits à scanner et forcément le client, flouté de préférence. L’algorithme aura appris à reconnaitre des « événements » (identifier ou suivre les produits, les mains des personnes, ou encore la position d’une personne par rapport à la caisse) et contrôler que tout a bien été scanné. En cas d’anomalie, il ne s’agit pas d’arrêter le client mais plus subtilement de programmer un contrôle ou de gêner le client en lui lançant une alerte à l’écran, propose la CNIL qui ne veut pas en faire un outil de surveillance en plus. Cela peut marcher, en effet.
C’est que ces dispositifs collectent des données personnelles : même en floutant ou masquant les images, les personnes fautives sont ré-identifiables, puisqu’il s’agira d’intervenir auprès de la personne. Et il y a les images vidéo dans le magasin, non floutées. La correspondance sera vite faite.

Mais les supermarchés ont un intérêt légitime, dit la CNIL, à traiter ces données de leurs clients (ce qui les dispense de donner leur consentement) pour éviter les pertes causées par les erreurs ou les vols aux caisses automatiques. Avant d’aller sur ce terrain un peu glissant, la CNIL cherche à établir l’absence d’alternative moins intrusive : il n’y en a pas vraiment. Elle cite par exemple les RFID qui font tinter les portiques mais, si c’est possible dans les magasins de vêtements, en supermarché aux milliers de référence, cela n’a pas de sens. Et gare à un nombre élevé de faux positifs, auxquels la CNIL est attentive et elle a raison : être client accusé à tort de frauder, c’est tout sauf agréable. Cela annulera la légitimité de la méthode.
Expérimenter, tester
Il faut qu’un tel mécanisme, intrusif, soit efficace : la CNIL conseille aux enseignes de le tester d’abord. Cela réduit-il les pertes de revenus dans la manière dont le contrôle par IA a été mis en place ? Peut-on discriminer entre effet de dissuasion et erreurs involontaires pour adapter l’intervention du personnel ? Il faut restreindre le périmètre de prise de vue de la caméra le plus possible, limiter le temps de prise de vue (uniquement lors de la transaction) et la stopper au moment de l’intervention du personnel. Il faut informer le client qu’une telle surveillance a lieu et lui donner un certain contrôle sur son déclenchement, tout en étant obligatoire (qu’il n’ait pas l’impression qu’il est filmé à son insu), ne pas créer une « arrestation immédiate » en cas de fraude. Il ne faut pas garder ces données à des fins de preuve ou pour créer une liste noire de clients non grata. Pas de son enregistré, non plus. Ah, si toutes les caméras qui nous espionnent pouvaient procéder ainsi ! C’est de la saine minimisation des données.
Pour la même raison, l’analyse des données doit se faire en local : il est inutile de rapatrier les données sur un cloud où on va évidemment les oublier jusqu’au moment où elles fuiteront.
Le client peut s’opposer à cette collecte et ce traitement de données mais là, c’est simple, il suffit de prévoir des caisses manuelles mais suffisamment pour ne pas trop attendre, sinon ce droit d’opposition est plus difficilement exerçable, ce que n’aime pas le RGPD. D’aucuns y retrouveront le fameux nudge effect de R. Thaler (prix Nobel 2017) à savoir offrir un choix avec des incitants cognitifs pour en préférer une option plutôt que l’autre (sauf que l’incitant est trop pénalisant, le temps d’attente).
Réutilisation des données pour entrainement

Autre question classique dès qu’on parle d’IA : peut-on réutiliser les données pour entrainer l’algorithme, ce qui serait un plus pour diminuer le nombre de faux positifs. C’est plus délicat : il y aura sur ces données, même aux visages floutés, de nombreuses caractéristiques physiques aux mains, aux gestes qui permettront de reconnaitre les gens. Les produits manipulés et achetés peuvent aussi faciliter l’identification des personnes. Ce serait sain dit la CNIL de prévoir la possibilité pour les personnes de s’y opposer et dans tous les autres cas, de ne conserver les données que pour la durée nécessaire à l’amélioration de l’algorithme.
Les caisses automatiques, comme les poinçonneuses de métro, les péages d’autoroute, ce sont des technologies au service de l’émancipation d’une catégorie d’humains qui ont la charge de tâches pénibles, répétitives et ingrates. Mais souvent les possibilités de tricher augmentent de pair et il faut du coup techniquement l’empêcher (sauter la barrière par ex.). L’IA aux caisses automatiques, ce n’est rien de neuf à cet égard.

Mine de rien, toutes ces automatisations réduisent aussi les possibilités de contact social. La CNIL n’évoque pas l’alternative d’une surveillance humaine psychologiquement augmentée, sur place, aux caisses automatiques : imaginez un préposé qui tout en surveillant les caisses, dialogue, discute, reconnait les habitués. C’est le contrôle social qui prévient bien des fraudes.
Quand on sait la faible marge que font les supermarchés, l’IA au service de la vertu des gens, avec toutes ces précautions, n’est-ce pas une bonne chose ?
Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles), Francis Hayen, Délégué à la Protection des Données & Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT).
Pour en savoir plus :
Texte intégral (1605 mots)
Charles Cuvelliez et Jean-Jacques Quisquater nous proposent en collaboration avec le Data Protection Officer de la Banque Belfius ; Francis Hayen, une discussion sur le dilemme entre le RGPD et la mise en place de caméra augmentée à l’IA pour diminuer le nombre de vols, les oublis, le sous-pesage aux caisses automatiques des supermarchés, qui sont bien nombreux. Que faire pour concilier ce besoin effectif de contrôle et le respect du RGPD ? Et bien la CNIL a émis des lignes directrices, d’aucun diront désopilantes, mais pleines de bon sens. Amusons-nous à les découvrir. Benjamin Ninassi et Thierry Viéville. |

C’est le fléau des caisses automatiques des supermarchés : les fraudes ou les oublis, pudiquement appelées démarques inconnues, ou la main lourde qui pèse mal fruits et légumes. Les contrôles aléatoires semblent impuissants. Dans certaines enseignes, il y a même un préposé à la balance aux caisses automatiques. La solution ? L’IA pardi. Malgré le RGPD ? Oui dit la CNIL dans une note de mai 2025.
Cette IA, ce sont des caméras augmentées d’un logiciel d’analyse en temps réel. On les positionne en hauteur pour ne filmer que l’espace de la caisse, mais cela inclut le client, la carte de fidélité, son panier d’achat et les produits à scanner et forcément le client, flouté de préférence. L’algorithme aura appris à reconnaitre des « événements » (identifier ou suivre les produits, les mains des personnes, ou encore la position d’une personne par rapport à la caisse) et contrôler que tout a bien été scanné. En cas d’anomalie, il ne s’agit pas d’arrêter le client mais plus subtilement de programmer un contrôle ou de gêner le client en lui lançant une alerte à l’écran, propose la CNIL qui ne veut pas en faire un outil de surveillance en plus. Cela peut marcher, en effet.
C’est que ces dispositifs collectent des données personnelles : même en floutant ou masquant les images, les personnes fautives sont ré-identifiables, puisqu’il s’agira d’intervenir auprès de la personne. Et il y a les images vidéo dans le magasin, non floutées. La correspondance sera vite faite.

Mais les supermarchés ont un intérêt légitime, dit la CNIL, à traiter ces données de leurs clients (ce qui les dispense de donner leur consentement) pour éviter les pertes causées par les erreurs ou les vols aux caisses automatiques. Avant d’aller sur ce terrain un peu glissant, la CNIL cherche à établir l’absence d’alternative moins intrusive : il n’y en a pas vraiment. Elle cite par exemple les RFID qui font tinter les portiques mais, si c’est possible dans les magasins de vêtements, en supermarché aux milliers de référence, cela n’a pas de sens. Et gare à un nombre élevé de faux positifs, auxquels la CNIL est attentive et elle a raison : être client accusé à tort de frauder, c’est tout sauf agréable. Cela annulera la légitimité de la méthode.
Expérimenter, tester
Il faut qu’un tel mécanisme, intrusif, soit efficace : la CNIL conseille aux enseignes de le tester d’abord. Cela réduit-il les pertes de revenus dans la manière dont le contrôle par IA a été mis en place ? Peut-on discriminer entre effet de dissuasion et erreurs involontaires pour adapter l’intervention du personnel ? Il faut restreindre le périmètre de prise de vue de la caméra le plus possible, limiter le temps de prise de vue (uniquement lors de la transaction) et la stopper au moment de l’intervention du personnel. Il faut informer le client qu’une telle surveillance a lieu et lui donner un certain contrôle sur son déclenchement, tout en étant obligatoire (qu’il n’ait pas l’impression qu’il est filmé à son insu), ne pas créer une « arrestation immédiate » en cas de fraude. Il ne faut pas garder ces données à des fins de preuve ou pour créer une liste noire de clients non grata. Pas de son enregistré, non plus. Ah, si toutes les caméras qui nous espionnent pouvaient procéder ainsi ! C’est de la saine minimisation des données.
Pour la même raison, l’analyse des données doit se faire en local : il est inutile de rapatrier les données sur un cloud où on va évidemment les oublier jusqu’au moment où elles fuiteront.
Le client peut s’opposer à cette collecte et ce traitement de données mais là, c’est simple, il suffit de prévoir des caisses manuelles mais suffisamment pour ne pas trop attendre, sinon ce droit d’opposition est plus difficilement exerçable, ce que n’aime pas le RGPD. D’aucuns y retrouveront le fameux nudge effect de R. Thaler (prix Nobel 2017) à savoir offrir un choix avec des incitants cognitifs pour en préférer une option plutôt que l’autre (sauf que l’incitant est trop pénalisant, le temps d’attente).
Réutilisation des données pour entrainement

Autre question classique dès qu’on parle d’IA : peut-on réutiliser les données pour entrainer l’algorithme, ce qui serait un plus pour diminuer le nombre de faux positifs. C’est plus délicat : il y aura sur ces données, même aux visages floutés, de nombreuses caractéristiques physiques aux mains, aux gestes qui permettront de reconnaitre les gens. Les produits manipulés et achetés peuvent aussi faciliter l’identification des personnes. Ce serait sain dit la CNIL de prévoir la possibilité pour les personnes de s’y opposer et dans tous les autres cas, de ne conserver les données que pour la durée nécessaire à l’amélioration de l’algorithme.
Les caisses automatiques, comme les poinçonneuses de métro, les péages d’autoroute, ce sont des technologies au service de l’émancipation d’une catégorie d’humains qui ont la charge de tâches pénibles, répétitives et ingrates. Mais souvent les possibilités de tricher augmentent de pair et il faut du coup techniquement l’empêcher (sauter la barrière par ex.). L’IA aux caisses automatiques, ce n’est rien de neuf à cet égard.

Mine de rien, toutes ces automatisations réduisent aussi les possibilités de contact social. La CNIL n’évoque pas l’alternative d’une surveillance humaine psychologiquement augmentée, sur place, aux caisses automatiques : imaginez un préposé qui tout en surveillant les caisses, dialogue, discute, reconnait les habitués. C’est le contrôle social qui prévient bien des fraudes.
Quand on sait la faible marge que font les supermarchés, l’IA au service de la vertu des gens, avec toutes ces précautions, n’est-ce pas une bonne chose ?
Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles), Francis Hayen, Délégué à la Protection des Données & Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain et MIT).
Pour en savoir plus :
20.06.2025 à 07:06
Les États-Unis frappent le Danemark au cœur de son système numérique !
binaire

Bruxelles, le 4 juillet 2025, par notre envoyé spécial, Jean Pacet-Démayeur
Une décision historique et lourde de conséquences vient bouleverser les relations entre les États-Unis et l’Union européenne. Dans un contexte de tension croissante depuis six mois, le Président Trump a annoncé hier soir, à la veille des célébrations de l’Independence Day, qu’il avait signé un Executive Order avec effet immédiat, interdisant aux entreprises technologiques américaines de délivrer des produits et des services numériques au Danemark, membre de l’Union européenne. Cette mesure de rétorsion, sans précédent entre alliés historiques, est la conséquence du conflit diplomatique majeur que Donald Trump a provoqué en annonçant au début de l’année, et avant d’entrer à la Maison blanche le 20 janvier 2025, son projet d’annexion par les États-Unis du Groenland, y compris par la force armée.
Une annexion qui embrase les relations internationales
Tout a commencé il y a six mois en effet, lorsque Donald Trump a annoncé sa volonté d’annexer le Groenland, éventuellement par la force armée. L’île principale de l’Atlantique Nord représente en effet un atout géostratégique majeur en raison de sa proximité avec les routes maritimes critiques reliant l’Europe, l’Asie et l’Amérique du Nord, ainsi que pour ses riches réserves en matières premières stratégiques. Déjà en 2019, une rumeur prêtait à Donald Trump, au cours de son premier mandat, l’intention d’acheter le Groenland au Danemark.
Malgré des protestations fermes de l’Union européenne et des appels au dialogue international, le Président Donald Trump a justifié sa décision par des impératifs stratégiques et de sécurité nationale. En réponse, le Danemark a saisi le Conseil de sécurité des Nations Unis, appelant à une mobilisation diplomatique mondiale.
Un embargo numérique aux conséquences vertigineuses
Hier soir, dans une escalade sans précédent, la Maison-Blanche a annoncé qu’elle interdisait à toutes les entreprises américaines de la tech de continuer à fournir leurs services au Danemark et à son économie. Cette décision inclut des géants tels que Microsoft, Google, Amazon, Meta et Apple, dont les infrastructures, les logiciels et les plateformes sont omniprésents dans l’économie danoise. Il a par ailleurs annoncé que les États-Unis lèveront cet embargo numérique lorsque le Danemark aura accepté de leur vendre le Groenland à un prix raisonnable et conforme à l’offre d’achat formulée en avril 2025.
Le ministre danois de l’Économie a qualifié cette décision de « déclaration de guerre économique », prévenant que son pays faisait face à une « paralysie imminente ». En effet, le fonctionnement de l’économie danoise repose largement sur les services cloud de fournisseurs américains, tandis que son administration publique et son système éducatif dépendent étroitement d’outils tels que Microsoft 365. Plusieurs organisations professionnelles danoises ont par ailleurs appelé le Gouvernement a engager des négociations avec les États-Unis pour éviter l’effondrement de l’économie du pays.
Les conséquences sociales se font déjà sentir : la plupart des administrations publiques sont à l’arrêt, des milliers d’entreprises se retrouvent coupées de leurs outils de gestion, les services bancaires numériques sont indisponibles, et les citoyens constatent qu’ils ne peuvent plus accéder à leurs services du quotidien comme les applications de messagerie, les réseaux sociaux ou les plateformes de streaming. Les hôpitaux, quant à eux, s’inquiètent de l’accès à leurs systèmes de données patient, majoritairement hébergés sur des serveurs américains.
Une vulnérabilité européenne mise à nu
Cette crise expose cruellement le caractère systémique des dépendances numériques des États européens et de leur économie à l’égard des technologies américaines. Si le Danemark est le seul à être touché, d’autres États européens redoutent des mesures de rétorsions similaires. La Commission européenne, par la voix de sa Présidente, a déclaré que « l’Union européenne déplore de telles attaques contre l’intégrité économique et numérique de l’un de ses membres. » Elle a appelé au dialogue entre les États-Unis et le Danemark et à l’apaisement des tensions. Elle a par ailleurs proposé aux États membres d’apporter un soutien technique au Danemark. Elle suggère enfin de lancer les travaux nécessaires pour accélérer les stratégies d’investissements de l’Union dans des alternatives européennes, notamment en mettant en œuvre les préconisations inscrites dans le rapport que Mario Draghi, l’ancien président de la Banque centrale européenne, lui avait remis en septembre 2024.
Les réponses possibles du Danemark
Face à cette situation inédite, le gouvernement danois tente de réagir. Des négociations d’urgence ont été ouvertes avec des acteurs non américains pour assurer une transition vers des systèmes alternatifs, mais de telles démarches de migration prendront des mois, voire des années. Parallèlement, le pays envisage des mesures de rétorsion, comme le blocage des actifs américains sur son territoire, mais son poids économique relativement faible limite ses marges de manœuvre.
En attendant, les citoyens danois se préparent à vivre une crise sans précédent. Certains experts avertissent que cette situation pourrait entraîner une radicalisation de l’opinion publique contre les États-Unis, renforçant les partis politiques favorables à un rapprochement avec d’autres puissances mondiales.
Une fracture durable ?
Alors que la situation semble s’envenimer, de nombreux observateurs redoutent que cette crise ne marque un tournant dans les relations transatlantiques. L’embargo numérique américain pourrait non seulement remodeler les alliances stratégiques comme l’OTAN, mais aussi accélérer le développement de systèmes technologiques régionaux indépendants, que ce soit en Europe ou ailleurs. Une chose est certaine : le Danemark est devenu, bien malgré lui, le théâtre d’une confrontation qui pourrait redéfinir l’ordre international.
Henri d’Agrain, Délégué général du Cigref, Membre du Conseil scientifique de la SIF.
Cet article est repris du blog Linkedin de Henri.
Texte intégral (1312 mots)

Bruxelles, le 4 juillet 2025, par notre envoyé spécial, Jean Pacet-Démayeur
Une décision historique et lourde de conséquences vient bouleverser les relations entre les États-Unis et l’Union européenne. Dans un contexte de tension croissante depuis six mois, le Président Trump a annoncé hier soir, à la veille des célébrations de l’Independence Day, qu’il avait signé un Executive Order avec effet immédiat, interdisant aux entreprises technologiques américaines de délivrer des produits et des services numériques au Danemark, membre de l’Union européenne. Cette mesure de rétorsion, sans précédent entre alliés historiques, est la conséquence du conflit diplomatique majeur que Donald Trump a provoqué en annonçant au début de l’année, et avant d’entrer à la Maison blanche le 20 janvier 2025, son projet d’annexion par les États-Unis du Groenland, y compris par la force armée.
Une annexion qui embrase les relations internationales
Tout a commencé il y a six mois en effet, lorsque Donald Trump a annoncé sa volonté d’annexer le Groenland, éventuellement par la force armée. L’île principale de l’Atlantique Nord représente en effet un atout géostratégique majeur en raison de sa proximité avec les routes maritimes critiques reliant l’Europe, l’Asie et l’Amérique du Nord, ainsi que pour ses riches réserves en matières premières stratégiques. Déjà en 2019, une rumeur prêtait à Donald Trump, au cours de son premier mandat, l’intention d’acheter le Groenland au Danemark.
Malgré des protestations fermes de l’Union européenne et des appels au dialogue international, le Président Donald Trump a justifié sa décision par des impératifs stratégiques et de sécurité nationale. En réponse, le Danemark a saisi le Conseil de sécurité des Nations Unis, appelant à une mobilisation diplomatique mondiale.
Un embargo numérique aux conséquences vertigineuses
Hier soir, dans une escalade sans précédent, la Maison-Blanche a annoncé qu’elle interdisait à toutes les entreprises américaines de la tech de continuer à fournir leurs services au Danemark et à son économie. Cette décision inclut des géants tels que Microsoft, Google, Amazon, Meta et Apple, dont les infrastructures, les logiciels et les plateformes sont omniprésents dans l’économie danoise. Il a par ailleurs annoncé que les États-Unis lèveront cet embargo numérique lorsque le Danemark aura accepté de leur vendre le Groenland à un prix raisonnable et conforme à l’offre d’achat formulée en avril 2025.
Le ministre danois de l’Économie a qualifié cette décision de « déclaration de guerre économique », prévenant que son pays faisait face à une « paralysie imminente ». En effet, le fonctionnement de l’économie danoise repose largement sur les services cloud de fournisseurs américains, tandis que son administration publique et son système éducatif dépendent étroitement d’outils tels que Microsoft 365. Plusieurs organisations professionnelles danoises ont par ailleurs appelé le Gouvernement a engager des négociations avec les États-Unis pour éviter l’effondrement de l’économie du pays.
Les conséquences sociales se font déjà sentir : la plupart des administrations publiques sont à l’arrêt, des milliers d’entreprises se retrouvent coupées de leurs outils de gestion, les services bancaires numériques sont indisponibles, et les citoyens constatent qu’ils ne peuvent plus accéder à leurs services du quotidien comme les applications de messagerie, les réseaux sociaux ou les plateformes de streaming. Les hôpitaux, quant à eux, s’inquiètent de l’accès à leurs systèmes de données patient, majoritairement hébergés sur des serveurs américains.
Une vulnérabilité européenne mise à nu
Cette crise expose cruellement le caractère systémique des dépendances numériques des États européens et de leur économie à l’égard des technologies américaines. Si le Danemark est le seul à être touché, d’autres États européens redoutent des mesures de rétorsions similaires. La Commission européenne, par la voix de sa Présidente, a déclaré que « l’Union européenne déplore de telles attaques contre l’intégrité économique et numérique de l’un de ses membres. » Elle a appelé au dialogue entre les États-Unis et le Danemark et à l’apaisement des tensions. Elle a par ailleurs proposé aux États membres d’apporter un soutien technique au Danemark. Elle suggère enfin de lancer les travaux nécessaires pour accélérer les stratégies d’investissements de l’Union dans des alternatives européennes, notamment en mettant en œuvre les préconisations inscrites dans le rapport que Mario Draghi, l’ancien président de la Banque centrale européenne, lui avait remis en septembre 2024.
Les réponses possibles du Danemark
Face à cette situation inédite, le gouvernement danois tente de réagir. Des négociations d’urgence ont été ouvertes avec des acteurs non américains pour assurer une transition vers des systèmes alternatifs, mais de telles démarches de migration prendront des mois, voire des années. Parallèlement, le pays envisage des mesures de rétorsion, comme le blocage des actifs américains sur son territoire, mais son poids économique relativement faible limite ses marges de manœuvre.
En attendant, les citoyens danois se préparent à vivre une crise sans précédent. Certains experts avertissent que cette situation pourrait entraîner une radicalisation de l’opinion publique contre les États-Unis, renforçant les partis politiques favorables à un rapprochement avec d’autres puissances mondiales.
Une fracture durable ?
Alors que la situation semble s’envenimer, de nombreux observateurs redoutent que cette crise ne marque un tournant dans les relations transatlantiques. L’embargo numérique américain pourrait non seulement remodeler les alliances stratégiques comme l’OTAN, mais aussi accélérer le développement de systèmes technologiques régionaux indépendants, que ce soit en Europe ou ailleurs. Une chose est certaine : le Danemark est devenu, bien malgré lui, le théâtre d’une confrontation qui pourrait redéfinir l’ordre international.
Henri d’Agrain, Délégué général du Cigref, Membre du Conseil scientifique de la SIF.
Cet article est repris du blog Linkedin de Henri.
- Persos A à L
- Carmine
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- Lionel DRICOT (PLOUM)
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Jean-Luc MÉLENCHON
- Romain MIELCAREK
- MONDE DIPLO (Blogs persos)
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Timothée PARRIQUE
- Thomas PIKETTY
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- LePartisan.info
- Numérique
- Blog Binaire
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Tristan NITOT
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Économistes Atterrés
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD