26.02.2026 à 14:37
Notation des allocataires : la CNAF publie son code mais omet l’essentiel
Texte intégral (4896 mots)
Le 15 janvier dernier, la Caisse nationale des allocations familiales (CNAF) a dévoilé le code source de la dernière version de son algorithme de notation des allocataires. Cette annonce s’est accompagnée d’une campagne de communication de l’administration visant à présenter cette nouvelle version comme répondant aux critiques auxquelles l’algorithme fait face depuis plusieurs années, alors que 25 organisations européennes menées par La Quadrature du Net attaquent la CNAF en justice. À l’entendre, ce nouvel algorithme garantirait « la protection des droits des personnes » et « l’équité » de tous·tes face aux pratiques de contrôle de l’institution. Mais cette opération de communication vise à masquer l’essentiel : l’analyse du code et une étude de la CNAF elle-même montrent que le nouvel algorithme discrimine toujours les mêmes populations.
Rappelons l’affaire avant de continuer : depuis 2010, la CNAF (Caisse nationale des allocations familiales), utilise un algorithme pour orienter ses contrôles. Cet algorithme recherche les indus, c’est-à-dire les foyers qui auraient reçu plus de prestations sociales que ce à quoi ils ont droit. La plupart du temps, ces indus existent en raison d’erreurs de déclaration, parce que les conditions pour recevoir des prestations sociales se complexifient lorsqu’elles concernent les personnes les plus pauvres. Chaque mois, chaque foyer se voit attribuer par l’algorithme un score, compris entre 0 et 1, qui représente la probabilité que, si un contrôle était ouvert, un indu de plus de 600€ par mois sur 6 mois soit trouvé. Et comme l’objectif de cet algorithme est d’orienter les contrôles vers les dossiers les plus faciles, la conséquence est que plus le score d’un foyer est élevé, plus le risque de contrôle est important.
Quatre versions de l’algorithme ont été utilisées depuis la mise en place de ce système : une version conçue en 2010 (où trois « sous-modèles » calculaient trois scores, le plus élevé étant retenu) ; une version conçue en 2014 (cette fois à modèle unique) ; une version de 2018 (à modèle unique aussi, que la CNAF vient tout juste de publier en catimini) ; et la toute nouvelle version conçue en 2025 et mise en œuvre en 2026 (publiée par la CNAF en janvier).
En 2022, La Quadrature du Net a commencé à travailler sur cet algorithme. Nous avons donc demandé à obtenir le code source et – plus important encore – les variables et pondérations. Si l’algorithme en cours d’utilisation (version 2018 à cette date) ne nous avait alors pas été communiqué, nous avions eu accès à une ancienne version de l’algorithme et nous avions pu démontrer son caractère intrinsèquement discriminant (voir notre analyse et nos explications).
Un nouvel algorithme ?
En début d’année, la CNAF a modifié son algorithme et a publié le code de cette « nouvelle » version. Cette version, utilisée depuis janvier dernier, apporte des modifications mineures par rapport à l’algorithme que nous avions pu analyser en 2023 (version 2014). Ainsi, on ne retrouve plus de critère qui augmente le score si la personne bénéficie de l’allocation adulte handicapé (AAH) et travaille, ce qui avait fait grand bruit quand nous l’avions révélé. Exit également l’analyse des comportements : la CNAF n’utilise désormais plus le nombre de connexions au site caf.fr, le nombre d’e-mails envoyés ou le nombre de changements de code postal, comme c’était le cas auparavant. La toute récente publication de la version 2018 de l’algorithme montre que la CNAF a également fait le ménage parmi des critères particulièrement scandaleux : ne sont notamment plus utilisés des critères comme le fait d’avoir attaqué en justice sa CAF, de ne pas être de nationalité française, ou de vivre dans un quartier défavorisé1D’autres critères discriminatoires qui étaient présents dans la version 2018 ont été supprimés comme le fait de vivre dans une résidence sociale, un foyer de jeunes travailleurs ou dans une chambre d’hôtel, ou encore de garder son logement étudiant pendant l’été..
Mais derrière cette amélioration de façade, rien ne change. Les personnes pauvres ou précaires sont toujours directement ciblées. Le score de risque augmente ainsi toujours lorsque les personnes bénéficient de certaines prestations sociales (revenu de solidarité active, complément familial, allocation de soutien familial, allocation de rentrée scolaire ou encore l’allocation d’éducation de l’enfant handicapé) ou pour celles qui auraient le droit à une pension alimentaire (qu’elle ait été touchée ou non). Également, le fait d’avoir des revenus faibles fait toujours augmenter le score2Les foyers ayant entre 0,6 et 1,5 fois le SMIC auront un score plus élevé. La CNAF ne précise pas si le calcul se fait par personne ou pour l’ensemble du foyer..
Pire encore : la CNAF avait introduit dans son algorithme de 2018 des critères ciblant sans équivoque les personnes précaires, critères qui sont aujourd’hui encore utilisés dans la version 2025 et multipliés. Un critère de cumul des prestations sociales a notamment été introduit dans la version 2025 pour cibler les personnes bénéficiant de plus de trois prestations. Les personnes qui touchent plus de 200 euros d’allocations par mois verront également leur score augmenter, comme c’était déjà le cas dans la version 2018 (seul le seuil a changé). Ce nouvel algorithme recherche également toujours la précarité professionnelle puisque les personnes subissant l’ubérisation du monde du travail et qui déclarent une activité non-salariée, les personnes dont le conjoint ne travaille pas, ou celles qui entrent ou sortent du RSA (parce qu’elles ont pu trouver un revenu leur retirant temporairement le droit au RSA) subiront encore un score plus élevé.
Les mêmes populations concernées
Dès lors, quel impact attendre de ces changements sur les profils des personnes ciblées par l’algorithme ? Aucun, et c’est ici un document de la CNAF elle-même qui le prouve.
En octobre 2025, la direction des statistiques, des études et de la recherche (DSER) de la CNAF a réalisé une étude consistant à « simuler » les scores pour différents types de profils socio-économiques (allocataires au RSA, mères isolées, personnes à faibles revenus, …) afin d’identifier les cas de « sur-ciblage », donc les discriminations, dont les allocataires peuvent faire l’objet. Pour cela, cette étude a analysé la part des différentes catégories d’allocataires étudiées dans les 5 % des plus hauts scores – soit les personnes qui auront le plus de risque de se faire contrôler. L’étude a été réalisée pour le modèle 2018 et le nouveau modèle 2025.
Présentée par la CNAF en octobre dernier à son comité d’éthique sur les usages des données, des algorithmes et de l’intelligence artificielle, organe consultatif lancé en mars 20253Ce comité, dont l’objectif est d’aiguiller les choix de la CNAF sur l’usage de nouvelles technologies, notamment l’usage d’algorithmes, n’a qu’un pouvoir consultatif (il n’a pas le pouvoir d’empêcher la CNAF d’utiliser une technologie). Il est composé d’expert·es, de directeur·rices de la CNAF, des membres du conseil d’administration de la CNAF, et de représentant·es d’associations. La Quadrature ne fait pas partie de ce comité, mais d’autres associations parties au contentieux en cours le sont : notre coalition d’organisations a donc pu utiliser les résultats de cette étude dans le recours actuel contre l’algorithme (voir le mémoire en réplique de décembre 2025 qui revient sur la version 2018 de l’algorithme et le mémoire en observations de janvier 2026 qui revient sur le nouveau modèle 2025)., cette étude montre que, tout comme pour le modèle précédent de 2018, les personnes précaires sont surreprésentées dans le nouvel algorithme 2025 au sein du groupe des 5 % des plus hauts scores. C’est-à-dire qu’elles subissent une discrimination par la plus forte probabilité de devoir faire face à des contrôles.
Ainsi, les bénéficiaires du RSA représentaient 13 % des allocataires en 2024 mais entre 39 et 41% des 5% des scores les plus élevés dans le modèle 20254Au total, la DSER identifie que sont surreprésenté·es les bénéficiaires de la prime d’activité ; du RSA ; de l’aide au logement ; du complément familial ; de l’allocation de soutien familial ; de l’allocation de rentrée scolaire ; de l’allocation d’éducation de l’enfant handicapé.. Les mères isolées, quant à elles, représentaient 14 % des allocataires en 2024 mais 37 à 40 % des plus hauts scores dans les simulations sur le modèle 2025. Cette étude a également mis en lumière une surreprésentation des personnes qui ont plus de trois prestations sociales, celles qui touchent plus de 600 euros de prestations par mois ou encore les foyers dont une des personnes est au chômage.
Enfin, la CNAF a beau mettre l’accent dans sa communication sur le fait qu’elle n’utilise plus de critère de nationalité, l’étude montre cependant que les foyers composés au moins d’une personne de nationalité étrangère ont, dans les faits, toujours plus de risque d’avoir un score plus élevé. Et la situation est encore aggravée pour les personnes ayant une nationalité hors de l’Union européenne. Un cas d’école de discrimination fondée sur la nationalité…
Les surreprésentations mises en évidence par cette étude de la DSER s’expliquent par le fait que les personnes en situations de pauvreté ou de précarité vont cumuler différents critères, qui sont autant de « facteurs de risques » utilisés par l’algorithme. La surreprésentation des personnes au RSA ou des mères isolées peut ainsi s’expliquer par des revenus plus faibles, ou des instabilités dans les revenus. On voit alors tout l’intérêt de réaliser des analyses par profils plutôt que d’analyser les variables prises isolément.
Ne surtout pas se remettre en question
Face à ces éléments, la CNAF s’est lancé aujourd’hui dans une stratégie d’intimidation face à nos organisations qui contestent la légalité de son algorithme en prenant appui sur cette étude de la DSER. Dans son mémoire de janvier dernier, la CNAF a écrit qu’elle s’« interroge sur ses conditions d’obtention » et se montre menaçante puisqu’elle n’exclue pas que « des suites [puissent] être réservées à cet élément » (bien qu’elle reste floue sur lesdites « suites » envisagées).
La Quadrature dénonce une tentative d’intimidation sur nos organisations : ce document a été envoyé par la CNAF elle-même aux organisations de son comité d’éthique, dont certaines sont également requérantes dans ce contentieux5Précisons, par souci de transparence, que La Quadrature du Net, qui ne fait pas partie du comité d’éthique de la CNAF et n’a donc pas eu accès à ce document, a fait une demande de communication de document administratif pour obtenir cette étude. La CNAF a refusé de faire droit à notre demande. La Commission d’accès aux documents administratifs (CADA) est saisie de l’affaire et nous espérons que son avis arrivera très prochainement..
Cette étude que ne veut pas publier la CNAF traduit en creux l’absence de remise en question de sa propre politique de contrôle. En 2023, interrogée par Le Monde et Lighthouse Reports, la CNAF déclarait qu’elle n’avait jamais fait de travail d’analyse des personnes principalement concernées par son algorithme6Ce qui, en réalité, est faux puisqu’elle le savait dès 2016, grâce au travail des chercheur·euses Vincent Dubois, Morgane Paris et Pierre-Edouard Weill dans leur étude « Politique de contrôle et lutte contre la fraude dans la branche Famille ». En analysant les données de la CNAF, ils et elles ont démontré que l’introduction de cet algorithme en 2010 a eu pour conséquence de réorienter les contrôles vers les personnes précaires. Ce travail universitaire de 2016, pendant longtemps publié sur le site internet de la CNAF, a été discrètement retiré en 2024 (mais vous pouvez toujours en consulter une copie).. Avec cette étude de la DSER, la CNAF ne peut désormais plus nier savoir que son algorithme cible de façon discriminatoire les personnes les plus précaires. Et ce, d’autant plus que les associations tirent également la sonnette d’alarme sur les pratiques de la CNAF. En juin 2025, la question du ciblage des familles monoparentales a par exemple été abordée au sein du comité d’éthique, en s’appuyant notamment sur des témoignages.
Cela n’empêche pas la CNAF de tordre la réalité pour continuer de nier la violence de ses pratiques de contrôle. Ainsi, en février 2025, pour se défendre devant le Conseil d’État, elle écrivait que son algorithme n’avait pas d’« effet significatif sur l’allocataire » parce que « l’ouverture du contrôle expose[rait] simplement à la nécessité de répondre aux demandes qui peuvent être présentées par le contrôleur ». On sait pourtant combien ces contrôles peuvent être intrusifs et engendrer un stress intense en raison des enjeux pour les personnes qui ont besoin de ce filet social de sécurité pour survivre. Celles et ceux ayant déjà subi un contrôle de la CNAF apprécieront l’euphémisme de l’administration…
Une transparence forcée
Dans un publireportage autour de ce nouvel algorithme, Nicolas Grivel, le directeur de la CNAF, affirme que l’administration aurait choisi « d’ouvrir le capot ». En somme, que cette transparence serait de son initiative et qu’il faudrait la féliciter pour cela. Ce qu’il omet pourtant de dire c’est qu’il n’avait plus vraiment le choix.
Il existe en droit de la non-discrimination un principe fondamental : l’aménagement de la charge de la preuve. Parce qu’il est très souvent impossible d’apporter la preuve « parfaite » d’une discrimination, le droit exige plutôt de la part de la partie défenderesse (c’est-à-dire celle qui est attaquée) qu’elle démontre l’absence de discrimination. Nous demandions depuis le début de notre contentieux contre l’algorithme que ce principe soit appliqué : puisque la CNAF avait refusé de nous transmettre la version actuelle de son algorithme mais continuait d’affirmer que celui-ci ne serait pas discriminatoire, c’était à elle de démontrer l’absence de discrimination. Par exemple en transmettant au Conseil d’État et aux organisations requérantes une copie de son code source, ce qu’elle s’était, jusqu’en janvier dernier, refusé de faire.
La Défenseure des droits est venue enfoncer le clou : en octobre 2025, elle s’est exprimée sur notre contentieux en considérant que la CNAF ne prouvait pas l’absence de discrimination indirecte7On distingue en droit deux types de discriminations. La discrimination directe est constituée lorsqu’une variable relative à un critère protégé par la loi est utilisée. La discrimination indirecte est constituée lorsqu’un algorithme a des effets négatifs sur des populations protégées.. Autrement dit, comme la CNAF n’a jamais voulu communiquer son algorithme dans le cadre du contentieux, la Défenseure des droits lui a donné tort.
La CNAF était donc coincée : pour se défendre, elle était en réalité dans l’obligation de publier son algorithme devant le Conseil d’État. Dès lors, le « choix » de le publier en ligne plutôt que de ne l’envoyer qu’au Conseil d’État et à nos organisations ressemble plus à une opération de communication qu’à une volonté de transparence. Notamment pour contrôler le narratif et répéter ad nauseam que ce nouvel algorithme serait réparé, et ainsi doubler nos organisations qui auraient voulu communiquer sur cette affaire d’abord. Surtout, le choix de ne pas publier l’étude de la DSER, puis de publier en catimini la version 2018 de son algorithme qui était encore plus discriminatoire que le nouvel algorithme de 2025, montre à quel point cet « effort » de transparence est loin d’être complet et désintéressé.
De notre côté, nous continuons de nous battre pour exiger la fin de cet algorithme et la remise en cause drastique de la politique de contrôle discriminatoire de la CNAF. La coalition d’organisations que nous menons et qui se mobilise dans ce contentieux a d’ailleurs été rejointe par dix nouvelles structures. Tout le monde déteste cet algorithme. Alors pour nous aider à continuer la lutte, vous pouvez nous faire un don.
References
13.02.2026 à 17:15
QSPTAG #326 — 13 février 2026
Texte intégral (2731 mots)
Bonjour à toutes et à tous !
Cette semaine on revient sur les deux derniers articles publiés sur notre site, on vous rappelle que notre campagne de financement pour 2026 est toujours ouverte, et on s’intéresse donc aux algos « anti-fraude » de la CAF et à l’avalanche de lois sécuritaires qui arrive.
Bonne lecture à vous !
Alaïs, Alex, Bastien, Eva, Marne, Mathieu, Myriam, Noémie, Nono et Vi
Bienvenue Alaïs !
L’équipe opérationnelle de La Quadrature vient d’être rejointe par Alaïs, élève-avocate en stage jusqu’en juin. Elle nous aidera à l’analyse juridique, le plaidoyer et les contentieux stratégiques. Bienvenue à elle !
Une longue litanie de lois sécuritaires en 2026
Des décennies de choix politiques ont dépouillé l’État et les comptes sociaux d’un certain nombre de leurs recettes, installé une idéologie individualiste qui fait de chacun un entrepreneur de soi-même et culpabilise (voire criminalise) les allocataires des services sociaux, banalisé le traitement de tous les conflits sociaux sous l’angle de la répression, et instauré le recours systématique à des affects racistes et xénophobes pour diviser les populations appauvries et briser la menace politique qu’elles pourraient constituer.
Pourquoi ce long préambule ? Parce qu’il nous ramène à notre sujet en posant le décor de la longue litanie de lois sécuritaires qui vont se présenter dans les semaines et les mois qui viennent. Il semble que l’action politique ne consiste plus qu’à imaginer de nouveaux moyens de surveiller et de punir.
L’écart à la loi ou à la norme, du plus bénin au plus grave, sera invoqué toute l’année pour justifier l’extension et l’intensification de la surveillance de chacune et de chacun — y compris toutes celles et ceux qui « n’ont rien à se reprocher » mais se retrouvent pourtant comme tout le monde devant les caméras, les interdictions et les forces « de l’ordre » qui quadrillent désormais les espaces publics et privés.
Voici donc les mesures prévues pour rendre la société meilleure, d’après nos dirigeants politiques, à la fin de 2026.
Pour préparer les Jeux olympiques d’hiver de 2030, les transports et les événements publics seront surveillés par des caméras algorithmiques à titre « expérimental » jusqu’en 2027 au minimum, puisqu’il est déjà question de prolonger cette expérimentation.
Les logiciels de lecture automatisée des plaques d’immatriculation (LAPI), déjà utilisés pour dresser des contraventions de stationnement, pourront être utilisés dans d’autres contextes de surveillance.
Les polices municipales et les gardes champêtres seront dotés de plus grands pouvoirs de police, ce qui leur permettra par exemple d’utiliser des drones ou d’imposer des contrôles d’identité.
Les administrations sociales auront accès à de nouveaux fichiers (celui des passagers des avions ou celui des communications téléphoniques), pour fouiller la vie des allocataires et contrôler de plus près les fraudeurs supposés.
L’interdiction des réseaux sociaux aux mineur·es de moins de 15 ans, dans l’objectif de limiter leur exposition aux outils de manipulation commerciale, politique et mentale que sont les grandes plateformes, passera probablement par la création d’une identité numérique, liée à l’identité civile de chacun, qui supprimerait l’anonymat de nos navigations en ligne.
Enfin, il est question d’autoriser la vidéosurveillance algorithmique dans les magasins, c’est-à-dire l’analyse permanente de nos comportements lors de nos courses quotidiennes.
Nous ferons bien sûr tout ce que nous pouvons contre ces mesures. Lisez l’article pour en savoir plus sur ces projets de lois, plus ou moins avancés dans leur processus de validation parlementaire, et pour suivre les liens vers nos analyses détaillées des dispositions les plus inquiétantes.
L’article du 30 janvier 2026 : Censure et surveillance : surchauffe au Parlement
Mobilisation accrue contre les algorithmes discriminatoires de la CAF
Fin 2024, La Quadrature et 15 autres associations de défense des droits ont attaqué devant le Conseil d’État les algorithmes de « scoring » utilisés par la Caisse nationale des allocations familiales (CNAF) pour identifier les allocataires les plus susceptibles de frauder et les soumettre à des contrôles invasifs. Notre analyse de l’algorithme utilisé depuis 2018 nous avait permis de montrer que les critères retenus pénalisaient les personnes déjà les plus précaires.
Alors que la première phase du contentieux arrive lentement à son terme, dix nouvelles associations viennent de rejoindre notre action. Entre temps, un avis du Défenseur des droits est venu confirmer ce que nous avançons, et un document interne à la CNAF a reconnu la portée discriminatoire de l’outil. Et en janvier 2026, la CNAF a enfin publié le code de son nouvel algorithme, prenant acte de nos reproches quant à son manque de transparence. Il nous faut encore l’analyser pour voir ce qui a changé.
L’article du 20 janvier 2026 : Algorithme discriminatoire de notation de la CNAF : 10 nouvelles organisations se joignent à l’affaire devant le Conseil d’État
Soutenez La Quadrature en 2026 !
Notre campagne de soutien pour 2026 est toujours ouverte. Nous avons atteint à peu près la moitié de l’objectif pour financer l’association durant l’année. Vous pouvez donc toujours faire un don sur notre site !
Avant les fêtes de fin d’année, nous avions animé notre campagne d’appel à dons avec une série d’émissions en live, pour échanger avec des invité·es autour des difficultés de défendre nos droits dans le contexte politique national et international. Vous pouvez voir ou revoir ces émissions en suivant les liens ci-dessous.
Merci pour votre aide !
Pour nous soutenir en 2026 : Faites un don à La Quadrature du Net
Le thème de la campagne de cette année : À l’heure de la fascisation, soutenez La Quadrature du Net
Émission du 21 novembre 2025 : Sommes-nous à l’heure du Technofascisme ? avec Nastasia Hadjadji (journaliste)
Émission du 26 novembre 2025 : Faire face à la fascisation des médias avec Soizic Pénicaud (journaliste, enseignante et militante) et Clément Pouré (journaliste)
Émission du 3 décembre 2025 : La fascisation est-elle inscrite dans le code ? avec Mathilde Saliou (journaliste) et Pablo Rauzy (enseignant-chercheur)
Émission du 10 décembre 2025 : Surveillance des personnes étrangères avec Romain Lanneau (Statewatch), Paloma et Pauline (Human Rights Observers)
Émission du 17 décembre 2025 : L’état d’urgence sans fin contre les musulman·es avec Mathilde Dabed (Legal Team Antiraciste), Rayan Freschi (CAGE International) et Nicolas Klausser (chercheur au CNRS).
Agenda
- Mercredi 4 mars 2026 : réunion du groupe Technopolice-Paris-Banlieue au Bar Commun, 135 rue des Poissonniers, à 21h.
- Mardi 10 mars 2026 : conférence au Café Pompier à Bordeaux à 19h.
- Jeudi 12 mars 2026 : causerie mensuelle du groupe Technopolice Marseille au Manifesten, 59 rue Adolphe Thiers, à 19h.
- Retrouvez tout l’agenda en ligne.
La Quadrature dans les médias
Réseaux sociaux
- Réseaux sociaux : les limites de la restriction [France Info TV]
- L’interdiction des réseaux sociaux aux moins de 15 ans est-elle irréalisable ? [France Inter]
- Majorité numérique à 15 ans : protection des enfants ou risque sécuritaire ? [L’Anticapitaliste]
Surveillance
- Des caméras dopées à l’IA contre les vols à l’étalage ? [France Info TV]
- Vidéosurveillance de l’espace public : « Un outil qui n’agit que sur le sentiment d’insécurité », selon cette juriste de la Quadrature du net [Le Télégramme]
- Vidéosurveillance : « Il y a un fort lobby des industries de la sécurité » [Bondy Blog]
- Vidéosurveillance algorithmique : premières expérimentations et premières critiques [ZDNet]
- Avant les municipales 2026, le débat sur la vidéosurveillance mobilise candidats et professionnels du secteur [Le Monde]
- À Saint-Brieuc, une chasse aux dépôts d’ordures à coup de « pièges photographiques » à la légalité douteuse [Splann]
- Droits : comment la police judiciaire contourne la loi et exploite vos données [Politis]
- Sécurité : Big AI is watching you ! [Politis]
- Comment l’IA pourrait s’intégrer dans les caméras de vidéosurveillance de nos communes ? [Le Dauphiné]
- Contre la « dronisation de l’espace public », les recours volent en escadrille [Mediapart]
- Mieux que les caméras de surveillance à Marseille, déployer des drones qui survolent les espaces publics ? Pourquoi cette proposition n’est pas tenable [France 3 Provence-Alpes-Côte d’Azur]
- Municipales 2026 : caméras de vidéosurveillance, des promesses sous conditions [La Dépêche]
- Valérie Pécresse instrumentalise les femmes victimes de violences pour promouvoir la vidéosurveillance algorithmique dans les transports [L’Humanité]
- Municipales 2026 : comment Serge Grouard a fait d’Orléans le laboratoire sécuritaire de la droite [L’Humanité]
- Valérie Pécresse veut généraliser la « vidéoprotection intelligente » dans les transports : le risque d’une « surveillance permanente de tous » ? [France 3 Île-de-France]
- JO d’hiver 2030 : cinq questions pour comprendre la loi olympique débattue à l’Assemblée nationale [France 3 Auvergne-Rhône-Alpes]
Algorithme de la CNAF
- Algorithme de la CAF : des organisations européennes rejoignent la Quadrature du Net [Next]
- L’algorithme de la CAF peut provoquer une « discrimination indirecte », juge le Défenseur des droits [Mediapart]
- Algorithme de la Cnaf : un effort de « transparence » qui ne convainc pas [Le média social]
- Scoring à la Cnaf, un petit pas vers la transparence [Cio]
- Contrôle des allocataires : l’algorithme « nouvelle version » de la Cnaf toujours critiqué [Le média social]
- À la CAF, la lutte contre la fraude sociale est-elle un prétexte pour ficher massivement les allocataires pauvres ? [L’Humanité]
- RSA, APL… La CAF a un nouvel algorithme pour contrôler ses allocataires: qu’est-ce qui change pour vous? [BFM TV]
- Coincés dans les indus de la CAF [Dans les algorithmes]
- La fronde contre l’algorithme de la CAF, accusé de sur-contrôler les plus précaires, s’élargit, avec un nouvel allié de taille [01Net]
- L’usage de l’IA par France Travail ? Globalement positif mais « perfectible », selon la Cour des comptes [01Net]
- RSA, APL, allocations familiales… La Caf change son algorithme pour mieux contrôler les bénéficiaires d’aides [Ouest-France]
- La fraude fiscale coûte 6 à 10 fois plus à la France que la fraude sociale [Bon Pote]
Intelligence artificielle
- Explosion des data centers en France : une trajectoire hors de contrôle [La relève et la peste]
- “Votre cloud, notre fournaise”: résister à la dématérialisation depuis Marseille [Terrestres]
- Implantation de datacenters en France : suivez le guide [ZDNet]
- Des habitants vent debout contre l’installation d’un centre de données près de Marseille [La Croix]
Divers
- Cyberattaques : pourquoi nos données privées sont en danger ? [Blast]
- ATTRAP : trouvez en un clic ce que vous cherchez dans les arrêtés préfectoraux [IntendanceZone]
- Sous l’œil des robots [En attendant Nadeau]
- Pression sur les politiques, alternatives aux réseaux sociaux… Pour résister aux algorithmes, cinq bons réflexes [La Vie]
- Cybersécurité : L’État confie enfin le filtre anti-arnaque à l’OFAC [ZDNet]
- WhatsApp, Signal… : après l’échec contre le narcotrafic, l’État lance une nouvelle offensive contre les messageries chiffrées [Challenges]
- Vie privée, en 2025, on l’a échappé belle, mais quid de 2026 ? [Clubic]
- Cyberattaque au ministère de l’Intérieur : qu’est-ce que le fichier de traitement des antécédents judiciaires infiltré par des pirates ? [France Info TV]
- «Une pensée techno-fasciste» : les journalistes Nastasia Hadjadji et Olivier Tesquet racontent les dérives des milliardaires trumpistes [Vert]
30.01.2026 à 12:26
Censure et surveillance : surchauffe au Parlement
Texte intégral (2593 mots)
Contrairement à ce que l’on pourrait penser, les parlementaires ne parlent pas que du budget. Comme chaque année, ils et elles échangent aussi sur leur autre sujet favori, avec la bénédiction du gouvernement : la dérive autoritaire, avec plus de sécurité, plus de surveillance et plus de censure. Après plusieurs mois de pause parlementaire et à l’approche des municipales où ces sujets peuvent faire office de vitrine électorale, le nombre de lois sécuritaires en discussion explose. C’est l’occasion de faire un petit point sur les sujets du moment.
JO 2030 : allonger l’autorisation de la vidéosurveillance algorithmique
En mai 2025, le gouvernement a déposé au Sénat un projet de loi pour préparer l’organisation des jeux olympiques d’hiver de 2030.
Première disposition qui nous intéresse : l’extension de l’autorisation de la VSA jusqu’en 2027. Pour rappel, la loi sur les JO de 2024 avait autorisé le déploiement de logiciels de reconnaissance de comportements en temps réel dans l’espace public. Malgré un bilan plus que douteux sur l’intérêt de cette technologie, le gouvernement ne veut pas s’arrêter en si bon chemin et souhaite prendre l’excuse des JO 2030 pour continuer (avec les industriels de la sécurité) les expérimentations jusqu’en… 2027 (avant une probable reconduction d’ici-là). Nous avions consacré un article à ce sujet cet été.
À noter aussi, moins numérique, mais tout aussi grave : ce texte veut créer un nouveau régime d’interdiction de paraître dans les lieux où se déroulent un grand évènement : le ministère considère en effet que le régime existant (celui des MICAS, pour mesures individuelles de contrôle administratif et de surveillance1Nous avons consacré une émission à ces mesures et à leur utilisation à l’encontre des personnes musulmanes, que nous vous invitons à revoir ici.) ne lui suffit plus et serait trop contraignant. Il veut donc créer un nouveau régime, plus simple à utiliser (rappelons que pendant les JO 2024, il y avait eu plus de 300 MICAS prononcées par le ministère). Ces interdictions de paraître permettent au préfet d’empêcher quelqu’un de venir sur un lieu, sans intervention du juge ni nécessité d’une condamnation pénale préalable. Elles ont été introduites dans le droit par la loi Narcotrafic et ont déjà été utilisées 1682 fois depuis le mois de juin 2025. La loi JO 2030 viserait à les étendre à « toute personne pour laquelle il existe des raisons sérieuses de penser que son comportement constitue une menace d’une particulière gravité pour la sécurité publique ». Difficile de faire plus large et vague.
Et on en est où ? Adopté au Sénat en mai 2025 puis à l’Assemblée nationale ce 13 janvier. On attend la synthèse du texte par la commission mixte paritaire avant un nouveau vote au Sénat et à l’Assemblée nationale.
Faciliter l’usage des logiciels de lecture de plaque d’immatriculation
Il s’agit ici des LAPI, des lecteurs et logiciels de lecture automatisée de plaques d’immatriculation des voitures (par exemple montés sur des caméras) et utilisées aujourd’hui par la gendarmerie, la police nationale ou les douanes. En octobre 2025, un sénateur de droite (Horizon), Pierre Jean Rochette a déposé une proposition de loi pour « assouplir les contraintes à l’usage de dispositifs de lecture automatisée de plaques d’immatriculation… ».
Ces dispositifs se sont démultipliés dans les villes de France cette dernière décennie en étant liés aux caméras des rues et des péages. Ce déploiement constitue une surveillance à une échelle de masse qui permet d’identifier les voitures, et donc les personnes qui en possèdent la carte grise, dans l’espace public et sur les routes.
Même refrain pour justifier son extension : l’outil serait pratique mais le cadre actuel trop restrictif. Le sénateur (on imagine inspiré par le ministère ou certains lobbies sécuritaires) veut élargir les finalités pouvant justifier l’utilisation de ces LAPI, étendre la durée de conservation des données et faciliter l’échange des données entre services.
Et on en est où ? Pour l’instant, c’est adopté par le Sénat et renvoyé à l’Assemblée nationale, où il n’y a toujours pas de calendrier.
Étendre les pouvoirs de la police municipale et des gardes champêtres
C’est un projet de loi (donc venant du gouvernement – et plus spécifiquement de son ministre de l’intérieur, Laurent Nuñez). Le titre en entier : « projet de loi relatif à l’extension des prérogatives, des moyens, de l’organisation et du contrôle des polices municipales et des gardes champêtres ».
L’idée est malheureusement plutôt simple : extension massive des pouvoirs des polices municipales et des gardes champêtres. C’est-à-dire, entre autres : autorisation à utiliser des logiciels de lecture de plaques d’immatriculation (LAPI, ce qui leur était refusé jusque là – à part pour le contrôle de stationnement payant), autorisation pour les gardes champêtres à utiliser des drones de surveillance et des caméras piétons, autorisation de dresser des amendes forfaitaires délictuelles (qui sont unanimement dénoncées par les associations et dont le nombre, notamment pour réprimer l’usage de stupéfiants, explose), autorisation pour les régions de subventionner les équipements de sécurité des communes (une demande de Valérie Pécresse qui risque de voir son programme phare de « bouclier de sécurité » retoqué par la justice)…
L’impact de ce projet de loi risque d’être assez massif pour nos droits et libertés – vu que ces agents gagnent aussi des pouvoirs de contrôle d’identité. Nous reviendrons bien vite dessus plus en détails. Notons à ce titre que c’est un mouvement continu depuis notamment la loi dite de « sécurité globale » : un glissement des pouvoirs de police vers des agents de moins en moins formés et de moins en moins publics : officiers de police judiciaire, police municipale, gardes champêtres, agents de sécurité privé…
Et on en est où ? Le texte a été déposé au Sénat en octobre et devrait être débattu en commission et en séance publique début février.
Augmenter les pouvoirs de contrôle des administrations sociales
De nouveau ici, un projet de loi déposé dans un premier temps au Sénat. Son objectif affiché par le gouvernement : accentuer la détection et la lutte contre les « fraudes fiscales ou sociales ».
Nous avions écrit en décembre à son sujet (l’article est ici) : nous y critiquions l’extension de l’accès des contrôleurs·ses des principaux organismes sociaux à de multiples données, dont notamment les fichiers des passagers aériens et les données de communications téléphoniques. Ce texte est une nouvelle malheureuse illustration des dérives des politiques de « lutte contre la fraude sociale » qui, en 20 ans, ont déjà démultiplié les capacités de contrôle et de surveillance des administrations sociales.
Et on en est où ? Adopté au Sénat en novembre 2025, le texte devrait bientôt être discuté en séance publique à l’Assemblée.
Interdiction des réseaux sociaux
Autre texte dans cette revue, le projet de loi issu de la volonté de gouvernement d’interdire les réseaux sociaux aux moins de 15 ans.
Le texte le plus avancé est celui d’une députée Ensemble pour la République, Laure Miller qui a reçu très récemment le soutien du gouvernement. Au programme : interdiction des réseaux sociaux pour les moins de 15 ans avec obligation de vérification de l’âge pour les plateformes… Difficile de savoir si cette interdiction sera effective, puisque que le Conseil d’État a déjà commencé à exprimer des limites aux velléités des parlementaires, et que la faisabilité technique et légale est très incertaine.
Et on en est où ? Le texte de la sénatrice Laure Miller a été voté par l’Assemblée nationale. Il devrait être prochainement débattu au Sénat sur le temps parlementaire du gouvernement, celui-ci ayant activé la procédure accélérée (qui permet de ne faire qu’une seule lecture par chaque chambre du Parlement) et qu’Emmanuel Macron a annoncé vouloir son application en septembre 2026.
Surveillance automatisée des magasins
Dernier texte dans cette litanie sans fin : la surveillance automatisée des magasins. Il s’agit ici d’une proposition de loi déposée par un député EPR, Paul Midy, un des promoteurs de la « French tech » — comprendre l’écosystème de jeunes entreprises françaises spécialisées dans le numérique.
L’idée ici est plutôt simple : légaliser la vidéosurveillance algorithmique dans les magasins. Il s’agit en réalité d’un service rendu à une partie de l’industrie sécuritaire française qui voudrait non seulement déployer ses outils de VSA sur la voie publique, mais aussi dans les supermarchés. C’est ce qu’essaie de faire par exemple Veesion depuis des années en prétendant pouvoir détecter des comportements ressemblant à du vol. Ces entreprises se heurtent à une difficulté qui n’est pas négligeable : ce n’est pas légal. Nous le disons depuis des années, la CNIL le dit, le Conseil d’Etat le dit… bref, aucun doute dessus, même si Veesion n’a jamais été sanctionnée et continue au contraire à bénéficier de soutien financier – on en parlait ici. Heureusement pour eux, Paul Midy se propose avec ce texte de rendre cette technologie légale en l’inscrivant dans le code de sécurité intérieure.
Et on en est où ? Le texte a été adopté mercredi 28 janvier en commission des lois et arrive en séance le lundi 2 février.
Comme on le voit, le Parlement et le gouvernement continuent tranquillement de savonner la planche vers l’autoritarisme : plus de surveillance, plus de censure, moins de juge… Si cette liste peut paraître effrayante, elle nous donne également le vertige face au peu de moyens que nous avons, d’une part, pour suivre ces textes et vous transmettre l’actualité des débats, et d’autre part pour tenter un minimum de s’y opposer.
Surtout que l’inventaire n’est pas terminé : le ministère de l’Intérieur veut déposer un projet de loi sur la sécurité du quotidien (si le texte semble limité aux « rodéos urbains », il risque d’être un véhicule législatif bien pratique pour d’autres dispositions plus dangereuses, telles que la pérennisation de la VSA) et continue de brandir des mesures islamophobes dès qu’il le peut.
References