26.02.2026 à 15:33
Municipales 2026 : l’extinction nocturne de l’éclairage augmente-t-elle vraiment la délinquance ?
Texte intégral (2155 mots)
À l’approche des élections municipales de mars prochain, l’extinction nocturne de l’éclairage public, qui s’est généralisée ces dernières années sur fond d’augmentation des coûts de l’énergie et de prise de conscience des dangers pour la biodiversité, cristallise les inquiétudes en matière de sécurité. Pourtant, la première étude nationale menée en France montre que cette politique n’entraîne pas d’augmentation générale des faits de délinquance. Elle n’a qu’un effet limité sur les cambriolages, qui reste très faible : un cambriolage supplémentaire par tranche de 3 000 logements.
De nombreuses communes françaises ont choisi, ces dernières années, d’éteindre partiellement ou totalement leur éclairage public la nuit. Cette tendance s’est fortement accélérée à l’automne 2022, dans un contexte de flambée des prix de l’électricité. Une cartographie des extinctions nocturnes, publiée par le Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) à l’été 2025, montre ainsi que 62 % des communes (sur les 19 262 étudiées) ont mis en place une politique d’extinction nocturne de l’éclairage public.
Ces décisions permettent aux collectivités de réaliser des économies d’énergie et de réduire leurs dépenses, tout en limitant les effets néfastes de la pollution lumineuse sur la biodiversité et la santé humaine, en forte augmentation ces dernières années.
À l’approche des élections municipales des 15 et 22 mars 2026, ces mesures sont toutefois de plus en plus contestées dans certaines villes en raison du sentiment d’insécurité qu’elles suscitent chez une partie de la population.
Jusqu’à présent, aucune étude scientifique en France n’avait analysé le lien entre l’extinction de l’éclairage public et la délinquance. À l’international, les travaux sur cette question sont rares et ont, jusqu’à présent, abouti à des résultats contrastés.
C’est pour combler ce manque que je me suis intéressée à cette problématique dans le cadre de ma thèse, soutenue en décembre 2025, en menant la première étude empirique évaluant l’impact de l’extinction de l’éclairage public sur la délinquance, à l’échelle nationale. Ses résultats montrent qu’éteindre l’éclairage la nuit n’a pas d’effet sur la plupart des faits de délinquance étudiés. Elle a toutefois un impact léger sur les cambriolages, qui reste très limité et s’applique surtout aux contextes urbains.
Pas d’effet sur la majorité des faits de délinquance
L’étude, qui a passé au crible les statistiques de délinquance entre 2017 et 2023 des communes de plus de 1 500 habitants, montre que l’extinction de l’éclairage public n’a aucun effet pour la grande majorité des faits de délinquance étudiés : dégradations et destructions volontaires, violences sexuelles, vols non violents, vols de véhicules et d’accessoires ainsi que trafic et usage de stupéfiants.
Un faible effet positif a toutefois été mis en évidence pour les cambriolages. Celui-ci est statistiquement significatif, mais reste limité : on parle ici d’une augmentation de 0,35 cambriolage pour 1 000 logements (soit environ 1 cambriolage supplémentaire par tranche de 3 000 logements). Autrement dit cet impact correspond à environ 3,4 % du nombre de cambriolages observés en moyenne par an dans les communes ayant recours à l’extinction nocturne.
Des analyses plus fines montrent que cet effet est concentré dans les communes à forte densité de population, que l’Insee considère comme « grands centres urbains » et « centres urbains intermédiaires ». Aucun impact n’est observé dans les communes à plus faible densité, telles que les ceintures urbaines et les petites villes.
Pour les faits de délinquance, tels que la violence physique, les vols violents avec ou sans arme et les vols dans les véhicules, le modèle utilisé dans l’étude n’était pas applicable. Il n’est donc pas possible de conclure, pour ces faits, à la présence ou à l’absence d’un effet de l’extinction de l’éclairage public.
À lire aussi : Éclairer la ville ou protéger la biodiversité : faux dilemme
Délinquance et éclairage nocturne, des données inédites
Pour parvenir à ces résultats, j’ai croisé deux sources de données.
La première est une base inédite qui identifie, pour chaque commune, si et depuis quand l’éclairage public est éteint. Elle s’appuie sur les travaux du Cerema, qui a eu recours à des images satellites nocturnes pour détecter des ruptures soudaines dans les séries temporelles de radiance – c’est-à-dire la lumière visible depuis l’espace – susceptibles de correspondre à des extinctions de l’éclairage public.
J’ai ainsi adapté cette méthodologie pour améliorer les performances de l’algorithme de détection et mieux distinguer les extinctions des autres changements de l’éclairage public, comme le passage à des lampes LED. La performance du modèle a ensuite été vérifiée à partir d’une base de données regroupant plusieurs centaines de communes dont les pratiques d’extinction étaient connues, notamment grâce à un partenariat avec le programme ACTEE, ce qui a permis de valider empiriquement la robustesse de l’algorithme.
Cette base de données a ensuite été croisée avec les données administratives du ministère de l’intérieur, qui recensent, pour chaque commune et chaque année, le nombre de faits de délinquance sur la période 2017-2023.
Une fois les données croisées, l’enjeu était d’identifier un lien de causalité – et non d’établir une simple corrélation – entre extinction de l’éclairage public et la délinquance. Pour cela, l’étude s’est appuyée sur la méthode des « doubles différences », couramment utilisée en économie.
Concrètement, cette approche consiste à comparer l’évolution de la délinquance dans les communes qui ont éteint leur éclairage public, avant et après la mise en place de la mesure, à celle observée dans des communes comparables n’ayant pas procédé à une extinction.
Le principe est d’isoler l’effet propre de l’extinction nocturne, en neutralisant les tendances temporelles et les différences structurelles entre les deux groupes. De plus, les autres facteurs susceptibles d’influencer la délinquance, (par exemple, la taille de l’unité urbaine, la couleur politique du maire, ou la distance de la ville au quartier prioritaire de la ville le plus proche), ont ainsi été pris en compte.
Les cambriolages ont-ils été déplacés vers les communes éclairées ?
Des analyses complémentaires suggèrent que, s’agissant des cambriolages, il n’y a pas, a priori, de phénomène de déplacement vers les communes voisines restées éclairées lorsque certaines communes pratiquent l’extinction nocturne. En revanche, il serait pertinent de mener des travaux supplémentaires pour déterminer si de tels effets de report existent à une échelle plus fine, au sein même des communes, entre des quartiers éteints et des quartiers adjacents restés éclairés.
Une étude menée en Angleterre et publiée en 2023 apporte à cet égard des éléments intéressants : elle met en évidence une baisse des vols dans les véhicules dans les rues éteintes, accompagnée d’une hausse de ces faits dans les rues voisines demeurées éclairées. En France, la granularité des données actuellement disponibles ne permet pas d’analyser ces phénomènes à une échelle infracommunale.
Plus largement, malgré l’absence d’effets ou les effets très limités observés, de futures recherches pourraient permettre de mieux comprendre les mécanismes à l’œuvre derrière ces résultats pour l’ensemble des faits de délinquance étudiés. Il serait notamment utile d’examiner si les effets – lorsqu’ils existent – varient selon le moment de la journée ou de l’année, selon certaines caractéristiques du tissu urbain, ou encore si l’extinction de l’éclairage modifie les comportements, comme la vigilance des riverains ou la fréquentation de l’espace public. Ces approfondissements contribueraient à concevoir des politiques publiques adaptées.
Ce que les collectivités locales peuvent en retenir
Les résultats de cette étude ne permettent pas de conclure à une augmentation massive de la délinquance liée à l’extinction de l’éclairage public. Pour les communes qui souhaitent mettre en place ces politiques afin de réduire la pollution lumineuse ou maîtriser leurs dépenses énergétiques, ce constat est rassurant. Pour autant, ces mesures peuvent susciter un sentiment d’insécurité chez une partie de la population, qui ne doit pas être négligé.
Dans une autre étude, nous avons montré qu’il est possible de concevoir des politiques d’éclairage à la fois socialement acceptables et bénéfiques pour la biodiversité. Les résultats soulignent qu’une approche uniforme est peu efficace : les politiques d’éclairage nocturne doivent être pensées localement, à une échelle fine, au lampadaire près, afin d’être efficaces.
Enfin, il est important de rappeler que la lutte contre la pollution lumineuse ne se limite pas à l’extinction de l’éclairage public. De nombreuses mesures de réduction – comme l’adaptation de l’intensité ou de la température de couleur – sont largement mieux accueillies par la population, comme l’illustrent notamment les retours observés à Montpellier (Hérault).
À lire aussi : Éclairage public : les Français sont-ils prêts à éteindre la lumière ?
Chloé Beaudet est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l'Observatoire de l'Environnement Nocturne du CNRS. Elle a reçu des financements de l'INRAE et AgroParisTech en tant que chercheuse à l'UMR Paris-Saclay Applied Economics (PSAE).
26.02.2026 à 15:31
Municipales 2026 : le Parti socialiste peut-il tenir bon ?
Texte intégral (1871 mots)
L’échelon municipal a toujours constitué un espace clé pour le Parti socialiste (PS). Devenu largement un parti d’élus locaux, son déclin national a renforcé encore l’importance de ses municipalités. Ces dernières décennies, son assise s’y est largement construite sur une technicisation et une dépolitisation de l’action locale. Le contexte actuel devrait, pourtant, conduire à une nationalisation et à une politisation des élections de mars prochain. À quel défi le PS doit-il s’attendre ?
La municipalisation est décisive dans l’histoire du socialisme dès la fin du XIXᵉ siècle. L’action municipale est un lieu de formation pour les cadres du parti et un laboratoire pour l’ensemble du pays. Elle lui a aussi permis de constituer ses principaux réseaux, d’entretenir ses relations avec les associations, de constituer ses clientèles électorales et de rétribuer ses militants.
Lorsque, dans les années 1970, le Parti socialiste (PS) redéfinit les rapports de force à gauche et se rapproche de l’exercice du pouvoir national, l’échelon local joue toujours un rôle clé. Les années 1980 accroissent encore la municipalisation du parti : les réformes de décentralisation augmentent les budgets et le personnel à la disposition des élus locaux et renforcent la place des carrières professionnelles liées à la politique.
Progressivement, le « socialisme municipal » ne renvoie plus à une identité singulière, tant l’action locale socialiste s’est banalisée. Pour autant, cet échelon structure toujours le PS. La place des élus locaux a continuellement crû au sein du parti et les mandats locaux demeurent un enjeu central dans le fonctionnement socialiste. C’est vrai pour les élus, mais aussi pour le personnel municipal ou les collaborateurs politiques qui dépendent directement des élections.
L’effondrement du parti au niveau national dans les années 2010 a modifié l’ancrage du socialisme sur le territoire, mais il n’a pas contredit cette observation. Certes, en 2014, le PS enregistre son plus mauvais résultat lors d’un scrutin local sous la Vᵉ République. Il revient à un niveau qu’il n’avait plus connu depuis trente-cinq ans. Il perd 49 des villes de plus de 30 000 habitants qu’il dirigeait (près de la moitié), 27 villes de plus de 50 000 habitants et plusieurs villes de plus de 100 000 habitants. En 2020, il peine à se relever de cette défaite historique.
Cependant, son effondrement à l’élection présidentielle de 2017 ne l’empêche pas de conserver toutes ses métropoles, et d’en gagner même de nouvelles (Nancy, Saint-Denis, Périgueux, Bourges ou Marseille, par exemple). Il continue de dominer, à gauche, les scrutins municipaux. Alors que ses positions électorales nationales se sont largement réduites, l’échelon municipal constitue un espace de résistance – sinon de résilience – pour le PS. L’affaiblissement militant du parti amplifie ce constat, en rendant le parti plus dépendant encore de ses ressources institutionnelles.
Une hégémonie en recomposition
Les coordonnées du problème socialiste ont cependant évolué. Les scores réalisés dans certaines métropoles ne doivent pas masquer l’érosion profonde de ses ancrages dans de nombreux territoires et la perte de villes, comme Metz, ou de certains bastions. Comme l’indiquait le cas de Nevers en 2014, le socialisme des villes moyennes s’est par endroit largement essoufflé, sur fond de déclin urbain (baisse démographique, crise économique, croissance de la précarité…) et de mobilité des catégories sociales qui lui étaient le plus favorables. Comme l’observe le géographe Achille Warnant :
« Alors qu’en 1977 la “vague rose” était d’abord l’affaire des villes moyennes, la “vague rose et verte” de 2020 est davantage l’affaire des métropoles. »
L’affaiblissement du PS l’a, de plus, rendu plus dépendant encore de ses partenaires, écologistes en particulier. Dès 2014, s’il domine encore la gauche, son hégémonie tend à se réduire : 69,3 % des mairies de gauche sortantes étaient contrôlées par le PS avant l’élection, contre 60,2 % après. En 2020, dans les villes de plus de 30 000 habitants, les scores de la gauche au premier tour se stabilisent par rapport à 2014, mais ceux du PS continuent de décliner : 36 % en 2008, 25,4 % en 2014 et 16,5 % en 2020. Le PS conserve ses principales zones de force au second tour, mais il le doit essentiellement à un renforcement de son alliance avec les écologistes auxquels il concède de plus en plus de place dans les accords.
Une gauche divisée
Le PS aborde les élections municipales de 2026 après avoir refusé de censurer le gouvernement Lecornu – contrairement aux autres partis de gauche. Il a acté les désaccords stratégiques au sein de son camp, espérant cultiver l’image d’un parti « responsable ». L’importance prise dans le débat public par ces désaccords et les tensions afférentes sont de nature à se répliquer sur le jeu municipal.
Cela vaut d’autant plus que, contrairement aux derniers scrutins, LFI investit l’élection en présentant des candidats dans de nombreuses villes. Le mouvement mène campagne sur la « rupture », y compris avec les édiles socialistes. Ceux-ci rejettent majoritairement, en retour, toute idée d’alliance avec LFI. La proximité de l’échéance présidentielle, en 2027, ne peut qu’attiser cette rivalité.
Dans les villes gérées par les socialistes, cette situation pourrait accentuer la politisation de l’élection et cliver l’électorat de gauche. Cela devrait en particulier s’observer dans les villes de petites couronnes métropolitaines et dans les grandes villes. LFI y obtient ses meilleurs scores et peut espérer puiser dans le réservoir électoral socialiste. Le PS pourrait perdre à cette occasion certaines des grandes villes qu’il dirige – comme Lille, Paris ou Rennes – où des listes insoumises pourraient se maintenir au second tour. Outre les municipalités, c’est également la présidence de certaines de ses métropoles que le PS pourrait être contraint d’abandonner.
La capacité du PS à nouer des alliances, avec les écologistes en premier lieu, sera donc décisive. En retour, le parti pourrait être contraint de concéder plus de places encore à ces alliés.
2026 : une tension entre nationalisation et dépolitisation ?
Les politistes Jean-Yves Dormagen et Stéphane Fournier accréditent la thèse d’une politisation du scrutin municipal dans les grandes villes. Ils font l’hypothèse d’une « polarisation “écologico-identitaire” ». Elle serait appuyée par les politiques progressistes et écologiques des municipalités de gauche et par le « backlash culturel anti-écologiste et sécuritaire » qu’oppose la droite. Elle se manifesterait par la critique des rénovations urbaines destinées à adapter davantage les villes au changement climatique et par des attitudes conservatrices et identitaires. Certes, les grandes villes, où les jeunes et les diplômés favorables à la gauche sont très présents, sont portées à gauche. Mais, la politisation de ces thématiques pourrait mobiliser l’électorat de droite – pour qui elle s’articule à un sentiment décliniste.
Elle pourrait également cliver l’électorat de gauche. La réaction face au changement climatique suscite par exemple certains désaccords, comme sur les zones à faibles émissions (ZFE) que LFI propose de suspendre pour ne pas faire porter aux classes populaires le poids des politiques environnementales. Il en va de même des modalités de lutte contre les discriminations, dont LFI a fait l’un de ses thèmes de campagne. L’électorat de gauche pourrait ainsi se diviser sur ces thèmes, en particulier entre les offres politiques du PS, des écologistes et de LFI.
L’enjeu est donc sans doute moins de savoir si les grandes villes continueront de voter à gauche que de savoir si les socialistes seront en mesure d’en bénéficier. De même, dans les villes qu’il ne dirige pas, rien n’indique que le PS puisse tirer un profit mécanique de cette politisation : soit parce que, comme à Lyon ou à Caen, les écologistes semblent mieux placés pour le faire ; soit parce que, comme à Toulouse, la droite a investi la question de l’adaptation des villes au changement climatique. C’est d’autant plus vrai que, dans l’opposition, le PS peine à fidéliser des électeurs. En témoigne le fait que les villes de plus de 100 000 habitants perdues en 2014 au profit de l’UMP n’ont pas, depuis, été reconquises.
Si le scrutin venait à être nationalisé dans les grandes villes, il pourrait contrevenir à la trajectoire des municipalités socialistes. Celles-ci se sont épanouies autour d’un brouillage politique produit par la technicisation et la dépolitisation du discours municipal. Si les élus socialistes nationaux peuvent espérer tirer profit de leur attitude à l’égard du gouvernement, les élus locaux sont peu impliqués dans la vie politique nationale. Pour minimiser l’empreinte du débat national, ils pourraient être incités à prolonger ces attitudes passées : valoriser leur enracinement local et mettre à distance leur affiliation partisane.
Pour autant, la question du leadership à gauche restant ouverte et l’élection présidentielle de 2027 se profilant, les résultats des grandes villes feront inévitablement l’objet d’une extrapolation nationale. Quoi qu’il en soit, les répercussions de la vie politique nationale sur les élections municipales risquent de prolonger encore la marginalisation des enjeux locaux observée lors des scrutins précédents.
Pierre-Nicolas Baudot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 16:58
Corruption des élus locaux, anatomie d’un phénomène français
Texte intégral (2325 mots)
Contrairement à ce que l’on peut voir dans d’autres pays européens, les atteintes à la probité font rarement figure d’enjeu majeur lors des élections en France. Le pays connaît pourtant bien un problème de corruption et de mauvaise gestion des deniers publics, notamment à l’échelon local.
La corruption municipale en France constitue un enjeu essentiel pour la démocratie. Selon le Baromètre 2025 de la confiance politique du Cevipof, 46 % des Français expriment une défiance envers les élus locaux et, plus grave, 79 % ont un sentiment négatif à l’égard de la politique en général. De même, selon une étude européenne, 69 % des Français pensent que les institutions publiques locales et régionales sont corrompues.
Cette défiance s’explique en partie par la récurrence des affaires de fraudes révélées ces dernières années, comme l’illustrent les condamnations de Patrick Balkany, longtemps maire de Levallois-Perret (Hauts-de-Seine), ou de Jean-Noël Guérini, ancien président du Conseil général des Bouches-du-Rhône, poursuivi pour avoir truqué l’attribution de marchés publics. Ces pratiques criminelles peuvent fragiliser les finances des communes, comme le montre le cas de corruption au sein du village d’Eringhem, dans le Nord.
Ces affaires sont survenues dans un contexte d’augmentation régulière de la corruption constatée : la France a ainsi connu une croissance de 50 % des atteintes à la probité entre 2016 et 2024. Le pays s’est doté en 2016 d’une autorité administrative indépendante pour lutter contre ce phénomène : l’Agence française anticorruption (AFA). Parmi les 235 signalements reçus en 2024, 61 % concernaient des affaires de corruption des collectivités territoriales.
Même si les élus locaux font le plus souvent leur travail avec rigueur et probité, ce constat interroge sur l’efficacité des dispositifs de prévention et sur la capacité des institutions à garantir l’intégrité des élus. Comment expliquer la surreprésentation des responsables locaux dans les affaires de corruption ?
Des occasions multiples de corruption
Pour commencer, de nombreuses occasions de corruption se rencontrent dans la vie locale, notamment dans les achats publics, l’attribution de subventions, la gestion des ressources humaines locales ou l’octroi d’autorisations en tous genres, notamment liées à l’urbanisme. Un rapport publié par l’Association des maires de France (AMF) rappelle ainsi que les communes gèrent annuellement plus de 100 milliards d’euros de dépenses publiques.
Ces flux financiers considérables peuvent être plus ou moins bien gérés. En prenant l’exemple des achats de prestations de conseil, un rapport de la Cour des comptes de 2025 mentionne différents manquements : une définition insuffisante des besoins, une mise en concurrence des prestataires loin d’être systématique (contrairement à ce que prévoient les règles en vigueur), des règles de sélection pas toujours claires ou encore l’absence d’évaluation formelle des prestations réalisées.
La permanence des élus et l’enracinement des réseaux d’influence
Par ailleurs, la longévité des mandats locaux peut favoriser l’émergence de pratiques clientélistes et de conflits d’intérêts. En France, 45 % des maires en exercice effectuent un deuxième mandat ou plus. Et la longévité des maires est encore davantage marquée dans les plus petites communes. Ainsi, la mairie de Nantes (Loire-Atlantique) est gérée par la gauche depuis 1989, alors que celle de Nice (Alpes-Maritimes) est aux mains de la droite depuis 1947. La multiplication des mandats consécutifs peut renforcer la professionnalisation des maires, mais aussi augmenter la concentration de leur pouvoir, voire l’emprise de réseaux d’influence.
Les magistrats de la Cour des comptes notent ainsi que « dans le cadre de la reconduction de marchés conclus par les communes de Béziers et de Marseille ainsi que par la région Occitanie, les offres des prestataires en place, présents depuis plusieurs années, ont été retenues, au motif, notamment, que la qualité de leur travail avait donné pleine satisfaction à ces collectivités ». Cette pratique ne permet pas à la concurrence de s’exercer pleinement et constitue une opportunité de favoritisme.
Au contraire, l’alternance politique apparaît comme un puissant antidote à l’enracinement de la corruption. Une étude menée sur les gouvernements locaux au Brésil a ainsi démontré que le simple fait de changer l’exécutif en place par une alternance du parti au pouvoir suffisait à perturber les liens établis entre politiciens, fonctionnaires et hommes d’affaires locaux, assainissant ainsi la gestion municipale.
Il existe de plus un effet de contagion. Quand une municipalité est touchée par la corruption, les communes avoisinantes présentent un risque accru d’être également concernées. La limitation des mandats et le renouvellement des équipes dirigeantes sont donc des impératifs démocratiques, pour prévenir l’enkystement des pratiques illicites.
L’audit interne : un contrôle sous influence ?
Les mécanismes de contrôle interne (audits, inspections) sont censés garantir la probité des élus. Cependant, des limites existent à leur efficacité. Ainsi, les directeurs financiers (DAF) et les services d’audit des mairies dépendent hiérarchiquement de l’exécutif municipal. Une étude suédoise a montré que les auditeurs internes minimisent régulièrement les irrégularités graves pour éviter les conflits avec leur employeur. En pratique, l’efficacité des dispositifs dépend donc de leur indépendance réelle. Un système de contrôle interne, s’il est conçu par ceux-là mêmes qu’il est censé surveiller, devient une chambre d’enregistrement.
Les contrôles externes, quant à eux, peuvent être marqués par une certaine faiblesse. Par exemple, les chambres régionales des comptes sont seulement en mesure de contrôler une infime partie des collectivités, notamment en raison de moyens humains et financiers limités. Les rapports officiels mettant en lumière des manquements à la probité ne sont par ailleurs pas toujours suivis d’effets. Par exemple, la Cour des comptes a fait part de ses doutes sur la gestion de la ville de Marseille dès 2013, mais les condamnations ne sont intervenues qu’une dizaine d’années plus tard.
Les audits peuvent pourtant être efficaces. Il existe une corrélation négative observable entre la qualité des audits et le niveau de corruption – plus les contrôles sont rigoureux et indépendants, moins la corruption est importante.
D’autres outils de contrôle peu efficaces
Face à la défiance citoyenne, les collectivités locales ont multiplié les dispositifs de contrôle et de transparence. Par exemple, depuis 2013, les maires doivent faire une déclaration de patrimoine auprès de la Haute Autorité pour la transparence de la vie publique (HATVP). Cependant la HATVP considère que seulement 52,8% des déclarations initiales seraient entièrement conformes aux exigences d’exhaustivité, d’exactitude et de sincérité. Près de la moitié d’entre elles nécessiteraient ainsi des déclarations modificatives ultérieures.
Les mairies se sont également pourvues de comités d’éthique. Mais un risque significatif existe que ces comités soient composés de proches de l’exécutif et se limitent à des avis consultatifs. Par exemple, après de retentissantes affaires de corruption, la mairie de Bobigny (Seine-Saint-Denis) a créé une commission éthique en 2020, qui n’a qu’un rôle consultatif.
Une autre mesure du même type est le recours à un déontologue ou la mise en place d’une charte déontologique. Même adoptée par une mairie, une charte n’a pas de valeur contraignante, et semble davantage s’inscrire dans le registre de la communication que de l’action.
En effet, la lutte contre la corruption peut désormais s’intégrer pour les maires dans le cadre de stratégies visant à accroître leur légitimité auprès de parties prenantes : l’électorat, les médias ou, directement, les représentants de la République, notamment ceux garants des contrôles. Dans ce cadre, comme dans toutes les organisations, les dirigeants d’une municipalité peuvent adopter le vocabulaire et les symboles de la bonne gouvernance, sans pour autant modifier en profondeur leurs pratiques.
Ces stratégies d’évitement constituent des exemples de ce que l’on qualifie de « découplage organisationnel », c’est-à-dire des situations où les institutions adoptent des normes formelles pour légitimer leur action, sans modifier leurs pratiques réelles.
Loyauté et impunité, des valeurs municipales qui s’opposent à l’éthique
Une autre explication de la corruption au niveau local peut résider dans une certaine culture de la loyauté, susceptible de primer sur les impératifs éthiques. Dans le microcosme de l’hôtel de ville, la première des vertus n’est en effet pas la probité, mais la fidélité au chef.
L’affaire Guérini illustre un tel système clientéliste. Celui-ci s’était établi à Marseille, avec des procédures d’attribution des marchés publics méthodiquement détournées au profit de proches de Jean-Noël Guérini comme de son frère, Alexandre. Ce cas de corruption illustre comment une culture politique fondée sur l’allégeance personnelle peut anéantir tous les garde-fous éthiques et légaux.
Enfin, la corruption locale s’explique par la faiblesse des sanctions. La Cour des comptes, dans une analyse récente de la politique de lutte contre la corruption en France, dresse un constat alarmant :
« Les atteintes à la probité donnent lieu à peu de sanctions en France. […] S’agissant des mesures administratives, les poursuites disciplinaires dans la fonction publique sont mal répertoriées, peu fréquentes et inégalement appliquées. »
Selon elle, 53 % des dossiers transmis aux parquets ne font pas l’objet de poursuites. Quand les fraudeurs ne sont pas punis, la corruption devient progressivement un « phénomène normal ».
Corruption locale en France : un défi démocratique à relever
Des élections municipales sont toujours un test pour la démocratie locale. Associer mairie et corruption dans l’esprit des citoyens risque d’augmenter encore l’abstention lors du prochain scrutin, alors que celui de 2020 avait déjà été marqué par une forte baisse de la participation.
Cette année-là, l’ONG Transparency International avait demandé aux élus de se prendre position sur l’enjeu de la corruption, avec un certain succès puisque 190 listes candidates avaient souscrit aux engagements proposés.
Si les candidats ne se saisissent pas sérieusement du sujet, nous pourrions assister à une augmentation du désengagement citoyen et, par ricochet, à l’émergence de candidats opportunistes, promettant une « rupture » avec des élites traditionnelles jugées corrompues.
À l’inverse, un véritable intérêt pour le sujet, une transparence accrue et le renouvellement des équipes municipales pourraient restaurer la confiance – à condition que les promesses ne restent pas, cette fois encore, lettre morte.
Bertrand Venard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.02.2026 à 17:02
Marx permet-il encore de penser notre monde ?
Texte intégral (1599 mots)

Le marxisme n’est plus en vogue chez les intellectuels depuis l’effondrement de l’URSS. Pourtant, Karl Marx demeure l’un des pères fondateurs des sciences sociales et l’un des rares auteurs à proposer une analyse globale du capitalisme de son temps. Aujourd’hui, le détricotage des États-providence et l’augmentation des inégalités nous conduisent à réinterroger la persistance d’une forme de lutte des classes.
Certes, aujourd’hui, le personnel politique parle beaucoup moins de Marx que dans les années 1960 et 1970. La lutte des classes, les contradictions de capitalisme qui se résorberaient par une révolution prolétarienne, tout cela semble daté. La dissolution de l’URSS qui prétendait incarner ses idées est aussi passée par là. Le philosophe allemand reste tout de même une référence incontournable pour la gauche française, du Parti socialiste jusqu’aux groupes révolutionnaires.
Certaines de ses idées sont souvent reprises par la médiation de la lecture qu’en faisait Jean Jaurès. Ce dernier, républicain, bien intégré dans les institutions de la IIIᵉ République et figure marquante de l’Assemblée nationale, considérait qu’il fallait se servir de la pensée de l’auteur du Capital pour l’emmener vers autre chose. Telle est la démarche qui est aujourd’hui celle de nombreux responsables politiques mais aussi celle de chercheurs et chercheuses.
Car, paradoxalement, la fin du soviétisme a eu l’effet inverse dans le monde universitaire. Sans doute a-t-elle permis de redécouvrir que marxisme ne rimait pas nécessairement avec stalinisme et que la pensée originelle est bien plus complexe que l’image que l’on en avait. Il est peu contesté dorénavant que, à côté d’Émile Durkheim, d’Adam Smith, de David Ricardo ou ce Max Weber, Karl Marx compte parmi les pères fondateurs des sciences sociales. Se plonger dans sa pensée n’est toutefois pas chose aisée. Ses écrits sont aujourd’hui assez difficiles à lire. Cela demande un certain volume de connaissances sur ce qu’était le XIXᵉ siècle pour comprendre le propos et maîtriser un lexique qui n’est plus très actuel.
Si on continue de s’y référer, c’est tout d’abord parce que Marx est un des rares à proposer une analyse assez complète et globalisante du capitalisme de son temps, le capitalisme britannique du XIXᵉ siècle. Sa pensée possède une puissance analytique spécifique car elle allie plusieurs composantes.
On retrouve tout d’abord une dimension philosophique, notamment lorsque, dans ses jeunes années, il développe le concept d’aliénation pour désigner le sentiment éprouvé par un travailleur dépossédé des fruits de son travail. Marx, c’est aussi, dans l’Idéologie allemande notamment, une manière de lire l’histoire que l’on nomme le « matérialisme historique ». Elle peut être selon lui comprise à partir des rapports sociaux de production, l’infrastructure sur laquelle repose tout le reste. La religion ou l’organisation de l’État peuvent, selon Marx, être expliquées à partir de la manière dont l’économie produit. Ces rapports sociaux deviennent parfois contradictoires, et c’est ainsi que l’Europe aurait évolué de l’esclavagisme vers le féodalisme et du féodalisme vers le capitalisme. Marx pense également comme un économiste dans le Capital et tente d’analyser la formation de la plus-value, l’évolution du taux de profit ou encore les conséquences de la mécanisation des usines sur la productivité.
Quand bien même on ne partage pas la pensée de Marx, le fait même d’étudier pareil cadre global reste inspirant. Marx essaie de penser le système capitaliste et de lui donner une cohérence qui, parfois même, on le soupçonne moins, est vue comme une force par l’auteur. On trouve des textes de Marx qui traduisent une forme d’admiration pour le capitalisme et sa force propulsive à l’époque.
Marx et son complice et mécène Engels ont certes perdu leur pari lancé en 1848 avec le Manifeste du parti communiste : que la prolétarisation d’une grande partie de la société, petits bourgeois et paysans notamment, mène à une opposition de plus en plus frontale entre deux classes sociales et finalement à une révolution. L’émergence de la classe moyenne au XXᵉ siècle est un phénomène qui ne peut pas exister dans le logiciel de Marx.
Le travail des enfants, la surexploitation, tout cela n’existe plus vraiment. Marx dit des choses intéressantes sur la politique, mais un certain nombre de processus n’étaient pas visibles à son époque : la professionnalisation du personnel politique, y compris à gauche, l’intégration du socialisme dans l’appareil d’État et la naissance d’un État social… Marx a sans doute sous-estimé la capacité du capitalisme à surmonter ses contradictions.
Malgré cela, la brutalité des rapports sociaux semble aujourd’hui de retour avec le détricotage des États-providence. On observe une concentration des richesses d’un côté de la société et une augmentation de la pauvreté de l’autre. L’idée de lutte des classes ne peut pas être pensée comme au XIXᵉ siècle, mais d’une certaine manière, elle correspond sans doute mieux à notre réalité qu’à celle des Trente Glorieuses, au moment pourtant de l’histoire où les partis politiques citaient le plus Marx. Sa pensée retrouve aussi une certaine actualité à travers cela. De même, la « perte de sens au travail » si souvent mentionnée sur LinkedIn et dans moult essais n’est pas si éloignée de la théorie de l’aliénation.
L’enjeu intellectuel de Marx était de lier la place de la bourgeoisie dans le système économique à ses objectifs politiques. Ce n’était pas faire de l’économie pour faire de l’économie. Cette attitude peut encore nous permettre de penser notre monde. Réserves de pétrole, intelligence artificielle, nouvelles technologies… Un marxiste aura le réflexe de se demander ce que ces enjeux économiques peuvent produire socialement et politiquement.
Le risque avec le marxisme est de rester nostalgique de logiques sociales anciennes, incarnées par exemple dans de grandes usines : évoluer vers de nouvelles lectures est un pari intellectuel intéressant et audacieux. Un autre est de se limiter à cette approche qui ne voit en l’individu qu’un membre d’une classe surdéterminée par des intérêts économiques. Cela reste fondamental, mais d’autres choses entrent en ligne de compte pour comprendre les actions des individus. Psychanalyse, sciences cognitives, autres approches de la rationalité… Marx, fervent défenseur de la science et qui saluait volontiers ses avancées, à l’instar des écrits de Charles Darwin, s’y serait très vraisemblablement intéressé également.
Cette contribution est publiée en partenariat avec le Printemps de l’Économie, cycle de conférences-débats qui se tiendront du 17 au 20 mars au Conseil économique social et environnemental (Cese) à Paris. Retrouvez ici le programme complet de l’édition 2026, intitulée « Le temps des rapports de force »
23.02.2026 à 17:18
Municipales 2026 : comprendre la gratuité des transports en graphiques
Texte intégral (2157 mots)

Dunkerque, Montpellier, Calais, Nantes… toutes ces villes ont mis en place la gratuité totale des transports en commun. Promue par certains candidats, conspuée par d’autres, cette mesure devient un élément central des campagnes électorales municipales de 2026. Mais qu’en disent les experts ? Quels sont ses effets bénéfiques et pernicieux ? Décryptage en graphique et en données.
La gratuité des transports en commun, rarement débattue aux élections municipales de 2014 et encore relativement discrète en 2020, se trouve désormais au cœur des campagnes municipales de 2026. Mobiliser une forme de gratuité semble être devenu un passage obligé des débats locaux.
À Lyon (Rhône), après avoir mis en place la gratuité pour les moins de 10 ans, le président de la Métropole Bruno Bernard (Les Écologistes) fait campagne en mobilisant la gratuité des enfants abonnés TCL. De son côté Jean-Michel Aulas (LR, Ensemble) propose une gratuité pour les personnes gagnant moins de 2 500 euros.
Des débats similaires s’ouvrent dans des villes de tailles et de contexte variés comme Angers (Maine-et-Loire), Dijon (Côte-d’Or), Marseille (Bouches-du-Rhône), Paris.
Gratuité totale des transports
Alors même que les transports en commun relèvent le plus souvent de la compétence des intercommunalités, les décisions de gratuité sont prises par une large diversité de collectivités locales, parfois au titre d’autres compétences.
La gratuité est longtemps restée cantonnée à des territoires de petites tailles, avec des transports en commun peu utilisés et de faibles recettes de billetique. À présent, elle s’invite dans des territoires pluriels. Si elle reste principalement mise en œuvre à l’échelle territoriale des villes, elle se développe au sein de communautés urbaines, comme Poher Communauté en Bretagne, ou par les syndicats de transport comme dans le Douaisis, dans le nord de la France.
Après les records de mise en place de cette mesure dans les villes d’Aubagne (100 000 habitants, Bouches-du-Rhône) en 2009, puis de Dunkerque (200 000 habitants, Nord) en 2018, Montpellier (Hérault) a fait franchir un nouveau seuil à la gratuité à partir de 2021 en instaurant la mesure pour ses habitants sur un réseau comprenant plusieurs lignes de trams. Pour sa part, depuis janvier 2026, le syndicat de transports de l’Artois, dans le Nord, est devenu le plus grand territoire français aux transports totalement gratuits avec 650 000 habitants pouvant bénéficier d’une telle mesure.
Si certains partis ont fait de la gratuité des transports un élément fréquent dans leur programme comme le Parti communiste français (PCF), ou plus récemment La France insoumise (LFI), la gratuité n’est pas réservée aux politiques de gauche. Elle est mise en œuvre aussi bien par la droite, comme à Calais (Pas-de-Calais) ou à Châteauroux (Indre), que par la gauche, comme à Morlaix (Finistère) ou Libourne (Gironde). La mesure résiste aux alternances politiques, en étant rarement remise en question.
Report modal de la marche vers les transports en commun
Depuis plusieurs années, les rapports et positions sur la gratuité des transports en commun font légion. Alors que, jusque dans les années 2010, la mesure était peu étudiée, essentiellement par les services du ministère de l’environnement, de nombreuses évaluations se sont développées. Des études ont été commandées par la Ville de Paris, par l’Île-de-France Mobilités ou encore par le syndicat de transports lyonnais (Sytral).
Dans ces études, la gratuité des transports en commun est largement évaluée selon ses effets sur la répartition modale, comprise comme le pourcentage d’utilisation des différents modes de transports. La gratuité est jugée bonne si elle permet un bon report modal, c’est-à-dire d’un mode polluant vers un mode moins polluant – de la voiture au vélo, par exemple. Les rapports concluent que la gratuité est inefficace, puisqu’elle engendrerait un report modal, essentiellement depuis la marche et le vélo vers les transports en commun. Même la Cour des comptes a récemment pointé cette inefficacité à produire un bon report modal.
À lire aussi : Gratuité des transports : comprendre un débat aux multiples enjeux
Ce constat d’inefficacité est alors largement relayé au-delà de la sphère experte, notamment par des acteurs institutionnels et des groupes d’intérêts du transport, qui s’appuient sur ces évaluations pour structurer leur opposition à la gratuité. Les groupes d’intérêts du transport, comme le GART, qui regroupe les collectivités, ou l’UTPF, qui regroupe les entreprises de transport, s’appuient sur ces constats pour s’opposer à la mesure. Les groupes d’intérêts du transport mobilisent ces expertises pour s’opposer assez unanimement à la gratuité. La FNAUT qui représente les usagers et usagères des transports défend que « la gratuité totale, isolée de toute autre mesure, ne favorise pas un report modal ».
Politique publique de mobilité
Si la gratuité des transports est fréquemment étudiée comme une politique publique de mobilité, les élus qui la mobilisent le font au nom d’une grande variété d’objectifs. Nombreux sont les motifs évoqués pour défendre la gratuité, tels que réduction de la pollution de l’air, attractivité territoriale et des commerces, protection du pouvoir d’achat, etc.
À Aubagne, c’est la recherche de liberté et d’accessibilité sociale accrue aux transports qui sont mises en avant. À Dunkerque, on y voit un instrument d’aménagement urbain pour redynamiser le centre-ville. À Montpellier, la mesure est présentée comme un instrument de gouvernance territoriale, pour améliorer le pouvoir d’achat des classes moyennes et populaires. À Calais, on souhaite répondre au mouvement des gilets jaunes et au coût des déplacements. À Nantes (Loire-Atlantique), la gratuité le week-end est associée à des objectifs sociaux et de réduction de l’autosolisme.
Une grande partie des effets prétendus à la gratuité des transports échappe à l’évaluation. Les effets sociaux de la mesure, notamment sur l’isolement de certaines populations, sur la facilité d’accès au transport, ont été encore peu étudiés. Même lorsque l’Observatoire des villes du transport gratuit s’intéresse aux conséquences sur les automobilistes ou sur les jeunes, ce sont essentiellement leurs chiffres sur le report modal qui sont repris dans les débats.
Financer les transports
En France, les transports en commun sont financés par trois sources principales :
le versement mobilité, impôt sur la masse salariale, payée par les entreprises, administrations et associations ;
les recettes tarifaires, payées par les usagers et usagères ;
les subventions des collectivités locales.
Les proportions de ces trois sources varient en fonction des territoires, mais le versement mobilité est souvent la source principale du financement. Les territoires denses et au réseau de transport bien structuré présentent en général des recettes tarifaires plus élevées. Aussi, si la gratuité totale des transports en commun supprime des coûts liés à la billetique (distributeurs automatiques de titres, valideurs, logiciels, application, contrôleurs, etc.), dans les grands réseaux, ces coûts sont généralement plus faibles que ce que rapportent les recettes commerciales.
Une politique totem
Si l’opposition à la gratuité totale des transports en commun est si forte, c’est que, pour beaucoup, la mesure dévaloriserait le transport. « Aucun service n’est réellement gratuit », « la gratuité n’existe pas » sont autant d’expressions révélant une valorisation d’un service par son prix.
Parler de gratuité des transports en commun est révélateur du caractère anormal de la mesure. Parlons-nous ainsi de « gratuité de la police » ? Dans un secteur plus proche, nous ne parlons pas non plus de gratuité des routes, alors que celles-ci sont très largement gratuites et que leur coût est largement supporté par les contribuables plutôt que les usagers et usagères. Comme pour les transports en commun, beaucoup d’économistes défendent pourtant une tarification de la route.
La gratuité des transports est une politique totem. Souvent intégrée à des projets de mobilités, l’intégralité des effets de la mesure demeure encore largement inconnue, tant les sens associés à la mesure sont divers. Les débats sur la gratuité des transports interrogent ainsi la légitimité d’un financement collectif renforcé des mobilités, mais aussi les cadres d’expertise à partir desquels les politiques publiques sont évaluées et jugées.
La thèse de Félicien Boiron est financée par le ministère de la Transition écologique.
23.02.2026 à 17:17
Abstention, vote extrême : ce que la précarité fait à la politique
Texte intégral (1642 mots)
La précarité progresse en France et touche désormais bien au-delà des plus pauvres. Plusieurs enquêtes électorales permettent d’étudier ses effets sur l’abstention, le rapport à la politique et les choix de vote. L’exclusion sociale contribue, de façon marquée, à l’éloignement des urnes et de la politique partisane. Analyse.
En France, la pauvreté atteint son niveau le plus élevé depuis 1996 : 15,4 % de la population vit sous le seuil de pauvreté monétaire, près de 13 % est en situation de privation matérielle et sociale, incapable de faire face à des dépenses courantes, comme chauffer son logement ou acheter des vêtements. Et l’emploi ne protège pas toujours de la pauvreté, puisqu’on compte un million de travailleurs sous le seuil de pauvreté, tout particulièrement chez les femmes et les jeunes. Plus largement, depuis les années 1970, on assiste au retour de la précarité ou de « l’insécurité sociale », au sens où la définissait le sociologue Robert Castel :
« Le fait d’être à la merci du moindre aléa de l’existence, par exemple une maladie, un accident, une interruption de travail qui rompent le cours de la vie ordinaire et risquent de vous faire basculer dans l’assistance, voire dans la déchéance sociale. »
Ce phénomène gagne du terrain et fragilise la démocratie.
De l’exclusion sociale à l’exclusion politique
Pour le mesurer, on dispose d’un instrument mis au point dans les années 1990 afin de détecter les personnes socialement vulnérables, le score Epices (pour Évaluation de la précarité et des inégalités de santé dans les centres d’examens de santé). Outre la pauvreté et les privations matérielles, l’indicateur repère l’isolement social et culturel des individus, à partir de 11 questions simples auxquelles les enquêtés doivent répondre par « oui » ou par « non ».
Les réponses permettent de les classer sur un gradient de précarité croissante allant de 0 à 100. Par convention, une personne est considérée comme précaire lorsque son score Epices est égal ou supérieur à 30.
En 2022, au lendemain du scrutin présidentiel, c’est le cas de 29 % d’un échantillon représentatif de la population inscrite sur les listes électorales, soit un chiffre nettement plus élevé que celui du chômage (7,7 %) ou de la pauvreté monétaire (14,4 %).
Cette précarité est en train de se diffuser, touchant même les tranches de revenus intermédiaires (22 %) et les diplômés du supérieur (14 %). Et elle a des conséquences politiques majeures.
Sur la base de cette même enquête, la conclusion est sans appel : l’exclusion sociale va de pair avec l’exclusion politique. En 2022, la propension à se désintéresser de la politique, à ne se sentir proche d’aucun parti et à bouder les urnes est deux fois plus fréquente chez les 20 % de la population les plus précaires (quintile 5) que chez les 20 % les moins exposés à la précarité (quintile 1).
Pareillement, la proportion d’abstentionnistes aux deux tours est trois fois plus importante dans le premier groupe, celui des plus précaires.
Et cet effet politique de la précarité se maintient, quels que soient le genre, l’âge, le niveau de diplôme et de revenu, la taille de la commune de résidence, la pratique religieuse ou l’origine des sondés.
L’insécurité sociale favorise avant tout le retrait du politique. S’inscrire ou aller voter passent au second plan quand la préoccupation première est de survivre. Du coup, la voix des plus précaires est inaudible. Un rapport de l’Association américaine de science politique (APSA) sur les conséquences politiques des inégalités sociales aux États-Unis le disait joliment, les riches ont l’oreille des dirigeants, parce qu’ils « rugissent », leur voix porte, tandis que les pauvres eux « chuchotent quand ils ne se taisent pas. On ne les entend que par intermittence, par exemple lors de la mobilisation des gilets jaunes que les ouvriers et les employés précarisés ont été les plus nombreux à soutenir, avec le sentiment de retrouver leur dignité dans cette colère.
Comment l’exclusion sociale influence les choix électoraux
L’effet de l’insécurité sociale sur les choix électoraux est plus complexe. Les précaires forment un groupe qui n’est ni socialement ni politiquement homogène, et leurs choix évoluent dans le temps.
Lors de la présidentielle de 2012, nous avions mené une enquête sur les effets de la précarité, mesurée par le même score Epices. Elle montre l’absence de relation statistiquement significative entre le vote pour Marine Le Pen au 1er tour et le degré de précarité sociale. Malgré sa popularité chez les plus démunis, c’est la gauche qui a leur faveur. Au 1er tour, les voix recueillies par les candidats et candidates écologistes, de gauche et d’extrême gauche passent de 43 % chez les moins précaires à 51 % chez les plus précaires. Au second tour, les scores de François Hollande passent de 49 % chez les moins précaires à 63 % chez les plus précaires.
Les entretiens menés parallèlement à l’enquête par sondage de 2012 auprès de personnes en situation de grande précarité dans les agglomérations de Paris, Grenoble (Isère) et Bordeaux (Gironde) montrent qu’entre Nicolas Sarkozy « le président des riches » et le candidat socialiste il n’y avait pas d’hésitation possible, pour elles la gauche c’était « le socialnbsp;», la gauche c’était « le cœur ».
Cinq ans après, la gauche a déçu l’électorat précaire, qui se tourne vers Marine Le Pen. À l’élection présidentielle de 2017, au 1er tour son score passe de 11 % chez les moins précaires à 36 % chez les plus précaires. Au second tour, c’est 19 % chez les moins précaires contre 53 % chez les plus précaires.
Il en va de même lors de l’élection présidentielle de 2022 : le score de Marine Le Pen au premier tour est trois fois plus élevé chez les personnes les plus précaires comparées aux moins précaires. Au second tour, il est trois fois et demi plus élevé.
Mais dans le contexte particulier des législatives anticipées de 2024, on observe chez les plus précaires un retour en grâce de la gauche, les chances qu’ils votent pour le Nouveau Front populaire égalant alors celles de voter pour le RN.
Contrairement aux idées reçues, le vote des précaires pour l’extrême droite n’est donc pas inéluctable. Il y a plutôt, en fonction du contexte politique, un vote de rejet du pouvoir en place, contre Nicolas Sarkozy hier, contre François Hollande en 2017, contre Emmanuel Macron depuis 2022.
Demain, il peut se traduire par un vote aussi bien pour Marine Le Pen que pour la gauche, comme ce fut le cas aux législatives de 2024, quand la gauche unie retrouvait grâce aux yeux de ces oubliés de la démocratie, en promettant d’en finir avec la brutalité des années Macron.
Nonna Mayer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.02.2026 à 11:38
En Europe, les politiques sociales limitent l’appauvrissement des travailleurs en situation de handicap
Texte intégral (1891 mots)

La survenue d’un handicap grave après 50 ans entraîne une dégradation significative des revenus à court terme pour tous les salariés européens. Cette perte peut être largement amortie dans les pays où les systèmes de protection sociale sont généreux et les politiques d’intégration professionnelle efficaces. Alors, quelles disparités entre les pays européens ? Les femmes et les hommes ? Les différents revenus de compensation ?
Selon Eurostat, dans l’ensemble de l’Union européenne, l’écart de taux d’emploi entre les personnes en situation de handicap et celles sans handicap atteint 24 points de pourcentage (pp) en 2024. Derrière cette moyenne se cachent de fortes disparités. L’écart n’est que de 8 pp au Luxembourg et de 14 pp en Slovénie, mais dépasse 40 pp en Roumanie et en Croatie – un point de pourcentage correspond à l’écart absolu entre deux taux exprimés en pourcentage.
Sur le marché du travail, le désavantage des personnes en situation de handicap s’explique par plusieurs facteurs : la nécessité de soins réguliers, l’insuffisante adaptation des postes, une baisse de productivité perçue ou réelle, mais aussi des phénomènes de discrimination. Les caractéristiques du handicap telles que son intensité, son type – physique, cognitif, etc. – ou encore le moment de sa survenue – naissance, enfance, âge adulte – peuvent également jouer un rôle crucial.
Alors, que se passe-t-il lorsqu’un handicap survient en deuxième partie de carrière, chez des personnes initialement en emploi et sans limitation déclarée ? Comment cet événement affecte-t-il leurs revenus globaux deux années après ? C’est précisément la question que nous abordons dans une étude publiée dans la revue Annals of Economics and Statistics.
À partir de l’enquête Survey on Health Ageing and Retirement in Europe (SHARE), menée entre 2011 et 2015 auprès de plus de 2 500 individus âgés de 50 ans et plus, dans 12 pays européens, nous analysons l’effet de la survenue d’un handicap grave sur le revenu global. Nous distinguons ensuite les différents canaux à l’œuvre, en décomposant ce revenu entre salaires d’activité et revenus de remplacement, tels que les pensions ou les allocations.
Concrètement, quelles différences entre les pays européens ?
Chute de près de 79 % des salaires
À partir d’individus initialement en emploi et sans handicap en 2011, nous isolons l’effet du handicap sur le revenu global en combinant deux méthodes économétriques : le Propensity Score Matching et la méthode des différences de différences.
Cette approche permet de comparer, entre 2011 et 2015, les trajectoires de revenus d’individus déclarant un handicap en 2013 (qui perdure en 2015) à celle des individus ne déclarant pas de handicap en 2013 et 2015, tout en homogénéisant leurs caractéristiques initiales de 2011. La méthode permet de tenir compte non seulement des caractéristiques observables – âge, sexe, niveau d’éducation –, mais aussi de l’hétérogénéité non observée, comme la capacité des individus à faire face à leur handicap ou la discrimination des employeurs face aux individus en situation de handicap.
Nous postulons ensuite que cet événement va détériorer la situation sur le marché du travail comme la perte de productivité due au handicap, la réduction subie du temps de travail, voire du chômage. Tout en activant potentiellement des mécanismes de compensation. Pour tester ces hypothèses, nous décomposons le revenu global en salaire d’activité et en revenus de remplacement. Après l’apparition du handicap, les deux hypothèses sont bien confirmées : les salaires chutent fortement, tandis que les revenus de remplacement augmentent. Dans de nombreux cas, cette compensation reste insuffisante pour maintenir le revenu global.
L’apparition d’un handicap entraîne, en moyenne, une chute de près de 79 % des salaires. Malgré une augmentation massive – 200 % en moyenne – des revenus de remplacement tels que les pensions d’invalidité, le revenu global diminue en moyenne d’environ 20 %.
Différentes générosités des systèmes sociaux
Ces chiffres masquent de grandes inégalités entre pays. Dans les systèmes sociaux les plus généreux – Allemagne, Belgique, Danemark, France, Suède et Suisse –, la baisse des salaires est compensée par les revenus de remplacement comme les pensions d’invalidité. Résultat : le revenu global reste stable.
À l’inverse, dans les pays les moins généreux – Autriche, Espagne, Estonie, Italie, République tchèque et Slovénie –, ils ne suffisent pas à endiguer la perte de salaire, entraînant un appauvrissement marqué par une chute du revenu global de 27 %.
Cette hétérogénéité souligne l’importance de la générosité des systèmes sociaux et de leur capacité à protéger les individus face aux risques financiers liés au handicap. Les politiques publiques – allocations, pensions, mesures d’intégration et anti-discrimination – peuvent, par conséquent, couvrir l’intégralité de la perte de revenu lié au handicap.
Les pays nordiques combinent facilité d’accès aux prestations, mesures d’intégration sur le marché du travail et cumul des revenus de remplacement et d’un salaire. À l’inverse, certains pays d’Europe de l’Est faiblement généreux imposent, de surcroît, des conditions strictes pour cumuler pension et autres prestations, ce qui réduit fortement la protection des personnes en situation de handicap.
« Double peine » pour les femmes
Le handicap n’affecte pas les hommes et les femmes de la même manière. Chez les hommes, la baisse des salaires est souvent compensée par les revenus de remplacement, si bien que le revenu global n’est pas significativement affecté. Chez les femmes, les allocations compensent moins la chute des salaires, ce qui entraîne une diminution notable du revenu global de 32 %.
Cette « double peine » des femmes illustre des inégalités persistantes dans l’emploi et les revenus, confirmant des travaux antérieurs sur le sujet, comme ceux des économistes Morley Gunderson et Byron Lee, William John Hanna et Betsy Rogovsky ou Lisa Schur.
Vers une meilleure protection
Nos résultats montrent que la survenue d’un handicap grave après 50 ans entraîne une dégradation significative des revenus à court terme. Cette perte n’est pas inéluctable. Elle peut être largement amortie dans les pays où les systèmes de protection sociale sont généreux et où les politiques d’intégration professionnelle permettent de limiter les sorties du marché du travail.
Ils soulignent plusieurs leviers d’action pour les pouvoirs publics :
renforcer les dispositifs de maintien dans l’emploi ;
améliorer l’adaptation des postes de travail ;
ajuster les mécanismes de compensation financière lorsque l’activité professionnelle devient impossible.
Autrement dit, il ne s’agit pas seulement de compenser la perte de revenu, mais aussi de prévenir la rupture avec l’emploi, qui constitue un facteur majeur de fragilisation économique. Notre étude comporte néanmoins certaines limites. Elle porte exclusivement sur des Européens âgés de 50 ans et plus ; l’impact économique d’un handicap pourrait différer chez les actifs plus jeunes.
La durée de suivi, limitée à deux ans, ne permet pas de saisir pleinement les conséquences de moyen et long termes, notamment en matière de trajectoires professionnelles et de cumul des désavantages. Malgré ces réserves, les résultats apparaissent robustes : la générosité des systèmes sociaux et la capacité à intégrer durablement les personnes handicapées sur le marché du travail sont des déterminants essentiels de leur sécurité économique. À ce titre, les politiques publiques disposent de marges de manœuvre réelles pour protéger les individus face aux aléas de la santé et réduire les inégalités de revenus.
Cette étude a bénéficié d'un financement de la Caisse Nationale de Solidarité pour l’Autonomie (CNSA) dans le cadre du projet “Programme Handicap et Perte d’Autonomie - Session 8” de l'Institut de Recherche en Santé Publique (IReSP). Elle a également reçu le soutien du projet SHARE-France.
20.02.2026 à 16:44
Pourquoi les Français font-ils moins d’enfants ? Comprendre la fin d’une exception
Texte intégral (2524 mots)

Pendant des décennies, la France a fait figure d’exception démographique en Europe, grâce à une fécondité relativement élevée. Or, cette singularité s’efface aujourd’hui à la faveur de transformations des trajectoires de vie, des territoires et des représentations de l’avenir. Derrière les chiffres des naissances, c’est une recomposition silencieuse qui se dessine. Que nous dit-elle de la société française contemporaine ?
En ce début d’année 2026, l’Insee vient de publier une estimation que toute la presse a reprise : la France a connu, en 2025, 645 000 naissances pour 651 000 décès. Cette situation n’est pas une surprise, mais le révélateur d’une dynamique amorcée depuis plus d’une décennie.
Pendant longtemps, la France a constitué une exception en Europe. Par exemple, l’Allemagne connaît un déficit naturel depuis 1970, et l’Italie depuis 1990.
Avec 1,56 enfant par femme en 2025, la France reste plus féconde que la moyenne de l’Union européenne (1,38 enfant par femme en 2023). Mais ce niveau est le plus faible connu par le pays depuis la Première Guerre mondiale.
Une modification structurelle de la dynamique démographique
Ces mesures sont données par l’indicateur conjoncturel de fécondité (ICF) qui estime le nombre d’enfants qu’auraient, en moyenne, les femmes si elles avaient au cours de leur vie fertile les taux de fécondité par âge mesurés une année donnée (on additionne par exemple la fécondité des femmes de chaque groupe d’âge, de 15 à 49 ans, en 2025 pour obtenir un taux de fécondité total conjoncturel en 2025).
Cet indicateur présente l’avantage de pouvoir être calculé en temps réel. L’inconvénient est qu’il ne tient pas compte du calendrier de la fécondité. Si une génération de femmes a des enfants plus tard, il y aura une baisse de l’ICF alors que sa descendance finale (DF) ne diminuera pas nécessairement.
La descendance finale (DF) est un constat : on regarde à la fin de leur vie fertile, combien d’enfants a réellement eu une génération de femmes. C’est donc une mesure réelle, non impactée par le calendrier de la fécondité, mais il faut attendre qu’une génération de femmes ait atteint 50 ans pour la calculer.
L’ICF est donc soumis à des variations annuelles plus fortes que la DF. Ainsi, l’ICF a varié depuis 1980 où il était de 1,94 enfant par femme. On a observé une phase de baisse jusqu’en 1995 avec un minimum de 1,73, puis une hausse jusqu’en 2010 où on a atteint 2,03. À partir de 2014, s’amorce une baisse très rapide jusqu’à 1,56 en 2025.
La DF a été relativement stable : elle a varié entre 2 et 2,1 enfants par femme pour les générations 1960, 1970 ou 1980. Il est trop tôt pour pouvoir calculer la DF de la génération 1990, mais elle sera probablement plus faible.
Des enfants de plus en plus tard
Les Françaises ont leurs enfants de plus en plus tard. Cette évolution a commencé vers la fin des années 1960. L’âge moyen des mères à la maternité s’est encore retardé à 29,6 ans en 2005, puis à 31,2 ans en 2025.
Le fait d’avoir des enfants de plus en plus tard, en lien avec la baisse de la fertilité des femmes après 30 ans, joue aussi sur la DF. Ainsi, 87 % des femmes de la génération 1930 (les mères du baby-boom) ont eu au moins un enfant. Ce chiffre tombe à 80 % pour la génération 1970 et il s’approche de 75 % pour celles de 1980.
Une nouvelle géographie de la fécondité
Tout au long du XXᵉ siècle, les déterminants de la fécondité étaient sociaux et étaient représentés par une courbe en U. Les Françaises les plus fécondes étaient celles issues des catégories socioprofessionnelles les plus aisées et les plus modestes. Les Françaises les moins fécondes étant issues des classes sociales moyennes (employés et des professions intermédiaires).
La fécondité en France (2006-2019)
Un « croissant fertile » au nord se caractérisait par une fécondité historiquement plus élevée que celle du Sud, encore perceptible en 2010. Cette singularité tenait à la structure sociale et culturelle de la population : majoritairement issue des classes populaires et ouvrières, plus fortement marquée par le catholicisme et des valeurs traditionnelles, dans un Nord alors très industrialisé.
Mais ces quinze dernières années, le croissant fertile tend à s’effacer, avec une baisse de la fécondité sur l’ensemble du territoire. Seules des poches de plus forte de fécondité relative persistent, d’une part, à l’est de la Bretagne et dans les Pays de la Loire, où perdurent des normes familiales plus traditionnelles, et, d’autre part, dans la périphérie francilienne et la vallée du Rhône, espaces marqués par une plus forte présence des classes populaires.
Certaines régions de fécondité traditionnellement forte, comme le Nord, le Pas-de-Calais et la Lorraine, ont un recul marqué des familles nombreuses et désormais une fécondité comparable à la moyenne nationale. Cela pourrait s’expliquer par un recul des valeurs traditionnelles de la famille, mais surtout par le déclin industriel et l’incertitude économique (chômage, précarité), qui sont des facteurs documentés de réduction de la fécondité ces quinze dernières années (en France et ailleurs en Europe).
Enfin, le vieillissement des mères à la maternité est généralisé, même s’il est plus marqué dans le sud de la France et les métropoles.
Le désir d’enfants baisse
Le désir d’enfant renvoie à deux notions distinctes. Le nombre d’enfants souhaités est la réponse à la question de savoir combien les personnes souhaitent avoir d’enfants. Traditionnellement, les femmes expriment un désir d’enfants légèrement supérieur à celui des hommes. Le désir d’enfants réalisé est complémentaire (il s’agit de la DF).
En les comparant, le nombre d’enfants souhaité est toujours supérieur au désir d’enfants réalisé, car une partie des femmes a moins d’enfants que souhaité pour des raisons diverses : infertilité, rupture d’union, difficultés économiques. Ces contraintes (économiques, sociales, biologiques) limitent la capacité des individus à concrétiser leurs intentions reproductives et participe à l’abaissement de la fécondité.
Le désir d’enfant a changé de dimension. Aujourd’hui, les couples stables souhaitent généralement avoir un ou deux enfants. Il y a vingt-cinq ans, c’était plutôt deux ou trois. Le refus d’avoir des enfants a progressé mais il est encore marginal, passant de 5 à 12 %.
Quelques hypothèses
Cette baisse du désir d’enfants est nouvelle en France et on peut émettre quelques hypothèses, impactant conjointement le désir d’enfants et sa réalisation, en plus des facteurs démographiques.
Tout d’abord, si l’élévation du niveau d’éducation et l’essor de l’activité professionnelle féminine ont fortement contribué à la baisse de la fécondité à la fin du XXᵉ siècle, cet effet semble aujourd’hui largement épuisé. La massification de l’enseignement supérieur et l’ancrage durable du travail féminin constituent désormais un cadre stabilisé, qui ne permet plus, à lui seul, de rendre compte du recul récent de la fécondité.
La crainte de l’avenir semble être la raison primordiale. Le contexte économique difficile s’associe à une baisse de la fécondité, comme l’ont montré les études en Europe, par exemple avec la crise de 2008. Dans toutes les enquêtes, les jeunes adultes expriment leurs angoisses face au changement climatique, au contexte géopolitique, à l’incertitude économique et sociale. La crise climatique joue probablement, mais à la marge. D’ailleurs, le refus d’enfants est encore très minoritaire. Dans le détail, c’est plutôt un comportement des jeunes des grandes villes, ayant fait des études supérieures, pour lesquels ne pas avoir d’enfant serait un geste « écologique ».
Si l’évolution des représentations de la famille et des changements normatifs participent à ce mouvement de baisse de la fécondité chez les jeunes femmes, on peut aussi y voir des difficultés accrues à trouver un équilibre entre famille et travail dans un contexte de précarisation de l’emploi. En effet, l’emploi et ses modalités jouent probablement un rôle. Si le chômage a baissé en France depuis une petite dizaine d’années, la nature des emplois a changé. Le premier emploi stable arrive souvent après plusieurs contrats précaires, donc plus tard.
Le logement joue également un rôle. La France ne propose pas suffisamment de logements par rapport à la croissance du nombre de ménages. Cela induit une augmentation forte des prix à la location et à l’achat, et une pénurie de logements disponibles, en particulier dans les grandes villes. Beaucoup de jeunes actifs vivent encore dans le ménage parental ou en colocation.
Quel avenir pour la fécondité en France ?
Ces facteurs pourraient accroître l’écart entre nombre d’enfants idéal et réalisé. On peut penser que les risques évoqués sont désormais perçus comme des contraintes de long terme pour les jeunes générations. Une fois intériorisées, elles sont désormais suffisamment fortes pour changer les normes et représentations de la famille, qui influencent le désir d’enfant lui-même.
La France est probablement à un tournant démographique, amorcé il y a une dizaine d’années : l’accroissement naturel est devenu un déficit. La baisse du désir d’enfants chez les jeunes générations nous dit clairement que cela devrait être une tendance durable.
Jusqu’à la fin de la décennie, on peut s’attendre à un indicateur conjoncturel de fécondité probablement inférieur à 1,7. Il ne devrait cependant pas baisser en dessous de 1,3, le désir d’enfants étant encore présent. Cela signifie que le déficit naturel s’installera probablement dans la durée. En ce sens, la France est devenue un pays européen comme les autres puisque c’est le cas dans la presque totalité des pays de l’Union européenne.
Sylvie Dubuc a reçu des financements du LABoratoire d’EXcellence iPOPs
Francois-Olivier Seys et Sébastien Oliveau ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
19.02.2026 à 17:02
Interdire les réseaux sociaux aux mineurs : un frein aux alternatives vertueuses ?
Texte intégral (2064 mots)

La proposition de loi visant à « protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » sera bientôt examinée par le Sénat. Elle élude le cœur du problème : le modèle économique fondé sur la captation de l’attention. Sans s’attaquer à cette architecture, la régulation risque de manquer sa cible.
Loin de cibler les plateformes toxiques bien connues, la proposition de loi visant à « protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux » pourrait entraver l’émergence d’alternatives vertueuses pour nos écosystèmes d’information et de communication. Les sciences humaines et sociales ne sont pourtant pas avares de propositions systémiques plus constructives.
Des mois de débats stériles sans définition valable
Adopté par l’Assemblée nationale le 26 janvier 2026, le projet de loi visant à interdire les réseaux aux moins de quinze ans bénéficie d’une procédure accélérée à la demande du gouvernement. En accord avec la rapporteure Laure Miller, le gouvernement a fait voter un amendement qui gomme toute distinction entre des réseaux sociaux identifiés comme dangereux après avis de l’Arcom et les réseaux sociaux en général : tous sont désormais explicitement désignés comme « dangereux pour les moins de 15 ans ». De fait, le législateur n’apporte aucun élément pour définir ce qu’il propose d’interdire. Il faut se tourner vers le droit européen pour savoir de quoi il est question.
Selon le Digital Market Act (DMA) européen, un réseau social est un « service de plateforme essentiel […] permettant aux utilisateurs finaux de se connecter ainsi que de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils et, en particulier, au moyen de conversations en ligne (chats), de publications (posts), de vidéos et de recommandations ». Sur la base d’une telle définition, le projet de loi français rate sa cible et confond réseaux socionumériques et médias sociaux en ligne, pénalisant les réseaux sociaux qui méritent encore d’être désignés comme tels.
Or de tels réseaux ne manquent pas. Nous ne parlons pas seulement des substituts aux services de microblogging que sont Mastodon ou Bluesky. Les projets réellement alternatifs sont peu connus et balbutiants faute de moyens dans un espace dominé par les grandes plateformes toxiques des BigTech. Vous connaissez TikTok, YouTube, Instagram, Facebook ou LinkedIn, mais sans doute pas Tournesol, Reconnexion, Qwice, Panodyssey ou encore needle.social. Ce dernier projet émane de la recherche publique en sciences humaines et sociales, développé au Centre de recherche sur les médiations (Crem) dans l’espoir de le mettre au service du secteur de la presse.
De longue date, l’impensé numérique traverse les discours médiatiques. Il consiste à présenter la technique comme une évidence au point de vider le débat public de tout questionnement politique ou velléité de résistance. Ainsi, en mettant l’accent sur des préoccupations tournées vers la santé des adolescents, le débat autour de l’interdiction des réseaux sociaux a contribué à détourner l’attention des enjeux démocratiques que soulève le modèle économique des plateformes dominantes.
Derrière l’urgence sanitaire, une urgence démocratique
Souvent résumé dans les médias à une opposition entre interdiction et éducation, le débat a fini par occulter le rôle prépondérant du modèle économique des plateformes pourtant identifié par l’Agence nationale de sécurité sanitaire. Là où réside un consensus scientifique, c’est bien pour condamner la responsabilité écrasante du modèle économique des Big Tech dans la dégradation de nos démocraties. C’est notamment le constat accablant du GIEC des écosystèmes d’information après avoir épluché près de 1 700 publications scientifiques :
« Les modèles économiques des grandes entreprises technologiques (Big Tech) incitent les enfants et les adultes connectés à autoriser l’extraction de données, qu’elles monétisent ensuite à des fins lucratives. Cette pratique facilite la diffusion virale de désinformation, de mésinformation et de discours de haine. »
Le modèle économique des grandes plateformes numériques constitue un facteur majeur de l’accélération de la désinformation et de la mésinformation. La propagation des contenus malicieux est amplifiée à partir de métriques (likes, commentaires, partages, temps passé, etc.) qui provoquent l’emballement, selon un processus favorable aux contenus qui provoquent le plus de réactions.
Une action systémique contre l’économie de l’attention est possible
Il ne viendrait pas à l’idée de nos parlementaires d’interdire de « boire dans un verre au café » sous prétexte que les « verres » peuvent contenir une boisson alcoolisée. C’est bien la vente d’alcool aux mineurs qui est interdite. Si l’interdiction peut être débattue, elle doit porter sur des produits dont la nocivité est avérée. Or, le produit toxique des BigTech ce sont les enchères publicitaires qui conditionnent toute l’architecture algorithmique de leurs réseaux sociaux. Dans une note du MIT de 2024, quelques mois avant de recevoir le Nobel d’économie, Daron Acemoglu et Simon Johnson ont ainsi appelé à l’urgence de taxer la publicité numérique. L’enjeu : casser cette économie toxique, contraindre les Big Tech à imaginer d’autres modèles d’affaires et réouvrir la possibilité d’innover au travers de plateformes différentes.
La régulation a également un rôle à jouer. On serait en droit d’attendre l’application des lois européennes existantes, telles que le Règlement sur les services numériques (DSA) qui impose notamment aux plateformes des obligations quant à la modération des contenus partagés sur les réseaux sociaux (facilitation des signalement et coopération avec des signaleurs de confiance, possibilités de contestation pour les utilisateurs, transparence des algorithmes, accès des autorités et des chercheurs aux données, obligations d’audits indépendants…). Ainsi, le 6 février 2026, la Commission européenne a conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive au travers de fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé.
On serait tenté d’exiger que l’industrie du numérique démontre l’innocuité de ses produits avant leur commercialisation, comme c’est le cas pour les médicaments, les jouets ou les véhicules. Pourtant, dans les industries médiatiques, c’est l’éditeur qui est responsable a posteriori devant la loi. Le problème des plateformes tient davantage au fait qu’elles sont considérées comme des hébergeurs, alors qu’elles effectuent bien une sélection éditoriale de ce qui doit être propagé ou invisibilisé via leurs algorithmes. Comme n’importe quel média, elles pourraient être tenues de demander une autorisation de publication dès lors que la diffusion des contenus sort du cercle privé. Si le droit des médias s’impose (comme le prévoit un amendement adopté en première lecture), un contenu répréhensible peut faire l’objet d’une action en justice engageant la responsabilité pénale du directeur de publication. Pour l’éviter, l’intérêt des plateformes consistera à mettre enfin en œuvre une modération a priori qui empêche la propagation des contenus litigieux.
Comment faire émerger des réseaux sociaux alternatifs et vertueux ?
Une architecture stratégique issue des ateliers de lutte contre les manipulations de l’information considère nos écosystèmes informationnels comme des biens communs dont dépend la résilience informationnelle de nos sociétés : au même titre que le climat ou la biodiversité, il convient d’en prendre soin. Les instruments existent, déjà identifiés pour agir face à d’autres enjeux écologiques : investissement dans la recherche publique, incitations fiscales et économiques sur le modèle des labels environnementaux, développement de l’économie sociale et solidaire.
La recherche en sciences sociales alerte depuis plusieurs années sur les dérives des plateformes des BigTech, mais inventer et expérimenter des dispositifs sociotechniques alternatifs nécessite un engagement au long cours et l’appui d’ingénieurs informatiques pérennes : toutes choses que ne permettent pas les financements sur projets. L’absence de moyens pour innover en matière d’infrastructures d’information et de communication soucieuses de l’intérêt général contraste cruellement avec les investissements dans une « course à l’IA" » qui fait peu de cas de l’intelligence collective.
Julien Falgas a reçu des financements du Ministère de la Culture (fond pour l'innovation dans le secteur de la presse), de l'Université de Lorraine et de la Région Grand-Est afin de cofonder la société Profluens à laquelle il apporte son concours scientifique. Profluens édite needle.social : une plateforme de partage et de découverte fondée sur l'intelligence collective.
Dominique Boullier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.02.2026 à 16:58
Comment protester contre les néonazis ? Les leçons de l’histoire allemande
Texte intégral (2427 mots)

La mort de Quentin Deranque, le 14 février 2026 à Lyon, pose la question de la stratégie de certains groupes « antifa » qui choisissent de se confronter aux militants d’extrême droite. À cette occasion, nous republions un article de l’historienne Laurie Marhoefer, à la suite de la mort de Heather Heyer, militante pacifiste tuée par des néonazis à Charlottesville (États-Unis) en 2017.
Après le meurtre de Heather Heyer à Charlottesville, nombre de personnes se sont demandé ce qu’elles devraient faire si des nazis manifestent dans leur ville. Faut-il se mettre en danger dans des contre-manifestations ? Certains disent oui.
L’histoire nous montre que non. Croyez-moi : je suis une spécialiste des nazis. Nous avons une obligation éthique de nous opposer au fascisme et au racisme. Mais nous avons aussi une obligation éthique de le faire d’une manière qui n’aide pas les fascistes et les racistes plus qu’elle ne leur nuit.
L’histoire se répète
La manifestation de Charlottesville en 2017 semblait tout droit sortie d’un manuel nazi. Dans les années 1920, le parti nazi n’était qu’un parti politique parmi d’autres dans un système démocratique, se présentant pour obtenir des sièges au Parlement allemand. Pendant l’essentiel de cette période, il s’agissait d’un petit groupe marginal. En 1933, porté par une vague de soutien populaire, le parti nazi s’empara du pouvoir et instaura une dictature. La suite est bien connue.
C’est en 1927, alors qu’il se trouvait encore aux marges de la vie politique, que le parti nazi programma un rassemblement dans un lieu résolument hostile – le quartier berlinois de Wedding. Wedding était si ancré à gauche que le quartier portait le surnom de « Wedding rouge », le rouge étant la couleur du Parti communiste. Les nazis tenaient souvent leurs rassemblements précisément là où vivaient leurs ennemis, afin de les provoquer.
Les habitants de Wedding étaient déterminés à lutter contre le fascisme dans leur quartier. Le jour du rassemblement, des centaines de nazis descendirent sur Wedding. Des centaines de leurs opposants se présentèrent également, organisés par le Parti communiste local. Les antifascistes tentèrent de perturber le rassemblement en huant les orateurs. Des nervis nazis ripostèrent. Une bagarre massive éclata. Près de 100 personnes furent blessées.
J’imagine que les habitants de Wedding eurent le sentiment d’avoir gagné ce jour-là. Ils avaient courageusement envoyé un message : le fascisme n’était pas le bienvenu.
Mais les historiens estiment que des événements comme le rassemblement de Wedding ont aidé les nazis à construire une dictature. Certes, la bagarre leur a apporté une attention médiatique. Mais ce qui fut de loin le plus important, c’est la manière dont elle a alimenté une spirale croissante de violence de rue. Cette violence a considérablement servi les fascistes.
Les affrontements violents avec les antifascistes ont donné aux nazis l’occasion de se présenter comme les victimes d’une gauche agressive et hors-la-loi.
Cela a fonctionné. Nous savons aujourd’hui que de nombreux Allemands ont soutenu les fascistes parce qu’ils étaient terrorisés par la violence de gauche dans les rues. Les Allemands ouvraient leurs journaux du matin et y lisaient des récits d’affrontements comme celui de Wedding. Ils avaient l’impression qu’une guerre civile allait éclater dans leurs villes. Électeurs et responsables politiques de l’opposition finirent par croire que le gouvernement avait besoin de pouvoirs policiers spéciaux pour arrêter les gauchistes violents. La dictature devint désirable. Le fait que les nazis eux-mêmes attisaient la violence semblait ne pas compter.
L’une des étapes les plus importantes de l’accession d’Hitler au pouvoir dictatorial fut l’obtention de pouvoirs policiers d’urgence, qu’il affirmait nécessaires pour réprimer la violence de gauche.
La gauche encaisse le choc
Dans l’opinion publique, les accusations de désordre et de chaos dans les rues ont, en règle générale, tendance à se retourner contre la gauche, et non contre la droite.
C’était le cas en Allemagne dans les années 1920. Cela l’était même lorsque les opposants au fascisme agissaient en état de légitime défense ou tentaient d’utiliser des tactiques relativement modérées, comme les huées. C’est le cas aujourd’hui aux États-Unis, où même des rassemblements pacifiques contre la violence raciste sont qualifiés d’émeutes en devenir.
Aujourd’hui, des extrémistes de droite parcourent le pays en organisant des rassemblements semblables à celui de 1927 à Wedding. Selon l’organisation de défense des droits civiques Southern Poverty Law Center, ils choisissent des lieux où des antifascistes sont présents, comme les campus universitaires. Ils viennent en quête d’affrontements physiques. Puis eux et leurs alliés retournent la situation à leur avantage.
J’ai vu cela se produire sous mes yeux, à quelques pas de mon bureau sur le campus de l’Université de Washington. L’an dernier, un orateur d’extrême droite est venu. Il a été accueilli par une contre-manifestation. L’un de ses partisans a tiré sur un contre-manifestant. Sur scène, dans les instants qui ont suivi la fusillade, l’orateur d’extrême droite a affirmé que ses opposants avaient cherché à l’empêcher de parler « en tuant des gens ». Le fait que ce soit l’un des partisans de l’orateur – un extrémiste de droite et soutien de Trump – qui ait commis ce que les procureurs qualifient aujourd’hui d’acte de violence non provoqué et prémédité n’a jamais fait la une de l’actualité nationale.
Nous avons vu le même scénario se dérouler après Charlottesville. Le président Donald Trump a déclaré qu’il y avait eu de la violence « des deux côtés ». C’était une affirmation incroyable. Heather Heyer, une manifestante pacifique, ainsi que 19 autres personnes, ont été intentionnellement percutées par une voiture conduite par un néonazi. Trump a semblé présenter Charlottesville comme un nouvel exemple de ce qu’il a qualifié ailleurs de « violence dans nos rues et chaos dans nos communautés », incluant apparemment Black Lives Matter, qui est pourtant un mouvement non violent contre la violence. Il a attisé la peur. Trump a récemment déclaré que la police était trop entravée par le droit en vigueur.
Le président Trump a recommencé lors des manifestations largement pacifiques à Boston : il a qualifié les dizaines de milliers de personnes rassemblées pour protester contre le racisme et le nazisme d’« agitateurs anti-police », avant, dans un revirement caractéristique, de les féliciter.
Les déclarations du président Trump portent leurs fruits. Un sondage de CBS News a révélé qu’une majorité de républicains estimaient que sa description des responsables de la violence à Charlottesville était « exacte ».
Cette violence, et la rhétorique de l’administration à son sujet, sont des échos – faibles mais néanmoins inquiétants – d’un schéma bien documenté, d’une voie par laquelle les démocraties se transforment en dictatures.
Le rôle des « antifa »
Il existe une complication supplémentaire : l’antifa. Lorsque des nazis et des suprémacistes blancs manifestent, les antifa sont susceptibles d’être présents eux aussi.
« Antifa » est l’abréviation d’antifascistes, même si ce terme n’englobe nullement toutes les personnes opposées au fascisme. L’antifa est un mouvement relativement restreint de l’extrême gauche, lié à l’anarchisme. Il est apparu dans la scène punk européenne des années 1980 pour combattre le néonazisme.
L’antifa affirme que, puisque le nazisme et la suprématie blanche sont violents, il faut utiliser tous les moyens nécessaires pour les arrêter. Cela inclut des moyens physiques, comme ce qu’ils ont fait sur mon campus : former une foule pour bloquer l’accès à une salle où doit intervenir un orateur d’extrême droite.
Les tactiques de l’antifa se retournent souvent contre eux, tout comme celles de l’opposition communiste allemande au nazisme dans les années 1920. Les confrontations s’enveniment. L’opinion publique blâme fréquemment la gauche, quelles que soient les circonstances.
Que faire ?
Une solution : organiser un événement alternatif qui n’implique pas de proximité physique avec les extrémistes de droite. Le Southern Poverty Law Center a publié un guide utile. Parmi ses recommandations : si l’alt-right manifeste, « organisez une protestation joyeuse » bien à l’écart. Donnez la parole aux personnes qu’ils ont ciblées. Mais « aussi difficile que cela puisse être de résister à l’envie de crier sur les orateurs de l’alt-right, ne les affrontez pas ».
Cela ne signifie pas ignorer les nazis. Cela signifie leur tenir tête d’une manière qui évite tout bain de sang.
L’idéal pour laquelle Heather Heyer est morte sera mieux défendu en évitant la confrontation physique voulue par ceux qui l’ont assassinée.
Laurie Marhoefer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.02.2026 à 17:04
Meurtre de Quentin Deranque : quels mécanismes conduisent à la violence politique ?
Texte intégral (1841 mots)

La mort le 14 février de Quentin Deranque, 23 ans, militant d’extrême droite battu à mort dans les rues de Lyon deux jours plus tôt, a donné lieu à l’interpellation de 11 militants « antifa », dont un collaborateur parlementaire de La France insoumise. Cet événement, qui suscite de houleux débats sur la responsabilité politique de LFI, interroge également les processus individuels et collectifs qui peuvent conduire à la radicalisation et à la violence politique.
Comment des gens a priori ordinaires en viennent-ils à commettre des violences en réunion politiquement motivées ? Le psychologue Fathali Moghaddam a proposé un modèle devenu classique, « l’escalier vers le terrorisme », qui s’applique assez bien à la violence politique en général. Selon son analyse, l’action politique violente est l’étape finale d’un long escalier qui s’élève et se rétrécit très progressivement.
Première marche : l’exposition sélective. On ne consulte plus que des sources d’information politiques qui renforcent ses perceptions négatives et des analyses partisanes d’enjeux politiques complexes. On cesse progressivement le contact avec des interlocuteurs nuancés, capables de défendre le point de vue adverse.
Deuxième marche : l’acquisition de visions hautement sélectives, aux accents parfois conspirationnistes, des questions politiques et sociétales. À l’extrême droite, par exemple, la peur du « grand remplacement » exagère considérablement l’ampleur des changements démographiques et leurs conséquences culturelles. A l’extrême gauche, on trouve des discours qui, s'ils ne sont pas nécessairement conspirationnistes, révèlent une représentation excessivement négative du capitalisme, focalisés sur ses contributions aux inégalités et sous-évaluant sa contribution au développement des libertés individuelles.
Troisième marche : la déshumanisation du camp adverse. Notamment via ce que Waytz, Young et Ginges appellent la « motive attribution asymmetry » : chaque camp est convaincu d’agir par amour des siens, mais attribue au camp d’en face une motivation de pure haine. Ce biais, observé par les auteurs au sein de populations israélienne, palestinienne et états-unienne (républicains et démocrates), rend le compromis beaucoup plus difficile. En fait, Moore-Berg et ses collègues ont montré au moyen d’études expérimentales que ces perceptions d’hostilité sont massivement exagérées : démocrates et républicains surestiment le degré auquel l’autre camp les déteste, et sous-estiment l’authenticité de leurs motivations morales – des erreurs de perception qui alimentent en retour l’hostilité réciproque.
Chaque marche de l’escalier de la radicalisation est gravie d’une manière qui est subjectivement insensible. On ne se réveille pas un matin radical : l’embrigadement est progressif. Par ailleurs, les études ethnographiques suggèrent que les militants restent convaincus, à chaque étape, d’avoir la morale et la vérité de leur côté.
La radicalisation n’est ainsi pas la plupart du temps le reflet d’une pathologie psychiatrique. Elle est plutôt une version poussée à l’extrême de traits moraux et cognitifs ordinaires : l’indignation face à l’injustice, la pensée tribale « nous » contre « eux », la solidarité envers son groupe, l’hypersensibilité à la menace sociale, le désir de protéger un mode de vie qui nous est cher, la délégitimation de ceux qui sont en désaccord avec soi politiquement, etc.
Soulignons également l’importance des motivations sociales satisfaites par le groupe : le groupe radical offre appartenance, fierté identitaire, impressions d’utilité.
Et le jour J du passage à l’action violente, la dynamique de groupe fait le reste. Il y a un enjeu de statut auprès des camarades à montrer qu’on est prêt à passer à l’acte, et le fait de recevoir des coups active des instincts fondamentaux de défense par la violence.
L’extrême droite commet plus de violences que l’extrême gauche
La recherche montre que de nombreux mécanismes sont communs à la radicalité violente de gauche et de droite, même si les contenus de croyances diffèrent considérablement.
Il est également important de rappeler une importante asymétrie. La base de données de Sommier, Crettiez et Audigier (2021) recense environ 6 000 épisodes de violence politique sur la période 1986-2021 et établit que parmi les morts des violences idéologiques, neuf sur dix sont victimes de l’extrême droite. La violence d’extrême droite est aussi plutôt dirigée contre des personnes, celle d’extrême gauche plutôt contre des biens.
Ces chiffres rappellent que la violence politique tue des deux côtés, mais pas dans les mêmes proportions.
Déradicaliser : le contact comme antidote ?
Comment déradicaliser les militants les plus extrêmes ? Une difficulté tient à ce que chaque camp refuse de concéder que des membres de son propre camp sont allés trop loin (le faire apparaît comme une « trahison »). Chaque camp est convaincu que sa propre violence n’est que la réaction légitime à celle de l’autre.
Une autre barrière réside dans la difficulté de l’accès aux militants radicaux : eux ne voient généralement pas leur vision du monde et leur engagement comme antisociaux, antidémocratiques ou assis sur des certitudes excessives.
Pourtant, la recherche offre des pistes, testées en général sur des partisans ordinaires, non violents. La méta-analyse de Pettigrew et Tropp (2006), portant sur plus de 500 études, montre que le contact intergroupe – passer un moment en face-à-face avec un membre de l’exogroupe, s’engager dans des activités communes – réduit les préjugés haineux de manière robuste. Landry et ses collègues (2021) ont montré que simplement informer les gens que l’autre camp ne les déteste pas autant qu’ils le croient par de courts messages réduit la déshumanisation.
Les maîtres-mots sont la rencontre et la reprise de contact avec la réalité : corriger les perceptions déformées sur ce que pensent vraiment les adversaires, pour les réhumaniser et réduire la défiance.
Mais les individus les plus radicalisés sont typiquement très difficiles à atteindre : confiance très basse dans les institutions publiques, dans les chercheurs, déshumanisation totale des « ennemis ». Ils sont souvent convaincus que « sur eux, ça ne marchera pas », ou se montrent rétifs à toute remise en question de leur vision du monde.
En amont, à un niveau sociétal, il importe de refuser toute glorification de la violence politique afin de réduire les incitations statutaires à la commettre – comme on recommande de limiter la publicisation des auteurs d’attentats pour diminuer l’effet de prestige.
En aval, il faut enseigner systématiquement les techniques de la désescalade, comme le refus de répondre aux provocations par la violence. L’histoire du mouvement des droits civiques américains montre que la non-violence est non seulement moralement supérieure, mais aussi stratégiquement plus efficace. Notamment parce qu’elle donne un plus grand « crédit moral » aux mouvements sociaux auprès de ceux qui n’en sont pas déjà les partisans (voire les travaux de Chenoweth et al. sur les bienfaits de la non-violence sur le long cours).
À la limite, puisque c’est chez les jeunes (hommes) qu’ils sont les moins rares, les mécanismes de la radicalisation pourraient être enseignés dès le lycée et le collège, comme on commence à le faire avec la désinformation.
Cet article a été écrit en collaboration avec Peter Barrett, expert de la polarisation politique, intervenant à l'Essec et à l'Université de Cergy.
Antoine Marie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.02.2026 à 17:07
Les fusions de communes tiennent-elles leurs promesses ?
Texte intégral (2403 mots)

Les 15 et 22 mars prochains, les Français voteront pour élire leurs conseils municipaux. Certains d’entre eux voteront dans des « communes nouvelles », créées par fusion de plusieurs communes. Dix ans après les premières vagues importantes de regroupements, le recul est suffisant pour proposer un premier bilan de cette politique.
L’idée (discutable) selon laquelle il serait nécessaire de réduire le nombre de communes françaises est ancienne et répétée par plusieurs acteurs : le gouvernement vient d’ailleurs d’accélérer l’examen d’un projet de loi sur ce sujet.
Plusieurs mesures ont été prises ces dernières années pour encourager les communes à se regrouper. Ainsi, le statut de « commune nouvelle » a été créé en 2010, et amendé à plusieurs reprises : il permet le regroupement – certains acteurs répugnent à parler de « fusions » – de plusieurs communes au sein d’une nouvelle entité. Celle-ci détient alors toutes les compétences communales mais a la possibilité de maintenir en son sein une existence légale (bien que largement symbolique) pour les anciennes communes, devenant « communes déléguées ». Des incitations fiscales ont également été instituées depuis 2014.
Aujourd’hui, on compte 844 communes nouvelles, rassemblant 2 724 communes historiques et près de 3 millions d’habitants. Alors que les communes nouvelles créées en 2015 (année de la première vague importante de fusions) ont passé leur première décennie et à l’approche des élections municipales de mars 2026, il est opportun de faire un point d’étape sur ce phénomène, entre autres car il fait l’objet d’un certain nombre d’idées reçues.
Idée reçue n°1 : « Les communes qui fusionnent sont les toutes petites communes rurales »
Verdict : Plutôt faux
La politique de réduction du nombre de communes en France s’appuie sur l’idée qu’il y aurait trop de communes de toute petite taille. Il est vrai que les communes françaises sont moins peuplées que les entités comparables dans d’autres pays, et qu’elles sont plus nombreuses.
Cependant, le raisonnement selon lequel il faudrait réduire le nombre de communes pour que, en fusionnant, elles arrivent à rassembler chacune une « masse critique » en termes de population est pour le moins débattu. Les différentes études portant sur une éventuelle « taille optimale » ont bien du mal à l’identifier : il n’existe pas de seuil démographique au-delà duquel une commune serait plus efficace qu’en dessous.
En partant néanmoins du principe, débattu donc, que les toutes petites communes poseraient problème pour l’efficacité de l’action publique, les fusions permettent-elles de résoudre cette difficulté ? Globalement, non.
Les toutes petites communes (moins de 200 habitants) sont plutôt sous-représentées dans les communes fusionnantes par rapport à la proportion qu’elles représentent dans l’ensemble des communes françaises. Les communes qui fusionnent ont en effet une population médiane (404 habitants) proche de celle des autres communes (426 habitants).
Au final, la proportion de communes de moins de 200 habitants est passée, depuis 2012, de 25,9 % à 25,4 %. Si l’objectif premier de la politique des communes nouvelles était de réduire drastiquement le nombre de très petites communes, on peut dire selon l’adage que, faute d’être un échec, « ça n’a pas marché ».
Les très petites communes ne sont pas surreprésentées parmi les communes fusionnantes
Les communes fusionnantes ne sont pas non plus systématiquement rurales. Ainsi, 6,7 % des communes fusionnantes sont dans une agglomération. Cela paraît peu, mais sur l’ensemble des communes françaises les communes situées en agglomération ne représentent que 12,7 %. Les communes nouvelles sont donc un peu plus fréquentes dans les espaces éloignés des pôles urbains, sans toutefois y être limitées.
Idée reçue n°2 : « Les fusions communales permettent de mettre en cohérence les territoires vécus et les territoires administratifs »
Verdict : C’est plus compliqué
François Baroin, qui clôturait en 2017 en tant que président de l’Association des maires de France (AMF) la 3ᵉ rencontre des communes nouvelles, considérait que « ce sont les bassins de vie qui ont créé les conditions de l’avancement de la coopération entre les communes », faisant sans doute référence à l’idée d’un espace au sein duquel les individus se déplacent pour leur travail, leurs loisirs et leurs achats.
Or, les communes nouvelles ne se créent que partiellement en cohérence avec les territoires vécus. Si on s’intéresse aux communes fusionnantes qui appartenaient à une aire urbaine en 2014 (avant la très grande majorité des fusions), 35 % d’entre elles ont fusionné avec d’autres communes n’appartenant pas à la même aire urbaine. Si on s’intéresse spécifiquement aux déplacements domicile-travail, dans 72 % des cas le principal flux sortant de la commune fusionnante ne va pas vers une commune avec laquelle elle fusionne, mais vers une commune tierce. Il y a donc bien persistance d’une différence entre le maillage administratif et les territoires pratiqués et vécus par les habitants.
Idée reçue n°3 : « Les fusions communales permettent de faire des économies d’échelle »
Verdict : Plutôt faux
Des acteurs comme l’AMF mettent en avant l’idée que les fusions permettraient presque automatiquement de réaliser des économies d’échelle, c’est-à-dire de mutualiser des coûts pour faire baisser les dépenses totales. Or, une étude des évolutions budgétaires entre 2011 et 2022 contredit ce présupposé. Ces résultats se retrouvent également dans une étude portant sur les communes créées en 2016, 2017 et 2019. On n’observe pas une diminution des dépenses : bien au contraire, en général celles-ci augmentent nettement dans les années suivant la fusion.
Par exemple, si on regarde spécifiquement l’évolution entre 2011 et 2022 des charges de fonctionnement des communes (c’est-à-dire leurs dépenses hors investissement), le groupe des communes fusionnantes a connu une augmentation plus importante (+31 %) que le groupe des autres communes françaises (+28 %).
Un processus mené par le haut, qui semble favoriser l’abstention
Deux derniers points peuvent être relevés.
Tout d’abord, le passage en commune nouvelle est décidé par les conseils municipaux des communes fusionnantes, qui n’ont pas l’obligation de consulter la population. Fréquemment, les élus ne lui laissent d’ailleurs qu’une place limitée dans la construction des décisions, soit par crainte d’ouvrir une « boîte de Pandore » démocratique poussant à la remise en question systématique des décisions prises, soit par méfiance envers les décisions des populations, perçues comme peu éclairées. Un maire interrogé dans le cadre de mes travaux affirmait ainsi en 2016 : « Les gens vont voter pour quelque chose, mais ils ne savent pas forcément tout à fait les tenants et les aboutissants. Donc […] à mon avis, ce n’est pas la bonne solution. »
Par exemple, concernant le nom de la nouvelle commune, il est fréquent que les administrés soient invités à en proposer, voire à voter pour celui qu’ils préfèrent. En revanche, ce sont les élus qui vont conserver la main sur la décision finale ou sur les modalités de choix (par exemple en décidant des noms qui seront soumis à la consultation), permettant, in fine, d’orienter le vote. Cela pose la question de la place réelle laissée aux populations dans ces formes de participation ou de consultation.
Enfin, on observe aussi une montée de l’abstention dans les communes nouvelles. Ainsi, entre 2014 et 2020, la participation aux élections municipales a diminué de manière bien plus importante dans les communes nouvelles que dans les communes inchangées : le pourcentage de votants par rapport au nombre d’inscrits a baissé de 21 % dans les communes nouvelles entre 2014 et 2020, contre une baisse de 15 % pour les communes inchangées. Certes, la diminution généralisée de la participation s’explique par le contexte pandémique. Mais celui-ci n’a, a priori, pas touché différemment les communes nouvelles, quelle que soit leur taille.
Chaque élément présenté ici ne peut, à lui seul, délégitimer les communes nouvelles. Il est évident que certains projets de fusion font sens et remplissent les objectifs qu’ils se sont fixés, comme la mutualisation de structures ou de personnels, la montée en compétence des équipes communales ou l’aboutissement de décennies de collaborations concernant des services aux populations ou des équipements. Mesurer ces effets bénéfiques est d’ailleurs complexe, et mériterait des analyses encore à conduire.
Il serait toutefois souhaitable que les réflexions sur les communes nouvelles prennent en compte toutes les données en jeu, sans idées préconçues, et que les décisions de regroupement soient prises sur des bases saines. Les fusions sont parfois comparées à des mariages, or ce n’est pas parce qu’on peut observer des couples heureux que tout le monde doit se marier, a fortiori avec n’importe qui !
Il faut en tout cas appeler à ce que les prochaines semaines de campagne à l’échelon municipal, outre les questions programmatiques et partisanes qui ne manqueront pas, soient aussi l’occasion de débattre de ces enjeux liés aux communes nouvelles pour que, dans les communes qui ont fusionné comme dans celles qui pourraient l’envisager, le débat démocratique soit nourri et éclairé.
Gabriel Bideau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.02.2026 à 16:59
Peut-on décentraliser sans repenser la carte communale ?
Texte intégral (2178 mots)

La France compte un peu moins de 35 000 communes, auxquelles la décentralisation a transféré de nombreuses compétences. Cet émiettement communal est un impensé des réformes territoriales, à rebours des trajectoires européennes. En évitant de trancher la question de la carte communale, la décentralisation n’a-t-elle pas atteint ses propres limites ?
La décentralisation fait débat autour de deux questions. La première porte sur la clarification des rôles des différents échelons de collectivités. La seconde porte sur un approfondissement de la décentralisation – soit plus de transferts de compétences de l’État en direction des élus locaux. Les projets annoncés par le gouvernement Lecornu s’inscrivent dans cette perspective en promettant des transferts significatifs en matière de logement et pour quelques secteurs de l’action sociale. Mais peut-on encore décentraliser sans questionner la capacité des collectivités à gérer de nouvelles responsabilités ?
La France, hyperdécentralisée ?
Cet affichage ignore une réalité fondamentale : la France est sans doute l’un des pays au monde les plus décentralisés. On entend par là qu’elle est un des seuls pays à avoir fait le choix de décentraliser principalement vers le niveau le plus bas et le plus nombreux (la commune – on en dénombrait 34 875 au 1er janvier 2025) et non vers les échelons intermédiaires (régions ou départements).
Rappelons qu’aujourd’hui la commune est le seul niveau territorial à disposer d’une clause générale de compétence qui en fait un véritable « État en modèle réduit ». Le maire y représente l’État, incarne le pouvoir exécutif, préside l’assemblée « législative » locale (le conseil municipal) et dispose d’une capacité d’action généraliste.
Comment alors prétendre à l’efficacité, lorsqu’on confie les rênes de l’action publique à 35 000 micro-États ? Plus des deux tiers des communes françaises ont moins de 1 000 habitants, et disposent d’un budget annuel inférieur à un million d’euros. Ces milliers de communes sont incapables de produire de l’action publique à hauteur des enjeux. Ce phénomène redouble par l’obligation des échelons intermédiaires à prendre acte de cet émiettement en procédant au saupoudrage de leurs propres moyens.
Dans la plupart des autres pays européens, la décentralisation a été accompagnée par une refonte de la carte des communes afin d’en réduire le nombre et d’en augmenter la taille moyenne. La France n’a pas fait ce choix, mis en œuvre ailleurs dans les années 1960 et 1970 : on a décentralisé à périmètre constant (les communes, les départements et les régions).
Cette sanctuarisation de l’émiettement communal ne peut se comprendre qu’en regard de l’histoire longue de la France et du poids de l’État. Pour que ce dernier soit accepté par la population, il fallait préserver un équivalent local, les 36 000 communes issues des paroisses médiévales.
Ainsi s’est installée, depuis la IIIe République, une forme d’équilibre entre un pouvoir national fort et un pouvoir local du même type. Toutefois, pour garantir la pérennité du modèle jacobin français, il fallait que ces communes soient fortes localement, mais « dépendantes » de l’État, donc nombreuses et morcelées. Cela constituait en outre un message à la France rurale tout en limitant le pouvoir des villes.
On comprend dès lors que la décentralisation à la française constitue un gouffre financier, décrié pour sa faible efficacité. Mais le coût de la décentralisation tient-il aux doublons entre échelons, comme on l’entend le plus souvent, ou à cet émiettement ?
L’intercommunalité : une réponse à l’émiettement communal ?
On nous rétorquera que dès les années soixante, le législateur français a tenté d’adopter une voie spécifique pour rendre gérable le niveau local sans pour autant toucher à la carte des communes.
Il s’agit de la création des intercommunalités (communautés urbaines en 1966 puis communautés de communes et d’agglomération en 1999). Ce modèle original a pour le coup inspiré certains de nos voisins européens (Autriche, Finlande ou Italie par exemple).
L’intercommunalité repose sur deux principes : d’une part, l’élection indirecte des conseillers communautaires au second degré, au travers de leur fléchage au sein de chaque conseil municipal. D’autre part, la dissociation tendancielle entre l’instance politique qui demeure la commune et la mise en œuvre des politiques publiques, qui repose sur l’intercommunalité, et monte progressivement en puissance au travers du transfert de compétences. Cet agencement, certes un peu complexe, ajoutant une couche au millefeuille, a offert pendant une vingtaine d’années une perspective crédible de modernisation de l’organisation territoriale française, contournant prudemment la refonte de la carte communale. Ce n’est plus le cas aujourd’hui.
En 2015, la loi Notre a eu pour ambition de parachever ce processus. Est d’abord adopté le principe d’une couverture exhaustive du territoire national par des établissements de coopération intercommunale, rendant cette dynamique, jusqu’alors volontaire, obligatoire. Cette loi incite ensuite fortement au regroupement de ces intercommunalités afin de tendre vers un seuil de viabilité estimé à 10 000 habitants. On a ainsi réduit le nombre d’intercommunalités de moitié entre 2009 et 2025 (de 2 601 à 1 254), chacune de ces intercommunalités regroupant en moyenne 28 communes, ce nombre pouvant atteindre 158 pour la plus grande intercommunalité française, celle du Pays basque.
Une modernisation à l’arrêt ?
Ce parachèvement a d’une certaine manière cassé la dynamique intercommunale et conduit à remettre en question cette modernisation.
Les intercommunalités, systématisées et agrandies, font maintenant l’objet d’un procès en éloignement et perte de responsabilité de la part des maires. Bien qu’ils constituent eux-mêmes l’exécutif de ces intercommunalités, ils en décrient la gouvernance et le mode de prise de décision collective : chaque commune, quelle que soit sa taille, disposant a minima d’un siège, le processus décisionnel apparaît à la fois lointain et faiblement stratégique. Lorsqu’il faut décider à plusieurs dizaines de maires, la logique de saupoudrage tend à prévaloir. Le transfert de la compétence « gestion des milieux aquatiques et prévention des inondations » (Gemapi) cristallise ce procès depuis dix ans. Là où les communes organisaient la gestion de l’eau et de l’assainissement selon des coopérations « à la carte », la loi les oblige à tout gérer au sein de ces grandes intercommunalités.
Plus largement, la crise des gilets jaunes (2018) est apparue révélatrice d’une demande de proximité de la part de la population qui va à l’encontre de la montée en puissance des intercommunalités. Celle-ci marque donc aujourd’hui un coup d’arrêt. Cela s’exprime à la fois au niveau national, où la position « communaliste » progresse parmi les groupes politiques, entre communistes, insoumis et extrême droite. Le président de la République lui-même prône le retour au binôme historique maire/préfet de la IIIe République. Seuls les socialistes, le centre et la droite modérée défendent encore du bout des lèvres la perspective intercommunale. De la même manière, au niveau local, les intercommunalités se heurtent à ce repli communaliste et voient leur montée en puissance contrée par la résistance des élus municipaux.
C’est donc la voie retenue en France, depuis un demi-siècle, pour moderniser le pouvoir local qui paraît aujourd’hui compromise. Si un retour en arrière n’est pas envisageable, la perspective implicite des modernisateurs, c’est-à-dire l’absorption progressive des communes dans les intercommunalités n’est plus à l’ordre du jour. On en veut pour preuve la disparition de l’agenda politique de l’hypothèse d’une élection intercommunale au suffrage universel direct, pourtant indiquée dans la loi en 2014.
Le repli communaliste : à quelles conditions ?
Ne pourrait-on pas alors imaginer une voie intermédiaire entre « l’intercommunalisation » et la refonte de la carte communale, en visant la réduction de l’écart démographique et politique entre ces deux échelons ? On fait ici référence à l’expérience d’un territoire de l’ouest de la France, les Mauges, dans le Maine-et-Loire où 64 communes (dont une vingtaine de moins de 1 000 habitants) ont – de façon volontaire – fusionné en six communes nouvelles, toutes de taille supérieure à 10 000 habitants, constituant elles-mêmes une communauté d’agglomération de 120 000 habitants. Cette configuration présente trois intérêts : elle rapproche les deux niveaux ; elle accroît la gouvernabilité de l’intercommunalité (décider à six maires) ; elle garantit, grâce à leur taille, la capacité à agir des communes nouvelles, tout en maintenant une certaine proximité.
En incitant vigoureusement au regroupement des petites communes (par exemple, inférieures à moins de 1 000 habitants), il serait à la fois possible de redonner du sens à ce niveau de proximité plébiscité par les Français, tout en relançant l’échelon intercommunal, seul à même d’agir efficacement sur les questions de mobilité, d’environnement ou de développement économique.
Clarification de la spécialisation des compétences entre échelons et décentralisation privilégiant une myriade de communes : les deux principes retenus en France depuis un demi-siècle ont-ils encore du sens ? N’est-il pas temps d’en tirer les leçons, comparativement aux autres choix opérés en Europe ? Pourra-t-on longtemps encore faire l’économie d’un choix clair, d’une forme de hiérarchisation autour des régions et, simultanément, d’une refonte de la carte communale ?
Daniel Behar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.02.2026 à 17:02
Comment une mairie peut équilibrer son budget ?
Texte intégral (1860 mots)
En vue des élections municipales, l’équation du budget des collectivités locales semble insoluble : l’État souhaite réduire son financement, les candidats proposent de renforcer les services publics. En parallèle, les dépenses des administrations publiques locales (APUL) explosent et la suppression de la taxe d’habitation se fait ressentir dans les communes. Alors, comment rétablir un équilibre ?
Les collectivités territoriales sont appelées à la sobriété… mais doivent être toujours plus attractives pour faire venir sur leur territoire des entreprises, des cadres et des touristes tout en maintenant les résidents sur place et éviter les délocalisations. À l’approche des élections municipales des 15 et 22 mars 2026, la tension est d’autant plus forte que les attentes locales – services publics, transition écologique, sécurité du quotidien – montent, tandis que l’État cherche à contenir la dépense publique.
Dix ans après les débats de la « réforme territoriale », l’enjeu central n’est plus seulement institutionnel, il est budgétaire et macroéconomique. En 2024, les dépenses des administrations publiques locales (APUL) atteignent 329,7 milliards d’euros, dont une augmentation de 7 % rien qu’en 2023. Structurellement, le fonctionnement pèse lourd : environ 76 % des dépenses des APUL relèvent du fonctionnement, contre 24 % pour l’investissement.
Les interrogations sur les économies budgétaires possibles sont nombreuses et les solutions ne coulent pas toujours de source. Si la nécessité d’un redressement des finances publiques ne fait plus aucun doute, il convient de s’interroger sur la manière dont il est réalisé et les conséquences qu’il a sur les collectivités.
Dépenses peu compressibles à court terme
À l’approche des municipales de mars 2026, la question budgétaire devient un sujet de campagne à part entière. Les équipes sortantes doivent montrer des résultats, tout en démontrant qu’elles savent tenir une trajectoire financière crédible.
L’enjeu est de piloter finement les charges et les priorités. En pratique, les marges se jouent moins sur des « grands soirs » institutionnels que sur quatre postes très concrets : la masse salariale, l’énergie, les achats/contrats, et le coût de la dette. Or, le cœur des budgets locaux est composé de dépenses peu compressibles à court terme – écoles, crèches, propreté, eau-déchets, action sociale, mobilités ou entretien du patrimoine –, ce qui limite les coupes rapides sans effet sur la qualité du service rendu.
Dans les communes de 3 500 habitants et plus, près de 35 € sur 100 de fonctionnement financent les services généraux, 19 € la culture/sport/jeunesse, et 17 € l’école et le périscolaire. À l’intérieur de ce dernier poste, la restauration scolaire avec 2,9 milliards d’euros, et les écoles maternelles avec deux milliards d’euros pèsent lourd, dont la dépense reste très majoritairement liée au financement du personnel.
La séquence 2022–2024 (inflation, énergie, revalorisations) a déplacé le problème. La question n’est plus seulement « où couper ? », mais « comment arbitrer » entre fonctionnement et investissement ? Ce sans dégrader les services du quotidien, tout en finançant les transitions comme la rénovation énergétique ou l’adaptation aux canicules/inondations ?
D’où un déplacement du débat municipal vers des choix de gestion très opérationnels : mutualisation ciblée, réduction des dépenses « subies » (énergie/achats), priorisation de l’investissement à impact, et transparence sur les coûts complets – maintenance, fonctionnement futur des équipements – avant de lancer de nouveaux projets.
Fonctionnement vs investissement
Trois quarts du budget correspondent au fonctionnement et le dernier quart à l’investissement. La principale difficulté : les collectivités semblent prioriser des baisses sur l’investissement plutôt que sur le fonctionnement – ce qui ne semble pas des plus stratégique si l’on pense à l’intérêt pour elles d’être toujours plus attractives.
Paradoxalement, le cycle électoral pousse aussi à « accélérer » avant le scrutin. La Cour des comptes note une forte hausse de l’investissement en 2024 à + 13,1 % entre janvier-août 2024 et janvier-août 2023, portée notamment par les communes et les intercommunalités qui cherchent à livrer des projets avant les élections.
Le risque est double : un pic d’investissement prémunicipal, puis un « trou d’air » après 2026, au moment même où les besoins de transition écologique et les besoins en services publics deviennent structurels. C’est exactement le type d’arbitrage qui, à moyen terme, affaiblit l’attractivité – mobilités, écoles, équipements, qualité urbaine – et renchérit les coûts futurs – entretien différé, vulnérabilité climatique.
Dépendance accrue à l’État central
Au cœur de l’ajustement se trouve toujours la question des ressources, et notamment des transferts de l’État. La dotation globale de fonctionnement (DGF) reste la principale dotation de fonctionnement : 27,4 milliards d’euros en 2025 en moyenne. Elle représente environ 15 % du budget des communes, 18 % de celui des établissements publics de coopération intercommunale (EPCI) et 11 % du budget des départements.
Depuis dix ans, la vraie bascule est ailleurs, avec la montée de la fiscalité « transférée » (par l’État) et de la TVA dans le panier de recettes des collectivités. Cette nouvelle donne change la nature de l’autonomie locale. En clair, une partie croissante des ressources locales ne dépend plus d’un « impôt dont on vote le taux », mais de recettes nationales « affectées », notamment des fractions de TVA. Elles sont souvent plus stables, mais beaucoup moins pilotables par les élus.
Deux réformes ont tout particulièrement reconfiguré les budgets locaux. En premier lieu, la suppression de la taxe d’habitation sur les résidences principales (effective pour tous depuis le 1er janvier 2023), qui a fait disparaître un levier fiscal très visible politiquement. En deuxième lieu, la trajectoire de suppression de la cotisation sur la valeur ajoutée des entreprises (CVAE). Son taux a été divisé par deux en 2023. Son calendrier a été de nouveau révisé ; la loi de finances pour 2025 a reporté sa suppression totale à 2030, avec une baisse progressive des taux.
À lire aussi : CVAE, Territoires d’industrie : les contradictions de la politique de réindustrialisation à la française
Conséquence : une partie décisive des recettes locales dépend désormais de la conjoncture nationale… et des arbitrages budgétaires de l’État.
Financer la transition écologique
La contrainte 2026 n’est pas seulement comptable, elle est aussi climatique. Les collectivités portent une grande partie de l’investissement public civil et des politiques concrètes liées à la transition écologique – bâtiments, mobilités, aménagement, friches, renaturation. Or leur capacité d’autofinancement est fragilisée quand le fonctionnement dérive.
De ce point de vue, la montée en puissance des subventions est devenue centrale. Le « Fonds vert » illustre cette logique. Reconduit en 2025 avec une enveloppe annoncée de 1,15 milliard d’euros, il a financé plus de 19 000 projets en 2023-2024 pour 3,6 milliards d’euros de subventions. Son niveau futur est débattu. Un rapport budgétaire du Sénat sur le projet de loi de finances (PLF) 2026 évoque une forte baisse des autorisations d’engagement à 650 millions d’euros, tout en maintenant des crédits de paiement élevés.
Les dépenses de personnel, une vraie ligne de crête
Une critique revient systématiquement : l’augmentation du personnel au sein des communes et des intercommunalités au cours des dix dernières années. Cette hausse des effectifs est la conséquence d’une décentralisation accélérée (davantage de compétences déléguées aux collectivités) et de réformes qui ont transféré des charges. En 2026, le sujet se durcit, car la masse salariale est devenue l’un des moteurs principaux du fonctionnement, tout en conditionnant la qualité du service rendu.
Les collectivités territoriales comptent deux millions d’agents et le bloc communal concentre plus d’un million de postes. L’école et la petite enfance représentent à elles seules des dizaines de milliers d’agents – près de 40 000 agents territoriaux spécialisés des écoles maternelles (Atsem), plus de 70 000 adjoints techniques des établissements d’enseignement, plus de 29 000 auxiliaires de puériculture, etc.
La hausse récente des effectifs se concentre surtout du côté des intercommunalités et de quelques filières en croissance rapide (police municipale, animation), sur fond de progression marquée des contractuels.
Couper dans les dépenses de fonctionnement n’est pas si simple si l’on veut assurer un service public de qualité… auquel les résidents sont aussi très sensibles. Trouver l’équilibre entre recettes et dépenses n’est pas chose aisée. C’est ici que des stratégies peuvent être mises en place :
Mutualiser ce qui est mutualisable : fonctions support, achats, informatique, etc.
Ajuster les effectifs en fonction des priorités de service, plutôt que de recruter poste par poste, au gré des urgences et des remplacements.
Sécuriser les contrats et les consommations : énergie, prestations, etc.
Partager l’ingénierie à l’échelle intercommunale, et généraliser une logique d’évaluation (quels dispositifs coûtent cher pour peu d’impact) avant d’ajouter de nouvelles dépenses récurrentes.
Dans le contexte de grande incertitude dans lequel le personnel est plongé actuellement, la communication et la concertation sont essentielles pour assurer une transition.
Sébastien Bourdin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.02.2026 à 15:32
Le mouvement anti-CPE de 2006 : la dernière grande victoire étudiante de France ?
Texte intégral (2023 mots)
Il y a vingt ans, entre févier et avril 2006, une large mobilisation de la jeunesse étudiante et lycéenne, épaulée par les syndicats, enterrait le contrat première embauche. Alors que renaît l’idée d’un CDI résiliable pour les entrants sur le marché du travail, revenons sur cette contestation d’une ampleur sans précédent depuis 1968.
À l’heure où l’organisation patronale Medef reprend des propositions historiques de la droite pour « faciliter le recrutement de ceux qui entrent dans le monde du travail » via un nouveau CDI sous rémunéré et résiliable à tout moment, l’histoire montre les dangers que recouvre une telle démarche.
Il y a tout juste vingt ans, alors qu’était envisagée la mise en place d’un contrat première embauche (CPE), contrat précaire réservé aux jeunes de moins de 26 ans prévoyant une période d’essai de deux ans, le gouvernement avait fini par reculer sous la pression de la mobilisation des lycéens et des étudiants, rejoints dans la rue par les confédérations syndicales de salariés.
En quoi cette victoire a-t-elle été marquante dans l’histoire des mobilisations sociales ? Que dit-elle des cohésions et fractures au sein de la jeunesse et quelles traces a-t-elle laissées dans le monde politique ?
Mobilisation contre le CPE : une dynamique inégalée
En l’espace de deux mois, du 7 février au 10 avril 2006, la combinaison du blocage des trois quarts des établissements d’enseignement supérieur du pays, des actions « coup de poing » et de cinq journées nationales de manifestation réunissant jusqu’à trois millions de personnes mettait en échec une réforme emblématique. La victoire qui a suivi est restée dans les mémoires collectives comme la dernière victoire d’envergure d’un mouvement social en France.
Les effets de cette séquence demeurent toutefois plus ambivalents. Si tous les gouvernements successifs ont eu le sentiment d’avancer en terrain miné à chaque grande réforme touchant la jeunesse ou le marché de l’emploi, ni l’issue ni l’ampleur du mouvement contre le CPE n’ont été égalées depuis.
Certes, le spectre d’un « blocage généralisé » du pays a été agité à maintes reprises, de la lutte contre la « loi travail » en 2016 jusqu’à celle contre la réforme des retraites de 2023. Mais l’alliance inédite nouée dans l’intersyndicale anti-CPE entre organisations professionnelles, syndicats étudiants et coordination nationale étudiante, obtenant un recul public du gouvernement, demeure un cas rare et, à bien des égards, singulier depuis 1968.
Dans le même temps, la mobilisation anti-CPE a révélé des fractures durables au sein de la jeunesse, allant bien au-delà de l’hostilité, de l’indifférence ou du soutien aux piquets de grève lycéens et universitaires.
Le CPE, entre rendez-vous réussis et manqués
Rappelant pour certains aspects le contrat d’insertion professionnelle (CIP), déjà retiré face à une mobilisation étudiante en 1994, le contrat première embauche (CPE) est proposé dans un contexte particulier, deux mois à peine après les émeutes qui ont secoué les quartiers populaires à l’automne 2005.
Cette année 2005 a déjà été riche en rebondissements : d’abord, au printemps, un mouvement lycéen contre une réforme du baccalauréat ; puis la victoire du « Non » au référendum sur la Constitution européenne, le 29 mai, conduisant à la mise en place d’un exécutif où coexistaient malgré eux deux potentiels présidentiables pour 2007, le premier ministre Dominique de Villepin et le ministre de l’intérieur Nicolas Sarkozy. Enfin, en août, l’adoption par ordonnance du contrat nouvelle embauche (CNE), dispositif identique au CPE mais destiné aux petites entreprises, suscitant une mobilisation restée sans effet.
À l’automne, les « émeutes de banlieue » ont représenté une première épreuve politique pour le gouvernement. La stratégie d’apaisement défendue par Villepin l’a emporté sur la ligne dure de Sarkozy. Il n’en demeure pas moins qu’il faut alors répondre à la crise. C’est dans ce contexte qu’une « loi pour l’égalité des chances » (LEC), censée résorber la fracture sociale du pays, est proposée. Le CPE en constitue l’article 8.
L’adoption de la LEC débute en janvier, mais Villepin commet une faute majeure : il déclare l’urgence autour du CPE, puis recourt au 49.3, cristallisant l’opposition. Celle-ci s’exprime d’abord dans un collectif, Stop CPE, réunissant l’ensemble de la gauche et les syndicats. Il faut cependant attendre les premiers blocages universitaires, engagés de manière décentralisée et auto-organisée par des étudiants d’universités de province – Rennes 2, Toulouse-Rangueuil, Poitiers – pour qu’un véritable mouvement social émerge. Une coordination nationale étudiante d’un côté, une intersyndicale de l’autre, se mettent alors en place, prenant le relais de Stop CPE.
Contrairement à l’automne précédent, c’est donc la jeunesse scolarisée qui se présente au rendez-vous : si celui des syndicats et partis traditionnels commence à se dessiner, le rendez-vous avec la jeunesse des grands ensembles demeure largement manqué, un leitmotiv qui accompagnera l’ensemble du mouvement.
Une dynamique lente avec une accélération soudaine
C’est dans la semaine du 7 mars, au terme des vacances d’hiver, que le mouvement entre dans une séquence décisive, connaissant une accélération soudaine. Paradoxalement la mobilisation s’installe alors même que le CPE est voté, ce qui constitue, du point de vue des temporalités protestataires, une anomalie.
La journée d’action du 7 mars marque ce tournant. Rassemblant étudiants et salariés, elle est un succès quantitatif, avec près d’un million de manifestants selon les organisateurs. Dans le même temps, les blocages d’universités se multiplient, contribuant à installer un climat d’incertitude, tandis que tous les sondages confirment une opposition montante envers le CPE. Un symbole fort s’impose alors : l’occupation de la Sorbonne pendant trois jours, événement inédit depuis 1968 (à l’exclusion d’une brève parenthèse en 1986). L’idée d’une séquence exceptionnelle, voire d’une véritable crise politique et sociale, fait son chemin.
À partir de là, tout s’accélère. Les blocages de facultés se généralisent, les lycéens entrent massivement dans la mobilisation et les formes d’action se radicalisent progressivement. Les journées d’action organisées par l’intersyndicale prennent une ampleur inédite depuis les grèves de 1995, rassemblant jusqu’à trois millions de participants les 28 mars et 4 avril. Toutefois, cette massification s’accompagne de tensions. À l’issue de certains cortèges, comme celui du 23 mars, surgissent des violences attribuées aux « casseurs des banlieues », ravivant la question sensible des rapports entre la mobilisation étudiante et une partie de la jeunesse des quartiers populaires.
Parallèlement, l’intersyndicale est contrainte d’intégrer des représentants de la coordination nationale étudiante, dont l’influence ne cesse de croître. Unis, et alors que des divisions manifestes apparaissent au sein même du gouvernement (Sarkozy, se déclarant hostile au CPE, offre une porte de sortie aux contestataires tout en fragilisant Villepin), les acteurs du mouvement refusent toute négociation.
Nouveau paradoxe le 31 mars : le président de la République promulgue la LEC, validée par le Conseil constitutionnel, tout en appelant à ne pas signer de CPE. Dix jours plus tard, après une nouvelle journée de manifestations et au début des vacances universitaires de printemps, Jacques Chirac annonce le « remplacement du CPE ».
Le CPE et ses vies ultérieures
Après l’annonce du 10 avril, la plupart des organisations syndicales et étudiantes proclament la victoire, mais elles peinent à s’accorder sur les suites à donner au mouvement. Si certains appellent à une démobilisation rapide, d’autres tentent de maintenir la pression autour de la LEC et du CNE, sans grand succès.
Dernière grande manifestation, les défilés du 1er mai 2006 voient apparaître des tensions entre des étudiants organisés derrière des banderoles proclamant la victoire, à l’image du syndicat étudiant l’Unef, et la fraction la plus mobilisée, partageant un sentiment de gain symbolique mais d’échec sur le reste des revendications.
Avec le recul, ni le récit d’un succès plein et entier ni celui d’un revers ne s’imposent. D’un côté, le retrait du CPE continue d’inquiéter les gouvernements et de faire figure de modèle pour les mouvements sociaux. De l’autre, la « génération CPE » renvoie moins à une cohorte homogène qu’à une expérience politique contrastée : simple parenthèse dans la vie universitaire pour les uns, véritable vecteur de politisation ou de consolidation militante pour les autres, comme en témoignent plusieurs figures publiques contemporaines, issues tant des rangs des opposants au CPE – la secrétaire générale de la CGT Sophie Binet, les députés LFI Danièle Obono et Adrien Quatennens, plus surprenant le commissaire européen Stéphane Séjourné – que de ceux qui l’ont soutenu (Gérald Darmanin).
Reste enfin la question du « rendez-vous manqué » entre jeunesses scolarisée et populaire. Si cette lecture a été nuancée depuis par certains travaux, rappelant que nombre d’étudiants mobilisés en 2006 résidaient aussi dans les grands ensembles, les protestations récentes de la Gen Z dans plusieurs pays du Sud global montrent qu’une convergence plus large entre jeunesses, scolarisées ou non, peut produire des effets bien plus significatifs que le seul retrait d’une mesure gouvernementale.
Dans un contexte mondialisé, où l’aggravation des inégalités s’articule à la circulation et à l’imitation des répertoires d’action et des symboles contestataires, cette question demeure centrale.
Paolo Stuppia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.02.2026 à 15:32
Indépendance du parquet : pourquoi une réforme est indispensable
Texte intégral (1957 mots)
Alors que s’annoncent plusieurs procès sensibles en 2026, la question de l’indépendance de la justice revient sur le devant de la scène. Les deux plus hauts magistrats de France ont récemment fait part de leurs préoccupations vis-à-vis du climat politique et plaidé pour l’adoption de la réforme de la nomination des procureurs. Enlisé depuis plusieurs années, le projet de loi constitutionnelle, voté en 2016 par les deux chambres, vient d’être remis à l’agenda par la présidente de l’Assemblée nationale. Que permettrait réellement cette réforme si elle voyait le jour ?
Le 13 janvier 2026, la présidente de l’Assemblée nationale Yaël Braun-Pivet a officiellement proposé de relancer la procédure d’adoption de la réforme constitutionnelle modifiant les règles de nomination des procureurs de la République. Actuellement, ceux-ci sont nommés par décret du président de la République sur proposition du ministre de la justice, après un avis simple, non contraignant, du Conseil supérieur de la magistrature (CSM).
Cette réforme prévoit d’aligner partiellement les modalités de nomination des magistrats du parquet sur celles des magistrats du siège, en soumettant les choix du ministre de la justice à l’avis conforme du CSM : concrètement, cela signifie qu’un procureur ne pourrait plus être nommé sans l’accord du CSM.
Cette réforme a été adoptée en termes identiques par l’Assemblée nationale et le Sénat en 2016, mais pour être définitivement consacrée, elle doit encore être approuvée par au moins deux tiers des parlementaires réunis en Congrès, sur convocation du président de la République. Or, à ce jour, rien n’indique que ce dernier entende mettre en œuvre cette procédure ni, surtout, que le texte puisse effectivement être adopté par un Parlement dont la composition a fortement changé en dix ans : alors que la gauche y était majoritaire, les forces de droite et d’extrême droite qui n’ont jamais caché leur hostilité à une telle évolution n’ont cessé de s’y renforcer.
Une dépendance statutaire maintenue
Même adoptée, cette évolution ne constituerait qu’une victoire essentiellement symbolique. Prévoir que les procureurs ne peuvent être nommés sans avis conforme du CSM ne modifie en rien les principaux facteurs de dépendance structurelle de ces magistrats au pouvoir exécutif. Une dépendance d’abord statutaire : même s’il devait désormais se plier à l’avis du CSM s’agissant des nominations des parquetiers, le ministre de la justice demeurerait seul compétent pour prononcer à leur encontre des sanctions disciplinaires. Il demeurerait aussi seul compétent pour proposer à la nomination tel ou tel magistrat, l’intervention du Conseil n’étant requise que pour valider – ou non – la proposition faite. Par ailleurs, la réforme ne modifierait en rien la stricte subordination hiérarchique des procureurs au garde des Sceaux, laquelle se traduit en particulier par l’obligation d’exécuter les instructions générales qu’il leur adresse – une prérogative dont les ministres ne se privent guère, multipliant les circulaires de politique pénale toujours plus détaillées et comminatoires.
L’enquête au quotidien : une autonomie théorique, une dépendance pratique
Cette dépendance statutaire se double en outre d’une dépendance fonctionnelle à l’égard de l’institution policière et, partant, du pouvoir exécutif. Certes, les agents et officiers de police judiciaire sont officiellement placés sous la direction du procureur de la République dans la conduite de leurs enquêtes. Mais les services de police et de gendarmerie n’en demeurent pas moins principalement placés sous l’autorité du ministre de l’intérieur, seul compétent pour décider de leur avancement, de leurs mutations et, plus largement, de leurs conditions générales de travail. C’est en particulier le ministère qui décide, seul, de l’affectation des agents à tel ou tel service d’enquête, du nombre d’enquêteurs affectés à tel service et des moyens matériels qui leur sont alloués. Autant de facteurs qui expliquent que, depuis 2008, la Cour européenne des droits de l’homme considère que les procureurs français ne peuvent être regardés comme une autorité judiciaire indépendante.
Cette dépendance fonctionnelle est encore aggravée par la mutation profonde de l’organisation du travail qu’ont connu les magistrats du parquet au tournant du siècle. Depuis la fin des années 1990, la très grande majorité des décisions qu’ils rendent sur le déclenchement de l’action publique, c’est-à-dire sur l’opportunité de poursuivre ou non une personne devant une juridiction répressive et, le cas échéant, le choix de ses modalités (simple convocation, saisine d’un juge d’instruction, comparution immédiate…), sont prises dans l’urgence, sur la base d’un simple compte-rendu téléphonique. Cette approche promue par les autorités comme un « traitement en temps réel [sic] » des procédures a certes eu pour effet de réduire le délai de traitement des dossiers par les magistrats du parquet.
Mais, alors que ces derniers connaissent une surcharge de travail chronique consécutive à l’insuffisance des moyens qui leur sont alloués, elle les rend particulièrement dépendants du compte-rendu de chaque situation faite par l’enquêteur, dont ils n’ont que très rarement le temps de contrôler le travail fait avant de prendre leur décision. Ce mode de traitement est en outre à l’origine de la montée en puissance d’une logique productiviste au sein des tribunaux : il ne s’agit moins de donner à chaque infraction signalée la réponse adaptée que de gérer au mieux les stocks et les flux de dossiers, au risque de confondre justice et précipitation. En contribuant ainsi à la perte de sens du métier, cette évolution est enfin à l’origine d’une indéniable souffrance au travail des magistrats du parquet.
Garantir les libertés face à un pouvoir répressif : le rôle décisif du procureur
Ainsi, ces derniers sont aujourd’hui loin d’être en mesure d’exercer leurs missions en pleine indépendance. Une telle indépendance répondrait pourtant à une exigence démocratique de première importance. Comme l’ont récemment rappelé les chefs de la Cour de cassation à l’occasion de leur audience solennelle, le procureur de la République constitue le premier garant des droits et libertés des citoyens, notamment quand ces derniers sont confrontés au pouvoir répressif.
Dans un contexte politique marqué, en France et en Europe, par la montée d’un autoritarisme se traduisant notamment par la criminalisation de l’opposition politique, conférer aux procureurs un statut plus protecteur permettrait de prévenir plus efficacement le risque de répression abusive. Plus largement, si l’on veut que ce soit la loi – et non la force – qui régisse effectivement les rapports sociaux et que chacun dispose du même degré de protection juridique, il est nécessaire que le ministère public, en tant qu’autorité chargée de demander l’application de la loi au nom de l’ensemble des citoyens, puisse exercer cette mission de façon totalement indépendante et impartiale. Qu’il puisse en particulier poursuivre les personnes indépendamment de leur statut social et de leur position de pouvoir au sein de la société.
Si le parquet national financier a pu sans entrave poursuivre d’anciens chefs d’État et des figures politiques de premier plan, c’est parce qu’il avait acquis, en pratique, une réelle indépendance. Mais qu’en sera-t-il demain si, comme la loi le lui permet, le pouvoir exécutif choisit de s’immiscer dans le cours des affaires qui lui sont confiées ?
À l’image de la rhétorique du gouvernement des juges, l’opposition à l’indépendance du parquet trahit nécessairement la volonté de contrôler le cours de la Justice et, au-delà, de conserver le plus longtemps possible le relatif privilège d’impunité dont ont longtemps bénéficié les classes dirigeantes. À cet égard, il est intéressant d’observer que la réforme du corps judiciaire que le gouvernement néofasciste italien veut aujourd’hui faire adopter par referendum pour remettre en cause le statut des procureurs a pour origine profonde les grands procès ayant régulièrement mis en cause les membres de l’élite dirigeante à partir du début des années 1990. Depuis l’opération « manu pulite » ayant abouti à la condamnation de nombreux politiciens ayant des liens avec la mafia jusqu’à la poursuite de l’ancien ministre de l’intérieur Mateo Salvini pour son refus de laisser débarquer un navire ayant recueilli des réfugiés, en passant bien sûr par les nombreux procès intentés à l’ancien président du conseil Silvio Berlusconi, l’indépendance des parquetiers italiens n’a jamais cessé d’irriter celles et ceux qui considèrent que le principe d’égalité devant la loi ne devrait pas s’appliquer à ceux qui la façonnent. Et c’est précisément pour cela que l’indépendance de leurs homologues français constitue une revendication de toute personne attachée à la construction d’une démocratie pleine et entière.
Vincent Sizaire est magistrat
14.02.2026 à 10:05
Tout comprendre à la taxe foncière pour les prochaines élections municipales
Texte intégral (2177 mots)

En vue des élections municipales, de nombreux candidates et candidats proposent de créer de nouveaux services pour leurs électeurs. Une solution évidente pour financer ces nouvelles dépenses : la taxe foncière sur les propriétés bâties, pourtant déjà en hausse de 19 % entre 2020 et 2024. Décryptage de cette taxe locale incontournable.
Cet article est une version mise à jour et enrichie d’un article publié le 13 septembre 2023 : « Hausse de la taxe foncière : vers l’infini et au-delà ? »
La campagne pour les élections municipales des 15 et 22 mars prochain bat son plein. Une chose est sûre, quel que soit le résultat des urnes, il va falloir trouver de l’argent. Les candidats de tous bords ne manquent pas d’idées qui, quels que soient leurs mérites sociaux ou économiques (c’est un autre débat), ont pour dénominateur commun de mettre sous pression les fragiles équilibres budgétaires communaux.
La gratuité de certains services publics est une proposition à la mode, que ce soit pour les transports ou pour l’école primaire – kits de rentrée, cantine scolaire. Des augmentations d’effectifs sont annoncées, de préférence pour des agents bien visibles sur le terrain comme les policiers municipaux. Il faudra bien trouver des ressources pour financer toutes ces mesures. Le volontaire tout trouvé, comme sur la précédente mandature, ce serait la taxe foncière sur les propriétés bâties, première recette fiscale de nos communes.
Mais pourra-t-elle, sur les six prochaines années, être aussi sollicitée que sur les six dernières ? Divulgachie : a priori non.
Comment est déterminée votre taxe foncière
Attention, nous ne parlerons ici que de votre seule taxe foncière sur les propriétés bâties, qui ne représente, aussi contre-intuitif que cela puisse paraître, qu’une partie de la somme à payer figurant sur la première page de votre avis d’imposition. D’autres prélèvements sont effectués avec la taxe foncière sur les propriétés bâties : la taxe d’enlèvement des ordures ménagères (à l’objet éponyme), la taxe dite GEMAPI (visant à financer la gestion des milieux aquatiques et la prévention des inondations), certaines taxes spéciales d’équipement, etc.
Concernant votre taxe foncière sur les propriétés bâties, son mode de calcul est assez simple : elle est le résultat du produit d’une assiette, en l’espèce l’estimation de la valeur de votre bien immobilier, par un taux d’imposition. La responsabilité de l’évolution annuelle de ces deux composantes est partagée.
La valeur locative cadastrale – l’estimation évoquée plus haut dans son appellation administrative – fluctue chaque année en fonction d’un indice de révision. Jusqu’à récemment (on y reviendra), ce dernier était voté par les parlementaires dans le cadre de la loi de finances. Le taux lui relève, depuis le début des années 1980, des collectivités locales récipiendaires de l’impôt (aujourd’hui, les communes et les intercommunalités), qui le votent chaque année en parallèle de l’adoption de leur budget primitif.
Hausse incontrôlée de l’assiette, à l’insu de notre plein gré
En 2025, l’indexation générale des bases de votre taxe foncière a augmenté de 1,7 %. En 2026, ce devrait être de 0,8 %. Une séquence de relative modération, qui fait suite une augmentation beaucoup plus significative – 3,4 % en 2022 et 7,1 % en 2023. Pour mémoire, la hausse annuelle était en moyenne de 1,6 % entre 2005 et 2015. La mandature 2020-2026 aura ainsi été marquée par une forte hausse de l’assiette de cet impôt.
Comment expliquer une telle augmentation, alors que l’on pourrait imaginer les députés et sénateurs soucieux de préserver le pouvoir d’achat de nos concitoyens ? Depuis le début des années 1980, ce sont bien les parlementaires qui déterminaient l’indexation annuelle de cette assiette. Officiellement, ils tenaient « compte de la variation des loyers ». En réalité, ils étaient toujours attentifs au contexte économique et social.
Dans le cadre de la loi de finances pour 2017, dans une démarche positiviste qui collait bien à l’esprit (initial) de la législature, ces mêmes parlementaires ont fait le choix d’automatiser et donc de dépolitiser cette hausse. Elle se fera désormais sur la base de l’indice des prix à la consommation. S’il était impossible à l’époque d’anticiper le retour de l’inflation que nous avons connu par la mandature 2020-2026, on peut reconnaître que les parlementaires ont été bien malheureux de renoncer à l’époque à cette prérogative (discutable certes) qui était historiquement la leur.
Entre 2020 et 2024, une hausse déjà significative du taux voté par certaines communes
On pourrait légitimement se dire que, si l’assiette augmente au niveau de l’inflation comme nous venons de le voir, le taux de la taxe foncière aurait pu justement lui rester stable. Il n’en a rien été, pour plusieurs raisons.
D’une part, parce que les autres recettes de fonctionnement des communes et de leurs intercommunalités augmentent elles bien moins vite que l’inflation. Les dotations versées par l’État, qui rappelons-le augmentaient il y a encore une quinzaine d’années du niveau de l’inflation et d’une partie de la croissance, se stabilisent après avoir connu quelques années de baisse (contribution du secteur local à la maîtrise des finances publiques).
D’autre part, parce que la taxe d’habitation a disparu, comme une décennie avant elle la taxe professionnelle. Bien qu’elle ait été compensée à l’euro près dans les budgets locaux, aucun nouveau levier fiscal n’est venu combler le vide qu’elle laissait. Résultat, quand il s’agit d’augmenter les ressources budgétaires, les exécutifs locaux ne peuvent plus mettre en œuvre de réelle stratégie fiscale (quelle catégorie de contribuables solliciter davantage cette année ?) et n’ont presque plus qu’une seule option : augmenter la taxe foncière.
Et ce ne sont là que les principales explications. Restaurer les équilibres budgétaires après quelques années de « quoi qu’il en coûte » à la sauce locale, absorber les hausses budgétaires imposées par l’État comme la hausse de la rémunération des fonctionnaires, trouver les moyens de contribuer à la transition écologique… Autant de raisons, plus ou moins légitimes, que les élus locaux ont mobilisées pour justifier la hausse des taux qu’ils ont décidé.
Certes, lorsque l'on regarde les chiffres globaux, la mandature qui s'achève ne se caractérise pas par une hausse générale et massive des taux de taxe foncière (+7 % « seulement » entre 2020 et 2024). Mais certaines des plus grandes villes de France ont effectivement fait le choix d'utiliser ce levier fiscal dans des proportions inédites et largement relayées à l'époque par le presse quotidienne régionale et nationale. Autant de marges de manoeuvre qu'il sera, sur les territoires concernés, inenvisageagbles de remobiliser après 2026.
Un levier fiscal injuste… donc en théorie moins légitime à mobiliser ?
Au-delà de l’explosion constatée sur la mandature qui s’achève de l’assiette indexée et des taux votés, la taxe foncière sur les propriétés bâties porte en elle, dans la configuration actuelle, plusieurs problématiques significatives de justice fiscale.
Un, la valeur de votre habitation n’est structurellement pas le meilleur moyen d’appréhender votre capacité contributive, vos « facultés » sur la base desquelles les impôts sont sensés être levés. S’il n’est pas illégitime d’avoir une assiette autre que les revenus pour certains impôts, cela devient plus problématique lorsque cette assiette concerne un prélèvement significatif en termes de volume. C’est le cas pour la taxe foncière aujourd’hui pour bon nombre de ménages. Selon l’Insee, la taxe foncière représente plus de 4 % du revenu disponible pour les 20 % des propriétaires aux revenus les plus modestes.
Deux, l’appréciation par l’administration de la valeur de votre habitation n’est même pas bonne. Calculée au début des années 1970, elle est aujourd’hui largement déconnectée de la réalité du marché immobilier. Malheureusement, et c’est un des paradoxes informels de la légistique fiscale, plus une situation est injuste et plus il est difficile d’y remédier. La séquence de l’automne dernier peut laisser songeur quant à notre capacité collective à réaliser un jour cet exercice de réforme.
Trois, avec la suppression de la taxe d’habitation, l’augmentation de la pression fiscale, désormais concentrée sur la taxe foncière sur les propriétés bâties, soulève une véritable question de démocratie locale. En effet, une partie des financeurs de la dynamique budgétaire communale sont les propriétaires non-résidents (non-électeurs, serait-on tentés de souligner), alors que dans le même temps les locataires (électeurs) sont eux dispensés de presque tout effort fiscal. Taxation without representation + representation without taxation : tout cela ne semble pas tenable sur le temps long.
Au regard de la double dynamique inédite de l’assiette et des taux constatés sur la mandature 2020-2026 et de ces questionnements afférents à la justice fiscale (un sujet désormais majeur dans le débat public), la modération fiscale devrait en théorie être de rigueur en 2026-2022. Elle aurait même pu être une proposition de campagne majeure. Cependant, il est peu probable que la facture ne s’alourdisse pas dans les prochaines années, au regard des ambitions affichées par les candidats de tout bord. Reste à voir ce qu’en seront les répercussions, sur les finances publiques comme (et c’est peut-être plus problématique) sur la démocratie locale.
Thomas Eisinger est administrateur de l'AFIGESE (association des financiers, contrôleurs de gestion et évaluateurs du secteur public local)
12.02.2026 à 16:12
Élections municipales : quelle place pour les femmes, les minorités et les classes populaires ? Enquête en Seine-Saint-Denis
Texte intégral (2353 mots)
Dans certains départements français, dont la Seine-Saint-Denis, les mandats municipaux se sont largement ouverts aux femmes et aux personnes appartenant à une minorité visible. Mais cette évolution masque une reconfiguration du « plafond de verre », entre discriminations, exclusion des classes populaires et limitation à des postes stéréotypés.
À quelques semaines des élections municipales de mars 2026 se repose la question de la faible représentativité du personnel politique français. Dans les conseils municipaux comme à l’Assemblée nationale, la professionnalisation des élu·e·s s’accompagne de la quasi-disparition des classes populaires et du maintien d’assemblées majoritairement blanches et le plus souvent présidées par des hommes. En 2025, 21 % seulement des maires étaient des femmes et 9 % déclaraient une profession d’employé ou d’ouvrier.
Qu’en est-il en Seine-Saint-Denis, département marqué par l’histoire de la « banlieue rouge », la présence des classes populaires et d’une immigration ancienne ? Les listes candidates et les conseils municipaux sont-ils, dans ce département comme ailleurs, de plus en plus éloignés de la population qu’ils représentent ?
Pour nourrir ces réflexions, nous partageons les premiers résultats d’une enquête sur les 40 communes de ce département, menée par une équipe des universités Paris Nanterre, Paris 8 et Paris Dauphine. Cette recherche documente les évolutions des candidats et candidates aux élections municipales et celles des membres des conseils municipaux de 2001 à 2020, au prisme de la classe sociale, du genre et de l’assignation raciale. Elle analyse notamment la place en politique des personnes renvoyées à un statut social inférieur, sur la base de leur origine supposée, de leur apparence ou de leur nom. On désigne ici ces personnes comme « racisées » ou « minorités visibles ».
Une percée des femmes et des minorités racisées dans les conseils municipaux
Depuis les élections municipales de 2001, l’évolution du personnel politique en Seine-Saint-Denis suit les tendances nationales. Si l’implantation du Parti communiste français (PCF) a longtemps favorisé l’élection de conseillers municipaux et de maires ouvriers, la présence des classes populaires dans les assemblées municipales est désormais résiduelle : seuls 11 % des personnes élues en 2020 sont employées ou ouvrières, alors que ces catégories représentent 53 % de la population active du département. Comme dans le reste des communes urbaines, les conseils municipaux de Seine-Saint-Denis sont plus accessibles aux cadres (42 % des personnes élues en 2020, pour 21 % de la population active du département). Ces dynamiques sont encore plus vraies pour le mandat de maire : 25 maires sur 40 sont des cadres en 2020.
Du côté du genre, les lois sur la parité en politique ont renforcé la présence des femmes. En 2020, elles représentaient 48 % des personnes élues du département. Leur part reste néanmoins inférieure à 50 %, signe que les têtes de liste sont, ici comme ailleurs, plus souvent des hommes. Cette féminisation s’accompagne, par ailleurs, d’une forte sélection sociale des femmes élues qui, comme les hommes, sont très souvent des cadres (40 % des élues).
Dans ce contexte, c’est une évolution moins commentée qui a retenu notre attention. Depuis 2001, la présence de personnes appartenant aux minorités visibles se renforce dans les conseils municipaux du département. Les élections de 2008 qui suivent les révoltes urbaines de 2005 marquent un tournant : la part des personnes racisées double sur les listes candidates et augmente fortement dans les conseils municipaux. Elle triple même au sein des bureaux municipaux (composés d’un·e maire et de ses adjoint·es) qui concentrent la réalité du pouvoir communal.
En 2020, les personnes racisées représentent désormais plus du tiers (36,2 %) des membres des conseils municipaux, améliorant ainsi la représentation politique de la population du département.
Comme pour les femmes, cette ouverture bénéficie surtout aux classes moyennes et supérieures : 5 des 7 maires racisés élus en 2020 sont des cadres ou des chefs d’entreprise, et aucun n’est ouvrier ou employé. Néanmoins, beaucoup d’élu·es racisé·es sont des enfants ou des petits enfants d’immigré·es de milieu populaire qui ont connu une ascension sociale. Au sein des conseils municipaux, cette trajectoire les distingue des autres élu·e·s, de même que leur jeunesse (19 % ont moins de 30 ans en 2020).
Figure : La part des personnes racisées parmi les candidat·es aux élections municipales, les élu·es des conseils municipaux et des bureaux municipaux est en progression constante depuis les élections de 2008
Dans les communes de Seine-Saint-Denis, représentation des classes populaires et diversité de genre ou ethnoraciale ne vont ainsi pas de pair. Au contraire, l’entrée de femmes et de personnes racisées dans les conseils municipaux s’accommode du renforcement de la sélection sociale, aboutissant à l’invisibilisation des classes populaires. Peut-on pour autant conclure de cette avancée relative que le racisme et le sexisme auraient disparu en politique ?
Le « plafond de verre » n’a pas disparu, il s’est reconfiguré
Premier constat, les femmes et les personnes racisées continuent à faire face à des obstacles dans l’accès aux responsabilités. C’est pour le mandat de maire que le « plafond de verre » résiste le mieux, en particulier pour les femmes. Dans les 40 communes du département, seules 5 femmes sont élues maires en 2020, sans amélioration vis-à-vis des scrutins précédents.
Pour les personnes racisées, ce plafond de verre, longtemps impénétrable, commence à se fissurer. En 2014, Stains est la première ville de Seine-Saint-Denis à élire un descendant de l’immigration algérienne en la personne d’Azzedine Taïbi. En 2020, c’est le cas de six autres communes, ce qui porte à sept le nombre de maires racisés. Deux femmes racisées accèdent également à cette fonction en cours de mandat en 2016 et 2022, à la faveur de la démission du maire en place. La première n’est pas reconduite aux élections suivantes et la seconde a depuis rétrocédé sa place à son prédécesseur.
Au-delà des limitations imposées à leurs ambitions, les personnes racisées comme les femmes font face à des inégalités dans la répartition des rôles au sein des conseils municipaux, qui tendent à reconduire des stéréotypes genrés ou racialisés. Ainsi, les femmes sont souvent en charge des affaires sociales, de l’enfance ou des familles, et les personnes racisées se voient confier la lutte contre les discriminations ou la jeunesse, surtout en début de carrière.
Cette situation est in fine particulièrement défavorable pour les femmes racisées, largement évincées des délégations clés – finances de la commune, urbanisme et aménagement – généralement confiées aux premiers adjoints ou adjointes du maire. Dans ce contexte, elles sont nombreuses à exprimer en entretien le sentiment d’être considérées comme des « décorations » ou des « cautions féminines ».
Un engagement politique marqué par l’expérience des inégalités
Second constat, les limitations imposées aux ambitions des femmes et des personnes racisées ne sont que l’un des aspects des discriminations rencontrées par ces dernières en politique. Si l’importance du sexisme est désormais connue, le racisme exerce aussi une influence sur les parcours en politique. Il peut nourrir un désir de s’engager comme freiner l’accès à la candidature et favoriser l’usure au cours du mandat.
Les personnes racisées témoignent d’abord souvent du rôle joué par l’expérience des discriminations dans leur politisation et leur désir d’engagement. Certaines ont fait de l’amélioration de la représentation des habitants et habitantes des quartiers populaires un enjeu de campagne, en s’engageant sur des listes citoyennes, portées par des militantes et militants associatifs. On a pu voir ce type de liste dans des villes comme Aubervilliers ou le Blanc-Mesnil, aux élections de 2008, 2014 et 2020.
D’autres, plus nombreuses, ont été renvoyées à leurs origines supposées ou à leur appartenance à une minorité visible au cours de leur mandat, parfois de façon positive. À Gagny, par exemple, l’élection du maire Rolin Cranoly en 2019 a été saluée par la presse antillaise, conduisant cet édile à prendre conscience du caractère symbolique de son parcours. Le plus souvent cependant, ces assignations relèvent du racisme ordinaire, comme en témoigne en entretien une adjointe d’une commune de gauche :
« Ah, c’est subtil, c’est très subtil. Au début, on doute en disant : “C’est pas possible.” On écorche votre nom, puis on vous demande de le répéter ; quand vous dites une phrase, on vous demande de la répéter deux ou trois fois ; on vient vous demander si vous faites le ramadan. »
Enfin, certains sont la cible d’attaques virulentes, comme Azzedine Taïbi, maire de Stains depuis 2014 : des militants d’extrême droite ont cherché à s’introduire dans la mairie après la dénonciation publique par l’édile d’injures racistes et de menaces de mort proférées à son encontre.
À l’approche des élections municipales de mars 2026, des initiatives s’emparent de ces questions. Les militants et militantes de l’Assemblée des quartiers ont obtenu l’ouverture de certaines listes de gauche à des candidatures issues des quartiers populaires. Le collectif Démocratiser la politique défend quant à lui l’institution d’une parité sociale en politique pour remédier à l’exclusion des classes populaires.
Ces enjeux sont particulièrement vifs en Seine-Saint-Denis, où de nombreuses villes verront s’affronter des listes menées par des femmes et des personnes racisées. Alors que pour les classes populaires, le défi est plus que jamais celui de l’accès à la représentation politique locale, les femmes et les personnes racisées sont désormais face à la tâche difficile de politiser l’expérience du plafond de verre et des discriminations, pour transformer le jeu politique local.
Cet article s’appuie sur une recherche conduite par Marie-Hélène Bacqué, Jeanne Demoulin, Claudette Lafaye, Hélène Haztfeld, Violette Arnoulet et Yasmina Dris. Elle a donné lieu à l’écriture d’un livre : Élus des banlieues populaires, « La vie des idées », Presses universitaires de France, 2026.
J'ai travaillé 6 ans pour l'établissement public territorial Plaine Commune de 2014 à 2019 en tant qu'urbaniste. J'étais chargée de mission au sein de la direction de la rénovation urbaine sur les projets de Stains. J'ai ensuite consacré ma thèse (soutenue en 2023) à la commune de Stains.
Claudette Lafaye ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.02.2026 à 16:26
La grande démission citoyenne : 59 % des Français ne soutiennent aucun parti politique
Texte intégral (2263 mots)

Les partis politiques sont de moins en moins soutenus – aucun ne dépasse 10 % de soutien –, et les citoyens « sans parti » ont atteint le nombre inédit de 60 %. Les débats continuent à s’organiser autour des partis politiques comme si de rien n’était, mais les fondements de notre démocratie « représentative » sont en péril.
Nous vivons une étrange période politique. La coalition qui gouverne n’est pas celle qui est sortie victorieuse des élections de 2024. Les débats continuent à s’organiser autour des figures et partis politiques comme si de rien n’était. La perspective de la présidentielle est dans les têtes et elle est préparée activement dans les cercles partisans. Pourtant, les niveaux de défiance n’ont jamais été aussi forts en France et la classe politique est devenue un des sujets majeurs de préoccupations des répondants aux sondages. La « grande démission civique » aboutit à ce que de plus en plus de citoyens se détournent des urnes et des partis pour faire politique autrement.
Ici, je me focalise sur un aspect particulier de cette grande démission, celui qui interroge les liens entre citoyens et partis. Dans les routines de pensée sondagières, il y a cette habitude de continuer à analyser les réponses en fonction de la proximité partisane. Cette approche est doublement trompeuse : elle laisse supposer que les partis sont encore soutenus alors que leurs racines populaires sont de plus en plus ténues, et elle sort de l’analyse tous les démissionnaires, faisant comme si, parce qu’ils n’ont pas de parti proche, ils n’auraient pas de préférences. On va voir que ces « sans-parti » ne sont pas n’importe qui et que leur nombre grandissant oblige à penser différemment notre démocratie.
L’érosion du lien positif aux partis
Figure 1 : lien et absence de proximité partisane en France (1999-2023)
Les « sans-parti », dans la version stricte de l’ESS ou élargie des enquêtes françaises sont déjà nombreux dès le début du XXIᵉ siècle : en 2002-2016, on comptait entre 45 % et 51 % pour l’ESS tandis que, dans le baromètre CNCDH, on a assisté à une progression des sans-parti de 30 % en 1999 à 44 % en 2010, puis à une baisse après la présidentielle de 2012 (25 %) avant qu’ils ne remontent à 34 % en 2016. De plus, les noyaux durs partisans, ces répondants qui se disent « très ou assez proches » d’une formation peinent à dépasser le tiers des répondants. Ceci dénote déjà l’ampleur de l’insatisfaction d’un nombre conséquent de citoyens français face à l’ensemble des partis qui se disputent leurs suffrages.
On aurait pu penser qu’il s’agissait là de l’épuisement des « vieux » partis Union pour un mouvement populaire (UMP) et Parti socialiste (PS), avant l’émergence d’Emmanuel Macron. Pourtant 2017 n’a pas changé la donne : entre 2016 et 2020, les sans-parti dans l’ESS passent de 51 % à 59 % tandis que les noyaux durs partisans ont reculé jusqu’à 23 % en 2020. Dans les enquêtes CNCDH, on a atteint 45 % en 2018 et 42 % en 2019. Surtout, cette faiblesse des partis se confirme après 2022. Pour se rendre compte de l’érosion des partis dans l’électorat, analysons en détail les proximités partisanes.
Figure 2 : le détail des proximités partisanes
Certaines évolutions sont les échos de moments politiques particuliers, notamment les victoires électorales : l’UMP en 2008, La République en marche (LREM) en 2018, après la victoire d’Emmanuel Macron. La décennie 2000 est marquée par la domination du duo PS/UMP. On parlait alors d’un « bipartisme à la française », selon l’expression de Gérard Grunberg et Florence Haegel.
En 2008, le troisième parti, le Mouvement démocratique (MoDem), rassemble quatre fois moins de soutiens que le PS (16 %) et l’UMP (17 %). Pourtant, même cumulés, les soutiens de ces deux partis ne pesaient qu’un peu plus d’un tiers des répondants.
Le mandat de François Hollande (2012-2017) voit reculer ces deux partis traditionnels : le PS passe de 16 % en 2012 à 7 % en 2018, et l’UMP (transformée en LR en 2015) de 14 % à 7 %. Cette érosion des partis de l’« ancien monde » ne s’est pas traduite pour autant par la montée en puissance des partis du « nouveau monde ». Le Rassemblement national (RN, ex-FN) ne séduit au mieux que 8 % des répondants en 2014. Quant au mouvement macroniste, il atteint 10 % de soutien en 2018, mais 8,5 % en 2020, soit guère mieux que le PS, Les Républicains (LR, ex-UMP) ou Europe Écologie-Les Verts (EELV) qui recueillent entre 6 % et 7 %. Quant à La France insoumise (LFI), elle reste largement en dessous des 5 %.
La vague post-2022 confirme la faiblesse numérique des partis français : le RN revient à son niveau de 2014, devant le parti macroniste (6 %), mais les Verts, le PS, LFI et LR comptent environ 5 % des suffrages chacun.
Dans la France des années 2020, on peut résumer ainsi la situation : la proportion des sans-parti n’a jamais été aussi forte, et l’on assiste à un fractionnement partisan sans précédent puisqu’aucun parti ne domine nettement. Surtout, la faiblesse numérique des soutiens pour chaque parti ne peut qu’interroger quand on la met en miroir d’un mode de scrutin qui favorise le fait majoritaire. Les présidents obtiennent bien une majorité de suffrages, mais leur parti peine à dépasser les 10 % de soutien, tout comme les finalistes du second tour. Cela doit nous interroger.
Les logiques sociales et générationnelles du recul partisan
Figure 3. Les évolutions des sans-parti selon le diplôme, la profession et les générations
Longtemps l’absence de lien partisan était signe d’incompétence politique. De fait la difficulté à prendre parti est plus fréquente chez les citoyens ordinaires tandis que les citoyens sophistiqués sont à la fois connaissants (ils sont informés du champ et des acteurs politiques) et « appétents » (ils sont intéressés). Mais cette explication ne suffit plus.
Certes, les apartisans sont plus nombreux parmi les moins diplômés, les catégories populaires (ici, les travailleurs qualifiés et non qualifiés) et les plus jeunes, ce qui va dans le sens d’une lecture privilégiant l’incompétence politique. Mais, dès le début de la période étudiée, parmi les groupes socialement les plus favorisés, la part des sans-parti est loin d’être négligeable. En 2004, les membres de la génération 1961-1980 ont entre 23 et 44 ans et comptent beaucoup plus de diplômés du supérieur que les générations précédentes, et pourtant 54 % d’entre eux ne se sentent proches d’aucun parti.
À partir du milieu des années 2010, l’augmentation des sans-parti vient démontrer qu’il se passe beaucoup plus qu’un simple effet de compétence politique. Entre 2012 et 2020, leur proportion gagne + 11 points parmi les plus diplômés, + 7 points dans la génération 1940-1960, + 7 points parmi la service class qualifiée (managers et cadres).
Les niveaux de sans-parti sont particulièrement importants dans les catégories populaires (en 2020, 62 % chez les travailleurs qualifiés et 70 % chez les non qualifiés, au-delà de 60 % chez ceux qui ont moins de 16 ans d’études), mais aussi chez les post-baby-boomers (59 %) et les millennials (68 %). Il reste des citoyens alignés, mais ils sont de moins en moins représentatifs de l’ensemble des Français.
La négativisation du lien partisan
Voter « pour » était évident, mais c’est le vote négatif (Catt, 1996) qui prend de plus en plus de place. Une tendance qui permet de comprendre pourquoi choisir un bulletin est de moins en moins synonyme de soutien et de plus en plus un choix faute de mieux.
Pour cela, on dispose depuis longtemps de questions qui mesurent la probabilité de voter pour différents partis, de 0 (exclut totalement de voter pour ce parti) à 10 (sûr de voter pour ce parti). Elles permettent de distinguer les ennemis (qui obtiennent la note de 0) des adversaires (notes de 1 à 4, voire 5) et des partenaires (notes supérieures à 5). Par ailleurs, on peut aussi mesurer les « supporters » (notes de 8 à 10).
Figure 4 : Les probabilités de vote pour les différents partis français en 2012 et en 2023
Les probabilités de vote mesurées en 2012 rendent compte d’un monde politique où il y avait certes de la négativité mais contenue. Seul le FN suscitait un rejet absolu chez plus de 40 % des répondants. Le second parti le plus rejeté était le Front de gauche (dont est issu LFI) avec environ 20 %. Du côté du lien positif au parti, quatre organisations recueillaient plus de 30 % de notes supérieures à 5 sur 10, le Front de gauche (30 %), le PS (31 %), les écologistes (53 %) et l’UMP (31 %).
La négativisation du rapport à l’offre politique est un phénomène majeur dans la France d’après 2022. Les partis considérés comme les plus à gauche et les plus à droite suscitent plus de rejet, 47 % des répondants donnent une note de 0 à LFI, 46 % font de même pour le RN et 69 % pour Reconquête d’Éric Zemmour. Cette négativité dépasse largement la part des électeurs qui ont des chances de voter pour ces mêmes partis. LFI compte 8 % de soutien fort (notes supérieures à 8), le RN 13 %, et le parti zemmouriste 2 %. Si l’on rajoute les notes 6 et 7, soit des préférences plus faibles, on atteint 14 %, 18 % et 4 %.
Mais le rejet et surtout la difficulté à fédérer des soutiens positifs touchent désormais l’ensemble de l’offre politique. EELV suscite 29 % de notes nulles, LR et LREM autour de 36 %, le PS et EELV autour de 30 %. Ce rejet est très différent de 2012. Tous ces partis entrent au mieux dans la catégorie des adversaires pour nombre de répondants. Politiquement, cela équivaut à ce qu’une victoire à la présidentielle de chacun des quatre plus importants partis se fasse « par défaut », dans une logique d’élimination du pire par rapport au moins pire.
Une situation dangereuse
La France se trouve dans une situation inédite et potentiellement dangereuse. D’un côté, les institutions fonctionnent et les partis politiques y opèrent. Mais de l’autre, ils le font avec des racines de plus en plus fragiles et de moins en moins représentatives de la société, en particulier en ce qui concerne les classes populaires et les nouvelles générations. On pourrait dire que les absents, les non-partisans, ont tort, mais c’est oublier qu’ils ont des préférences et des revendications spécifiques, et que l’offre politique française n’est pas en mesure d’y répondre. Plus grave encore, ont-elles l’intention de le faire ?
En 2024, les grands perdants des élections législatives ont été LR et les macronistes et pourtant ils gouvernent. Les partis peuvent faire comme d’habitude, mais c’est agir comme si ces citoyennes et ces citoyens qui se détournent des partis ne comptaient pour rien. D’ailleurs, il n’y a pas que les partis qui sont touchés. Il en va de même de l’éloignement des urnes d’une fraction croissante de l’électorat potentiel.
Tenir pour négligeable cette « grande démission citoyenne » met sous tension les équilibres politiques et notre modèle démocratique. C’est faire comme si les apartisans ou les abstentionnistes n’avaient pas d’opinions et de préférences ou faire comme si ceux qui restent alignés étaient représentatifs. C’est de moins en moins le cas et dans le cadre d’une démocratie qui reste centrée sur les élus, c’est nourrir la distance et le rejet d’un nombre de plus en plus important de Français.
Cet article est tiré de l’ouvrage French Democracy in Distress. Challenges and Opportunities in French Politics (Palgrave Macmillan, 2025), sous la direction d’Élodie Druez, Frédéric Gonthier, Camille Kelbel, Nonna Mayer, Felix-Christopher von Nostitz et Vincent Tiberj.
Vincent Tiberj ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.02.2026 à 16:51
Tout sauf l’Ehpad ? Les ambiguïtés de la politique du grand âge
Texte intégral (2030 mots)

En France, les établissements d’hébergement pour personnes âgées dépendantes (Ehpad) font figure de repoussoirs. En 2001, 53 % des Français déclaraient en ne pas souhaiter vivre dans un établissement pour personnes âgées dans le futur, ce pourcentage s’élève aujourd’hui à 74 %. Les pouvoirs publics cherchent à promouvoir d’autres formes d’hébergement moins médicalisées. Est-ce une bonne approche ?
Les établissements d’hébergement pour personnes âgées dépendantes (Ehpad) constituent aujourd’hui le mode dominant d’accueil pour les personnes âgées ne pouvant pas rester à leur domicile. Fin 2023, sur les 700 000 personnes fréquentant un établissement d’hébergement pour personnes âgées, près de 80 % vivent en Ehpad. Compte tenu du vieillissement démographique, si les pratiques d’entrée en institution restent inchangées, il faudra ouvrir 108 000 places en Ehpad d’ici à 2030, puis 211 000 places entre 2030 et 2050. Cela reviendrait à un peu plus que doubler, dans la durée, le rythme d’ouverture de places observé depuis 2012.
Or, une telle projection se heurte à l’image dégradée dont bénéficient les Ehpad en France. Ceux-ci font office de repoussoir pour un grand nombre de personnes âgées et de familles, encore plus depuis l’affaire Orpea et la parution du livre Les fossoyeurs du journaliste Victor Castanet. La crainte de perdre sa liberté en établissement d’hébergement, voire d’être maltraité, conduit à plébisciter le maintien à domicile pour ses vieux jours. Ainsi, selon le baromètre de la DREES, alors que 53 % des Français déclaraient en 2001 de ne pas souhaiter vivre dans un établissement pour personnes âgées dans le futur, ce pourcentage s’élève aujourd’hui à 74 %. 44 % des Français feraient en sorte de s’occuper de son parent âgé à son domicile, 21 % seraient prêts à l’accueillir chez eux et 16 % les soutiendraient financièrement afin qu’il puisse bénéficier d’aides à domicile. Entre 2014 et 2023, la proportion de personnes qui privilégient de s’occuper de leur proche à son domicile a augmenté de presque 20 points, passant de 25 % en 2014 à 44 % en 2023.
Une politique domiciliaire en panne
Dans ce contexte, quelles sont les orientations de la politique vieillesse ? Depuis quelques années, l’État s’engage à promouvoir une approche domiciliaire pour tenir compte des réticences croissantes manifestées à l’égard des institutions d’hébergement. Cette approche est confortée par les projections des attentes des nouvelles générations de personnes âgées, qui correspondront aux baby-boomers (nés entre 1946 et 1964) atteignant le grand âge au cours des prochaines décennies. Ainsi, il est attendu que ces nouvelles générations soient plus enclines à vouloir préserver leur pleine et entière citoyenneté et à moins dépendre de décisions leur échappant.
Schématiquement, la politique domiciliaire engagée par l’État se structure autour de deux axes. Le premier consiste à renforcer les capacités du domicile pour que les gens puissent s’y maintenir plus nombreux et dans de bonnes conditions. Le second axe vise à transformer le fonctionnement des Ehpad pour qu’ils deviennent des lieux de vie ouverts sur la cité et où les résidents puissent y être « comme chez eux ». En réalité, cette politique relativement consensuelle se situe dans le prolongement des orientations antérieures. Mais de sérieux doutes ont été émis par l’Inspection générale des affaires sociales quant à la capacité de l’État à la mettre réellement en œuvre. Le coût budgétaire de la politique domiciliaire de même que la faible attractivité des métiers du grand âge en constituent autant de freins.
Une volonté politique d’encourager les habitats intermédiaires
D’un côté, l’Ehpad comme mode d’hébergement des personnes âgées n’a plus le vent en poupe, et de l’autre, le maintien à domicile des personnes en perte d’autonomie présente des limites. C’est pourquoi, pour mettre en œuvre l’approche domiciliaire, les pouvoirs publics misent fortement sur le développement de « l’habitat intermédiaire ».
Par habitat intermédiaire, il faut entendre toutes les formes d’habitat qui se situent entre le domicile historique et les établissements proposant un hébergement collectif. La Caisse nationale de solidarité pour l’autonomie (CNSA) estime qu’il y aurait aujourd’hui 275 000 places en habitat intermédiaire (résidences autonomie, résidences services seniors, habitats inclusifs, accueil familial, résidences intergénérationnelles…). Compte tenu des besoins liés au vieillissement de la population, elle projette la nécessité de créer 500 000 solutions de logement en habitat intermédiaire d’ici 2050.
La justification de cette incitation publique en faveur de l’habitat intermédiaire est qu’il s’agit d’une formule qui répond au souhait des personnes de vivre chez elles sans êtres seules, tout en préservant leur intimité et leur liberté de choix.
Une autre de ses caractéristiques est que le public visé est plutôt constitué de personnes ayant une perte d’autonomie modérée, dont l’isolement ou les problèmes de santé les inciteraient à rejoindre un cadre de vie plus sécurisant. De fait, l’habitat intermédiaire apparaît comme une formule aux antipodes de l’Ehpad. Ce dernier accueille en effet des personnes plus dépendantes et représente un coût plus important pour les finances publiques compte tenu de la présence de personnels soignants.
Les Ehpad condamnés à faire figure de repoussoir
Cette politique en faveur de l’habitat intermédiaire contient un implicite : demain, encore plus qu’aujourd’hui, les Ehpad auront vocation à accueillir les personnes âgées très dépendantes. Malgré toute l’énergie que mettent les directions d’Ehpad pour ouvrir leurs établissements sur la vie de la cité, l’image repoussoir risque de se renforcer : la moitié des résidents en Ehpad a plus de 88 ans et 85 % sont en perte d’autonomie (classés en GIR 1 à 4) ; 38 % sont atteint d’une maladie neurodégénérative, soit 4 points de plus qu’en 2019. Parallèlement, le nombre de personnes autonomes qui intègrent un établissement a encore reculé en l’espace de quatre ans.
Pourtant, cette évolution n’est pas inéluctable. Les Ehpad ont toujours accueilli des personnes en situation de perte d’autonomie modérée. En effet, l’entrée en établissement d’hébergement ne résulte pas d’un processus linéaire qui rendrait le maintien à domicile impossible à partir d’un certain seuil de dépendance. De multiples facteurs entrent en ligne de compte dans ce processus, mêlant tant des éléments subjectifs (la perception individuelle de la situation) que des éléments objectifs comme la qualité de son cadre de vie ou la présence d’aidants mobilisables pour intervenir à domicile.
Une approche alternative aurait été possible
En favorisant le développement d’un habitat intermédiaire, quoi qu’il s’en défende, l’État contribue à segmenter l’offre en fonction du degré de dépendance. Toute catégorisation qui se veut positive tend à produire son contraire, à savoir une catégorie qui concentre les éléments négatifs. Que va-t-il advenir des personnes dont l’état de santé ne permettra plus de rester en habitat intermédiaire si ce dernier est amené à se développer ?
Un modèle alternatif était pourtant possible. Il a été défendu à partir des années 1980 par la Fondation de France qui encourageait la création de « lieux de vie jusqu’à la mort ». Contre l’idée de segmentation, il s’agissait de promouvoir des petites unités de vie, bien insérées dans le tissu social local, où les personnes auraient pu être accompagnées par des services d’aide et de soins à domicile jusqu’à la fin de leur vie. Ces structures, de petite taille, reposaient sur un mode de vie et d’accompagnement familial, prenant le contre-pied des grands établissements hospitaliers et médicalisés.
À la différence de beaucoup d’habitats intermédiaires actuels, leur ambition était de pouvoir accompagner jusqu’au bout des personnes âgées en perte d’autonomie. C’est sur ce modèle que se sont développées ces dernières années, par exemple, des colocations accueillant des personnes atteintes de la maladie d’Alzheimer.
Mais, pour l’essentiel, cette option a peu été soutenue par les pouvoirs publics et beaucoup d’opérateurs sont restés prisonniers de cadres organisationnels et économiques favorables à la réalisation d’économies d’échelle, aboutissant à la constitution de lieux de relégation. Dans les faits, il s’est avéré plus aisé de produire une offre segmentée avec, d’un côté, des Ehpad ou des unités spécialisées hébergeant des personnes très dépendantes et, de l’autre, des habitats intermédiaires accueillant une population fragilisée mais encore peu dépendante. Ce processus de segmentation s’est opéré avec l’assentiment des élus locaux soucieux de proposer une offre non stigmatisée sur leur territoire, qui est elle-même valorisée par les familles.
Il n’est toutefois pas certain que le mot d’ordre « tout sauf l’Ehpad » contribue à rendre la société plus inclusive pour faire face au vieillissement de la population. Alors que les lieux de vie visent à accompagner l’ensemble des « gens du coin » dans leur vieillissement, le paysage gérontologique tend au contraire à spécialiser les réponses d’hébergement, enfermant un peu plus la figure du « vieux dépendant » dans son rôle de repoussoir.
Dominique Argoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.02.2026 à 12:22
Pourquoi l’obésité progresse-t-elle depuis trente ans ?
Texte intégral (1915 mots)
Le ministère de la santé vient de lancer sa feuille de route 2026-2030 pour la prise en charge des personnes en situation d’obésité. Ce cadre stratégique invite à questionner un paradoxe : l’État a déployé dès 2001 un ensemble d’actions autour de l’activité physique et la nutrition en vue de réduire la prévalence de cette maladie, et, pourtant, celle-ci augmente régulièrement depuis une trentaine d’années.
L’obésité est une maladie dont les causes et conséquences sont désormais bien documentées par la littérature médicale comme sociologique. Sa prévalence n’a cessé d’augmenter depuis les années 1990 dans le monde. La France ne fait pas exception. De 8,5 % en 1997, la population adulte en situation d’obésité est passée à 15 % en 2012, puis à 17 % en 2020. Des écarts importants existent entre les personnes suivant leur âge, leur sexe, leur région, leur niveau d’éducation et leur catégorie socioprofessionnelle.
Ces données épidémiologiques et sanitaires ont participé à une prise de conscience (certes, partielle) des pouvoirs publics quant à la nécessité d’agir. Mais les politiques publiques menées contre l’obésité en France sont inefficaces. Comment l’expliquer ? Quelles stratégies sont mises à l’œuvre par les lobbies pour contrer les mesures ? Et comment concilier lutte contre l’obésité et lutte contre la grossophobie ? Faisons le point.
Les années 1990, ou la prise de conscience du lien entre alimentation et santé
La reconnaissance de l’obésité comme une « épidémie » par l’Organisation mondiale de la santé (OMS) en 1997 incite les autorités sanitaires nationales à se saisir de cet enjeu.
En France, il faut attendre la fin des années 1990 pour voir le ministère de la santé s’intéresser à la question. Plusieurs dynamiques politiques et sociales se croisent alors. Le débat sur la « malbouffe » s’impose dans l’espace médiatique à cette période, notamment après le démontage d’un restaurant d’une célèbre chaîne de fast-food à Millau en 1999.
Il s’insère dans une séquence plus large de préoccupations sur le lien entre santé et alimentation, amorcée dès le début de la décennie avec les épisodes liés au variant de la maladie de Creutzfeldt-Jakob, surnommé « maladie de la vache folle ».
Un plan national nutrition santé depuis 2001
Pour que les différentes dynamiques se combinent, il faudra néanmoins attendre l’apparition d’une « fenêtre d’opportunité politique » en 2000.
Le gouvernement cherche alors des thèmes à proposer à ses partenaires européens, en vue de sa présidence de l’Union européenne en 2001. Le ministère de la santé suggère celui de la nutrition santé, et en profite pour lancer un plan national, le Plan national nutrition santé (PNNS). Cette mise à l’agenda discrète, à la croisée de préoccupations nutritionnelles, sanitaires et politiques, constitue sans doute la première inscription de l’obésité comme problème de santé publique en France. La version actuelle du PNNS se décline en dix mesures phares présentées sur le site MangerBouger.
Avec notamment des recommandations en direction des professionnels et du grand public, le PNNS a pour objectif d’améliorer l’état de santé de la population en agissant sur la nutrition, qui est l’un de ses déterminants majeurs. Le plan vise à réduire la prévalence de l’obésité chez les adultes – le même objectif de réduction sera intégré à la loi 2004-806 du 9 août 2004 relative à la politique de santé publique, sans que des moyens supplémentaires soient adoptés.
À lire aussi : Lutte contre l’obésité : deux nouvelles mesures efficaces
Plan obésité, taxe soda et autres mesures
« Problème fluide » par excellence, l’obésité fera l’objet après 2001 de nouvelles inscriptions régulières à l’agenda, sans que cet intérêt entraîne de diminution de la prévalence. Elle fera de nouveau l’objet d’une attention politique et sociale à travers les débats parlementaires sur la loi de santé publique de 2004 et ceux entourant les messages sanitaires dans les publicités alimentaires en 2007.
D’autres mesures seront prises, parmi lesquelles :
la mise en place d’un plan obésité en 2010 (pour améliorer la prise en charge),
le développement d’initiatives locales (villes-santé, santé-environnement, etc.), par exemple ici, dans les Hauts-de-France, et de plans autour de l’activité physique ou encore
Mais le poids des lobbies, et la complexité des actions à mener pour réduire la prévalence de l’obésité en font un problème insoluble – en tout cas sans changements sociaux structurels.
Alors, plus de vingt ans après le lancement du premier PNNS, le constat est sans appel : la prévalence de l’obésité continue de croître. Cet échec relatif s’explique par plusieurs facteurs structurels.
Une approche trop centrée sur la responsabilité individuelle
Tout d’abord, les politiques publiques françaises ont adopté une approche essentiellement comportementale, centrée sur la responsabilité individuelle : mieux manger, bouger davantage, équilibrer son alimentation.
Ce cadrage moral et sanitaire tend à négliger les déterminants sociaux de la santé, alors que les études montrent que l’obésité touche davantage les classes populaires, les femmes et les habitants de certaines régions. En ciblant les comportements sans agir sur les conditions de vie – précarité, urbanisme, accès à des aliments de qualité –, ces politiques ne font qu’effleurer les causes profondes du phénomène.
Ensuite, les politiques de lutte contre l’obésité se caractérisent par une forte dispersion institutionnelle (ministère de la santé, de l’éducation nationale, de la ville…). Les mesures se succèdent sans continuité, souvent diluées dans des programmes plus larges (nutrition, prévention, activité physique). L’obésité n’apparaît que comme un sous-thème, rarement comme une priorité politique autonome. Cette dilution empêche la mise en place d’une stratégie nationale cohérente et dotée de moyens pérennes.
Le poids de l’agro-industrie
Enfin, le poids des industries agroalimentaires constitue un frein structurel à l’effectivité des politiques nutritionnelles. Dotées de ressources économiques, juridiques et communicationnelles considérables, ces industries développent des stratégies d’influence visant à affaiblir, retarder ou contourner les mesures de santé publique adoptées par les pouvoirs publics.
L’un des exemples les plus emblématiques concerne les mobilisations contre le Nutri-Score, portées par des acteurs industriels (secteurs des huiles, des produits laitiers, des produits sucrés) et certains États membres de l’Union européenne, comme l’Italie, qui ont cherché à en contester la scientificité, à en limiter le caractère obligatoire ou à promouvoir des systèmes alternatifs moins contraignants auprès de la Commission européenne. Ces actions s’inscrivent dans une logique classique de lobbying réglementaire, visant à déplacer le débat du terrain de la santé publique vers celui de la liberté économique, du choix du consommateur ou de la protection des « traditions alimentaires ».
À lire aussi : Retour sur les principaux arguments des « anti-Nutri-Score »
Ces logiques se retrouvent également dans les tensions autour de la fiscalité nutritionnelle, en particulier la taxe sur les sodas ou sur la réticence à encadrer strictement la publicité alimentaire, notamment à destination des enfants et des adolescents. Dans ce contexte, les politiques publiques apparaissent souvent prises en étau entre injonctions à la prévention des maladies chroniques et pressions industrielles, ce qui limite la portée transformatrice des réformes engagées.
Ces impasses morales, institutionnelles et économiques contribuent à expliquer la difficulté persistante de la France à enrayer l’augmentation de l’obésité, malgré une mobilisation politique et médiatique récurrente.
Lutter aussi contre la grossophobie
Peut-être pourrions-nous également incriminer les préjugés et stéréotypes à l’égard des personnes grosses. Le relatif désengagement des politiques de santé et l’accent mis sur la responsabilité individuelle ne s’expliquent-ils pas, au moins en partie, par une vision stéréotypée de l’obésité, qui en fait avant tout une affaire de décisions personnelles ?
Dans la lutte contre la grossophobie, les pouvoirs publics demeurent en tous cas frileux, déléguant aux bonnes volontés associatives ou professionnelles la mise en place d’actions dont on peine à deviner les contours. À cet égard, l’absence du terme de « grossophobie » dans la dernière feuille de route obésité présentée par le gouvernement interroge fortement.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.02.2026 à 16:01
Le RN face à Trump et Poutine : affinités idéologiques et lignes de fracture
Texte intégral (2431 mots)
Le Rassemblement national partage un projet illibéral avec Vladimir Poutine et Donald Trump. En cas de victoire d’un candidat RN à la présidentielle de 2027, faut-il s’attendre à une nouvelle alliance entre la France, la Russie de Poutine et les États-Unis de Trump ?
La Stratégie de sécurité nationale des États-Unis, publiée en décembre 2025, a dessiné la vision sombre d’une Europe en perdition qui ne pourrait être sauvée que par l’ingérence américaine. Cette lecture non seulement d’un déclin économique et démographique, mais aussi d’une décadence politique et culturelle de l’Europe résonne largement avec la vision du monde des extrêmes droites européennes que la Stratégie soutient. Le texte reconnaît ainsi que « L’Amérique encourage ses alliés politiques en Europe à promouvoir ce renouveau de l’esprit, et l’influence croissante des partis patriotes européens donne en effet matière à un grand optimisme ». Le texte fait également écho à la vision russe de l’Europe – sans lui en être directement redevable – construite depuis près de deux décennies par le régime de Vladimir Poutine, qui présente la Russie comme le dernier bastion de la « vraie Europe » et, à ce titre, comme l’alliée naturelle de l’ensemble des « patriotes » européens.
En effet, aussi bien les extrêmes droites européennes que les gouvernements russe et américain actuels partagent un ensemble de valeurs communes que l’on peut définir comme illibérales : ils défendent la souveraineté nationale contre les institutions supranationales et multilatérales, croient en un monde multipolaire et non universaliste, promeuvent un pouvoir exécutif fort contre les droits des minorités ainsi qu’une vision homogénéisante de la nation et revendiquent des valeurs conservatrices et le respect des hiérarchies sociales traditionnelles afin de sauvegarder l’identité profonde de l’Europe.
Ce logiciel idéologique commun permet de partager un certain nombre de stratégies politiques, en particulier la dénonciation de l’Union européenne (UE), vue comme un instrument au pouvoir d’élites technocratiques, non élues, qui chercheraient à dissoudre les identités nationales dans un globalisme cosmopolite et progressiste. Steve Bannon a ainsi récemment déclaré soutenir Marine Le Pen dans l’espoir de « tuer l’Union européenne ». Toutefois, le partage d’un même logiciel illibéral n’implique pas l’automaticité de tous les alignements géopolitiques.
Ukraine, Venezuela, Groenland : de la difficulté à ajuster les positionnements stratégiques
Avec l’invasion militaire de l’Ukraine en février 2022, le Rassemblement national (RN) a été contraint d’opérer un éloignement progressif de la Russie et de réajuster son discours afin de demeurer en phase avec une opinion publique française largement critique de Moscou. Les références à l’Ukraine comme faisant partie du monde russe ont donc cédé la place à un discours plus nuancé, focalisé sur le coût économique de la guerre, mais qui, sur le plan stratégique, continue de rejoindre en partie les perspectives russes.
Ce repositionnement discursif n’efface ni l’héritage des relations entretenues avec la Russie ni la persistance de trajectoires individuelles qui continuent de structurer, de manière différenciée, les liens du parti avec des acteurs russes. Les interfaces politiques et financières portées principalement par Aymeric Chauprade et Jean-Luc Schaffhauser (tous deux ayant aujourd’hui quitté le parti) ont été bien documentées. Le positionnement prorusse assumé de Thierry Mariani a contribué à normaliser des lectures favorables à Moscou à l’intérieur du parti. L’eurodéputé Philippe Olivier, beau-frère de Marine Le Pen, ainsi que de nombreux autres candidats du parti, ont eu ou ont encore des liens directs avec la Russie. Plus récemment, c’est le cas de Patrice Hubert, nommé directeur général du RN en 2025, dont l’expérience professionnelle antérieure en Russie et le rôle passé de correspondant du FN à Moscou signalent une intégration plus discrète et managériale de la familiarité avec la Russie dans l’appareil du parti plutôt qu’un militantisme explicite.
Le RN a toujours eu un tropisme plus russe qu’américain, dû à l’histoire du mouvement, et aux orientations idéologiques de la famille Le Pen elle-même. Jean-Marie Le Pen a eu des contacts avec des figures de l’extrême droite russe, comme Vladimir Jirinovsky, depuis le début des années 1990, et Marine Le Pen avait été reçue par Vladmir Poutine en 2018 et financièrement soutenue par une banque russo-tchèque lors de sa campagne de 2017.
Alors que les autres extrêmes droites européennes ont été plus enthousiastes à la réélection de Donald Trump (par exemple l’AfD en Allemagne ou le FPÖ en Autriche), et que Giorgia Meloni en Italie s’est positionnée en leader politique national-conservateur le plus proche du monde trumpiste, le RN est resté plus ambivalent. Ces ambiguïtés ne sont pas nouvelles : dès le premier mandat du président américain, le RN avait pris ses distances avec des figures comme Steve Bannon lorsque celui-ci cherchait à créer une internationale européenne des extrêmes droites, et seuls les réseaux de Marion Maréchal s’en étaient rapprochés. Et en effet, les cercles de Reconquête autour d’Éric Zemmour, et en particulier Sarah Knafo, ont été bien plus explicites dans leur admiration pour Trump et le monde MAGA que le RN.
Le RN a préféré rester dans un « entre-deux » idéologique : Jordan Bardella n’a pas caché son admiration pour Trump au moment de sa réélection et avait prévu de se rendre à la Conférence d’action politique conservatrice (en anglais, Conservative Political Action Conference, CPAC) de février 2025 avant d’annuler au dernier moment son déplacement, après la polémique autour du salut nazi de Steve Bannon. Les contacts bilatéraux continuent également à ce jour autour du procès de Marine Le Pen, l’administration américaine (tout comme la Russe) ayant clairement interprété le jugement comme un acte politique et ne cachant pas son soutien à la candidate. Le nouveau sous-secrétaire d’État américain aux affaires économiques Jacob Helberg, connecté à la fois professionnellement et personnellement aux grands noms trumpistes de la Silicon Valley, comme Peter Thiel et sa firme Palantir, officie comme liaison entre Washington et la droite française dans son ensemble, de Reconquête au RN et aux républicains (LR).
Avec l’accélération de l’histoire voulue par l’administration Trump, la prise de distance s’est accrue dans les déclarations publiques. Le RN a pris clairement position contre l’enlèvement de Nicolas Maduro au Venezuela, y dénonçant une violation flagrante de la souveraineté nationale et du droit international. Marine Le Pen a déclaré que « la souveraineté nationale n’est jamais négociable » et Thierry Mariani que « Trump nous traite comme une colonie ». Il en va de même pour les demandes américaines d’un achat du Groenland au Danemark, Bardella ayant par exemple vigoureusement dénoncé le « retour des ambitions impériales » américaines et le chantage commercial.
Nations et empires dans le monde illibéral
On peut bien sûr interpréter le malaise du RN à l’égard de Donald Trump comme un simple ajustement discursif destiné à rester en phase avec l’opinion publique, dans une logique essentiellement électoraliste : les deux candidats du RN auront besoin des voix de la droite classique, voire des déçus du macronisme, pour tenter de gagner le second tour de l’élection présidentielle. Or la politique trumpienne fonctionne comme un repoussoir pour la moitié des Français, qui considèrent Trump comme un ennemi de l’Europe.
En outre, comme les autres extrêmes droites européennes, le RN s’est converti à une Europe des nations, qui devrait s’affirmer sur la scène internationale, tout en défaisant en grande partie le projet supranational de l’Union européenne (UE). La position du RN n’est pas aussi « EU compatible » que celle de Giorgia Meloni, mais elle n’est plus non plus favorable au « frexit », et se rapproche plutôt du positionnement de Viktor Orban. Cette Europe des nations correspond bien aux visées de la Russie comme des États-Unis trumpistes, mais elle ne leur ait pas inféodée : Meloni est en tension avec Washington sur l’aide à l’Ukraine, les droits de douane ou l’expansionnisme américain, de même qu’Orban l’est sur sa relation privilégiée à la Chine, qui déplaît fortement à Trump.
Là où le bât blesse, c’est que le projet trumpiste est plus impérial que national, considérant que les grandes puissances ont le droit d’accaparer de nouveaux territoires au détriment des États-nations existants, comme on le voit dans la rhétorique expansionniste envers le Groenland. Il peut donc entrer en contradiction avec les ambitions nationalistes des forces européennes qui lui sont pourtant idéologiquement proches. On pourrait dire qu’il en va de même pour le projet impérial russe, qui s’est aliéné des soutiens possibles dans des pays comme la Pologne, précisément par sa dimension impériale. En termes idéologiques, le parti Droit et Justice (PiS), au pouvoir entre 2015 et 2023, et bien parti pour gagner à nouveau les élections en 2027, partage en effet de nombreuses valeurs communes avec le discours russe sur la vraie Europe, chrétienne et conservatrice.
Là où l’extrême droite d’Europe occidentale voit une différence majeure entre les projets impériaux russe et américain, c’est que la conquête de l’Ukraine semble relever d’une logique de sphère d’influence extérieure à l’espace de l’UE, propre au monde dit postsoviétique, alors que la conquête du Groenland s’oppose frontalement à un pays membre de l’UE, le Danemark. Le côté mercantiliste du discours trumpien, qui conjugue des arguments sécuritaires et économiques, suscite également moins d’attrait que le discours russe, bien plus sophistiqué dans ses arguments historiques et culturels, et donc identitaires, pour justifier la prise de l’Ukraine.
On voit donc que la supposée alliance illibérale et le partage d’un agenda de transformation profonde de l’UE est limitée par des contraintes de politique intérieure : il faut suivre les opinions publiques pour qui Poutine et Trump sont des « parrains » embarrassants. Marine Le Pen ou Jordan Bardella, s’ils accèdent au pouvoir, auront sans doute pour priorité la reconduction de leur mandat et leur image de gouvernabilité dans un contexte où ils seront destituables politiquement (censure parlementaire, alternance) et contrôlables juridiquement (Conseil constitutionnel, justice administrative).
Les incertitudes qui entourent les choix stratégiques du RN en cas de victoire présidentielle tiennent ainsi moins à un flou idéologique qu’à la tension constitutive de son projet. La revendication d’un nationalisme continental européen pourrait, en théorie, faire de « l’Europe des nations » un pôle stratégique autonome, ni subordonné à Washington ni aligné sur Moscou.
Dans les faits, cependant, le parti sera contraint d’arbitrer entre deux trajectoires déjà éprouvées : une voie « à la Meloni », consistant à infléchir de l’intérieur certaines politiques européennes sans remettre en cause l’architecture supranationale (immigration, environnement, droits LGBTQIA+, etc.), et une voie « à la Orban », plus conflictuelle vis-à-vis des institutions de l’UE. Dans l’un comme dans l’autre cas, la transformation du logiciel politique européen se ferait par déplacement progressif vers des référentiels illibéraux convergents avec ceux des États-Unis trumpistes et de la Russie poutinienne, sans pour autant effacer les rivalités géopolitiques et économiques qui structurent l’ordre international.
L’illibéralisme n’ouvre donc pas sur une nouvelle « fin de l’histoire », mais sur une recomposition durable des lignes de conflit, où la convergence idéologique coexiste avec la persistance des logiques de puissance.
Marlène Laruelle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
07.02.2026 à 08:00
Sébastien Lecornu a-t-il bien fait d’utiliser le 49.3 pour l’adoption du budget ?
Texte intégral (1663 mots)
Le premier ministre Sébastien Lecornu a privilégié la recherche de compromis sur les textes financiers avant de changer de stratégie en janvier, face au blocage de la discussion budgétaire. En choisissant finalement le 49.3, le premier ministre est revenu sur sa promesse. Mais quelles options se présentaient à lui ? Le choix du 49.3 était-il justifié ?
Après sa nomination, Sébastien Lecornu a laissé nombre d’observateurs perplexes en déclarant vouloir privilégier la négociation au passage en force, prenant même l’engagement de ne pas recourir au 49.3. Or, depuis les législatives de 2022, les premiers ministres ont fait adopter toutes les lois de finances initiales au 49.3, rendant la procédure presque banale.
Depuis la dissolution de 2024 et la tripartition de l’Assemblée nationale qui en a résulté, le recours au 49.3 semblait plus inéluctable encore. Aussi, l’annonce du nouveau premier ministre marquait une rupture, comme si la composition de l’Assemblée avait fini par contraindre l’exécutif à un changement de méthode. En cherchant la voie du compromis, le gouvernement semblait enfin suivre l’exemple d’autres pays européens où règne la culture du compromis, comme l’Allemagne ou la Belgique.
Mais cette approche était aussi risquée. Si elle a permis l’adoption surprise du projet de loi de financement de la Sécurité sociale en décembre 2025, la loi de finances initiale s’annonçait autrement plus difficile, tant les groupes politiques refusaient de s’entendre. Constatant l’impasse du débat après sa reprise le 13 janvier 2026, le gouvernement a donc demandé la suspension des débats prévus et a commencé à préparer une ordonnance.
En effet, le délai de 70 jours imparti au Parlement pour se prononcer sur le texte était dépassé, ce qui rendait la prise de celle-ci possible à tout moment. Elle aurait présenté l’avantage de doter la France d’un budget complet pour 2026, mais elle n’aurait pas prémuni le gouvernement d’une éventuelle censure spontanée. Interpellée dans l’Hémicycle, le 15 janvier 2026, la ministre des comptes publics Amélie de Montchalin a annoncé que le gouvernement était face à un choix : le 49.3 ou l’ordonnance. L’exécutif a donc hésité, l’Élysée et le gouvernement semblant même s’opposer sur la voie à suivre, avant d’opter pour le 49.3, un choix finalement moins brutal et moins risqué qu’une ordonnance.
Pourquoi choisir le 49.3 plutôt que l’ordonnance ?
Ordonnance et 49.3 sont deux voies exceptionnelles qui malmènent le Parlement. Mais le 49.3 présente au moins deux avantages par rapport à l’ordonnance.
Premièrement, l’ordonnance permet au gouvernement de mettre en vigueur seul le projet de loi de finances. En court-circuitant le Parlement, il le prive de son pouvoir fondamental de consentir à l’impôt. C’est ce qui explique en partie qu’aucun gouvernement n’y a eu recours depuis 1958 alors qu’il en a régulièrement eu la possibilité. En effet, une ordonnance peut être prise dès l’expiration du délai de soixante-dix jours calendaires donné au Parlement pour se prononcer. Mais la Constitution ne le rend ni automatique ni obligatoire. Le gouvernement peut aussi décider d’accorder plus de temps au Parlement pour lui permettre de se prononcer, quitte à le presser un peu en recourant à la procédure du vote bloqué (44.3 ou, bien sûr, au 49.3.
Dans l’esprit des rédacteurs de la Constitution, la menace de l’ordonnance a plus pour objectif d’inciter les parlementaires à tenir leur délai que de les mettre totalement à l’écart. La logique des règles budgétaires françaises est de favoriser l’adoption du projet de loi de finances par des votes, amendement par amendement et disposition par disposition. Si le gouvernement a les moyens juridiques de forcer un peu les choses, le consentement du Parlement reste requis. Même avec le 49.3, les députés conservent un certain droit de regard, puisqu’ils peuvent refuser le texte en renversant le gouvernement. C’est ce qui s’est produit en 2025 pour le gouvernement Barnier. Avec une ordonnance, au contraire, le dessaisissement est total et le texte peut ne pas tenir compte des débats parlementaires.
Deuxièmement, le contenu de la loi de finances peut ne pas être le même selon qu’il est mis en vigueur par ordonnance ou que le texte est adopté par 49.3. En effet, le premier ministre peut choisir la version du texte sur laquelle il engage la responsabilité de son gouvernement, par exemple une version qui comporte des amendements acceptés par les deux assemblées. La situation est moins claire s’agissant de l’ordonnance et la question a divisé les juristes. Pour certains, comme l’article 47.3 indique que « les dispositions du projet peuvent être mises en vigueur par ordonnance », il faut comprendre qu’il s’agit du « projet initial » du gouvernement. Pour d’autres, rien n’empêche le gouvernement de retenir des amendements. Si cette seconde thèse nous paraît la plus convaincante, le gouvernement Lecornu a prudemment suivi la première en reprenant presque intégralement sa copie initiale dans l’ordonnance qu’elle a préparée. Si celle-ci avait été prise, les débats parlementaires n’auraient servi à rien et la mise à l’écart du Parlement aurait été totale, malgré la tentative du premier ministre de rassurer les groupes politiques, en particulier le groupe socialiste. Finalement, en choisissant une telle ordonnance, le premier ministre se serait plus exposé au vote positif d’une motion de censure spontanée qu’en engageant la responsabilité de son gouvernement sur une version du texte qui tient compte d’une partie au moins des débats parlementaires.
Les conséquences du recours à l’article 49.3
Pour faire adopter le projet de loi de finances, Sébastien Lecornu a dû recourir au 49.3 à trois reprises : une première fois sur la première partie du texte, une deuxième fois sur la deuxième partie et une dernière fois en lecture définitive. Avec le rejet de la première motion de censure, l’adoption du texte est devenue certaine. Pourtant, les conséquences de chaque scrutin n’étaient pas les mêmes pour la loi de finances.
En effet, en cas de motion positive après recours au 49.3 sur la première partie ou la deuxième partie du projet, le texte aurait été considéré comme rejeté puis renvoyé au Sénat, c’est-à-dire que la procédure aurait pu se poursuivre. Comme le Parlement ne se serait alors pas définitivement « prononcé » au sens de l’article 47.3 de la Constitution, un nouveau gouvernement nommé par Emmanuel Macron aurait pu prendre une ordonnance financière.
Supposons maintenant qu’une motion de censure ait été votée positivement lors de la lecture définitive du texte à l’Assemblée, c’est-à-dire lors du troisième recours au 49.3. Le renversement du gouvernement aurait entraîné le rejet définitif du projet de loi de finances et le Parlement se serait alors définitivement prononcé, au sens du texte constitutionnel. Le gouvernement démissionnaire aurait alors continué à prélever les impôts existants et à dépenser dans le cadre des services votés sur le fondement de la loi de finances spéciale adoptée fin décembre. Mais, après sa nomination, un nouveau gouvernement n’aurait pas pu prendre une ordonnance, les conditions pour celles-ci n’étant pas réunies. Il aurait été contraint de présenter aux députés un nouveau projet de loi de finances et de relancer une nouvelle procédure budgétaire, avec des conséquences pénibles pour le pays.
Fin du marathon budgétaire
En réussissant son pari grâce au 49.3, Sébastien Lecornu a mis un terme au marathon budgétaire. Mais il a aussi évité une voie brutale qui l’aurait fortement exposé au risque de censure.
Il reste que la loi de finances pour 2026 ne contente personne et que les difficultés ne sont que repoussées. Il sera, en effet, difficile de faire adopter une loi de finances rectificative dans les mois qui viennent.
Par surcroît, le ministère de l’économie et des finances travaille déjà sur le projet de loi de finances 2027. Au mois de juin, les députés devront à nouveau débattre des orientations budgétaires du pays avant que le premier ministre ne revienne à l’automne devant les assemblées pour présenter le nouveau projet. Autant dire que le temps est encore long avant l’échéance de l’élection présidentielle de 2027.
Alexandre Guigue est membre de la Société française de finances publiques et l'Association française de droit constitutionnel qui sont des associations d'intérêt public à caractère purement universitaire et scientifique. Il a reçu des financements de l'Université Savoie Mont Blanc pour différents projets scientifiques dans le cadre de ses fonctions d'enseignant-chercheur.
05.02.2026 à 15:49
Violences dans les clubs français : près de 60 % des sportifs concernés, selon une étude inédite
Texte intégral (1895 mots)
Près de six sportifs sur dix déclarent avoir subi des violences dans leur club, en France. Psychologiques, physiques, sexuelles ou liées à la négligence, ces agressions restent encore largement invisibles, tant les victimes parlent peu. Une étude menée auprès de plus de 2 200 athlètes offre pour la première fois un portrait précis de ces violences, des profils concernés et des sports le plus à risque.
Le sport est volontiers présenté comme un lieu d’épanouissement, de dépassement de soi et d’apprentissage, de valeurs positives. Pourtant, derrière cette image se cache une réalité moins lumineuse. L’environnement sportif, qu’il soit amateur ou compétitif, peut aussi être le théâtre de violences multiples, de la part des entraîneurs, des bénévoles, des parents mais surtout des autres athlètes. Elles sont trop souvent banalisées ou ignorées. Or, la frontière entre exigences sportives et comportements abusifs reste floue pour beaucoup d’athlètes.
Une réalité massive et encore largement invisible
Notre recherche, menée en France en 2024 auprès de 2 250 athlètes âgés de 14 à 45 ans, apporte un éclairage inédit sur l’ampleur du phénomène dans les clubs sportifs français. Elle révèle que 59 % des participants déclarent avoir vécu au moins une forme de violence depuis leur arrivée dans leur club actuel. De manière plus précise, les violences psychologiques sont les plus fréquentes : insultes, humiliations, cris, menaces ou pression excessive sont rapportés par près de la moitié des sportifs (47 %). Elles sont suivies par la négligence (ne pas s’occuper d’un athlète blessé – 25 %), les violences physiques (coups, étranglements – 23 %) et les violences sexuelles (harcèlement, exhibitionnisme – 21 %). Ces chiffres, déjà considérables, sont probablement en deçà de la réalité, tant les victimes se montrent réticentes à témoigner.
Ces résultats rejoignent ceux d’études menées à l’étranger révélant que les violences psychologiques constituent la forme la plus répandue dans le contexte sportif. Elles apparaissent d’autant plus insidieuses qu’elles peuvent se confondre avec les normes véhiculées dans l’environnement sportif ou avec l’incontournable « force mentale » nécessaire à la performance sportive. On encourage ainsi les athlètes à « s’endurcir », à « accepter la douleur », à « se sacrifier ». Ces injonctions normalisées brouillent les repères et peuvent masquer des comportements abusifs.
L’enquête révèle également que les victimes subissent rarement une violence de manière isolée, mais plutôt une multitude de comportements abusifs qui s’entrecroisent ou se cumulent : 21 % des répondants déclarent avoir vécu à la fois des violences psychologiques et de la négligence, 15 % rapportent des violences psychologiques combinées à des violences physiques, 10 % rapportent à la fois des violences sexuelles et de la négligence et 9 % rapportent des violences psychologiques combinées à des violences sexuelles et de la négligence.
Les sports collectifs et les hommes sont les plus à risque
Les sports collectifs (football, rugby, handball, basket) et les sports de combat apparaissent comme les plus à risque, en particulier pour les violences physiques entre pratiquants, probablement en raison des contacts fréquents, luttes de territoire et dynamiques d’équipe.
Les pratiquants qui apparaissent comme les plus à risque sont les hommes de plus de 20 ans pratiquant un sport collectif, dont 57 % déclarent des violences physiques. À l’inverse, les sports de précision et artistiques, comme le tir à l’arc, la gymnastique rythmique, la danse ou la natation synchronisée, présentent des prévalences nettement plus faibles (7 %).
Plus le niveau augmente, plus la violence se banalise
Notre étude met également en évidence un lien net entre le niveau de pratique sportive et la probabilité d’être victime de violence. Les athlètes de niveau national ou international sont les plus exposés, en particulier aux violences psychologiques, sexuelles et à la négligence. Par exemple, les sportifs de haut niveau de moins de 35 ans rapportent 73 % de violences psychologiques.
Ces chiffres s’expliqueraient par la quête de résultat et d’excellence pouvant créer un climat propice aux excès : pression régulière, normalisation des douleurs physiques et difficultés psychologiques. L’idée que l’objectif de performance prime sur tout tend à justifier des comportements qui, hors du monde sportif, seraient considérés comme inacceptables.
Violences sexuelles : deux profils particulièrement à risque
Les violences sexuelles touchent un cinquième des répondants (21 %), avec deux profils particulièrement exposés.
D’une part, les jeunes adultes âgés de 20 à 34 ans et engagés dans une pratique au niveau départemental ou régional pour qui le taux grimpe à 28 %. Il est possible que la proximité d’âge avec l’encadrement et donc une plus grande familiarité dans les relations contribuent à cette vulnérabilité.
D’autre part, plus d’un tiers des athlètes de haut niveau (32 %), quel que soit leur genre, leur sport, etc., rapportent avoir vécu des violences sexuelles depuis leur arrivée dans leur club. À ce niveau très compétitif, les relations de pouvoir entre entraîneurs et sportifs sont souvent très asymétriques, ce qui peut faciliter l’abus.
Près de 94 % des jeunes athlètes de haut niveau ont subi des violences
Certains groupes cumulent plusieurs formes de violence. Le profil le plus exposé est celui des athlètes de haut niveau âgés de 20 à 24 ans et présents depuis plus de trois ans dans leur club. Seuls 6 % d’entre eux ne rapportent aucune violence, tandis que 14 % déclarent avoir subi les quatre formes de violence.
Un autre groupe très exposé est composé des sportifs régionaux de sports collectifs ayant une ancienneté supérieure à six ans au sein de leur club dont 7 % rapportent avoir vécu les quatre formes de violences.
À l’opposé, les pratiquants non compétitifs de plus de 35 ans engagés dans des sports artistiques ou de précision, comme le tir à l’arc, apparaissent comme les moins touchés (81 % ne rapportent aucune violence).
Pourquoi les victimes se taisent-elles ?
Un phénomène nous a particulièrement interpellés lors de l’étude : les athlètes ayant vécu des violences sont également ceux qui abandonnent le plus souvent le questionnaire au cours de sa passation avant de les avoir toutes déclarées. Ce constat laisse donc penser que ces chiffres de violence sont sous-estimés.
Il est possible que la simple évocation des violences subies déclenche des émotions difficiles à gérer, conduisant les participants à interrompre leurs réponses. Certains peuvent également hésiter à se confronter à leurs souvenirs ou à mettre des mots sur des expériences traumatiques, ce qui entraîne une forme d’évitement. Ce mécanisme de retrait révèle que les violences physiques, négligence et sexuelles, sont probablement sous-estimées dans les données finales, et plus largement dans la littérature actuelle.
Ce biais rappelle qu’un nombre non négligeable de victimes de violences en sport demeure invisible, tant dans les enquêtes que dans la société. Il met en lumière un défi majeur pour les travaux futurs : comment recueillir la parole de ces sportifs en souffrance sans les mettre en difficulté émotionnelle ?
Un enjeu majeur pour le sport français
Notre étude invite à réfléchir aux transformations nécessaires pour que les clubs sportifs, qu’ils soient de niveau compétitif ou non, deviennent des lieux exempts de toute violence : une meilleure formation des éducateurs et des entraîneurs ainsi qu’une plus grande sensibilisation des sportifs quant à ce qui constitue une violence ou non.
Le sport peut et doit rester un espace d’émancipation. Mais pour cela, il doit cesser d’être, pour trop d’athlètes, un espace où les violences – surtout les plus invisibles – sont encore trop souvent tues.
Grégoire Bosselut est membre de la Société Française de Psychologie du Sport (SFPS).
Elise Marsollier est vice présidente de la Société Française de Psychologie du Sport (SFPS), en charge des enjeux sociétaux.
04.02.2026 à 16:13
Laïcité à la française : un grand malentendu ?
Texte intégral (1791 mots)
Principe juridique de neutralité de l’État, la laïcité a initialement été pensée pour protéger la liberté de conscience. Elle est aujourd’hui fréquemment mobilisée d’une manière qui contredit sa vocation première. Cette transformation n’est ni anodine ni sans effets sociaux et politiques. Comment un outil destiné à garantir la coexistence des libertés est-il devenu un levier de normalisation, ciblant certaines populations plus que d’autres ?
Alors qu’elle devait servir à la promotion de valeurs universelles, la laïcité apparaît désormais largement comme une expression nostalgique d’une identité majoritaire. Depuis l’affaire des foulards à Creil (Oise) en 1989, de principe organisant la coexistence des libertés, elle est devenue une valeur censée incarner la civilisation française.
Ce changement, dont les causes sont multiples, a transformé un outil de paix civile en instrument de contrôle des conduites. En témoignent les votes de nombreuses loi restrictives. Parmi celles-ci, celle du 15 mars 2004 sur l’interdiction des signes religieux ostensibles à l’école, qui rompt avec la recommandation du Conseil d’État, lequel, saisi en 1989 par le ministre de l’éducation nationale, Lionel Jospin, conditionnait l’interdiction à un comportement perturbateur. Ou encore celle d’août 2021, qui met l’accent sur le soupçon de séparatisme d’une partie de la population désignée par sa foi religieuse, réelle ou supposée.
Cette évolution est congruente avec le fait qu’un parti d’extrême droite, qui se pose en héraut de la laïcité, et dont le programme repose sur la préférence nationale, occupe désormais une place majeure dans notre vie politique. Pour le Rassemblement national, les bienfaits de l’État-providence ne doivent être destinés qu’au « vrai peuple », le populisme procédant d’une révolte contre le partage des acquis sociaux durement obtenus sur le long terme avec de nouveaux venus, lesquels ne les mériteraient pas.
La tolérance : une vertu politique
Dans sa conception moderne, la tolérance est une vertu politique fondamentale : la divergence de la norme est possible au nom de la liberté. C’est ce que souligne l’article XI de la Déclaration des droits de l’homme et du citoyen (1789) selon lequel « la libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ». Ce droit sera affirmé plus nettement encore dans la Déclaration universelle de 1948, son exercice n’étant soumis qu’aux limitations légales destinées à assurer la reconnaissance et le respect des droits et libertés d’autrui.
La tolérance n’exige évidemment pas que nous renoncions à nos désaccords, mais que nous considérions comme des égaux celles et ceux qui ont des convictions différentes des nôtres.
Dès lors, l’intolérance consiste à revendiquer une place spécifique pour mes propres valeurs ou pour mon mode de vie et, pour cette raison, à vouloir les protéger jusqu’à limiter, voire supprimer, d’autres valeurs que les miennes, ce qui revient à refuser à celles et ceux qui les défendent le statut de membre à part entière de la société. C’est ce dont rend compte l’ouvrage d’Olivier Esteves, Alice Picard et Julien Talpin, à propos des musulmans français diplômés, lesquels se trouvent contraints, faute de reconnaissance de leurs compétences, de quitter la France pour des pays plus ouverts à la diversité.
À l’inverse, la tolérance consistera à insister sur notre appartenance commune à un ensemble social et à reconnaître que les autres ont tout autant que moi le droit de contribuer à en définir les normes.
Laïcité et islam
La France est-elle aussi laïque qu’elle le prétend, s’interrogeait déjà le sociologue François Dubet en 1996, « en refusant aux musulmans les droits qu’elle accorde aux autres, en idéalisant son passé républicain, comme si celui-ci ne procédait pas d’une longue tradition chrétienne » ? Et il concluait par cette mise en garde : « La laïcité ne peut être vécue par les musulmans que sous une forme antireligieuse. »
Ce diagnostic semble confirmé par le rapport 2025 sur les discriminations fondées sur la religion, du défenseur des droits :
« La très grande majorité des réclamations reçues par le défenseur des droits en matière de discriminations fondées sur la religion concerne la religion musulmane et, en particulier, les femmes musulmanes portant un voile […] Cette surreprésentation traduit la spécificité française du débat sur la religion et la laïcité, qui se focalise sur l’islam et, plus encore, sur ses expressions vestimentaires féminines : voile et abaya à l’école, voile porté par les accompagnatrices scolaires, voile dans le sport, burkini dans les piscines, voire, plus récemment, voile porté par les mineures dans l’espace public. Ainsi, malgré des formulations générales, les lois encadrant le port de signes religieux ont entendu viser les femmes musulmanes. »
Le rapport précise que, parmi les personnes se déclarant de religion musulmane ou perçues comme telles, 20 % déclarent avoir été « parfois » discriminées en raison de leur religion au cours des cinq dernières années et 14 % avoir « souvent » été discriminées pour ce motif. Notons que, parmi les personnes se déclarant chrétiennes ou perçues comme telles, 3 % déclarent avoir été « parfois » discriminées en raison de leur religion et 1 % l’avoir souvent été.
État laïc ou société laïque ?
La tentation de faire de la France non pas un État laïc mais un pays, une société qui serait laïque par nature, c’est-à-dire où l’application de ses règles ne serait plus limitée aux agents des services publics, est surreprésentée dans les médias et sur la scène politique. Jean-Michel Blanquer, alors ministre de l’éducation nationale, par exemple, n’hésitait pas à déclarer que « le voile n’est pas souhaitable dans la société tout entière ». Gabriel Attal, ancien premier ministre, veut interdire le port du voile aux moins de 15 ans dans l’espace public et Laurent Wauquiez, chef du groupe Les Républicains à l’Assemblée nationale, a déposé en novembre 2025 une proposition de loi allant dans ce sens, en élargissant l’interdiction à toutes les mineures dans l’espace public.
Certains partisans d’une laïcité impliquant des restrictions étendues considèrent sans doute l’interdiction du foulard islamique comme une manière de lutter contre les croyances incompatibles avec la pensée libre et la citoyenneté éclairée. Au-delà du caractère vraisemblablement inconstitutionnel de la chose, il serait infiniment improbable qu’ils parviennent ainsi à atteindre les objectifs invoqués. On peut même craindre un effet contre-productif, en raison de la récupération de ces interdictions par l’islamisme radical, chez des adolescents en quête d’identité.
Désormais, l’invocation de la laïcité, si l’on en juge par sa fréquence, semblerait en mesure de répondre à tout type de mise en cause des principes républicains, qu’il s’agisse des tenues vestimentaires de nos élèves ou des attaques terroristes dont la France a été victime. Pourtant, de 1982 (attentat de la rue des Rosiers, à Paris) jusqu’en 2012 (assassinat de quatre Juifs, dont trois enfants, par Mohammed Merah à Toulouse, en Haute-Garonne), nul n’avait songé à invoquer solennellement la laïcité, alors que l’on ne cesse désormais de le faire depuis 2015 ? S’agit-il d’une négligence malheureuse, aujourd’hui réparée ? Ou, plus vraisemblablement, d’une instrumentalisation dont on voit bien le profit que l’on pense en retirer ?
Libre expression des différences
Il serait utile de rappeler l’esprit de la Déclaration universelle sur la laïcité au XXIᵉ siècle : la laïcité, qui n’est pas une spécificité française, est la condition de la libre expression des différences. Peut-être aurions-nous alors accès à l’essentiel : si rien ne nous contraint à renoncer à nos fidélités singulières, la laïcité nous invite à les suspendre. Ce qui fait communauté, c’est précisément la suspension, évidemment provisoire, du sentiment d’appartenance. C’est encore la supposition qu’il y a, en tout autre être humain, la capacité à éprouver le même sentiment que moi.
Alain Policar est l’auteur de Laïcité : le grand malentendu, Flammarion, octobre 2025.
Alain Policar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.