18.02.2026 à 17:04
Meurtre de Quentin Deranque : quels mécanismes conduisent à la violence politique ?
Texte intégral (1841 mots)

La mort le 14 février de Quentin Deranque, 23 ans, militant d’extrême droite battu à mort dans les rues de Lyon deux jours plus tôt, a donné lieu à l’interpellation de 11 militants « antifa », dont un collaborateur parlementaire de La France insoumise. Cet événement, qui suscite de houleux débats sur la responsabilité politique de LFI, interroge également les processus individuels et collectifs qui peuvent conduire à la radicalisation et à la violence politique.
Comment des gens a priori ordinaires en viennent-ils à commettre des violences en réunion politiquement motivées ? Le psychologue Fathali Moghaddam a proposé un modèle devenu classique, « l’escalier vers le terrorisme », qui s’applique assez bien à la violence politique en général. Selon son analyse, l’action politique violente est l’étape finale d’un long escalier qui s’élève et se rétrécit très progressivement.
Première marche : l’exposition sélective. On ne consulte plus que des sources d’information politiques qui renforcent ses perceptions négatives et des analyses partisanes d’enjeux politiques complexes. On cesse progressivement le contact avec des interlocuteurs nuancés, capables de défendre le point de vue adverse.
Deuxième marche : l’acquisition de visions hautement sélectives, aux accents parfois conspirationnistes, des questions politiques et sociétales. À l’extrême droite, par exemple, la peur du « grand remplacement » exagère considérablement l’ampleur des changements démographiques et leurs conséquences culturelles. A l’extrême gauche, on trouve des discours qui, s'ils ne sont pas nécessairement conspirationnistes, révèlent une représentation excessivement négative du capitalisme, focalisés sur ses contributions aux inégalités et sous-évaluant sa contribution au développement des libertés individuelles.
Troisième marche : la déshumanisation du camp adverse. Notamment via ce que Waytz, Young et Ginges appellent la « motive attribution asymmetry » : chaque camp est convaincu d’agir par amour des siens, mais attribue au camp d’en face une motivation de pure haine. Ce biais, observé par les auteurs au sein de populations israélienne, palestinienne et états-unienne (républicains et démocrates), rend le compromis beaucoup plus difficile. En fait, Moore-Berg et ses collègues ont montré au moyen d’études expérimentales que ces perceptions d’hostilité sont massivement exagérées : démocrates et républicains surestiment le degré auquel l’autre camp les déteste, et sous-estiment l’authenticité de leurs motivations morales – des erreurs de perception qui alimentent en retour l’hostilité réciproque.
Chaque marche de l’escalier de la radicalisation est gravie d’une manière qui est subjectivement insensible. On ne se réveille pas un matin radical : l’embrigadement est progressif. Par ailleurs, les études ethnographiques suggèrent que les militants restent convaincus, à chaque étape, d’avoir la morale et la vérité de leur côté.
La radicalisation n’est ainsi pas la plupart du temps le reflet d’une pathologie psychiatrique. Elle est plutôt une version poussée à l’extrême de traits moraux et cognitifs ordinaires : l’indignation face à l’injustice, la pensée tribale « nous » contre « eux », la solidarité envers son groupe, l’hypersensibilité à la menace sociale, le désir de protéger un mode de vie qui nous est cher, la délégitimation de ceux qui sont en désaccord avec soi politiquement, etc.
Soulignons également l’importance des motivations sociales satisfaites par le groupe : le groupe radical offre appartenance, fierté identitaire, impressions d’utilité.
Et le jour J du passage à l’action violente, la dynamique de groupe fait le reste. Il y a un enjeu de statut auprès des camarades à montrer qu’on est prêt à passer à l’acte, et le fait de recevoir des coups active des instincts fondamentaux de défense par la violence.
L’extrême droite commet plus de violences que l’extrême gauche
La recherche montre que de nombreux mécanismes sont communs à la radicalité violente de gauche et de droite, même si les contenus de croyances diffèrent considérablement.
Il est également important de rappeler une importante asymétrie. La base de données de Sommier, Crettiez et Audigier (2021) recense environ 6 000 épisodes de violence politique sur la période 1986-2021 et établit que parmi les morts des violences idéologiques, neuf sur dix sont victimes de l’extrême droite. La violence d’extrême droite est aussi plutôt dirigée contre des personnes, celle d’extrême gauche plutôt contre des biens.
Ces chiffres rappellent que la violence politique tue des deux côtés, mais pas dans les mêmes proportions.
Déradicaliser : le contact comme antidote ?
Comment déradicaliser les militants les plus extrêmes ? Une difficulté tient à ce que chaque camp refuse de concéder que des membres de son propre camp sont allés trop loin (le faire apparaît comme une « trahison »). Chaque camp est convaincu que sa propre violence n’est que la réaction légitime à celle de l’autre.
Une autre barrière réside dans la difficulté de l’accès aux militants radicaux : eux ne voient généralement pas leur vision du monde et leur engagement comme antisociaux, antidémocratiques ou assis sur des certitudes excessives.
Pourtant, la recherche offre des pistes, testées en général sur des partisans ordinaires, non violents. La méta-analyse de Pettigrew et Tropp (2006), portant sur plus de 500 études, montre que le contact intergroupe – passer un moment en face-à-face avec un membre de l’exogroupe, s’engager dans des activités communes – réduit les préjugés haineux de manière robuste. Landry et ses collègues (2021) ont montré que simplement informer les gens que l’autre camp ne les déteste pas autant qu’ils le croient par de courts messages réduit la déshumanisation.
Les maîtres-mots sont la rencontre et la reprise de contact avec la réalité : corriger les perceptions déformées sur ce que pensent vraiment les adversaires, pour les réhumaniser et réduire la défiance.
Mais les individus les plus radicalisés sont typiquement très difficiles à atteindre : confiance très basse dans les institutions publiques, dans les chercheurs, déshumanisation totale des « ennemis ». Ils sont souvent convaincus que « sur eux, ça ne marchera pas », ou se montrent rétifs à toute remise en question de leur vision du monde.
En amont, à un niveau sociétal, il importe de refuser toute glorification de la violence politique afin de réduire les incitations statutaires à la commettre – comme on recommande de limiter la publicisation des auteurs d’attentats pour diminuer l’effet de prestige.
En aval, il faut enseigner systématiquement les techniques de la désescalade, comme le refus de répondre aux provocations par la violence. L’histoire du mouvement des droits civiques américains montre que la non-violence est non seulement moralement supérieure, mais aussi stratégiquement plus efficace. Notamment parce qu’elle donne un plus grand « crédit moral » aux mouvements sociaux auprès de ceux qui n’en sont pas déjà les partisans (voire les travaux de Chenoweth et al. sur les bienfaits de la non-violence sur le long cours).
À la limite, puisque c’est chez les jeunes (hommes) qu’ils sont les moins rares, les mécanismes de la radicalisation pourraient être enseignés dès le lycée et le collège, comme on commence à le faire avec la désinformation.
Cet article a été écrit en collaboration avec Peter Barrett, expert de la polarisation politique, intervenant à l'Essec et à l'Université de Cergy.
Antoine Marie ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.02.2026 à 17:07
Les fusions de communes tiennent-elles leurs promesses ?
Texte intégral (2403 mots)

Les 15 et 22 mars prochains, les Français voteront pour élire leurs conseils municipaux. Certains d’entre eux voteront dans des « communes nouvelles », créées par fusion de plusieurs communes. Dix ans après les premières vagues importantes de regroupements, le recul est suffisant pour proposer un premier bilan de cette politique.
L’idée (discutable) selon laquelle il serait nécessaire de réduire le nombre de communes françaises est ancienne et répétée par plusieurs acteurs : le gouvernement vient d’ailleurs d’accélérer l’examen d’un projet de loi sur ce sujet.
Plusieurs mesures ont été prises ces dernières années pour encourager les communes à se regrouper. Ainsi, le statut de « commune nouvelle » a été créé en 2010, et amendé à plusieurs reprises : il permet le regroupement – certains acteurs répugnent à parler de « fusions » – de plusieurs communes au sein d’une nouvelle entité. Celle-ci détient alors toutes les compétences communales mais a la possibilité de maintenir en son sein une existence légale (bien que largement symbolique) pour les anciennes communes, devenant « communes déléguées ». Des incitations fiscales ont également été instituées depuis 2014.
Aujourd’hui, on compte 844 communes nouvelles, rassemblant 2 724 communes historiques et près de 3 millions d’habitants. Alors que les communes nouvelles créées en 2015 (année de la première vague importante de fusions) ont passé leur première décennie et à l’approche des élections municipales de mars 2026, il est opportun de faire un point d’étape sur ce phénomène, entre autres car il fait l’objet d’un certain nombre d’idées reçues.
Idée reçue n°1 : « Les communes qui fusionnent sont les toutes petites communes rurales »
Verdict : Plutôt faux
La politique de réduction du nombre de communes en France s’appuie sur l’idée qu’il y aurait trop de communes de toute petite taille. Il est vrai que les communes françaises sont moins peuplées que les entités comparables dans d’autres pays, et qu’elles sont plus nombreuses.
Cependant, le raisonnement selon lequel il faudrait réduire le nombre de communes pour que, en fusionnant, elles arrivent à rassembler chacune une « masse critique » en termes de population est pour le moins débattu. Les différentes études portant sur une éventuelle « taille optimale » ont bien du mal à l’identifier : il n’existe pas de seuil démographique au-delà duquel une commune serait plus efficace qu’en dessous.
En partant néanmoins du principe, débattu donc, que les toutes petites communes poseraient problème pour l’efficacité de l’action publique, les fusions permettent-elles de résoudre cette difficulté ? Globalement, non.
Les toutes petites communes (moins de 200 habitants) sont plutôt sous-représentées dans les communes fusionnantes par rapport à la proportion qu’elles représentent dans l’ensemble des communes françaises. Les communes qui fusionnent ont en effet une population médiane (404 habitants) proche de celle des autres communes (426 habitants).
Au final, la proportion de communes de moins de 200 habitants est passée, depuis 2012, de 25,9 % à 25,4 %. Si l’objectif premier de la politique des communes nouvelles était de réduire drastiquement le nombre de très petites communes, on peut dire selon l’adage que, faute d’être un échec, « ça n’a pas marché ».
Les très petites communes ne sont pas surreprésentées parmi les communes fusionnantes
Les communes fusionnantes ne sont pas non plus systématiquement rurales. Ainsi, 6,7 % des communes fusionnantes sont dans une agglomération. Cela paraît peu, mais sur l’ensemble des communes françaises les communes situées en agglomération ne représentent que 12,7 %. Les communes nouvelles sont donc un peu plus fréquentes dans les espaces éloignés des pôles urbains, sans toutefois y être limitées.
Idée reçue n°2 : « Les fusions communales permettent de mettre en cohérence les territoires vécus et les territoires administratifs »
Verdict : C’est plus compliqué
François Baroin, qui clôturait en 2017 en tant que président de l’Association des maires de France (AMF) la 3ᵉ rencontre des communes nouvelles, considérait que « ce sont les bassins de vie qui ont créé les conditions de l’avancement de la coopération entre les communes », faisant sans doute référence à l’idée d’un espace au sein duquel les individus se déplacent pour leur travail, leurs loisirs et leurs achats.
Or, les communes nouvelles ne se créent que partiellement en cohérence avec les territoires vécus. Si on s’intéresse aux communes fusionnantes qui appartenaient à une aire urbaine en 2014 (avant la très grande majorité des fusions), 35 % d’entre elles ont fusionné avec d’autres communes n’appartenant pas à la même aire urbaine. Si on s’intéresse spécifiquement aux déplacements domicile-travail, dans 72 % des cas le principal flux sortant de la commune fusionnante ne va pas vers une commune avec laquelle elle fusionne, mais vers une commune tierce. Il y a donc bien persistance d’une différence entre le maillage administratif et les territoires pratiqués et vécus par les habitants.
Idée reçue n°3 : « Les fusions communales permettent de faire des économies d’échelle »
Verdict : Plutôt faux
Des acteurs comme l’AMF mettent en avant l’idée que les fusions permettraient presque automatiquement de réaliser des économies d’échelle, c’est-à-dire de mutualiser des coûts pour faire baisser les dépenses totales. Or, une étude des évolutions budgétaires entre 2011 et 2022 contredit ce présupposé. Ces résultats se retrouvent également dans une étude portant sur les communes créées en 2016, 2017 et 2019. On n’observe pas une diminution des dépenses : bien au contraire, en général celles-ci augmentent nettement dans les années suivant la fusion.
Par exemple, si on regarde spécifiquement l’évolution entre 2011 et 2022 des charges de fonctionnement des communes (c’est-à-dire leurs dépenses hors investissement), le groupe des communes fusionnantes a connu une augmentation plus importante (+31 %) que le groupe des autres communes françaises (+28 %).
Un processus mené par le haut, qui semble favoriser l’abstention
Deux derniers points peuvent être relevés.
Tout d’abord, le passage en commune nouvelle est décidé par les conseils municipaux des communes fusionnantes, qui n’ont pas l’obligation de consulter la population. Fréquemment, les élus ne lui laissent d’ailleurs qu’une place limitée dans la construction des décisions, soit par crainte d’ouvrir une « boîte de Pandore » démocratique poussant à la remise en question systématique des décisions prises, soit par méfiance envers les décisions des populations, perçues comme peu éclairées. Un maire interrogé dans le cadre de mes travaux affirmait ainsi en 2016 : « Les gens vont voter pour quelque chose, mais ils ne savent pas forcément tout à fait les tenants et les aboutissants. Donc […] à mon avis, ce n’est pas la bonne solution. »
Par exemple, concernant le nom de la nouvelle commune, il est fréquent que les administrés soient invités à en proposer, voire à voter pour celui qu’ils préfèrent. En revanche, ce sont les élus qui vont conserver la main sur la décision finale ou sur les modalités de choix (par exemple en décidant des noms qui seront soumis à la consultation), permettant, in fine, d’orienter le vote. Cela pose la question de la place réelle laissée aux populations dans ces formes de participation ou de consultation.
Enfin, on observe aussi une montée de l’abstention dans les communes nouvelles. Ainsi, entre 2014 et 2020, la participation aux élections municipales a diminué de manière bien plus importante dans les communes nouvelles que dans les communes inchangées : le pourcentage de votants par rapport au nombre d’inscrits a baissé de 21 % dans les communes nouvelles entre 2014 et 2020, contre une baisse de 15 % pour les communes inchangées. Certes, la diminution généralisée de la participation s’explique par le contexte pandémique. Mais celui-ci n’a, a priori, pas touché différemment les communes nouvelles, quelle que soit leur taille.
Chaque élément présenté ici ne peut, à lui seul, délégitimer les communes nouvelles. Il est évident que certains projets de fusion font sens et remplissent les objectifs qu’ils se sont fixés, comme la mutualisation de structures ou de personnels, la montée en compétence des équipes communales ou l’aboutissement de décennies de collaborations concernant des services aux populations ou des équipements. Mesurer ces effets bénéfiques est d’ailleurs complexe, et mériterait des analyses encore à conduire.
Il serait toutefois souhaitable que les réflexions sur les communes nouvelles prennent en compte toutes les données en jeu, sans idées préconçues, et que les décisions de regroupement soient prises sur des bases saines. Les fusions sont parfois comparées à des mariages, or ce n’est pas parce qu’on peut observer des couples heureux que tout le monde doit se marier, a fortiori avec n’importe qui !
Il faut en tout cas appeler à ce que les prochaines semaines de campagne à l’échelon municipal, outre les questions programmatiques et partisanes qui ne manqueront pas, soient aussi l’occasion de débattre de ces enjeux liés aux communes nouvelles pour que, dans les communes qui ont fusionné comme dans celles qui pourraient l’envisager, le débat démocratique soit nourri et éclairé.
Gabriel Bideau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
16.02.2026 à 16:59
Peut-on décentraliser sans repenser la carte communale ?
Texte intégral (2178 mots)

La France compte un peu moins de 35 000 communes, auxquelles la décentralisation a transféré de nombreuses compétences. Cet émiettement communal est un impensé des réformes territoriales, à rebours des trajectoires européennes. En évitant de trancher la question de la carte communale, la décentralisation n’a-t-elle pas atteint ses propres limites ?
La décentralisation fait débat autour de deux questions. La première porte sur la clarification des rôles des différents échelons de collectivités. La seconde porte sur un approfondissement de la décentralisation – soit plus de transferts de compétences de l’État en direction des élus locaux. Les projets annoncés par le gouvernement Lecornu s’inscrivent dans cette perspective en promettant des transferts significatifs en matière de logement et pour quelques secteurs de l’action sociale. Mais peut-on encore décentraliser sans questionner la capacité des collectivités à gérer de nouvelles responsabilités ?
La France, hyperdécentralisée ?
Cet affichage ignore une réalité fondamentale : la France est sans doute l’un des pays au monde les plus décentralisés. On entend par là qu’elle est un des seuls pays à avoir fait le choix de décentraliser principalement vers le niveau le plus bas et le plus nombreux (la commune – on en dénombrait 34 875 au 1er janvier 2025) et non vers les échelons intermédiaires (régions ou départements).
Rappelons qu’aujourd’hui la commune est le seul niveau territorial à disposer d’une clause générale de compétence qui en fait un véritable « État en modèle réduit ». Le maire y représente l’État, incarne le pouvoir exécutif, préside l’assemblée « législative » locale (le conseil municipal) et dispose d’une capacité d’action généraliste.
Comment alors prétendre à l’efficacité, lorsqu’on confie les rênes de l’action publique à 35 000 micro-États ? Plus des deux tiers des communes françaises ont moins de 1 000 habitants, et disposent d’un budget annuel inférieur à un million d’euros. Ces milliers de communes sont incapables de produire de l’action publique à hauteur des enjeux. Ce phénomène redouble par l’obligation des échelons intermédiaires à prendre acte de cet émiettement en procédant au saupoudrage de leurs propres moyens.
Dans la plupart des autres pays européens, la décentralisation a été accompagnée par une refonte de la carte des communes afin d’en réduire le nombre et d’en augmenter la taille moyenne. La France n’a pas fait ce choix, mis en œuvre ailleurs dans les années 1960 et 1970 : on a décentralisé à périmètre constant (les communes, les départements et les régions).
Cette sanctuarisation de l’émiettement communal ne peut se comprendre qu’en regard de l’histoire longue de la France et du poids de l’État. Pour que ce dernier soit accepté par la population, il fallait préserver un équivalent local, les 36 000 communes issues des paroisses médiévales.
Ainsi s’est installée, depuis la IIIe République, une forme d’équilibre entre un pouvoir national fort et un pouvoir local du même type. Toutefois, pour garantir la pérennité du modèle jacobin français, il fallait que ces communes soient fortes localement, mais « dépendantes » de l’État, donc nombreuses et morcelées. Cela constituait en outre un message à la France rurale tout en limitant le pouvoir des villes.
On comprend dès lors que la décentralisation à la française constitue un gouffre financier, décrié pour sa faible efficacité. Mais le coût de la décentralisation tient-il aux doublons entre échelons, comme on l’entend le plus souvent, ou à cet émiettement ?
L’intercommunalité : une réponse à l’émiettement communal ?
On nous rétorquera que dès les années soixante, le législateur français a tenté d’adopter une voie spécifique pour rendre gérable le niveau local sans pour autant toucher à la carte des communes.
Il s’agit de la création des intercommunalités (communautés urbaines en 1966 puis communautés de communes et d’agglomération en 1999). Ce modèle original a pour le coup inspiré certains de nos voisins européens (Autriche, Finlande ou Italie par exemple).
L’intercommunalité repose sur deux principes : d’une part, l’élection indirecte des conseillers communautaires au second degré, au travers de leur fléchage au sein de chaque conseil municipal. D’autre part, la dissociation tendancielle entre l’instance politique qui demeure la commune et la mise en œuvre des politiques publiques, qui repose sur l’intercommunalité, et monte progressivement en puissance au travers du transfert de compétences. Cet agencement, certes un peu complexe, ajoutant une couche au millefeuille, a offert pendant une vingtaine d’années une perspective crédible de modernisation de l’organisation territoriale française, contournant prudemment la refonte de la carte communale. Ce n’est plus le cas aujourd’hui.
En 2015, la loi Notre a eu pour ambition de parachever ce processus. Est d’abord adopté le principe d’une couverture exhaustive du territoire national par des établissements de coopération intercommunale, rendant cette dynamique, jusqu’alors volontaire, obligatoire. Cette loi incite ensuite fortement au regroupement de ces intercommunalités afin de tendre vers un seuil de viabilité estimé à 10 000 habitants. On a ainsi réduit le nombre d’intercommunalités de moitié entre 2009 et 2025 (de 2 601 à 1 254), chacune de ces intercommunalités regroupant en moyenne 28 communes, ce nombre pouvant atteindre 158 pour la plus grande intercommunalité française, celle du Pays basque.
Une modernisation à l’arrêt ?
Ce parachèvement a d’une certaine manière cassé la dynamique intercommunale et conduit à remettre en question cette modernisation.
Les intercommunalités, systématisées et agrandies, font maintenant l’objet d’un procès en éloignement et perte de responsabilité de la part des maires. Bien qu’ils constituent eux-mêmes l’exécutif de ces intercommunalités, ils en décrient la gouvernance et le mode de prise de décision collective : chaque commune, quelle que soit sa taille, disposant a minima d’un siège, le processus décisionnel apparaît à la fois lointain et faiblement stratégique. Lorsqu’il faut décider à plusieurs dizaines de maires, la logique de saupoudrage tend à prévaloir. Le transfert de la compétence « gestion des milieux aquatiques et prévention des inondations » (Gemapi) cristallise ce procès depuis dix ans. Là où les communes organisaient la gestion de l’eau et de l’assainissement selon des coopérations « à la carte », la loi les oblige à tout gérer au sein de ces grandes intercommunalités.
Plus largement, la crise des gilets jaunes (2018) est apparue révélatrice d’une demande de proximité de la part de la population qui va à l’encontre de la montée en puissance des intercommunalités. Celle-ci marque donc aujourd’hui un coup d’arrêt. Cela s’exprime à la fois au niveau national, où la position « communaliste » progresse parmi les groupes politiques, entre communistes, insoumis et extrême droite. Le président de la République lui-même prône le retour au binôme historique maire/préfet de la IIIe République. Seuls les socialistes, le centre et la droite modérée défendent encore du bout des lèvres la perspective intercommunale. De la même manière, au niveau local, les intercommunalités se heurtent à ce repli communaliste et voient leur montée en puissance contrée par la résistance des élus municipaux.
C’est donc la voie retenue en France, depuis un demi-siècle, pour moderniser le pouvoir local qui paraît aujourd’hui compromise. Si un retour en arrière n’est pas envisageable, la perspective implicite des modernisateurs, c’est-à-dire l’absorption progressive des communes dans les intercommunalités n’est plus à l’ordre du jour. On en veut pour preuve la disparition de l’agenda politique de l’hypothèse d’une élection intercommunale au suffrage universel direct, pourtant indiquée dans la loi en 2014.
Le repli communaliste : à quelles conditions ?
Ne pourrait-on pas alors imaginer une voie intermédiaire entre « l’intercommunalisation » et la refonte de la carte communale, en visant la réduction de l’écart démographique et politique entre ces deux échelons ? On fait ici référence à l’expérience d’un territoire de l’ouest de la France, les Mauges, dans le Maine-et-Loire où 64 communes (dont une vingtaine de moins de 1 000 habitants) ont – de façon volontaire – fusionné en six communes nouvelles, toutes de taille supérieure à 10 000 habitants, constituant elles-mêmes une communauté d’agglomération de 120 000 habitants. Cette configuration présente trois intérêts : elle rapproche les deux niveaux ; elle accroît la gouvernabilité de l’intercommunalité (décider à six maires) ; elle garantit, grâce à leur taille, la capacité à agir des communes nouvelles, tout en maintenant une certaine proximité.
En incitant vigoureusement au regroupement des petites communes (par exemple, inférieures à moins de 1 000 habitants), il serait à la fois possible de redonner du sens à ce niveau de proximité plébiscité par les Français, tout en relançant l’échelon intercommunal, seul à même d’agir efficacement sur les questions de mobilité, d’environnement ou de développement économique.
Clarification de la spécialisation des compétences entre échelons et décentralisation privilégiant une myriade de communes : les deux principes retenus en France depuis un demi-siècle ont-ils encore du sens ? N’est-il pas temps d’en tirer les leçons, comparativement aux autres choix opérés en Europe ? Pourra-t-on longtemps encore faire l’économie d’un choix clair, d’une forme de hiérarchisation autour des régions et, simultanément, d’une refonte de la carte communale ?
Daniel Behar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.