12.01.2026 à 15:54
La bulle de l’IA n’a rien de nouveau : Karl Marx en a expliqué les mécanismes, il y a près de 150 ans
Texte intégral (2462 mots)

L’explosion des investissements dans l’intelligence artificielle révèle, comme l’avait décrit Marx, d’une difficulté structurelle du capitalisme à absorber ses propres excédents, au prix d’une financiarisation accrue et de fragilités économiques croissantes.
Lorsque Sam Altman, patron d’OpenAI, a déclaré plus tôt cette année à des journalistes à San Francisco que le secteur de l’intelligence artificielle (IA) était en train de former une bulle, le marché technologique états-unien a réagi presque instantanément. Combinée au fait que 95 % des projets pilotes en IA échouent, sa remarque a été perçue par les traders comme un signal d’alerte plus large. Même si Altman visait spécifiquement les start-ups non cotées plutôt que les grands groupes en Bourse, certains semblent y avoir vu une évaluation de l’ensemble du secteur.
Le milliardaire de la tech Peter Thiel (NDT : un proche de Donald Trump) a par exemple vendu ses actions Nvidia, tandis que l’investisseur américain Michael Burry – rendu célèbre par The Big Short – a parié des millions de dollars sur une baisse de la valeur de ce fabricant de puces mais également de l’éditeur américain de logiciels d’analyse data Palantir.
À lire aussi : Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne
Au fond, le propos d’Altman ne met pas seulement en lumière la fragilité de certaines sociétés, mais une tendance plus profonde qu’avait anticipée Karl Marx : le problème du capital excédentaire, qui ne parvient plus à trouver de débouchés rentables dans la production.
La théorie marxiste des crises
L’avenir de l’IA n’est pas en cause. Comme Internet après l’éclatement de la bulle de 2001, la technologie est appelée à durer. Ce qui pose question, en revanche, c’est la destination du capital une fois que les actions liées à l’IA ne fourniront plus les rendements spéculatifs promis ces dernières années.
Cette interrogation nous ramène directement à l’analyse marxienne des crises liées à la suraccumulation. Marx soutenait qu’une économie devient instable lorsque la masse de capital accumulé ne peut plus être réinvestie de manière rentable.
Les investissements technologiques masquent la faiblesse économique
Des années de taux d’intérêt bas et de liquidités abondantes durant la pandémie ont gonflé les bilans des entreprises. Une large part de ces liquidités s’est dirigée vers le secteur technologique, en se concentrant sur ce que l’on appelle les « Sept Magnifiques » – Amazon, Alphabet, Meta, Apple, Microsoft, Nvidia et Tesla. Sans ces entreprises, la performance des marchés serait négative.
Cela ne traduit pas un véritable dynamisme technologique ; c’est le signe d’un capital concentré dans une poignée d’actifs surévalués, fonctionnant comme de l’« argent jeté dans la circulation sans base matérielle dans la production », qui circule sans ancrage dans l’activité économique réelle.
La conséquence est qu’une part moindre de l’investissement atteint l’« économie réelle », ce qui alimente la stagnation économique et la crise du coût de la vie – deux phénomènes largement masqués par l’indicateur du PIB.
Comment l’IA est devenue le dernier palliatif
Le géographe de l’économie David Harvey prolonge l’intuition de Marx avec la notion de « spatio-temporal fix », qu’on pourrait traduire par « correctif spatio-temporel », qui désigne la manière dont le capital résout provisoirement la stagnation en repoussant l’investissement dans le temps ou en s’étendant vers de nouveaux territoires.
La suraccumulation produit des excédents de travail, de capacités productives et de capital financier, qui ne peuvent être absorbés sans pertes. Ces excédents sont alors redirigés vers des projets de long terme, ce qui repousse les crises vers de nouveaux espaces et ouvre de nouvelles possibilités d’extraction.
Le boom de l’IA fonctionne à la fois comme un correctif temporel et un correctif spatial. Sur le plan temporel, il offre aux investisseurs des droits sur une rentabilité future qui pourrait ne jamais se matérialiser – ce que Marx appelait le « capital fictif ». Il s’agit d’une richesse qui apparaît dans les bilans alors qu’elle repose peu sur l’économie réelle, ancrée dans la production de biens.
Sur le plan spatial, l’extension des centres de données, des sites de fabrication de puces et des zones d’extraction minière nécessite des investissements matériels considérables. Ces projets absorbent du capital tout en dépendant de nouveaux territoires, de nouveaux marchés du travail et de nouvelles frontières de ressources. Mais comme le suggère l’aveu de Sam Altman, et alors que les mesures protectionnistes du président américain Donald Trump compliquent le commerce mondial, ces débouchés atteignent leurs limites.
Le coût du capital spéculatif
Les conséquences de la suraccumulation dépassent largement le seul monde des entreprises et des investisseurs. Elles se vivent socialement, et non de manière abstraite. Marx expliquait qu’une surproduction de capital correspond à une surproduction des moyens de production et des biens de première nécessité qui ne peuvent être utilisés aux taux d’exploitation existants.
Autrement dit, l’affaiblissement du pouvoir d’achat – ironiquement accéléré par l’essor de l’IA – empêche le capital de se valoriser au rythme auquel il est produit. Lorsque la rentabilité recule, l’économie résout ce déséquilibre en détruisant les moyens de subsistance des travailleurs et des ménages dont les retraites sont liées aux marchés financiers.
L’histoire offre des exemples frappants. L’éclatement de la bulle Internet a ruiné de petits investisseurs et concentré le pouvoir entre les mains des entreprises survivantes. La crise financière de 2008 a chassé des millions de personnes de leur logement tandis que les institutions financières étaient sauvées. Aujourd’hui, de grands gestionnaires d’actifs se couvrent déjà contre de possibles turbulences. Vanguard, par exemple, a opéré un net déplacement vers les obligations.
La spéculation comme moteur de la croissance
La bulle de l’IA est avant tout le symptôme de pressions structurelles, plus que le simple produit d’une dynamique technologique. Au début du XXᵉ siècle, l’économiste marxiste Rosa Luxemburg s’interrogeait déjà sur l’origine de la demande sans cesse croissante nécessaire à la reproduction élargie du capital.
Sa réponse fait écho à celles de Marx et de Harvey : lorsque les débouchés productifs se raréfient, le capital se déplace soit vers l’extérieur, soit vers la spéculation. Les États-Unis optent de plus en plus pour cette seconde voie. Les dépenses des entreprises dans les infrastructures d’IA contribuent désormais davantage à la croissance du PIB que la consommation des ménages, une inversion sans précédent qui montre à quel point la croissance actuelle repose sur l’investissement spéculatif plutôt que sur l’expansion productive.
Cette dynamique tire vers le bas le taux de profit et, lorsque le flux spéculatif s’inversera, la contraction suivra.
Les droits de douane resserrent l’étau sur le capital
L’inflation financière s’est accentuée à mesure que les soupapes traditionnelles permettant au capital de s’orienter vers de nouveaux marchés physiques ou géographiques se sont refermées.
Les droits de douane, les contrôles à l’exportation sur les semi-conducteurs et les mesures commerciales de rétorsion ont réduit l’espace mondial disponible pour les relocalisations. Comme le capital ne peut plus facilement échapper aux pressions structurelles de l’économie intérieure, il se tourne de plus en plus vers des outils financiers qui repoussent les pertes en refinançant la dette ou en gonflant les prix des actifs – des mécanismes qui accroissent finalement la fragilité lorsque l’heure des comptes arrive.
Le président de la Réserve fédérale des États-Unis Jerome Powell s’est dit favorable à d’éventuelles baisses des taux d’intérêt, signe d’un retour vers le crédit bon marché. En rendant l’emprunt moins coûteux, ces baisses permettent au capital de masquer ses pertes et d’alimenter de nouveaux cycles spéculatifs.
Marx a formulé cette logique dans son analyse du capital porteur d’intérêt, où la finance crée des droits sur une production future « au-delà de ce qui peut être réalisé sous forme de marchandises ». Il en résulte que les ménages sont poussés à s’endetter au-delà de ce qu’ils peuvent réellement supporter, échangeant ainsi une crise de stagnation contre une crise du crédit à la consommation.
Bulles et risques sociaux
Si la bulle de l’IA éclate alors que les gouvernements disposent de peu de marges pour redéployer les investissements à l’international et que l’économie repose sur un crédit de plus en plus fragile, les conséquences pourraient être lourdes.
Le capital ne disparaîtra pas mais se concentrera davantage dans les marchés obligataires et les instruments de crédit, gonflés par une banque centrale américaine désireuse de baisser les taux d’intérêt. Cela n’évite pas la crise ; cela en déplace simplement le coût vers le bas de l’échelle sociale.
Les bulles ne sont pas des accidents mais des mécanismes récurrents d’absorption du capital excédentaire. Si le protectionnisme de Trump continue de fermer les débouchés spatiaux et que les correctifs temporels reposent sur un endettement toujours plus risqué, le système s’oriente vers un cycle d’inflation des actifs, d’effondrement, puis de nouvelle intervention de l’État.
L’IA survivra, mais la bulle spéculative qui l’entoure est le symptôme d’un problème structurel plus profond – dont le coût, une fois pleinement révélé, pèsera avant tout sur les classes populaires.
Elliot Goodell Ugalde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
12.01.2026 à 15:53
La Terre du Milieu de Tolkien, un lieu imaginaire pour repenser notre rapport à la nature
Texte intégral (2841 mots)

L’écrivain anglais J. R. R. Tolkien (1892-1973) était un cartographe de l’imaginaire. Dans le Seigneur des anneaux (1954-1955), il invente un monde dans lequel la frontière entre humanité et animalité est floue. Ses cartes de la Terre du Milieu construisent la cohérence spatiale et la densité narrative de la quête de la Communauté de l’anneau. Montagnes, forêts, rivières y constituent tantôt des épreuves spatiales, tantôt des espaces protecteurs ou de refuge. La géographie y structure le récit et façonne la fiction.
Les mondes imaginaires sont performatifs. Ils se nourrissent du réel dans une projection fictionnelle tout en l’interrogeant. Le Seigneur des anneaux n’y fait pas exception, nous invitant à réfléchir à nos liens avec la nature, à reconnaître sa valeur intrinsèque et à dépasser une conception dualiste opposant nature et culture, ne lui accordant qu’une valeur d’usage ou de ressource, à nous engager dans une éthique environnementale.
En suivant la Communauté, métissée, sur les chemins, parfois de traverse, les menant vers le mont Destin, nous sommes confrontés à différentes manières d’habiter et de transformer la nature : utopies rurales, zones industrieuses, refuges écologiques et lieux symboliques où des choix engagent l’avenir du monde. La fiction devient un outil pour questionner le réel, interroger nos pratiques et réfléchir aux enjeux environnementaux contemporains dans une ère désormais anthropocénique.
Habiter (avec) le monde : utopies rurales et résistance
La Comté repose sur un système agraire vivrier de polycultures fondé sur de petites exploitations familiales où le tabac réputé n’est que peu exporté. Les Hobbits vivent en autarcie et habitent littéralement une nature jardinée, dans des terriers. Le bocage, les prairies forment un maillage qui limite l’érosion et protège la biodiversité et organisent un territoire où nature et société coexistent harmonieusement. Cet idéal préindustriel s’éteint peu à peu dans le monde occidental moderne où une agriculture intensive et centralisée s’est imposée pour devenir norme sur un territoire remembré.
La forêt de Fangorn, elle, représente une nature qui résiste à la manière d’une zone à défendre (ZAD). Les Ents, gestionnaires du peuplement forestier, incarnent des arbres doués de parole, capables de révolte. Ils refusent la domination humaine fermant les sentiers d’accès avant de s’engager dans une guerre contre l’industrialisation menée par Saroumane en Isengard. Le chantier stoppé de l’autoroute A69 témoigne de la façon dont la nature peut parfois aujourd’hui par elle-même poser des limites aux projets d’aménagement voulus par l’humain.
La Lothlórien, enfin, symbolise une écotopie, un espace préservé du temps et des pressions humaines, où nature, société et spiritualité vivent en harmonie. La réserve intégrale de la forêt de la Massane, les forêts « sacrées » d’Afrique de l’Ouest ou celles du nord de la Grèce (massif du Pindes) font écho à cet idéal. Pensées comme des écosystèmes dont les dynamiques naturelles sont respectées et où l’intervention humaine contrôlée se fait discrète, elles permettent d’observer et de suivre les espèces, la régénération spontanée des habitats et leur résilience. Mais à l’image de la Lothlórien, un tel système de gestion reste spatialement rare, fragile. Il nécessite de construire la nature comme bien commun dont l’accès et l’usage sont acceptés par les communautés qui cohabitent avec ces espaces forestiers.
Ces trois types de territoires montrent qu’habiter le monde n’est pas simplement occuper, encore moins s’approprier, un espace de nature mais engager un dialogue avec lui, considérer qu’il a une valeur par lui-même, juste parce qu’il existe, et pas uniquement en tant que ressource. Il s’agit alors de cohabiter dans des interactions où chaque existant prend soin de l’autre.
Exploiter une nature ressource : de l’artificialisation à la destruction
La transformation des espaces de nature, comme le montre Tolkien, peut aussi répondre à une logique d’exploitation intensive, la nature offrant des ressources permettant d’asseoir la domination des humains sur la nature comme sur d’autres humains. Il ne s’agit plus d’envisager une cohabitation être humain/nature mais d’asservir la nature par la technique.
Isengard, le territoire de Saroumane au sud des monts Brumeux, contrôlé par la tour d’Orthanc, incarne la transformation radicale du milieu par et pour l’industrie ; une industrie dont la production d’Orques hybrides, sorte de transhumanisme appliqué à la sauvagerie, vise à renforcer le pouvoir de Saroumane et construire son armée pour prendre le contrôle d’autres territoires. La forêt est rasée, les fleuves détournés, le paysage mécanisé, dans l’unique but d’alimenter l’industrie. Les champs d’exploitation des schistes bitumineux en Amérique du Nord montrent à quel point l’exploitation de la nature peut détruire des paysages, polluer une nature qui devient impropre et dont les fonctions et services écosystémiques sont détruits).
La Moria, ancien royaume florissant du peuple Nain, est l’exemple de l’issue létale de la surexploitation d’une ressource naturelle. Si le mithril, minerai rare de très grande valeur a construit la puissance du royaume Nain, son exploitation sans cesse plus intense, vidant les profondeurs de la terre, va conduire à l’effondrement de la civilisation et à l’abandon de la Moria. Ce territoire minier en déshérence fait écho aux paysages des régions du Donbass par exemple, qui conservent aujourd’hui encore les traces visibles de décennies d’extraction charbonnière : galeries effondrées, sols instables et villes partiellement abandonnées.
Lieux de rupture et enjeux planétaires
On trouve enfin chez Tolkien une mise en scène d’espaces qui représentent des lieux de bascule pour l’intrigue et l’avenir du monde, en l’occurrence la Terre du Milieu.
Le « bourg-pont » de Bree, zone frontière matérialisée par une large rivière, marque la limite entre l’univers encore protégé, presque fermé, de la Comté et les territoires marchands de l’est, ouverts et instables. Mais Bree est aussi un carrefour dynamique, lieu d’échanges où circulent et se rencontrent des personnes, des biens et des récits. Un carrefour et une frontière où toutefois la tension et la surveillance de toutes les mobilités sont fortes.
Lieu de transition, symbolisant à la fois ouverture et fermeture territoriales, Bree est un point de bascule dans le récit où convergent et se confrontent des personnages clés de l’intrigue (les Hobbits, Aragorn, les cavaliers noirs de Sauron), les figures du Bien et du Mal autour desquelles vont se jouer l’avenir de la Terre du Milieu. Comme Bree, Calais est un point de friction entre un espace fermé (les frontières britanniques) et un espace ouvert où s’entremêlent société locale, logiques nationales et transnationales, mais où les circulations sont de plus en plus contrôlées.
Enfin, la montagne du Destin, volcan actif, incarne le lieu de rupture ultime, celui où le choix d’un individu, garder l’anneau pour lui seul dans un désir de pouvoir total ou accepter de le détruire, a des conséquences majeures pour toute la Terre du Milieu. Certains espaces jouent un rôle similaire sur notre terre. La fonte du permafrost sibérien ou de l’inlandsis antarctique pourrait libérer d’immenses quantités de carbone pour l’un, d’eau douce pour l’autre, accélérant le dérèglement climatique et la submersion de terres habitées.
Ces lieux où des actions localisées peuvent déclencher des effets systémiques globaux, au-delà de tout contrôle, concentrent ainsi des enjeux critiques, écologiques, géopolitiques ou symboliques.
La fiction constitue un puissant vecteur de réflexion quant à notre responsabilité collective dans la gestion de la nature, quant à nos choix éthiques et politiques dans la manière d’habiter la Terre en tant que bien commun et ainsi éviter d’atteindre un point de bascule qui sera celui d’un non-retour.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.01.2026 à 12:02
Le microcrédit, un outil financier qui peut coûter cher aux femmes
Texte intégral (1352 mots)

Grâce au microcrédit, les femmes gagnent une plus grande indépendance financière et un pouvoir décisionnel dans leur activité professionnelle. Corollaires à ce progrès : le surendettement, les violences conjugales et… le suicide. Quelles sont les solutions pour limiter ces effets délétères ?
Cinquante ans après le lancement du microcrédit au Bangladesh, les femmes représentent aujourd’hui 80 % des bénéficiaires, mais en profitent-elles réellement ?
Pression de groupe pouvant entraîner des suicides, spirale de surendettement ou encore manque de contrôle des femmes sur l’utilisation des prêts… autant de dérives qui peuvent accroître la vulnérabilité des emprunteuses.
Dans un état de l’art que nous avons publié récemment, nous regardons l’impact réel du microcrédit sur les femmes. Le résultat n’est pas totalement en leur faveur.
Notre état de l’art s’appuie sur des travaux menés principalement dans des pays en développement, incluant l’Asie du Sud, l’Océanie et l’Afrique subsaharienne.
La pression des pairs
Comment fonctionne le prêt solidaire, outil le plus utilisé en microfinance ?
De petits groupes, composés de cinq à dix individus, empruntent ensemble. Si l’un des membres manque une échéance, les autres doivent avancer son dû. La pression des pairs assure le remboursement du prêt, mais elle déplace la charge sociale sur le groupe.
Cette pression peut être plus ou moins bien supportée. En Andhra Pradesh, un État de l’Inde, le cumul de dettes et des méthodes de recouvrement oppressives ont entraîné une vague de suicides, causant près de 80 morts en 2010. Malgré les mesures de régulation mises en place par les gouvernements et les institutions du secteur, des cas de suicides continuent d’être signalés. Il demeure difficile d’estimer régulièrement le nombre de décès liés au microcrédit, faute de données.
Un surendettement à la clé
Le manque d’accompagnement et d’éducation financière des emprunteurs et emprunteuses peuvent eux mener à l’échec de l’emprunt. Force est de constater que beaucoup de microcrédits financent de petites activités sur des marchés déjà saturés, où la probabilité de dégager un profit est faible.
Concrètement, il s’agit souvent d’activités à faible barrière à l’entrée mais très concurrentielles : petit commerce (vente de nourriture, fruits et légumes, vêtements), kiosques et revente sur marché, petite restauration, couture, etc. Sur des marchés locaux où de nombreuses personnes proposent des produits et des services similaires, la demande est rapidement « partagée ». Les marges sont faibles et les revenus restent volatils, ce qui limite la capacité à rembourser.
Face à cette situation, l’emprunteuse peut devoir contracter un nouveau prêt, l’exposant à un risque de surendettement.
Il peut s’agir d’un renouvellement, ou top-up, auprès de la même institution, d’un second microcrédit auprès d’une autre institution, ou d’un prêt informel (tontine, famille ou autre prêteur particulier). Ces prêts sont souvent de petits montants mais à remboursements fréquents. Leur coût peut être élevé, une fois les intérêts inclus. Le surendettement survient souvent lorsque le nouveau prêt sert à rembourser le précédent plutôt qu’à financer une activité rentable.
Qui décide de l’usage du prêt ?
Si, comme mentionné préalablement, la majorité des microcrédits sont accordés aux femmes, ces dernières n’ont pas forcément la maîtrise de l’argent obtenu qui revient à un parent ou un conjoint. Cela s’explique par les rapports de pouvoir au sein du ménage et des normes sociales, qui font de l’homme le décisionnaire principal du couple, surtout lorsqu’il s’agit d’argent.
Ce décalage entre celle qui paie et celui qui décide peut générer des tensions au sein du ménage. Dans certains contextes, l’accès au microcrédit peut même aller jusqu’à engendrer une hausse de la violence conjugale. Par exemple, à partir d’un échantillon national au Bangladesh, soit 4 163 femmes mariées, les chercheurs Nadine Shaanta Murshid, Ayse Akincigil et Allison Zippay concluent qu’avoir un microcrédit pour les femmes avec un meilleur statut économique est associé à une probabilité de 9 % de plus de subir de la violence domestique.
Prêter autrement ?
Pour limiter ces effets, des solutions existent.
Passer de la garantie de groupe à la responsabilité individuelle réduit la pression des pairs sans hausse des défauts. Au lieu qu’un « groupe solidaire » de 5 à 10 femmes soit collectivement responsable, chaque emprunteuse signe un contrat individuel et n’est responsable que de sa propre échéance. Pourquoi cela peut fonctionner ? Parce que la pression sociale du groupe peut pousser à rembourser même quand le prêt n’est pas rentable.
Proposer des microformations très pratiques en « règles de pouce », comme une formation d’une heure et demie maximum sur les bases de la gestion financière, peut contribuer à rendre les investissements profitables et limiter le risque de surendettement. Elles peuvent porter sur des gestes très concrets de gestion : séparer l’argent du ménage et celui de l’activité, tenir un mini-carnet quotidien des entrées et des sorties ou apprendre à calculer simplement des coûts, des prix et des marges pour identifier ce qui est réellement rentable.
Gérer l’emprunt directement sur les comptes personnels des emprunteuses, notamment via les comptes mobile money, donne aux femmes une autonomie financière effective. Elles reçoivent, paient et épargnent elles-mêmes, tout en réduisant le risque d’appropriation des fonds par un homologue masculin. Le prêt est versé sur le wallet mobile de l’emprunteuse, puis les remboursements se font depuis ce même compte ; cela rend plus difficile la « capture » immédiate en liquide par le conjoint et crée une traçabilité/contrôle directe des flux (réception, paiements fournisseurs, remboursement).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.01.2026 à 12:02
À quoi servent les groupements d’employeurs ?
Texte intégral (1673 mots)
Quarante ans après leur naissance, les groupements d’employeurs restent relativement discrets. Pourtant, cette forme juridique originale peut être un puissant levier, notamment pour les (très) petites et moyennes entreprises, en leur donnant les moyens de recruter un salarié en commun. Revue de détail des services proposés par cet outil.
Les groupements d’employeurs ont été institués en France en 1985 afin de permettre aux petites et moyennes entreprises de se regrouper pour recruter de la main-d’œuvre. Malgré leur intérêt, ces structures souffrent d’un manque de reconnaissance car leurs vertus restent mal connues.
Constitués sous forme associative ou, plus rarement, sous le statut de société coopérative, les groupements d’employeurs (GE) permettent aux entreprises d’un même territoire de procéder à des embauches mutualisées. Les GE assurent le rôle d’employeur de salariés, dont le temps de travail est réparti le plus souvent entre deux ou trois entreprises adhérentes. Ils offrent ainsi une souplesse de fonctionnement à ces adhérents, qui disposent de compétences auxquelles ils n’auraient pas eu accès individuellement. Ils permettent aussi aux salariés de réaliser des missions diversifiées tout en bénéficiant d’un emploi à temps plein. Et à l’échelle des territoires, ils constituent un outil pour préserver des emplois et soutenir le dynamisme économique local.
Des structures peu visibles
35 ans après leur apparition, les GE restent cependant méconnus et insuffisamment utilisés. Alors que le tissu économique français est essentiellement constitué de TPE et de PME, les 5 000 GE environ que compte notre pays (dont 900 hors secteur agricole) ne représentent que 55 000 salariés (25 000 hors secteur agricole), selon les estimations réalisées par la DARES en 2021 et par le ministère de l’Agriculture en 2023.
Parmi les raisons avancées pour expliquer ce manque de popularité, le Conseil économique, social et environnemental (Cese) mentionne la pluralité des usages qui sont faits de ces structures, qui rend leur rôle peu lisible. Nous avons donc mené une recherche afin de les mettre en évidence.
S’adapter aux cycles d’activité
En premier lieu, les GE offrent à leurs adhérents la possibilité d’ajuster leurs recrutements aux cycles d’activité. Il s’agit là du rôle qui a présidé à leur création en 1985 : l’objectif était alors d’offrir un cadre légal aux pratiques, jusqu’alors informelles, de partage de personnel entre exploitants agricoles faisant face à un accroissement saisonnier de travail. De nos jours, ce type de recours aux GE s’est étendu à tout type d’entreprise dont l’activité est affectée par la saisonnalité, et en particulier à celles du secteur agroalimentaire.
À lire aussi : Qu’est-ce qu’un « bon employeur » ? Une approche par la notion d’« employeurabilité »
Les GE sont ainsi présents dans toutes les régions, avec des spécificités liées aux caractéristiques des territoires. À titre d’exemple, le GE “Côte Sud Emploi”, qui a été créé par et pour l’industrie agroalimentaire dans le département des Landes, a ainsi engagé des réflexions sur les complémentarités sectorielles en se positionnant également sur le thermalisme.
Mutualiser les compétences
L’usage des GE s’est progressivement étendu, puisqu’ils sont par la suite devenus une modalité stable de mutualisation des compétences. Ils permettent en effet aux PME qui en sont membres de bénéficier quelques jours par semaine de professionnels de fonctions support indispensables à la bonne conduite de leurs activités – marketing, communication, gestion des ressources humaines, hygiène et sécurité, etc.
L’intérêt pour les entreprises est ici de pouvoir bénéficier de compétences sur la durée, auxquelles elles n’auraient pas eu accès à titre individuel. Et les salariés apprécient eux aussi ce mode de recours aux GE, dans la mesure où ils peuvent ainsi acquérir de manière simultanée des expériences professionnelles diversifiées tout en bénéficiant d’un emploi stable.
Les emplois partagés proposés par le GE Mayage localisé dans le département de la Mayenne sont une bonne illustration de cette mutualisation de compétences. Le dirigeant d’une des entreprises adhérentes témoigne ainsi :
« Il y a trois ans, je cherchais à embaucher une personne pour la communication interne et externe de l’entreprise mais correspondant au volume d’une PME. Et Mayage a trouvé la personne qui, trois ans plus tard, est toujours au sein de l’entreprise. J’ai tous les avantages de la prestation sans avoir le salarié à ma charge puisque c’est Mayage qui s’occupe de tout. »
Accompagner la croissance
Un autre usage des GE est également apparu ces dernières années : leur rôle en matière d’accompagnement de la croissance. La croissance des entreprises nécessite en effet la structuration progressive de leur organisation, au travers de la mise en place de fonctions supports auxquelles les GE permettent d’accéder de manière facilitée.
Contrairement à la logique de mutualisation des compétences de long terme évoquée précédemment, il s’agit ici pour les entreprises adhérentes, dont l’activité est en plein essor, d’expérimenter momentanément le recours à des fonctions support à temps partagé, avant d’en disposer à temps plein en interne si leur croissance se poursuit. Les salariés peuvent quant à eux prendre leurs marques dans les entreprises d’accueil avant de les intégrer à temps plein. La TPE-PME bénéficie de la sorte d’un accompagnement à la croissance selon un principe de turn-over positif tel qu’il est qualifié au sein du réseau des GE. Biosupport, un GE francilien, souligne ainsi qu’« une dizaine de salariés passés au GE ont été au final embauchés par une entreprise adhérente ».
Pour les GE, les conséquences de ce rôle sont ambivalentes, dans la mesure où l’intégration à temps plein implique une diminution du maillage d’emplois. Si le turn-over positif devait être trop important, cela pourrait donc les mettre en difficulté économique. Mais, sur le temps long, cela traduit aussi la capacité des GE à créer des emplois sur le territoire.
Gérer la flexibilité
Si, historiquement, les GE ont été conçus pour accompagner des variations saisonnières d’activité, il s’avère qu’ils accompagnent désormais toutes les variations d’activité, à la hausse comme à la baisse. Les GE représentent ainsi une modalité de gestion de la flexibilité qui fait concurrence aux agences d’intérim.
Dans un contexte économique qui apparaît à l’heure actuelle plus tendu, certains GE font ainsi valoir auprès des dirigeants cette capacité à partager les risques. Le GE permet de gérer une crise en embauchant par exemple le salarié que l’entreprise est contrainte de licencier. Et dès la reprise d’activité, l’entreprise pourra à nouveau bénéficier de la compétence à temps plein. A l’automne 2025, le GE Hélys localisé à Rennes, présentait ainsi son offre aux dirigeants d’entreprise dont la situation économique est délicate :
« Nous pouvons permettre à une entreprise de se séparer administrativement d’un salarié, tout en continuant à bénéficier de ses compétences quelques jours par semaine en l’intégrant dans notre GE. Votre salarié devient le nôtre durant cette période de turbulence. Nous lui proposons un CDI. Nous complétons ensuite son temps de travail auprès d’autres adhérents pour lui permettre de conserver son niveau de vie. […] Et quand la tempête passe, vous pouvez réintégrer votre collaborateur. Vous savez tous le gain de temps et d’argent que cela représente versus le recrutement d’un nouveau profil. »
Vers une reconnaissance des GE ?
Au total, il s’avère que les usages des GE sont multiples, non mutuellement exclusifs, et vont bien au-delà de leur vocation originelle. En les clarifiant, nous espérons permettre aux GE, tout comme aux institutions qui les accompagnent, de communiquer plus précisément sur les services qu’ils proposent, et contribuer ainsi à accroître leur visibilité. À l’heure où les entreprises cherchent à concilier flexibilité et stabilité de l’emploi, les GE constituent une réponse originale encore trop méconnue.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.01.2026 à 12:01
Rihanna, Selena Gomez, Kylie Jenner : pourquoi la beauté est le nouvel eldorado des stars
Texte intégral (2033 mots)

Rihanna, Selena Gomez ou Kylie Jenner, ces dernières années les marques dans le secteur des cosmétiques créées ou co-fondées par des stars se sont multipliées. Mais pourquoi cet engouement particulier pour la beauté ?
Fenty Beauty, LolaVie, Blake Brown, Rare Beauty, Kylie Cosmetics, Rhode Skin ou Goop Beauty sont des marques de beauté et de soins capillaires qui ont toutes un point commun : celui d’avoir été lancées par une célébrité, comme Rihanna, Jennifer Aniston, Blake Lively, Selena Gomez, Kylie Jenner, Hailey Rhode Bieber et Gwyneth Paltrow.
Le personal branding, cette stratégie qui transforme le « moi » en image de marque unique que l’on peut valoriser sur la scène médiatique notamment, est d’autant plus pertinente dans le secteur des cosmétiques.
Alors pourquoi un tel engouement dans ce secteur et de ses consommateurs ?
Effet lipstick
Le marché des cosmétiques aurait générer en 2025 un chiffre d’affaires de 677 milliards de dollars, soit 574 milliards d’euros.
L’intérêt des célébrités pour la beauté n’est pas seulement une question d’image, il est également dicté par une logique économique. Les stars ont rapidement compris qu’en lançant leur propre marque, leur notoriété permettrait de réduire la lenteur de ce processus et d’amorcer une monétisation rapide de leur entreprise. La célébrité agit comme un puissant catalyseur marketing.
Historiquement, le secteur des cosmétiques est résilient aux crises, ce que les chercheurs nomment « effet lipstick ». Ce dernier explique comment les consommateurs, en période de crises économiques, réduisent les dépenses importantes, telles que l’achat de voiture ou les voyages, pour s’offrir des produits de luxe abordables, comme un rouge à lèvres.
Cette stabilité du marché de la beauté garantit un revenu sûr pour les marques de stars. Il offre des marges brutes élevées et peut encore croître de 100 milliards selon le patron de L’Oréal, Nicolas Hieronimus.
Le coût de production étant faible par rapport au prix de vente, et l’absence des contraintes logistiques, comme les collections de saisons, permettent un faible coût d’entrée et une gestion des stocks simplifiée.
Transférer les attributs positifs de la star
La célébrité qui endosse une marque est définie comme un individu jouissant d’une forte reconnaissance publique qui appose son image sur une marque par le biais d’un contrat publicitaire. Cette approche vise à transférer les attributs positifs de la star vers la marque, facilitant l’identification du message par le consommateur.
Depuis une dizaine d’années, ce qu’on appelle le self-branding for entrepreneurial prend une nouvelle ampleur avec l’avènement des réseaux sociaux. La célébrité devient cheffe d’entreprise et créée sa propre marque. La star n’est plus une simple ambassadrice : elle devient actionnaire, co-fondatrice ou propriétaire d’une marque.
C’est le cas de la comédienne Jennifer Aniston avec sa marque de soins capillaires LolaVie. L’actrice ne se contente pas de poser pour sa marque mais partage elle-même des vidéos de shooting sur les réseaux sociaux. Elle se met en scène en utilisant les produits et va jusqu’à poster des vidéos d’elle coiffant sa meilleure amie, l’actrice Courtney Cox, ou encore son petit ami Jim Curtis.
Jennifer Aniston fait preuve d’authenticité en exposant son intimité et en prenant à contre-pied l’image distante et éloignée de la réalité que peut avoir une célébrité. Elle renforce cette idée en utilisant l’humour dans son spot publicitaire « No Gimmicks » (« Pas d’artifices »).
Contre la beauté toxique
Le succès des marques de beauté fondées par des célébrités s’explique par la disruption stratégique mise en place. Des marques, comme Fenty Beauty, ont été pionnières en prouvant que l’inclusion ethnique avec plus de 40 teintes de fonds de teint proposées n’était pas un simple geste éthique mais une stratégie économique gagnante. « Fenty Beauty est une marque à 360 degrés qui s’adresse autant à une Coréenne qu’à une Irlandaise ou à une Afro-Américaine », décrypte Lionel Durand, patron de l’entreprise Black Up.
Dans la foulée, la marque Rare Beauty a élargi cette notion à l’inclusion émotionnelle, utilisant l’authenticité du discours de sa fondatrice concernant la santé mentale pour rejeter les normes de beauté toxiques. Selena Gomez n’ayant jamais caché sa bipolarité a choisi pour sa marque le slogan « Love Your Rare » (« Aimez votre rareté ») et a créé sa fondation Rare Impact Fund consacrée à cette thématique. Elle capitalise sur une communauté fidèle et engagée, là où d’autres marques valorisent essentiellement la perfection en termes de beauté.
Ces stars utilisent leurs réseaux sociaux comme laboratoires narratifs où elles construisent la crédibilité de leur marque à travers des récits personnels simples, de travail et de passion. Les produits de beauté ont un avantage : ils sont désirables et mobilisent l’attention surtout s’ils sont mis en avant par une célébrité.
Les vidéos Instagram ou TikTok à l’ère du marketing de contenu permettent aux célébrités d’échanger et d’atteindre rapidement leur public. Leurs produits deviennent une extension d’elles-mêmes, des objets identitaires au même titre que la mode ou la musique. La marque bio Goop, de Gwyneth Paltrow, est une ode à son lifestyle. Sur la plateforme TikTok, elle vend ses créations comme des produits skincare, de maquillage ou une ligne de vêtements. L’actrice a développé un empire autour de la mouvance New Age.
Marqueur social
Les marques des célébrités deviennent un marqueur social, une manière de prolonger l’univers de la star dans le quotidien des consommateurs. En 2025, on assiste à la continuité de cette tendance. L’année aura été marquée par des extensions de gammes pour Rhode et Rare Beauty, mais aussi par de nouveaux lancements de marques comme les parfums de Bella Hadid, Orebella, ou la gamme de soins Dua, de Dua Lipa.
Le succès de la marque continue de reposer sur la capacité de la célébrité-entrepreneure à projeter une authenticité perçue et une implication réelle. En face, se trouve un consommateur certes sensible aux réseaux sociaux, mais qui peut s’avérer résistant à certaines manœuvres marketing.
Si la célébrité paraît opportuniste ou déconnectée du produit, la légitimité s’effondre. Tel fut le cas pour Meghan Markle au moment du lancement de sa marque lifestyle, As Ever, de produits alimentaires, bougies et vins. Les critiques ont fusé, l’accusant de peu de professionnalisme, de capitaliser uniquement sur sa notoriété et sur son statut de duchesse de Sussex.
Des marques à durée limitée ?
Les produits de beauté ne sont qu’un exemple de la diversification entrepreneuriale des célébrités. Nombreuses sont les stars qui se tournent vers des marchés où le capital image est essentiel et où le taux de renouvellement des produits est élevé.
C’est le cas du secteur de l’alcool qui offre une marge élevée et une connexion directe avec les fans. L’actrice Cameron Diaz a co-fondé une marque de vin bio et vegan qu’elle a nommé Avaline. Le rappeur Jay Z possède sa maison de champagne, Armand de Brignac.
Le phénomène de la célébrité-entrepreneure révèle une nouvelle dynamique, celle de la marque personnelle. Dès lors, la question qui se pose n’est plus la performance initiale mais la vision stratégique à long terme. Cette hyper-accélération du succès, rendue possible essentiellement par la notoriété, leur permet-elle de devenir des marques à part entière, et non de simples prolongements de la célébrité ?
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
12.01.2026 à 12:01
Faut-il, comme EDF, interdire toute consommation d’alcool dans le monde professionnel ?
Texte intégral (1833 mots)
EDF a indiqué interdire la consommation d’alcool sur le lieu de travail et dans les repas d’affaires. Cette décision est-elle compatible avec la liberté individuelle ? Peut-elle ou doit-elle s’appliquer dans d’autres entreprises, notamment au nom de la lutte contre les addictions et de la garantie de la sécurité du personnel ?
Dès ce mois de janvier, les salariés d’EDF n’ont plus le droit de consommer d’alcool au travail ni lors d’événements organisés par leur employeur à l’extérieur.
Cette mesure, encadrée par l’article R4228-20 du Code du travail, questionne l’équilibre entre prévention des risques (addictions, comportements inappropriés, accidents du travail), libertés individuelles et préservation des rites qui constituent la culture d’entreprise.
Cette décision très médiatisée intervient dans un contexte où la prévention des risques professionnels et des accidents du travail est au centre du débat public.
Cette décision s’inscrit dans un cadre réglementaire existant et une jurisprudence constante. Cette décision n’a donc rien de bien surprenant.
Protéger la santé et la sécurité
L’organisation d’événements festifs ponctue la vie de l’entreprise. Ces moments supposés conviviaux à l’initiative de l’employeur, du comité social et économique (CSE) ou de certains salariés, contribuent à produire une meilleure cohésion des équipes et au maintien de la culture d’entreprise.
Parfois, l’alcool s’invite dans ces temps collectifs, à l’intersection de la vie professionnelle et personnelle… Il ne suffit pas que la réunion ait lieu en dehors de l’entreprise pour exonérer l’employeur de toute responsabilité. S’il en est à l’initiative, celle-ci reste sous sa responsabilité. La consommation d’alcool sur le lieu de travail comporte cependant de nombreux risques et, à ce titre, est très fortement encadrée en France.
Ainsi, l’article R4228-20 du Code du travail précise qu’« aucune boisson alcoolisée autre que le vin, la bière, le cidre et le poiré n’est autorisée sur le lieu de travail ». Si la consommation de boissons alcoolisées est susceptible de porter atteinte à la sécurité et à la santé physique et mentale des travailleurs, l’employeur, en application de l’article L. 4121-1 du Code du travail doit en restreindre l’usage. Cet article dispose que « l’employeur prend les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs ».
L’employeur est soumis non pas à une obligation de résultat mais à une obligation de moyens renforcés (Cour de cassation, chambre sociale, 25 novembre 2015, no 14-24.444, Air France).
Règlement intérieur ou note de service ?
L’employeur peut aussi le prévoir dans le règlement intérieur – obligatoire dans les entreprises d’au moins 50 salariés. En effet, ce document fixe les règles de la vie en entreprise et notamment celles relatives à la discipline, la nature et l’échelle des sanctions. À défaut, l’employeur peut l’indiquer par l’intermédiaire d’une note de service reprenant les mesures prises pour protéger la santé et la sécurité des travailleurs et de prévenir tout risque d’accident.
Ces mesures, qui peuvent notamment prendre la forme d’une limitation voire d’une interdiction de consommation d’alcool, doivent être proportionnées au but recherché. Ainsi, l’employeur, en vertu de son pouvoir de direction, peut donc purement et simplement interdire la consommation d’alcool au sein de l’entreprise en invoquant cette obligation de sécurité. Cela lui permet de répondre à l’obligation de moyens renforcés.
Une sanction pouvant aller jusqu’au licenciement peut alors être prononcée à l’encontre des collaborateurs en cas de non-respect, si elle prévue dans le règlement intérieur.
À titre d’exemple, une clause d’un règlement intérieur précise :
« L’introduction, la distribution et/ou la consommation de toute boisson alcoolisée sur le lieu de travail (bureaux, chantiers…) sont interdites, à l’exception des dispositions prévues par l’article R. 4228-20 du Code du travail et uniquement lors des repas en dehors du temps de travail. Cette consommation devra l’être dans des quantités raisonnables de manière à ne pas altérer les capacités à occuper son emploi et/ou à être en mesure de conduire un véhicule, notamment pour regagner son domicile. L’introduction, la distribution et la consommation de produits stupéfiants dans les locaux de travail sont en outre strictement interdits. »
Le danger des pratiques addictives
Par ailleurs, l’employeur – qui est tenu d’identifier et de répertorier les risques dans le document unique d’évaluation des risques professionnels (DUERP) – doit tenir compte des pratiques potentiellement addictives (consommation d’alcool mais aussi de drogues). En effet, les pratiques addictives concernent de nombreux salariés, quels que soient le secteur d’activité ou la catégorie socioprofessionnelle.
Ces consommations, occasionnelles ou répétées, comportent des risques pour la santé et la sécurité des salariés. Il est donc nécessaire d’inscrire le risque lié aux pratiques addictives dans ce document unique (article R. 4121-1 du Code du travail).
Ce document est tenu à la disposition des salariés, des anciens salariés, des membres du comité social et économique, du médecin du travail, de l’agent de contrôle de l’inspection du travail et des agents des Carsat (article R4121-4 du Code du travail).
Interdire en préservant les libertés individuelles
En cas de consommation abusive d’alcool, le salarié pourrait avoir un accident dans l’entreprise ou en rentrant chez lui après un repas d’entreprise par exemple. L’employeur engagerait alors sa responsabilité dans le cadre de l’obligation de sécurité et pourrait être condamné. On pense par exemple à un accident automobile pour un commercial. De son côté, le salarié pourrait également être reconnu responsable.
Ainsi, le 10 avril 2024 (RG no 21/06884), la Cour d’appel de Rennes a statué sur la réalité d’un accident du travail dont l’origine était la consommation d’alcool par un salarié au temps et au lieu du travail. Un chauffeur alcoolisé chargeait un engin de chantier qui a basculé sur lui ; accident des suites duquel il est malheureusement décédé. À noter que les restrictions relatives à l’alcool sont par ailleurs souvent accompagnées de restrictions relatives aux stupéfiants.
Comment contrôler ?
Ainsi, le cadre légal dont relèvent les conduites addictives en entreprise est complexe, car il doit concilier l’obligation de sécurité avec le respect des droits fondamentaux de l’employé (article L.1121-1 du Code du travail).
L’employeur peut ainsi recourir au contrôle de l’alcoolémie sous réserve du respect de certaines dispositions. Le contrôle par éthylotest ne doit pas être systématique. Il doit être justifié par des raisons de sécurité et ne doit concerner que les salariés dont les fonctions sont de nature à exposer les personnes ou les biens à un danger. Ainsi, la liste des postes pour lesquels un dépistage est possible doit être prévue dans le réglement intérieur.
La restriction doit cependant être proportionnée au but recherché et doit permettre de protéger les intérêts légitimes de l’entreprise. Par exemple, dans un entrepôt où travaillent des caristes (conducteurs de petits véhicules de manutention), il est légitime d’interdire complètement l’alcool, dont la consommation pourrait altérer les réflexes des salariés et produire des accidents. L’usage de substances psychoactives sur le lieu de travail, ou avant la prise de poste, augmente le risque d’accidents du travail, d’erreurs humaines et de comportements inadaptés, notamment dans les secteurs nécessitant de la vigilance ou la manipulation de machines.
Dégradation du climat social
Les conduites addictives peuvent également dégrader le climat social en entreprise. Elles peuvent générer des tensions entre collègues, créer des situations de conflit ou d’incompréhension, et altérer la cohésion des équipes, impacter négativement la productivité et la qualité du travail, augmenter l’absentéisme et les retards, causer des soucis de santé et de gestion des aptitudes.
Au-delà de la dimension juridique liée aux risques humains et de contentieux, la consommation d’alcool ou de drogues est également un enjeu managérial. En effet, la stigmatisation des personnes concernées et le tabou entourant la consommation de substances addictives peuvent freiner la détection et la prise en charge des situations à risques, conduisant à une marginalisation des salariés concernés. Les managers et les services RH doivent apprendre à détecter les signaux faibles. Le recours à la médecine du travail est également indispensable. Information et formations sont importantes dans une stratégie de prévention.
Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.01.2026 à 15:44
L’avenir de l’impression 3D passera par les matériaux
Texte intégral (2079 mots)
Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités. Elle offre des perspectives prometteuses en matière de matériaux, mais elle pose également des défis techniques, économiques et environnementaux qui nécessitent une maturation et une adaptation des procédés en lien avec les matériaux utilisés.
Plus connu sous la dénomination « impression 3D », ce procédé met en œuvre des polymères (plastiques) ou des alliages métalliques pour fabriquer des objets du quotidien. Les imprimantes 3D polymères sont accessibles au grand public pour quelques centaines d’euros. Elles permettent notamment de fabriquer des pièces prototypes (d’où le nom prototypage rapide), des coques de téléphone, des pièces de rechange, des prothèses, des bijoux, des jouets, des objets de décorations ou des maquettes. En ce qui concerne les métaux, les machines d’impression sont beaucoup plus chères (quelques centaines de milliers d’euros). On trouve des applications telles que des implants médicaux, des pièces aérospatiales/automobiles, de l’outillage industriel, des bijoux de luxe. On peut également trouver ce principe de fabrication dans le domaine du BTP avec des « imprimantes » qui mettent en œuvre du béton pour fabriquer des maisons, des bâtiments ou tout type de structure en génie civil.
Mais, comme toute nouveauté, le procédé suscite autant d’espoir qu’il ne réserve de surprises (bonnes ou mauvaises) à celles et ceux qui souhaitent utiliser ce nouveau moyen de fabrication.
D’un point de vue technique, l’impression 3D consiste, couche après couche, à durcir (polymériser) une résine liquide ou à venir déposer de la matière (plastique ou métallique) de manière précise et contrôlée (en ajustant les paramètres tels que la température, la vitesse d’impression, le taux de remplissage, l’orientation de l’objet) pour répondre à certaines contraintes de géométrie, poids, optimisation des propriétés mécaniques ou physiques.
La microstructure d’une pièce imprimée en 3D (polymère ou métal) désigne l’organisation interne de sa matière à une échelle microscopique, influencée par le procédé d’impression. La complexité de la géométrie, les dimensions, le prix vont conditionner le choix de la technologie d’impression et des matériaux associés.
Une révolution dans de nombreux domaines industriels
Qu’elle soit alternative ou complémentaire des techniques conventionnelles par enlèvement de matière ou par déformation, la FA révolutionne de nombreux domaines industriels. De la réalisation de pièces monolithiques (en une seule étape de fabrication, sans assemblage) à forte valeur ajoutée à la fonctionnalisation (conférer à la pièce certaines propriétés locales en changeant les paramètres d’impression au besoin), en passant par le prototypage rapide (valider la conception d’une pièce prototype de manière itérative), les possibilités sont multiples. On peut citer notamment des prothèses de hanche en titane adaptées à l’anatomie de chaque patient, des injecteurs de fusée à géométrie complexe et fabriquées en une seule pièce, des moules optimisés avec canaux de refroidissement sur mesure, des bijoux en métaux précieux avec des designs impossibles à obtenir avec des moyens d’usinage conventionnels.
La chaîne de valeurs de la FA – qui définit l’ensemble des étapes de réalisation d’une pièce de l’approvisionnement en matière première, à la conception, aux conditions de mise en œuvre, à la fabrication, au coût énergétique, à la reprise d’usinage, aux opérations de parachèvement, à la qualification de la santé matière, à la caractérisation des propriétés physiques, au recyclage – est cependant plus complexe et potentiellement plus onéreuse. La technicité, oui, mais pas à n’importe quel prix ! Outre les moyens de fabrication spécifiques sur lesquels elle repose, elle nécessite des règles de conception fondamentalement différentes car elle impose de nouvelles contraintes techniques. De la Conception Assistée par Ordinateur, au choix matériau, au programme machine et à l’industrialisation, il faut ainsi redéfinir complètement la manière de penser du cahier des charges à la maintenance des produits issus de la FA.
Des enjeux majeurs pour les matériaux
Un des points fondamentaux du développement de ces nouveaux procédés réside dans la compréhension du lien entre les paramètres de fabrication des pièces (temps d’impression, puissance du laser, vitesse de déplacement de la tête d’impression, dimensions, environnement de travail – sous atmosphère contrôlée ou non), leur santé matière (présence de porosités ou de défauts parfois liés à un manque de fusion/gazéification locaux de la matière) et leurs propriétés physiques (conductivité thermique ou électrique, propriétés mécaniques, densité). Autrement dit, il est nécessaire de fiabiliser les procédés et optimiser les propriétés finales de la pièce en étant capable de contrôler des paramètres de fabrication, lesquels vont beaucoup dépendre des matériaux mis en œuvre. Ainsi, la FA présente des enjeux majeurs pour les matériaux, qu’ils soient techniques, économiques ou environnementaux.
Tout d’abord, les procédés de FA nécessitent de développer, en amont, des matériaux adaptés (filaments, poudres) aux spécificités des procédés (fusion laser, dépôt de matière fondue, alimentation en matière des têtes d’impression), lesquels vont imposer des contraintes en termes de prix, toxicité et recyclabilité. En effet, les poudres métalliques ou polymères spécifiques (de type thermoplastique) dédiées à la fabrication additive restent souvent plus coûteuses que les matériaux conventionnels, d’un facteur 10 environ.
Néanmoins, malgré le coût plus élevé des matériaux et des procédés, l’impression 3D réduit les déchets (pas de copeaux comme en usinage), permet de fabriquer des pièces dont la géométrie est optimisée (allègement des structures) et élimine le besoin de moules coûteux pour les petites séries, ce qui peut compenser l’écart de coût pour des pièces à forte valeur ajoutée. Ainsi, la réduction des coûts est un enjeu clé pour une adoption plus large. De plus, l’approvisionnement en matière première peut être limité, ce qui ralentit le développement des applications industrielles.
La FA permet également de faire de l’hybridation en associant différents types de matériaux lors de l’impression (en utilisant plusieurs têtes d’impression) afin d’obtenir des pièces composites dont les propriétés mécaniques, électriques ou thermiques sont spécifiques. Par exemple, dans l’industrie aérospatiale ou l’automobile, l’impression 3D de pièces comme des moules d’injection ou des échangeurs thermiques avec des canaux de refroidissement complexes intégrés – lesquels sont impossibles à réaliser par usinage classique – permettent d’optimiser la dissipation thermique, améliorant l’efficacité et la longévité de la pièce.
Les procédés de FA permettent également d’imprimer des structures arborescentes (bio-mimétisme) obtenues via des outils d’optimisation topologique qui est une méthode de conception avancée qui utilise des algorithmes pour déterminer la forme optimale d’une structure en fonction de contraintes spécifiques, telles que la résistance, le poids, ou la distribution des efforts. La spécificité de l’impression 3D réside aussi dans la possibilité de produire des structures complexes de type treillis ou architecturées pour fonctionnaliser le matériau (propriétés mécaniques sur mesure, réduction de la masse, diminution des coûts de fabrication, isolation thermique, acoustique, absorption des chocs ou des vibrations).
Fusion de matière
Quand les pièces sont imprimées, il existe – selon le procédé de fabrication – des opérations dites de parachèvement qui consistent à finaliser les pièces. Cela inclut l’usinage des supports de conformage (qui sont comme des échafaudages qui supportent la pièce lors de la fabrication couche par couche), la reprise d’usinage des surfaces (ou polissage) pour améliorer l’état de surface (quand cela est possible) en raison de la rugosité importante des pièces brutes. On peut également réaliser des traitements thermiques pour homogénéiser la microstructure (pièces métalliques) ou de compression à chaud pour limiter le taux de porosités (un des inconvénients majeurs de l’impression 3D). Ces opérations sont fondamentales, car la rugosité de surface et le taux de porosités sont les caractéristiques les plus critiques du point de vue du comportement mécanique. Par ailleurs, quand il s’agit de procédés à base de poudres, il est nécessaire de dépoudrer les pièces pour évacuer le surplus de matière, lequel peut nuire au fonctionnement en service de la pièce ainsi fabriquée.
Par nature, la majorité des procédés de FA impliquent la fusion de matière (plastique ou métallique), ce qui va se traduire par des échauffements localisés et des différences de température très importants au sein de la pièce. Ces gradients thermiques vont conditionner la microstructure, la présence de contraintes internes (en lien avec la microstructure), la santé (présence de défauts), l’anisotropie (les propriétés ne sont pas les mêmes dans toutes les directions) et l’hétérogénéité (les propriétés ne sont pas les mêmes en tout point) des pièces. La fiabilité des pièces imprimées va donc beaucoup dépendre de ces caractéristiques.
En amont, il est alors important d’étudier les interactions entre procédés-microstructure et propriétés mécaniques pour différents types de matériaux. C’est l’objet de nos travaux de recherche menés à l’INSA Rouen Normandie. Pour les polymères, l’impression 3D par dépôt de filament fondu (FFF) présente une porosité intrinsèque qui réduit la résistance à la rupture. En utilisant des procédés tels que le laser shock peening (LSP), un traitement mécanique in situ appliqué à certaines couches pendant l’impression, on peut alors faire de la fonctionnalisation en réduisant localement la porosité et en créant des barrières ralentissant la propagation des fissures, améliorant ainsi la ténacité des matériaux (la résistance à la fissuration du matériau). De manière similaire, pour les alliages métalliques obtenus par Fusion sur Lit de Poudre, en jouant sur les paramètres de fabrication (puissance et vitesse de déplacement du laser notamment), il est possible d’ajuster localement les propriétés du matériau pour moduler sa ténacité ou sa capacité à se déformer plastiquement.*
Aussi, il est nécessaire de caractériser précisément – en aval de la fabrication – les propriétés (thermiques, électriques, mécaniques) des pièces en accord avec les normes de certification propres aux différents domaines d’activité (médical, aéronautique, aérospatiale, automobile, agro-alimentaire).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
11.01.2026 à 15:42
Groenland : rester avec les Inuit polaires
Texte intégral (2848 mots)
En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début d’un basculement irréversible pour les sociétés inuit. Aujourd’hui, alors que le Groenland redevient un enjeu stratégique mondial, l’histoire semble se répéter. Rester avec les Inuit polaires, c’est refuser de parler de territoires en oubliant ceux qui les habitent.
Le 16 juin 1951, l’explorateur français Jean Malaurie progresse en traîneaux à chiens sur la côte nord-ouest du Groenland. Il est parti seul, sur un coup de tête, avec un maigre pécule du CNRS, officiellement pour travailler sur les paysages périglaciaires. En réalité, cette rencontre avec des peuples dont la relation au monde était d’une autre nature allait forger un destin singulier.
Ce jour-là, après de longs mois d’isolement parmi les Inuit, au moment critique du dégel, Malaurie avance avec quelques chasseurs. Il est épuisé, sale, amaigri. L’un des Inuit lui touche l’épaule : « Takou, regarde » Un épais nuage jaune monte au ciel. À la longue-vue, Malaurie croit d’abord à un mirage : « une cité de hangars et de tentes, de tôles et d’aluminium, éblouissante au soleil dans la fumée et la poussière […] Il y a trois mois, la vallée était calme et vide d’hommes. J’avais planté ma tente, un jour clair de l’été dernier, dans une toundra fleurie et virginale. »
Le souffle de cette ville nouvelle, écrira-t-il, « ne nous lâchera plus ». Les excavatrices tentaculaires raclent la terre, les camions vomissent les gravats à la mer, les avions virevoltent. Malaurie est projeté de l’âge de pierre à l’âge de l’atome. Il vient de découvrir la base secrète américaine de Thulé, nom de code Operation Blue Jay. L’un des projets de construction militaire les plus massifs et les plus rapides de l’histoire des États-Unis.
Sous ce nom anodin se cache une logistique pharaonique. Les États-Unis redoutent une attaque nucléaire soviétique par la route polaire. En un seul été, quelque 120 navires et 12 000 hommes sont mobilisés dans une baie qui n’avait connu jusque-là que le glissement silencieux des kayaks. Le Groenland ne comptait alors qu’environ 23 000 habitants. En 104 jours, sur un sol gelé en permanence, surgit une cité technologique capable d’accueillir les bombardiers géants B-36, porteurs d’ogives nucléaires. À plus de 1 200 kilomètres au nord du cercle polaire, dans un secret presque total, les États-Unis font surgir l’une des plus grandes bases militaires jamais construites hors de leur territoire continental. Un accord de défense est signé avec le Danemark au printemps 1951, mais l’Operation Blue Jay est déjà engagée : la décision américaine a été prise dès 1950.
L’annexion de l’univers Inuit
Malaurie comprend aussitôt que la démesure de l’opération signe, de fait, une annexion de l’univers Inuit. Un monde fondé sur la vitesse, la machine, l’accumulation vient de pénétrer brutalement, aveuglément, un espace réglé par la tradition, le cycle, la chasse et l’attente.
Le geai bleu est un oiseau bruyant, agressif, extrêmement territorial. La base de Thulé se situe à mi-chemin entre Washington et Moscou par la route polaire. À l’heure des missiles hypersoniques intercontinentaux, hier soviétiques, aujourd’hui russes, c’est cette même géographie qui fonde encore l’argument du « besoin impérieux » invoqué par Donald Trump dans son désir d’annexion du Groenland.
Le résultat immédiat le plus tragique de l’Opération Blue Jay ne fut pas militaire, mais humain. En 1953, pour sécuriser le périmètre de la base et de ses radars, les autorités décidèrent de déplacer l’ensemble de la population inughuit locale vers Qaanaaq, à une centaine de kilomètres plus au nord. Le déplacement fut rapide, contraint, sans consultation, brisant le lien organique entre ce peuple et ses territoires de chasse ancestraux. Un “peuple racine” déraciné pour faire place à une piste d’aviation.
C’est sur ce moment de bascule foudroyante que Malaurie situe l’effondrement des sociétés traditionnelles inuit, où la chasse n’est pas une technique de survie mais un principe organisateur du monde social. L’univers inuit est une économie du sens, faite de relations, de gestes et de transmissions, qui donnent à chacun reconnaissance, rôle et place. Cette cohérence intime, qui fait la force de ces sociétés, les rend aussi extrêmement vulnérables lorsqu’un système extérieur en détruit soudainement les fondements territoriaux et symboliques.
Conséquences de l’effondrement des structures traditionnelles
Aujourd’hui, la société groenlandaise est largement sédentarisée et urbanisée. Plus du tiers des 56 500 habitants vit à Nuuk, la capitale, et la quasi-totalité de la population réside désormais dans des villes et localités côtières sédentarisées. L’habitat reflète cette transition brutale. Dans les grandes villes, une part importante de la population occupe des immeubles collectifs en béton, construits pour beaucoup dans les années 1960 et 1970, souvent vétustes et suroccupées. L’économie repose largement sur une pêche industrielle tournée vers l’exportation. La chasse et la pêche de subsistance persistent. Fusils modernes, GPS, motoneiges, connexions satellitaires accompagnent désormais les gestes anciens. La chasse demeure un repère identitaire, mais elle ne structure plus ni l’économie ni la transmission.
Les conséquences humaines de cette rupture sont massives. Le Groenland présente aujourd’hui l’un des taux de suicide les plus élevés au monde, en particulier chez les jeunes hommes inuit. Les indicateurs sociaux contemporains du Groenland - taux de suicide, alcoolisme, violences intrafamiliales – sont largement documentés. De nombreux travaux les relient à la rapidité des transformations sociales, à la sédentarisation et à la rupture des transmissions traditionnelles.
Revenons à Thulé. L’immense projet secret engagé au début des années 1950 n’avait rien de provisoire. Radars, pistes, tours radio, hôpital : Thulé devient une ville stratégique totale. Pour Malaurie, l’homme du harpon est condamné. Non par une faute morale, mais par une collision de systèmes. Il met en garde contre une européanisation qui ne serait qu’une civilisation de tôle émaillée, matériellement confortable, humainement appauvrie. Le danger n’est pas dans l’irruption de la modernité, mais dans l’avènement, sans transition, d’une modernité sans intériorité, opérant sur des terres habitées comme si elles étaient vierges, répétant, à cinq siècles d’écart, l’histoire coloniale des Amériques.
Espaces et contaminations radioactives
Le 21 janvier 1968, cette logique atteint un point de non-retour. Un bombardier B-52G de l’US Air Force, engagé dans une mission permanente d’alerte nucléaire du dispositif Chrome Dome, s’écrase sur la banquise à une dizaine de kilomètres de Thulé. Il transporte quatre bombes thermonucléaires. Les explosifs conventionnels des bombes nucléaires, destinés à amorcer la réaction, détonnent à l’impact. Il n’y a pas d’explosion nucléaire, mais la déflagration disperse sur une vaste zone du plutonium, de l’uranium, de l’americium et du tritium.
Dans les jours qui suivent, Washington et Copenhague lancent Project Crested Ice, une vaste opération de récupération et de décontamination avant la fonte printanière. Environ 1 500 travailleurs danois sont mobilisés pour racler la glace et collecter la neige contaminée. Plusieurs décennies plus tard, nombre d’entre eux engageront des procédures judiciaires, affirmant avoir travaillé sans information ni protection adéquates. Ces contentieux se prolongeront jusqu’en 2018-2019, débouchant sur des indemnisations politiques limitées, sans reconnaissance juridique de responsabilité. Aucune enquête épidémiologique exhaustive ne sera jamais menée auprès des populations inuit locales.
Aujourd’hui rebaptisée Pituffik Space Base, l’ancienne base de Thulé est l’un des nœuds stratégiques majeurs du dispositif militaire américain. Intégrée à la US Space Force, elle joue un rôle central dans l’alerte antimissile et la surveillance spatiale en Arctique, sous un régime de sécurité maximale. Elle n’est pas un vestige de la guerre froide, mais un pivot actif de la géopolitique contemporaine.
Dans Les Derniers Rois de Thulé, Malaurie montre que les peuples racine n’ont jamais de place possible au cœur des considérations stratégiques occidentales. Face aux grandes manœuvres du monde, l’existence des Inuit y devient aussi périphérique que celle des phoques ou des papillons.
Les déclarations de Donald Trump ne font pas surgir un monde nouveau. Elles visent à généraliser au Groenland un système en place depuis soixante-quinze ans. Mais la position d’un homme ne saurait nous exonérer de nos responsabilités collectives. Entendre aujourd’hui que le Groenland « appartient » au Danemark et dépend de l’OTAN, sans même évoquer les Inuit, revient à répéter un vieux geste colonial : concevoir les territoires en y effaçant ceux qui l’habitent.
Les Inuit demeurent invisibles et inaudibles. Nos sociétés continuent de se représenter comme des adultes face à des populations indigènes infantilisées. Leur savoir, leurs valeurs, leurs manières sont relégués au rang de variables secondaires. La différence n’entre pas dans les catégories à partir desquelles nos sociétés savent agir.
À la suite de Jean Malaurie, mes recherches abordent l’humain par ses marges. Qu’il s’agisse des sociétés de chasseurs-cueilleurs ou de ce qu’il reste de Néandertal, lorsqu’on le déshabille de nos projections, l’Autre demeure toujours l’angle mort de notre regard. Nous ne savons pas voir comment s’effondrent des mondes entiers lorsque la différence cesse d’être pensable.
Malaurie concluait son premier chapitre sur Thulé par ces mots :
« Rien n’aura été prévu pour imaginer l’avenir avec hauteur. »
Il faut redouter par-dessus tout non la disparition brutale d’un peuple, mais sa relégation silencieuse, et radicale, dans un monde qui parle de lui sans jamais le regarder ni l’entendre.
Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.01.2026 à 15:41
Quand les IA cadrent l’information et façonnent notre vision du monde
Texte intégral (1938 mots)

Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.
La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.
Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.
Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.
En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.
Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.
Biais de communication
Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.
Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.
Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.
Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.
Ce que la régulation peut – et ne peut pas – faire
Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.
Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.
Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.
Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.
La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.
Aller au-delà de la régulation de l’IA
Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.
Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.
Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.
Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.01.2026 à 15:41
Après l’abattage de milliers de chevaux sauvages, le parc australien du Kosciuszko retrouve peu à peu ses paysages
Texte intégral (3521 mots)

Dans le parc national du Kosciuszko, la diminution de la population de brumbies, les chevaux sauvages, ouvre une chance de restauration pour les écosystèmes fragiles du massif. Celles et ceux qui parcourent le parc au quotidien en voient déjà les premiers effets.
Dans le parc national du Kosciuszko, en pleines Alpes australiennes, le paysage évolue lentement. Des zones de végétation, autrefois rasées par les chevaux, repoussent. Les berges de ruisseaux, longtemps érodées, paraissent moins tassées sur les bords. Les visiteurs croisent aussi moins de chevaux immobiles sur les routes, ce qui représentait un réel danger pour la circulation.
En 2023, en effet, la Nouvelle-Galles du Sud a autorisé l’abattage aérien de chevaux sauvages dans le parc national du Kosciuszko. Et fin novembre, le gouvernement a adopté un projet de loi abrogeant le texte qui reconnaissait aux brumbies ou chevaux sauvages un « statut patrimonial » dans le parc (NDT : ces chevaux, arrivés d’Angleterre avec les premiers colons ont été au centre d’une bataille culturelle culturelle ces dernières années).
Ce changement a supprimé les protections juridiques dont bénéficiaient les chevaux dans le parc, qui les distinguaient des autres espèces introduites comme les cerfs, les porcs, les renards et les lapins. Désormais, ils sont traités en Australie de la même manière que les autres espèces invasives, rétablissant une cohérence dans la gestion de leur impact sur les paysages.
La dernière enquête estime qu’environ 3 000 chevaux subsistent dans le parc national du Kosciuszko, contre quelque 17 000 il y a un an. Plus de 9 000 chevaux ont été abattus depuis 2021.
Le plan de gestion actuellement en vigueur prévoit de conserver 3 000 de ces chevaux, un compromis entre protection des écosystèmes et sauvegarde de la valeur patrimoniale de ces animaux. Il doit s’appliquer jusqu’à la mi-2027.
Quels sont les effets environnementaux de la réduction du nombre de chevaux à Kosciuszko ? Et à quoi le parc pourrait-il ressembler à l’avenir ?
Les dégâts
Depuis des décennies, les chevaux sauvages constituent une source majeure de dégradations écologiques dans les paysages alpins du Kosciuszko. Leur impact dans ces milieux d’altitude fragiles s’est particulièrement accru au cours de la dernière décennie, période pendant laquelle leur population a augmenté de manière incontrôlée.
Des études empiriques et des analyses d’images satellites montrent que les brumbies réduisent la couverture végétale, dégradent la structure des sols et endommagent les berges des cours d’eau, les tourbières et les marais alpins – des sols riches en carbone formés sur des dizaines de milliers d’années.
Une partie de ces dégâts résulte de leur alimentation, fondée sur des graminées et des plantes herbacées alpines à croissance lente. Un cheval consomme généralement l’équivalent de 2 % de sa masse corporelle par jour, soit environ 8 kilogrammes quotidiens. À titre de comparaison, le plus grand herbivore indigène des hauts plateaux, le kangourou gris de l’Est, consomme environ 600 grammes par jour, c’est 13 fois moins.
Mais l’essentiel des dégâts est causé par leurs sabots. Les chevaux sauvages parcourent jusqu’à 50 kilomètres par jour, et leurs sabots durs écrasent les couches de mousses à sphaignes, compactant en profondeur les sols tourbeux. Ces plantes et ces sols fonctionnent normalement comme des éponges à restitution lente, stockant l’eau de fonte des neiges et alimentant les cours d’eau tout au long de l’été. Et contrairement aux wombats, aux kangourous et à d’autres espèces indigènes, les chevaux sauvages se déplacent en file indienne, traçant de profonds sentiers qui quadrillent les prairies alpines et les assèchent.
Ces transformations affectent l’ensemble de l’écosystème. Les scinques alpins, les rats à dents larges, les grenouilles corroboree, les phalangers pygmées des montagnes et les poissons indigènes dépendent tous d’une végétation dense, de tapis de mousse intacts ou de cours d’eau exempts de sédiments – soit précisément les éléments que les chevaux dégradent.
Les cours d’eau ont été particulièrement touchés. Les Alpes australiennes fournissent près d’un tiers des eaux de surface qui alimentent le bassin Murray-Darling (NDT : le plus vaste bassin hydrographique d’Australie), mais le piétinement des chevaux le long des cours d’eau trouble des rivières jusque-là limpides et déstabilise les apports lents et réguliers dont dépendent ces bassins versants.
Ces impacts ne se limitent pas au parc. Ces dernières années, de nombreux chevaux ont gagné des zones voisines, notamment des forêts domaniales, où leurs perturbations s’ajoutent aux effets de l’exploitation forestière commerciale et mettent en danger les visiteurs et les campeurs.
Si l’attention s’est surtout concentrée sur les effets des brumbies au Kosciuszko et, plus largement, dans les écosystèmes alpins, près d’un demi-million de chevaux sauvages affectent les paysages à l’échelle de toute l’Australie, les forêts tropicales claires et les zones semi-arides étant les plus durement touchées.
Ce que nous avons observé jusqu’à présent
Nous avons passé beaucoup de temps dans le parc au cours de l’année écoulée et avons commencé à remarquer de petits changements dans les hauts plateaux, cohérents avec ce que l’on pourrait attendre du programme de contrôle des animaux sauvages.
Nous voyons moins de chevaux lors de nos journées sur le terrain. Dans les zones régulièrement piétinées, de petites poches de végétation réapparaissent sur les surfaces dénudées. Même certaines berges, érodées de longue date, paraissent plus souples sur les bords.
Ces observations restent strictement anecdotiques et ne constituent pas des preuves formelles. Mais elles suggèrent un paysage qui commence à se « réoxygéner » à mesure que la pression diminue. Il y a aussi un aspect sécuritaire. Quiconque circule sur les routes alpines connaît la surprise, au sortir d’un virage dans les eucalyptus, de se retrouver nez à nez avec un cheval, voire un troupeau, sur le bitume. Moins de chevaux signifie moins de ces rencontres dangereuses pour les chercheurs, le personnel des parcs nationaux et les visiteurs.
Le retour progressif
Avec beaucoup moins de chevaux dans les hauts plateaux, la pression commence à diminuer. À mesure que le piétinement diminue, les tourbières et les marais devraient commencer à se régénérer et à retenir l’eau plus longtemps. Les tapis de mousse repousseront et d’autres plantes productrices de tourbe pourront s’implanter à nouveau dans des sols qui ne sont plus constamment compactés et surpâturés.
Moins de pâturage signifie également que les herbes alpines, les carex et les graminées des neiges retrouveront de l’espace pour se développer. Les sols nus vont se stabiliser, les berges des cours d’eau se rétablir et les lits des ruisseaux commencer à se dégager.
Ces améliorations se répercutent sur l’ensemble de l’écosystème : des sols plus stables et une végétation plus dense créent un habitat plus favorable aux grenouilles, aux scinques, aux petits mammifères et aux invertébrés qui dépendent d’environnements alpins frais, humides et structurés.
La récupération prendra du temps – des décennies, et non des mois. Des études empiriques à long terme seront indispensables pour suivre les changements et identifier les zones du parc où des efforts de restauration ciblés seront nécessaires pour accélérer le rétablissement.
Enfin, une vraie chance
Rien de tout cela ne se produira en un claquement de doigts. Les écosystèmes alpins se régénèrent lentement, et des décennies de dégâts ne peuvent pas être effacées du jour au lendemain. Les courtes saisons de croissance font que les plantes repoussent progressivement, et non par à-coups. De nombreuses pentes et berges de ruisseaux portent encore les cicatrices du pâturage bovin plus de 60 ans après le départ du bétail. Les perturbations perdurent ici pendant des générations.
La diminution du nombre de chevaux n’est qu’un début, mais c’est une étape essentielle. Et désormais – avec moins de chevaux sur le terrain et la suppression des barrières légales – le parc du Kosciuszko dispose enfin d’une voie réaliste vers la restauration. La prochaine décennie déterminera combien de son fragile patrimoine alpin pourra finalement être retrouvé.
David M. Watson reçoit des financements de recherche du gouvernement fédéral (via l’ARC, le DAFF, le DCCEEW) et siège aux conseils d’administration du Holbrook Landcare Network et des Great Eastern Ranges. Il a exercé deux mandats au sein du Comité scientifique des espèces menacées de la Nouvelle-Galles du Sud, avant de démissionner lorsque la Wild Horse Heritage Act est entrée en vigueur en juin 2018.
Patrick Finnerty est actuellement directeur pour les carrières émergentes en écologie à l’Ecological Society of Australia, coordinateur des jeunes chercheurs à l’Australasian Wildlife Management Society, et membre du conseil de la Royal Zoological Society of NSW. Il reçoit des financements de l’Australian Research Council.
11.01.2026 à 15:40
Cinq pistes pour éviter les clichés sur l’apprentissage et aider les élèves à progresser
Texte intégral (2351 mots)
C’est pour apprendre que les élèves se rendent chaque jour en classe. Mais savent-ils bien toujours ce que cela signifie réellement ? Les fausses croyances sur la manière dont on acquiert des connaissances sont nombreuses, et elles peuvent compliquer la tâche des enfants et des adolescents. Quelques pistes pour les aider à réajuster leurs méthodes de travail et augmenter leurs chances de réussite.
Au cours de mes années d’enseignement des sciences au collège, au lycée et à l’université, j’ai constaté que certains de mes élèves résistaient à l’exercice de ce que les pédagogues appellent la pensée de haut niveau, incluant l’analyse, la pensée créative et critique, et la résolution de problèmes.
Par exemple, lorsque je leur ai demandé de tirer des conclusions à partir de données ou de mettre au point un protocole pour tester une idée, certains élèves ont répondu : « Pourquoi ne nous dites-vous pas quoi faire ? » ou « N’est-ce pas le rôle de l’enseignant que de nous donner les bonnes réponses ? »
En d’autres termes, mes élèves avaient développé une forte idée préconçue selon laquelle le savoir provient de l’autorité. Après enquête, mes collègues et moi-même avons conclu que ces croyances sur l’apprentissage influençaient leur approche de nos cours, et donc ce qu’ils étaient capables d’apprendre.
Tous les élèves arrivent en classe avec des croyances diverses sur ce que signifie apprendre. Dans le domaine de l’éducation, la croyance la plus recherchée est peut-être ce que nous appelons avoir un état d’esprit de croissance. Les élèves ayant un état d’esprit de croissance croient qu’ils peuvent s’améliorer et continuer à apprendre. En revanche, les élèves ayant un état d’esprit fixe ont du mal à croire qu’ils peuvent approfondir leurs connaissances sur le sujet qu’ils étudient. Lorsque les élèves disent « Je suis nul en maths », ils font preuve d’un état d’esprit fixe.
À lire aussi : À l’école, ce que les élèves pensent de leur intelligence influence leurs résultats
En tant qu’enseignants, nous essayons non seulement d’aider les élèves à comprendre le sujet traité, mais nous cherchons également à leur inculquer des croyances justes sur l’apprentissage afin que rien ne vienne entraver leur capacité à assimiler de nouvelles informations.
Outre l’état d’esprit de croissance, je soutiens que cinq autres croyances sont particulièrement importantes à promouvoir dans les salles de classe afin d’aider les élèves à mieux apprendre et à mieux se préparer au monde moderne.
Apprendre, c’est comprendre
Certains élèves et enseignants assimilent l’apprentissage à la mémorisation.
Si la mémorisation joue un rôle dans l’apprentissage, l’apprentissage approfondi repose quant à lui sur la compréhension. Les élèves ont tout intérêt à reconnaître que l’apprentissage consiste à expliquer et à relier des concepts entre eux pour leur donner un sens.
Se concentrer trop sur la mémorisation peut masquer des lacunes.
Par exemple, je travaillais un jour avec un élève de maternelle qui m’a fièrement montré qu’il savait réciter les chiffres de 1 à 20. Je lui ai alors demandé de compter les crayons sur le bureau. L’élève n’a pas compris ma demande. Il n’avait pas fait le lien entre ces nouveaux mots et le concept des chiffres.
Pour aider les élèves à reconnaître l’importance de la compréhension dans l’apprentissage, les enseignants et les parents peuvent leur poser des questions telles que « Pourquoi est-il préférable de relier une nouvelle idée à une ancienne idée plutôt que d’essayer simplement de mémoriser la réponse ? » ou « Pourquoi une explication est-elle plus utile qu’une simple réponse ? »
Apprendre est un défi
La conviction des élèves selon laquelle l’apprentissage s’apparente à la mémorisation peut refléter une croyance connexe selon laquelle la connaissance est simple et l’apprentissage devrait être facile.
Au contraire, les éducateurs veulent que les élèves acceptent la complexité et les défis qu’elle comporte. En se confrontant aux nuances et à la complexité, les élèves fournissent l’effort mental nécessaire pour former et renforcer de nouvelles connexions dans leur pensée.
Lorsque les élèves pensent que les connaissances sont simples et que l’apprentissage devrait être facile, leur engagement dans la réflexion de haut niveau, nécessaire pour appréhender la complexité et les nuances, en pâtit.
Pour aider les élèves en difficulté à saisir une idée complexe, les enseignants et les parents peuvent leur poser des questions qui les aident à comprendre pourquoi l’apprentissage est complexe et nécessite des efforts.
Apprendre prend du temps
Lorsque les élèves pensent que l’apprentissage est simple et facile, les enseignants ne devraient pas s’étonner qu’ils pensent également que l’apprentissage doit être rapide.
Au contraire, les élèves doivent comprendre que l’apprentissage approfondi prend du temps. Si les élèves pensent que l’apprentissage est rapide, ils sont moins enclins à rechercher des défis, à explorer les nuances ou à réfléchir et à établir des liens entre les idées. Malheureusement, de nombreux programmes scolaires condensent tellement d’objectifs d’apprentissage en un laps de temps très court que la croyance en un apprentissage rapide est subtilement renforcée.
Si les enseignants peuvent faire preuve de créativité dans l’utilisation du matériel pédagogique et consacrer plus de temps à inciter les élèves à explorer la complexité et à établir des liens, le simple fait de passer plus de temps sur un concept peut ne pas suffire à changer les convictions des élèves en matière d’apprentissage.
Pour aider les élèves à changer leur façon de penser, je leur demande de discuter de questions telles que « Pourquoi pensez-vous que la compréhension de concepts complexes prend autant de temps ? » ou « Pourquoi une seule leçon ne suffirait-elle pas pour couvrir ce concept ? » Grâce à ces questions, mes collègues et moi avons constaté que les élèves commencent à reconnaître que l’apprentissage approfondi est lent et prend du temps.
L’apprentissage est un processus continu
Les étudiants doivent également comprendre que l’apprentissage n’a pas de fin.
Malheureusement, beaucoup d’étudiants considèrent l’apprentissage comme une destination plutôt que comme un processus continu. Or, comme la connaissance comporte un degré inhérent d’incertitude et qu’un apprentissage accru révèle souvent une complexité accrue, l’apprentissage doit être continu.
Pour aider les élèves à s’interroger sur cette conviction, les enseignants et les parents pourraient leur poser les questions suivantes : « Comment pensez-vous que vos connaissances ont évolué au fil du temps ? » et « Comment pensez-vous que votre apprentissage va évoluer à l’avenir ? »
L’apprentissage ne se fait pas uniquement auprès des enseignants
Je me souviens qu’un lycéen m’avait dit : « Les enseignants sont censés nous donner les réponses pour que nous sachions quoi écrire à l’examen. »
Cet élève avait apparemment compris les « règles du jeu » et n’était pas content lorsque son professeur essayait de l’inciter à réfléchir de manière plus approfondie. Il s’accrochait à un modèle d’apprentissage par transmission, reposant sur des figures d’autorité.
Au contraire, les élèves doivent comprendre que l’apprentissage provient de nombreuses sources, notamment de leurs expériences, de leurs pairs et de leur propre réflexion, autant que de figures d’autorité.
Même si les enseignants et les parents peuvent hésiter à remettre en cause leur propre autorité, ils rendent un mauvais service aux élèves lorsqu’ils ne les préparent pas à remettre en question les figures d’autorité et à aller au-delà.
Pour aider les élèves à changer leur façon de penser, les enseignants peuvent leur demander de réfléchir à la question suivante : « Pourquoi le fait d’apprendre à partir de sources multiples peut-il vous aider à mieux comprendre la complexité et les nuances d’un concept ? »
Changer nos croyances sur l’apprentissage
Souvent, les enseignants et les parents pensent que les occasions de faire appel à un raisonnement de haut niveau suffisent à aider leurs élèves à développer de meilleures croyances concernant l’apprentissage.
Mais de telles croyances nécessitent une attention explicite et doivent être prévues dans les cours. Pour ce faire, il convient de poser des questions ciblant des croyances spécifiques, telles que celles mentionnées dans la chacune des sections précédentes.
Les conversations que j’ai pu avoir par ce biais avec les élèves étaient très intéressantes. De plus, aider les enfants à développer des croyances plus solides sur l’apprentissage est peut-être la chose la plus importante que les enseignants puissent faire pour les préparer à l’avenir.
Jerrid Kruse a reçu des financements de la National Science Foundation, du NASA Iowa Space Grant Consortium et de la William G. Stowe Foundation.
10.01.2026 à 17:25
Où vivent les plus riches ? Ce que la géographie des hauts revenus dit des fractures françaises
Texte intégral (2894 mots)
Des centres urbains, où se concentrent les hauts revenus, aux territoires périphériques, où ils disparaissent, la carte des foyers les plus aisés de France raconte une histoire singulière des inégalités. En retraçant leur répartition géographique depuis 1960, une nouvelle étude éclaire les conséquences spatiales des transformations structurelles de l’économie française, et les tensions sociales et politiques qu’elles continuent d’alimenter.
Réduire les écarts entre territoires est un objectif récurrent des politiques publiques, en France comme en Europe. L’Union européenne (UE) en a fait un principe fondateur, inscrit à l’article 174 du Traité sur le fonctionnement de l’Union européenne (TFUE) :
« Afin de promouvoir un développement harmonieux de l’ensemble de l’Union, celle-ci vise à réduire les écarts entre les niveaux de développement des diverses régions. »
Pourtant, cet objectif est aujourd’hui plus que jamais mis à l’épreuve. En France, comme ailleurs, les dernières décennies ont vu s’accentuer un sentiment de fracture territoriale : d’un côté, quelques grandes métropoles concentrent les emplois qualifiés, les sièges d’entreprises, les services de haut niveau ; de l’autre, de vastes espaces voient leurs activités industrielles décliner, leurs jeunes partir et leurs revenus stagner.
Ces déséquilibres économiques ne sont pas sans conséquence sociale ou politique, comme les dernières années l’ont montré avec force. Des ronds-points des « gilets jaunes » aux cartes électorales où se lit la progression de l’abstention ou du vote pour les partis extrêmes, la colère sociale a souvent une géographie. Là où les opportunités économiques se raréfient, les perspectives se referment, le sentiment d’injustice s’installe, et une question fondamentale émerge : que devient une société lorsque les perspectives de réussite se concentrent exclusivement dans quelques territoires ?
Un indicateur plus fin pour comprendre ces enjeux
Comprendre ces enjeux suppose d’abord de bien les mesurer. Or, les indicateurs couramment utilisés dans la littérature économique tendent à masquer la réalité des disparités territoriales. On analyse souvent le développement d’une région à l’aune du produit intérieur brut par habitant ou du revenu moyen, sans tenir compte des différences de structures sociales : ici, une forte proportion de ménages aisés et modestes ; là, une population plus homogène, composée de classes moyennes. Ainsi, la répartition des revenus constitue un élément central pour comprendre les dynamiques locales.
À lire aussi : Combien l’employeur doit-il payer pour attirer des cadres en dehors des zones urbaines ?
Dans un article à paraître dans le Journal of Economic Geography, nous avons voulu dépasser ces limites en construisant une base de données inédite retraçant la répartition des foyers fiscaux appartenant aux 10 % et aux 1 % les plus aisés dans les départements de France hexagonale depuis 1960. Ce travail, rendu possible par une collecte de longue haleine dans les archives du ministère des finances, offre pour la première fois la possibilité d’observer sur plus d’un demi-siècle la géographie des hauts revenus en France et les transformations qu’elle révèle.
À partir de ces données, nous proposons un indicateur simple mais riche de sens : la part des très hauts revenus (Top 1 %) et des hauts revenus (Top 10 % moins Top 1 %) dans la population locale. On peut interpréter ces indicateurs comme la probabilité, pour un individu, d’appartenir aux ménages aisés selon le territoire où il vit.
Cette approche offre un regard nouveau sur les fractures territoriales contemporaines. Là où les opportunités économiques s’amenuisent, les plus qualifiés, les plus ambitieux, les plus mobiles partent ailleurs, laissant derrière eux des territoires appauvris en capital humain et en perspectives. Ces départs nourrissent à leur tour un sentiment de déclassement collectif, l’impression diffuse que « le progrès se passe ailleurs ».
Les cartes de la figure 1 retracent plus de soixante ans d’histoire sociale du territoire français. Elles montrent, pour trois dates clés (1960, 1990 et 2019), la part des ménages appartenant aux très hauts revenus (à gauche) et aux hauts revenus (à droite). Si les foyers fiscaux aisés étaient répartis uniformément, ces parts seraient respectivement de 1 % et de 9 % dans tous les départements : ce sont les zones blanches sur les cartes. Dans la réalité, ce n’est pas le cas : les nuances d’orange et de rouge signalent donc une surreprésentation locale, les teintes de bleu une sous-représentation. Il faut enfin rappeler que la géographie administrative de l’Île-de-France est passée de trois départements au début des années 1960 à huit aujourd’hui.
L’importance de la ligne Caen-Annecy dans les années 1960
En 1960, la France des très hauts revenus est très largement structurée par une ligne Caen-Annecy. Au sud, la part des foyers aux très hauts revenus dans la population locale est faible, souvent moins de 0,5 % (nous l’estimons par exemple à 0,1 % en Lozère). Seules quelques zones urbaines ou industrielles (Rhône, Haute-Garonne, Isère, Haute-Savoie) se distinguent légèrement. Au nord, la présence des foyers les plus aisés s’intensifie, notamment en région parisienne, où la part atteint 2,6 % dans le département de la Seine et 1,6 % en Seine-et-Oise, ou dans le département du Nord.
Trente ans plus tard, la ligne Caen–Annecy a perdu son sens. Les départements où les très hauts revenus sont rares se concentrent près du Massif central (0,4 % en Lozère). Un second pôle où se concentrent les foyers aux très hauts revenus s’est formé à la frontière suisse (Ain, Savoie, Haute-Savoie), tandis que la Côte d’Azur, les métropoles du Sud-Ouest (Toulouse, Bordeaux) et quelques villes du centre (Dijon, Tours) gagnent en attractivité. On observe une forte polarisation en Île-de-France : les très hauts revenus sont très présents à Paris, dans les Hauts-de-Seine et dans les Yvelines, mais très peu nombreux en Seine-Saint-Denis.
Une nouvelle géographie aujourd’hui
En 2019, la rupture est manifeste. Les très hauts revenus sont absents dans la plupart des départements de la « diagonale du vide », tandis que la France des très hauts revenus se réduit à quelques pôles métropolitains (Bordeaux, Nantes, Toulouse, Marseille, Dijon, Strasbourg, Nice) qui conservent des parts proches de 1 % et à la frontière suisse où elle est de 2 % en Haute-Savoie. En Île-de-France, la polarisation atteint des sommets : la part des très hauts revenus est seulement de 0,4 % en Seine-Saint-Denis, mais de 4,5 % à Paris, 4,2 % dans les Hauts-de-Seine, et 2,8 % dans les Yvelines.
Les cartes des hauts revenus (hors Top 1 %) confirment ces dynamiques. En 1960, les foyers aisés sont déjà concentrés autour de Paris et du Rhône tandis que la Bretagne, le Sud-Ouest et le Massif central en comptent peu (moins de 3 % en Aveyron ou en Haute-Loire). En 1990, cette géographie change. La frontière suisse, la Côte d’Azur et plusieurs métropoles régionales rejoignent le groupe des départements surreprésentés. En 2019, les écarts s’accentuent encore, mais la logique reste la même : une sous-représentation persistante dans le centre du pays, et une forte surreprésentation des ménages aisés en région parisienne et près de la frontière suisse. La part de ces foyers est maximale dans les Hauts-de-Seine et dans les Yvelines, où elle atteint 18 %.
Figure 1 : Proportion des très hauts revenus et des hauts revenus dans la population locale en 1960, en 1990 et en 2019.
Notes : On définit la part des très hauts revenus comme la proportion de ménages faisant partie des 1 % de ménages aux plus hauts revenus (respectivement 10 % de ménages aux plus hauts revenus moins les 1 % aux plus hauts revenus) tels que définis en France hexagonale.
Des trajectoires divergentes depuis la fin des années 1990
Ces transformations géographiques détaillées peuvent se résumer en un indicateur unique : l’indice de Theil, couramment utilisé pour mesurer les inégalités économiques. Nous l’avons calculé pour chaque année à partir de la part des foyers appartenant aux très hauts revenus ou aux hauts revenus dans chaque département (en vert et en orange sur la figure 2), en conservant une classification départementale stable sur toute la période. Cet indicateur permet de mesurer si ces parts se sont rapprochées ou, au contraire, éloignées au fil du temps. Pour faciliter la comparaison entre les deux courbes, les valeurs ont été normalisées à 1 en 1962.
Le résultat est frappant : après quarante ans de convergence, les écarts territoriaux se sont de nouveau creusés depuis la fin des années 1990. En vingt ans, la concentration géographique des très hauts revenus a triplé, retrouvant son niveau du début de la période. C’est bien le signe d’un retour marqué des inégalités régionales, tirées par le haut de la distribution des revenus.
Figure 2 : Évolution des inégalités d’opportunités économiques régionales entre 1960 et 2019.
L’impact de la désindustrialisation
Nous avons cherché à comprendre pourquoi ces opportunités économiques régionales de faire partie des ménages aux très hauts revenus ont d’abord convergé, avant de diverger à nouveau fortement. Deux transformations majeures permettent d’en comprendre la logique.
Dans les années 1960, la présence de très hauts revenus s’expliquait avant tout par la concentration d’activités industrielles, elles-mêmes très inégalement réparties sur le territoire national au profit des régions du Nord-Est. Puis, entre 1960 et 1990, les structures productives régionales se sont progressivement rapprochées : les territoires longtemps agricoles se sont industrialisés tandis que les grandes régions manufacturières perdaient peu à peu leur avantage relatif. Ce mouvement de rééquilibrage a favorisé une réduction des différences régionales d’opportunités économiques.
À lire aussi : 12 métropoles et le désert français… ou une « métropole France » ?
Enfin, à partir des années 1990, la désindustrialisation s’est généralisée à l’ensemble du pays tout en s’accompagnant d’une montée en puissance des services à haute valeur ajoutée. Ce sont eux qui expliquent alors où se trouvent les opportunités économiques de faire partie des ménages aux très hauts revenus. Or, ces activités se trouvent majoritairement dans les grandes métropoles, où elles bénéficient de la présence d’emplois qualifiés, d’infrastructures performantes et de politiques publiques volontaristes, comme l’illustre l’écosystème scientifique et technologique développé sur le plateau de Saclay (Essonne) depuis une quinzaine d’années. On retrouve cette logique dans la région frontalière de Genève, où la concentration d’emplois hautement qualifiés dans les services financiers explique en partie la surreprésentation de ménages à très hauts revenus dans les départements de la Haute-Savoie et de l’Ain.
Une économie polarisée et des territoires « laissés pour compte »
Pour finir, nous défendons l’idée selon laquelle les inégalités territoriales ne tiendraient pas seulement à des écarts de revenus par habitant entre régions, mais à la manière dont les revenus les plus élevés se répartissent dans l’espace.
Depuis les années 2000, les opportunités économiques se concentrent dans un tout petit nombre de territoires, reflet d’une économie de plus en plus polarisée autour de quelques métropoles et de leurs bassins d’emplois qualifiés. En France, comme ailleurs, les transformations structurelles ont progressivement creusé l’écart entre des régions gagnantes, insérées dans l’économie de la connaissance, et d’autres qui peinent à en profiter.
Ce phénomène s’inscrit dans une dynamique plus large, documentée dans la littérature internationale sous le concept de left-behind places. Ces territoires « laissés pour compte » se retrouvent déconnectés des pôles de croissance et des réseaux de pouvoir économique, et expriment à intervalles réguliers le sentiment d’abandon qui les ronge. Réduire ces écarts ne relève donc pas d’un enjeu d’efficacité économique, mais d’un impératif démocratique.
Aujourd’hui, la question reste entière : comment faire en sorte que la transition vers une économie fondée sur les savoirs, les services et l’innovation ne creuse pas davantage les fractures entre territoires ? En retraçant cette histoire sur plus d’un demi-siècle, nos travaux rappellent que la géographie des hauts revenus est mouvante, et ne saurait se passer de volontarisme politique.
Hippolyte d’Albis a reçu des financements de l'ANR et de la Commission européenne.
Aurélie Sotura et Florian Bonnet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
10.01.2026 à 17:08
Maduro-Trump : la bataille pour imposer un récit légitime
Texte intégral (2140 mots)
L’arrestation de Nicolas Maduro révèle que la légitimité politique contemporaine se construit moins par le droit ou la force que par la capacité à imposer un récit et une vision du monde.
L’arrestation du président vénézuélien Nicolas Maduro à la suite d’une opération états-unienne constitue un événement géopolitique d’ampleur. Mais elle dépasse le cadre diplomatique : elle s’est immédiatement transformée en crise informationnelle.
En quelques heures, plusieurs récits concurrents ont émergé : opération de justice internationale pour certains, violation flagrante du droit international pour d’autres, coup de force impérialiste ou acte nécessaire pour libérer un peuple. Dans cet entrelacs de discours, une bataille bien plus décisive s’est ouverte : celle du récit légitime et de la construction d’un sens partagé.
Les crises contemporaines ne se jouent plus seulement dans les arènes politiques, ou militaires. Elles se construisent désormais dans l’espace de l’information, là où se forment les perceptions, les émotions collectives et, in fine, les lectures du réel. Ce que met à nu l’affaire Maduro, c’est la centralité du narratif dans la production de légitimité politique à l’échelle mondiale.
Dans ce type de crise, la question n’est pas seulement que s’est-il passé ? mais comment devons-nous comprendre ce qui s’est passé ? et surtout, qui a la légitimité pour dire la vérité des événements ?
Un événement politique devenu immédiatement un événement informationnel
Dès l’annonce de l’arrestation, trois dynamiques se mettent en place simultanément.
Tout d’abord, une production institutionnelle du sens où gouvernements, chancelleries, organisations internationales émettent des positions, chacune arrimée à un cadre de légitimation (sécurité, souveraineté, droit, ordre international).
Ensuite, les médias ne se limitent pas à nommer l’événement : ils le scénarisent. Par le choix des images, des angles et des séquences narratives, ils transforment un fait politique en récit intelligible, assignant des rôles, des responsabilités et des émotions. Cette mise en scène médiatique contribue à stabiliser temporairement un sens partagé, participant ainsi à la construction de la légitimité.
Enfin, c’est une explosion numérique où circulent simultanément informations fiables, interprétations partisanes, contenus émotionnels et désinformation. Cette couche numérique loin d’être simplement périphérique structure la manière dont une large part du monde se représente les faits.
Ainsi, ce que nous observons n’est pas seulement la confrontation d’États, mais la confrontation de récits visant à imposer une lecture dominante de la réalité. La lutte ne porte plus uniquement sur ce qui s’est passé, mais sur la manière dont il convient de l’interpréter, de l’évaluer et de l’inscrire dans une mémoire collective.
Une guerre de narratifs : trois grands cadres concurrents
Un narratif états-unien sur l’ordre, la sécurité et la légitimité morale
Le discours états-unien mobilise une stratégie classique de sécurisation, en présentant Nicolas Maduro non plus comme un chef d’État souverain, mais comme un « indicted drug trafficker » (« trafiquant de drogue inculpé ») et leader d’un « vicious terrorist organization » (« organisation terroriste violente ») – le Cartel de los Soles –, fusionnant ainsi régime politique et entreprise criminelle transnationale.
Ce déplacement symbolique joue un rôle d’ampleur en reconstruisant une opération militaro-judiciaire potentiellement illégitime au regard du droit international (capture extraterritoriale, frappes ciblées) en action de maintien de l’ordre mondial, moralement justifiable au nom de la lutte contre le narcotrafic et la menace sécuritaire pour les États-Unis.
La rhétorique mobilise trois registres : le registre pénal avec la lutte contre le crime, la corruption ou le narcotrafic, un registre éthique avec la protection des peuples et la restauration d’une justice prétendument universelle, enfin un registre sécuritaire nourrit par l’argumentaire principal de stabilisation d’une région présentée comme dangereuse.
On retrouve ici ce que les chercheurs appellent l’« agenda setting » : en choisissant les mots et les thèmes dominants du débat (crime, menace, protection), le pouvoir politique influence directement la manière dont l’opinion publique perçoit l’événement. Le politologue américain Joseph Nye, professeur en relations internationales à Harvard, définit ce soft power comme la capacité d’un État à influencer les autres, non pas seulement par la force mais en façonnant leurs préférences grâce à l’attraction, à la crédibilité et à la perception de légitimité.
Un narratif contraire sur la souveraineté, le droit, et d’alerte sur l’ordre international
En face, un contre-récit s’est immédiatement imposé. Pour de nombreux États et observateurs, cette opération constitue une atteinte grave à la souveraineté et crée un précédent dangereux pour l’ordre international. Ce discours s’appuie sur le droit international, notamment l’article 2 (4) de la Charte des Nations unies, qui interdit le recours à la force contre l’intégrité territoriale ou l’indépendance d’un État. Il dénonce une action unilatérale qui contourne les règles collectives et menace l’équilibre du système multilatéral.
Ce narratif ne vise pas tant à défendre Maduro qu’à défendre l’idée qu’un monde où un État peut arrêter un autre chef d’État selon ses propres critères serait profondément instable.
Il relève d’une rhétorique d’alerte : ce qui se produit au Venezuela pourrait devenir une norme globale, avec des échos immédiats dans d’autres débats sensibles – comme celui concernant des dirigeants tels que le président Poutine déjà visés par des procédures internationales.
Le narratif numérique par l’émotion, la polarisation et la fabrication du doute
Un troisième narratif se déploie sur les réseaux sociaux selon des logiques d’amplifications émotionnelles (diffusion d’images générées par IA montrant Maduro en pyjama et fausses informations visant son prédécesseur Hugo Chavez), de circulation accélérée et de simplification extrême. Il en résulte une fragmentation cognitive qui produit des réalités parallèles.
Les sciences de l’information et de la communication montrent que, à l’ère numérique, l’enjeu dépasse la seule désinformation. Il s’agit d’une concurrence des régimes de vérité où ne prime plus uniquement ce qui est vrai, mais ce qui est crédible, ce qui raisonne émotionnellement et ce qui s’aligne avec une vision préexistante du monde.
La construction d’un récit politique n’est jamais improvisée. Elle repose sur quelques mécanismes clés :
saturer l’espace public pour imposer un récit dominant ;
choisir les mots qui cadrent l’événement et orientent sa lecture ;
moraliser le discours en opposant « bien » et « mal » ;
aligner communication et gestes symboliques pour renforcer la crédibilité ;
exploiter l’économie de l’attention propre aux plateformes numériques.
L’objectif n’est pas seulement d’informer mais de rendre une lecture du réel évidente et acceptable pour le plus grand nombre.
Ce que révèle cet événement
Trois enseignements majeurs se dégagent. Premièrement, l’effritement des cadres de référence communs. Le monde n’interprète plus les événements à partir d’un socle partagé. Les publics, les États et les institutions lisent la réalité selon des référentiels distincts. Ce qui renforce la conflictualité informationnelle.
Deuxièmement, la montée en puissance de la guerre cognitive est frappante. L’affaire Maduro illustre l’information warfare, c’est-à-dire l’usage stratégique de l’information pour influencer perceptions et décisions. Dans ce cadre, l’essor de l’IA agentique, fondée sur des systèmes d’IA autonomes et adaptatifs (par le biais d’agents), permet de produire et d’ajuster des narratifs ciblés à grande échelle. Combinées à la messagerie personnalisée, ces techniques orientent comportements et alliances, sans confrontation militaire directe. La bataille se joue désormais dans l’espace cognitif plus que sur le terrain physique.
Pour terminer, la centralité stratégique du narratif est construite. Aujourd’hui, gouverner, c’est raconter, c’est produire un récit qui donne sens, qui justifie, légitime et inscrit l’action politique dans une cohérence. Les États qui ne maîtrisent pas cette dimension sont désormais structurellement désavantagés.
L’arrestation du président Nicolas Maduro ouvre un débat juridique et politique immense. Mais elle montre surtout une transformation profonde de nos sociétés ; la légitimité ne repose plus seulement sur les normes ou la force. Elle se fabrique dans la capacité à imposer une vision du réel.
À l’heure où la confiance dans les institutions recule, où la circulation de l’information s’accélère et où les arènes numériques fragmentent nos représentations, la question centrale devient : qui raconte le monde ? Et surtout, quelles histoires sommes-nous prêts à croire ?
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
10.01.2026 à 09:35
Malbouffe et désertification – quelles recettes pour repenser l’attractivité des centres-villes ?
Texte intégral (1688 mots)
Les enseignes de restauration rapide sont-elles la cause ou la conséquence de la désertification de certains centres-villes ? Comment expliquer ce phénomène ? Faut-il lutter contre ? Et comment s’y prendre ?
Nice-Matin rappelait dans son édition du 9 octobre 2025 que la France rurale voyait disparaître ses commerces alimentaires à un rythme alarmant. Ce sont près de 62 % des communes qui ne disposeraient d’aucune boulangerie, épicerie ni de bar. En 1980, on n’en dénombrait que 25 % dans la même situation. En quarante ans, ce phénomène a plus que doublé, illustrant la désertification progressive des campagnes françaises. Dans le même temps, la grande majorité des villes a vu le tissu de commerces de proximité évoluer drastiquement.
Le Parisien (2021) rapportait par exemple qu’à La Courneuve (Seine-Saint-Denis), on comptait 18 fast-food pour 12 pharmacies. À l’inverse, à Neuilly-sur-Seine (Hauts-de-Seine), on recense 18 pharmacies, six fast food ou sandwicheries auxquels s’ajoutent plusieurs bars à salade « premium ». Dans des villes de moindre taille, hors d’Île-de-France, l’équation se vérifie aussi. À Annonay (Ardèche), l’une des communes les plus touchées par la désertification commerciale, on recense aujourd’hui 13 enseignes de tacos, kebabs, burgers et pizzas à emporter, pour sept pharmacies, soit pratiquement le double. Même population, région différente : à Vire (Calvados), ce sont cinq enseignes pour sept pharmacies.
La comparaison entre le nombre de lieux de restauration rapide et le nombre de pharmacie permet de mieux appréhender l’âge moyen d’une population. En effet, plus la population est vieillissante, moins elle serait portée vers des offres comme le fast-food.
À lire aussi : Redynamiser les centres-villes par le commerce, c’est possible !
Des liens entre malbouffe et désertification
Certains travaux en urbanisme et en santé publique indiquent ainsi qu’il existe des liens indirects (mais réels) entre l’implantation d’enseignes de malbouffe (fast-food), la désertification des centres-villes (fermeture de commerces, baisse de diversité commerciale, L’aggravation des risques de santé et l’attractivité – ou le manque d’attractivité – pour certaines nouvelles populations. De façon synthétique, ces études montrent :
qu’il existe une association robuste entre l’exposition à la restauration rapide et des comportements alimentaires pouvant amener à de l’obésité …
qu’une surreprésentation des enseignes de malbouffe dans certains quartiers fragilisés est identifiée ;
que l’augmentation de la vacance commerciale va de pair avec une moindre diversité d’offre (plus d’enseignes standardisées, moins de commerces indépendants), contribuant à une image de dévitalisation.
Pouvoir capter facilement les flux
Pour comprendre ces mouvements, il faut mentionner que les enseignes de restauration rapide s’installent généralement dans des contextes précis, comme le suggère un travail en cours que nous menons avec la Métropole Rouen Normandie. On parle notamment de villes (ou des centres-villes) où les loyers sont abordables et où de nombreux espaces vacants existent (centres-villes en déclin ou friches commerciales). Ensuite, elles cherchent des lieux où les flux de passage sont faciles à capter, et ce même si le tissu commercial traditionnel faiblit. Enfin, elles s’épanouissent dans des contextes avec une faible concurrence locale, les commerces indépendants fermant. On peut donc voir dans leur présence comme un symptôme de la fragilisation commerciale, même s’ils n’en sont peut-être pas la cause principale.
Ensuite, il faut comprendre le phénomène de désertification. Rappelons tout d’abord qu’il n’a, malheureusement, rien de nouveau. La loi du 18 juin 2014 relative à l’artisanat, au commerce et aux très petites entreprises, se voulait un dispositif pour contrer ce phénomène. L’enveloppe d’un million d’euros débloquée l’année suivante pour financer les stratégies de développement urbain a bien montré son insuffisance. Les principaux acteurs se renvoyant la responsabilité de cette désertification.
Moins de diversité commerciale
Cette désertification se manifeste donc principalement par la fermeture de commerces indépendants. Ces fermetures entraînant naturellement une baisse de diversité dans l’offre (alimentaire, services, équipements…) qui va accélérer la disparition d’espaces de sociabilité.
Les principales causes de ces phénomènes sont connues. Elles ont été encore mises en avant dans le « Rapport de la mission sur l’avenir du commerce de proximité dans les centres-villes et les quartiers prioritaires de la politique de la ville » d’octobre 2025 :
Tout d’abord la croissance des zones commerciales périphériques. De plus en plus nombreuses et censées attirer plus de monde, elles ont l’effet inverse du point de vue de l’attractivité des consommateurs dans les centres-villes. Certes, ils vont consommer plus, mais en dehors des zones où les commerçants-artisans se trouvent.
Deuxièmement, les mairies se tournent vers d’autres modèles en transformant les locaux en logements ou bureaux.
Enfin, la montée constante de l’e-commerce. Autant il peut être un moteur de changement positif (les études du cercap.fr notamment montrent l’impact fort de la numérisation sur la performance et pérennité des commerçants-artisans), autant il agit aussi comme un concurrent important des commerces traditionnels.
Un cercle vicieux ?
Dans ce contexte, les chaînes de fast-food prospèrent car elles ont des modèles économiques standardisés et très résilients, capables d’absorber des fluctuations de clientèle. Ceci explique donc à terme leur plus grande présence dans les centres-villes. Et cette surreprésentation a un lien naturel sur l’attractivité.
En effet, l’image d’un centre-ville saturé de fast-food peut avoir un réel effet négatif pour certaines populations. Les classes moyennes et supérieures recherchent souvent dans leur centre-ville une offre locale, des circuits courts, des cafés indépendants, voire un marché alimentaire de qualité. Un centre-ville dominé par des franchises de fast-food peut ainsi être perçu comme peu authentique, peu qualitatif, ou en déclin.
Qui vit là ?
Mais il se peut aussi que l’effet soit plus neutre, voire positif pour d’autres publics. De manière un peu simplifiée, les étudiants, les jeunes actifs à faible revenu ou les populations précaires y voient eux des prix abordables, des horaires d’ouverture larges et une offre alimentaire à bas coût. Le fast-food peut donc contribuer à attirer ou stabiliser ces populations. En ce sens, l’impact sur l’attractivité dépend fortement du profil socio-économique des habitants potentiels d’une ville ou d’un centre-ville.
Autrement dit, les fast-food ne sont pas généralement la cause originelle de la désertification, mais ils s’y insèrent, y prospèrent, et peuvent amplifier ses effets. Ainsi, un cercle vicieux, observé dans de nombreuses villes moyennes, peut-être présenté :
les commerces traditionnels partent ou ferment,
la diversité diminue, ce qui génère une perte d’attrait du centre-ville,
les enseignes plus standardisées s’installent,
le centre-ville voit son image détériorée,
l’attractivité des ménages plus aisés se réduit,
le déclin commercial se poursuit.
Loin d’être l’unique cause du phénomène, l’installation de fast-food constitue un marqueur et parfois un accélérateur de cette dynamique.
Nouvelle dynamique
En tant que chercheurs, il est important d’étudier s’il est possible de changer la donne et de créer une nouvelle dynamique. Une approche plus vertueuse pourrait ainsi voir le jour en commençant par exemple à repenser la circulation des centres-villes en y redonnant une place principale aux piétons. Une approche hybride avec une augmentation de l’offre de stationnements en périphérie et une piétonnisation de l’hyper centre-ville paraît intéressante.
Ensuite, réinvestir sur les marchés alimentaires comme premier vecteur d’attractivité. De plus, relancer un soutien clair aux commerces indépendants (qui ne peuvent profiter de la force des réseaux des franchisés) est essentiel. Enfin, il est possible d’imaginer la mise en place d’une vraie politique de régulation de l’occupation commerciale, où les fast-foods deviennent simplement une composante parmi d’autres et ne nuisent plus à l’attractivité de l’ensemble.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
09.01.2026 à 16:49
Le raid de Donald Trump sur le Venezuela laisse présager un nouveau partage du monde entre les grandes puissances
Texte intégral (2166 mots)

Donald Trump a célébré la nouvelle année en marquant son territoire et en ouvrant la porte à un nouveau partage du monde entre Washington, Moscou et Pékin. L’Europe, tétanisée, prend acte par son silence approbateur de la mort du droit international.
Donald Trump et les hauts responsables de son administration ont salué l’opération « Détermination absolue » – le raid sur Caracas et la capture et l’enlèvement du président vénézuélien Nicolas Maduro, le 3 janvier 2026 – comme un succès militaire exceptionnel. On peut tout aussi aisément affirmer qu’il s’agit d’une violation flagrante et éhontée du droit international, qui marque une nouvelle érosion de ce qui reste de l’ordre international.
Mais la tentation pour la Maison Blanche est désormais de crier victoire et de passer rapidement à d’autres cibles, alors que le monde est encore sous le choc de l’audace dont a fait preuve le président américain en kidnappant un dirigeant étranger en exercice. Les populations et les dirigeants de Cuba (depuis longtemps une obsession pour le secrétaire d’État de Trump Marco Rubio), de Colombie (le plus grand fournisseur de cocaïne des États-Unis) et du Mexique (la principale voie d’entrée du fentanyl aux États-Unis) ont des raisons de s’inquiéter sérieusement pour leur avenir dans un monde trumpien.
Il en va de même pour les Groenlandais, en particulier à la lumière des commentaires de Trump ce week-end selon lesquels les États-Unis « ont besoin du Groenland du point de vue de leur sécurité nationale ». Sans parler du tweet alarmant de Katie Miller, influente membre du mouvement MAGA et épouse de Stephen Miller, l’influent chef de cabinet adjoint de Trump, montrant une carte du Groenland aux couleurs du drapeau américain.
Et ce n’est pas la réaction timide de la plupart des responsables européens qui freinera le président américain dans son élan. Celle-ci est extrêmement déconcertante, car elle révèle que les plus ardents défenseurs du droit international semblent avoir renoncé à prétendre qu’il a encore de l’importance.
La cheffe de la politique étrangère de l’Union européenne (UE), Kaja Kallas a été la première à réagir, avec un message qui commençait par souligner le manque de légitimité de Maduro en tant que président et se terminait par l’expression de sa préoccupation pour les citoyens européens au Venezuela. Elle a du bout des lèvres réussi à ajouter que « les principes du droit international et de la charte des Nations unies doivent être respectés ». Cette dernière partie apparaissait comme une réflexion après coup, ce qui était probablement le cas.
La déclaration commune ultérieure de 26 États membres de l’UE (soit tous les États membres sauf la Hongrie) était tout aussi équivoque et ne condamnait pas explicitement la violation du droit international par Washington.
Le premier ministre britannique Keir Starmer a pour sa part axé sa déclaration sur le fait que « le Royaume-Uni soutient depuis longtemps une transition au Venezuela », qu’il « considère Maduro comme un président illégitime » et qu’il « ne versera pas de larmes sur la fin de son régime ». Avant de conclure en exprimant son souhait d’une « transition sûre et pacifique vers un gouvernement légitime qui reflète la volonté du peuple vénézuélien », l’ancien avocat spécialisé dans les droits humains a brièvement réitéré son « soutien au droit international ».
Le chancelier allemand Friedrich Merz remporte toutefois la palme. Tout en faisant des commentaires similaires sur le défaut de légitimité de Maduro et l’importance d’une transition au Venezuela, il a finalement souligné que l’évaluation juridique de l’opération américaine était complexe et que l’Allemagne « prendrait son temps » pour le faire.
Le point de vue de Moscou et Pékin
Alors que l’Amérique latine était partagée entre enthousiasme et inquiétude, les condamnations les plus virulentes sont venues de Moscou et de Pékin.
Le président russe Vladimir Poutine avait manifesté son soutien à Maduro dès le début du mois de décembre. Dans une déclaration publiée le 3 janvier, le ministère russe des affaires étrangères se contentait initialement d’apporter son soutien aux efforts visant à résoudre la crise « par le dialogue ». Dans des communiqués de presse ultérieurs, la Russie a adopté une position plus ferme, exigeant que Washington « libère le président légitimement élu d’un pays souverain ainsi que son épouse ».
La Chine a également exprimé son inquiétude quant à l’opération américaine, la qualifiant de « violation flagrante du droit international ». Un porte-parole du ministère des affaires étrangères a exhorté Washington à « garantir la sécurité personnelle du président Nicolas Maduro et de son épouse, à les libérer immédiatement, à cesser de renverser le gouvernement du Venezuela et à résoudre les problèmes par le dialogue et la négociation ».
La position de Moscou, en particulier, est bien sûr profondément hypocrite. Certes condamner l’opération américaine comme étant une « violation inacceptable de la souveraineté d’un État indépendant » est peut-être justifié. Mais cela n’est guère crédible au vu de la guerre que Moscou mène depuis dix ans contre l’Ukraine, qui s’est traduite par l’occupation illégale et l’annexion de près de 20 % du territoire ukrainien.
La Chine, quant à elle, peut désormais avoir le beurre et l’argent du beurre à Taïwan, qui, contrairement au Venezuela, n’est pas largement reconnu comme un État souverain et indépendant. Le changement de régime apparaissant de nouveau à l’ordre du jour international comme une entreprise politique légitime, il ne reste plus grand-chose, du point de vue de Pékin, qui pourrait s’opposer à la réunification, si nécessaire par la force.
Les actions de Trump contre le Venezuela n’ont peut-être pas accéléré les plans chinois de réunification par la force, mais elles n’ont guère contribué à les dissuader. Cet épisode va probablement encourager la Chine à montrer plus d’assurance en mer de Chine méridionale.
Le partage du monde
Tout cela laisse présager un nouveau glissement progressif des intérêts des grandes puissances américaine, chinoise et russe, qui souhaitent disposer de sphères d’influence dans lesquelles elles peuvent agir à leur guise. Car si la Chine et la Russie ne peuvent pas faire grand-chose pour leur allié Maduro, désormais destitué, c’est aussi parce qu’il n’existe aucun moyen simple de délimiter où commence une sphère d’influence et où finit une autre.
La perspective d’un partage du monde entre Washington, Moscou et Pékin explique aussi l’absence d’indignation européenne face à l’opération menée par Trump contre le Venezuela. Elle témoigne de sa prise de conscience que l’ère de l’ordre international libre et démocratique est bel et bien révolue. L’Europe n’est pas en position d’adopter une posture qui lui ferait risquer d’être abandonnée par Trump et assignée à la sphère d’influence de Poutine.
Au contraire, les dirigeants européens feront tout leur possible pour passer sous silence leurs divergences avec les États-Unis et tenteront de tirer parti d’une remarque presque anodine faite par Trump à la fin de sa conférence de presse samedi 3 janvier, selon laquelle il n’est « pas fan » de Poutine.
Ce qui importe désormais pour l’Europe, ce ne sont plus les subtilités des règles internationales. Il s’agit dorénavant de garder les États-Unis et leur président imprévisible de son côté, dans l’espoir de pouvoir défendre l’Ukraine et de dissuader la Russie de commettre de nouvelles agressions.
Ces efforts pour accommoder le président américain ne fonctionneront que dans une certaine mesure. La décision de Trump de réaffirmer son ambition d’annexer le Groenland, dont il convoite les vastes ressources minérales essentielles, s’inscrit dans sa vision d’une domination absolue dans l’hémisphère occidental.
Cette renaissance de la doctrine Monroe vieille de deux siècles (rebaptisée par Trump « doctrine Donroe ») a été exposée dans la nouvelle stratégie de sécurité nationale américaine en décembre 2025. Elle ne s’arrête clairement pas au changement de régime au Venezuela.
La stratégie vise à « rétablir les conditions d’une stabilité stratégique sur le continent eurasien » ou à « atténuer le risque de conflit entre la Russie et les États européens ». Mais déstabiliser davantage l’alliance transatlantique en menaçant l’intégrité territoriale du Danemark au sujet du Groenland et en abandonnant peut-être l’Europe et l’Ukraine aux desseins impériaux du Kremlin risque d’avoir l’effet inverse.
De même, si l’incursion au Venezuela encourage les revendications territoriales chinoises en mer de Chine méridionale et éventuellement une action contre Taïwan, elle ne permettra guère d’atteindre l’objectif américain, énoncé dans la stratégie de sécurité nationale, qui consiste à prévenir une confrontation militaire avec son rival géopolitique le plus important.
À l’instar des autres tentatives de changement de régime menées par les États-Unis depuis la fin de la guerre froide, l’action américaine au Venezuela risque d’être une initiative qui isolera le pays et se retournera contre lui. Elle marque le retour de la loi de la jungle, pour laquelle les États-Unis, et une grande partie du reste du monde, finiront par payer un lourd tribut.
La traduction en français de cet article a été assurée par le site Justice Info.
Stefan Wolff a bénéficié par le passé de subventions du Conseil britannique de recherche sur l'environnement naturel, de l'Institut américain pour la paix, du Conseil britannique de recherche économique et sociale, de la British Academy, du programme « Science pour la paix » de l'OTAN, des programmes-cadres 6 et 7 et Horizon 2020 de l'UE, ainsi que du programme Jean Monnet de l'UE. Il est administrateur et trésorier honoraire de la Political Studies Association du Royaume-Uni et chercheur principal au Foreign Policy Centre de Londres.
09.01.2026 à 16:45
Manger sain et durable avec la règle des 4V
Texte intégral (3094 mots)
Manger végétal, vrai et varié et consommer plus de produits issus d’une agriculture régénérant le vivant. Ces quatre objectifs permettent de concilier une alimentation bénéfique pour notre santé comme pour celle des écosystèmes.
Faire ses courses ressemble souvent à un casse-tête. On souhaiterait trouver des produits bon pour la santé, si possible ne venant pas du bout du monde, pas ultratransformés ni cultivés avec force pesticides et engrais chimiques, tout en étant à un prix abordable.
Mais ces enjeux peuvent parfois entrer en contradiction : des produits considérés comme sains ne sont pas toujours issus d’une agriculture de qualité, et inversement. En outre, de bons produits pour la santé et l’environnement ne permettent pas nécessairement d’avoir un régime alimentaire équilibré.
Alors comment sortir de ces dilemmes et aiguiller le consommateur ?
Nous proposons la règle simple des 4V, qui tient compte des modes de production agricoles et de la composition de l’assiette en invitant à une alimentation vraie, végétale, variée et régénérant le vivant.
La règle des 4V
Manger vrai permet de fait de réduire le risque de nombreuses maladies chroniques (obésité, cancers, diabète de type 2, dépression, maladies cardiovasculaires…). Par précaution, cela consiste à limiter les aliments ultratransformés à 10-15 % des apports caloriques quotidiens, au lieu de 34 % actuellement en moyenne ; soit déjà les diviser par deux au minimum.
Manger plus végétal est également meilleur pour la santé. Cela permet aussi une réduction importante de plusieurs impacts environnementaux : réduction de l’empreinte carbone de notre alimentation, car moins d’émissions de gaz à effet de serre (GES) en agriculture ; moindre consommation de ressources (terres, énergie, eau).
Réduire la production et la consommation de produits animaux permet aussi d’abaisser les émissions d’azote réactif qui polluent l’air, les sols et les nappes phréatiques et produisent du protoxyde d’azote (N₂O), un puissant gaz à effet de serre. Ce deuxième V permet ainsi de diviser par deux les émissions de GES et d’azote dans l’environnement.
Outre la réduction de notre consommation de protéines qui excède en moyenne de 40 % les recommandations, il est proposé de ramener la part des protéines animales à moins de 50 % de l’apport protéique, au lieu de 65 % actuellement. Au final, cela revient à diviser par deux la consommation de viande et un peu celle des produits laitiers, notamment le fromage. L’augmentation de la consommation de protéines végétales provient alors surtout des légumineuses. La végétalisation de l’assiette passe aussi par une consommation accrue de fruits et de légumes peu transformés, de céréales complètes et de fruits à coque.
À lire aussi : Les légumineuses : bonnes pour notre santé et celle de la planète
Manger varié est un atout pour la santé, notamment pour l’équilibre nutritionnel afin d’éviter les déficiences. Cela suppose de diversifier fruits, légumes, céréales complètes, légumineuses et fruits à coque qui sont une source importante de fibres, minéraux, vitamines, oligo-éléments, anti-oxydants et autres phytonutriments bioactifs protecteurs.
Pour cela, il faudrait idéalement consommer de tous les groupes d’aliments tout en variant dans chaque groupe : par exemple, blé, maïs et riz complets pour les céréales. Manger les différents morceaux de viande – en particulier des bovins (par exemple des entrecôtes et pas seulement du steak haché) – est aussi important pour ne pas déstabiliser les filières.
Manger des produits issus d’une agriculture régénérant le vivant permet d’améliorer la densité nutritionnelle des aliments, de réduire l’empreinte environnementale de l’assiette, notamment pour les émissions de GES et d’azote, et aussi d’augmenter les services fournis à la société (séquestration de carbone, épuration de l’eau…).
La regénération du vivant désigne l’ensemble des actions visant à restaurer ou renouveler la fertilité des sols, les cycles de l’eau et de l’azote, la diversité des espèces et la résilience face aux changements climatiques, tout en consommant avec parcimonie les ressources non renouvelables (le gaz qui sert à fabriquer les engrais, le phosphore…). Ainsi, au-delà de la production de nourriture, l’agriculture régénératrice vise à fournir des services à la société, tels que la séquestration du carbone dans les sols, l’augmentation de la densité nutritionnelle des produits.
Manger des produits issus d’une agriculture régénérant le vivant consisterait par exemple à choisir 50 % de produits ayant un bon score environnemental alors que les modes de production contribuant à la régénération du vivant ne dépassent pas 25 % de l’offre.
Types d’agriculture contribuant à la régénération du vivant
L’agriculture conventionnelle, qui vise l’intensification durable en utilisant les technologies pour réduire ses impacts, ne peut cependant pas régénérer le vivant, car elle porte toujours sur des systèmes simplifiés avec un nombre limité de cultures, des sols souvent pauvres en matières organiques, peu d’infrastructures écologiques et de très grandes parcelles.
Cependant, caractériser les modes de culture et d’élevage pour leurs impacts négatifs, mais aussi pour les services qu’ils rendent (séquestration du carbone, densité nutritionnelle des produits) permet d’aller au-delà de la dichotomie usuelle bio/conventionnel.
Les pratiques associées à la régénération du vivant reposent sur la diversification des cultures et des modes d’alimentation des animaux. Elles permettraient de réduire les émissions de GES de 15 % environ, et aussi de séquestrer entre 15 et 20 % des émissions de GES de l’agriculture. Elles permettraient aussi de réduire de moitié insecticides et fongicides. En revanche, une réduction forte de l’utilisation des herbicides est plus difficile et nécessite de combiner plusieurs mesures sans forcément exclure un travail du sol occasionnel.
L’élevage est critiqué, car il introduit une compétition entre feed (nourrir les animaux) et food (nourrir les humains). Cette compétition est bien plus faible pour les vaches, qui mangent de l’herbe, que pour les porcs et les volailles, qui sont nourris avec des graines. Elle est aussi d’autant plus faible que les élevages sont autonomes pour l’énergie et les protéines. Des exemples d’élevage contribuant à la régénération du vivant sont les élevages herbagers et biologiques, dont l’alimentation provient surtout des prairies, ainsi que les élevages Bleu Blanc Cœur pour lesquels l’ajout de lin, graine riche en oméga-3, dans la ration des animaux, a des effets positifs sur leur santé, la nôtre et la planète puisqu’il y a une réduction des émissions de GES en comparaison à des élevages courants.
Il s’agit d’agricultures agroécologiques, telles que l’agriculture biologique, l’agriculture de conservation des sols, s’il y a une réduction effective des pesticides, voire l’agroforesterie.
À lire aussi : Les sept familles de l’agriculture durable
Des initiatives sont en cours pour évaluer l’impact environnemental des produits agricoles et alimentaires. Elles permettent de qualifier les modes de culture et d’élevage en termes d’impacts sur le climat, la biodiversité, en mobilisant la base de données Agribalyse. Elles tiennent compte aussi des services fournis comme la séquestration du carbone, la contribution à la pollinisation des cultures, comme le montre la recherche scientifique.
À ce jour, deux initiatives diffèrent par la manière de prendre en compte les services et de quantifier les impacts. La méthode à retenir dépendra de leur validation scientifique et opérationnelle.
Des bienfaits conjugués
Suivre ces 4V permet de pallier les failles de notre système alimentaire tant pour la santé que pour l’environnement. L’alimentation de type occidental est de fait un facteur de risque important pour le développement de la plupart des maladies chroniques non transmissibles. Les facteurs qui en sont à l’origine sont nombreux : excès de consommation d’aliments ultratransformés, de viandes transformées, de gras/sel/sucres ajoutés, de glucides rapides, manque de fibres, d’oméga-3, d’anti-oxydants, et une exposition trop importante aux résidus de pesticides. Ces maladies sont en augmentation dans de nombreux pays, y compris en France.
Par ailleurs, les modes de production en agriculture sont très dépendants des intrants de synthèse (énergie, engrais, pesticides) dont les excès dégradent la qualité des sols, de l’eau, de l’air, la biodiversité ainsi que la densité nutritionnelle en certains micronutriments.
Nous sommes parvenus à un point où nos modes d’alimentation ainsi que les modes de production agricole qui leur sont associés génèrent des coûts cachés estimés à 170 milliards d’euros pour la France. La nécessité de refonder notre système alimentaire est maintenant reconnue par les politiques publiques.
Un cercle vertueux bon pour la santé et l’environnement
Manger varié encourage la diversification des cultures et le soutien aux filières correspondantes. Il en est de même pour manger vrai, car les industriels qui fabriquent des aliments ultratransformés n’ont pas besoin d’une diversité de cultures dans un territoire. Dit autrement, moins on mange vrai, moins on stimule l’agriculture contribuant à régénérer le vivant. Manger varié est également meilleur pour la santé mais aussi pour le vivant.
Par ailleurs, les pratiques agricoles régénératives permettent généralement d’avoir des produits de plus grande densité nutritionnelle. Même si le mode de production de l’agriculture biologique émet souvent plus de GES par kilo de produit que le mode conventionnel, il suffit de consommer un peu moins de viande pour compenser cet effet.
La règle des 4V (Figure 2) permet donc d’embarquer tous les acteurs du système alimentaire, du champ à l’assiette, ainsi que les acteurs de la santé. Ainsi, adhérer simultanément à vrai, végétal, varié a récemment été associé à une réduction de 27 % du risque de cancer colorectal.
Quant au concept de régénération du vivant, il demeure parlant pour tous les maillons de la chaîne. Vivant, varié et végétal s’adressent aux agriculteurs ; vrai concerne les transformateurs et, in fine, le distributeur qui peut offrir ou non du 4V aux consommateurs. Cette règle des 4V permet ainsi de sensibiliser les acteurs du système alimentaire et les consommateurs aux facteurs à l’origine des coûts cachés de l’alimentation, tant pour la santé que l’environnement.
Enfin, un tel indicateur qualitatif et holistique est facile d’appropriation par le plus grand nombre, notamment les consommateurs, tout en constituant un outil d’éducation et de sensibilisation au concept « Une seule santé » pour l’alimentation, comblant le fossé entre sachants et non-sachants.
Anthony Fardet est membre des comités scientifiques/experts de MiamNutrition, The Regenerative Society Foundation, Centre européen d'excellence ERASME Jean Monnet pour la durabilité, Projet Alimentaire Territorial Grand Clermont-PNR Livradois Forez et l'Association Alimentation Durable. Il a été membre du comité scientifique de Siga entre 2017 et 2022.
Michel Duru est membre du conseil scientifique de PADV (Pour une Agriculture Du Vivant)
09.01.2026 à 11:41
« Cloud Dancer » : la couleur Pantone de l’année révèle les risques d’une esthétique du retrait
Texte intégral (2247 mots)

En désignant « Cloud Dancer » comme couleur de l’année 2026, le Pantone Color Institute consacre une nuance de blanc présentée comme aérienne, apaisante et propice à la concentration. Mais que révèle vraiment ce choix sur notre époque, au-delà du discours marketé ?
Depuis 2000, Le Pantone Color Institute fait la pluie et le beau temps dans le monde de la mode et du design en déclarant chaque année quelle couleur est « tendance ». Le discours officiel de la marque inscrit la couleur de 2026, « Cloud Dancer » dans un récit de transition collective : nous vivrions dans un monde saturé d’images et d’informations, épuisé émotionnellement, en quête de simplicité, de clarté et de reconnexion. Face à une « cacophonie » globale, « Cloud Dancer » représenterait une pause, un retrait, un silence visuel permettant de respirer.
Ce récit, en apparence consensuel, mérite pourtant d’être interrogé, car le blanc n’est jamais une absence de sens : il est historiquement, culturellement et politiquement chargé.
« Cloud Dancer » n’est donc pas une pause chromatique innocente, mais s’inscrit dans un régime esthétique du retrait, dans lequel l’effacement, la neutralisation et la pacification visuelle sont présentés comme des réponses souhaitables aux tensions. En érigeant le calme et le neutre en horizon désirable, Pantone ne suspend pas le monde : il requalifie des conflits politiques et sociaux en troubles sensoriels appelant des réponses individuelles et commerciales.
Chromophobie et hiérarchisation des couleurs
L’histoire occidentale de la couleur est traversée par une méfiance persistante que l’artiste britannique David Batchelor a qualifiée de « chromophobie ». Celle-ci désigne l’ensemble des discours qui dévalorisent la couleur, la reléguant au décoratif, au superficiel ou au suspect, tandis que la vérité, la profondeur et la raison seraient du côté de la forme, de la ligne ou de la structure.
Cette hiérarchisation est profondément située : historiquement, la couleur est associée au corps, aux émotions, à l’ornement et au féminin, tandis que le dessin, le noir ou le blanc sont valorisés comme rationnels, sérieux et maîtrisés. Comme l’a expliqué l’historienne de l’art Jacqueline Lichtenstein, dès le XVIIᵉ siècle, les débats artistiques opposent ainsi une peinture du dessin, jugée intellectuelle, à une peinture de la couleur, soupçonnée de séduire l’œil sans nourrir l’esprit.
Cette logique déborde largement le champ artistique pour structurer des rapports de pouvoir plus vastes : la couleur est assignée aux femmes et aux peuples racisés et colonisés, tandis que la sobriété chromatique devient un marqueur de civilisation, de maîtrise et de légitimité. La couleur fonctionne ainsi comme un opérateur de hiérarchisation sociale, où ce qui est coloré est minoré au profit d’un idéal de neutralité présenté comme universel.
Pour autant, la couleur ne disparaît pas : elle est omniprésente mais rendue invisible sur le plan critique. La chromophobie ne supprime pas la couleur mais la neutralise.
Dans ce système, le blanc occupe une position stratégique : perçu comme non-couleur alors qu’il est bien une couleur à part entière, il organise l’espace visuel tout en donnant l’illusion de la neutralité. Le présenter comme vide ou apaisant revient à masquer son rôle actif dans la production des normes visuelles et sociales.
Pantone et la fabrique industrielle du consensus visuel
C’est dans ce cadre que s’inscrit l’action de Pantone, qui n’est pas un simple observateur des tendances. Par ses nuanciers, ses rapports prospectifs et surtout sa « couleur de l’année », il fournit une infrastructure chromatique globale aux industries de la mode, du design, de l’architecture, du marketing ou de la tech. La prévision des tendances couleur constitue aujourd’hui un marché de plusieurs millions de dollars, fondé sur l’idée que la couleur serait l’expression visible de l’« esprit du temps », capable de condenser l’humeur d’une époque en une teinte.
La couleur de l’année fonctionne comme un dispositif performatif : une fois annoncée, elle est immédiatement reprise, déclinée et normalisée, et devient tendance parce qu’elle a été désignée comme telle. Or cette croyance repose sur des bases scientifiques fragiles et l’exactitude de ces prévisions est rarement évaluée. La force du système tient moins à sa capacité prédictive qu’à sa capacité à produire un consensus culturel et industriel et des effets d’influence en cascade. Les effets de cette logique ont déjà été observés avec la tendance Millennial Pink, popularisée à l’échelle mondiale après sa consécration par Pantone en 2016.
Avec « Cloud Dancer », Pantone ne met pas en avant une couleur singulière, mais le neutre lui-même comme solution esthétique. Cette promesse masque une réalité bien documentée : le neutre est déjà dominant. La prépondérance du blanc, du noir et du gris dans les objets industriels – notamment dans l’automobile – et la progression continue des tons neutres dans les objets du quotidien témoignent d’un monde déjà largement décoloré. Présenter le blanc comme réponse apaisante ne suspend donc pas le monde : cela reconduit un ordre visuel hégémonique fondé sur l’effacement.
Blanc, blanchité et pouvoir
Bien qu’il soit une couleur à part entière, le blanc est fréquemment perçu comme une absence : page vierge, mur neutre, toile disponible. Cette perception est pourtant historiquement construite : l’historien Michel Pastoureau a montré que, depuis l’Antiquité, le blanc est associé à la lumière, au sacré et à l’ordre, puis le christianisme en a renforcé la charge morale en en faisant la couleur de la pureté et de l’innocence. À l’époque moderne, ces valeurs se déplacent : le blanc devient fond, norme, évidence, présenté comme universel et rationnel.
Cette naturalisation se cristallise dans le mythe de la Grèce blanche : en interprétant comme originellement immaculées des statues dont la polychromie avait disparu, l’Europe moderne a fabriqué l’image d’une civilisation fondatrice blanche, abstraite et supérieure, opposée à des cultures perçues comme colorées ou excessives. Loin d’un simple contresens archéologique, ce récit constitue un socle idéologique durable, articulant blancheur, civilisation et légitimité.
Le blanc fonctionne ainsi comme un opérateur de hiérarchisation raciale, dans lequel la blanchité ne renvoie pas seulement à une couleur de peau, mais à un régime social et culturel qui se présente comme universel, neutre et apolitique, tout en structurant silencieusement les rapports de pouvoir fondés sur la race. En s’imposant comme norme invisible, elle définit ce qui apparaît comme pur, rationnel et légitime, et relègue la différence du côté du trouble ou de la déviance.
« Cloud Dancer » face au monde contemporain
Dans un contexte marqué par la montée des extrêmes droites à l’échelle mondiale, le choix de « Cloud Dancer » ne relève pas d’un simple bien-être visuel. Il s’inscrit dans des esthétiques contemporaines de retrait, dont les figures les plus visibles sont l’esthétique de la « clean girl » qui valorise une féminité lisse, disciplinée et faussement naturelle, et l’esthétique « quiet luxury », qui prône une richesse discrète fondée sur la neutralité et l’effacement des signes de distinction.
Dans cette perspective, « Cloud Dancer » apparaît moins comme une couleur que comme une politique visuelle du retrait. Le blanc n’y agit pas comme un fond apaisant, mais comme une norme culturelle naturalisée, historiquement liée à la blanchité : il valorise lisibilité et ordre tout en produisant une dépersonnalisation des corps et des subjectivités. Cette neutralité impose un idéal de maîtrise où les différences ne sont acceptables qu’à condition d’être discrètes et non conflictuelles.
Ce régime visuel pourrait entrer en résonance avec certaines logiques fascisantes contemporaines, non par adhésion idéologique directe, mais par affinité formelle : refus du conflit visible, idéalisation de la pureté, valorisation de l’ordre, pacification des tensions. Sans faire de Pantone un acteur politique au sens strict, l’élévation du calme et de la neutralité en valeurs esthétiques dominantes contribuerait alors, de manière diffuse, à des modes de gouvernement des conflits où la conflictualité serait atténuée, déplacée ou rendue illisible. Dans cette perspective, le calme ne s’opposerait pas nécessairement à la violence des pouvoirs fascisants, mais en constituerait l’un des régimes esthétiques possibles, en amont ou en accompagnement de formes plus explicites de contrainte.
Rose K. Bideaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.01.2026 à 17:21
Loi de finances spéciale : une entorse à la Constitution ?
Texte intégral (2006 mots)
Une nouvelle loi de finances spéciale a été adoptée par le Parlement, le 23 décembre 2025. Or ce choix politique est contestable d’un point de vue juridique. En cas de blocage dans l’examen du budget, la Constitution prévoit un recours à l’article 49-3 ou une mise en œuvre du budget par ordonnances. On ne peut appeler à la défense de l’État de droit face à des dérives autoritaires et contourner la Constitution quand il s’agit d’adopter le budget.
L’adoption du budget est un moment crucial, car elle conditionne le financement de l’action publique pour l’année suivante. Dans une démocratie représentative, il appartient en principe au Parlement d’adopter chaque année le budget, que le gouvernement est ensuite autorisé à exécuter.
En France, la Constitution encadre strictement cette procédure afin d’éviter toute paralysie de l’État. Les délais d’examen sont volontairement contraints (40 jours pour l’Assemblée nationale, 20 jours pour le Sénat) et, en cas de blocage, le gouvernement peut soit recourir à l’article 49 alinéa 3, soit mettre en œuvre le budget par ordonnances si le Parlement ne s’est pas prononcé dans un délai de 70 jours. Tout est donc fait pour éviter un « shutdown » à l’américaine, même si, formellement, ce dernier ne peut être catégoriquement exclu en cas de rejet définitif du Parlement d’une loi de finances, y compris spéciale.
Or, depuis la dissolution de 2024, une Assemblée nationale profondément divisée empêche l’adoption du budget avant le 31 décembre. Pour assurer la continuité de l’État, une loi de finances spéciale en 2024 avait déjà été adoptée, en attendant l’adoption tardive de la loi de finances en février 2025. Les mêmes causes produisant les mêmes effets, une nouvelle loi de finances spéciale a été adoptée pour 2025.
Cette solution est souvent présentée comme un mal nécessaire. La loi de finances spéciale a d’ailleurs été adoptée à l’unanimité (avec des abstentions) par l’Assemblée nationale en 2024 et en 2025. Pourtant, cette nécessité n’est pas juridique. Aucun texte juridique n’oblige le gouvernement à déposer une loi de finances spéciale. Au contraire, un respect scrupuleux de la Constitution plaiderait plutôt en faveur du recours aux ordonnances, expressément prévues pour ce type de situation. Si cette option est écartée, ce n’est donc pas pour des raisons juridiques mais pour des raisons politiques.
Derrière ce débat technique se cache une question simple : peut-on, au nom de la recherche d’un consensus politique au sein du Parlement, s’affranchir de la Constitution ?
Une loi de finances spéciale… spéciale
La Constitution prévoit qu’une loi spéciale n’est possible que si le projet de loi de finances n’a pas été déposé « en temps utile » (article 47 alinéa 4 de la Constitution).
Qu’est-ce qu’un dépôt en « temps utile » ? On peut raisonnablement avancer que le projet sera déposé en temps utile lorsqu’il laissera 70 jours au Parlement pour examiner le texte (et, éventuellement, 8 jours au juge constitutionnel pour rendre sa décision), soit le délai au bout duquel le gouvernement pourra mettre en vigueur le projet de loi de finances par ordonnances.
Depuis que le gouvernement a déposé le projet le 14 octobre 2025 à l’Assemblée, le délai de 70 jours court jusqu’au 23 décembre, auquel s’ajoutent 8 jours pour le Conseil constitutionnel, portant la date limite au 31 décembre. Ainsi, le gouvernement a déposé le projet de loi de finances en temps utile. Notons que, dans le cadre de l’examen du projet de loi de finances précédent, le délai de 70 jours avait même été atteint avant le 23 décembre.
Dès lors, les lois de finances spéciales depuis la dissolution de 2024 ne correspondent à aucune hypothèse prévue par la Constitution. Il s’agit de lois de finances sui generis, autrement dit de lois de finances spéciales… spéciales.
Un remède constitutionnel ou un pouvoir inconstitutionnel ?
Ni la Constitution ni les règles budgétaires ne prévoient formellement l’existence de ces lois de finances spéciales adoptées par le Parlement. La question est donc simple : sur quoi le gouvernement fonde-t-il sa compétence pour déposer ces textes ? L’enjeu est important : le principe même d’un État de droit repose sur la nécessité que les gouvernants exercent un pouvoir prévu par le droit, notamment par une Constitution.
La réponse tient à un précédent ancien, datant de 1979. Cette année-là, le Conseil constitutionnel avait admis, de manière exceptionnelle, une loi de finances sui generis après avoir censuré la loi de finances initiale, le 24 décembre, pour un vice de forme. L’État se retrouvait alors sans budget à quelques jours du 1er janvier. Face à cette urgence extrême, le Conseil constitutionnel avait validé une loi de finances spéciale, non prévue par les textes en vigueur, au nom d’un impératif supérieur : garantir la continuité de la vie nationale.
C’est ce précédent que le gouvernement invoque aujourd’hui, comme il l’avait déjà fait pour la loi de finances spéciale de 2024. Au regard des enjeux en présence (lever l’impôt et garantir le fonctionnement des services publics pour maintenir une vie nationale), le Conseil constitutionnel pourrait ne pas s’opposer au raisonnement du gouvernement en cas d’éventuelle saisine de l’opposition.
On notera que le précédent de 1979 était plus facilement transposable à la configuration de 2024 qu’à celle de 2025. En 2024, le renversement du gouvernement Barnier était une circonstance empêchant l’adoption du budget avant le 1er janvier.
En 2025, à la différence de 2024, il n’y a aucune circonstance exceptionnelle empêchant matériellement le Parlement de se prononcer sur le budget. La loi de finances spéciales 2025 était simplement justifiée par le probable rejet du projet de loi de finances. Le gouvernement adopte ainsi une lecture extensive du précédent jurisprudentiel de 1979 en affirmant dans l’exposé des motifs de la loi de finances spéciale 2025 qu’il lui appartient « de déposer un projet de loi spéciale lorsqu’il apparaît qu’une loi de finances ne pourra pas être promulguée avant le début du prochain exercice budgétaire »). Ce n’est pas ce que le Conseil constitutionnel a dit dans sa décision de 1979. D’un instrument exceptionnel, la loi de finances spéciale est transformée en pratique courante. Le gouvernement fragilise indiscutablement l’équilibre constitutionnel.
L’exclusion de l’ordonnance budgétaire : compromis politique et détournement de la Constitution
Cet équilibre est d’autant plus fragilisé que le gouvernement écarte une solution pourtant expressément prévue par la Constitution : le recours à l’ordonnance prévu à l’article 47 alinéa 3. Ce mécanisme, conçu dès 1958, permet au gouvernement de mettre en vigueur lui-même le projet de loi de finances si le Parlement ne s’est pas prononcé dans le délai de 70 jours. Cet outil s’inscrit pleinement dans la logique d’un parlementarisme rationalisé, qui garantit avant tout la continuité de l’action gouvernementale.
Certes, le recours à cette ordonnance est une faculté et non une obligation pour le gouvernement. En outre, la procédure est brutale à l’encontre d’un régime parlementaire dès lors qu’elle écarte le Parlement de l’adoption du budget. Pour autant, cette procédure a été prévue en 1958 précisément pour cela en présence d’un Parlement miné par des désaccords partisans. Si l’instabilité au Parlement était telle qu’elle entraînerait de manière certaine le rejet définitif de tout texte financier (y compris une loi de finances spéciale), l’ordonnance serait-elle toujours aussi décriée alors qu’elle serait le seul et unique moyen d’éviter un shutdown ?
En recourant à des lois de finances spéciales juridiquement fragiles et en écartant des ordonnances politiquement contestées mais juridiquement solides, le gouvernement fait primer le consensus politique sur l’autorité de la Constitution. Serait-ce la peur d’une crise politique en général ou celle plus particulière d’être renversé par l’Assemblée nationale en représailles d’un recours aux ordonnances ? On ne peut malheureusement exclure ces considérations opportunistes, qui contribuent à une défiance à l’égard de la vie publique.
Opportunisme ou pas, le débat sur la loi de finances spéciale ne se résume pas à une querelle de juristes. Il révèle une tension plus profonde entre les accommodements de la pratique des acteurs politiques et le respect de l’autorité de la Constitution.
Rappelons, de ce point de vue, que la Constitution est un tout. Elle garantit le respect des droits et libertés, mais encadre également le fonctionnement des pouvoirs publics et, par conséquent, les conditions d’adoption du budget. On ne peut appeler à la préservation, voire au renforcement, de l’autorité de la Constitution quand il s’agit de défendre l’État de droit face à des dérives autoritaires, et, en même temps, contourner la Constitution quand il s’agit d’adopter le budget. Derrière le vernis de la technique juridique se profile une conception alarmante que les gouvernants peuvent avoir de la Constitution.
Respecter le Parlement est une exigence démocratique. Mais affaiblir la Constitution au nom de cet objectif revient à fragiliser l’ensemble de l’édifice institutionnel. À vouloir trop éviter le choc politique, on pourrait provoquer une secousse constitutionnelle durable.
Jeremy Martinez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.01.2026 à 17:19
L’intervention des États-Unis au Venezuela au prisme du droit international
Texte intégral (1897 mots)
Bombarder un pays étranger sans mandat de l’ONU, capturer son dirigeant et proclamer qu’on va dorénavant diriger le pays en question : tout cela contrevient à de nombreuses normes du droit international détaillées dans la Charte de l’ONU et dans les Conventions de Genève.
L’Opération « Absolute Resolve » qui a impliqué le déploiement d’une force aéronavale sans précédent dans les Caraïbes depuis la crise des missiles de Cuba en 1962 illustre la détermination du président Trump à capturer le président Nicolas Maduro et son épouse, en exécution d’un mandat d’arrêt de la justice américaine pour « narco-terrorisme ». Au-delà de la méthode et des raisons invoquées pour la justifier, il s’agit d’une intervention armée sur le territoire d’un État étranger sans fondement juridique, autrement dit une agression. C’est une nouvelle manifestation d’un interventionnisme décomplexé depuis l’adoption de la Doctrine Monroe il y a deux siècles.
Celle-ci, énoncée par le président James Monroe en 1823, visait à dissuader les puissances européennes d’intervenir dans l’hémisphère occidental, considéré comme chasse gardée des États-Unis. Elle s’est traduite notamment par le soutien aux républicains mexicains pour mettre fin à l’éphémère royaume de Maximilien voulu par Napoléon III (1861-1867), ainsi que l’appui aux indépendantistes cubains au prix d’une guerre hispano-américaine (1898) à l’issue de laquelle l’île de Porto Rico a été annexée par les États-Unis et Cuba est devenue formellement indépendante.
La Doctrine Monroe version Trump (« Trump Corollary » dans la Stratégie de sécurité nationale 2025) est désormais définie comme visant à restaurer la prééminence de Washington dans son arrière-cour en s’assurant qu’aucun rival extérieur ne soit en mesure d’y déployer des forces ou de contrôler des ressources vitales dans la région. Une allusion à peine voilée à la Chine dont l’activisme économique dans la région et singulièrement au Venezuela (qui intéresse avant tout Pékin pour son pétrole) est perçu comme une menace pour cette prééminence.
Un précédent : Panama, 1989
« Absolute Resolve » ressemble par son modus operandi à l’opération « Just Cause » décidée par le président George W. Bush en 1989 pour capturer et traduire devant un tribunal américain le dirigeant du Panama, Manuel Noriega, sous la même inculpation de trafic de drogue.
L’Assemblée générale des Nations unies avait qualifié cette intervention à Panama de « violation flagrante du droit international, de l’indépendance, de la souveraineté et de l’intégrité territoriale de Panama » (Résolution 44/240 du 29 décembre 1989).
Une différence réside dans le fait que le général Manuel Noriega – un dictateur responsable d’exécutions extrajudiciaires et de tortures – fut un allié de Washington, mais qui avait fini par s’avérer encombrant. A contrario, Nicolas Maduro — qui est également considéré par de nombreux États et ONG comme un dirigeant autoritaire — incarne une gauche révolutionnaire que Washington n’a cessé de combattre depuis la guerre froide.
Une violation manifeste de la Charte des Nations unies
L’intervention armée sur le territoire vénézuélien constitue sans discussion une violation de la Charte des Nations unies. Celle-ci dispose que « les membres de l’Organisation s’abstiennent, dans leurs relations internationales, de recourir à la menace ou à l’emploi de la force, soit contre l’intégrité territoriale ou l’indépendance politique de tout État, soit de toutes autres manières incompatibles avec les buts des Nations unies » (article 2, § 4).
Les exceptions compatibles avec un recours à la force se limitent à la légitime défense ou à une action conforme à une décision du Conseil de sécurité. Dans cette circonstance, les États-Unis ne peuvent se prévaloir ni d’une action en légitime défense ni d’un mandat du Conseil de sécurité.
La Cour internationale de Justice avait relevé que le non-recours à la force relevait d’un principe essentiel et fondamental du droit international (arrêt du 27 juin 1986, qui concernait déjà une confrontation entre les États-Unis et un pays des Amériques, en l’occurrence le Nicaragua).
L’interdiction de l’emploi de la force peut être déduite d’une autre disposition de la Charte (Article 2, § 7) invitant les États à recourir au règlement pacifique des différends (chapitre 6), ce qui manifestement n’a pas été mis en œuvre ici.
Ces principes ont pour finalité de préserver la stabilité de l’ordre international et de prévenir le règne de la loi de la jungle dans les relations internationales. Or, faut-il le rappeler, dans la mesure où ils ont adhéré à la Charte des Nations unies, dont ils furent les rédacteurs en 1945, les États-Unis sont tenus d’en respecter et appliquer les dispositions.
Le « regime change » n’a pas de fondement en droit international
Le président Trump a justifié son intervention armée contre un président qu’il considère comme « illégitime » par l’accusation selon lequel Nicolas Maduro se serait livré, des années durant, au « narco-terrorisme ». La méthode utilisée, l’enlèvement d’un chef d’État en exercice, est doublement contraire au droit international : d’une part, en raison de l’immunité attachée à la fonction présidentielle (ce que semble ignorer l’application extra-territoriale de la justice américaine) ; d’autre part parce que la Charte, dans son art. 2, § 7, stipule clairement la non-ingérence dans les affaires intérieures des États.
Le principe de souveraineté n’autorise pas un État à intervenir militairement sur le territoire d’un autre État en vue d’en changer le système politique, quand bien même le régime de Nicolas Maduro s’est rendu coupable de fraude électorale et de graves violations des droits humains à l’égard de l’opposition, qui font l’objet d’une enquête conduite par la Cour pénale internationale pour crimes contre l’humanité.
Il reste que l’emploi de la force armée n’est pas la méthode la plus appropriée pour promouvoir les droits de l’homme dans un autre pays. Il existe des mécanismes internationaux compétents dans ce domaine (ONU, CPI) qui devraient pouvoir poursuivre leurs missions d’enquête sur les crimes présumés commis par au Venezuela.
Les Conventions de Genève applicables
Le droit applicable à l’intervention armée à Caracas est le droit des conflits armés encadrant la conduite des opérations militaires et la protection des biens et des personnes, même si les États-Unis nient être en guerre contre le Venezuela.
Les Conventions de Genève s’appliquent s’agissant d’un conflit armé international même si l’une des parties ne reconnaît pas l’état de guerre (art. 2 commun des Conventions).
Dès son arrestation, Nicolas Maduro peut se prévaloir de la protection de la 3ᵉ Convention de Genève relative au traitement des prisonniers de guerre. En outre, la brièveté de l’opération militaire américaine n’exclut pas l’application de la 4ᵉ Convention de Genève si des victimes civiles sont à déplorer ou des biens civils ciblés.
D’autre part, Donald Trump a déclaré vouloir « diriger le pays jusqu’à ce que nous puissions assurer une transition sûre, appropriée et judicieuse ». Cela peut être un motif d’inquiétude si un projet d’occupation est envisagé (la Charte des Nations unies le proscrit si l’occupation découle d’un recours à la force illicite). Cela dit, un tel scénario semble improbable compte tenu de l’expérience des fiascos en Afghanistan et en Irak, des réactions internationales majoritairement hostiles à l’intervention militaire, ainsi que de la montée des critiques au sein même de sa base MAGA, à qui Trump avait promis avant son élection de mettre fin aux guerres extérieures.
L’intervention armée et l’arrestation d’un chef d’État étranger en vue de le juger par un tribunal états-unien sont un message sans ambiguïté adressé par le président Trump à la communauté internationale : son pays n’hésitera pas à faire prévaloir le droit de la force sur la force du droit. Le droit international doit impérativement prévaloir comme contrat social liant les nations pour prévenir le chaos ou « l’homme est un loup pour l’homme » pour reprendre la formule de Thomas Hobbes.
Abdelwahab Biad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.01.2026 à 17:19
Dermatose nodulaire contagieuse : les vétérinaires victimes d’une épidémie de désinformation
Texte intégral (2448 mots)
Arrivée en France en juin 2025, la dermatose nodulaire contagieuse (DNC) a rapidement fait l’objet de mesures sanitaires qui ont permis d’éradiquer le virus dans certaines régions. Mais la crise agricole qui a suivi a vu émerger une contestation inédite, nourrie par des fausses informations et des remises en cause du rôle des vétérinaires. Dans ce texte, la profession appelle à un « droit de véto » contre la désinformation.
La dermatose nodulaire contagieuse (DNC) a atteint la France en Savoie le 29 juin 2025 à la suite de l’introduction d’un bovin infecté venant d’Italie. La France métropolitaine étant alors indemne de la DNC, la réglementation européenne prévue (dépeuplement total, vaccination d’urgence au sein des zones réglementées (ZR) – instaurées par arrêté préfectoral, limitation des mouvements des bovins…] a été mise en place, ce qui a permis d’éliminer le virus dans la région dès le 21 août.
Les contaminations ultérieures qui ont suivi en France, notamment en Occitanie, sont en réalité le résultat de déplacements illicites de bovins contagieux à partir de la zone réglementée couvrant une partie de l’Ain, de la Savoie et de la Haute-Savoie (zone vaccinale II sur la carte ci-dessous).
La forte médiatisation de la DNC associée aux dénonciations de « hold-up politique » par certains éleveurs rappelle de précédentes crises sanitaires (vache folle, grippe aviaire, Covid-19…). Mais à l’époque, la parole des « sachants » n’avait pas été remise en cause dans les mêmes proportions qu’aujourd’hui. Des membres de la profession vétérinaire font l’objet d’insultes, voire de menaces gravissimes, dans certains cas même de menaces de mort.
Cette situation est non seulement surprenante, mais également choquante. Les vétérinaires ont toujours été associés et solidaires avec les éleveurs. Dans le même temps, de fausses informations au sujet de la DNC se propagent dans l’espace médiatique.
À lire aussi : Dermatose nodulaire : comprendre les raisons de la mobilisation agricole
Un déferlement inédit de « fake news »
Parmi les fausses informations que des experts autoproclamés (parmi lesquels on a pu retrouver tant des personnes ayant endossé une posture « antivax » lors de la pandémie de Covid-19 que des scientifiques ou cliniciens méconnaissant la DNC) ont diffusées, non seulement sur les réseaux sociaux mais également dans les médias :
- « La maladie peut être traitée par des antibiotiques/par l’ivermectine. »
C’est faux. Les antibiotiques ou les antiparasitaires tels que l’ivermectine ne sont pas actifs sur une maladie virale comme la DNC, causée par un Capripoxvirus (Lumpy skin disease virus).
- « L’Espagne et l’Italie n’ont pas appliqué le dépeuplement total. »
C’est faux. Les autres pays européens confrontés à la DNC, comme l’Espagne et l’Italie, appliquent eux aussi la stratégie d’abattage de tous les bovins présents dans un foyer confirmé de DNC, comme le confirme le ministère de l’agriculture.
- « La Suisse pratique l’abattage partiel. »
Il n’y a pour l’instant pas eu de cas de DNC confirmé en Suisse, donc pas d’abattage.
- « Il est inadmissible d’abattre tout un troupeau lorsqu’il y a seulement un animal malade. »
Si un seul animal présente des lésions cutanées, il y a de fortes chances qu’au moins 50 % des animaux soient infectés dans le troupeau. En effet, il est difficile de connaître précisément la date d’infection du bovin. Si celle-ci est antérieure à l’acquisition de la protection vaccinale, alors plusieurs animaux sont potentiellement infectés au sein du troupeau, ce que les tests sanguins ne permettent pas de détecter.
- « Il faut avoir un troupeau témoin pour surveiller l’évolution de la maladie dans un foyer infecté. »
Ce troupeau « témoin » a existé dès le 6e foyer de DNC déclaré le 7 juillet en France, du fait du recours d’un jeune éleveur de Savoie refusant le dépeuplement de son troupeau. Treize jours plus tard, le recours a été refusé et d’autres cas de DNC se sont déclarés dans son élevage. La forte contagiosité de la DNC pourrait en partie expliquer le grand nombre de foyers de DNC déclarés deux semaines plus tard dans les élevages voisins.
- La DNC relève de la catégorie A du droit européen, comme la fièvre aphteuse, or « pour la fièvre aphteuse, de nouveaux textes préconisent l’abattage partiel ».
C’est faux. La catégorie A correspond en médecine vétérinaire à une maladie soumise une réglementation sanitaire très stricte lorsqu’il s’agit d’une maladie hautement contagieuse émergent dans un pays indemne. Les conséquences économiques et sanitaires justifient une éradication immédiate dès son apparition.
- « Le vaccin n’est pas efficace car certains bovins vaccinés ont présenté la maladie malgré tout »
La vaccination en urgence n’est pas une vaccinothérapie. Elle nécessite au moins trois semaines pour installer une protection immunitaire. Elle a pu être réalisée chez des animaux déjà infectés avant ou peu après l’injection vaccinale.
- « La désinsectisation de l’élevage est la méthode la plus efficace pour éviter la contamination ».
Ce sont certes des insectes hématophages qui sont les vecteurs de la DNC, mais les traitements insecticides ne sont jamais efficaces à 100 %. Il n’existe pas de mesure parfaite permettant d’éradiquer tous les insectes d’un élevage.
- « 70 vétérinaires ont été radiés de l’Ordre des vétérinaires pour avoir refusé l’abattage du troupeau de l’Ariège ».
C’est faux. Le conseil national de l’ordre des vétérinaires confirme qu’aucun vétérinaire n’a été radié pour avoir refusé un abattage.
- « Le vaccin est dangereux pour les animaux et l’humain ».
C’est faux, le vaccin est un vaccin dit « vivant atténué » qui ne présente aucun danger ni pour les animaux ni pour l’humain. De plus, la DNC n’est pas une zoonose (maladie animale transmissible à l’humain et réciproquement), mais une épizootie.
- « Il y a encore des cas de DNC en Savoie ».
Dans cette zone désormais considérée comme indemne de la DNC, il peut s’agir de la pseudo dermatose nodulaire contagieuse (PDNC), due à un herpèsvirus qui évolue très rapidement (en 3 semaines) vers la guérison.
- « La fédération des vétérinaires européens (FVE) préconise plutôt la vaccination que l’abattage dans la DNC ».
C’est faux : la note de la FVE de novembre 2025 présente une revue générale sur le bénéfice des vaccinations en médecine vétérinaire sans remettre en cause la réglementation européenne concernant les maladies classées dans la catégorie A comme la DNC.
- « L’EFSA (European Food Safety Autority) avait préconisé un abattage partiel en 2016 lors des premiers foyers de DNC en Europe ».
Cette recommandation de l’EFSA en 2016 correspondait à une évaluation mathématique des moyens à mettre en œuvre dans les pays où la DNC était déjà installée (virus endémique), en l’occurrence les Balkans. Elle ne s’applique pas pour les pays indemnes de DNC soumis à la réglementation européenne, comme c’est le cas en France.
- « Lors de l’épizootie de DNC observée dans l’île de La Réunion en 1991-1992, il n’y a pas eu de dépeuplement total ».
La flambée de DNC sur l’île de la Réunion a été la conséquence de l’importation de zébus malgaches. Le contexte sur cette île qui n’exportait pas de bovins était toutefois différent de la situation actuelle de la DNC en France métropolitaine. Il y a d’abord eu un retard considérable de plusieurs mois pour identifier formellement la maladie. Le premier vaccin, qui était celui utilisé pour la variole ovine, était peu efficace pour les 18 000 bovins vaccinés (sur les 21 000 bovins recensés sur l’île). La vaccination avec le vaccin bovin sud-africain, bien plus efficace, a été réalisée avec un an de retard. Au total, 511 exploitations ont été atteintes avec 10 % de mortalité.
Les conditions de la sortie de crise
En France, la situation est actuellement sous contrôle dans le Sud-Est, mais elle est encore évolutive en Occitanie, où de rares cas peuvent encore apparaître à la fin de cette épizootie. Ce sera le cas de bovins en incubation, car voisins d’un foyer déclaré et dont l’immunité vaccinale n’est pas encore installée pour le protéger.
Deux autres risques ne peuvent pas être évalués pour prédire la fin de cette épizootie de DNC :
un déplacement illicite à partir des ZR actuelles d’animaux apparemment sains, mais qui sont de véritables « bombes virales » à retardement ;
la non-déclaration d’un cas de suspicion de DNC par un éleveur (comme un représentant syndical a osé le recommander), alors qu’il convient d’éviter la contamination des élevages voisins.
La principale revendication des agriculteurs, répétée inlassablement dans les médias, est un abattage partiel lors de DNC. Elle témoigne d’une méconnaissance de cette maladie. En effet, on l’a vu plus haut, ce serait mettre en danger les troupeaux indemnes et par-delà, tout le cheptel bovin français. Nous espérons qu’il n’y aura plus de foyers de DNC à partir de mi-janvier 2026, comme ce fut le cas dans les Savoie après la vaccination.
La profession vétérinaire a toujours été proche des agriculteurs. Rappelons que les premières écoles vétérinaires au monde ont été créées en France au XVIIIe siècle pour « lutter contre les maladies des bestiaux ». Ainsi, en unissant nos forces nous avons pu éradiquer de la surface de la Terre en 2001 une autre maladie virale : la peste bovine.
Jean-Yves Gauchot est docteur vétérinaire et président de la Féderation des syndicats vétérinaires de France
Jeanne Brugère-Picoux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.01.2026 à 17:13
En quoi le cas du Louvre questionne-t-il la sécurité des musées ?
Texte intégral (1992 mots)

Le cambriolage du Louvre en 2025 n’a pas seulement été spectaculaire. Il rappelle également que, malgré la sophistication croissante des dispositifs numériques, la sécurité des musées reste avant tout une affaire humaine. Alors, comment sécuriser les œuvres tout en les rendant accessibles au plus grand nombre ?
En octobre 2025, le Louvre a été victime d’un cambriolage spectaculaire. De nuit, les voleurs ont pénétré dans le musée grâce à un simple monte-charge, déjouant un dispositif de sécurité pourtant hautement technologique, pour emporter l’équivalent de 88 millions d’euros de bijoux.
Ce contraste illustre un paradoxe contemporain : à mesure que la sécurité se renforce technologiquement, ses vulnérabilités deviennent de plus en plus humaines et organisationnelles. Le Louvre n’est ici qu’un symbole d’un enjeu plus large : comment protéger la culture sans en altérer l’essence ni l’accessibilité ?
Les musées, acteurs méconnus de la sécurité mondiale
Le cambriolage du Louvre n’a fait que révéler un problème plus profond. Un prérapport de la Cour des comptes de 2025 pointe un retard préoccupant dans la sécurisation du musée : 60 % des salles de l’aile Sully et 75 % de celles de l’aile Richelieu ne sont pas couvertes par la vidéosurveillance. De plus, en quinze ans, le Louvre a perdu plus de 200 postes de sécurité, alors que sa fréquentation a augmenté de moitié. Les budgets consacrés à la sûreté, soient à peine 2 millions d’euros sur 17 millions prévus pour la maintenance, traduisent une érosion structurelle des moyens humains.
Selon les lignes directrices du Conseil international des musées, la sécurité muséale repose sur trois piliers. D’abord, la prévention, qui s’appuie notamment sur le contrôle d’accès, la gestion des flux et l’évaluation des risques. Ensuite, la protection, mise en œuvre par la vidéosurveillance, la détection d’intrusion et les protocoles d’urgence. Enfin la préservation, qui vise à assurer la continuité des activités et la sauvegarde des collections en cas de crise.
Mais dans les faits, ces principes se heurtent à la réalité des contraintes budgétaires et des architectures muséales modernes, pensées comme des espaces ouverts, transparents et très accessibles, mais structurellement difficiles à sécuriser.
Les musées français ont déjà connu plusieurs cambriolages spectaculaires. En 2010, cinq toiles de maître (Picasso, Matisse, Modigliani, Braque et Léger) ont été dérobées au musée d’Art moderne de la Ville de Paris. En 2024, le musée Cognac-Jay a été victime d’un braquage d’une grande violence en plein jour pour un butin estimé à un million d’euros. Ces affaires rappellent que les musées, loin d’être des forteresses, sont des espaces vulnérables par nature, pris entre accessibilité, visibilité et protection. Le Louvre incarne une crise organisationnelle plus large où la sûreté peine à suivre l’évolution du risque contemporain.
Le musée, nouveau maillon du système sécuritaire
Longtemps, la sécurité des musées s’est pensée de manière verticale, centrée sur quelques responsables et des protocoles stricts. Or, ce modèle hiérarchique ne répond plus à la complexité des menaces actuelles.
La sûreté muséale repose désormais sur une circulation horizontale de l’information, c’est-à-dire partagée entre tous les acteurs et mobilisant conservateurs, agents, médiateurs et visiteurs dans une vigilance partagée. Cela prend la forme d’un musée où chacun a un rôle clair dans la prévention, où l’information circule rapidement, où les équipes coopèrent et où la sécurité repose autant sur l’humain que sur la technologie.
Les risques, quant à eux, dépassent largement les frontières nationales : vol d’œuvres destinées au marché noir, cyberattaques paralysant les bases de données patrimoniales et, dans une moindre mesure, activisme climatique ciblant les symboles culturels. La protection du patrimoine devient ainsi un enjeu global impliquant États, entreprises et institutions culturelles.
Au Royaume-Uni, les musées sont désormais intégrés aux politiques antiterroristes, illustrant un processus de sécurisation du secteur. En Suède, des travaux montrent que la déficience de moyens visant à la protection muséale entraîne une perte d’efficacité, dans la mesure où la posture adoptée est plus défensive que proactive.
Protéger le patrimoine, une façon de faire société
Mais cette logique de soupçon transforme la nature même du musée. D’espace de liberté et de transmission, il tend à devenir un lieu de contrôle et de traçabilité. Pourtant, dans un monde traversé par les crises, le rôle du musée s’élargit. Il ne s’agit plus seulement de conserver des œuvres, mais de préserver la mémoire et la cohésion des sociétés.
Comme le souligne Marie Elisabeth Christensen, chercheuse spécialisée dans la protection du patrimoine en contexte de crise et les enjeux de sécurisation du patrimoine culturel, la protection du patrimoine relève du champ de la sécurité humaine. Ses travaux montrent comment, dans des zones de conflits comme Palmyre en Syrie, la sauvegarde d’un site ou d’une œuvre devient un acte de résilience collective, c’est-à-dire une manière, pour une communauté frappée par la violence et la rupture, de préserver ses repères, de maintenir une continuité symbolique et de recréer du lien social, contribuant ainsi à la stabilisation des sociétés.
Cependant, cette transformation demeure profondément inégale. Les grands musées européens et américains disposent des moyens et de la visibilité nécessaires pour assumer ce rôle tandis qu’au Sud, de nombreuses institutions restent fragmentées, marginalisées et subissent le manque de coordination au niveau international. Cette disparité révèle une gouvernance patrimoniale encore inachevée, dépendante d’agendas politiques plus que d’une stratégie mondiale de solidarité culturelle.
La protection du patrimoine devrait être pleinement intégrée aux politiques humanitaires internationales, au même titre que la santé ou l’éducation. Car protéger une œuvre, c’est aussi protéger la mémoire, les valeurs et l’avenir d’une société.
Le piège du technosolutionnisme
Face aux menaces qui pèsent sur les lieux culturels, la tentation est forte de répondre par une surenchère technologique. Après chaque incident, la même conclusion s’impose : il aurait fallu davantage de caméras, de capteurs ou d’outils de surveillance. Reconnaissance faciale, analyse comportementale, biométrie… autant de dispositifs souvent présentés comme des réponses évidentes. Les dispositifs se multiplient, nourrissant l’idée que le risque pourrait être entièrement maîtrisé par le calcul.
Ce réflexe, qualifié de technosolutionnisme, repose pourtant sur une illusion, celle d’une technologie capable de neutraliser l’incertitude. Or, comme l’ont montré des travaux en sciences sociales, la technologie ne se contente pas de « faire mieux fonctionner » les choses : elle change la façon dont les personnes se font confiance, la manière dont le pouvoir s’exerce et la répartition des responsabilités. Autrement dit, même avec les outils les plus sophistiqués, le risque reste profondément humain. La sécurité muséale relève donc avant tout d’un système social de coordination, de compétences humaines et de confiance, bien plus que d’un simple empilement de technologies.
La rapporteuse spéciale de l’ONU pour les droits culturels alertait déjà sur ce point : vouloir protéger les œuvres à tout prix peut conduire à fragiliser la liberté culturelle elle-même. La sécurité du patrimoine ne peut se limiter aux objets. Elle doit intégrer les personnes, les usages et les pratiques culturelles qui leur donnent sens.
Protéger sans enfermer
Contre la fascination technologique, une approche de complémentarité s’impose. Les outils peuvent aider, mais ils ne remplacent ni l’attention ni le discernement humain. La caméra détecte, mais c’est le regard formé qui interprète et qualifie la menace. Les agents de sécurité muséale sont aujourd’hui des médiateurs de confiance. Ils incarnent une forme de présence discrète mais essentielle qui relie le public à l’institution. Dans un monde saturé de dispositifs, c’est cette dimension humaine qui garantit la cohérence entre sécurité et culture.
La chercheuse norvégienne Siv Rebekka Runhovde souligne, à propos des vols d’œuvres du peintre Edvard Munch, le dilemme permanent entre accessibilité et sécurité. Trop d’ouverture fragilise le patrimoine, mais trop de fermeture étouffe la culture. Une sursécurisation altère la qualité de l’expérience et la confiance du public. La sécurité la plus efficace réside dans celle qui protège sans enfermer, rendant possible la rencontre entre œuvre et regards.
La sécurité muséale n’est pas seulement un ensemble de dispositifs, c’est également un acte de communication. Elle exprime la manière dont une société choisit de gérer et de protéger ce qu’elle estime essentiel et de négocier les frontières entre liberté et contrôle. Protéger la culture ne se réduit pas à empêcher le vol. C’est aussi défendre la possibilité de la rencontre humaine à l’ère numérique.
Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.01.2026 à 17:03
Syrie : comment les petites entreprises ont survécu à la guerre en bâtissant une économie parallèle
Texte intégral (1811 mots)

Même lorsqu’un pays est en guerre, que les institutions s’effondrent, que les groupes armés sèment la terreur, les entreprises de moins de 250 salariés jouent un rôle essentiel pour maintenir une activité économique minimale. Explication avec l’exemple syrien.
Pendant la guerre en Syrie, certaines petites entreprises ont dû payer des taxes au régime, négocier leur passage avec des groupes armés d’opposition, respecter les règles économiques de l’Organisation de l’État islamique, et s’appuyer sur des réseaux au Liban, en Irak ou en Jordanie.
Cette expérience met en lumière une réalité souvent négligée : lorsque l’État s’effondre, les acteurs économiques les plus modestes empêchent la société de s’arrêter complètement.
Contrairement à l’idée d’un pays économiquement à l’arrêt, la Syrie a vu émerger une économie parallèle, portée principalement par des petites et moyennes entreprises (PME) – de moins de 250 personnes et avec un chiffre d’affaires annuel n’excédant pas 50 millions de livres syriennes (SYP). Si cette économie n’était pas reconnue par les institutions officielles, elle était suffisamment organisée pour assurer la survie quotidienne de millions de Syriens et Syriennes.
Quand l’État disparaît, le marché se fragmente
À partir de 2012, la Syrie cesse de fonctionner comme un espace économique unifié. Le territoire se fragmente entre plusieurs autorités concurrentes : le régime syrien, différents groupes d’opposition armée, l’État islamique, les autorités kurdes et, en arrière-plan, les pays voisins. Dans ce contexte, le marché national se désagrège avec des routes coupées, des banques à l’arrêt et des contrats sans valeur juridique.
Selon la Banque mondiale, plus de la moitié des infrastructures économiques ont été détruites ou gravement endommagées.
Pourtant, les petites entreprises, comme les ateliers, les commerces, les transports ou les productions alimentaires, ont continué de fonctionner. Leur taille réduite et leur fort ancrage local leur ont permis de s’adapter à un environnement instable. Dans les contextes de conflit, ces entreprises jouent un rôle essentiel pour maintenir une activité économique minimale et aider les ménages à continuer de vivre.
Régime syrien, groupes d’opposition armés et État islamique
Pour survivre, ces petites et moyennes entreprises syriennes ont dû accepter une règle simple : travailler avec toutes les autorités en place, quelles qu’elles soient.
Avec le régime syrien
Dans les zones contrôlées alors par le régime de Bachar Al-Assad, les entreprises devaient obtenir des autorisations informelles, payer des taxes non officielles ou passer par des intermédiaires proches du pouvoir pour poursuivre leurs activités.
Ces pratiques, y compris des versements de pots-de-vin, symbolisent les défis auxquels font face ces petites et moyennes entreprises.
À lire aussi : La Syrie en transition... mais quelle transition ?
Avec les groupes d’opposition
Dans d’autres régions, les entreprises devaient payer des rétributions pour sécuriser leurs convois, négocier l’accès aux routes ou accepter des contrôles locaux afin d’éviter pillages et blocages. Dans les zones tenues par des groupes rebelles, cela passait parfois par des interactions économiques directes avec ces forces armées.
Dans les zones non contrôlées par l’État central, ces arrangements deviennent des conditions de fait pour maintenir une activité commerciale. Les acteurs économiques doivent payer des frais de passage imposés par des groupes armés.
Avec l’État islamique
Dans les zones contrôlées par l’État islamique, les règles économiques étaient strictes. L’organisation imposait des taxes obligatoires aux commerces et aux activités de production, contrôlait la circulation des marchandises et appliquait des sanctions sévères en cas de non-respect. Refuser de coopérer signifiait le plus souvent la perte de l’activité, voire des représailles.
Des analyses montrent que ce système de taxation et de contrôle économique constituait l’un des piliers du mode de gouvernance mis en place par l’État islamique dans les territoires syriens qu’il contrôlait.
Les pays voisins, prolongement de l’économie syrienne
Privées d’un système bancaire fonctionnel, de nombreuses petites entreprises syriennes se sont tournées vers les pays voisins.
Le Liban est devenu un point central pour les transferts financiers informels, la Jordanie, un espace d’approvisionnement relativement stable, et l’Irak un corridor essentiel pour le transport de marchandises. Dans ce contexte, les frontières ont cessé d’être de simples lignes de séparation pour devenir des espaces clés de l’économie syrienne.
La diaspora syrienne a joué un rôle central dans ces échanges, en finançant des activités locales et en sécurisant les transactions lorsque les institutions officielles faisaient défaut.
Une économie parallèle fondée sur la confiance
Cette économie n’était pas légale au sens strict, mais elle reposait sur des règles claires.
Lorsque les institutions disparaissent, la confiance ne s’évanouit pas, elle se déplace. Elle s’ancre dans la famille, les réseaux locaux, la réputation et la parole donnée. Les accords se concluent alors sans contrat écrit et, paradoxalement, ils sont respectés, car la survie collective en dépend.
De nombreux travaux sur les économies de guerre et les contextes de fragilité montrent que ces systèmes informels peuvent, dans certaines situations, s’avérer plus fiables que des institutions affaiblies ou absentes.
S’adapter en permanence pour ne pas disparaître
Faute de pouvoir investir ou planifier à long terme, les petites entreprises syriennes ont privilégié la réparation plutôt que le remplacement, l’utilisation d’un même atelier pour produire différents biens, le changement de fournisseurs ou d’itinéraires du jour au lendemain et la limitation de leurs stocks pour réduire les pertes en cas de rupture.
Privées d’accès au crédit, aux marchés extérieurs et à des infrastructures fiables, les entreprises syriennes ont ajusté leurs activités pour continuer à fonctionner.
Chaque décision devenait un calcul permanent du risque : quel trajet est le moins dangereux ? Qui faut-il payer pour passer ? Quelle perte peut être absorbée sans mettre l’entreprise en faillite ?
Réduire la dépendance à l’aide humanitaire
Cette économie parallèle a permis l’accès à des biens essentiels, contribué à la survie de millions de familles et maintenu un minimum d’activité économique dans un pays en guerre. En limitant l’effondrement total des circuits d’échange, elle a réduit, dans certains territoires, la dépendance exclusive à l’aide humanitaire.
Les organisations humanitaires elles-mêmes ont dû composer avec ces réseaux informels pour atteindre les populations et acheminer biens et services de première nécessité.
Un héritage difficile à intégrer
Aujourd’hui, une question centrale se pose : comment reconstruire une économie officielle sans fragiliser les mécanismes qui ont permis à la société de tenir pendant la guerre ?
Car les petites et moyennes entreprises syriennes abordent les institutions avec prudence, tout en restant dépendantes de relations régionales construites pendant le conflit. Réintégrer ces entreprises dans un cadre légal sans rompre ces équilibres constitue l’un des défis majeurs de la reconstruction économique de la Syrie.
Ancrées dans les communautés locales, ces entreprises jouent un rôle social majeur. Elles maintiennent des formes de solidarité économique, offrent des opportunités d’emploi aux femmes et aux jeunes et contribuent, dans certains secteurs, à la préservation d’activités artisanales et agricoles.
Au-delà du cas syrien, cette trajectoire rappelle que, dans les crises extrêmes, la résilience des sociétés repose souvent sur des acteurs invisibles : les petites entreprises, capables de faire tenir l’économie quand tout le reste vacille.
Mohamad Fadl Harake ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.01.2026 à 11:45
La marche, premier mode de déplacement en France : ce que disent vraiment les statistiques de mobilité
Texte intégral (2744 mots)
Les statistiques de mobilité orientent les politiques publiques. Or en France, la manière de les présenter, héritée des années du tout automobile, minore la part de la marche, ce qui pénalise le développement des mobilités actives. Et si on s’inspirait des approches statistiques déjà déployées ailleurs, par exemple en Suisse, pour mieux comptabiliser le temps passé à marcher ?
Les statistiques ne sont jamais neutres : elles sont le reflet de choix politiques répondant à un contexte historique spécifique. La manière de présenter les résultats des enquêtes statistiques sur la mobilité des personnes en France, qui a déjà 50 ans, n’échappe pas à cette règle. Elle conduit à sous-estimer fortement les déplacements à pied, au risque de continuer à favoriser des politiques en faveur des modes de déplacement motorisés.
Il est grand temps de réformer cet usage, comme l’a fait la Suisse il y a déjà 30 ans, si l’on souhaite redonner aujourd’hui davantage de place aux mobilités actives, tant pour des raisons sociales, économiques qu’environnementales.
Pour rappel, la marche est le mode de déplacement le plus inclusif, le plus démocratique et le moins nuisible à l’environnement, et pas seulement dans le cœur des grandes villes.
À lire aussi : Atteindre les objectifs climatiques améliorera aussi la santé publique
Ce que disent les statistiques sur la mobilité
En France, depuis la standardisation des enquêtes sur la mobilité des personnes en 1976, les déplacements sont généralement présentés sous forme de « parts modales ». Il s’agit des parts, sur l’ensemble des déplacements comptabilisés, réalisées avec chaque mode de déplacement : voiture, deux-roues motorisé, transports collectifs, vélo, marche…
Dans les présentations classiques des données recueillies, la part modale de la marche apparaît très inférieure à celle de la voiture. Pourtant, quand on regarde l’autre grande source statistique que représentent les enquêtes sur la mobilité réalisées dans les grandes villes, les déplacements à pied dominent dans les centres-villes, et parfois également dans les banlieues denses de la proche périphérie. Mais partout ailleurs, c’est largement le contraire et le triomphe de la voiture apparaît ainsi incontestable.
En conséquence, pour qui découvre ces statistiques ainsi présentées , dans la plupart des territoires, il paraît nécessaire de s’occuper en priorité des voitures, de leur accorder davantage de place pour circuler et stationner, même si cela doit se faire au détriment des espaces publics, des trottoirs, des places publiques et autres terre-pleins.
Ce qu’oublient de préciser ces représentations
Examinons ces chiffres de plus près. En réalité, ce qu'on nomme habituellement la « part modale de la marche » ne concerne que la « marche exclusive », c’est-à-dire les déplacements entièrement faits à pied, par les résidents, sur l’espace public et hors du temps de travail.
Par convention, on oublie ainsi :
la marche intermodale, c’est-à-dire les déplacements à pied pour rejoindre ou quitter un transport public ou une place de stationnement pour voiture, vélo ou deux-roues motorisé,
la marche effectuée dans des espaces privés ouverts au public, comme les centres commerciaux ou les gares,
la promenade ou la randonnée,
la marche pendant le travail, y compris quand elle est effectuée sur l’espace public, qui est pourtant très importante dans certaines professions,
la marche au domicile pour effectuer toutes sortes d’activités : du ménage au jardinage, en passant par le bricolage, etc.,
enfin, la marche réalisée par les visiteurs (touristes et autres non-résidents) du territoire.
À lire aussi : Mobilité : et si on remettait le piéton au milieu du village ?
Comment expliquer une approche si restrictive ?
Les conventions statistiques sur la mobilité ont été élaborées dans les années 1960-1970 à l’époque du « tout automobile », puis des premiers efforts réalisés pour relancer les transports publics. Dans ce contexte, il fallait avant tout prévoir et dimensionner la voirie pour absorber un trafic motorisé fortement croissant, les piétons étant très peu considérés et les cyclistes censés disparaître.
Par convention dans les enquêtes sur la mobilité, un déplacement, c’est une personne qui va d’un lieu d'origine à un lieu de destination, avec un ou plusieurs modes et pour un motif particulier. Les modes sont hiérarchisés avec priorité aux plus lourds : d’abord les transports publics, puis la voiture, puis les deux-roues et enfin la marche.
Autrement dit, si une personne se rend à pied à un arrêt de bus, prend le bus, puis termine son trajet à pied, le déplacement est considéré comme ayant été fait en transport public et la part de marche est tout simplement ignorée. Dans cette approche, la marche devient un « résidu » statistique, c’est-à-dire ce qui reste une fois qu’on a pris en compte tous les autres modes de déplacement. Pourtant, les usagers des transports publics passent environ la moitié de leur temps à pied à marcher ou à attendre.
À lire aussi : Réduire l’empreinte carbone des transports : Quand les progrès techniques ne suffisent pas
Ces pays qui comptabilisent les déplacements différemment
Or, cette représentation des statistiques de déplacement en France est loin d’être la seule possible.
En Suisse par exemple, depuis une réforme des statistiques de la mobilité introduite en 1994, les résultats des enquêtes de mobilité sont présentés sous trois angles différents : les distances parcourues, le temps de trajet et le nombre d’étapes.
Par étape, on entend ici les segments d’un déplacement effectués à l’aide d’un seul mode de transport. Un déplacement en transport public, par exemple, compte le plus souvent une première étape à pied, puis une deuxième en transport public et une troisième à nouveau à pied : on parle de marche intermodale.
Ainsi, en 2021, en ne tenant compte que de la marche exclusive et de la marche intermodale, les Suisses ont passé chaque jour plus de temps à pied qu’en voiture.
Ailleurs, on réfléchit aussi à d’autres manières de présenter les résultats des enquêtes sur la mobilité, comme en Belgique ou au Royaume-Uni.
En réalité, 100 % de nos déplacements intègrent au moins une part de marche, même minimale lorsqu’il s’agit par exemple de simplement sortir de sa voiture sur le parking de son lieu de travail. La marche est à l'origine de toutes les autres formes de mobilité et les autres modes ne sont que des « relais du piéton ». Parce que nous sommes des bipèdes, la marche est évidemment notre premier mode de déplacement.
Vers une nouvelle approche en France ?
La France peut-elle changer sa façon de présenter les statistiques de mobilité, dans le sillage de ce que propose la Suisse ?
Pour prendre conscience de l’importance journalière de la marche, il convient de l’aborder en temps de déplacement total à pied. Une récente étude de l’Ademe révèle que nous passons chaque jour une heure et douze minutes à pied, soit beaucoup plus que la durée moyenne passée en voiture chaque jour, qui est de 37 minutes.
Ces résultats montrent aussi que la prise en compte de la marche intermodale augmente de 75 % la durée de la seule marche exclusive (dite « déplacements locaux intégralement à pied » dans le graphique ci-après). En tenant compte de tous les temps consacrés à se déplacer, la marche est sans conteste le premier mode de déplacement, loin devant la voiture.
Cette étude repose sur l’utilisation de deux enquêtes existantes mais sous-exploitées (l’enquête mobilité des personnes et l’enquête emploi du temps des Français) et en adoptant plusieurs hypothèses prudentes.
En quelques centaines de milliers d’années d’évolution humaine, la bipédie s’est hautement perfectionnée. Elle a permis de libérer nos mains, nous a rendus très endurants à la course et a contribué à développer notre cerveau. Puis, en 150 ans seulement avec l’avènement du transport motorisé, la marche utilitaire quotidienne s’est effondrée.
Pourtant, de par notre constitution, marcher régulièrement est essentiel pour rester en bonne santé, pour bien grandir, vivre mieux et bien vieillir. C’est un enjeu de santé publique. C’est pourquoi, il convient de réaliser des espaces publics confortables, de libérer les trottoirs du stationnement sauvage et autres obstacles, de ménager des traversées piétonnes sécurisées et de calmer la circulation automobile, sa vitesse et son volume. Pour appuyer de telles politiques, encore faudrait-il revoir notre manière de représenter la marche dans les résultats des enquêtes de mobilité.
Frédéric Héran est membre du conseil d’administration de l'association et groupe de réflexion Rue de l’Avenir