LePartisan - 176 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

12.01.2026 à 23:59

Santé mentale des adolescents : les réseaux sociaux amplifient les troubles observés hors ligne, en particulier chez les filles

Olivia Roth-Delgado, Cheffe de projets scientifiques, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Thomas Bayeux, Chef de projet socio-économique, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Troubles anxiodépressifs et pensées suicidaires… les réseaux sociaux amplifient certaines vulnérabilités liées à l’adolescence conclut un rapport d’envergure de l’Anses
Texte intégral (2585 mots)

Troubles anxiodépressifs et pensées suicidaires, cyberharcèlement, image de soi dégradée, consommation d’alcool, de cannabis et autres substances psychoactives… les réseaux sociaux exploitent les vulnérabilités des jeunes et contribuent ainsi à amplifier certains troubles dont ces derniers sont victimes.

C’est ce que conclut un rapport d’envergure de l’Agence nationale de sécurité sanitaire (Anses) qui décortique les mécanismes d’action de ces outils numériques paramétrés pour cibler à des fins mercantiles les spécificités mais aussi les fragilités liées à l’adolescence.

Olivia Roth-Delgado et Thomas Bayeux font partie de l’équipe de l’Anses qui a coordonné ces travaux. Ils nous présentent les principaux enseignements de ce rapport.


The Conversation : Le rapport de l’Anses relatif aux « effets de l’usage des réseaux sociaux numériques sur la santé des adolescents » est inédit. Pourquoi ?

Olivia Roth-Delgado : Cette expertise, c’est cinq ans de travail et plus de 1 000 articles analysés. Elle est inédite par son originalité et par son ampleur qui sont sans équivalent, à notre connaissance, pour des instances publiques comme l’Anses.

Pour la première fois, ce sont certains mécanismes de conception des réseaux sociaux qui ont été mis en relation avec des effets sur la santé des adolescents. Ces mécanismes, ce sont les dark patterns en anglais – que nous avons traduits par « interfaces trompeuses ».

L’adolescence est une période de vulnérabilité, car le cerveau est encore en maturation. Les adolescents et adolescentes traversent des changements dans la façon dont ils ressentent et gèrent les émotions, et dans les circuits liés à la récompense. Ils sont aussi plus sensibles au contexte social, ce qui peut favoriser des conduites à risque lorsqu’ils sont entourés de leurs pairs. Et c’est également une période de grande vulnérabilité aux troubles psychiques.

Thomas Bayeux : Se développe, durant l’adolescence, une culture qui invite à se confronter à autrui, une appétence pour la communication, une construction de soi qui conduit à tester les normes, etc. Tous ces arguments nous ont amenés à retenir la tranche d’âge 11-17 ans, lors de laquelle s’opèrent tous ces changements.

Le rôle de l’Anses, en tant qu’agence de santé publique, est d’évaluer les risques pour la santé. Toutefois, dans les chapitres du rapport consacrés aux usages et au maintien des relations entre générations, l’expertise évoque les effets bénéfiques potentiels des réseaux sociaux, à travers les motivations qui poussent à les utiliser durant l’adolescence.

Le rapport évoque des effets particulièrement préoccupants en lien avec l’usage des réseaux sociaux à l’adolescence, comme des troubles anxiodépressifs, des pensées suicidaires ou encore de l’automutilation. Quels sont les mécanismes à l’œuvre ?

O. R.-D. : Parmi les mécanismes que nous avons mis en exergue et étudiés, figurent ces interfaces trompeuses (ou manipulatrices) ainsi que les algorithmes de personnalisation de contenus. Tous correspondent à des mécanismes de captation de l’attention qui retiennent les utilisatrices et utilisateurs sur le réseau social, en leur présentant des contenus de plus en plus ciblés, voire extrêmes.

Si un ou une adolescente a, par exemple, recherché une première fois du contenu sur l’automutilation, ce type de contenus va lui être présenté de manière répétée et peut l’enfermer dans une spirale de difficultés.

T. B. : La captation de l’attention sert le modèle économique sur lequel reposent ces plateformes numériques. Cela leur permet de disposer d’un nombre important de données et de les monétiser et concourt également à la vente d’espaces publicitaires.

Les plateformes numériques ont donc intérêt à ce que les personnes restent sur le réseau social grâce aux deux stratégies que nous avons évoquées : d’une part, la personnalisation des contenus au travers d’algorithmes de plus en plus performants qui enferment celles et ceux qui les utilisent dans une boucle d’informations et, d’autre part, via la mise en avant des contenus les plus impactants.

Les interfaces trompeuses (dark patterns) mobilisent des techniques que nous connaissons tous : les likes, les notifications, le scroll infini, les vidéos qui s’enchaînent de manière automatique, etc.

La période de l’adolescence entre en forte résonance avec ces stratégies mises en place par les réseaux sociaux. À l’Anses, nous voyons là des enjeux majeurs en matière de santé publique, car une offre et une demande se rencontrent en quelque sorte. Et le cocktail peut se révéler détonnant !

Concernant ces troubles liés à la santé mentale, mais aussi le harcèlement, la consommation d’alcool, de tabac, de cannabis et d’autres comportements à risque contre lesquels vous alertez, est-ce à dire que les réseaux sociaux amplifient des phénomènes préexistants ?

O. R.-D. : Tout à fait. Les réseaux sociaux sont un espace social. Ils agissent comme une caisse de résonance des problèmes présents dans la société, à l’image des stéréotypes de genre, de l’incitation à la prise de drogues, etc.

T. B. : Les réseaux sociaux participent à la socialisation et à la construction adolescente, ils constituent une continuité du monde hors ligne, avec ses points positifs et ses travers. Il n’existe pas de barrière étanche entre ce qui se passe hors ligne et sur les réseaux sociaux.

Les règles qui existent pour protéger les mineur·es dans la société devraient donc s’exercer également sur les réseaux sociaux ?

O. R.-D. : C’est le principe fondateur du Digital Services Act, le dispositif réglementaire européen qui vise à réguler les contenus en ligne des très grandes plateformes, selon la formule : « Ce qui est illégal hors ligne est illégal en ligne. »

T. B. : Cette préoccupation motive l’une des recommandations phares du rapport de l’Anses, à savoir que les moins de 18 ans ne puissent accéder qu’à des réseaux sociaux conçus et paramétrés pour protéger les mineurs. Notre propos n’est pas de les bannir. Mais des solutions techniques doivent être engagées pour que les réseaux sociaux soient des lieux sûrs pour les adolescents et adolescentes, et l’Anses insiste pour une responsabilisation des plateformes à cet égard.

Ensuite, pour un adolescent ou une adolescente, discuter de ses pratiques numériques avec autrui – ses pairs, ses parents, des membres du corps enseignant, des éducateurs… – peut se révéler vertueux. Cela ne dédouane pas les pouvoirs publics et les plateformes numériques d’adopter des stratégies à une échelle collective pour que les réseaux sociaux soient des espaces sûrs pour les adolescents et adolescentes.

Le rapport évoque des liens entre l’utilisation des réseaux sociaux et certains troubles, mais il n’établit pas de relation de causalité à proprement parler. Pourquoi ?

O. R.-D. : La question de la causalité reste compliquée. Nous nous appuyons sur une expertise très fournie et documentée. Notre méthodologie est solide, mais elle ne repose pas sur une méthode du poids des preuves. Néanmoins, nous montrons des associations robustes entre l’usage des réseaux sociaux et les troubles que nous avons évoqués et pour lesquelles nous mettons au jour les mécanismes sous-jacents de manière extrêmement pertinente.

Dans le cas du sommeil, par exemple, plusieurs mécanismes jouent. Quand les adolescents consultent les réseaux sociaux le soir avant de se coucher, la lumière bleue des écrans entraîne un retard d’endormissement, car elle stimule ce qu’on appelle un éveil cognitif, ce qui raccourcit la durée de leur sommeil. Or, les effets à long terme sur la santé physique et mentale d’un manque chronique de sommeil sont bien documentés. De plus, quand on consulte des réseaux sociaux, des stimuli émotionnels peuvent aussi empêcher de dormir. On le voit, il existe un faisceau de preuves. Mais les effets concrets des réseaux sociaux sur le sommeil d’un adolescent ou d’une adolescente dépendent aussi de ses usages.

De même, dans la survenue des troubles anxiodépressifs ou d’idées suicidaires, la nature des contenus proposés joue un rôle majeur. On doit également prendre en compte un effet bidirectionnel. Je m’explique : un adolescent ou une adolescente qui est déjà vulnérable psychologiquement aura tendance à consulter davantage les réseaux sociaux. L’algorithme de présentation de contenus va détecter cette fragilité émotionnelle et lui présenter des contenus chargés sur le plan émotionnel. Et c’est là qu’il ou elle va se retrouver enfermé·e dans une spirale délétère. Il est plus difficile d’affirmer une causalité en présence de boucles de rétroaction et d’effets bidirectionnels.

Enfin, sur l’altération de l’image de soi, nous disposons également d’un faisceau convaincant de preuves selon le même type de mécanismes fondés sur une exposition répétée à des contenus valorisant des femmes maigres et des hommes musclés.

Les filles apparaissent plus sensibles que les garçons aux effets négatifs des réseaux sociaux. Comment l’expliquer ?

T. B. : C’est l’un des enseignements majeurs de cette expertise. Les filles représentent clairement un groupe à risque sur les réseaux concernant tous les effets sur la santé, pas uniquement l’altération de l’image de soi. Elles sont plus présentes sur les réseaux sociaux que les garçons, y sont davantage harcelées, victimes de stéréotypes de genre, soumises à des pressions sociales… Les filles accordent également davantage d’importance à ce qu’il se passe sur les réseaux sociaux, aux commentaires qui y sont postés, etc.

Les communautés LGBTQIA+ représentent aussi un groupe à risque sur les réseaux sociaux. Elles sont notamment davantage victimes de cyberharcèlement dont découlent des risques, notamment en matière de santé mentale.

Le rapport de l’Anses relève le fait que le temps passé devant les réseaux sociaux n’est pas le seul critère à prendre en compte.

T. B. : Le temps d’utilisation constitue une mesure utile, mais qui ne suffit pas pour aborder pleinement le sujet. Le temps permet d’étudier certains enjeux de santé, comme la sédentarité, même si les outils numériques nomades se multiplient pour accéder aux réseaux sociaux. Quantifier la durée d’utilisation se révèle également précieux quand on parle d’expositions tardives susceptibles d’impacter le sommeil, par exemple.

En revanche, on sait aussi que la compréhension des usages est essentielle pour étudier certains effets sur la santé. Il est important de savoir ce qui est fait sur le réseau social : publier, liker, lire des commentaires, faire des retouches photos, par exemple, et quel engagement émotionnel est associé à ces pratiques. Il ne faut pas opposer les approches mais plutôt y voir une complémentarité.

Votre rapport s’appuie sur des travaux de recherche qui n’ont pas, ou peu, étudié l’impact des outils numériques les plus récents, comme TikTok ou les « compagnons IA ». Peut-on supposer que ces nouvelles technologies accroissent les risques pour la santé mentale des adolescentes et adolescents ?

O. R.-D. : L’expertise de l’Anses s’est appuyée sur plus d’un millier d’articles publiés majoritairement entre 2011 et 2021. Du fait du cumul entre le temps de la recherche et celui de l’expertise, nous avons été amenés à étudier des technologies qui ont effectivement évolué. Néanmoins, nous nous sommes basés sur un socle commun de mécanismes, comme les interfaces trompeuses (dark patterns) et les algorithmes de personnalisation de contenus, auxquels nous avons associé des effets sur la santé.

Donc nos conclusions comme nos recommandations peuvent s’étendre à des réseaux sociaux plus récents. En ce qui concerne l’intelligence artificielle et les « compagnons IA », l’Anses recommande que des expertises futures se penchent sur la question.

Dans vos recommandations, vous proposez d’associer les adolescentes et les adolescents aux programmes développés pour prévenir les risques.

O. R.-D. : L’Anses propose d’associer les jeunes eux-mêmes aux travaux, car ce sont eux qui connaissent leurs motivations à aller sur les réseaux sociaux, ce sont eux qui construisent et diffusent les nouvelles pratiques. Il nous paraît donc important de les inclure dans les dialogues et la construction des repères, avec les éducateurs et les parents. Ils seront plus enclins à respecter des règles qu’ils auront contribué à formuler. Parmi ses recommandations, l’Anses évoque également le fait de promouvoir des espaces de dialogue entre jeunes pour des retours d’expérience de ce qui leur arrive en ligne.

T. B. : Et encore une fois, nous rappelons que l’Anses ne recommande pas d’interdire les réseaux sociaux, mais de revoir en profondeur leur conception de manière à ce qu’ils ne nuisent pas à la santé des adolescents et les adolescentes.


Propos recueillis par Lionel Cavicchioli et Victoire N’Sondé.

Mise à jour du 13.01.2025 à 11 h 36 CET : mise en page.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 15:58

Les plantes sont bien plus bavardes que vous ne le pensez

François Bouteau, Pr Biologie, Université Paris Cité
Beaucoup de végétaux sont capables d’interagir entre eux et avec le reste de leur environnement. Des échanges qui façonnent et transforment activement les paysages.
Texte intégral (1775 mots)

Les plantes sont loin d’être aussi muettes que ce que l’on imagine ! Beaucoup de végétaux sont en réalité capables d’interagir entre eux et avec le reste de leur environnement. Et ces échanges façonnent et transforment activement les paysages.


On pense souvent les plantes comme des êtres silencieux, immobiles, sans intention ni action. Pourtant, de nombreuses études révèlent aujourd’hui qu’elles communiquent activement entre elles, mais aussi avec les autres êtres vivants, animaux, champignons, microorganismes. En communiquant, elles ne font pas que transmettre des informations : elles modifient les dynamiques écologiques et sont ainsi actrices des transformations de leur environnement.

Cette communication n’a rien de magique : elle repose sur des signaux principalement chimiques. Dans les faits, on peut considérer que la communication se produit lorsqu’un émetteur envoie un signal perçu par un récepteur qui, en retour, modifie son comportement. Pour communiquer, les plantes doivent donc être sensibles à leur environnement. De fait elles sont capables de percevoir de très nombreux signaux environnementaux qu’elles utilisent en tant qu’information : la lumière, l’eau, la présence de nutriments, le toucher, les attaques d’insectes ou encore la proximité d’autres plantes.

Elles savent alors ajuster leur développement : orientation des feuilles vers le soleil, développement de leurs racines vers les zones riches en nutriments ou évitement des endroits pauvres ou toxiques. Lorsqu’elles subissent l’attaque d’un pathogène, elles déclenchent des réactions chimiques qui renforcent leurs défenses ou avertissent leurs voisines du danger. Cela implique donc que les plantes sont aussi capables d’émettre des signaux compréhensibles que d’autres organismes récepteurs vont pouvoir interpréter. Ces comportements montrent une véritable capacité d’action : les plantes ne subissent pas simplement leur environnement, elles interagissent avec lui, elles vont lancer des réponses adaptées, orientées vers un but important pour elles, croître.

Parler avec des molécules

La plupart des échanges entre plantes se font notamment grâce à des composés organiques volatils. Ces molécules sont produites par les plantes et se déplacent sous forme gazeuse dans l’air ou dans le sol et peuvent ainsi véhiculer un message. Attaquée par un pathogène, une plante peut libérer des composés volatils qui alertent ses voisines. L’exemple emblématique, bien que controversé, est l’étude menée par l’équipe de Wouter Van Hoven (Université de Pretoria, Afrique du Sud, ndlr) ayant montré que les acacias soumis au broutage des koudous, une espèce d’antilope, synthétisaient des tanins toxiques et que les acacias situés quelques mètres plus loin faisaient de même.

Les chercheurs ont suggéré que les acacias broutés libéraient de l’éthylène, un composé qui induisait la synthèse de tanins chez les acacias voisins, les protégeant ainsi des koudous. Ce type d’interaction a aussi été observé chez d’autres plantes. Chez l’orge, par exemple l’émission de composés volatils permet de réduire la sensibilité au puceron Rhopalosiphum padi. Les pieds d’orge percevant ces composés peuvent activer leurs défenses avant même d’être attaqués par les pucerons.

Certains de ces composés peuvent être synthétisés spécifiquement pour attirer les prédateurs de l’agresseur. Ainsi, lorsqu’elles sont attaquées par des chenilles, certaines plantes, comme le maïs, émettent des molécules pour appeler à l’aide les guêpes prédatrices des chenilles. D’autres signaux chimiques émis dans les exsudats racinaires permettent aux plantes d’identifier leurs voisines, de reconnaître leurs parentes et d’adapter leur comportement selon le degré de parenté. Ces types d’échanges montrent que la communication végétale n’est pas un simple réflexe : elle implique une évaluation du contexte et une action ajustée.

En fonction du contexte, les plantes s’expriment différemment

Mais toutes les plantes ne communiquent pas de la même façon. Certaines utilisent des signaux dits publics, que de nombreuses espèces peuvent percevoir, ce qu’on appelle parfois l’écoute clandestine. D’autres émettent des messages dits privés, très spécifiques, compris uniquement par leurs proches ou leurs partenaires symbiotiques, c’est-à-dire des espèces avec lesquelles elles échangent des informations ou des ressources. C’est le cas lors de la mise en place des symbioses mycorhiziennes entre une plante et des champignons, qui nécessitent un dialogue moléculaire entre la plante et son partenaire fongique.

Ce choix de communication dépend donc du contexte écologique. Dans des milieux où les plantes apparentées poussent ensemble, le partage d’informations profite à tout le groupe : c’est une stratégie collective. Mais dans des milieux compétitifs, il est plus avantageux de garder les messages secrets pour éviter que des concurrentes en tirent profit. Cette flexibilité montre que les végétaux adaptent la manière dont ils transmettent l’information selon leurs intérêts.

Peut-on dire que les végétaux se parlent ?

De fait, les signaux émis par les plantes ne profitent pas qu’à elles-mêmes. Ils peuvent influencer le développement de tout l’écosystème. En attirant des prédateurs d’herbivores, en favorisant la symbiose avec des champignons ou en modulant la croissance des voisines, les plantes participent à un vaste réseau d’interactions.

La question est alors de savoir si les plantes ont un langage. Si l’on entend par là une syntaxe et des symboles abstraits, la réponse est non. Mais si on considère le langage comme un ensemble de signaux produisant des effets concrets sur un récepteur, alors oui, les plantes communiquent. Des philosophes ont recherché si des analogies avec certains aspects du langage humain pouvaient être mises en évidence.

Certains d’entre eux considèrent que la communication chez les plantes peut être considérée comme performative dans la mesure où elle ne décrit pas le monde, mais le transforme. Quand une plante émet un signal pour repousser un herbivore ou avertir ses voisines, elle n’émet pas seulement de l’information, elle agit. Ce type de communication produit un effet mesurable, ce que les philosophes du langage, dans la lignée de l’Américain John Austin, appellent un effet perlocutoire.

Les plantes façonnent activement les écosystèmes

Cette vision élargie de la communication végétale devrait transformer notre conception des écosystèmes. Les plantes ne sont pas des éléments passifs du paysage, mais des actrices à part entière, capables de transformer leur environnement à travers leurs actions chimiques, physiques et biologiques.

Ces découvertes ouvrent des perspectives pour une agriculture durable : en comprenant et en utilisant la communication des plantes, il devient possible de renforcer leurs défenses sans pesticides, grâce à des associations de cultures ou à des espèces sentinelles qui préviennent les autres du danger. La question des paysages olfactifs est aussi un sujet émergent pour la gestion des territoires.

Pour cela il faut que s’installe un nouveau regard sur le comportement végétal. En effet, pendant des siècles, on a cru que les plantes étaient dénuées de comportement, de mouvement ou de décision. Darwin avait déjà observé, au XIXe siècle, qu’elles orientaient leurs organes selon la lumière, la gravité ou le contact. Aujourd’hui, on sait qu’elles peuvent aussi mémoriser certaines expériences et réagir différemment à un même signal selon leur vécu. Certains chercheurs utilisent des modèles issus de la psychologie et de la théorie de l’information pour étudier la prise de décision chez les plantes : perception d’un signal, interprétation, choix de réponse, action.

Repenser la hiérarchie du vivant

Au-delà de la communication, certains chercheurs parlent désormais d’agentivité végétale, c’est-à-dire la capacité des plantes à agir de façon autonome et efficace dans un monde en perpétuel changement. Reconnaître cette agentivité change profondément notre rapport au vivant. Les plantes ne sont pas de simples organismes passifs : elles perçoivent, décident et agissent, individuellement et collectivement. Elles modifient les équilibres écologiques, influencent les autres êtres vivants et participent activement à la dynamique du monde.

L’idée d’agentivité végétale nous invite à abandonner la vision hiérarchique du vivant héritée d’Aristote, qui place l’être humain tout en haut d’une pyramide d’intelligence. Elle nous pousse à reconnaître la pluralité des formes d’action et de sensibilité dans la nature. Comprendre cela, c’est aussi repenser notre propre manière d’habiter la terre : non plus comme des maîtres du vivant, mais comme des partenaires d’un vaste réseau d’êtres vivants où tous sont capables de sentir, d’agir et de transformer leur environnement.

The Conversation

François Bouteau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.01.2026 à 15:57

Répression en Iran : pourquoi les forces de sécurité visent les yeux des manifestants

Firouzeh Nahavandi, Professeure émérite, Université Libre de Bruxelles (ULB)
Les tirs de la police visent volontairement les yeux des manifestants. Une pratique dont les racines sont bien plus anciennes que la République islamique.
Texte intégral (1676 mots)

En Iran, les manifestants, et spécialement les manifestantes, font l’objet d’une répression extrêmement violente, avec cette spécificité que les tirs prennent souvent pour cible leurs yeux. En aveuglant l’« ennemi » qui ose les contester, les autorités inscrivent leur action dans la longue histoire du pays.


Au cours des mobilisations iraniennes de ces dernières années, et plus encore depuis celles du mouvement Femme, Vie, Liberté déclenché en 2022, la fréquence élevée de blessures oculaires infligées aux manifestants interpelle les observateurs. Femmes, jeunes, étudiants, parfois simples passants, perdent un œil – voire la vue – à la suite de tirs de chevrotine ou de projectiles à courte distance. Une pratique des forces de sécurité que l’on observe de nouveau actuellement : l’avocate Shirin Ebadi, prix Nobel de la paix en 2003, a ainsi estimé ce 9 janvier que depuis le début des protestations en ce début d’année, « au moins 400 personnes auraient été hospitalisées à Téhéran pour des blessures aux yeux causées par des tirs ».

Ces violences ne relèvent pas de simples bavures. Elles s’inscrivent dans une logique politique qui trouve un écho dans l’histoire longue du pouvoir en Iran, où viser les yeux signifie symboliquement retirer à la victime toute capacité d’existence politique.

Le regard comme attribut du pouvoir

Dans la culture politique iranienne prémoderne, le regard est indissociable de l’autorité. Voir, c’est savoir ; voir, c’est juger ; voir, c’est gouverner. Cette conception traverse la littérature et l’imaginaire politiques iraniens. À titre d’exemple, dans le Shahnameh (Livre des rois), de Ferdowsi (Xe siècle), la cécité constitue un marqueur narratif de déchéance politique et cosmique : elle signale la perte du farr (gloire divine), principe de légitimation du pouvoir, et opère comme une disqualification symbolique durable de l’exercice de la souveraineté. Être aveuglé, c’est être déchu.

Dans le Shahnameh, l’aveuglement d’Esfandiyar par Rostam constitue une scène fondatrice de l’imaginaire politique iranien : en visant les yeux, le récit associe explicitement la perte de la vue à la disqualification du pouvoir et à la fin de toute prétention souveraine.

Rustam aveugle Esfandiar avec une flèche (gouache opaque et or sur papier), non daté. Cliquer pour zoomer. San Diego Museum of Art/Bridgeman Images

Historiquement, l’aveuglement a été utilisé comme instrument de neutralisation politique. Il a permis d’écarter un rival – prince ou dignitaire – sans verser le sang, acte considéré comme sacrilège lorsqu’il touchait les élites. Un aveugle n’était pas exécuté : il était rayé de l’ordre politique.

Le chah Abbas Iᵉʳ (au pouvoir de 1587 à sa mort en 1629) fait aveugler plusieurs de ses fils et petits-fils soupçonnés de complot ou susceptibles de contester la succession.

En 1742, Nader Shah ordonne l’aveuglement de son fils et héritier Reza Qoli Mirza, acte emblématique des pratiques de neutralisation politique dans l’Iran prémoderne.

De l’aveuglement rituel à l’aveuglement sécuritaire : pourquoi les forces de sécurité iraniennes visent-elles si souvent les yeux des manifestants ?

La République islamique ne revendique pas l’aveuglement comme châtiment. Mais la répétition massive de blessures oculaires lors des répressions contemporaines révèle une continuité symbolique.

Autrefois rare, ciblé et assumé, l’aveuglement est aujourd’hui diffus, nié par les autorités, produit par des armes dites « non létales » et rarement sanctionné.

La fonction politique demeure pourtant comparable : neutraliser sans tuer, marquer les corps pour dissuader, empêcher toute réémergence de la contestation.

Dans l’Iran contemporain, le regard est devenu une arme politique. Les manifestants filment, documentent, diffusent. Les images circulent, franchissent les frontières et fragilisent le récit officiel. Toucher les yeux, c’est donc empêcher de voir et de faire voir : empêcher de filmer, d’identifier, de témoigner.

La cible n’est pas seulement l’individu, mais la chaîne du regard reliant la rue iranienne à l’opinion publique internationale.

Contrairement à l’aveuglement ancien, réservé aux élites masculines, la violence oculaire actuelle frappe majoritairement des femmes et des jeunes. Le regard féminin, visible, autonome, affranchi du contrôle idéologique, devient politiquement insupportable pour un régime fondé sur la maîtrise du corps et du visible.

Un continuum de violences visibles

La répression actuelle, qui fait suite aux protestations massives déclenchées fin décembre 2025, s’est intensifiée avec une coupure d’Internet à l’échelle nationale, une tentative manifeste d’entraver la visibilité des violences infligées aux manifestants.

Des témoignages médicaux et des reportages indépendants décrivent des hôpitaux débordés par des cas de traumatismes graves – notamment aux yeux – alors que l’usage croissant d’armes à balles réelles contre la foule est documenté dans plusieurs provinces. Ces blessures confirment que le corps, et particulièrement la capacité de voir et de documenter, reste une cible centrale du pouvoir répressif.

Au-delà des chiffres, les récits des victimes féminines racontent une autre dimension de ces pratiques contemporaines. Alors que la société iranienne a vu des femmes à la pointe des mobilisations depuis la mort de Mahsa Jina Amini en 2022 – dont certaines ont été aveuglées intentionnellement lors des manifestations –, ces blessures symbolisent à la fois l’effort du pouvoir pour effacer le regard féminin autonome, source de menace politique, et la résistance incarnée par des femmes blessées mais persistantes, dont les visages mutilés circulent comme des preuves vivantes de répression.

L’histoire ne se limite donc pas à un passé lointain de neutralisation politique : elle imprègne l’expérience corporelle des femmes aujourd’hui, où l’atteinte à l’œil se lit à la fois comme une violence instrumentale et un signe que la lutte politique se joue aussi sur le champ visuel.

Le corps comme dernier champ de souveraineté

La République islamique a rompu avec le sacré monarchique, mais elle a conservé un principe ancien : le corps comme lieu d’inscription du pouvoir. Là où le souverain aveuglait pour protéger une dynastie, l’État sécuritaire mutile pour préserver sa survie.

Cette stratégie produit toutefois un effet paradoxal. Dans l’Iran ancien, l’aveuglement faisait disparaître politiquement. Aujourd’hui, il rend visible la violence du régime. Les visages mutilés circulent, les victimes deviennent des symboles et les yeux perdus témoignent d’une crise profonde de légitimité.

L’histoire ne se répète pas, mais elle survit dans les gestes. En visant les yeux, le pouvoir iranien réactive une grammaire ancienne de domination : empêcher de voir pour empêcher d’exister politiquement.

The Conversation

Firouzeh Nahavandi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.01.2026 à 15:56

Le plurilinguisme à l’école : une richesse invisible à reconnaître

Sophie Othman, Maître de conférences, Centre de Linguistique Appliquée - CLA, Université Marie et Louis Pasteur (UMLP)
En France, près d’un élève sur cinq entend régulièrement une autre langue que le français à la maison. Un plurilinguisme qui peine encore à être reconnu alors qu’il représente un atout.
Texte intégral (1918 mots)

En France, près d’un élève sur cinq entend régulièrement une autre langue que le français à la maison. Or l’école peine encore à reconnaître et à valoriser cette richesse qui constitue, selon la recherche, un atout pour le développement des enfants et des adolescents en général.


Dans de nombreuses familles, les élèves grandissent avec une ou plusieurs langues autres que le français. À la maison, on parle arabe, chinois, créole, lingala, polonais, portugais, tamoul, turc. Cette diversité linguistique fait pourtant rarement l’objet d’une reconnaissance explicite à l’école, où les langues familiales demeurent largement invisibles, voire sont perçues comme un obstacle aux apprentissages.

Selon les estimations de l’Insee et du ministère de l’éducation nationale, près d’un élève sur cinq entend régulièrement une autre langue que le français à la maison. Pourtant, très peu d’établissements proposent des activités d’éveil aux langues. Ce décalage contribue, chez certains enfants, à l’intériorisation de l’idée que leur langue d’origine serait illégitime ou sans valeur scolaire.

Cette invisibilisation peut fragiliser le rapport à l’école, à l’apprentissage et parfois à la société elle-même. Dès lors, une question s’impose : comment mieux reconnaître cette richesse linguistique et en faire un levier éducatif au service de tous les élèves ?

Le plurilinguisme, un atout pour grandir

L’école républicaine française s’est historiquement construite autour d’un modèle linguistique centralisé. Cette priorité accordée au français s’est traduite par une longue marginalisation des langues autres que le français, qu’il s’agisse des langues régionales (occitan, breton, alsacien…) ou des langues de familles issues de l’immigration. Cette dynamique a durablement influencé les représentations et les pratiques scolaires en France, au détriment de la diversité linguistique des élèves.

Or, la recherche en didactique et sociolinguistique est claire : loin de nuire à l’apprentissage du français, le maintien et la valorisation des langues d’origine favorisent le développement cognitif, la réussite scolaire et la confiance en soi.

Les neurosciences confirment d’ailleurs que les enfants plurilingues développent plus tôt certaines capacités d’attention et de flexibilité mentale. En valorisant leurs langues, on reconnaît non seulement leurs compétences, mais aussi leur identité, ce qui renforce leur motivation et leur rapport à l’école.

Accueillir d’autres langues à l’école : l’exemple suisse

Le rapport aux langues à l’école n’est pourtant pas le même partout. Dans d’autres pays européens, la diversité linguistique est pensée comme une composante ordinaire de la scolarité. C’est le cas de la Suisse, pays voisin où le français est également langue de scolarisation, mais où le plurilinguisme constitue un principe structurant du système éducatif.

Ainsi, certains cantons reconnaissent officiellement les cours de langue et culture d’origine comme complémentaires à la scolarité. Même lorsqu’ils se déroulent en dehors du temps strictement scolaire, ces enseignements s’inscrivent dans une politique linguistique cohérente, qui reconnaît la pluralité des répertoires des élèves.

En Allemagne, au Canada ou encore au Luxembourg, des dispositifs similaires existent depuis longtemps. La France ne pourrait-elle pas s’en inspirer ?

La notion de « neutralité linguistique » en France

La frilosité française face à la reconnaissance des langues familiales à l’école tient d’abord à l’héritage du modèle scolaire républicain. Depuis la fin du XIXᵉ siècle, l’école française s’est construite comme un espace d’unification linguistique, où le français est à la fois langue d’enseignement, langue de la citoyenneté et symbole de cohésion nationale. Cette orientation s’est accompagnée d’une mise à distance progressive des autres langues présentes sur le territoire, notamment les langues régionales.

La notion de « neutralité linguistique » permet de décrire ce modèle, même si elle ne constitue pas une expression institutionnelle officielle. Elle est mobilisée par les chercheurs pour qualifier une conception de l’école pensée comme linguistiquement homogène, afin d’éviter toute différenciation perçue comme communautaire. Cette approche a été largement analysée, notamment par Philippe Blanchet, qui montre comment l’unification linguistique a longtemps été considérée comme une condition de l’égalité républicaine.

À cette dimension historique s’ajoute une crainte politique persistante. La question des langues demeure étroitement liée à celle de l’intégration et de l’identité nationale, notamment dans les rapports consacrés à l’éducation plurilingue publiés en 2018 par le Conseil de l’Europe.

Cette institution rappelle pourtant que l’école peut prendre en compte l’ensemble des langues présentes, qu’il s’agisse des langues de scolarisation, des langues familiales, des langues régionales ou des langues étrangères, sans les opposer entre elles.

Il existe enfin des freins plus pratiques. De nombreux enseignants déclarent manquer de formation pour intégrer la diversité linguistique dans leurs pratiques quotidiennes, tandis que les dispositifs institutionnels restent souvent limités ou peu lisibles. Les ressources existent, mais elles sont parfois méconnues ou insuffisamment soutenues sur les plans financier et organisationnel, comme le souligne le Conseil scientifique de l’éducation nationale (CSEN) dans sa synthèse consacrée au bilinguisme et au plurilinguisme à l’école (2023).

La diversité linguistique facteur d’équilibre social

Dans ce contexte, les travaux de Jean-Claude Beacco, chercheur spécialiste des politiques linguistiques et de l’éducation plurilingue, apportent un éclairage essentiel. Pour lui, la diversité linguistique doit être pensée comme une composante de la diversité culturelle, au même titre que la biodiversité dans le domaine écologique.

Reconnaître les langues des élèves ne vise pas uniquement à améliorer les apprentissages, mais participe plus largement à un équilibre social fondé sur la reconnaissance des différences.

Beacco souligne que l’éducation plurilingue constitue un véritable projet citoyen : elle développe la capacité à comprendre l’altérité, à comparer les points de vue et à dialoguer dans des sociétés marquées par la mobilité et la diversité. En mobilisant les langues comme ressources cognitives et culturelles, l’école ne fragilise pas le français ; elle renforce au contraire la compétence à communiquer, à apprendre et à vivre ensemble. Dans cette perspective, l’éducation plurilingue concerne l’ensemble des élèves, appelés à évoluer dans des sociétés de plus en plus interconnectées.

Repenser l’enseignement : du français « seul » au français en dialogue

Dans différentes écoles, des enseignants mettent en place des pratiques qui invitent les élèves à mobiliser les langues parlées dans leur famille : présentation de mots du quotidien, comptines, récits, recettes ou expressions culturelles. Ces activités, documentées dans de nombreux travaux en didactique des langues, ne relèvent pas de l’anecdotique : elles favorisent la coopération entre élèves et contribuent au développement de compétences interculturelles, tout en renforçant l’engagement dans les apprentissages.

Ces pratiques ont notamment été observées dans des projets d’éveil aux langues menés à l’école primaire, approche didactique développée notamment par le chercheur en linguistique Michel Candelier, qui vise à familiariser les élèves avec la diversité linguistique sans enseigner ces langues. Les enseignants rapportent que la mise en circulation des langues familiales transforme les dynamiques de classe. Comme le résume une professeure de CM2 interrogée dans une étude qualitative :

« Quand un élève m’explique un mot en arabe ou en portugais, c’est tout le groupe qui apprend. Le français devient alors un lieu de partage, pas de hiérarchie. »

Ces témoignages rejoignent les propositions formulées par Jean-Claude Beacco, qui invite à aller plus loin en intégrant les comparaisons entre langues au cœur des apprentissages. Concrètement, il s’agit par exemple de comparer la manière dont différentes langues expriment le pluriel, l’ordre des mots dans la phrase, la formation des temps verbaux ou encore les systèmes d’écriture. Un travail sur les accords en français peut ainsi s’appuyer sur les langues connues des élèves pour mettre en évidence similitudes et différences, et développer une réflexion sur le fonctionnement du langage.

Ces activités renforcent la conscience métalinguistique des élèves et montrent que l’on peut apprendre le français en s’appuyant sur les autres langues. L’éducation plurilingue ne se limite donc pas à l’accueil des élèves allophones : elle concerne l’ensemble des élèves et peut irriguer toutes les disciplines, en développant des compétences d’analyse, de comparaison et de mise à distance, essentielles à la réussite scolaire.


Cet article est publié en partenariat avec la Délégation générale à la langue française et aux langues de France du ministère de la culture.

The Conversation

Sophie Othman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.01.2026 à 15:54

La bulle de l’IA n’a rien de nouveau : Karl Marx en a expliqué les mécanismes, il y a près de 150 ans

Elliot Goodell Ugalde, PhD Candidate, Political Economy, Queen's University, Ontario
L’alerte lancée par le patron d’OpenAI, Sam Altman, sur une bulle de l’IA met en lumière un problème économique plus profond : le capitalisme produit plus de capital qu’il ne peut en investir de manière rentable.
Texte intégral (2462 mots)
Le secteur de l’IA est en plein essor, mais une grande partie des investissements relève de la spéculation. Saradasish Pradhan/Unsplash, CC BY

L’explosion des investissements dans l’intelligence artificielle révèle, comme l’avait décrit Marx, d’une difficulté structurelle du capitalisme à absorber ses propres excédents, au prix d’une financiarisation accrue et de fragilités économiques croissantes.


Lorsque Sam Altman, patron d’OpenAI, a déclaré plus tôt cette année à des journalistes à San Francisco que le secteur de l’intelligence artificielle (IA) était en train de former une bulle, le marché technologique états-unien a réagi presque instantanément. Combinée au fait que 95 % des projets pilotes en IA échouent, sa remarque a été perçue par les traders comme un signal d’alerte plus large. Même si Altman visait spécifiquement les start-ups non cotées plutôt que les grands groupes en Bourse, certains semblent y avoir vu une évaluation de l’ensemble du secteur.

Le milliardaire de la tech Peter Thiel (NDT : un proche de Donald Trump) a par exemple vendu ses actions Nvidia, tandis que l’investisseur américain Michael Burry – rendu célèbre par The Big Shorta parié des millions de dollars sur une baisse de la valeur de ce fabricant de puces mais également de l’éditeur américain de logiciels d’analyse data Palantir.


À lire aussi : Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne


Au fond, le propos d’Altman ne met pas seulement en lumière la fragilité de certaines sociétés, mais une tendance plus profonde qu’avait anticipée Karl Marx : le problème du capital excédentaire, qui ne parvient plus à trouver de débouchés rentables dans la production.

La théorie marxiste des crises

L’avenir de l’IA n’est pas en cause. Comme Internet après l’éclatement de la bulle de 2001, la technologie est appelée à durer. Ce qui pose question, en revanche, c’est la destination du capital une fois que les actions liées à l’IA ne fourniront plus les rendements spéculatifs promis ces dernières années.

Cette interrogation nous ramène directement à l’analyse marxienne des crises liées à la suraccumulation. Marx soutenait qu’une économie devient instable lorsque la masse de capital accumulé ne peut plus être réinvestie de manière rentable.

Les investissements technologiques masquent la faiblesse économique

Des années de taux d’intérêt bas et de liquidités abondantes durant la pandémie ont gonflé les bilans des entreprises. Une large part de ces liquidités s’est dirigée vers le secteur technologique, en se concentrant sur ce que l’on appelle les « Sept Magnifiques » – Amazon, Alphabet, Meta, Apple, Microsoft, Nvidia et Tesla. Sans ces entreprises, la performance des marchés serait négative.

Cela ne traduit pas un véritable dynamisme technologique ; c’est le signe d’un capital concentré dans une poignée d’actifs surévalués, fonctionnant comme de l’« argent jeté dans la circulation sans base matérielle dans la production », qui circule sans ancrage dans l’activité économique réelle.

La conséquence est qu’une part moindre de l’investissement atteint l’« économie réelle », ce qui alimente la stagnation économique et la crise du coût de la vie – deux phénomènes largement masqués par l’indicateur du PIB.

Comment l’IA est devenue le dernier palliatif

Le géographe de l’économie David Harvey prolonge l’intuition de Marx avec la notion de « spatio-temporal fix », qu’on pourrait traduire par « correctif spatio-temporel », qui désigne la manière dont le capital résout provisoirement la stagnation en repoussant l’investissement dans le temps ou en s’étendant vers de nouveaux territoires.

La suraccumulation produit des excédents de travail, de capacités productives et de capital financier, qui ne peuvent être absorbés sans pertes. Ces excédents sont alors redirigés vers des projets de long terme, ce qui repousse les crises vers de nouveaux espaces et ouvre de nouvelles possibilités d’extraction.

Le boom de l’IA fonctionne à la fois comme un correctif temporel et un correctif spatial. Sur le plan temporel, il offre aux investisseurs des droits sur une rentabilité future qui pourrait ne jamais se matérialiser – ce que Marx appelait le « capital fictif ». Il s’agit d’une richesse qui apparaît dans les bilans alors qu’elle repose peu sur l’économie réelle, ancrée dans la production de biens.

Sur le plan spatial, l’extension des centres de données, des sites de fabrication de puces et des zones d’extraction minière nécessite des investissements matériels considérables. Ces projets absorbent du capital tout en dépendant de nouveaux territoires, de nouveaux marchés du travail et de nouvelles frontières de ressources. Mais comme le suggère l’aveu de Sam Altman, et alors que les mesures protectionnistes du président américain Donald Trump compliquent le commerce mondial, ces débouchés atteignent leurs limites.

Le coût du capital spéculatif

Les conséquences de la suraccumulation dépassent largement le seul monde des entreprises et des investisseurs. Elles se vivent socialement, et non de manière abstraite. Marx expliquait qu’une surproduction de capital correspond à une surproduction des moyens de production et des biens de première nécessité qui ne peuvent être utilisés aux taux d’exploitation existants.

Autrement dit, l’affaiblissement du pouvoir d’achat – ironiquement accéléré par l’essor de l’IA – empêche le capital de se valoriser au rythme auquel il est produit. Lorsque la rentabilité recule, l’économie résout ce déséquilibre en détruisant les moyens de subsistance des travailleurs et des ménages dont les retraites sont liées aux marchés financiers.

L’histoire offre des exemples frappants. L’éclatement de la bulle Internet a ruiné de petits investisseurs et concentré le pouvoir entre les mains des entreprises survivantes. La crise financière de 2008 a chassé des millions de personnes de leur logement tandis que les institutions financières étaient sauvées. Aujourd’hui, de grands gestionnaires d’actifs se couvrent déjà contre de possibles turbulences. Vanguard, par exemple, a opéré un net déplacement vers les obligations.

La spéculation comme moteur de la croissance

La bulle de l’IA est avant tout le symptôme de pressions structurelles, plus que le simple produit d’une dynamique technologique. Au début du XXᵉ siècle, l’économiste marxiste Rosa Luxemburg s’interrogeait déjà sur l’origine de la demande sans cesse croissante nécessaire à la reproduction élargie du capital.

Sa réponse fait écho à celles de Marx et de Harvey : lorsque les débouchés productifs se raréfient, le capital se déplace soit vers l’extérieur, soit vers la spéculation. Les États-Unis optent de plus en plus pour cette seconde voie. Les dépenses des entreprises dans les infrastructures d’IA contribuent désormais davantage à la croissance du PIB que la consommation des ménages, une inversion sans précédent qui montre à quel point la croissance actuelle repose sur l’investissement spéculatif plutôt que sur l’expansion productive.

Cette dynamique tire vers le bas le taux de profit et, lorsque le flux spéculatif s’inversera, la contraction suivra.

Les droits de douane resserrent l’étau sur le capital

L’inflation financière s’est accentuée à mesure que les soupapes traditionnelles permettant au capital de s’orienter vers de nouveaux marchés physiques ou géographiques se sont refermées.

Les droits de douane, les contrôles à l’exportation sur les semi-conducteurs et les mesures commerciales de rétorsion ont réduit l’espace mondial disponible pour les relocalisations. Comme le capital ne peut plus facilement échapper aux pressions structurelles de l’économie intérieure, il se tourne de plus en plus vers des outils financiers qui repoussent les pertes en refinançant la dette ou en gonflant les prix des actifs – des mécanismes qui accroissent finalement la fragilité lorsque l’heure des comptes arrive.

Le président de la Réserve fédérale des États-Unis Jerome Powell s’est dit favorable à d’éventuelles baisses des taux d’intérêt, signe d’un retour vers le crédit bon marché. En rendant l’emprunt moins coûteux, ces baisses permettent au capital de masquer ses pertes et d’alimenter de nouveaux cycles spéculatifs.

Marx a formulé cette logique dans son analyse du capital porteur d’intérêt, où la finance crée des droits sur une production future « au-delà de ce qui peut être réalisé sous forme de marchandises ». Il en résulte que les ménages sont poussés à s’endetter au-delà de ce qu’ils peuvent réellement supporter, échangeant ainsi une crise de stagnation contre une crise du crédit à la consommation.

Bulles et risques sociaux

Si la bulle de l’IA éclate alors que les gouvernements disposent de peu de marges pour redéployer les investissements à l’international et que l’économie repose sur un crédit de plus en plus fragile, les conséquences pourraient être lourdes.

Le capital ne disparaîtra pas mais se concentrera davantage dans les marchés obligataires et les instruments de crédit, gonflés par une banque centrale américaine désireuse de baisser les taux d’intérêt. Cela n’évite pas la crise ; cela en déplace simplement le coût vers le bas de l’échelle sociale.

Les bulles ne sont pas des accidents mais des mécanismes récurrents d’absorption du capital excédentaire. Si le protectionnisme de Trump continue de fermer les débouchés spatiaux et que les correctifs temporels reposent sur un endettement toujours plus risqué, le système s’oriente vers un cycle d’inflation des actifs, d’effondrement, puis de nouvelle intervention de l’État.

L’IA survivra, mais la bulle spéculative qui l’entoure est le symptôme d’un problème structurel plus profond – dont le coût, une fois pleinement révélé, pèsera avant tout sur les classes populaires.

The Conversation

Elliot Goodell Ugalde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.01.2026 à 15:53

La Terre du Milieu de Tolkien, un lieu imaginaire pour repenser notre rapport à la nature

Véronique André-Lamat, Professeure de Géographie, Centre national de la recherche scientifique (CNRS)
Léa Menard, Médiatrice scientifique, Centre national de la recherche scientifique (CNRS)
« Le Seigneur des anneaux », à travers sa géographie imaginaire, nous invite à nous engager dans une éthique environnementale qui semble plus d’actualité que jamais.
Texte intégral (2841 mots)
La Terre du Milieu. Léa Dutemps, Fourni par l'auteur

L’écrivain anglais J. R. R. Tolkien (1892-1973) était un cartographe de l’imaginaire. Dans le Seigneur des anneaux (1954-1955), il invente un monde dans lequel la frontière entre humanité et animalité est floue. Ses cartes de la Terre du Milieu construisent la cohérence spatiale et la densité narrative de la quête de la Communauté de l’anneau. Montagnes, forêts, rivières y constituent tantôt des épreuves spatiales, tantôt des espaces protecteurs ou de refuge. La géographie y structure le récit et façonne la fiction.


Les mondes imaginaires sont performatifs. Ils se nourrissent du réel dans une projection fictionnelle tout en l’interrogeant. Le Seigneur des anneaux n’y fait pas exception, nous invitant à réfléchir à nos liens avec la nature, à reconnaître sa valeur intrinsèque et à dépasser une conception dualiste opposant nature et culture, ne lui accordant qu’une valeur d’usage ou de ressource, à nous engager dans une éthique environnementale.

En suivant la Communauté, métissée, sur les chemins, parfois de traverse, les menant vers le mont Destin, nous sommes confrontés à différentes manières d’habiter et de transformer la nature : utopies rurales, zones industrieuses, refuges écologiques et lieux symboliques où des choix engagent l’avenir du monde. La fiction devient un outil pour questionner le réel, interroger nos pratiques et réfléchir aux enjeux environnementaux contemporains dans une ère désormais anthropocénique.

Le mont Destin. Léa Dutemps, Fourni par l'auteur

Habiter (avec) le monde : utopies rurales et résistance

La Comté repose sur un système agraire vivrier de polycultures fondé sur de petites exploitations familiales où le tabac réputé n’est que peu exporté. Les Hobbits vivent en autarcie et habitent littéralement une nature jardinée, dans des terriers. Le bocage, les prairies forment un maillage qui limite l’érosion et protège la biodiversité et organisent un territoire où nature et société coexistent harmonieusement. Cet idéal préindustriel s’éteint peu à peu dans le monde occidental moderne où une agriculture intensive et centralisée s’est imposée pour devenir norme sur un territoire remembré.

La Comté. Léa Dutemps, Fourni par l'auteur

La forêt de Fangorn, elle, représente une nature qui résiste à la manière d’une zone à défendre (ZAD). Les Ents, gestionnaires du peuplement forestier, incarnent des arbres doués de parole, capables de révolte. Ils refusent la domination humaine fermant les sentiers d’accès avant de s’engager dans une guerre contre l’industrialisation menée par Saroumane en Isengard. Le chantier stoppé de l’autoroute A69 témoigne de la façon dont la nature peut parfois aujourd’hui par elle-même poser des limites aux projets d’aménagement voulus par l’humain.

La Lothlórien, enfin, symbolise une écotopie, un espace préservé du temps et des pressions humaines, où nature, société et spiritualité vivent en harmonie. La réserve intégrale de la forêt de la Massane, les forêts « sacrées » d’Afrique de l’Ouest ou celles du nord de la Grèce (massif du Pindes) font écho à cet idéal. Pensées comme des écosystèmes dont les dynamiques naturelles sont respectées et où l’intervention humaine contrôlée se fait discrète, elles permettent d’observer et de suivre les espèces, la régénération spontanée des habitats et leur résilience. Mais à l’image de la Lothlórien, un tel système de gestion reste spatialement rare, fragile. Il nécessite de construire la nature comme bien commun dont l’accès et l’usage sont acceptés par les communautés qui cohabitent avec ces espaces forestiers.

La Lothlórien. Léa Dutemps, Fourni par l'auteur

Ces trois types de territoires montrent qu’habiter le monde n’est pas simplement occuper, encore moins s’approprier, un espace de nature mais engager un dialogue avec lui, considérer qu’il a une valeur par lui-même, juste parce qu’il existe, et pas uniquement en tant que ressource. Il s’agit alors de cohabiter dans des interactions où chaque existant prend soin de l’autre.

Exploiter une nature ressource : de l’artificialisation à la destruction

La transformation des espaces de nature, comme le montre Tolkien, peut aussi répondre à une logique d’exploitation intensive, la nature offrant des ressources permettant d’asseoir la domination des humains sur la nature comme sur d’autres humains. Il ne s’agit plus d’envisager une cohabitation être humain/nature mais d’asservir la nature par la technique.

Isengard, le territoire de Saroumane au sud des monts Brumeux, contrôlé par la tour d’Orthanc, incarne la transformation radicale du milieu par et pour l’industrie ; une industrie dont la production d’Orques hybrides, sorte de transhumanisme appliqué à la sauvagerie, vise à renforcer le pouvoir de Saroumane et construire son armée pour prendre le contrôle d’autres territoires. La forêt est rasée, les fleuves détournés, le paysage mécanisé, dans l’unique but d’alimenter l’industrie. Les champs d’exploitation des schistes bitumineux en Amérique du Nord montrent à quel point l’exploitation de la nature peut détruire des paysages, polluer une nature qui devient impropre et dont les fonctions et services écosystémiques sont détruits).

La tour d’Orthanc. Léa Dutemps, Fourni par l'auteur

La Moria, ancien royaume florissant du peuple Nain, est l’exemple de l’issue létale de la surexploitation d’une ressource naturelle. Si le mithril, minerai rare de très grande valeur a construit la puissance du royaume Nain, son exploitation sans cesse plus intense, vidant les profondeurs de la terre, va conduire à l’effondrement de la civilisation et à l’abandon de la Moria. Ce territoire minier en déshérence fait écho aux paysages des régions du Donbass par exemple, qui conservent aujourd’hui encore les traces visibles de décennies d’extraction charbonnière : galeries effondrées, sols instables et villes partiellement abandonnées.

Lieux de rupture et enjeux planétaires

On trouve enfin chez Tolkien une mise en scène d’espaces qui représentent des lieux de bascule pour l’intrigue et l’avenir du monde, en l’occurrence la Terre du Milieu.

Le « bourg-pont » de Bree, zone frontière matérialisée par une large rivière, marque la limite entre l’univers encore protégé, presque fermé, de la Comté et les territoires marchands de l’est, ouverts et instables. Mais Bree est aussi un carrefour dynamique, lieu d’échanges où circulent et se rencontrent des personnes, des biens et des récits. Un carrefour et une frontière où toutefois la tension et la surveillance de toutes les mobilités sont fortes.

La Moria. Léa Dutemps, Fourni par l'auteur

Lieu de transition, symbolisant à la fois ouverture et fermeture territoriales, Bree est un point de bascule dans le récit où convergent et se confrontent des personnages clés de l’intrigue (les Hobbits, Aragorn, les cavaliers noirs de Sauron), les figures du Bien et du Mal autour desquelles vont se jouer l’avenir de la Terre du Milieu. Comme Bree, Calais est un point de friction entre un espace fermé (les frontières britanniques) et un espace ouvert où s’entremêlent société locale, logiques nationales et transnationales, mais où les circulations sont de plus en plus contrôlées.

Enfin, la montagne du Destin, volcan actif, incarne le lieu de rupture ultime, celui où le choix d’un individu, garder l’anneau pour lui seul dans un désir de pouvoir total ou accepter de le détruire, a des conséquences majeures pour toute la Terre du Milieu. Certains espaces jouent un rôle similaire sur notre terre. La fonte du permafrost sibérien ou de l’inlandsis antarctique pourrait libérer d’immenses quantités de carbone pour l’un, d’eau douce pour l’autre, accélérant le dérèglement climatique et la submersion de terres habitées.

Ces lieux où des actions localisées peuvent déclencher des effets systémiques globaux, au-delà de tout contrôle, concentrent ainsi des enjeux critiques, écologiques, géopolitiques ou symboliques.

La fiction constitue un puissant vecteur de réflexion quant à notre responsabilité collective dans la gestion de la nature, quant à nos choix éthiques et politiques dans la manière d’habiter la Terre en tant que bien commun et ainsi éviter d’atteindre un point de bascule qui sera celui d’un non-retour.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 12:02

Le microcrédit, un outil financier qui peut coûter cher aux femmes

Jérémie Bertrand, Professeur de finance, IESEG School of Management et LEM-CNRS 9221, IÉSEG School of Management, IÉSEG School of Management
Caroline Perrin, Chercheuse postdoctorante | Commission européenne
Suicide, surendettement, violences conjugales… les effets pervers du microcrédit sont légion pour les femmes. Quelles solutions pour les enrayer ?
Texte intégral (1352 mots)
L’accès au microcrédit pour les femmes peut engendrer des violences conjugales. Philippe Lissac/Shutterstock

Grâce au microcrédit, les femmes gagnent une plus grande indépendance financière et un pouvoir décisionnel dans leur activité professionnelle. Corollaires à ce progrès : le surendettement, les violences conjugales et… le suicide. Quelles sont les solutions pour limiter ces effets délétères ?


Cinquante ans après le lancement du microcrédit au Bangladesh, les femmes représentent aujourd’hui 80 % des bénéficiaires, mais en profitent-elles réellement ?

Pression de groupe pouvant entraîner des suicides, spirale de surendettement ou encore manque de contrôle des femmes sur l’utilisation des prêts… autant de dérives qui peuvent accroître la vulnérabilité des emprunteuses.

Dans un état de l’art que nous avons publié récemment, nous regardons l’impact réel du microcrédit sur les femmes. Le résultat n’est pas totalement en leur faveur.

Notre état de l’art s’appuie sur des travaux menés principalement dans des pays en développement, incluant l’Asie du Sud, l’Océanie et l’Afrique subsaharienne.

La pression des pairs

Comment fonctionne le prêt solidaire, outil le plus utilisé en microfinance ?

De petits groupes, composés de cinq à dix individus, empruntent ensemble. Si l’un des membres manque une échéance, les autres doivent avancer son dû. La pression des pairs assure le remboursement du prêt, mais elle déplace la charge sociale sur le groupe.

Cette pression peut être plus ou moins bien supportée. En Andhra Pradesh, un État de l’Inde, le cumul de dettes et des méthodes de recouvrement oppressives ont entraîné une vague de suicides, causant près de 80 morts en 2010. Malgré les mesures de régulation mises en place par les gouvernements et les institutions du secteur, des cas de suicides continuent d’être signalés. Il demeure difficile d’estimer régulièrement le nombre de décès liés au microcrédit, faute de données.

Un surendettement à la clé

Le manque d’accompagnement et d’éducation financière des emprunteurs et emprunteuses peuvent eux mener à l’échec de l’emprunt. Force est de constater que beaucoup de microcrédits financent de petites activités sur des marchés déjà saturés, où la probabilité de dégager un profit est faible.

Concrètement, il s’agit souvent d’activités à faible barrière à l’entrée mais très concurrentielles : petit commerce (vente de nourriture, fruits et légumes, vêtements), kiosques et revente sur marché, petite restauration, couture, etc. Sur des marchés locaux où de nombreuses personnes proposent des produits et des services similaires, la demande est rapidement « partagée ». Les marges sont faibles et les revenus restent volatils, ce qui limite la capacité à rembourser.

Face à cette situation, l’emprunteuse peut devoir contracter un nouveau prêt, l’exposant à un risque de surendettement.

Il peut s’agir d’un renouvellement, ou top-up, auprès de la même institution, d’un second microcrédit auprès d’une autre institution, ou d’un prêt informel (tontine, famille ou autre prêteur particulier). Ces prêts sont souvent de petits montants mais à remboursements fréquents. Leur coût peut être élevé, une fois les intérêts inclus. Le surendettement survient souvent lorsque le nouveau prêt sert à rembourser le précédent plutôt qu’à financer une activité rentable.

Qui décide de l’usage du prêt ?

Si, comme mentionné préalablement, la majorité des microcrédits sont accordés aux femmes, ces dernières n’ont pas forcément la maîtrise de l’argent obtenu qui revient à un parent ou un conjoint. Cela s’explique par les rapports de pouvoir au sein du ménage et des normes sociales, qui font de l’homme le décisionnaire principal du couple, surtout lorsqu’il s’agit d’argent.

Ce décalage entre celle qui paie et celui qui décide peut générer des tensions au sein du ménage. Dans certains contextes, l’accès au microcrédit peut même aller jusqu’à engendrer une hausse de la violence conjugale. Par exemple, à partir d’un échantillon national au Bangladesh, soit 4 163 femmes mariées, les chercheurs Nadine Shaanta Murshid, Ayse Akincigil et Allison Zippay concluent qu’avoir un microcrédit pour les femmes avec un meilleur statut économique est associé à une probabilité de 9 % de plus de subir de la violence domestique.

Prêter autrement ?

Pour limiter ces effets, des solutions existent.

Passer de la garantie de groupe à la responsabilité individuelle réduit la pression des pairs sans hausse des défauts. Au lieu qu’un « groupe solidaire » de 5 à 10 femmes soit collectivement responsable, chaque emprunteuse signe un contrat individuel et n’est responsable que de sa propre échéance. Pourquoi cela peut fonctionner ? Parce que la pression sociale du groupe peut pousser à rembourser même quand le prêt n’est pas rentable.

Proposer des microformations très pratiques en « règles de pouce », comme une formation d’une heure et demie maximum sur les bases de la gestion financière, peut contribuer à rendre les investissements profitables et limiter le risque de surendettement. Elles peuvent porter sur des gestes très concrets de gestion : séparer l’argent du ménage et celui de l’activité, tenir un mini-carnet quotidien des entrées et des sorties ou apprendre à calculer simplement des coûts, des prix et des marges pour identifier ce qui est réellement rentable.

Gérer l’emprunt directement sur les comptes personnels des emprunteuses, notamment via les comptes mobile money, donne aux femmes une autonomie financière effective. Elles reçoivent, paient et épargnent elles-mêmes, tout en réduisant le risque d’appropriation des fonds par un homologue masculin. Le prêt est versé sur le wallet mobile de l’emprunteuse, puis les remboursements se font depuis ce même compte ; cela rend plus difficile la « capture » immédiate en liquide par le conjoint et crée une traçabilité/contrôle directe des flux (réception, paiements fournisseurs, remboursement).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 12:02

À quoi servent les groupements d’employeurs ?

Matthieu Mandard, Maître de conférences en sciences de gestion, Université de Rennes 1 - Université de Rennes
Anne Joyeau, Professeur en management des ressources humaines
Sébastien Le Gall, Professeur des Universités en Stratégie et Management, Université Bretagne Sud (UBS)
Dispositif méconnu, les groupements d’employeurs sont pourtant un puissant levier d’emploi. Revue de détail de leurs atouts.
Texte intégral (1673 mots)

Quarante ans après leur naissance, les groupements d’employeurs restent relativement discrets. Pourtant, cette forme juridique originale peut être un puissant levier, notamment pour les (très) petites et moyennes entreprises, en leur donnant les moyens de recruter un salarié en commun. Revue de détail des services proposés par cet outil.


Les groupements d’employeurs ont été institués en France en 1985 afin de permettre aux petites et moyennes entreprises de se regrouper pour recruter de la main-d’œuvre. Malgré leur intérêt, ces structures souffrent d’un manque de reconnaissance car leurs vertus restent mal connues.

Constitués sous forme associative ou, plus rarement, sous le statut de société coopérative, les groupements d’employeurs (GE) permettent aux entreprises d’un même territoire de procéder à des embauches mutualisées. Les GE assurent le rôle d’employeur de salariés, dont le temps de travail est réparti le plus souvent entre deux ou trois entreprises adhérentes. Ils offrent ainsi une souplesse de fonctionnement à ces adhérents, qui disposent de compétences auxquelles ils n’auraient pas eu accès individuellement. Ils permettent aussi aux salariés de réaliser des missions diversifiées tout en bénéficiant d’un emploi à temps plein. Et à l’échelle des territoires, ils constituent un outil pour préserver des emplois et soutenir le dynamisme économique local.

Des structures peu visibles

35 ans après leur apparition, les GE restent cependant méconnus et insuffisamment utilisés. Alors que le tissu économique français est essentiellement constitué de TPE et de PME, les 5 000 GE environ que compte notre pays (dont 900 hors secteur agricole) ne représentent que 55 000 salariés (25 000 hors secteur agricole), selon les estimations réalisées par la DARES en 2021 et par le ministère de l’Agriculture en 2023.

Parmi les raisons avancées pour expliquer ce manque de popularité, le Conseil économique, social et environnemental (Cese) mentionne la pluralité des usages qui sont faits de ces structures, qui rend leur rôle peu lisible. Nous avons donc mené une recherche afin de les mettre en évidence.

S’adapter aux cycles d’activité

En premier lieu, les GE offrent à leurs adhérents la possibilité d’ajuster leurs recrutements aux cycles d’activité. Il s’agit là du rôle qui a présidé à leur création en 1985 : l’objectif était alors d’offrir un cadre légal aux pratiques, jusqu’alors informelles, de partage de personnel entre exploitants agricoles faisant face à un accroissement saisonnier de travail. De nos jours, ce type de recours aux GE s’est étendu à tout type d’entreprise dont l’activité est affectée par la saisonnalité, et en particulier à celles du secteur agroalimentaire.


À lire aussi : Qu’est-ce qu’un « bon employeur » ? Une approche par la notion d’« employeurabilité »


Les GE sont ainsi présents dans toutes les régions, avec des spécificités liées aux caractéristiques des territoires. À titre d’exemple, le GE “Côte Sud Emploi”, qui a été créé par et pour l’industrie agroalimentaire dans le département des Landes, a ainsi engagé des réflexions sur les complémentarités sectorielles en se positionnant également sur le thermalisme.

Mutualiser les compétences

L’usage des GE s’est progressivement étendu, puisqu’ils sont par la suite devenus une modalité stable de mutualisation des compétences. Ils permettent en effet aux PME qui en sont membres de bénéficier quelques jours par semaine de professionnels de fonctions support indispensables à la bonne conduite de leurs activités – marketing, communication, gestion des ressources humaines, hygiène et sécurité, etc.

L’intérêt pour les entreprises est ici de pouvoir bénéficier de compétences sur la durée, auxquelles elles n’auraient pas eu accès à titre individuel. Et les salariés apprécient eux aussi ce mode de recours aux GE, dans la mesure où ils peuvent ainsi acquérir de manière simultanée des expériences professionnelles diversifiées tout en bénéficiant d’un emploi stable.

Les emplois partagés proposés par le GE Mayage localisé dans le département de la Mayenne sont une bonne illustration de cette mutualisation de compétences. Le dirigeant d’une des entreprises adhérentes témoigne ainsi :

« Il y a trois ans, je cherchais à embaucher une personne pour la communication interne et externe de l’entreprise mais correspondant au volume d’une PME. Et Mayage a trouvé la personne qui, trois ans plus tard, est toujours au sein de l’entreprise. J’ai tous les avantages de la prestation sans avoir le salarié à ma charge puisque c’est Mayage qui s’occupe de tout. »

Accompagner la croissance

Un autre usage des GE est également apparu ces dernières années : leur rôle en matière d’accompagnement de la croissance. La croissance des entreprises nécessite en effet la structuration progressive de leur organisation, au travers de la mise en place de fonctions supports auxquelles les GE permettent d’accéder de manière facilitée.

Contrairement à la logique de mutualisation des compétences de long terme évoquée précédemment, il s’agit ici pour les entreprises adhérentes, dont l’activité est en plein essor, d’expérimenter momentanément le recours à des fonctions support à temps partagé, avant d’en disposer à temps plein en interne si leur croissance se poursuit. Les salariés peuvent quant à eux prendre leurs marques dans les entreprises d’accueil avant de les intégrer à temps plein. La TPE-PME bénéficie de la sorte d’un accompagnement à la croissance selon un principe de turn-over positif tel qu’il est qualifié au sein du réseau des GE. Biosupport, un GE francilien, souligne ainsi qu’« une dizaine de salariés passés au GE ont été au final embauchés par une entreprise adhérente ».

Web-agri 2023.

Pour les GE, les conséquences de ce rôle sont ambivalentes, dans la mesure où l’intégration à temps plein implique une diminution du maillage d’emplois. Si le turn-over positif devait être trop important, cela pourrait donc les mettre en difficulté économique. Mais, sur le temps long, cela traduit aussi la capacité des GE à créer des emplois sur le territoire.

Gérer la flexibilité

Si, historiquement, les GE ont été conçus pour accompagner des variations saisonnières d’activité, il s’avère qu’ils accompagnent désormais toutes les variations d’activité, à la hausse comme à la baisse. Les GE représentent ainsi une modalité de gestion de la flexibilité qui fait concurrence aux agences d’intérim.

Dans un contexte économique qui apparaît à l’heure actuelle plus tendu, certains GE font ainsi valoir auprès des dirigeants cette capacité à partager les risques. Le GE permet de gérer une crise en embauchant par exemple le salarié que l’entreprise est contrainte de licencier. Et dès la reprise d’activité, l’entreprise pourra à nouveau bénéficier de la compétence à temps plein. A l’automne 2025, le GE Hélys localisé à Rennes, présentait ainsi son offre aux dirigeants d’entreprise dont la situation économique est délicate :

« Nous pouvons permettre à une entreprise de se séparer administrativement d’un salarié, tout en continuant à bénéficier de ses compétences quelques jours par semaine en l’intégrant dans notre GE. Votre salarié devient le nôtre durant cette période de turbulence. Nous lui proposons un CDI. Nous complétons ensuite son temps de travail auprès d’autres adhérents pour lui permettre de conserver son niveau de vie. […] Et quand la tempête passe, vous pouvez réintégrer votre collaborateur. Vous savez tous le gain de temps et d’argent que cela représente versus le recrutement d’un nouveau profil. »

Vers une reconnaissance des GE ?

Au total, il s’avère que les usages des GE sont multiples, non mutuellement exclusifs, et vont bien au-delà de leur vocation originelle. En les clarifiant, nous espérons permettre aux GE, tout comme aux institutions qui les accompagnent, de communiquer plus précisément sur les services qu’ils proposent, et contribuer ainsi à accroître leur visibilité. À l’heure où les entreprises cherchent à concilier flexibilité et stabilité de l’emploi, les GE constituent une réponse originale encore trop méconnue.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 12:01

Rihanna, Selena Gomez, Kylie Jenner : pourquoi la beauté est le nouvel eldorado des stars

Frédéric Aubrun, Enseignant-chercheur en Marketing digital & Communication au BBA INSEEC - École de Commerce Européenne, INSEEC Grande École
Norchene Ben Dahmane Mouelhi, Marketing, ESCE International Business School
Soraya Zouari, Maitre de Conférences en marketing, Université de Reims Champagne-Ardenne (URCA)
Rihanna, Selena Gomez ou Kylie Jenner, les marques de cosmétiques créées par des stars se sont multipliées. Pourquoi cet engouement particulier pour la beauté ?
Texte intégral (2033 mots)
La star Selena Gomez a lancé son entreprise de cosmétique Rare Beauty contre la « beauté toxique ». bella1105/Shutterstock

Rihanna, Selena Gomez ou Kylie Jenner, ces dernières années les marques dans le secteur des cosmétiques créées ou co-fondées par des stars se sont multipliées. Mais pourquoi cet engouement particulier pour la beauté ?


Fenty Beauty, LolaVie, Blake Brown, Rare Beauty, Kylie Cosmetics, Rhode Skin ou Goop Beauty sont des marques de beauté et de soins capillaires qui ont toutes un point commun : celui d’avoir été lancées par une célébrité, comme Rihanna, Jennifer Aniston, Blake Lively, Selena Gomez, Kylie Jenner, Hailey Rhode Bieber et Gwyneth Paltrow.

Le personal branding, cette stratégie qui transforme le « moi » en image de marque unique que l’on peut valoriser sur la scène médiatique notamment, est d’autant plus pertinente dans le secteur des cosmétiques.

Alors pourquoi un tel engouement dans ce secteur et de ses consommateurs ?

« Sephora Loves Rare BeautySelena Gomez | Beauty Without Flter ».

Effet lipstick

Le marché des cosmétiques aurait générer en 2025 un chiffre d’affaires de 677 milliards de dollars, soit 574 milliards d’euros.

L’intérêt des célébrités pour la beauté n’est pas seulement une question d’image, il est également dicté par une logique économique. Les stars ont rapidement compris qu’en lançant leur propre marque, leur notoriété permettrait de réduire la lenteur de ce processus et d’amorcer une monétisation rapide de leur entreprise. La célébrité agit comme un puissant catalyseur marketing.

Qu’est-ce que le « personal branding » ?

Historiquement, le secteur des cosmétiques est résilient aux crises, ce que les chercheurs nomment « effet lipstick ». Ce dernier explique comment les consommateurs, en période de crises économiques, réduisent les dépenses importantes, telles que l’achat de voiture ou les voyages, pour s’offrir des produits de luxe abordables, comme un rouge à lèvres.

Cette stabilité du marché de la beauté garantit un revenu sûr pour les marques de stars. Il offre des marges brutes élevées et peut encore croître de 100 milliards selon le patron de L’Oréal, Nicolas Hieronimus.

Le coût de production étant faible par rapport au prix de vente, et l’absence des contraintes logistiques, comme les collections de saisons, permettent un faible coût d’entrée et une gestion des stocks simplifiée.

Transférer les attributs positifs de la star

La célébrité qui endosse une marque est définie comme un individu jouissant d’une forte reconnaissance publique qui appose son image sur une marque par le biais d’un contrat publicitaire. Cette approche vise à transférer les attributs positifs de la star vers la marque, facilitant l’identification du message par le consommateur.

Depuis une dizaine d’années, ce qu’on appelle le self-branding for entrepreneurial prend une nouvelle ampleur avec l’avènement des réseaux sociaux. La célébrité devient cheffe d’entreprise et créée sa propre marque. La star n’est plus une simple ambassadrice : elle devient actionnaire, co-fondatrice ou propriétaire d’une marque.

C’est le cas de la comédienne Jennifer Aniston avec sa marque de soins capillaires LolaVie. L’actrice ne se contente pas de poser pour sa marque mais partage elle-même des vidéos de shooting sur les réseaux sociaux. Elle se met en scène en utilisant les produits et va jusqu’à poster des vidéos d’elle coiffant sa meilleure amie, l’actrice Courtney Cox, ou encore son petit ami Jim Curtis.

Jennifer Aniston fait preuve d’authenticité en exposant son intimité et en prenant à contre-pied l’image distante et éloignée de la réalité que peut avoir une célébrité. Elle renforce cette idée en utilisant l’humour dans son spot publicitaire « No Gimmicks » (« Pas d’artifices »).

« Jennifer Aniston x LolaVie | No Gimmicks… It Just Works ».

Contre la beauté toxique

Le succès des marques de beauté fondées par des célébrités s’explique par la disruption stratégique mise en place. Des marques, comme Fenty Beauty, ont été pionnières en prouvant que l’inclusion ethnique avec plus de 40 teintes de fonds de teint proposées n’était pas un simple geste éthique mais une stratégie économique gagnante. « Fenty Beauty est une marque à 360 degrés qui s’adresse autant à une Coréenne qu’à une Irlandaise ou à une Afro-Américaine », décrypte Lionel Durand, patron de l’entreprise Black Up.

Dans la foulée, la marque Rare Beauty a élargi cette notion à l’inclusion émotionnelle, utilisant l’authenticité du discours de sa fondatrice concernant la santé mentale pour rejeter les normes de beauté toxiques. Selena Gomez n’ayant jamais caché sa bipolarité a choisi pour sa marque le slogan « Love Your Rare » (« Aimez votre rareté ») et a créé sa fondation Rare Impact Fund consacrée à cette thématique. Elle capitalise sur une communauté fidèle et engagée, là où d’autres marques valorisent essentiellement la perfection en termes de beauté.

Ces stars utilisent leurs réseaux sociaux comme laboratoires narratifs où elles construisent la crédibilité de leur marque à travers des récits personnels simples, de travail et de passion. Les produits de beauté ont un avantage : ils sont désirables et mobilisent l’attention surtout s’ils sont mis en avant par une célébrité.

Les vidéos Instagram ou TikTok à l’ère du marketing de contenu permettent aux célébrités d’échanger et d’atteindre rapidement leur public. Leurs produits deviennent une extension d’elles-mêmes, des objets identitaires au même titre que la mode ou la musique. La marque bio Goop, de Gwyneth Paltrow, est une ode à son lifestyle. Sur la plateforme TikTok, elle vend ses créations comme des produits skincare, de maquillage ou une ligne de vêtements. L’actrice a développé un empire autour de la mouvance New Age.

Marqueur social

Les marques des célébrités deviennent un marqueur social, une manière de prolonger l’univers de la star dans le quotidien des consommateurs. En 2025, on assiste à la continuité de cette tendance. L’année aura été marquée par des extensions de gammes pour Rhode et Rare Beauty, mais aussi par de nouveaux lancements de marques comme les parfums de Bella Hadid, Orebella, ou la gamme de soins Dua, de Dua Lipa.

Le succès de la marque continue de reposer sur la capacité de la célébrité-entrepreneure à projeter une authenticité perçue et une implication réelle. En face, se trouve un consommateur certes sensible aux réseaux sociaux, mais qui peut s’avérer résistant à certaines manœuvres marketing.

Si la célébrité paraît opportuniste ou déconnectée du produit, la légitimité s’effondre. Tel fut le cas pour Meghan Markle au moment du lancement de sa marque lifestyle, As Ever, de produits alimentaires, bougies et vins. Les critiques ont fusé, l’accusant de peu de professionnalisme, de capitaliser uniquement sur sa notoriété et sur son statut de duchesse de Sussex.

Des marques à durée limitée ?

Les produits de beauté ne sont qu’un exemple de la diversification entrepreneuriale des célébrités. Nombreuses sont les stars qui se tournent vers des marchés où le capital image est essentiel et où le taux de renouvellement des produits est élevé.

C’est le cas du secteur de l’alcool qui offre une marge élevée et une connexion directe avec les fans. L’actrice Cameron Diaz a co-fondé une marque de vin bio et vegan qu’elle a nommé Avaline. Le rappeur Jay Z possède sa maison de champagne, Armand de Brignac.

Le phénomène de la célébrité-entrepreneure révèle une nouvelle dynamique, celle de la marque personnelle. Dès lors, la question qui se pose n’est plus la performance initiale mais la vision stratégique à long terme. Cette hyper-accélération du succès, rendue possible essentiellement par la notoriété, leur permet-elle de devenir des marques à part entière, et non de simples prolongements de la célébrité ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 12:01

Faut-il, comme EDF, interdire toute consommation d’alcool dans le monde professionnel ?

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Fini les pots et autres moments sociaux arrosés de boissons alcoolisées ? C’est ce qu’a décidé EDF pour 2026. Et, au fait, que dit le droit à ce sujet ?
Texte intégral (1833 mots)

EDF a indiqué interdire la consommation d’alcool sur le lieu de travail et dans les repas d’affaires. Cette décision est-elle compatible avec la liberté individuelle ? Peut-elle ou doit-elle s’appliquer dans d’autres entreprises, notamment au nom de la lutte contre les addictions et de la garantie de la sécurité du personnel ?


Dès ce mois de janvier, les salariés d’EDF n’ont plus le droit de consommer d’alcool au travail ni lors d’événements organisés par leur employeur à l’extérieur.

Cette mesure, encadrée par l’article R4228-20 du Code du travail, questionne l’équilibre entre prévention des risques (addictions, comportements inappropriés, accidents du travail), libertés individuelles et préservation des rites qui constituent la culture d’entreprise.

Cette décision très médiatisée intervient dans un contexte où la prévention des risques professionnels et des accidents du travail est au centre du débat public.

Cette décision s’inscrit dans un cadre réglementaire existant et une jurisprudence constante. Cette décision n’a donc rien de bien surprenant.

Protéger la santé et la sécurité

L’organisation d’événements festifs ponctue la vie de l’entreprise. Ces moments supposés conviviaux à l’initiative de l’employeur, du comité social et économique (CSE) ou de certains salariés, contribuent à produire une meilleure cohésion des équipes et au maintien de la culture d’entreprise.

Parfois, l’alcool s’invite dans ces temps collectifs, à l’intersection de la vie professionnelle et personnelle… Il ne suffit pas que la réunion ait lieu en dehors de l’entreprise pour exonérer l’employeur de toute responsabilité. S’il en est à l’initiative, celle-ci reste sous sa responsabilité. La consommation d’alcool sur le lieu de travail comporte cependant de nombreux risques et, à ce titre, est très fortement encadrée en France.


À lire aussi : Boissons au cannabis : comment une faille juridique a créé une industrie de plusieurs milliards de dollars que le Congrès veut maintenant interdire


Ainsi, l’article R4228-20 du Code du travail précise qu’« aucune boisson alcoolisée autre que le vin, la bière, le cidre et le poiré n’est autorisée sur le lieu de travail ». Si la consommation de boissons alcoolisées est susceptible de porter atteinte à la sécurité et à la santé physique et mentale des travailleurs, l’employeur, en application de l’article L. 4121-1 du Code du travail doit en restreindre l’usage. Cet article dispose que « l’employeur prend les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs ».

L’employeur est soumis non pas à une obligation de résultat mais à une obligation de moyens renforcés (Cour de cassation, chambre sociale, 25 novembre 2015, no 14-24.444, Air France).

Règlement intérieur ou note de service ?

L’employeur peut aussi le prévoir dans le règlement intérieur – obligatoire dans les entreprises d’au moins 50 salariés. En effet, ce document fixe les règles de la vie en entreprise et notamment celles relatives à la discipline, la nature et l’échelle des sanctions. À défaut, l’employeur peut l’indiquer par l’intermédiaire d’une note de service reprenant les mesures prises pour protéger la santé et la sécurité des travailleurs et de prévenir tout risque d’accident.

Ces mesures, qui peuvent notamment prendre la forme d’une limitation voire d’une interdiction de consommation d’alcool, doivent être proportionnées au but recherché. Ainsi, l’employeur, en vertu de son pouvoir de direction, peut donc purement et simplement interdire la consommation d’alcool au sein de l’entreprise en invoquant cette obligation de sécurité. Cela lui permet de répondre à l’obligation de moyens renforcés.

Une sanction pouvant aller jusqu’au licenciement peut alors être prononcée à l’encontre des collaborateurs en cas de non-respect, si elle prévue dans le règlement intérieur.

À titre d’exemple, une clause d’un règlement intérieur précise :

« L’introduction, la distribution et/ou la consommation de toute boisson alcoolisée sur le lieu de travail (bureaux, chantiers…) sont interdites, à l’exception des dispositions prévues par l’article R. 4228-20 du Code du travail et uniquement lors des repas en dehors du temps de travail. Cette consommation devra l’être dans des quantités raisonnables de manière à ne pas altérer les capacités à occuper son emploi et/ou à être en mesure de conduire un véhicule, notamment pour regagner son domicile. L’introduction, la distribution et la consommation de produits stupéfiants dans les locaux de travail sont en outre strictement interdits. »

Le danger des pratiques addictives

Par ailleurs, l’employeur – qui est tenu d’identifier et de répertorier les risques dans le document unique d’évaluation des risques professionnels (DUERP) – doit tenir compte des pratiques potentiellement addictives (consommation d’alcool mais aussi de drogues). En effet, les pratiques addictives concernent de nombreux salariés, quels que soient le secteur d’activité ou la catégorie socioprofessionnelle.

Ces consommations, occasionnelles ou répétées, comportent des risques pour la santé et la sécurité des salariés. Il est donc nécessaire d’inscrire le risque lié aux pratiques addictives dans ce document unique (article R. 4121-1 du Code du travail).

Ce document est tenu à la disposition des salariés, des anciens salariés, des membres du comité social et économique, du médecin du travail, de l’agent de contrôle de l’inspection du travail et des agents des Carsat (article R4121-4 du Code du travail).

Interdire en préservant les libertés individuelles

En cas de consommation abusive d’alcool, le salarié pourrait avoir un accident dans l’entreprise ou en rentrant chez lui après un repas d’entreprise par exemple. L’employeur engagerait alors sa responsabilité dans le cadre de l’obligation de sécurité et pourrait être condamné. On pense par exemple à un accident automobile pour un commercial. De son côté, le salarié pourrait également être reconnu responsable.

Ainsi, le 10 avril 2024 (RG no 21/06884), la Cour d’appel de Rennes a statué sur la réalité d’un accident du travail dont l’origine était la consommation d’alcool par un salarié au temps et au lieu du travail. Un chauffeur alcoolisé chargeait un engin de chantier qui a basculé sur lui ; accident des suites duquel il est malheureusement décédé. À noter que les restrictions relatives à l’alcool sont par ailleurs souvent accompagnées de restrictions relatives aux stupéfiants.

Comment contrôler ?

Ainsi, le cadre légal dont relèvent les conduites addictives en entreprise est complexe, car il doit concilier l’obligation de sécurité avec le respect des droits fondamentaux de l’employé (article L.1121-1 du Code du travail).

L’employeur peut ainsi recourir au contrôle de l’alcoolémie sous réserve du respect de certaines dispositions. Le contrôle par éthylotest ne doit pas être systématique. Il doit être justifié par des raisons de sécurité et ne doit concerner que les salariés dont les fonctions sont de nature à exposer les personnes ou les biens à un danger. Ainsi, la liste des postes pour lesquels un dépistage est possible doit être prévue dans le réglement intérieur.

Cesi École d’ingénieurs, 2023.

La restriction doit cependant être proportionnée au but recherché et doit permettre de protéger les intérêts légitimes de l’entreprise. Par exemple, dans un entrepôt où travaillent des caristes (conducteurs de petits véhicules de manutention), il est légitime d’interdire complètement l’alcool, dont la consommation pourrait altérer les réflexes des salariés et produire des accidents. L’usage de substances psychoactives sur le lieu de travail, ou avant la prise de poste, augmente le risque d’accidents du travail, d’erreurs humaines et de comportements inadaptés, notamment dans les secteurs nécessitant de la vigilance ou la manipulation de machines.

Dégradation du climat social

Les conduites addictives peuvent également dégrader le climat social en entreprise. Elles peuvent générer des tensions entre collègues, créer des situations de conflit ou d’incompréhension, et altérer la cohésion des équipes, impacter négativement la productivité et la qualité du travail, augmenter l’absentéisme et les retards, causer des soucis de santé et de gestion des aptitudes.

Au-delà de la dimension juridique liée aux risques humains et de contentieux, la consommation d’alcool ou de drogues est également un enjeu managérial. En effet, la stigmatisation des personnes concernées et le tabou entourant la consommation de substances addictives peuvent freiner la détection et la prise en charge des situations à risques, conduisant à une marginalisation des salariés concernés. Les managers et les services RH doivent apprendre à détecter les signaux faibles. Le recours à la médecine du travail est également indispensable. Information et formations sont importantes dans une stratégie de prévention.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.01.2026 à 15:44

L’avenir de l’impression 3D passera par les matériaux

Benoît Vieille, Professeur en mécanique des matériaux aéronautiques, INSA Rouen Normandie
Breteau Thomas, Professeur Agrégé de Génie Mécanique , INSA Rouen Normandie
Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités.
Texte intégral (2079 mots)

Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités. Elle offre des perspectives prometteuses en matière de matériaux, mais elle pose également des défis techniques, économiques et environnementaux qui nécessitent une maturation et une adaptation des procédés en lien avec les matériaux utilisés.


Plus connu sous la dénomination « impression 3D », ce procédé met en œuvre des polymères (plastiques) ou des alliages métalliques pour fabriquer des objets du quotidien. Les imprimantes 3D polymères sont accessibles au grand public pour quelques centaines d’euros. Elles permettent notamment de fabriquer des pièces prototypes (d’où le nom prototypage rapide), des coques de téléphone, des pièces de rechange, des prothèses, des bijoux, des jouets, des objets de décorations ou des maquettes. En ce qui concerne les métaux, les machines d’impression sont beaucoup plus chères (quelques centaines de milliers d’euros). On trouve des applications telles que des implants médicaux, des pièces aérospatiales/automobiles, de l’outillage industriel, des bijoux de luxe. On peut également trouver ce principe de fabrication dans le domaine du BTP avec des « imprimantes » qui mettent en œuvre du béton pour fabriquer des maisons, des bâtiments ou tout type de structure en génie civil.

Mais, comme toute nouveauté, le procédé suscite autant d’espoir qu’il ne réserve de surprises (bonnes ou mauvaises) à celles et ceux qui souhaitent utiliser ce nouveau moyen de fabrication.

D’un point de vue technique, l’impression 3D consiste, couche après couche, à durcir (polymériser) une résine liquide ou à venir déposer de la matière (plastique ou métallique) de manière précise et contrôlée (en ajustant les paramètres tels que la température, la vitesse d’impression, le taux de remplissage, l’orientation de l’objet) pour répondre à certaines contraintes de géométrie, poids, optimisation des propriétés mécaniques ou physiques.

La microstructure d’une pièce imprimée en 3D (polymère ou métal) désigne l’organisation interne de sa matière à une échelle microscopique, influencée par le procédé d’impression. La complexité de la géométrie, les dimensions, le prix vont conditionner le choix de la technologie d’impression et des matériaux associés.

Une révolution dans de nombreux domaines industriels

Qu’elle soit alternative ou complémentaire des techniques conventionnelles par enlèvement de matière ou par déformation, la FA révolutionne de nombreux domaines industriels. De la réalisation de pièces monolithiques (en une seule étape de fabrication, sans assemblage) à forte valeur ajoutée à la fonctionnalisation (conférer à la pièce certaines propriétés locales en changeant les paramètres d’impression au besoin), en passant par le prototypage rapide (valider la conception d’une pièce prototype de manière itérative), les possibilités sont multiples. On peut citer notamment des prothèses de hanche en titane adaptées à l’anatomie de chaque patient, des injecteurs de fusée à géométrie complexe et fabriquées en une seule pièce, des moules optimisés avec canaux de refroidissement sur mesure, des bijoux en métaux précieux avec des designs impossibles à obtenir avec des moyens d’usinage conventionnels.

La chaîne de valeurs de la FA – qui définit l’ensemble des étapes de réalisation d’une pièce de l’approvisionnement en matière première, à la conception, aux conditions de mise en œuvre, à la fabrication, au coût énergétique, à la reprise d’usinage, aux opérations de parachèvement, à la qualification de la santé matière, à la caractérisation des propriétés physiques, au recyclage – est cependant plus complexe et potentiellement plus onéreuse. La technicité, oui, mais pas à n’importe quel prix ! Outre les moyens de fabrication spécifiques sur lesquels elle repose, elle nécessite des règles de conception fondamentalement différentes car elle impose de nouvelles contraintes techniques. De la Conception Assistée par Ordinateur, au choix matériau, au programme machine et à l’industrialisation, il faut ainsi redéfinir complètement la manière de penser du cahier des charges à la maintenance des produits issus de la FA.

Des enjeux majeurs pour les matériaux

Un des points fondamentaux du développement de ces nouveaux procédés réside dans la compréhension du lien entre les paramètres de fabrication des pièces (temps d’impression, puissance du laser, vitesse de déplacement de la tête d’impression, dimensions, environnement de travail – sous atmosphère contrôlée ou non), leur santé matière (présence de porosités ou de défauts parfois liés à un manque de fusion/gazéification locaux de la matière) et leurs propriétés physiques (conductivité thermique ou électrique, propriétés mécaniques, densité). Autrement dit, il est nécessaire de fiabiliser les procédés et optimiser les propriétés finales de la pièce en étant capable de contrôler des paramètres de fabrication, lesquels vont beaucoup dépendre des matériaux mis en œuvre. Ainsi, la FA présente des enjeux majeurs pour les matériaux, qu’ils soient techniques, économiques ou environnementaux.

Tout d’abord, les procédés de FA nécessitent de développer, en amont, des matériaux adaptés (filaments, poudres) aux spécificités des procédés (fusion laser, dépôt de matière fondue, alimentation en matière des têtes d’impression), lesquels vont imposer des contraintes en termes de prix, toxicité et recyclabilité. En effet, les poudres métalliques ou polymères spécifiques (de type thermoplastique) dédiées à la fabrication additive restent souvent plus coûteuses que les matériaux conventionnels, d’un facteur 10 environ.

Néanmoins, malgré le coût plus élevé des matériaux et des procédés, l’impression 3D réduit les déchets (pas de copeaux comme en usinage), permet de fabriquer des pièces dont la géométrie est optimisée (allègement des structures) et élimine le besoin de moules coûteux pour les petites séries, ce qui peut compenser l’écart de coût pour des pièces à forte valeur ajoutée. Ainsi, la réduction des coûts est un enjeu clé pour une adoption plus large. De plus, l’approvisionnement en matière première peut être limité, ce qui ralentit le développement des applications industrielles.

La FA permet également de faire de l’hybridation en associant différents types de matériaux lors de l’impression (en utilisant plusieurs têtes d’impression) afin d’obtenir des pièces composites dont les propriétés mécaniques, électriques ou thermiques sont spécifiques. Par exemple, dans l’industrie aérospatiale ou l’automobile, l’impression 3D de pièces comme des moules d’injection ou des échangeurs thermiques avec des canaux de refroidissement complexes intégrés – lesquels sont impossibles à réaliser par usinage classique – permettent d’optimiser la dissipation thermique, améliorant l’efficacité et la longévité de la pièce.

Les procédés de FA permettent également d’imprimer des structures arborescentes (bio-mimétisme) obtenues via des outils d’optimisation topologique qui est une méthode de conception avancée qui utilise des algorithmes pour déterminer la forme optimale d’une structure en fonction de contraintes spécifiques, telles que la résistance, le poids, ou la distribution des efforts. La spécificité de l’impression 3D réside aussi dans la possibilité de produire des structures complexes de type treillis ou architecturées pour fonctionnaliser le matériau (propriétés mécaniques sur mesure, réduction de la masse, diminution des coûts de fabrication, isolation thermique, acoustique, absorption des chocs ou des vibrations).

Fusion de matière

Quand les pièces sont imprimées, il existe – selon le procédé de fabrication – des opérations dites de parachèvement qui consistent à finaliser les pièces. Cela inclut l’usinage des supports de conformage (qui sont comme des échafaudages qui supportent la pièce lors de la fabrication couche par couche), la reprise d’usinage des surfaces (ou polissage) pour améliorer l’état de surface (quand cela est possible) en raison de la rugosité importante des pièces brutes. On peut également réaliser des traitements thermiques pour homogénéiser la microstructure (pièces métalliques) ou de compression à chaud pour limiter le taux de porosités (un des inconvénients majeurs de l’impression 3D). Ces opérations sont fondamentales, car la rugosité de surface et le taux de porosités sont les caractéristiques les plus critiques du point de vue du comportement mécanique. Par ailleurs, quand il s’agit de procédés à base de poudres, il est nécessaire de dépoudrer les pièces pour évacuer le surplus de matière, lequel peut nuire au fonctionnement en service de la pièce ainsi fabriquée.

Par nature, la majorité des procédés de FA impliquent la fusion de matière (plastique ou métallique), ce qui va se traduire par des échauffements localisés et des différences de température très importants au sein de la pièce. Ces gradients thermiques vont conditionner la microstructure, la présence de contraintes internes (en lien avec la microstructure), la santé (présence de défauts), l’anisotropie (les propriétés ne sont pas les mêmes dans toutes les directions) et l’hétérogénéité (les propriétés ne sont pas les mêmes en tout point) des pièces. La fiabilité des pièces imprimées va donc beaucoup dépendre de ces caractéristiques.

En amont, il est alors important d’étudier les interactions entre procédés-microstructure et propriétés mécaniques pour différents types de matériaux. C’est l’objet de nos travaux de recherche menés à l’INSA Rouen Normandie. Pour les polymères, l’impression 3D par dépôt de filament fondu (FFF) présente une porosité intrinsèque qui réduit la résistance à la rupture. En utilisant des procédés tels que le laser shock peening (LSP), un traitement mécanique in situ appliqué à certaines couches pendant l’impression, on peut alors faire de la fonctionnalisation en réduisant localement la porosité et en créant des barrières ralentissant la propagation des fissures, améliorant ainsi la ténacité des matériaux (la résistance à la fissuration du matériau). De manière similaire, pour les alliages métalliques obtenus par Fusion sur Lit de Poudre, en jouant sur les paramètres de fabrication (puissance et vitesse de déplacement du laser notamment), il est possible d’ajuster localement les propriétés du matériau pour moduler sa ténacité ou sa capacité à se déformer plastiquement.*

Aussi, il est nécessaire de caractériser précisément – en aval de la fabrication – les propriétés (thermiques, électriques, mécaniques) des pièces en accord avec les normes de certification propres aux différents domaines d’activité (médical, aéronautique, aérospatiale, automobile, agro-alimentaire).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

11.01.2026 à 15:42

Groenland : rester avec les Inuit polaires

Ludovic Slimak, Archéologue, penseur et chercheur au CNRS, Université de Toulouse
En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début de l’effondrement des sociétés inuit traditionnelles.
Texte intégral (2848 mots)

En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début d’un basculement irréversible pour les sociétés inuit. Aujourd’hui, alors que le Groenland redevient un enjeu stratégique mondial, l’histoire semble se répéter. Rester avec les Inuit polaires, c’est refuser de parler de territoires en oubliant ceux qui les habitent.


Le 16 juin 1951, l’explorateur français Jean Malaurie progresse en traîneaux à chiens sur la côte nord-ouest du Groenland. Il est parti seul, sur un coup de tête, avec un maigre pécule du CNRS, officiellement pour travailler sur les paysages périglaciaires. En réalité, cette rencontre avec des peuples dont la relation au monde était d’une autre nature allait forger un destin singulier.

Ce jour-là, après de longs mois d’isolement parmi les Inuit, au moment critique du dégel, Malaurie avance avec quelques chasseurs. Il est épuisé, sale, amaigri. L’un des Inuit lui touche l’épaule : « Takou, regarde » Un épais nuage jaune monte au ciel. À la longue-vue, Malaurie croit d’abord à un mirage : « une cité de hangars et de tentes, de tôles et d’aluminium, éblouissante au soleil dans la fumée et la poussière […] Il y a trois mois, la vallée était calme et vide d’hommes. J’avais planté ma tente, un jour clair de l’été dernier, dans une toundra fleurie et virginale. »

Le souffle de cette ville nouvelle, écrira-t-il, « ne nous lâchera plus ». Les excavatrices tentaculaires raclent la terre, les camions vomissent les gravats à la mer, les avions virevoltent. Malaurie est projeté de l’âge de pierre à l’âge de l’atome. Il vient de découvrir la base secrète américaine de Thulé, nom de code Operation Blue Jay. L’un des projets de construction militaire les plus massifs et les plus rapides de l’histoire des États-Unis.

La base américaine de Thulé au début des années 1950. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Sous ce nom anodin se cache une logistique pharaonique. Les États-Unis redoutent une attaque nucléaire soviétique par la route polaire. En un seul été, quelque 120 navires et 12 000 hommes sont mobilisés dans une baie qui n’avait connu jusque-là que le glissement silencieux des kayaks. Le Groenland ne comptait alors qu’environ 23 000 habitants. En 104 jours, sur un sol gelé en permanence, surgit une cité technologique capable d’accueillir les bombardiers géants B-36, porteurs d’ogives nucléaires. À plus de 1 200 kilomètres au nord du cercle polaire, dans un secret presque total, les États-Unis font surgir l’une des plus grandes bases militaires jamais construites hors de leur territoire continental. Un accord de défense est signé avec le Danemark au printemps 1951, mais l’Operation Blue Jay est déjà engagée : la décision américaine a été prise dès 1950.

L’annexion de l’univers Inuit

Malaurie comprend aussitôt que la démesure de l’opération signe, de fait, une annexion de l’univers Inuit. Un monde fondé sur la vitesse, la machine, l’accumulation vient de pénétrer brutalement, aveuglément, un espace réglé par la tradition, le cycle, la chasse et l’attente.

Le geai bleu est un oiseau bruyant, agressif, extrêmement territorial. La base de Thulé se situe à mi-chemin entre Washington et Moscou par la route polaire. À l’heure des missiles hypersoniques intercontinentaux, hier soviétiques, aujourd’hui russes, c’est cette même géographie qui fonde encore l’argument du « besoin impérieux » invoqué par Donald Trump dans son désir d’annexion du Groenland.

La base de Thulé a une position stratégique entre les USA et la Russie. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Le résultat immédiat le plus tragique de l’Opération Blue Jay ne fut pas militaire, mais humain. En 1953, pour sécuriser le périmètre de la base et de ses radars, les autorités décidèrent de déplacer l’ensemble de la population inughuit locale vers Qaanaaq, à une centaine de kilomètres plus au nord. Le déplacement fut rapide, contraint, sans consultation, brisant le lien organique entre ce peuple et ses territoires de chasse ancestraux. Un “peuple racine” déraciné pour faire place à une piste d’aviation.

C’est sur ce moment de bascule foudroyante que Malaurie situe l’effondrement des sociétés traditionnelles inuit, où la chasse n’est pas une technique de survie mais un principe organisateur du monde social. L’univers inuit est une économie du sens, faite de relations, de gestes et de transmissions, qui donnent à chacun reconnaissance, rôle et place. Cette cohérence intime, qui fait la force de ces sociétés, les rend aussi extrêmement vulnérables lorsqu’un système extérieur en détruit soudainement les fondements territoriaux et symboliques.

Conséquences de l’effondrement des structures traditionnelles

Aujourd’hui, la société groenlandaise est largement sédentarisée et urbanisée. Plus du tiers des 56 500 habitants vit à Nuuk, la capitale, et la quasi-totalité de la population réside désormais dans des villes et localités côtières sédentarisées. L’habitat reflète cette transition brutale. Dans les grandes villes, une part importante de la population occupe des immeubles collectifs en béton, construits pour beaucoup dans les années 1960 et 1970, souvent vétustes et suroccupées. L’économie repose largement sur une pêche industrielle tournée vers l’exportation. La chasse et la pêche de subsistance persistent. Fusils modernes, GPS, motoneiges, connexions satellitaires accompagnent désormais les gestes anciens. La chasse demeure un repère identitaire, mais elle ne structure plus ni l’économie ni la transmission.

Les conséquences humaines de cette rupture sont massives. Le Groenland présente aujourd’hui l’un des taux de suicide les plus élevés au monde, en particulier chez les jeunes hommes inuit. Les indicateurs sociaux contemporains du Groenland - taux de suicide, alcoolisme, violences intrafamiliales – sont largement documentés. De nombreux travaux les relient à la rapidité des transformations sociales, à la sédentarisation et à la rupture des transmissions traditionnelles.

Manœuvres militaires américaines à Thulé. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Revenons à Thulé. L’immense projet secret engagé au début des années 1950 n’avait rien de provisoire. Radars, pistes, tours radio, hôpital : Thulé devient une ville stratégique totale. Pour Malaurie, l’homme du harpon est condamné. Non par une faute morale, mais par une collision de systèmes. Il met en garde contre une européanisation qui ne serait qu’une civilisation de tôle émaillée, matériellement confortable, humainement appauvrie. Le danger n’est pas dans l’irruption de la modernité, mais dans l’avènement, sans transition, d’une modernité sans intériorité, opérant sur des terres habitées comme si elles étaient vierges, répétant, à cinq siècles d’écart, l’histoire coloniale des Amériques.

Espaces et contaminations radioactives

Le 21 janvier 1968, cette logique atteint un point de non-retour. Un bombardier B-52G de l’US Air Force, engagé dans une mission permanente d’alerte nucléaire du dispositif Chrome Dome, s’écrase sur la banquise à une dizaine de kilomètres de Thulé. Il transporte quatre bombes thermonucléaires. Les explosifs conventionnels des bombes nucléaires, destinés à amorcer la réaction, détonnent à l’impact. Il n’y a pas d’explosion nucléaire, mais la déflagration disperse sur une vaste zone du plutonium, de l’uranium, de l’americium et du tritium.

Dans les jours qui suivent, Washington et Copenhague lancent Project Crested Ice, une vaste opération de récupération et de décontamination avant la fonte printanière. Environ 1 500 travailleurs danois sont mobilisés pour racler la glace et collecter la neige contaminée. Plusieurs décennies plus tard, nombre d’entre eux engageront des procédures judiciaires, affirmant avoir travaillé sans information ni protection adéquates. Ces contentieux se prolongeront jusqu’en 2018-2019, débouchant sur des indemnisations politiques limitées, sans reconnaissance juridique de responsabilité. Aucune enquête épidémiologique exhaustive ne sera jamais menée auprès des populations inuit locales.

Aujourd’hui rebaptisée Pituffik Space Base, l’ancienne base de Thulé est l’un des nœuds stratégiques majeurs du dispositif militaire américain. Intégrée à la US Space Force, elle joue un rôle central dans l’alerte antimissile et la surveillance spatiale en Arctique, sous un régime de sécurité maximale. Elle n’est pas un vestige de la guerre froide, mais un pivot actif de la géopolitique contemporaine.

Dans Les Derniers Rois de Thulé, Malaurie montre que les peuples racine n’ont jamais de place possible au cœur des considérations stratégiques occidentales. Face aux grandes manœuvres du monde, l’existence des Inuit y devient aussi périphérique que celle des phoques ou des papillons.

Les déclarations de Donald Trump ne font pas surgir un monde nouveau. Elles visent à généraliser au Groenland un système en place depuis soixante-quinze ans. Mais la position d’un homme ne saurait nous exonérer de nos responsabilités collectives. Entendre aujourd’hui que le Groenland « appartient » au Danemark et dépend de l’OTAN, sans même évoquer les Inuit, revient à répéter un vieux geste colonial : concevoir les territoires en y effaçant ceux qui l’habitent.

Les Inuit demeurent invisibles et inaudibles. Nos sociétés continuent de se représenter comme des adultes face à des populations indigènes infantilisées. Leur savoir, leurs valeurs, leurs manières sont relégués au rang de variables secondaires. La différence n’entre pas dans les catégories à partir desquelles nos sociétés savent agir.

À la suite de Jean Malaurie, mes recherches abordent l’humain par ses marges. Qu’il s’agisse des sociétés de chasseurs-cueilleurs ou de ce qu’il reste de Néandertal, lorsqu’on le déshabille de nos projections, l’Autre demeure toujours l’angle mort de notre regard. Nous ne savons pas voir comment s’effondrent des mondes entiers lorsque la différence cesse d’être pensable.

Malaurie concluait son premier chapitre sur Thulé par ces mots :

« Rien n’aura été prévu pour imaginer l’avenir avec hauteur. »

Il faut redouter par-dessus tout non la disparition brutale d’un peuple, mais sa relégation silencieuse, et radicale, dans un monde qui parle de lui sans jamais le regarder ni l’entendre.

The Conversation

Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.01.2026 à 15:41

Quand les IA cadrent l’information et façonnent notre vision du monde

Adrian Kuenzler, Scholar-in-Residence, University of Denver; University of Hong Kong
L’IA sélectionne les informations, influençant subtilement l’opinion des individus (que les informations présentées soient vraies ou fausses). Comment régulier ce problème ?
Texte intégral (1938 mots)
Selon une étude OpinionWay pour le think tank La villa numeris, publiée le 15 octobre 2025, les Français sont 8 % à préférer l’IA aux médias pour s’informer. Matúš Gocman/Unsplash, CC BY

Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.


La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.

Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.

Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.

En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.

Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.

Biais de communication

Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.

Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.

Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.

Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.

Les biais partent des données avec lesquelles ces modèles sont entraînés.

Ce que la régulation peut – et ne peut pas – faire

Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.

Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.

Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.

Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.

La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.

Aller au-delà de la régulation de l’IA

Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.

Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.

Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.

The Conversation

Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.01.2026 à 15:41

Après l’abattage de milliers de chevaux sauvages, le parc australien du Kosciuszko retrouve peu à peu ses paysages

David M Watson, Professor in Ecology, Charles Sturt University
Patrick Finnerty, Postdoctoral Research Fellow in Conservation and Wildlife Management, University of Sydney
Avec la campagne d’abattage des chevaux sauvages, les zones alpines fragiles ne sont plus piétinées par des sabots durs. Mais les paysages de Kosciuszko mettront des décennies à se rétablir.
Texte intégral (3521 mots)
Des brumbies, chevaux sauvages d’Australie, dans le parc national du Kosciuszko. Fourni par l'auteur, CC BY-ND

Dans le parc national du Kosciuszko, la diminution de la population de brumbies, les chevaux sauvages, ouvre une chance de restauration pour les écosystèmes fragiles du massif. Celles et ceux qui parcourent le parc au quotidien en voient déjà les premiers effets.


Dans le parc national du Kosciuszko, en pleines Alpes australiennes, le paysage évolue lentement. Des zones de végétation, autrefois rasées par les chevaux, repoussent. Les berges de ruisseaux, longtemps érodées, paraissent moins tassées sur les bords. Les visiteurs croisent aussi moins de chevaux immobiles sur les routes, ce qui représentait un réel danger pour la circulation.

En 2023, en effet, la Nouvelle-Galles du Sud a autorisé l’abattage aérien de chevaux sauvages dans le parc national du Kosciuszko. Et fin novembre, le gouvernement a adopté un projet de loi abrogeant le texte qui reconnaissait aux brumbies ou chevaux sauvages un « statut patrimonial » dans le parc (NDT : ces chevaux, arrivés d’Angleterre avec les premiers colons ont été au centre d’une bataille culturelle culturelle ces dernières années).

Ce changement a supprimé les protections juridiques dont bénéficiaient les chevaux dans le parc, qui les distinguaient des autres espèces introduites comme les cerfs, les porcs, les renards et les lapins. Désormais, ils sont traités en Australie de la même manière que les autres espèces invasives, rétablissant une cohérence dans la gestion de leur impact sur les paysages.

La dernière enquête estime qu’environ 3 000 chevaux subsistent dans le parc national du Kosciuszko, contre quelque 17 000 il y a un an. Plus de 9 000 chevaux ont été abattus depuis 2021.

Le plan de gestion actuellement en vigueur prévoit de conserver 3 000 de ces chevaux, un compromis entre protection des écosystèmes et sauvegarde de la valeur patrimoniale de ces animaux. Il doit s’appliquer jusqu’à la mi-2027.

Quels sont les effets environnementaux de la réduction du nombre de chevaux à Kosciuszko ? Et à quoi le parc pourrait-il ressembler à l’avenir ?

Un étalon se tenant dans une tourbière alpine à sphaignes
Un étalon se tenant dans une tourbière alpine à sphaignes. Fourni par l’auteur, CC BY-ND

Les dégâts

Depuis des décennies, les chevaux sauvages constituent une source majeure de dégradations écologiques dans les paysages alpins du Kosciuszko. Leur impact dans ces milieux d’altitude fragiles s’est particulièrement accru au cours de la dernière décennie, période pendant laquelle leur population a augmenté de manière incontrôlée.

Des études empiriques et des analyses d’images satellites montrent que les brumbies réduisent la couverture végétale, dégradent la structure des sols et endommagent les berges des cours d’eau, les tourbières et les marais alpins – des sols riches en carbone formés sur des dizaines de milliers d’années.

Une partie de ces dégâts résulte de leur alimentation, fondée sur des graminées et des plantes herbacées alpines à croissance lente. Un cheval consomme généralement l’équivalent de 2 % de sa masse corporelle par jour, soit environ 8 kilogrammes quotidiens. À titre de comparaison, le plus grand herbivore indigène des hauts plateaux, le kangourou gris de l’Est, consomme environ 600 grammes par jour, c’est 13 fois moins.

Mais l’essentiel des dégâts est causé par leurs sabots. Les chevaux sauvages parcourent jusqu’à 50 kilomètres par jour, et leurs sabots durs écrasent les couches de mousses à sphaignes, compactant en profondeur les sols tourbeux. Ces plantes et ces sols fonctionnent normalement comme des éponges à restitution lente, stockant l’eau de fonte des neiges et alimentant les cours d’eau tout au long de l’été. Et contrairement aux wombats, aux kangourous et à d’autres espèces indigènes, les chevaux sauvages se déplacent en file indienne, traçant de profonds sentiers qui quadrillent les prairies alpines et les assèchent.

Ces transformations affectent l’ensemble de l’écosystème. Les scinques alpins, les rats à dents larges, les grenouilles corroboree, les phalangers pygmées des montagnes et les poissons indigènes dépendent tous d’une végétation dense, de tapis de mousse intacts ou de cours d’eau exempts de sédiments – soit précisément les éléments que les chevaux dégradent.

Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko
Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND

Les cours d’eau ont été particulièrement touchés. Les Alpes australiennes fournissent près d’un tiers des eaux de surface qui alimentent le bassin Murray-Darling (NDT : le plus vaste bassin hydrographique d’Australie), mais le piétinement des chevaux le long des cours d’eau trouble des rivières jusque-là limpides et déstabilise les apports lents et réguliers dont dépendent ces bassins versants.

Ces impacts ne se limitent pas au parc. Ces dernières années, de nombreux chevaux ont gagné des zones voisines, notamment des forêts domaniales, où leurs perturbations s’ajoutent aux effets de l’exploitation forestière commerciale et mettent en danger les visiteurs et les campeurs.

Si l’attention s’est surtout concentrée sur les effets des brumbies au Kosciuszko et, plus largement, dans les écosystèmes alpins, près d’un demi-million de chevaux sauvages affectent les paysages à l’échelle de toute l’Australie, les forêts tropicales claires et les zones semi-arides étant les plus durement touchées.

Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux
Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux. Fourni par l’auteur, CC BY-ND

Ce que nous avons observé jusqu’à présent

Nous avons passé beaucoup de temps dans le parc au cours de l’année écoulée et avons commencé à remarquer de petits changements dans les hauts plateaux, cohérents avec ce que l’on pourrait attendre du programme de contrôle des animaux sauvages.

Nous voyons moins de chevaux lors de nos journées sur le terrain. Dans les zones régulièrement piétinées, de petites poches de végétation réapparaissent sur les surfaces dénudées. Même certaines berges, érodées de longue date, paraissent plus souples sur les bords.

Ces observations restent strictement anecdotiques et ne constituent pas des preuves formelles. Mais elles suggèrent un paysage qui commence à se « réoxygéner » à mesure que la pression diminue. Il y a aussi un aspect sécuritaire. Quiconque circule sur les routes alpines connaît la surprise, au sortir d’un virage dans les eucalyptus, de se retrouver nez à nez avec un cheval, voire un troupeau, sur le bitume. Moins de chevaux signifie moins de ces rencontres dangereuses pour les chercheurs, le personnel des parcs nationaux et les visiteurs.

Le retour progressif

Avec beaucoup moins de chevaux dans les hauts plateaux, la pression commence à diminuer. À mesure que le piétinement diminue, les tourbières et les marais devraient commencer à se régénérer et à retenir l’eau plus longtemps. Les tapis de mousse repousseront et d’autres plantes productrices de tourbe pourront s’implanter à nouveau dans des sols qui ne sont plus constamment compactés et surpâturés.

Moins de pâturage signifie également que les herbes alpines, les carex et les graminées des neiges retrouveront de l’espace pour se développer. Les sols nus vont se stabiliser, les berges des cours d’eau se rétablir et les lits des ruisseaux commencer à se dégager.

Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko
Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND

Ces améliorations se répercutent sur l’ensemble de l’écosystème : des sols plus stables et une végétation plus dense créent un habitat plus favorable aux grenouilles, aux scinques, aux petits mammifères et aux invertébrés qui dépendent d’environnements alpins frais, humides et structurés.

La récupération prendra du temps – des décennies, et non des mois. Des études empiriques à long terme seront indispensables pour suivre les changements et identifier les zones du parc où des efforts de restauration ciblés seront nécessaires pour accélérer le rétablissement.

Enfin, une vraie chance

Rien de tout cela ne se produira en un claquement de doigts. Les écosystèmes alpins se régénèrent lentement, et des décennies de dégâts ne peuvent pas être effacées du jour au lendemain. Les courtes saisons de croissance font que les plantes repoussent progressivement, et non par à-coups. De nombreuses pentes et berges de ruisseaux portent encore les cicatrices du pâturage bovin plus de 60 ans après le départ du bétail. Les perturbations perdurent ici pendant des générations.

La diminution du nombre de chevaux n’est qu’un début, mais c’est une étape essentielle. Et désormais – avec moins de chevaux sur le terrain et la suppression des barrières légales – le parc du Kosciuszko dispose enfin d’une voie réaliste vers la restauration. La prochaine décennie déterminera combien de son fragile patrimoine alpin pourra finalement être retrouvé.

Le fragile écosystème alpin du parc national de Kosciuszko
Le fragile écosystème alpin du parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND
The Conversation

David M. Watson reçoit des financements de recherche du gouvernement fédéral (via l’ARC, le DAFF, le DCCEEW) et siège aux conseils d’administration du Holbrook Landcare Network et des Great Eastern Ranges. Il a exercé deux mandats au sein du Comité scientifique des espèces menacées de la Nouvelle-Galles du Sud, avant de démissionner lorsque la Wild Horse Heritage Act est entrée en vigueur en juin 2018.

Patrick Finnerty est actuellement directeur pour les carrières émergentes en écologie à l’Ecological Society of Australia, coordinateur des jeunes chercheurs à l’Australasian Wildlife Management Society, et membre du conseil de la Royal Zoological Society of NSW. Il reçoit des financements de l’Australian Research Council.

11.01.2026 à 15:40

Cinq pistes pour éviter les clichés sur l’apprentissage et aider les élèves à progresser

Jerrid Kruse, Professor of Science Education, Drake University
Apprendre, c’est comprendre. Cela demande des efforts et du temps. Il est important que les élèves en soient conscients pour progresser.
Texte intégral (2351 mots)

C’est pour apprendre que les élèves se rendent chaque jour en classe. Mais savent-ils bien toujours ce que cela signifie réellement ? Les fausses croyances sur la manière dont on acquiert des connaissances sont nombreuses, et elles peuvent compliquer la tâche des enfants et des adolescents. Quelques pistes pour les aider à réajuster leurs méthodes de travail et augmenter leurs chances de réussite.


Au cours de mes années d’enseignement des sciences au collège, au lycée et à l’université, j’ai constaté que certains de mes élèves résistaient à l’exercice de ce que les pédagogues appellent la pensée de haut niveau, incluant l’analyse, la pensée créative et critique, et la résolution de problèmes.

Par exemple, lorsque je leur ai demandé de tirer des conclusions à partir de données ou de mettre au point un protocole pour tester une idée, certains élèves ont répondu : « Pourquoi ne nous dites-vous pas quoi faire ? » ou « N’est-ce pas le rôle de l’enseignant que de nous donner les bonnes réponses ? »

En d’autres termes, mes élèves avaient développé une forte idée préconçue selon laquelle le savoir provient de l’autorité. Après enquête, mes collègues et moi-même avons conclu que ces croyances sur l’apprentissage influençaient leur approche de nos cours, et donc ce qu’ils étaient capables d’apprendre.

Tous les élèves arrivent en classe avec des croyances diverses sur ce que signifie apprendre. Dans le domaine de l’éducation, la croyance la plus recherchée est peut-être ce que nous appelons avoir un état d’esprit de croissance. Les élèves ayant un état d’esprit de croissance croient qu’ils peuvent s’améliorer et continuer à apprendre. En revanche, les élèves ayant un état d’esprit fixe ont du mal à croire qu’ils peuvent approfondir leurs connaissances sur le sujet qu’ils étudient. Lorsque les élèves disent « Je suis nul en maths », ils font preuve d’un état d’esprit fixe.


À lire aussi : À l’école, ce que les élèves pensent de leur intelligence influence leurs résultats


En tant qu’enseignants, nous essayons non seulement d’aider les élèves à comprendre le sujet traité, mais nous cherchons également à leur inculquer des croyances justes sur l’apprentissage afin que rien ne vienne entraver leur capacité à assimiler de nouvelles informations.

Outre l’état d’esprit de croissance, je soutiens que cinq autres croyances sont particulièrement importantes à promouvoir dans les salles de classe afin d’aider les élèves à mieux apprendre et à mieux se préparer au monde moderne.

Apprendre, c’est comprendre

Certains élèves et enseignants assimilent l’apprentissage à la mémorisation.

Si la mémorisation joue un rôle dans l’apprentissage, l’apprentissage approfondi repose quant à lui sur la compréhension. Les élèves ont tout intérêt à reconnaître que l’apprentissage consiste à expliquer et à relier des concepts entre eux pour leur donner un sens.

Se concentrer trop sur la mémorisation peut masquer des lacunes.

a young girl sitting at a desk buries her forehead in a textbook
Apprendre, c’est un processus difficile. demaerre/iStock via Getty Images

Par exemple, je travaillais un jour avec un élève de maternelle qui m’a fièrement montré qu’il savait réciter les chiffres de 1 à 20. Je lui ai alors demandé de compter les crayons sur le bureau. L’élève n’a pas compris ma demande. Il n’avait pas fait le lien entre ces nouveaux mots et le concept des chiffres.

Pour aider les élèves à reconnaître l’importance de la compréhension dans l’apprentissage, les enseignants et les parents peuvent leur poser des questions telles que « Pourquoi est-il préférable de relier une nouvelle idée à une ancienne idée plutôt que d’essayer simplement de mémoriser la réponse ? » ou « Pourquoi une explication est-elle plus utile qu’une simple réponse ? »

Apprendre est un défi

La conviction des élèves selon laquelle l’apprentissage s’apparente à la mémorisation peut refléter une croyance connexe selon laquelle la connaissance est simple et l’apprentissage devrait être facile.

Au contraire, les éducateurs veulent que les élèves acceptent la complexité et les défis qu’elle comporte. En se confrontant aux nuances et à la complexité, les élèves fournissent l’effort mental nécessaire pour former et renforcer de nouvelles connexions dans leur pensée.

Lorsque les élèves pensent que les connaissances sont simples et que l’apprentissage devrait être facile, leur engagement dans la réflexion de haut niveau, nécessaire pour appréhender la complexité et les nuances, en pâtit.

Pour aider les élèves en difficulté à saisir une idée complexe, les enseignants et les parents peuvent leur poser des questions qui les aident à comprendre pourquoi l’apprentissage est complexe et nécessite des efforts.

Apprendre prend du temps

Lorsque les élèves pensent que l’apprentissage est simple et facile, les enseignants ne devraient pas s’étonner qu’ils pensent également que l’apprentissage doit être rapide.

Au contraire, les élèves doivent comprendre que l’apprentissage approfondi prend du temps. Si les élèves pensent que l’apprentissage est rapide, ils sont moins enclins à rechercher des défis, à explorer les nuances ou à réfléchir et à établir des liens entre les idées. Malheureusement, de nombreux programmes scolaires condensent tellement d’objectifs d’apprentissage en un laps de temps très court que la croyance en un apprentissage rapide est subtilement renforcée.

Si les enseignants peuvent faire preuve de créativité dans l’utilisation du matériel pédagogique et consacrer plus de temps à inciter les élèves à explorer la complexité et à établir des liens, le simple fait de passer plus de temps sur un concept peut ne pas suffire à changer les convictions des élèves en matière d’apprentissage.

a man stands facing away from the camera toward students at row desks
L’apprentissage ne se fait pas uniquement auprès des enseignants. Drazen Zigic/iStock via Getty Images

Pour aider les élèves à changer leur façon de penser, je leur demande de discuter de questions telles que « Pourquoi pensez-vous que la compréhension de concepts complexes prend autant de temps ? » ou « Pourquoi une seule leçon ne suffirait-elle pas pour couvrir ce concept ? » Grâce à ces questions, mes collègues et moi avons constaté que les élèves commencent à reconnaître que l’apprentissage approfondi est lent et prend du temps.

L’apprentissage est un processus continu

Les étudiants doivent également comprendre que l’apprentissage n’a pas de fin.

Malheureusement, beaucoup d’étudiants considèrent l’apprentissage comme une destination plutôt que comme un processus continu. Or, comme la connaissance comporte un degré inhérent d’incertitude et qu’un apprentissage accru révèle souvent une complexité accrue, l’apprentissage doit être continu.

Pour aider les élèves à s’interroger sur cette conviction, les enseignants et les parents pourraient leur poser les questions suivantes : « Comment pensez-vous que vos connaissances ont évolué au fil du temps ? » et « Comment pensez-vous que votre apprentissage va évoluer à l’avenir ? »

L’apprentissage ne se fait pas uniquement auprès des enseignants

Je me souviens qu’un lycéen m’avait dit : « Les enseignants sont censés nous donner les réponses pour que nous sachions quoi écrire à l’examen. »

Cet élève avait apparemment compris les « règles du jeu » et n’était pas content lorsque son professeur essayait de l’inciter à réfléchir de manière plus approfondie. Il s’accrochait à un modèle d’apprentissage par transmission, reposant sur des figures d’autorité.

Au contraire, les élèves doivent comprendre que l’apprentissage provient de nombreuses sources, notamment de leurs expériences, de leurs pairs et de leur propre réflexion, autant que de figures d’autorité.

Même si les enseignants et les parents peuvent hésiter à remettre en cause leur propre autorité, ils rendent un mauvais service aux élèves lorsqu’ils ne les préparent pas à remettre en question les figures d’autorité et à aller au-delà.

Pour aider les élèves à changer leur façon de penser, les enseignants peuvent leur demander de réfléchir à la question suivante : « Pourquoi le fait d’apprendre à partir de sources multiples peut-il vous aider à mieux comprendre la complexité et les nuances d’un concept ? »

Changer nos croyances sur l’apprentissage

Souvent, les enseignants et les parents pensent que les occasions de faire appel à un raisonnement de haut niveau suffisent à aider leurs élèves à développer de meilleures croyances concernant l’apprentissage.

Mais de telles croyances nécessitent une attention explicite et doivent être prévues dans les cours. Pour ce faire, il convient de poser des questions ciblant des croyances spécifiques, telles que celles mentionnées dans la chacune des sections précédentes.

Les conversations que j’ai pu avoir par ce biais avec les élèves étaient très intéressantes. De plus, aider les enfants à développer des croyances plus solides sur l’apprentissage est peut-être la chose la plus importante que les enseignants puissent faire pour les préparer à l’avenir.

The Conversation

Jerrid Kruse a reçu des financements de la National Science Foundation, du NASA Iowa Space Grant Consortium et de la William G. Stowe Foundation.

10.01.2026 à 17:25

Où vivent les plus riches ? Ce que la géographie des hauts revenus dit des fractures françaises

Hippolyte d’Albis, Professeur, ESSEC
Aurélie Sotura, Chercheuse au LAET, Université Lumière Lyon 2
Florian Bonnet, Démographe et économiste, spécialiste des inégalités territoriales, Ined (Institut national d'études démographiques)
La géographie des ménages les plus aisés révèle les profondes mutations de l’économie et de la société françaises depuis 1960.
Texte intégral (2894 mots)

Des centres urbains, où se concentrent les hauts revenus, aux territoires périphériques, où ils disparaissent, la carte des foyers les plus aisés de France raconte une histoire singulière des inégalités. En retraçant leur répartition géographique depuis 1960, une nouvelle étude éclaire les conséquences spatiales des transformations structurelles de l’économie française, et les tensions sociales et politiques qu’elles continuent d’alimenter.


Réduire les écarts entre territoires est un objectif récurrent des politiques publiques, en France comme en Europe. L’Union européenne (UE) en a fait un principe fondateur, inscrit à l’article 174 du Traité sur le fonctionnement de l’Union européenne (TFUE) :

« Afin de promouvoir un développement harmonieux de l’ensemble de l’Union, celle-ci vise à réduire les écarts entre les niveaux de développement des diverses régions. »

Pourtant, cet objectif est aujourd’hui plus que jamais mis à l’épreuve. En France, comme ailleurs, les dernières décennies ont vu s’accentuer un sentiment de fracture territoriale : d’un côté, quelques grandes métropoles concentrent les emplois qualifiés, les sièges d’entreprises, les services de haut niveau ; de l’autre, de vastes espaces voient leurs activités industrielles décliner, leurs jeunes partir et leurs revenus stagner.

Ces déséquilibres économiques ne sont pas sans conséquence sociale ou politique, comme les dernières années l’ont montré avec force. Des ronds-points des « gilets jaunes » aux cartes électorales où se lit la progression de l’abstention ou du vote pour les partis extrêmes, la colère sociale a souvent une géographie. Là où les opportunités économiques se raréfient, les perspectives se referment, le sentiment d’injustice s’installe, et une question fondamentale émerge : que devient une société lorsque les perspectives de réussite se concentrent exclusivement dans quelques territoires ?

Un indicateur plus fin pour comprendre ces enjeux

Comprendre ces enjeux suppose d’abord de bien les mesurer. Or, les indicateurs couramment utilisés dans la littérature économique tendent à masquer la réalité des disparités territoriales. On analyse souvent le développement d’une région à l’aune du produit intérieur brut par habitant ou du revenu moyen, sans tenir compte des différences de structures sociales : ici, une forte proportion de ménages aisés et modestes ; là, une population plus homogène, composée de classes moyennes. Ainsi, la répartition des revenus constitue un élément central pour comprendre les dynamiques locales.


À lire aussi : Combien l’employeur doit-il payer pour attirer des cadres en dehors des zones urbaines ?


Dans un article à paraître dans le Journal of Economic Geography, nous avons voulu dépasser ces limites en construisant une base de données inédite retraçant la répartition des foyers fiscaux appartenant aux 10 % et aux 1 % les plus aisés dans les départements de France hexagonale depuis 1960. Ce travail, rendu possible par une collecte de longue haleine dans les archives du ministère des finances, offre pour la première fois la possibilité d’observer sur plus d’un demi-siècle la géographie des hauts revenus en France et les transformations qu’elle révèle.

À partir de ces données, nous proposons un indicateur simple mais riche de sens : la part des très hauts revenus (Top 1 %) et des hauts revenus (Top 10 % moins Top 1 %) dans la population locale. On peut interpréter ces indicateurs comme la probabilité, pour un individu, d’appartenir aux ménages aisés selon le territoire où il vit.

Cette approche offre un regard nouveau sur les fractures territoriales contemporaines. Là où les opportunités économiques s’amenuisent, les plus qualifiés, les plus ambitieux, les plus mobiles partent ailleurs, laissant derrière eux des territoires appauvris en capital humain et en perspectives. Ces départs nourrissent à leur tour un sentiment de déclassement collectif, l’impression diffuse que « le progrès se passe ailleurs ».

Les cartes de la figure 1 retracent plus de soixante ans d’histoire sociale du territoire français. Elles montrent, pour trois dates clés (1960, 1990 et 2019), la part des ménages appartenant aux très hauts revenus (à gauche) et aux hauts revenus (à droite). Si les foyers fiscaux aisés étaient répartis uniformément, ces parts seraient respectivement de 1 % et de 9 % dans tous les départements : ce sont les zones blanches sur les cartes. Dans la réalité, ce n’est pas le cas : les nuances d’orange et de rouge signalent donc une surreprésentation locale, les teintes de bleu une sous-représentation. Il faut enfin rappeler que la géographie administrative de l’Île-de-France est passée de trois départements au début des années 1960 à huit aujourd’hui.

L’importance de la ligne Caen-Annecy dans les années 1960

En 1960, la France des très hauts revenus est très largement structurée par une ligne Caen-Annecy. Au sud, la part des foyers aux très hauts revenus dans la population locale est faible, souvent moins de 0,5 % (nous l’estimons par exemple à 0,1 % en Lozère). Seules quelques zones urbaines ou industrielles (Rhône, Haute-Garonne, Isère, Haute-Savoie) se distinguent légèrement. Au nord, la présence des foyers les plus aisés s’intensifie, notamment en région parisienne, où la part atteint 2,6 % dans le département de la Seine et 1,6 % en Seine-et-Oise, ou dans le département du Nord.

Trente ans plus tard, la ligne Caen–Annecy a perdu son sens. Les départements où les très hauts revenus sont rares se concentrent près du Massif central (0,4 % en Lozère). Un second pôle où se concentrent les foyers aux très hauts revenus s’est formé à la frontière suisse (Ain, Savoie, Haute-Savoie), tandis que la Côte d’Azur, les métropoles du Sud-Ouest (Toulouse, Bordeaux) et quelques villes du centre (Dijon, Tours) gagnent en attractivité. On observe une forte polarisation en Île-de-France : les très hauts revenus sont très présents à Paris, dans les Hauts-de-Seine et dans les Yvelines, mais très peu nombreux en Seine-Saint-Denis.

Une nouvelle géographie aujourd’hui

En 2019, la rupture est manifeste. Les très hauts revenus sont absents dans la plupart des départements de la « diagonale du vide », tandis que la France des très hauts revenus se réduit à quelques pôles métropolitains (Bordeaux, Nantes, Toulouse, Marseille, Dijon, Strasbourg, Nice) qui conservent des parts proches de 1 % et à la frontière suisse où elle est de 2 % en Haute-Savoie. En Île-de-France, la polarisation atteint des sommets : la part des très hauts revenus est seulement de 0,4 % en Seine-Saint-Denis, mais de 4,5 % à Paris, 4,2 % dans les Hauts-de-Seine, et 2,8 % dans les Yvelines.

Les cartes des hauts revenus (hors Top 1 %) confirment ces dynamiques. En 1960, les foyers aisés sont déjà concentrés autour de Paris et du Rhône tandis que la Bretagne, le Sud-Ouest et le Massif central en comptent peu (moins de 3 % en Aveyron ou en Haute-Loire). En 1990, cette géographie change. La frontière suisse, la Côte d’Azur et plusieurs métropoles régionales rejoignent le groupe des départements surreprésentés. En 2019, les écarts s’accentuent encore, mais la logique reste la même : une sous-représentation persistante dans le centre du pays, et une forte surreprésentation des ménages aisés en région parisienne et près de la frontière suisse. La part de ces foyers est maximale dans les Hauts-de-Seine et dans les Yvelines, où elle atteint 18 %.

Figure 1 : Proportion des très hauts revenus et des hauts revenus dans la population locale en 1960, en 1990 et en 2019.

Fourni par l'auteur

Notes : On définit la part des très hauts revenus comme la proportion de ménages faisant partie des 1 % de ménages aux plus hauts revenus (respectivement 10 % de ménages aux plus hauts revenus moins les 1 % aux plus hauts revenus) tels que définis en France hexagonale.

Des trajectoires divergentes depuis la fin des années 1990

Ces transformations géographiques détaillées peuvent se résumer en un indicateur unique : l’indice de Theil, couramment utilisé pour mesurer les inégalités économiques. Nous l’avons calculé pour chaque année à partir de la part des foyers appartenant aux très hauts revenus ou aux hauts revenus dans chaque département (en vert et en orange sur la figure 2), en conservant une classification départementale stable sur toute la période. Cet indicateur permet de mesurer si ces parts se sont rapprochées ou, au contraire, éloignées au fil du temps. Pour faciliter la comparaison entre les deux courbes, les valeurs ont été normalisées à 1 en 1962.

Le résultat est frappant : après quarante ans de convergence, les écarts territoriaux se sont de nouveau creusés depuis la fin des années 1990. En vingt ans, la concentration géographique des très hauts revenus a triplé, retrouvant son niveau du début de la période. C’est bien le signe d’un retour marqué des inégalités régionales, tirées par le haut de la distribution des revenus.

Figure 2 : Évolution des inégalités d’opportunités économiques régionales entre 1960 et 2019.

Fourni par l'auteur

L’impact de la désindustrialisation

Nous avons cherché à comprendre pourquoi ces opportunités économiques régionales de faire partie des ménages aux très hauts revenus ont d’abord convergé, avant de diverger à nouveau fortement. Deux transformations majeures permettent d’en comprendre la logique.

Dans les années 1960, la présence de très hauts revenus s’expliquait avant tout par la concentration d’activités industrielles, elles-mêmes très inégalement réparties sur le territoire national au profit des régions du Nord-Est. Puis, entre 1960 et 1990, les structures productives régionales se sont progressivement rapprochées : les territoires longtemps agricoles se sont industrialisés tandis que les grandes régions manufacturières perdaient peu à peu leur avantage relatif. Ce mouvement de rééquilibrage a favorisé une réduction des différences régionales d’opportunités économiques.


À lire aussi : 12 métropoles et le désert français… ou une « métropole France » ?


Enfin, à partir des années 1990, la désindustrialisation s’est généralisée à l’ensemble du pays tout en s’accompagnant d’une montée en puissance des services à haute valeur ajoutée. Ce sont eux qui expliquent alors où se trouvent les opportunités économiques de faire partie des ménages aux très hauts revenus. Or, ces activités se trouvent majoritairement dans les grandes métropoles, où elles bénéficient de la présence d’emplois qualifiés, d’infrastructures performantes et de politiques publiques volontaristes, comme l’illustre l’écosystème scientifique et technologique développé sur le plateau de Saclay (Essonne) depuis une quinzaine d’années. On retrouve cette logique dans la région frontalière de Genève, où la concentration d’emplois hautement qualifiés dans les services financiers explique en partie la surreprésentation de ménages à très hauts revenus dans les départements de la Haute-Savoie et de l’Ain.

Une économie polarisée et des territoires « laissés pour compte »

Pour finir, nous défendons l’idée selon laquelle les inégalités territoriales ne tiendraient pas seulement à des écarts de revenus par habitant entre régions, mais à la manière dont les revenus les plus élevés se répartissent dans l’espace.

Depuis les années 2000, les opportunités économiques se concentrent dans un tout petit nombre de territoires, reflet d’une économie de plus en plus polarisée autour de quelques métropoles et de leurs bassins d’emplois qualifiés. En France, comme ailleurs, les transformations structurelles ont progressivement creusé l’écart entre des régions gagnantes, insérées dans l’économie de la connaissance, et d’autres qui peinent à en profiter.

Ce phénomène s’inscrit dans une dynamique plus large, documentée dans la littérature internationale sous le concept de left-behind places. Ces territoires « laissés pour compte » se retrouvent déconnectés des pôles de croissance et des réseaux de pouvoir économique, et expriment à intervalles réguliers le sentiment d’abandon qui les ronge. Réduire ces écarts ne relève donc pas d’un enjeu d’efficacité économique, mais d’un impératif démocratique.

Aujourd’hui, la question reste entière : comment faire en sorte que la transition vers une économie fondée sur les savoirs, les services et l’innovation ne creuse pas davantage les fractures entre territoires ? En retraçant cette histoire sur plus d’un demi-siècle, nos travaux rappellent que la géographie des hauts revenus est mouvante, et ne saurait se passer de volontarisme politique.

The Conversation

Hippolyte d’Albis a reçu des financements de l'ANR et de la Commission européenne.

Aurélie Sotura et Florian Bonnet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

10.01.2026 à 17:08

Maduro-Trump : la bataille pour imposer un récit légitime

Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
L’arrestation de Nicolas Maduro révèle que la légitimité politique contemporaine se construit moins par le droit ou la force que par la capacité à imposer un récit et une vision du monde.
Texte intégral (2140 mots)

L’arrestation de Nicolas Maduro révèle que la légitimité politique contemporaine se construit moins par le droit ou la force que par la capacité à imposer un récit et une vision du monde.


L’arrestation du président vénézuélien Nicolas Maduro à la suite d’une opération états-unienne constitue un événement géopolitique d’ampleur. Mais elle dépasse le cadre diplomatique : elle s’est immédiatement transformée en crise informationnelle.

En quelques heures, plusieurs récits concurrents ont émergé : opération de justice internationale pour certains, violation flagrante du droit international pour d’autres, coup de force impérialiste ou acte nécessaire pour libérer un peuple. Dans cet entrelacs de discours, une bataille bien plus décisive s’est ouverte : celle du récit légitime et de la construction d’un sens partagé.

Les crises contemporaines ne se jouent plus seulement dans les arènes politiques, ou militaires. Elles se construisent désormais dans l’espace de l’information, là où se forment les perceptions, les émotions collectives et, in fine, les lectures du réel. Ce que met à nu l’affaire Maduro, c’est la centralité du narratif dans la production de légitimité politique à l’échelle mondiale.

Dans ce type de crise, la question n’est pas seulement que s’est-il passé ? mais comment devons-nous comprendre ce qui s’est passé ? et surtout, qui a la légitimité pour dire la vérité des événements ?

Un événement politique devenu immédiatement un événement informationnel

Dès l’annonce de l’arrestation, trois dynamiques se mettent en place simultanément.

Tout d’abord, une production institutionnelle du sens où gouvernements, chancelleries, organisations internationales émettent des positions, chacune arrimée à un cadre de légitimation (sécurité, souveraineté, droit, ordre international).

Ensuite, les médias ne se limitent pas à nommer l’événement : ils le scénarisent. Par le choix des images, des angles et des séquences narratives, ils transforment un fait politique en récit intelligible, assignant des rôles, des responsabilités et des émotions. Cette mise en scène médiatique contribue à stabiliser temporairement un sens partagé, participant ainsi à la construction de la légitimité.

Enfin, c’est une explosion numérique où circulent simultanément informations fiables, interprétations partisanes, contenus émotionnels et désinformation. Cette couche numérique loin d’être simplement périphérique structure la manière dont une large part du monde se représente les faits.

Ainsi, ce que nous observons n’est pas seulement la confrontation d’États, mais la confrontation de récits visant à imposer une lecture dominante de la réalité. La lutte ne porte plus uniquement sur ce qui s’est passé, mais sur la manière dont il convient de l’interpréter, de l’évaluer et de l’inscrire dans une mémoire collective.

Une guerre de narratifs : trois grands cadres concurrents

Un narratif états-unien sur l’ordre, la sécurité et la légitimité morale

Le discours états-unien mobilise une stratégie classique de sécurisation, en présentant Nicolas Maduro non plus comme un chef d’État souverain, mais comme un « indicted drug trafficker » (« trafiquant de drogue inculpé ») et leader d’un « vicious terrorist organization » (« organisation terroriste violente ») – le Cartel de los Soles –, fusionnant ainsi régime politique et entreprise criminelle transnationale.

Ce déplacement symbolique joue un rôle d’ampleur en reconstruisant une opération militaro-judiciaire potentiellement illégitime au regard du droit international (capture extraterritoriale, frappes ciblées) en action de maintien de l’ordre mondial, moralement justifiable au nom de la lutte contre le narcotrafic et la menace sécuritaire pour les États-Unis.

La rhétorique mobilise trois registres : le registre pénal avec la lutte contre le crime, la corruption ou le narcotrafic, un registre éthique avec la protection des peuples et la restauration d’une justice prétendument universelle, enfin un registre sécuritaire nourrit par l’argumentaire principal de stabilisation d’une région présentée comme dangereuse.

On retrouve ici ce que les chercheurs appellent l’« agenda setting » : en choisissant les mots et les thèmes dominants du débat (crime, menace, protection), le pouvoir politique influence directement la manière dont l’opinion publique perçoit l’événement. Le politologue américain Joseph Nye, professeur en relations internationales à Harvard, définit ce soft power comme la capacité d’un État à influencer les autres, non pas seulement par la force mais en façonnant leurs préférences grâce à l’attraction, à la crédibilité et à la perception de légitimité.

Un narratif contraire sur la souveraineté, le droit, et d’alerte sur l’ordre international

En face, un contre-récit s’est immédiatement imposé. Pour de nombreux États et observateurs, cette opération constitue une atteinte grave à la souveraineté et crée un précédent dangereux pour l’ordre international. Ce discours s’appuie sur le droit international, notamment l’article 2 (4) de la Charte des Nations unies, qui interdit le recours à la force contre l’intégrité territoriale ou l’indépendance d’un État. Il dénonce une action unilatérale qui contourne les règles collectives et menace l’équilibre du système multilatéral.

Ce narratif ne vise pas tant à défendre Maduro qu’à défendre l’idée qu’un monde où un État peut arrêter un autre chef d’État selon ses propres critères serait profondément instable.

Il relève d’une rhétorique d’alerte : ce qui se produit au Venezuela pourrait devenir une norme globale, avec des échos immédiats dans d’autres débats sensibles – comme celui concernant des dirigeants tels que le président Poutine déjà visés par des procédures internationales.

Le narratif numérique par l’émotion, la polarisation et la fabrication du doute

Un troisième narratif se déploie sur les réseaux sociaux selon des logiques d’amplifications émotionnelles (diffusion d’images générées par IA montrant Maduro en pyjama et fausses informations visant son prédécesseur Hugo Chavez), de circulation accélérée et de simplification extrême. Il en résulte une fragmentation cognitive qui produit des réalités parallèles.

Les sciences de l’information et de la communication montrent que, à l’ère numérique, l’enjeu dépasse la seule désinformation. Il s’agit d’une concurrence des régimes de vérité où ne prime plus uniquement ce qui est vrai, mais ce qui est crédible, ce qui raisonne émotionnellement et ce qui s’aligne avec une vision préexistante du monde.

La construction d’un récit politique n’est jamais improvisée. Elle repose sur quelques mécanismes clés :

  • saturer l’espace public pour imposer un récit dominant ;

  • choisir les mots qui cadrent l’événement et orientent sa lecture ;

  • moraliser le discours en opposant « bien » et « mal » ;

  • aligner communication et gestes symboliques pour renforcer la crédibilité ;

  • exploiter l’économie de l’attention propre aux plateformes numériques.

L’objectif n’est pas seulement d’informer mais de rendre une lecture du réel évidente et acceptable pour le plus grand nombre.

Infographie fournie par l'auteur, Fourni par l'auteur

Ce que révèle cet événement

Trois enseignements majeurs se dégagent. Premièrement, l’effritement des cadres de référence communs. Le monde n’interprète plus les événements à partir d’un socle partagé. Les publics, les États et les institutions lisent la réalité selon des référentiels distincts. Ce qui renforce la conflictualité informationnelle.

Deuxièmement, la montée en puissance de la guerre cognitive est frappante. L’affaire Maduro illustre l’information warfare, c’est-à-dire l’usage stratégique de l’information pour influencer perceptions et décisions. Dans ce cadre, l’essor de l’IA agentique, fondée sur des systèmes d’IA autonomes et adaptatifs (par le biais d’agents), permet de produire et d’ajuster des narratifs ciblés à grande échelle. Combinées à la messagerie personnalisée, ces techniques orientent comportements et alliances, sans confrontation militaire directe. La bataille se joue désormais dans l’espace cognitif plus que sur le terrain physique.

Pour terminer, la centralité stratégique du narratif est construite. Aujourd’hui, gouverner, c’est raconter, c’est produire un récit qui donne sens, qui justifie, légitime et inscrit l’action politique dans une cohérence. Les États qui ne maîtrisent pas cette dimension sont désormais structurellement désavantagés.

L’arrestation du président Nicolas Maduro ouvre un débat juridique et politique immense. Mais elle montre surtout une transformation profonde de nos sociétés ; la légitimité ne repose plus seulement sur les normes ou la force. Elle se fabrique dans la capacité à imposer une vision du réel.

À l’heure où la confiance dans les institutions recule, où la circulation de l’information s’accélère et où les arènes numériques fragmentent nos représentations, la question centrale devient : qui raconte le monde ? Et surtout, quelles histoires sommes-nous prêts à croire ?

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

10.01.2026 à 09:35

Malbouffe et désertification – quelles recettes pour repenser l’attractivité des centres-villes ?

Vincent Dutot, Full professeur Marketing Digital - Fondateur www.cercap.fr, EM Normandie
Abel Mensah, Enseignant-Chercheur en Stratégie, Ascencia Business School
Les enseignes de restauration rapide sont-elles la cause ou la conséquence de la désertification de certains centres-villes ? Comment expliquer ce phénomène et lutter contre ?
Texte intégral (1688 mots)

Les enseignes de restauration rapide sont-elles la cause ou la conséquence de la désertification de certains centres-villes ? Comment expliquer ce phénomène ? Faut-il lutter contre ? Et comment s’y prendre ?


Nice-Matin rappelait dans son édition du 9 octobre 2025 que la France rurale voyait disparaître ses commerces alimentaires à un rythme alarmant. Ce sont près de 62 % des communes qui ne disposeraient d’aucune boulangerie, épicerie ni de bar. En 1980, on n’en dénombrait que 25 % dans la même situation. En quarante ans, ce phénomène a plus que doublé, illustrant la désertification progressive des campagnes françaises. Dans le même temps, la grande majorité des villes a vu le tissu de commerces de proximité évoluer drastiquement.

Le Parisien (2021) rapportait par exemple qu’à La Courneuve (Seine-Saint-Denis), on comptait 18 fast-food pour 12 pharmacies. À l’inverse, à Neuilly-sur-Seine (Hauts-de-Seine), on recense 18  pharmacies, six fast food ou sandwicheries auxquels s’ajoutent plusieurs bars à salade « premium ». Dans des villes de moindre taille, hors d’Île-de-France, l’équation se vérifie aussi. À Annonay (Ardèche), l’une des communes les plus touchées par la désertification commerciale, on recense aujourd’hui 13 enseignes de tacos, kebabs, burgers et pizzas à emporter, pour sept pharmacies, soit pratiquement le double. Même population, région différente : à Vire (Calvados), ce sont cinq enseignes pour sept pharmacies.

La comparaison entre le nombre de lieux de restauration rapide et le nombre de pharmacie permet de mieux appréhender l’âge moyen d’une population. En effet, plus la population est vieillissante, moins elle serait portée vers des offres comme le fast-food.


À lire aussi : Redynamiser les centres-villes par le commerce, c’est possible !


Des liens entre malbouffe et désertification

Certains travaux en urbanisme et en santé publique indiquent ainsi qu’il existe des liens indirects (mais réels) entre l’implantation d’enseignes de malbouffe (fast-food), la désertification des centres-villes (fermeture de commerces, baisse de diversité commerciale, L’aggravation des risques de santé et l’attractivité – ou le manque d’attractivité – pour certaines nouvelles populations. De façon synthétique, ces études montrent :

  • qu’il existe une association robuste entre l’exposition à la restauration rapide et des comportements alimentaires pouvant amener à de l’obésité …

  • qu’une surreprésentation des enseignes de malbouffe dans certains quartiers fragilisés est identifiée ;

  • que l’augmentation de la vacance commerciale va de pair avec une moindre diversité d’offre (plus d’enseignes standardisées, moins de commerces indépendants), contribuant à une image de dévitalisation.

Pouvoir capter facilement les flux

Pour comprendre ces mouvements, il faut mentionner que les enseignes de restauration rapide s’installent généralement dans des contextes précis, comme le suggère un travail en cours que nous menons avec la Métropole Rouen Normandie. On parle notamment de villes (ou des centres-villes) où les loyers sont abordables et où de nombreux espaces vacants existent (centres-villes en déclin ou friches commerciales). Ensuite, elles cherchent des lieux où les flux de passage sont faciles à capter, et ce même si le tissu commercial traditionnel faiblit. Enfin, elles s’épanouissent dans des contextes avec une faible concurrence locale, les commerces indépendants fermant. On peut donc voir dans leur présence comme un symptôme de la fragilisation commerciale, même s’ils n’en sont peut-être pas la cause principale.

Ensuite, il faut comprendre le phénomène de désertification. Rappelons tout d’abord qu’il n’a, malheureusement, rien de nouveau. La loi du 18 juin 2014 relative à l’artisanat, au commerce et aux très petites entreprises, se voulait un dispositif pour contrer ce phénomène. L’enveloppe d’un million d’euros débloquée l’année suivante pour financer les stratégies de développement urbain a bien montré son insuffisance. Les principaux acteurs se renvoyant la responsabilité de cette désertification.

Moins de diversité commerciale

Cette désertification se manifeste donc principalement par la fermeture de commerces indépendants. Ces fermetures entraînant naturellement une baisse de diversité dans l’offre (alimentaire, services, équipements…) qui va accélérer la disparition d’espaces de sociabilité.

Les principales causes de ces phénomènes sont connues. Elles ont été encore mises en avant dans le « Rapport de la mission sur l’avenir du commerce de proximité dans les centres-villes et les quartiers prioritaires de la politique de la ville » d’octobre 2025 :

  • Tout d’abord la croissance des zones commerciales périphériques. De plus en plus nombreuses et censées attirer plus de monde, elles ont l’effet inverse du point de vue de l’attractivité des consommateurs dans les centres-villes. Certes, ils vont consommer plus, mais en dehors des zones où les commerçants-artisans se trouvent.

  • Deuxièmement, les mairies se tournent vers d’autres modèles en transformant les locaux en logements ou bureaux.

  • Enfin, la montée constante de l’e-commerce. Autant il peut être un moteur de changement positif (les études du cercap.fr notamment montrent l’impact fort de la numérisation sur la performance et pérennité des commerçants-artisans), autant il agit aussi comme un concurrent important des commerces traditionnels.

Un cercle vicieux ?

Dans ce contexte, les chaînes de fast-food prospèrent car elles ont des modèles économiques standardisés et très résilients, capables d’absorber des fluctuations de clientèle. Ceci explique donc à terme leur plus grande présence dans les centres-villes. Et cette surreprésentation a un lien naturel sur l’attractivité.

En effet, l’image d’un centre-ville saturé de fast-food peut avoir un réel effet négatif pour certaines populations. Les classes moyennes et supérieures recherchent souvent dans leur centre-ville une offre locale, des circuits courts, des cafés indépendants, voire un marché alimentaire de qualité. Un centre-ville dominé par des franchises de fast-food peut ainsi être perçu comme peu authentique, peu qualitatif, ou en déclin.

Qui vit là ?

Mais il se peut aussi que l’effet soit plus neutre, voire positif pour d’autres publics. De manière un peu simplifiée, les étudiants, les jeunes actifs à faible revenu ou les populations précaires y voient eux des prix abordables, des horaires d’ouverture larges et une offre alimentaire à bas coût. Le fast-food peut donc contribuer à attirer ou stabiliser ces populations. En ce sens, l’impact sur l’attractivité dépend fortement du profil socio-économique des habitants potentiels d’une ville ou d’un centre-ville.

France 3 Hauts-de-France, 2025.

Autrement dit, les fast-food ne sont pas généralement la cause originelle de la désertification, mais ils s’y insèrent, y prospèrent, et peuvent amplifier ses effets. Ainsi, un cercle vicieux, observé dans de nombreuses villes moyennes, peut-être présenté :

  • les commerces traditionnels partent ou ferment,

  • la diversité diminue, ce qui génère une perte d’attrait du centre-ville,

  • les enseignes plus standardisées s’installent,

  • le centre-ville voit son image détériorée,

  • l’attractivité des ménages plus aisés se réduit,

  • le déclin commercial se poursuit.

Loin d’être l’unique cause du phénomène, l’installation de fast-food constitue un marqueur et parfois un accélérateur de cette dynamique.

Nouvelle dynamique

En tant que chercheurs, il est important d’étudier s’il est possible de changer la donne et de créer une nouvelle dynamique. Une approche plus vertueuse pourrait ainsi voir le jour en commençant par exemple à repenser la circulation des centres-villes en y redonnant une place principale aux piétons. Une approche hybride avec une augmentation de l’offre de stationnements en périphérie et une piétonnisation de l’hyper centre-ville paraît intéressante.

Ensuite, réinvestir sur les marchés alimentaires comme premier vecteur d’attractivité. De plus, relancer un soutien clair aux commerces indépendants (qui ne peuvent profiter de la force des réseaux des franchisés) est essentiel. Enfin, il est possible d’imaginer la mise en place d’une vraie politique de régulation de l’occupation commerciale, où les fast-foods deviennent simplement une composante parmi d’autres et ne nuisent plus à l’attractivité de l’ensemble.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

09.01.2026 à 16:49

Le raid de Donald Trump sur le Venezuela laisse présager un nouveau partage du monde entre les grandes puissances

Stefan Wolff, Professor of International Security, University of Birmingham
L’action de Trump au Venezuela ne peut qu’encourager la Russie et la Chine à se sentir en droit de gérer comme elles le souhaitent leurs « prés carrés » respectifs.
Texte intégral (2166 mots)
Donald Trump assiste à la capture du dirigeant vénézuélien Nicolas Maduro, entouré du directeur de la CIA John Ratcliffe (à gauche) et du secrétaire d’État Marco Rubio (Mar-a-Lago, Floride, nuit du 2 au 3 janvier 2026). Site officiel de la Maison Blanche

Donald Trump a célébré la nouvelle année en marquant son territoire et en ouvrant la porte à un nouveau partage du monde entre Washington, Moscou et Pékin. L’Europe, tétanisée, prend acte par son silence approbateur de la mort du droit international.

Donald Trump et les hauts responsables de son administration ont salué l’opération « Détermination absolue » – le raid sur Caracas et la capture et l’enlèvement du président vénézuélien Nicolas Maduro, le 3 janvier 2026 – comme un succès militaire exceptionnel. On peut tout aussi aisément affirmer qu’il s’agit d’une violation flagrante et éhontée du droit international, qui marque une nouvelle érosion de ce qui reste de l’ordre international.

Mais la tentation pour la Maison Blanche est désormais de crier victoire et de passer rapidement à d’autres cibles, alors que le monde est encore sous le choc de l’audace dont a fait preuve le président américain en kidnappant un dirigeant étranger en exercice. Les populations et les dirigeants de Cuba (depuis longtemps une obsession pour le secrétaire d’État de Trump Marco Rubio), de Colombie (le plus grand fournisseur de cocaïne des États-Unis) et du Mexique (la principale voie d’entrée du fentanyl aux États-Unis) ont des raisons de s’inquiéter sérieusement pour leur avenir dans un monde trumpien.

Il en va de même pour les Groenlandais, en particulier à la lumière des commentaires de Trump ce week-end selon lesquels les États-Unis « ont besoin du Groenland du point de vue de leur sécurité nationale ». Sans parler du tweet alarmant de Katie Miller, influente membre du mouvement MAGA et épouse de Stephen Miller, l’influent chef de cabinet adjoint de Trump, montrant une carte du Groenland aux couleurs du drapeau américain.

Et ce n’est pas la réaction timide de la plupart des responsables européens qui freinera le président américain dans son élan. Celle-ci est extrêmement déconcertante, car elle révèle que les plus ardents défenseurs du droit international semblent avoir renoncé à prétendre qu’il a encore de l’importance.

La cheffe de la politique étrangère de l’Union européenne (UE), Kaja Kallas a été la première à réagir, avec un message qui commençait par souligner le manque de légitimité de Maduro en tant que président et se terminait par l’expression de sa préoccupation pour les citoyens européens au Venezuela. Elle a du bout des lèvres réussi à ajouter que « les principes du droit international et de la charte des Nations unies doivent être respectés ». Cette dernière partie apparaissait comme une réflexion après coup, ce qui était probablement le cas.

La déclaration commune ultérieure de 26 États membres de l’UE (soit tous les États membres sauf la Hongrie) était tout aussi équivoque et ne condamnait pas explicitement la violation du droit international par Washington.

Le premier ministre britannique Keir Starmer a pour sa part axé sa déclaration sur le fait que « le Royaume-Uni soutient depuis longtemps une transition au Venezuela », qu’il « considère Maduro comme un président illégitime » et qu’il « ne versera pas de larmes sur la fin de son régime ». Avant de conclure en exprimant son souhait d’une « transition sûre et pacifique vers un gouvernement légitime qui reflète la volonté du peuple vénézuélien », l’ancien avocat spécialisé dans les droits humains a brièvement réitéré son « soutien au droit international ».

Le chancelier allemand Friedrich Merz remporte toutefois la palme. Tout en faisant des commentaires similaires sur le défaut de légitimité de Maduro et l’importance d’une transition au Venezuela, il a finalement souligné que l’évaluation juridique de l’opération américaine était complexe et que l’Allemagne « prendrait son temps » pour le faire.

Le point de vue de Moscou et Pékin

Alors que l’Amérique latine était partagée entre enthousiasme et inquiétude, les condamnations les plus virulentes sont venues de Moscou et de Pékin.

Le président russe Vladimir Poutine avait manifesté son soutien à Maduro dès le début du mois de décembre. Dans une déclaration publiée le 3 janvier, le ministère russe des affaires étrangères se contentait initialement d’apporter son soutien aux efforts visant à résoudre la crise « par le dialogue ». Dans des communiqués de presse ultérieurs, la Russie a adopté une position plus ferme, exigeant que Washington « libère le président légitimement élu d’un pays souverain ainsi que son épouse ».

La Chine a également exprimé son inquiétude quant à l’opération américaine, la qualifiant de « violation flagrante du droit international ». Un porte-parole du ministère des affaires étrangères a exhorté Washington à « garantir la sécurité personnelle du président Nicolas Maduro et de son épouse, à les libérer immédiatement, à cesser de renverser le gouvernement du Venezuela et à résoudre les problèmes par le dialogue et la négociation ».

La position de Moscou, en particulier, est bien sûr profondément hypocrite. Certes condamner l’opération américaine comme étant une « violation inacceptable de la souveraineté d’un État indépendant » est peut-être justifié. Mais cela n’est guère crédible au vu de la guerre que Moscou mène depuis dix ans contre l’Ukraine, qui s’est traduite par l’occupation illégale et l’annexion de près de 20 % du territoire ukrainien.

La Chine, quant à elle, peut désormais avoir le beurre et l’argent du beurre à Taïwan, qui, contrairement au Venezuela, n’est pas largement reconnu comme un État souverain et indépendant. Le changement de régime apparaissant de nouveau à l’ordre du jour international comme une entreprise politique légitime, il ne reste plus grand-chose, du point de vue de Pékin, qui pourrait s’opposer à la réunification, si nécessaire par la force.

Les actions de Trump contre le Venezuela n’ont peut-être pas accéléré les plans chinois de réunification par la force, mais elles n’ont guère contribué à les dissuader. Cet épisode va probablement encourager la Chine à montrer plus d’assurance en mer de Chine méridionale.

Le partage du monde

Tout cela laisse présager un nouveau glissement progressif des intérêts des grandes puissances américaine, chinoise et russe, qui souhaitent disposer de sphères d’influence dans lesquelles elles peuvent agir à leur guise. Car si la Chine et la Russie ne peuvent pas faire grand-chose pour leur allié Maduro, désormais destitué, c’est aussi parce qu’il n’existe aucun moyen simple de délimiter où commence une sphère d’influence et où finit une autre.

La perspective d’un partage du monde entre Washington, Moscou et Pékin explique aussi l’absence d’indignation européenne face à l’opération menée par Trump contre le Venezuela. Elle témoigne de sa prise de conscience que l’ère de l’ordre international libre et démocratique est bel et bien révolue. L’Europe n’est pas en position d’adopter une posture qui lui ferait risquer d’être abandonnée par Trump et assignée à la sphère d’influence de Poutine.

Au contraire, les dirigeants européens feront tout leur possible pour passer sous silence leurs divergences avec les États-Unis et tenteront de tirer parti d’une remarque presque anodine faite par Trump à la fin de sa conférence de presse samedi 3 janvier, selon laquelle il n’est « pas fan » de Poutine.

Ce qui importe désormais pour l’Europe, ce ne sont plus les subtilités des règles internationales. Il s’agit dorénavant de garder les États-Unis et leur président imprévisible de son côté, dans l’espoir de pouvoir défendre l’Ukraine et de dissuader la Russie de commettre de nouvelles agressions.

Ces efforts pour accommoder le président américain ne fonctionneront que dans une certaine mesure. La décision de Trump de réaffirmer son ambition d’annexer le Groenland, dont il convoite les vastes ressources minérales essentielles, s’inscrit dans sa vision d’une domination absolue dans l’hémisphère occidental.

Cette renaissance de la doctrine Monroe vieille de deux siècles (rebaptisée par Trump « doctrine Donroe ») a été exposée dans la nouvelle stratégie de sécurité nationale américaine en décembre 2025. Elle ne s’arrête clairement pas au changement de régime au Venezuela.

La stratégie vise à « rétablir les conditions d’une stabilité stratégique sur le continent eurasien » ou à « atténuer le risque de conflit entre la Russie et les États européens ». Mais déstabiliser davantage l’alliance transatlantique en menaçant l’intégrité territoriale du Danemark au sujet du Groenland et en abandonnant peut-être l’Europe et l’Ukraine aux desseins impériaux du Kremlin risque d’avoir l’effet inverse.

De même, si l’incursion au Venezuela encourage les revendications territoriales chinoises en mer de Chine méridionale et éventuellement une action contre Taïwan, elle ne permettra guère d’atteindre l’objectif américain, énoncé dans la stratégie de sécurité nationale, qui consiste à prévenir une confrontation militaire avec son rival géopolitique le plus important.

À l’instar des autres tentatives de changement de régime menées par les États-Unis depuis la fin de la guerre froide, l’action américaine au Venezuela risque d’être une initiative qui isolera le pays et se retournera contre lui. Elle marque le retour de la loi de la jungle, pour laquelle les États-Unis, et une grande partie du reste du monde, finiront par payer un lourd tribut.


La traduction en français de cet article a été assurée par le site Justice Info.

The Conversation

Stefan Wolff a bénéficié par le passé de subventions du Conseil britannique de recherche sur l'environnement naturel, de l'Institut américain pour la paix, du Conseil britannique de recherche économique et sociale, de la British Academy, du programme « Science pour la paix » de l'OTAN, des programmes-cadres 6 et 7 et Horizon 2020 de l'UE, ainsi que du programme Jean Monnet de l'UE. Il est administrateur et trésorier honoraire de la Political Studies Association du Royaume-Uni et chercheur principal au Foreign Policy Centre de Londres.

09.01.2026 à 16:45

Manger sain et durable avec la règle des 4V

Anthony Fardet, Chargé de recherches HC, UMR 1019 - Unité de Nutrition humaine, Université Clermont Auvergne, Inrae
Michel Duru, Directeur de recherche honoraire, UMR AGIR (Agroécologie, innovations et territoires), Inrae
Manger végétal, vrai et varié et consommer plus de produits issus d'une agriculture régénérant le vivant. Tout cela est bénéfique pour notre santé comme celle des écosystèmes.
Texte intégral (3094 mots)

Manger végétal, vrai et varié et consommer plus de produits issus d’une agriculture régénérant le vivant. Ces quatre objectifs permettent de concilier une alimentation bénéfique pour notre santé comme pour celle des écosystèmes.


Faire ses courses ressemble souvent à un casse-tête. On souhaiterait trouver des produits bon pour la santé, si possible ne venant pas du bout du monde, pas ultratransformés ni cultivés avec force pesticides et engrais chimiques, tout en étant à un prix abordable.

Mais ces enjeux peuvent parfois entrer en contradiction : des produits considérés comme sains ne sont pas toujours issus d’une agriculture de qualité, et inversement. En outre, de bons produits pour la santé et l’environnement ne permettent pas nécessairement d’avoir un régime alimentaire équilibré.

Alors comment sortir de ces dilemmes et aiguiller le consommateur ?

La règle des 4V. Fourni par l'auteur

Nous proposons la règle simple des 4V, qui tient compte des modes de production agricoles et de la composition de l’assiette en invitant à une alimentation vraie, végétale, variée et régénérant le vivant.

La règle des 4V

Manger vrai permet de fait de réduire le risque de nombreuses maladies chroniques (obésité, cancers, diabète de type 2, dépression, maladies cardiovasculaires…). Par précaution, cela consiste à limiter les aliments ultratransformés à 10-15 % des apports caloriques quotidiens, au lieu de 34 % actuellement en moyenne ; soit déjà les diviser par deux au minimum.

Manger plus végétal est également meilleur pour la santé. Cela permet aussi une réduction importante de plusieurs impacts environnementaux : réduction de l’empreinte carbone de notre alimentation, car moins d’émissions de gaz à effet de serre (GES) en agriculture ; moindre consommation de ressources (terres, énergie, eau).

Réduire la production et la consommation de produits animaux permet aussi d’abaisser les émissions d’azote réactif qui polluent l’air, les sols et les nappes phréatiques et produisent du protoxyde d’azote (N₂O), un puissant gaz à effet de serre. Ce deuxième V permet ainsi de diviser par deux les émissions de GES et d’azote dans l’environnement.

Outre la réduction de notre consommation de protéines qui excède en moyenne de 40 % les recommandations, il est proposé de ramener la part des protéines animales à moins de 50 % de l’apport protéique, au lieu de 65 % actuellement. Au final, cela revient à diviser par deux la consommation de viande et un peu celle des produits laitiers, notamment le fromage. L’augmentation de la consommation de protéines végétales provient alors surtout des légumineuses. La végétalisation de l’assiette passe aussi par une consommation accrue de fruits et de légumes peu transformés, de céréales complètes et de fruits à coque.


À lire aussi : Les légumineuses : bonnes pour notre santé et celle de la planète


Manger varié est un atout pour la santé, notamment pour l’équilibre nutritionnel afin d’éviter les déficiences. Cela suppose de diversifier fruits, légumes, céréales complètes, légumineuses et fruits à coque qui sont une source importante de fibres, minéraux, vitamines, oligo-éléments, anti-oxydants et autres phytonutriments bioactifs protecteurs.

Pour cela, il faudrait idéalement consommer de tous les groupes d’aliments tout en variant dans chaque groupe : par exemple, blé, maïs et riz complets pour les céréales. Manger les différents morceaux de viande – en particulier des bovins (par exemple des entrecôtes et pas seulement du steak haché) – est aussi important pour ne pas déstabiliser les filières.

Manger des produits issus d’une agriculture régénérant le vivant permet d’améliorer la densité nutritionnelle des aliments, de réduire l’empreinte environnementale de l’assiette, notamment pour les émissions de GES et d’azote, et aussi d’augmenter les services fournis à la société (séquestration de carbone, épuration de l’eau…).

La regénération du vivant désigne l’ensemble des actions visant à restaurer ou renouveler la fertilité des sols, les cycles de l’eau et de l’azote, la diversité des espèces et la résilience face aux changements climatiques, tout en consommant avec parcimonie les ressources non renouvelables (le gaz qui sert à fabriquer les engrais, le phosphore…). Ainsi, au-delà de la production de nourriture, l’agriculture régénératrice vise à fournir des services à la société, tels que la séquestration du carbone dans les sols, l’augmentation de la densité nutritionnelle des produits.

Manger des produits issus d’une agriculture régénérant le vivant consisterait par exemple à choisir 50 % de produits ayant un bon score environnemental alors que les modes de production contribuant à la régénération du vivant ne dépassent pas 25 % de l’offre.

Types d’agriculture contribuant à la régénération du vivant

L’agriculture conventionnelle, qui vise l’intensification durable en utilisant les technologies pour réduire ses impacts, ne peut cependant pas régénérer le vivant, car elle porte toujours sur des systèmes simplifiés avec un nombre limité de cultures, des sols souvent pauvres en matières organiques, peu d’infrastructures écologiques et de très grandes parcelles.

Cependant, caractériser les modes de culture et d’élevage pour leurs impacts négatifs, mais aussi pour les services qu’ils rendent (séquestration du carbone, densité nutritionnelle des produits) permet d’aller au-delà de la dichotomie usuelle bio/conventionnel.

Les pratiques associées à la régénération du vivant reposent sur la diversification des cultures et des modes d’alimentation des animaux. Elles permettraient de réduire les émissions de GES de 15 % environ, et aussi de séquestrer entre 15 et 20 % des émissions de GES de l’agriculture. Elles permettraient aussi de réduire de moitié insecticides et fongicides. En revanche, une réduction forte de l’utilisation des herbicides est plus difficile et nécessite de combiner plusieurs mesures sans forcément exclure un travail du sol occasionnel.

L’élevage est critiqué, car il introduit une compétition entre feed (nourrir les animaux) et food (nourrir les humains). Cette compétition est bien plus faible pour les vaches, qui mangent de l’herbe, que pour les porcs et les volailles, qui sont nourris avec des graines. Elle est aussi d’autant plus faible que les élevages sont autonomes pour l’énergie et les protéines. Des exemples d’élevage contribuant à la régénération du vivant sont les élevages herbagers et biologiques, dont l’alimentation provient surtout des prairies, ainsi que les élevages Bleu Blanc Cœur pour lesquels l’ajout de lin, graine riche en oméga-3, dans la ration des animaux, a des effets positifs sur leur santé, la nôtre et la planète puisqu’il y a une réduction des émissions de GES en comparaison à des élevages courants.

Il s’agit d’agricultures agroécologiques, telles que l’agriculture biologique, l’agriculture de conservation des sols, s’il y a une réduction effective des pesticides, voire l’agroforesterie.


À lire aussi : Les sept familles de l’agriculture durable


Des initiatives sont en cours pour évaluer l’impact environnemental des produits agricoles et alimentaires. Elles permettent de qualifier les modes de culture et d’élevage en termes d’impacts sur le climat, la biodiversité, en mobilisant la base de données Agribalyse. Elles tiennent compte aussi des services fournis comme la séquestration du carbone, la contribution à la pollinisation des cultures, comme le montre la recherche scientifique.

À ce jour, deux initiatives diffèrent par la manière de prendre en compte les services et de quantifier les impacts. La méthode à retenir dépendra de leur validation scientifique et opérationnelle.

Des bienfaits conjugués

Suivre ces 4V permet de pallier les failles de notre système alimentaire tant pour la santé que pour l’environnement. L’alimentation de type occidental est de fait un facteur de risque important pour le développement de la plupart des maladies chroniques non transmissibles. Les facteurs qui en sont à l’origine sont nombreux : excès de consommation d’aliments ultratransformés, de viandes transformées, de gras/sel/sucres ajoutés, de glucides rapides, manque de fibres, d’oméga-3, d’anti-oxydants, et une exposition trop importante aux résidus de pesticides. Ces maladies sont en augmentation dans de nombreux pays, y compris en France.

Par ailleurs, les modes de production en agriculture sont très dépendants des intrants de synthèse (énergie, engrais, pesticides) dont les excès dégradent la qualité des sols, de l’eau, de l’air, la biodiversité ainsi que la densité nutritionnelle en certains micronutriments.

Nous sommes parvenus à un point où nos modes d’alimentation ainsi que les modes de production agricole qui leur sont associés génèrent des coûts cachés estimés à 170 milliards d’euros pour la France. La nécessité de refonder notre système alimentaire est maintenant reconnue par les politiques publiques.

Un cercle vertueux bon pour la santé et l’environnement

Manger varié encourage la diversification des cultures et le soutien aux filières correspondantes. Il en est de même pour manger vrai, car les industriels qui fabriquent des aliments ultratransformés n’ont pas besoin d’une diversité de cultures dans un territoire. Dit autrement, moins on mange vrai, moins on stimule l’agriculture contribuant à régénérer le vivant. Manger varié est également meilleur pour la santé mais aussi pour le vivant.

Par ailleurs, les pratiques agricoles régénératives permettent généralement d’avoir des produits de plus grande densité nutritionnelle. Même si le mode de production de l’agriculture biologique émet souvent plus de GES par kilo de produit que le mode conventionnel, il suffit de consommer un peu moins de viande pour compenser cet effet.

La règle des 4V (Figure 2) permet donc d’embarquer tous les acteurs du système alimentaire, du champ à l’assiette, ainsi que les acteurs de la santé. Ainsi, adhérer simultanément à vrai, végétal, varié a récemment été associé à une réduction de 27 % du risque de cancer colorectal.

Quant au concept de régénération du vivant, il demeure parlant pour tous les maillons de la chaîne. Vivant, varié et végétal s’adressent aux agriculteurs ; vrai concerne les transformateurs et, in fine, le distributeur qui peut offrir ou non du 4V aux consommateurs. Cette règle des 4V permet ainsi de sensibiliser les acteurs du système alimentaire et les consommateurs aux facteurs à l’origine des coûts cachés de l’alimentation, tant pour la santé que l’environnement.

Enfin, un tel indicateur qualitatif et holistique est facile d’appropriation par le plus grand nombre, notamment les consommateurs, tout en constituant un outil d’éducation et de sensibilisation au concept « Une seule santé » pour l’alimentation, comblant le fossé entre sachants et non-sachants.

The Conversation

Anthony Fardet est membre des comités scientifiques/experts de MiamNutrition, The Regenerative Society Foundation, Centre européen d'excellence ERASME Jean Monnet pour la durabilité, Projet Alimentaire Territorial Grand Clermont-PNR Livradois Forez et l'Association Alimentation Durable. Il a été membre du comité scientifique de Siga entre 2017 et 2022.

Michel Duru est membre du conseil scientifique de PADV (Pour une Agriculture Du Vivant)

09.01.2026 à 11:41

« Cloud Dancer » : la couleur Pantone de l’année révèle les risques d’une esthétique du retrait

Rose K. Bideaux, Chercheur·e en arts et en études de genre, Université Paris 8 – Vincennes Saint-Denis
La couleur blanche n’équivaut pas à une absence de sens : elle est historiquement, culturellement et politiquement chargée.
Texte intégral (2247 mots)
Le blanc, une couleur neutre. Vraiment ? Pexels Hello Pipcke, CC BY

En désignant « Cloud Dancer » comme couleur de l’année 2026, le Pantone Color Institute consacre une nuance de blanc présentée comme aérienne, apaisante et propice à la concentration. Mais que révèle vraiment ce choix sur notre époque, au-delà du discours marketé ?


Depuis 2000, Le Pantone Color Institute fait la pluie et le beau temps dans le monde de la mode et du design en déclarant chaque année quelle couleur est « tendance ». Le discours officiel de la marque inscrit la couleur de 2026, « Cloud Dancer » dans un récit de transition collective : nous vivrions dans un monde saturé d’images et d’informations, épuisé émotionnellement, en quête de simplicité, de clarté et de reconnexion. Face à une « cacophonie » globale, « Cloud Dancer » représenterait une pause, un retrait, un silence visuel permettant de respirer.

Ce récit, en apparence consensuel, mérite pourtant d’être interrogé, car le blanc n’est jamais une absence de sens : il est historiquement, culturellement et politiquement chargé.

« Cloud Dancer » n’est donc pas une pause chromatique innocente, mais s’inscrit dans un régime esthétique du retrait, dans lequel l’effacement, la neutralisation et la pacification visuelle sont présentés comme des réponses souhaitables aux tensions. En érigeant le calme et le neutre en horizon désirable, Pantone ne suspend pas le monde : il requalifie des conflits politiques et sociaux en troubles sensoriels appelant des réponses individuelles et commerciales.

Chromophobie et hiérarchisation des couleurs

L’histoire occidentale de la couleur est traversée par une méfiance persistante que l’artiste britannique David Batchelor a qualifiée de « chromophobie ». Celle-ci désigne l’ensemble des discours qui dévalorisent la couleur, la reléguant au décoratif, au superficiel ou au suspect, tandis que la vérité, la profondeur et la raison seraient du côté de la forme, de la ligne ou de la structure.

Cette hiérarchisation est profondément située : historiquement, la couleur est associée au corps, aux émotions, à l’ornement et au féminin, tandis que le dessin, le noir ou le blanc sont valorisés comme rationnels, sérieux et maîtrisés. Comme l’a expliqué l’historienne de l’art Jacqueline Lichtenstein, dès le XVIIᵉ siècle, les débats artistiques opposent ainsi une peinture du dessin, jugée intellectuelle, à une peinture de la couleur, soupçonnée de séduire l’œil sans nourrir l’esprit.

Cette logique déborde largement le champ artistique pour structurer des rapports de pouvoir plus vastes : la couleur est assignée aux femmes et aux peuples racisés et colonisés, tandis que la sobriété chromatique devient un marqueur de civilisation, de maîtrise et de légitimité. La couleur fonctionne ainsi comme un opérateur de hiérarchisation sociale, où ce qui est coloré est minoré au profit d’un idéal de neutralité présenté comme universel.

Pour autant, la couleur ne disparaît pas : elle est omniprésente mais rendue invisible sur le plan critique. La chromophobie ne supprime pas la couleur mais la neutralise.

Dans ce système, le blanc occupe une position stratégique : perçu comme non-couleur alors qu’il est bien une couleur à part entière, il organise l’espace visuel tout en donnant l’illusion de la neutralité. Le présenter comme vide ou apaisant revient à masquer son rôle actif dans la production des normes visuelles et sociales.

Pantone et la fabrique industrielle du consensus visuel

C’est dans ce cadre que s’inscrit l’action de Pantone, qui n’est pas un simple observateur des tendances. Par ses nuanciers, ses rapports prospectifs et surtout sa « couleur de l’année », il fournit une infrastructure chromatique globale aux industries de la mode, du design, de l’architecture, du marketing ou de la tech. La prévision des tendances couleur constitue aujourd’hui un marché de plusieurs millions de dollars, fondé sur l’idée que la couleur serait l’expression visible de l’« esprit du temps », capable de condenser l’humeur d’une époque en une teinte.

La couleur de l’année fonctionne comme un dispositif performatif : une fois annoncée, elle est immédiatement reprise, déclinée et normalisée, et devient tendance parce qu’elle a été désignée comme telle. Or cette croyance repose sur des bases scientifiques fragiles et l’exactitude de ces prévisions est rarement évaluée. La force du système tient moins à sa capacité prédictive qu’à sa capacité à produire un consensus culturel et industriel et des effets d’influence en cascade. Les effets de cette logique ont déjà été observés avec la tendance Millennial Pink, popularisée à l’échelle mondiale après sa consécration par Pantone en 2016.

Avec « Cloud Dancer », Pantone ne met pas en avant une couleur singulière, mais le neutre lui-même comme solution esthétique. Cette promesse masque une réalité bien documentée : le neutre est déjà dominant. La prépondérance du blanc, du noir et du gris dans les objets industriels – notamment dans l’automobile – et la progression continue des tons neutres dans les objets du quotidien témoignent d’un monde déjà largement décoloré. Présenter le blanc comme réponse apaisante ne suspend donc pas le monde : cela reconduit un ordre visuel hégémonique fondé sur l’effacement.

Au fil du temps, la quantité de couleurs présentes dans notre environnement visuel tend à diminuer. source, Fourni par l'auteur

Blanc, blanchité et pouvoir

Bien qu’il soit une couleur à part entière, le blanc est fréquemment perçu comme une absence : page vierge, mur neutre, toile disponible. Cette perception est pourtant historiquement construite : l’historien Michel Pastoureau a montré que, depuis l’Antiquité, le blanc est associé à la lumière, au sacré et à l’ordre, puis le christianisme en a renforcé la charge morale en en faisant la couleur de la pureté et de l’innocence. À l’époque moderne, ces valeurs se déplacent : le blanc devient fond, norme, évidence, présenté comme universel et rationnel.

Cette naturalisation se cristallise dans le mythe de la Grèce blanche : en interprétant comme originellement immaculées des statues dont la polychromie avait disparu, l’Europe moderne a fabriqué l’image d’une civilisation fondatrice blanche, abstraite et supérieure, opposée à des cultures perçues comme colorées ou excessives. Loin d’un simple contresens archéologique, ce récit constitue un socle idéologique durable, articulant blancheur, civilisation et légitimité.

Le blanc fonctionne ainsi comme un opérateur de hiérarchisation raciale, dans lequel la blanchité ne renvoie pas seulement à une couleur de peau, mais à un régime social et culturel qui se présente comme universel, neutre et apolitique, tout en structurant silencieusement les rapports de pouvoir fondés sur la race. En s’imposant comme norme invisible, elle définit ce qui apparaît comme pur, rationnel et légitime, et relègue la différence du côté du trouble ou de la déviance.

« Cloud Dancer » face au monde contemporain

Dans un contexte marqué par la montée des extrêmes droites à l’échelle mondiale, le choix de « Cloud Dancer » ne relève pas d’un simple bien-être visuel. Il s’inscrit dans des esthétiques contemporaines de retrait, dont les figures les plus visibles sont l’esthétique de la « clean girl » qui valorise une féminité lisse, disciplinée et faussement naturelle, et l’esthétique « quiet luxury », qui prône une richesse discrète fondée sur la neutralité et l’effacement des signes de distinction.

Dans cette perspective, « Cloud Dancer » apparaît moins comme une couleur que comme une politique visuelle du retrait. Le blanc n’y agit pas comme un fond apaisant, mais comme une norme culturelle naturalisée, historiquement liée à la blanchité : il valorise lisibilité et ordre tout en produisant une dépersonnalisation des corps et des subjectivités. Cette neutralité impose un idéal de maîtrise où les différences ne sont acceptables qu’à condition d’être discrètes et non conflictuelles.

Ce régime visuel pourrait entrer en résonance avec certaines logiques fascisantes contemporaines, non par adhésion idéologique directe, mais par affinité formelle : refus du conflit visible, idéalisation de la pureté, valorisation de l’ordre, pacification des tensions. Sans faire de Pantone un acteur politique au sens strict, l’élévation du calme et de la neutralité en valeurs esthétiques dominantes contribuerait alors, de manière diffuse, à des modes de gouvernement des conflits où la conflictualité serait atténuée, déplacée ou rendue illisible. Dans cette perspective, le calme ne s’opposerait pas nécessairement à la violence des pouvoirs fascisants, mais en constituerait l’un des régimes esthétiques possibles, en amont ou en accompagnement de formes plus explicites de contrainte.

The Conversation

Rose K. Bideaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 17:21

Loi de finances spéciale : une entorse à la Constitution ?

Jeremy Martinez, Maître de conférences, droit public, Université Paris Dauphine – PSL
La loi de finances spéciale, adoptée par le Parlement le 23 décembre 2025, ne correspond à aucune hypothèse prévue par la Constitution.
Texte intégral (2006 mots)

Une nouvelle loi de finances spéciale a été adoptée par le Parlement, le 23 décembre 2025. Or ce choix politique est contestable d’un point de vue juridique. En cas de blocage dans l’examen du budget, la Constitution prévoit un recours à l’article 49-3 ou une mise en œuvre du budget par ordonnances. On ne peut appeler à la défense de l’État de droit face à des dérives autoritaires et contourner la Constitution quand il s’agit d’adopter le budget.


L’adoption du budget est un moment crucial, car elle conditionne le financement de l’action publique pour l’année suivante. Dans une démocratie représentative, il appartient en principe au Parlement d’adopter chaque année le budget, que le gouvernement est ensuite autorisé à exécuter.

En France, la Constitution encadre strictement cette procédure afin d’éviter toute paralysie de l’État. Les délais d’examen sont volontairement contraints (40 jours pour l’Assemblée nationale, 20 jours pour le Sénat) et, en cas de blocage, le gouvernement peut soit recourir à l’article 49 alinéa 3, soit mettre en œuvre le budget par ordonnances si le Parlement ne s’est pas prononcé dans un délai de 70 jours. Tout est donc fait pour éviter un « shutdown » à l’américaine, même si, formellement, ce dernier ne peut être catégoriquement exclu en cas de rejet définitif du Parlement d’une loi de finances, y compris spéciale.

Or, depuis la dissolution de 2024, une Assemblée nationale profondément divisée empêche l’adoption du budget avant le 31 décembre. Pour assurer la continuité de l’État, une loi de finances spéciale en 2024 avait déjà été adoptée, en attendant l’adoption tardive de la loi de finances en février 2025. Les mêmes causes produisant les mêmes effets, une nouvelle loi de finances spéciale a été adoptée pour 2025.

Cette solution est souvent présentée comme un mal nécessaire. La loi de finances spéciale a d’ailleurs été adoptée à l’unanimité (avec des abstentions) par l’Assemblée nationale en 2024 et en 2025. Pourtant, cette nécessité n’est pas juridique. Aucun texte juridique n’oblige le gouvernement à déposer une loi de finances spéciale. Au contraire, un respect scrupuleux de la Constitution plaiderait plutôt en faveur du recours aux ordonnances, expressément prévues pour ce type de situation. Si cette option est écartée, ce n’est donc pas pour des raisons juridiques mais pour des raisons politiques.

Derrière ce débat technique se cache une question simple : peut-on, au nom de la recherche d’un consensus politique au sein du Parlement, s’affranchir de la Constitution ?

Une loi de finances spéciale… spéciale

La Constitution prévoit qu’une loi spéciale n’est possible que si le projet de loi de finances n’a pas été déposé « en temps utile » (article 47 alinéa 4 de la Constitution).

Qu’est-ce qu’un dépôt en « temps utile » ? On peut raisonnablement avancer que le projet sera déposé en temps utile lorsqu’il laissera 70 jours au Parlement pour examiner le texte (et, éventuellement, 8 jours au juge constitutionnel pour rendre sa décision), soit le délai au bout duquel le gouvernement pourra mettre en vigueur le projet de loi de finances par ordonnances.

Depuis que le gouvernement a déposé le projet le 14 octobre 2025 à l’Assemblée, le délai de 70 jours court jusqu’au 23 décembre, auquel s’ajoutent 8 jours pour le Conseil constitutionnel, portant la date limite au 31 décembre. Ainsi, le gouvernement a déposé le projet de loi de finances en temps utile. Notons que, dans le cadre de l’examen du projet de loi de finances précédent, le délai de 70 jours avait même été atteint avant le 23 décembre.

Dès lors, les lois de finances spéciales depuis la dissolution de 2024 ne correspondent à aucune hypothèse prévue par la Constitution. Il s’agit de lois de finances sui generis, autrement dit de lois de finances spéciales… spéciales.

Un remède constitutionnel ou un pouvoir inconstitutionnel ?

Ni la Constitution ni les règles budgétaires ne prévoient formellement l’existence de ces lois de finances spéciales adoptées par le Parlement. La question est donc simple : sur quoi le gouvernement fonde-t-il sa compétence pour déposer ces textes ? L’enjeu est important : le principe même d’un État de droit repose sur la nécessité que les gouvernants exercent un pouvoir prévu par le droit, notamment par une Constitution.

La réponse tient à un précédent ancien, datant de 1979. Cette année-là, le Conseil constitutionnel avait admis, de manière exceptionnelle, une loi de finances sui generis après avoir censuré la loi de finances initiale, le 24 décembre, pour un vice de forme. L’État se retrouvait alors sans budget à quelques jours du 1er janvier. Face à cette urgence extrême, le Conseil constitutionnel avait validé une loi de finances spéciale, non prévue par les textes en vigueur, au nom d’un impératif supérieur : garantir la continuité de la vie nationale.

C’est ce précédent que le gouvernement invoque aujourd’hui, comme il l’avait déjà fait pour la loi de finances spéciale de 2024. Au regard des enjeux en présence (lever l’impôt et garantir le fonctionnement des services publics pour maintenir une vie nationale), le Conseil constitutionnel pourrait ne pas s’opposer au raisonnement du gouvernement en cas d’éventuelle saisine de l’opposition.

On notera que le précédent de 1979 était plus facilement transposable à la configuration de 2024 qu’à celle de 2025. En 2024, le renversement du gouvernement Barnier était une circonstance empêchant l’adoption du budget avant le 1er janvier.

En 2025, à la différence de 2024, il n’y a aucune circonstance exceptionnelle empêchant matériellement le Parlement de se prononcer sur le budget. La loi de finances spéciales 2025 était simplement justifiée par le probable rejet du projet de loi de finances. Le gouvernement adopte ainsi une lecture extensive du précédent jurisprudentiel de 1979 en affirmant dans l’exposé des motifs de la loi de finances spéciale 2025 qu’il lui appartient « de déposer un projet de loi spéciale lorsqu’il apparaît qu’une loi de finances ne pourra pas être promulguée avant le début du prochain exercice budgétaire »). Ce n’est pas ce que le Conseil constitutionnel a dit dans sa décision de 1979. D’un instrument exceptionnel, la loi de finances spéciale est transformée en pratique courante. Le gouvernement fragilise indiscutablement l’équilibre constitutionnel.

L’exclusion de l’ordonnance budgétaire : compromis politique et détournement de la Constitution

Cet équilibre est d’autant plus fragilisé que le gouvernement écarte une solution pourtant expressément prévue par la Constitution : le recours à l’ordonnance prévu à l’article 47 alinéa 3. Ce mécanisme, conçu dès 1958, permet au gouvernement de mettre en vigueur lui-même le projet de loi de finances si le Parlement ne s’est pas prononcé dans le délai de 70 jours. Cet outil s’inscrit pleinement dans la logique d’un parlementarisme rationalisé, qui garantit avant tout la continuité de l’action gouvernementale.

Certes, le recours à cette ordonnance est une faculté et non une obligation pour le gouvernement. En outre, la procédure est brutale à l’encontre d’un régime parlementaire dès lors qu’elle écarte le Parlement de l’adoption du budget. Pour autant, cette procédure a été prévue en 1958 précisément pour cela en présence d’un Parlement miné par des désaccords partisans. Si l’instabilité au Parlement était telle qu’elle entraînerait de manière certaine le rejet définitif de tout texte financier (y compris une loi de finances spéciale), l’ordonnance serait-elle toujours aussi décriée alors qu’elle serait le seul et unique moyen d’éviter un shutdown ?

En recourant à des lois de finances spéciales juridiquement fragiles et en écartant des ordonnances politiquement contestées mais juridiquement solides, le gouvernement fait primer le consensus politique sur l’autorité de la Constitution. Serait-ce la peur d’une crise politique en général ou celle plus particulière d’être renversé par l’Assemblée nationale en représailles d’un recours aux ordonnances ? On ne peut malheureusement exclure ces considérations opportunistes, qui contribuent à une défiance à l’égard de la vie publique.

Opportunisme ou pas, le débat sur la loi de finances spéciale ne se résume pas à une querelle de juristes. Il révèle une tension plus profonde entre les accommodements de la pratique des acteurs politiques et le respect de l’autorité de la Constitution.

Rappelons, de ce point de vue, que la Constitution est un tout. Elle garantit le respect des droits et libertés, mais encadre également le fonctionnement des pouvoirs publics et, par conséquent, les conditions d’adoption du budget. On ne peut appeler à la préservation, voire au renforcement, de l’autorité de la Constitution quand il s’agit de défendre l’État de droit face à des dérives autoritaires, et, en même temps, contourner la Constitution quand il s’agit d’adopter le budget. Derrière le vernis de la technique juridique se profile une conception alarmante que les gouvernants peuvent avoir de la Constitution.

Respecter le Parlement est une exigence démocratique. Mais affaiblir la Constitution au nom de cet objectif revient à fragiliser l’ensemble de l’édifice institutionnel. À vouloir trop éviter le choc politique, on pourrait provoquer une secousse constitutionnelle durable.

The Conversation

Jeremy Martinez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 17:19

L’intervention des États-Unis au Venezuela au prisme du droit international

Abdelwahab Biad, Enseignant chercheur en droit international, Université de Rouen Normandie
Le droit international ne laisse guère de place au doute : l’opération conduite par les États-Unis enfreint de nombreuses règles établies, que Washington est censé respecter.
Texte intégral (1897 mots)

Bombarder un pays étranger sans mandat de l’ONU, capturer son dirigeant et proclamer qu’on va dorénavant diriger le pays en question : tout cela contrevient à de nombreuses normes du droit international détaillées dans la Charte de l’ONU et dans les Conventions de Genève.


L’Opération « Absolute Resolve » qui a impliqué le déploiement d’une force aéronavale sans précédent dans les Caraïbes depuis la crise des missiles de Cuba en 1962 illustre la détermination du président Trump à capturer le président Nicolas Maduro et son épouse, en exécution d’un mandat d’arrêt de la justice américaine pour « narco-terrorisme ». Au-delà de la méthode et des raisons invoquées pour la justifier, il s’agit d’une intervention armée sur le territoire d’un État étranger sans fondement juridique, autrement dit une agression. C’est une nouvelle manifestation d’un interventionnisme décomplexé depuis l’adoption de la Doctrine Monroe il y a deux siècles.

Celle-ci, énoncée par le président James Monroe en 1823, visait à dissuader les puissances européennes d’intervenir dans l’hémisphère occidental, considéré comme chasse gardée des États-Unis. Elle s’est traduite notamment par le soutien aux républicains mexicains pour mettre fin à l’éphémère royaume de Maximilien voulu par Napoléon III (1861-1867), ainsi que l’appui aux indépendantistes cubains au prix d’une guerre hispano-américaine (1898) à l’issue de laquelle l’île de Porto Rico a été annexée par les États-Unis et Cuba est devenue formellement indépendante.

La Doctrine Monroe version Trump (« Trump Corollary » dans la Stratégie de sécurité nationale 2025) est désormais définie comme visant à restaurer la prééminence de Washington dans son arrière-cour en s’assurant qu’aucun rival extérieur ne soit en mesure d’y déployer des forces ou de contrôler des ressources vitales dans la région. Une allusion à peine voilée à la Chine dont l’activisme économique dans la région et singulièrement au Venezuela (qui intéresse avant tout Pékin pour son pétrole) est perçu comme une menace pour cette prééminence.

Un précédent : Panama, 1989

« Absolute Resolve » ressemble par son modus operandi à l’opération « Just Cause » décidée par le président George W. Bush en 1989 pour capturer et traduire devant un tribunal américain le dirigeant du Panama, Manuel Noriega, sous la même inculpation de trafic de drogue.

L’Assemblée générale des Nations unies avait qualifié cette intervention à Panama de « violation flagrante du droit international, de l’indépendance, de la souveraineté et de l’intégrité territoriale de Panama » (Résolution 44/240 du 29 décembre 1989).

Une différence réside dans le fait que le général Manuel Noriega – un dictateur responsable d’exécutions extrajudiciaires et de tortures – fut un allié de Washington, mais qui avait fini par s’avérer encombrant. A contrario, Nicolas Maduro — qui est également considéré par de nombreux États et ONG comme un dirigeant autoritaire — incarne une gauche révolutionnaire que Washington n’a cessé de combattre depuis la guerre froide.


À lire aussi : Des crimes contre l’humanité ont-ils été commis au Venezuela ces dernières années ? La Cour pénale internationale va (peut-être) trancher


Une violation manifeste de la Charte des Nations unies

L’intervention armée sur le territoire vénézuélien constitue sans discussion une violation de la Charte des Nations unies. Celle-ci dispose que « les membres de l’Organisation s’abstiennent, dans leurs relations internationales, de recourir à la menace ou à l’emploi de la force, soit contre l’intégrité territoriale ou l’indépendance politique de tout État, soit de toutes autres manières incompatibles avec les buts des Nations unies » (article 2, § 4).

Les exceptions compatibles avec un recours à la force se limitent à la légitime défense ou à une action conforme à une décision du Conseil de sécurité. Dans cette circonstance, les États-Unis ne peuvent se prévaloir ni d’une action en légitime défense ni d’un mandat du Conseil de sécurité.

La Cour internationale de Justice avait relevé que le non-recours à la force relevait d’un principe essentiel et fondamental du droit international (arrêt du 27 juin 1986, qui concernait déjà une confrontation entre les États-Unis et un pays des Amériques, en l’occurrence le Nicaragua).

L’interdiction de l’emploi de la force peut être déduite d’une autre disposition de la Charte (Article 2, § 7) invitant les États à recourir au règlement pacifique des différends (chapitre 6), ce qui manifestement n’a pas été mis en œuvre ici.

Ces principes ont pour finalité de préserver la stabilité de l’ordre international et de prévenir le règne de la loi de la jungle dans les relations internationales. Or, faut-il le rappeler, dans la mesure où ils ont adhéré à la Charte des Nations unies, dont ils furent les rédacteurs en 1945, les États-Unis sont tenus d’en respecter et appliquer les dispositions.

Le « regime change » n’a pas de fondement en droit international

Le président Trump a justifié son intervention armée contre un président qu’il considère comme « illégitime » par l’accusation selon lequel Nicolas Maduro se serait livré, des années durant, au « narco-terrorisme ». La méthode utilisée, l’enlèvement d’un chef d’État en exercice, est doublement contraire au droit international : d’une part, en raison de l’immunité attachée à la fonction présidentielle (ce que semble ignorer l’application extra-territoriale de la justice américaine) ; d’autre part parce que la Charte, dans son art. 2, § 7, stipule clairement la non-ingérence dans les affaires intérieures des États.

Le principe de souveraineté n’autorise pas un État à intervenir militairement sur le territoire d’un autre État en vue d’en changer le système politique, quand bien même le régime de Nicolas Maduro s’est rendu coupable de fraude électorale et de graves violations des droits humains à l’égard de l’opposition, qui font l’objet d’une enquête conduite par la Cour pénale internationale pour crimes contre l’humanité.

Il reste que l’emploi de la force armée n’est pas la méthode la plus appropriée pour promouvoir les droits de l’homme dans un autre pays. Il existe des mécanismes internationaux compétents dans ce domaine (ONU, CPI) qui devraient pouvoir poursuivre leurs missions d’enquête sur les crimes présumés commis par au Venezuela.

Les Conventions de Genève applicables

Le droit applicable à l’intervention armée à Caracas est le droit des conflits armés encadrant la conduite des opérations militaires et la protection des biens et des personnes, même si les États-Unis nient être en guerre contre le Venezuela.

Les Conventions de Genève s’appliquent s’agissant d’un conflit armé international même si l’une des parties ne reconnaît pas l’état de guerre (art. 2 commun des Conventions).

Dès son arrestation, Nicolas Maduro peut se prévaloir de la protection de la 3ᵉ Convention de Genève relative au traitement des prisonniers de guerre. En outre, la brièveté de l’opération militaire américaine n’exclut pas l’application de la 4ᵉ Convention de Genève si des victimes civiles sont à déplorer ou des biens civils ciblés.

D’autre part, Donald Trump a déclaré vouloir « diriger le pays jusqu’à ce que nous puissions assurer une transition sûre, appropriée et judicieuse ». Cela peut être un motif d’inquiétude si un projet d’occupation est envisagé (la Charte des Nations unies le proscrit si l’occupation découle d’un recours à la force illicite). Cela dit, un tel scénario semble improbable compte tenu de l’expérience des fiascos en Afghanistan et en Irak, des réactions internationales majoritairement hostiles à l’intervention militaire, ainsi que de la montée des critiques au sein même de sa base MAGA, à qui Trump avait promis avant son élection de mettre fin aux guerres extérieures.

L’intervention armée et l’arrestation d’un chef d’État étranger en vue de le juger par un tribunal états-unien sont un message sans ambiguïté adressé par le président Trump à la communauté internationale : son pays n’hésitera pas à faire prévaloir le droit de la force sur la force du droit. Le droit international doit impérativement prévaloir comme contrat social liant les nations pour prévenir le chaos ou « l’homme est un loup pour l’homme » pour reprendre la formule de Thomas Hobbes.

The Conversation

Abdelwahab Biad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 17:19

Dermatose nodulaire contagieuse : les vétérinaires victimes d’une épidémie de désinformation

Jeanne Brugère-Picoux, Professeur honoraire agrégée de pathologie du bétail à l’École nationale vétérinaire d’Alfort, Président honoraire de l’Académie vétérinaire de France (2012), Académie nationale de médecine, Académie vétérinaire de France
Jean-Yves Gauchot, Docteur vétérinaire, Président de la Féderation des syndicats vétérinaires de France, Vice-président de l’Académie vétérinaire de France., Académie vétérinaire de France
La crise agricole de la dermatose nodulaire contagieuse (DNC) a vu un déferlement inédit de fake news, ciblant en particulier les vétérinaires.
Texte intégral (2448 mots)

Arrivée en France en juin 2025, la dermatose nodulaire contagieuse (DNC) a rapidement fait l’objet de mesures sanitaires qui ont permis d’éradiquer le virus dans certaines régions. Mais la crise agricole qui a suivi a vu émerger une contestation inédite, nourrie par des fausses informations et des remises en cause du rôle des vétérinaires. Dans ce texte, la profession appelle à un « droit de véto » contre la désinformation.


La dermatose nodulaire contagieuse (DNC) a atteint la France en Savoie le 29 juin 2025 à la suite de l’introduction d’un bovin infecté venant d’Italie. La France métropolitaine étant alors indemne de la DNC, la réglementation européenne prévue (dépeuplement total, vaccination d’urgence au sein des zones réglementées (ZR) – instaurées par arrêté préfectoral, limitation des mouvements des bovins…] a été mise en place, ce qui a permis d’éliminer le virus dans la région dès le 21 août.

Les contaminations ultérieures qui ont suivi en France, notamment en Occitanie, sont en réalité le résultat de déplacements illicites de bovins contagieux à partir de la zone réglementée couvrant une partie de l’Ain, de la Savoie et de la Haute-Savoie (zone vaccinale II sur la carte ci-dessous).

Zones réglementées et vaccinales suite aux foyers de DNC en France au 31 décembre 2025. Ministère de l’agriculture, de l’agro-alimentaire et de la souveraineté alimentaire

La forte médiatisation de la DNC associée aux dénonciations de « hold-up politique » par certains éleveurs rappelle de précédentes crises sanitaires (vache folle, grippe aviaire, Covid-19…). Mais à l’époque, la parole des « sachants » n’avait pas été remise en cause dans les mêmes proportions qu’aujourd’hui. Des membres de la profession vétérinaire font l’objet d’insultes, voire de menaces gravissimes, dans certains cas même de menaces de mort.

Cette situation est non seulement surprenante, mais également choquante. Les vétérinaires ont toujours été associés et solidaires avec les éleveurs. Dans le même temps, de fausses informations au sujet de la DNC se propagent dans l’espace médiatique.


À lire aussi : Dermatose nodulaire : comprendre les raisons de la mobilisation agricole


Un déferlement inédit de « fake news »

Parmi les fausses informations que des experts autoproclamés (parmi lesquels on a pu retrouver tant des personnes ayant endossé une posture « antivax » lors de la pandémie de Covid-19 que des scientifiques ou cliniciens méconnaissant la DNC) ont diffusées, non seulement sur les réseaux sociaux mais également dans les médias :

  • « La maladie peut être traitée par des antibiotiques/par l’ivermectine. »

C’est faux. Les antibiotiques ou les antiparasitaires tels que l’ivermectine ne sont pas actifs sur une maladie virale comme la DNC, causée par un Capripoxvirus (Lumpy skin disease virus).

  • « L’Espagne et l’Italie n’ont pas appliqué le dépeuplement total. »

C’est faux. Les autres pays européens confrontés à la DNC, comme l’Espagne et l’Italie, appliquent eux aussi la stratégie d’abattage de tous les bovins présents dans un foyer confirmé de DNC, comme le confirme le ministère de l’agriculture.

  • « La Suisse pratique l’abattage partiel. »

Il n’y a pour l’instant pas eu de cas de DNC confirmé en Suisse, donc pas d’abattage.

  • « Il est inadmissible d’abattre tout un troupeau lorsqu’il y a seulement un animal malade. »

Si un seul animal présente des lésions cutanées, il y a de fortes chances qu’au moins 50 % des animaux soient infectés dans le troupeau. En effet, il est difficile de connaître précisément la date d’infection du bovin. Si celle-ci est antérieure à l’acquisition de la protection vaccinale, alors plusieurs animaux sont potentiellement infectés au sein du troupeau, ce que les tests sanguins ne permettent pas de détecter.

  • « Il faut avoir un troupeau témoin pour surveiller l’évolution de la maladie dans un foyer infecté. »

Ce troupeau « témoin » a existé dès le 6e foyer de DNC déclaré le 7 juillet en France, du fait du recours d’un jeune éleveur de Savoie refusant le dépeuplement de son troupeau. Treize jours plus tard, le recours a été refusé et d’autres cas de DNC se sont déclarés dans son élevage. La forte contagiosité de la DNC pourrait en partie expliquer le grand nombre de foyers de DNC déclarés deux semaines plus tard dans les élevages voisins.

  • La DNC relève de la catégorie A du droit européen, comme la fièvre aphteuse, or « pour la fièvre aphteuse, de nouveaux textes préconisent l’abattage partiel ».

C’est faux. La catégorie A correspond en médecine vétérinaire à une maladie soumise une réglementation sanitaire très stricte lorsqu’il s’agit d’une maladie hautement contagieuse émergent dans un pays indemne. Les conséquences économiques et sanitaires justifient une éradication immédiate dès son apparition.

  • « Le vaccin n’est pas efficace car certains bovins vaccinés ont présenté la maladie malgré tout »

La vaccination en urgence n’est pas une vaccinothérapie. Elle nécessite au moins trois semaines pour installer une protection immunitaire. Elle a pu être réalisée chez des animaux déjà infectés avant ou peu après l’injection vaccinale.

  • « La désinsectisation de l’élevage est la méthode la plus efficace pour éviter la contamination ».

Ce sont certes des insectes hématophages qui sont les vecteurs de la DNC, mais les traitements insecticides ne sont jamais efficaces à 100 %. Il n’existe pas de mesure parfaite permettant d’éradiquer tous les insectes d’un élevage.

  • « 70 vétérinaires ont été radiés de l’Ordre des vétérinaires pour avoir refusé l’abattage du troupeau de l’Ariège ».

C’est faux. Le conseil national de l’ordre des vétérinaires confirme qu’aucun vétérinaire n’a été radié pour avoir refusé un abattage.

  • « Le vaccin est dangereux pour les animaux et l’humain ».

C’est faux, le vaccin est un vaccin dit « vivant atténué » qui ne présente aucun danger ni pour les animaux ni pour l’humain. De plus, la DNC n’est pas une zoonose (maladie animale transmissible à l’humain et réciproquement), mais une épizootie.

  • « Il y a encore des cas de DNC en Savoie ».

Dans cette zone désormais considérée comme indemne de la DNC, il peut s’agir de la pseudo dermatose nodulaire contagieuse (PDNC), due à un herpèsvirus qui évolue très rapidement (en 3 semaines) vers la guérison.

  • « La fédération des vétérinaires européens (FVE) préconise plutôt la vaccination que l’abattage dans la DNC ».

C’est faux : la note de la FVE de novembre 2025 présente une revue générale sur le bénéfice des vaccinations en médecine vétérinaire sans remettre en cause la réglementation européenne concernant les maladies classées dans la catégorie A comme la DNC.

  • « L’EFSA (European Food Safety Autority) avait préconisé un abattage partiel en 2016 lors des premiers foyers de DNC en Europe ».

Cette recommandation de l’EFSA en 2016 correspondait à une évaluation mathématique des moyens à mettre en œuvre dans les pays où la DNC était déjà installée (virus endémique), en l’occurrence les Balkans. Elle ne s’applique pas pour les pays indemnes de DNC soumis à la réglementation européenne, comme c’est le cas en France.

  • « Lors de l’épizootie de DNC observée dans l’île de La Réunion en 1991-1992, il n’y a pas eu de dépeuplement total ».

La flambée de DNC sur l’île de la Réunion a été la conséquence de l’importation de zébus malgaches. Le contexte sur cette île qui n’exportait pas de bovins était toutefois différent de la situation actuelle de la DNC en France métropolitaine. Il y a d’abord eu un retard considérable de plusieurs mois pour identifier formellement la maladie. Le premier vaccin, qui était celui utilisé pour la variole ovine, était peu efficace pour les 18 000 bovins vaccinés (sur les 21 000 bovins recensés sur l’île). La vaccination avec le vaccin bovin sud-africain, bien plus efficace, a été réalisée avec un an de retard. Au total, 511 exploitations ont été atteintes avec 10 % de mortalité.

Les conditions de la sortie de crise

En France, la situation est actuellement sous contrôle dans le Sud-Est, mais elle est encore évolutive en Occitanie, où de rares cas peuvent encore apparaître à la fin de cette épizootie. Ce sera le cas de bovins en incubation, car voisins d’un foyer déclaré et dont l’immunité vaccinale n’est pas encore installée pour le protéger.

Deux autres risques ne peuvent pas être évalués pour prédire la fin de cette épizootie de DNC :

  • un déplacement illicite à partir des ZR actuelles d’animaux apparemment sains, mais qui sont de véritables « bombes virales » à retardement ;

  • la non-déclaration d’un cas de suspicion de DNC par un éleveur (comme un représentant syndical a osé le recommander), alors qu’il convient d’éviter la contamination des élevages voisins.

La principale revendication des agriculteurs, répétée inlassablement dans les médias, est un abattage partiel lors de DNC. Elle témoigne d’une méconnaissance de cette maladie. En effet, on l’a vu plus haut, ce serait mettre en danger les troupeaux indemnes et par-delà, tout le cheptel bovin français. Nous espérons qu’il n’y aura plus de foyers de DNC à partir de mi-janvier 2026, comme ce fut le cas dans les Savoie après la vaccination.

La profession vétérinaire a toujours été proche des agriculteurs. Rappelons que les premières écoles vétérinaires au monde ont été créées en France au XVIIIe siècle pour « lutter contre les maladies des bestiaux ». Ainsi, en unissant nos forces nous avons pu éradiquer de la surface de la Terre en 2001 une autre maladie virale : la peste bovine.

The Conversation

Jean-Yves Gauchot est docteur vétérinaire et président de la Féderation des syndicats vétérinaires de France

Jeanne Brugère-Picoux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 17:13

En quoi le cas du Louvre questionne-t-il la sécurité des musées ?

Fabrice Lollia, Docteur en sciences de l'information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel
Le cambriolage du Louvre rappelle que, malgré la sophistication croissante des dispositifs numériques, la sécurité des musées reste avant tout une affaire humaine.
Texte intégral (1992 mots)
La mission des musées est tiraillée entre protection du patrimoine et ouverture au public, des objectifs difficiles à concilier. Wilfredor/Wikimédia Commons

Le cambriolage du Louvre en 2025 n’a pas seulement été spectaculaire. Il rappelle également que, malgré la sophistication croissante des dispositifs numériques, la sécurité des musées reste avant tout une affaire humaine. Alors, comment sécuriser les œuvres tout en les rendant accessibles au plus grand nombre ?


En octobre 2025, le Louvre a été victime d’un cambriolage spectaculaire. De nuit, les voleurs ont pénétré dans le musée grâce à un simple monte-charge, déjouant un dispositif de sécurité pourtant hautement technologique, pour emporter l’équivalent de 88 millions d’euros de bijoux.

Ce contraste illustre un paradoxe contemporain : à mesure que la sécurité se renforce technologiquement, ses vulnérabilités deviennent de plus en plus humaines et organisationnelles. Le Louvre n’est ici qu’un symbole d’un enjeu plus large : comment protéger la culture sans en altérer l’essence ni l’accessibilité ?

Les musées, acteurs méconnus de la sécurité mondiale

Le cambriolage du Louvre n’a fait que révéler un problème plus profond. Un prérapport de la Cour des comptes de 2025 pointe un retard préoccupant dans la sécurisation du musée : 60 % des salles de l’aile Sully et 75 % de celles de l’aile Richelieu ne sont pas couvertes par la vidéosurveillance. De plus, en quinze ans, le Louvre a perdu plus de 200 postes de sécurité, alors que sa fréquentation a augmenté de moitié. Les budgets consacrés à la sûreté, soient à peine 2 millions d’euros sur 17 millions prévus pour la maintenance, traduisent une érosion structurelle des moyens humains.

Selon les lignes directrices du Conseil international des musées, la sécurité muséale repose sur trois piliers. D’abord, la prévention, qui s’appuie notamment sur le contrôle d’accès, la gestion des flux et l’évaluation des risques. Ensuite, la protection, mise en œuvre par la vidéosurveillance, la détection d’intrusion et les protocoles d’urgence. Enfin la préservation, qui vise à assurer la continuité des activités et la sauvegarde des collections en cas de crise.

Mais dans les faits, ces principes se heurtent à la réalité des contraintes budgétaires et des architectures muséales modernes, pensées comme des espaces ouverts, transparents et très accessibles, mais structurellement difficiles à sécuriser.

Les musées français ont déjà connu plusieurs cambriolages spectaculaires. En 2010, cinq toiles de maître (Picasso, Matisse, Modigliani, Braque et Léger) ont été dérobées au musée d’Art moderne de la Ville de Paris. En 2024, le musée Cognac-Jay a été victime d’un braquage d’une grande violence en plein jour pour un butin estimé à un million d’euros. Ces affaires rappellent que les musées, loin d’être des forteresses, sont des espaces vulnérables par nature, pris entre accessibilité, visibilité et protection. Le Louvre incarne une crise organisationnelle plus large où la sûreté peine à suivre l’évolution du risque contemporain.

Le musée, nouveau maillon du système sécuritaire

Longtemps, la sécurité des musées s’est pensée de manière verticale, centrée sur quelques responsables et des protocoles stricts. Or, ce modèle hiérarchique ne répond plus à la complexité des menaces actuelles.

La sûreté muséale repose désormais sur une circulation horizontale de l’information, c’est-à-dire partagée entre tous les acteurs et mobilisant conservateurs, agents, médiateurs et visiteurs dans une vigilance partagée. Cela prend la forme d’un musée où chacun a un rôle clair dans la prévention, où l’information circule rapidement, où les équipes coopèrent et où la sécurité repose autant sur l’humain que sur la technologie.

Les risques, quant à eux, dépassent largement les frontières nationales : vol d’œuvres destinées au marché noir, cyberattaques paralysant les bases de données patrimoniales et, dans une moindre mesure, activisme climatique ciblant les symboles culturels. La protection du patrimoine devient ainsi un enjeu global impliquant États, entreprises et institutions culturelles.

Au Royaume-Uni, les musées sont désormais intégrés aux politiques antiterroristes, illustrant un processus de sécurisation du secteur. En Suède, des travaux montrent que la déficience de moyens visant à la protection muséale entraîne une perte d’efficacité, dans la mesure où la posture adoptée est plus défensive que proactive.

Protéger le patrimoine, une façon de faire société

Mais cette logique de soupçon transforme la nature même du musée. D’espace de liberté et de transmission, il tend à devenir un lieu de contrôle et de traçabilité. Pourtant, dans un monde traversé par les crises, le rôle du musée s’élargit. Il ne s’agit plus seulement de conserver des œuvres, mais de préserver la mémoire et la cohésion des sociétés.

Comme le souligne Marie Elisabeth Christensen, chercheuse spécialisée dans la protection du patrimoine en contexte de crise et les enjeux de sécurisation du patrimoine culturel, la protection du patrimoine relève du champ de la sécurité humaine. Ses travaux montrent comment, dans des zones de conflits comme Palmyre en Syrie, la sauvegarde d’un site ou d’une œuvre devient un acte de résilience collective, c’est-à-dire une manière, pour une communauté frappée par la violence et la rupture, de préserver ses repères, de maintenir une continuité symbolique et de recréer du lien social, contribuant ainsi à la stabilisation des sociétés.

Cependant, cette transformation demeure profondément inégale. Les grands musées européens et américains disposent des moyens et de la visibilité nécessaires pour assumer ce rôle tandis qu’au Sud, de nombreuses institutions restent fragmentées, marginalisées et subissent le manque de coordination au niveau international. Cette disparité révèle une gouvernance patrimoniale encore inachevée, dépendante d’agendas politiques plus que d’une stratégie mondiale de solidarité culturelle.

La protection du patrimoine devrait être pleinement intégrée aux politiques humanitaires internationales, au même titre que la santé ou l’éducation. Car protéger une œuvre, c’est aussi protéger la mémoire, les valeurs et l’avenir d’une société.

Le piège du technosolutionnisme

Face aux menaces qui pèsent sur les lieux culturels, la tentation est forte de répondre par une surenchère technologique. Après chaque incident, la même conclusion s’impose : il aurait fallu davantage de caméras, de capteurs ou d’outils de surveillance. Reconnaissance faciale, analyse comportementale, biométrie… autant de dispositifs souvent présentés comme des réponses évidentes. Les dispositifs se multiplient, nourrissant l’idée que le risque pourrait être entièrement maîtrisé par le calcul.

Ce réflexe, qualifié de technosolutionnisme, repose pourtant sur une illusion, celle d’une technologie capable de neutraliser l’incertitude. Or, comme l’ont montré des travaux en sciences sociales, la technologie ne se contente pas de « faire mieux fonctionner » les choses : elle change la façon dont les personnes se font confiance, la manière dont le pouvoir s’exerce et la répartition des responsabilités. Autrement dit, même avec les outils les plus sophistiqués, le risque reste profondément humain. La sécurité muséale relève donc avant tout d’un système social de coordination, de compétences humaines et de confiance, bien plus que d’un simple empilement de technologies.

La rapporteuse spéciale de l’ONU pour les droits culturels alertait déjà sur ce point : vouloir protéger les œuvres à tout prix peut conduire à fragiliser la liberté culturelle elle-même. La sécurité du patrimoine ne peut se limiter aux objets. Elle doit intégrer les personnes, les usages et les pratiques culturelles qui leur donnent sens.

Protéger sans enfermer

Contre la fascination technologique, une approche de complémentarité s’impose. Les outils peuvent aider, mais ils ne remplacent ni l’attention ni le discernement humain. La caméra détecte, mais c’est le regard formé qui interprète et qualifie la menace. Les agents de sécurité muséale sont aujourd’hui des médiateurs de confiance. Ils incarnent une forme de présence discrète mais essentielle qui relie le public à l’institution. Dans un monde saturé de dispositifs, c’est cette dimension humaine qui garantit la cohérence entre sécurité et culture.

La chercheuse norvégienne Siv Rebekka Runhovde souligne, à propos des vols d’œuvres du peintre Edvard Munch, le dilemme permanent entre accessibilité et sécurité. Trop d’ouverture fragilise le patrimoine, mais trop de fermeture étouffe la culture. Une sursécurisation altère la qualité de l’expérience et la confiance du public. La sécurité la plus efficace réside dans celle qui protège sans enfermer, rendant possible la rencontre entre œuvre et regards.

La sécurité muséale n’est pas seulement un ensemble de dispositifs, c’est également un acte de communication. Elle exprime la manière dont une société choisit de gérer et de protéger ce qu’elle estime essentiel et de négocier les frontières entre liberté et contrôle. Protéger la culture ne se réduit pas à empêcher le vol. C’est aussi défendre la possibilité de la rencontre humaine à l’ère numérique.

The Conversation

Fabrice Lollia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 17:03

Syrie : comment les petites entreprises ont survécu à la guerre en bâtissant une économie parallèle

Mohamad Fadl Harake, Docteur en Sciences de Gestion, Chercheur en Management Public Post-conflit, Université de Poitiers
Malgré la guerre, les petites et moyennes entreprises de Syrie ont réussi à maintenir une activité économique. Comment expliquer un tel paradoxe ?
Texte intégral (1811 mots)
Pour survivre, les petites entreprises syriennes ont dû accepter de travailler avec toutes les autorités en place, que ce soit le régime de Bachar Al-Assad, l’État islamique ou les groupes d’opposition. Arteventet/Shutterstock

Même lorsqu’un pays est en guerre, que les institutions s’effondrent, que les groupes armés sèment la terreur, les entreprises de moins de 250 salariés jouent un rôle essentiel pour maintenir une activité économique minimale. Explication avec l’exemple syrien.


Pendant la guerre en Syrie, certaines petites entreprises ont dû payer des taxes au régime, négocier leur passage avec des groupes armés d’opposition, respecter les règles économiques de l’Organisation de l’État islamique, et s’appuyer sur des réseaux au Liban, en Irak ou en Jordanie.

Cette expérience met en lumière une réalité souvent négligée : lorsque l’État s’effondre, les acteurs économiques les plus modestes empêchent la société de s’arrêter complètement.

Contrairement à l’idée d’un pays économiquement à l’arrêt, la Syrie a vu émerger une économie parallèle, portée principalement par des petites et moyennes entreprises (PME) – de moins de 250 personnes et avec un chiffre d’affaires annuel n’excédant pas 50 millions de livres syriennes (SYP). Si cette économie n’était pas reconnue par les institutions officielles, elle était suffisamment organisée pour assurer la survie quotidienne de millions de Syriens et Syriennes.

Quand l’État disparaît, le marché se fragmente

À partir de 2012, la Syrie cesse de fonctionner comme un espace économique unifié. Le territoire se fragmente entre plusieurs autorités concurrentes : le régime syrien, différents groupes d’opposition armée, l’État islamique, les autorités kurdes et, en arrière-plan, les pays voisins. Dans ce contexte, le marché national se désagrège avec des routes coupées, des banques à l’arrêt et des contrats sans valeur juridique.

Selon la Banque mondiale, plus de la moitié des infrastructures économiques ont été détruites ou gravement endommagées.

Pourtant, les petites entreprises, comme les ateliers, les commerces, les transports ou les productions alimentaires, ont continué de fonctionner. Leur taille réduite et leur fort ancrage local leur ont permis de s’adapter à un environnement instable. Dans les contextes de conflit, ces entreprises jouent un rôle essentiel pour maintenir une activité économique minimale et aider les ménages à continuer de vivre.

Régime syrien, groupes d’opposition armés et État islamique

Pour survivre, ces petites et moyennes entreprises syriennes ont dû accepter une règle simple : travailler avec toutes les autorités en place, quelles qu’elles soient.

Avec le régime syrien

Dans les zones contrôlées alors par le régime de Bachar Al-Assad, les entreprises devaient obtenir des autorisations informelles, payer des taxes non officielles ou passer par des intermédiaires proches du pouvoir pour poursuivre leurs activités.

Ces pratiques, y compris des versements de pots-de-vin, symbolisent les défis auxquels font face ces petites et moyennes entreprises.


À lire aussi : La Syrie en transition... mais quelle transition ?


Avec les groupes d’opposition

Dans d’autres régions, les entreprises devaient payer des rétributions pour sécuriser leurs convois, négocier l’accès aux routes ou accepter des contrôles locaux afin d’éviter pillages et blocages. Dans les zones tenues par des groupes rebelles, cela passait parfois par des interactions économiques directes avec ces forces armées.

Dans les zones non contrôlées par l’État central, ces arrangements deviennent des conditions de fait pour maintenir une activité commerciale. Les acteurs économiques doivent payer des frais de passage imposés par des groupes armés.

Avec l’État islamique

Dans les zones contrôlées par l’État islamique, les règles économiques étaient strictes. L’organisation imposait des taxes obligatoires aux commerces et aux activités de production, contrôlait la circulation des marchandises et appliquait des sanctions sévères en cas de non-respect. Refuser de coopérer signifiait le plus souvent la perte de l’activité, voire des représailles.

Des analyses montrent que ce système de taxation et de contrôle économique constituait l’un des piliers du mode de gouvernance mis en place par l’État islamique dans les territoires syriens qu’il contrôlait.

Les pays voisins, prolongement de l’économie syrienne

Privées d’un système bancaire fonctionnel, de nombreuses petites entreprises syriennes se sont tournées vers les pays voisins.

Le Liban est devenu un point central pour les transferts financiers informels, la Jordanie, un espace d’approvisionnement relativement stable, et l’Irak un corridor essentiel pour le transport de marchandises. Dans ce contexte, les frontières ont cessé d’être de simples lignes de séparation pour devenir des espaces clés de l’économie syrienne.

La diaspora syrienne a joué un rôle central dans ces échanges, en finançant des activités locales et en sécurisant les transactions lorsque les institutions officielles faisaient défaut.

Une économie parallèle fondée sur la confiance

Cette économie n’était pas légale au sens strict, mais elle reposait sur des règles claires.

Lorsque les institutions disparaissent, la confiance ne s’évanouit pas, elle se déplace. Elle s’ancre dans la famille, les réseaux locaux, la réputation et la parole donnée. Les accords se concluent alors sans contrat écrit et, paradoxalement, ils sont respectés, car la survie collective en dépend.

De nombreux travaux sur les économies de guerre et les contextes de fragilité montrent que ces systèmes informels peuvent, dans certaines situations, s’avérer plus fiables que des institutions affaiblies ou absentes.

S’adapter en permanence pour ne pas disparaître

Faute de pouvoir investir ou planifier à long terme, les petites entreprises syriennes ont privilégié la réparation plutôt que le remplacement, l’utilisation d’un même atelier pour produire différents biens, le changement de fournisseurs ou d’itinéraires du jour au lendemain et la limitation de leurs stocks pour réduire les pertes en cas de rupture.

Privées d’accès au crédit, aux marchés extérieurs et à des infrastructures fiables, les entreprises syriennes ont ajusté leurs activités pour continuer à fonctionner.

Chaque décision devenait un calcul permanent du risque : quel trajet est le moins dangereux ? Qui faut-il payer pour passer ? Quelle perte peut être absorbée sans mettre l’entreprise en faillite ?

Réduire la dépendance à l’aide humanitaire

Cette économie parallèle a permis l’accès à des biens essentiels, contribué à la survie de millions de familles et maintenu un minimum d’activité économique dans un pays en guerre. En limitant l’effondrement total des circuits d’échange, elle a réduit, dans certains territoires, la dépendance exclusive à l’aide humanitaire.

Les organisations humanitaires elles-mêmes ont dû composer avec ces réseaux informels pour atteindre les populations et acheminer biens et services de première nécessité.

Un héritage difficile à intégrer

Aujourd’hui, une question centrale se pose : comment reconstruire une économie officielle sans fragiliser les mécanismes qui ont permis à la société de tenir pendant la guerre ?

Car les petites et moyennes entreprises syriennes abordent les institutions avec prudence, tout en restant dépendantes de relations régionales construites pendant le conflit. Réintégrer ces entreprises dans un cadre légal sans rompre ces équilibres constitue l’un des défis majeurs de la reconstruction économique de la Syrie.

Ancrées dans les communautés locales, ces entreprises jouent un rôle social majeur. Elles maintiennent des formes de solidarité économique, offrent des opportunités d’emploi aux femmes et aux jeunes et contribuent, dans certains secteurs, à la préservation d’activités artisanales et agricoles.

Au-delà du cas syrien, cette trajectoire rappelle que, dans les crises extrêmes, la résilience des sociétés repose souvent sur des acteurs invisibles : les petites entreprises, capables de faire tenir l’économie quand tout le reste vacille.

The Conversation

Mohamad Fadl Harake ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 11:45

La marche, premier mode de déplacement en France : ce que disent vraiment les statistiques de mobilité

Frédéric Héran, Économiste des transports et urbaniste émérite, Université de Lille
En France, la façon de compter les déplacements minore la part de la marche. Ce biais statistique ancien oriente encore les politiques publiques.
Texte intégral (2744 mots)

Les statistiques de mobilité orientent les politiques publiques. Or en France, la manière de les présenter, héritée des années du tout automobile, minore la part de la marche, ce qui pénalise le développement des mobilités actives. Et si on s’inspirait des approches statistiques déjà déployées ailleurs, par exemple en Suisse, pour mieux comptabiliser le temps passé à marcher ?


Les statistiques ne sont jamais neutres : elles sont le reflet de choix politiques répondant à un contexte historique spécifique. La manière de présenter les résultats des enquêtes statistiques sur la mobilité des personnes en France, qui a déjà 50 ans, n’échappe pas à cette règle. Elle conduit à sous-estimer fortement les déplacements à pied, au risque de continuer à favoriser des politiques en faveur des modes de déplacement motorisés.

Il est grand temps de réformer cet usage, comme l’a fait la Suisse il y a déjà 30 ans, si l’on souhaite redonner aujourd’hui davantage de place aux mobilités actives, tant pour des raisons sociales, économiques qu’environnementales.

Pour rappel, la marche est le mode de déplacement le plus inclusif, le plus démocratique et le moins nuisible à l’environnement, et pas seulement dans le cœur des grandes villes.


À lire aussi : Atteindre les objectifs climatiques améliorera aussi la santé publique


Ce que disent les statistiques sur la mobilité

En France, depuis la standardisation des enquêtes sur la mobilité des personnes en 1976, les déplacements sont généralement présentés sous forme de « parts modales ». Il s’agit des parts, sur l’ensemble des déplacements comptabilisés, réalisées avec chaque mode de déplacement : voiture, deux-roues motorisé, transports collectifs, vélo, marche…

Évolution des parts modales en France, entre 1982 et 2019, pour les déplacements en semaine. Dernières enquêtes nationales sur la mobilité des personnes

Dans les présentations classiques des données recueillies, la part modale de la marche apparaît très inférieure à celle de la voiture. Pourtant, quand on regarde l’autre grande source statistique que représentent les enquêtes sur la mobilité réalisées dans les grandes villes, les déplacements à pied dominent dans les centres-villes, et parfois également dans les banlieues denses de la proche périphérie. Mais partout ailleurs, c’est largement le contraire et le triomphe de la voiture apparaît ainsi incontestable.

Voitures stationnées directement sur le trottoir, ce qui empêche de l'utiliser. Fourni par l'auteur

En conséquence, pour qui découvre ces statistiques ainsi présentées , dans la plupart des territoires, il paraît nécessaire de s’occuper en priorité des voitures, de leur accorder davantage de place pour circuler et stationner, même si cela doit se faire au détriment des espaces publics, des trottoirs, des places publiques et autres terre-pleins.

Ce qu’oublient de préciser ces représentations

Examinons ces chiffres de plus près. En réalité, ce qu'on nomme habituellement la « part modale de la marche » ne concerne que la « marche exclusive », c’est-à-dire les déplacements entièrement faits à pied, par les résidents, sur l’espace public et hors du temps de travail.

Par convention, on oublie ainsi :

  • la marche intermodale, c’est-à-dire les déplacements à pied pour rejoindre ou quitter un transport public ou une place de stationnement pour voiture, vélo ou deux-roues motorisé,

  • la marche effectuée dans des espaces privés ouverts au public, comme les centres commerciaux ou les gares,

  • la promenade ou la randonnée,

  • la marche pendant le travail, y compris quand elle est effectuée sur l’espace public, qui est pourtant très importante dans certaines professions,

  • la marche au domicile pour effectuer toutes sortes d’activités : du ménage au jardinage, en passant par le bricolage, etc.,

  • enfin, la marche réalisée par les visiteurs (touristes et autres non-résidents) du territoire.


À lire aussi : Mobilité : et si on remettait le piéton au milieu du village ?


Comment expliquer une approche si restrictive ?

Les conventions statistiques sur la mobilité ont été élaborées dans les années 1960-1970 à l’époque du « tout automobile », puis des premiers efforts réalisés pour relancer les transports publics. Dans ce contexte, il fallait avant tout prévoir et dimensionner la voirie pour absorber un trafic motorisé fortement croissant, les piétons étant très peu considérés et les cyclistes censés disparaître.

Par convention dans les enquêtes sur la mobilité, un déplacement, c’est une personne qui va d’un lieu d'origine à un lieu de destination, avec un ou plusieurs modes et pour un motif particulier. Les modes sont hiérarchisés avec priorité aux plus lourds : d’abord les transports publics, puis la voiture, puis les deux-roues et enfin la marche.

Autrement dit, si une personne se rend à pied à un arrêt de bus, prend le bus, puis termine son trajet à pied, le déplacement est considéré comme ayant été fait en transport public et la part de marche est tout simplement ignorée. Dans cette approche, la marche devient un « résidu » statistique, c’est-à-dire ce qui reste une fois qu’on a pris en compte tous les autres modes de déplacement. Pourtant, les usagers des transports publics passent environ la moitié de leur temps à pied à marcher ou à attendre.


À lire aussi : Réduire l’empreinte carbone des transports : Quand les progrès techniques ne suffisent pas


Ces pays qui comptabilisent les déplacements différemment

Or, cette représentation des statistiques de déplacement en France est loin d’être la seule possible.

En Suisse par exemple, depuis une réforme des statistiques de la mobilité introduite en 1994, les résultats des enquêtes de mobilité sont présentés sous trois angles différents : les distances parcourues, le temps de trajet et le nombre d’étapes.

Par étape, on entend ici les segments d’un déplacement effectués à l’aide d’un seul mode de transport. Un déplacement en transport public, par exemple, compte le plus souvent une première étape à pied, puis une deuxième en transport public et une troisième à nouveau à pied : on parle de marche intermodale.

Ainsi, en 2021, en ne tenant compte que de la marche exclusive et de la marche intermodale, les Suisses ont passé chaque jour plus de temps à pied qu’en voiture.

Parts modales des moyens de transport utilisés en Suisse en 2021. Office fédéral de la statistique suisse

Ailleurs, on réfléchit aussi à d’autres manières de présenter les résultats des enquêtes sur la mobilité, comme en Belgique ou au Royaume-Uni.

En réalité, 100 % de nos déplacements intègrent au moins une part de marche, même minimale lorsqu’il s’agit par exemple de simplement sortir de sa voiture sur le parking de son lieu de travail. La marche est à l'origine de toutes les autres formes de mobilité et les autres modes ne sont que des « relais du piéton ». Parce que nous sommes des bipèdes, la marche est évidemment notre premier mode de déplacement.

Vers une nouvelle approche en France ?

La France peut-elle changer sa façon de présenter les statistiques de mobilité, dans le sillage de ce que propose la Suisse ?

Pour prendre conscience de l’importance journalière de la marche, il convient de l’aborder en temps de déplacement total à pied. Une récente étude de l’Ademe révèle que nous passons chaque jour une heure et douze minutes à pied, soit beaucoup plus que la durée moyenne passée en voiture chaque jour, qui est de 37 minutes.

Ces résultats montrent aussi que la prise en compte de la marche intermodale augmente de 75 % la durée de la seule marche exclusive (dite « déplacements locaux intégralement à pied » dans le graphique ci-après). En tenant compte de tous les temps consacrés à se déplacer, la marche est sans conteste le premier mode de déplacement, loin devant la voiture.

Cette étude repose sur l’utilisation de deux enquêtes existantes mais sous-exploitées (l’enquête mobilité des personnes et l’enquête emploi du temps des Français) et en adoptant plusieurs hypothèses prudentes.

En quelques centaines de milliers d’années d’évolution humaine, la bipédie s’est hautement perfectionnée. Elle a permis de libérer nos mains, nous a rendus très endurants à la course et a contribué à développer notre cerveau. Puis, en 150 ans seulement avec l’avènement du transport motorisé, la marche utilitaire quotidienne s’est effondrée.

Pourtant, de par notre constitution, marcher régulièrement est essentiel pour rester en bonne santé, pour bien grandir, vivre mieux et bien vieillir. C’est un enjeu de santé publique. C’est pourquoi, il convient de réaliser des espaces publics confortables, de libérer les trottoirs du stationnement sauvage et autres obstacles, de ménager des traversées piétonnes sécurisées et de calmer la circulation automobile, sa vitesse et son volume. Pour appuyer de telles politiques, encore faudrait-il revoir notre manière de représenter la marche dans les résultats des enquêtes de mobilité.

The Conversation

Frédéric Héran est membre du conseil d’administration de l'association et groupe de réflexion Rue de l’Avenir

08.01.2026 à 11:45

Peut-on encourager le covoiturage avec des subventions locales ?

Guillaume Monchambert, Maître de conférences en économie, Université Lumière Lyon 2
Si le premier bilan des subventions locales au covoiturage demeure encourageant, il masque en vérité plusieurs aspects.
Texte intégral (1743 mots)
Les personnes qui bénéficient des subventions locales pour le covoiturage ne sont pas toujours d’anciens automobilistes solos. Cette réalité limite donc les bénéfices de ces aides. Rawpixel.com/Freepik, CC BY

Le covoiturage est souvent perçu comme une des façons les plus simples de baisser les émissions de gaz à effet de serre des transports. Si le premier bilan des subventions locales visant à généraliser cette pratique est encourageant, il masque en vérité plusieurs aspects.


Face à l’urgence climatique et aux embouteillages chroniques des métropoles françaises, les pouvoirs publics cherchent des solutions pour réduire l’usage de la voiture individuelle. Les automobiles des particuliers sont la principale source des émissions de gaz à effet de serre du transport en France. Elles sont également émettrices de particules fines qui dégradent la qualité de l’air et augmentent les risques de maladies respiratoires et cardiovasculaires.

Face à cette réalité, le covoiturage est une piste qui suscite beaucoup d’espoir, car elle ne nécessite pas d’infrastructures lourdes supplémentaires, s’appuyant sur des ressources existantes de véhicules et de conducteurs. Parmi les solutions incitatives, les aides financières locales au covoiturage, notamment via des plateformes numériques, se développent depuis 2019. Mais ces subventions encouragent-elles vraiment plus de covoiturage ? Et quels sont les gains environnementaux dus à ces subventions ?

Des résultats probants, mais variables selon les territoires

La loi d’orientation des mobilités (LOM), promulguée en 2019, autorise les autorités organisatrices de mobilité à verser une incitation financière aux conducteurs et passagers d’un trajet en covoiturage. Le versement de cette subvention s’effectue principalement via des plateformes numériques qui organisent le covoiturage. La subvention moyenne pour un déplacement en covoiturage de 22 kilomètres s’élève à 1,60 euros.

Pour voir si ce levier est efficace, un jeu de données est précieux : celui du registre de preuve de covoiturage. Il centralise les données de trajets transmises par les plateformes partenaires. Notre étude récente utilise ces données pour mesurer la pratique du covoiturage organisé via plateforme dans 1 123 collectivités locales françaises entre 2019 et 2024.

Elle révèle que ce levier est effectivement puissant. En moyenne, l’introduction d’une subvention locale attribuée pour chaque déplacement augmente d’environ 5 trajets mensuels le nombre de trajets de covoiturage à courte distance (inférieurs à 80 kilomètres) sur plateforme pour 1 000 habitants concernés. Chaque euro de subvention supplémentaire par déplacement génère près de 4 trajets mensuels additionnels par 1 000 habitants. Autrement dit, les finances publiques locales, investies dans ce type d’incitation, produisent un effet tangible et mesurable sur le terrain.

Ce résultat masque cependant une forte diversité. L’effet des subventions est nettement plus marqué dans les zones urbaines denses et peuplées. À l’inverse, dans les territoires peu denses et ruraux, la subvention n’a quasiment aucun effet, traduisant les difficultés du covoiturage à s’implanter sans une masse critique d’usagers. Cette disparité met en lumière le rôle central des effets de réseau propres aux plateformes numériques : plus il y a d’utilisateurs, plus elles deviennent utiles, ce qui amplifie l’impact des subventions.

D’autres réalités doivent également être soulevées pour comprendre l’efficacité ou non de ces subventions, notamment du point de vue environnemental.

L’effet d’aubaine : inciter ceux qui viendraient de toute façon

L’effet d’aubaine se produit lorsque des utilisateurs auraient covoituré via la plateforme même en l’absence de toute subvention. Par exemple, un salarié habitué à organiser son covoiturage quotidien sur une application continue simplement à le faire, mais touche désormais une prime financière.

Ici, la dépense publique n’a donc pas changé son choix ni augmenté le nombre total de trajets partagés, ce qui dilue l’efficacité de la politique.

L’effet d’opportunité : attirer les covoitureurs informels sans créer de nouveaux trajets

L’effet d’opportunité correspond lui aux covoitureurs qui, sans subvention, auraient continué à partager leurs trajets en dehors des plateformes numériques (par exemple via le bouche-à-oreille ou des groupes privés). Lorsque la subvention est instaurée, ils transfèrent leur pratique sur la plateforme pour bénéficier des aides. Ainsi, le volume de trajets enregistrés croit artificiellement, sans que la part réelle du covoiturage dans la mobilité globale n’augmente. Par exemple, deux voisins qui organisaient ensemble leur trajet en voiture hors plateforme rejoignent l’application pour percevoir la prime, sans modification de leur habitude de déplacement. Une enquête du Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) montre qu’un tiers des nouveaux covoitureurs attirés par les dispositifs d’incitation financière covoituraient déjà avant la mise en place de l’incitation.

Le report modal : comprendre d’où viennent les nouveaux passagers

Le facteur le plus décisif concerne cependant les sources du report modal : il s’agit d’identifier le mode de transport qu’un passager du covoiturage aurait utilisé si la subvention n’existait pas. Contrairement à l’idée reçue, une grande partie des nouveaux passagers du covoiturage issu de la subvention ne sont pas d’anciens automobilistes solo, mais d’anciens usagers du transport collectif (bus, train) ou parfois des modes actifs (comme le vélo ou la marche).

Prenons l’exemple d’une passagère qui renonce au TER pour un trajet covoituré subventionné : cela ne retire pas une voiture de la circulation, et les bénéfices pour la réduction des émissions sont nettement moindres que si elle avait quitté la voiture solo.

D’après l’enquête nationale sur le covoiturage pilotée par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), 35 % des passagers du covoiturage courte distance via plateforme faisaient le déplacement en transports en commun avant de pratiquer le covoiturage, 11 % utilisaient un mode actif et 10 % ne faisaient pas ce trajet. Ce constat est valable tant pour le covoiturage court que longue distance, freinant fortement l’effet net de la politique sur les émissions de gaz à effet de serre.

Combien coûte réellement la tonne de CO₂ évitée ?

Pour obtenir une mesure de l’impact net des subventions, il est donc indispensable de corriger les chiffres bruts du nombre de trajets en tenant compte de ces trois effets. Selon notre étude, ces phénomènes expliquent qu’entre un tiers et la moitié de l’augmentation observée n’est pas associée à une réelle réduction de l’autosolisme ou des émissions.

Une manière de mesurer l’efficacité d’une politique de réduction des émissions de gaz à effet de serre, et de la comparer à d’autres politiques, est de calculer le montant nécessaire pour éviter l’émission d’une tonne de CO2. Dans le cas du covoiturage, chaque tonne de CO2 évitée coûte à la collectivité entre 1 000 et 1 300 euros en subventions.

Ce chiffre se situe dans la fourchette haute des instruments de politique climatique en Europe, ce qui dénote une efficacité très relative. À titre de comparaison, le dispositif d’encouragement de l’adoption de la motorisation électrique a un coût pour les finances publiques de l’ordre de 600 euros par tonne de CO₂ évitée.

Vers une stratégie de long terme, ciblée et combinée

Ces résultats montrent bien la nécessité de concevoir des politiques qui ciblent précisément les changements de comportement les plus à même de réduire les émissions de CO2. Ces politiques seront d’autant plus efficaces qu’elles convainquent des autosolistes d’abandonner leur voiture pour covoiturer en tant que passager. Pour cela, des stratégies combinées seront nécessaires : incitations financières, infrastructures adaptées comme les voies réservées, développement de l’intermodalité…

Enfin, l’effet des subventions croissant dans le temps et le développement de la pratique du covoiturage invitent à une vision de long terme, loin des mesures ponctuelles d’effet d’annonce.

The Conversation

Guillaume Monchambert est membre du conseil scientifique de la Société des Grands Projets (SGP). Il a reçu des financements de la Région Auvergne-Rhône-Alpes (Projet Covoit’AURA) et de la BPI (projet Mobipart). Il a effectué des activités de conseil pour SNCF Réseau et SNCF Voyageurs.

08.01.2026 à 11:37

Does running wear out the bodies of professionals and amateurs alike?

Sylvain Durand, Professeur de physiologie humaine au département STAPS, chercheur au laboratoire Motricité, Interactions, Performance, Le Mans Université
Amateur runners and professional athletes differ greatly in demand and support, yet both remain vulnerable to running-related injuries.
Texte intégral (1935 mots)

Running counts among today’s most popular sports. Sometimes the race is on even before the competition itself has started, as tickets for events sell out within hours. In France, this has got people talking about a “race for the runner’s bib”.

So, while running enjoys the reputation of a wholesome sport, the reality is that some of us feel stress at the simple prospect of donning a bib, while even a greater number of us face exhaustion upon completing a race such as a marathon or trail. So, what exactly is the toll of the sport on our bodies, and does our status as an amateur or a pro make a difference?

Working it out like a pro

It’d be easy to place professional and amateur runners in two separate boxes. Indeed, pros train hard–up to three times a day ahead of certain races. Life at those times is austere, punctuated by meals, runs and sleep, leaving little room for improvisation. And while you might think that the countless events around the world might dilute some of the demand for them, competition in such a universal sport is in fact fierce and professional runners need to push their bodies to the limit to get better at it.

High-level careers are often brief, lasting five or six years. Stories such as that of Eliud Kipchoge, the first man to run a marathon in under two hours (under non-certifiable conditions), sixteen years after becoming world champion in the 5,000 metres on the track, remain exceptions.

The significant mechanical stress inherent in the sport weighs on the muscles, tendons and skeleton. There are times when rest periods are short and it’s increasingly common to see athletes injuring themselves during competitions on live television, a surefire sign of physical and mental exhaustion. Some might consider these factors to be fairly typical: after all, these are top-level athletes.

Similarities between professionals and amateurs

But are world champs, next-door champs and ordinary runners really that different? Considering the tip of the iceberg of this question, the answer seems obvious: they don’t run at the same speed and therefore don’t spend the same time exerting themselves. But what about the submerged part: the pre-race prep, training, the individuals’ investment and self-sacrifice? When you want to break a record–your own record–don’t you give 100% of yourself, both physically and mentally?

Let’s consider the figures for the Paris Marathon in 2025: 56,950 registered for the race, 55,499 finishers. The mass event spells the same challenge for all: 42,195 km (around 26 mi) for the fifty or so athletes who might be considered elite and all the others who have to juggle it with their professional and family lives.

In truth, regardless of your level or speed, there are many similarities in how you prepare for a marathon, with identical training loads. Marathon training typically lasts ten to twelve weeks and includes essential elements such as “long runs”, a training session of around thirty kilometres recommended once a week.

No one escapes it. And there’s a whole range of science-based books on running, designed to guide the general public.

However, as training takes its toll on both body and morale, the risk of injury rises.

Trail or marathon prepping: increased risk of injury for amateurs

In fact, we most often see stress-related injuries among amateurs.

A high-level athlete doesn’t need to see a sports doctor. Why is that? Because they have built their careers over many years and have specific genetic characteristics that allow them to take on heavy training loads. They follow a specific programme that includes dietary measures, recovery phases and processes.

Professional athletes benefit from much better general and medical support than novice or amateur runners who, whether for individual or collective challenges, embark on projects such as marathons or trail running. This is how a runner like Christelle Daunay, after fifteen years of practice and modest beginnings at the national level, patiently built herself up to win the European Marathon Championships in Zurich in 2014.

French athlete Christelle Daunay wins the marathon at the European Athletics Championships in Zurich in 2014
French athlete Christelle Daunay wins the marathon at the European Athletics Championships in Zurich in 2014. Erik van Leeuwen, CC BY

When physical stress takes its toll on professionals

The issue of physical stress has been raised for a long time. In the 1990s, it was already reported that simply running for 45 minutes rather than 30 minutes a day could double the frequency of injuries. Going from three to five weekly sessions had similar effects.

Christelle Daunay was no exception. She suffered a stress-related fracture in 2018, which prevented her from defending her title as European marathon champion in 2014. It should be noted that a “stress fracture” is a bone injury, similar to a crack, which can be caused by running long distances.

When ultra-trail puts body and mind to the test

The recent development of trail running (i.e. running in the great outdoors) only reinforces these concerns, with not just the wilderness but “ultra” aspect appealing to many.

The extreme sport has its own particularities. Due to the irregular terrain, its practice requires different joint and muscle movements and therefore greater concentration than road running. Add to that the effort’s duration, ranging from a few hours to a full day or more, the issues of nutrition, effort management, and muscle damage that sets in over time, and it’s easy to understand why these events lead to mental and physical fatigue, not only during the event itself, but also in the long term.

The conditions of running-related physical wear depend on many factors and vary from person to person. For example, on whether you jog to hit a speed or mileage goal.

Wearing out the body at a given moment to increase its resistance… to wear and tear

Whatever the focus, people often engage in specific training programmes, with physical and physiological progress relying on the human body’s remarkable adaptive capacity.

Note the paradox here: one of the principles of training is to stimulate the body, to “wear it out” at a given moment in time in order to trigger the physiological processes that will lead to improved capabilities, the fight against fatigue… and, ultimately, increased resistance to physical stress.

This fundamental process is the basis of physical rehabilitation/recovery programmes, which are increasingly used in physiopathological contexts, for example to treat peripheral artery disease or obesity.

However, at its most intense, training can require mental commitment, resistance to weariness, and a strong will to continue the effort over time despite fatigue.

Stress can therefore also be mental. This is perhaps the major difference between amateurs and professionals, who have no choice but to put their bodies under severe strain in order to progress in the high-level hierarchy.

Pros or amateurs, the importance of good coaching

Seeking to push their physical and mental limits can lead any runner to feel “worn out”. All these factors highlight the importance of being well supervised and advised (by coaches, in clubs, etc.) in order to train with a certain progression, both in terms of quantity and intensity, and to adapt one’s lifestyle.

No technical equipment is needed to run – an advantage which allows you to ideally experience your own body, provided you’re aware of races’ risks and limitations. And rest assured, if you still don’t enjoy this sport, there are plenty of other options available so you can find something that suits you and enjoy the health benefits of physical activity. What’s important is to keep moving.

Extract from What I Talk About When I Talk About Running by Haruki Murakami:

“Human beings naturally continue doing things they like, and they don’t continue what they don’t like. That’s why I’ve never recommended running to others. It doesn’t suit everybody. Similarly, not everyone can become a novelist.”


Benoît Holzerny, a health-promoting sports coach, and Cédric Thomas, a top athlete trainer (including the 2014 European marathon champion, Christelle Daunay), contributed to writing this article.

The Conversation

Sylvain Durand ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 08:47

Les États-Unis arraisonnent un navire battant pavillon russe : que dit le droit de la mer ?

Andrew Serdy, Professor of the Public International Law of the Sea and former Director of the Institute of Maritime Law, University of Southampton
Navire sans pavillon, puis sous pavillon russe, l’arraisonnement du « Marinera/Bella-1 » par les garde-côtes américains soulève une question complexe du droit de la mer.
Texte intégral (1620 mots)

Les États-Unis affirment avoir agi dans le respect du droit international. La Russie dénonce une violation manifeste du droit de la mer. Entre accusations et contre-accusations, l’arraisonnement d’un navire battant pavillon russe soulève un point de droit de la mer inédit.


Les relations entre les États-Unis et la Russie ont connu un nouvel accroc après que les garde-côtes américains ont abordé un navire naviguant dans les eaux islandaises, affirmant qu’il violait les sanctions visant le Venezuela. L’incident a immédiatement donné lieu à des accusations et des contre-accusations entre les États-Unis et la Russie.

Washington a affirmé avoir agi correctement, exécutant un mandat délivré par un tribunal fédéral américain. De leur côté, des responsables russes ont déclaré, selon l’agence de presse russe Tass, que cet arraisonnement constituait une violation manifeste du droit de la mer, affirmant qu’« aucun État n’a le droit d’employer la force contre des navires dûment enregistrés dans les juridictions d’autres États ». Le communiqué précisait que le Bella-1 – récemment rebaptisé Marinera – avait reçu une autorisation temporaire de naviguer sous pavillon russe, le 24 décembre.

Les garde-côtes américains abordent le pétrolier « Bella I », un tanker, en mer du Nord Atlantique
Les garde-côtes américains à l’abordage du pétrolier Bella-1, un tanker, dans l’Atlantique Nord. US Secretary Kristi Noem/X

Contrairement à l’enlèvement spectaculaire du président vénézuélien Nicolas Maduro de son palais de Caracas, le 3 janvier, une opération que les États-Unis ne semblent même pas tenter de justifier en droit international, l’interception du Marinera/Bella-1 paraît soulever un point inédit du droit de la mer, susceptible d’offrir au moins une certaine marge à Washington pour se présenter comme étant du côté du droit.

Avant l’enlèvement de Maduro, les États-Unis semblaient choisir avec un certain soin les navires transportant du pétrole vénézuélien qu’ils prenaient pour cibles. Il s’agissait soit de navires sans nationalité, soit de navires soupçonnés d’arborer un faux pavillon, ce qui ne leur confère aucune protection au titre de l’article 92 de la Convention des Nations unies sur le droit de la mer (CNUDM), laquelle constitue également la règle de droit international coutumier, applicable aux États non parties comme les États-Unis.

Les navires sans nationalité sont vulnérables

Se trouver sans nationalité, ou adopter une conduite qui offre aux navires de guerre en haute mer un fondement valable pour traiter un bâtiment comme tel, est une position à haut risque que tout navire a tout intérêt à éviter. En effet, un navire sans nationalité n’a, par définition, aucun État sous le pavillon duquel il est enregistré pour faire valoir à son profit la juridiction exclusive et protectrice qui s’exerce en haute mer.

La CNUDM prévoit par ailleurs qu’un navire qui navigue sous les pavillons de deux États ou plus et qui les change en fonction des circonstances, « ne peut se prévaloir d’aucune des nationalités en question à l’égard de tout autre État ». Cela signifie qu’il peut être juridiquement considéré comme sans nationalité.

Ainsi, jusqu’au changement de pavillon signalé le 31 décembre, non seulement les États-Unis mais n’importe quel État étaient en droit de considérer le Marinera/Bella-1 comme un navire sans nationalité. Cela le rendait vulnérable à une interception en haute mer et à l’exercice, à son encontre, de la compétence répressive interne de l’État dont relevait le navire de guerre ou le bâtiment des garde-côtes procédant à l’interception.

La situation juridique demeure toutefois incertaine. La question pourrait être de savoir si les États-Unis poursuivaient déjà le Marinera/Bella-1 au moment où celui-ci a changé de pavillon. Si tel était le cas, Washington pourrait être fondé à ne pas tenir compte de la réimmatriculation.

La CNUDM prévoit ce qu’elle appelle le « droit de poursuite » (hot pursuit). Elle précise que « le droit de poursuite cesse dès que le navire poursuivi entre dans la mer territoriale de son propre État ou d’un État tiers ». Aucun autre cas de cessation de ce droit n’étant mentionné – y compris l’hypothèse où le navire cesserait d’être sans nationalité –, cela laisse aux États-Unis la possibilité de soutenir qu’ils poursuivaient déjà le Marinera/Bella-1 et qu’ils n’étaient donc pas tenus de mettre fin à cette poursuite.


VOUS POUVEZ COURIR, MAIS VOUS NE POUVEZ PAS VOUS CACHER 🔥

Lors d’opérations menées avant l’aube ce matin, les garde-côtes américains ont arraisonné deux pétroliers de la « flotte fantôme » dans l’océan Atlantique Nord et dans les eaux internationales près des Caraïbes. Les deux navires avaient soit fait escale récemment au Venezuela, soit s’y rendaient.


Mais cet argument reste fragile, car rien ne permet d’affirmer avec certitude qu’il s’agissait d’une véritable « hot pursuit ». En droit de la mer, cette notion s’applique à des poursuites engagées depuis l’une des zones maritimes de l’État concerné – et non en haute mer.

Accusations et contre-accusations

Jusqu’à présent, le ministère russe des transports a affirmé que l’action des États-Unis contrevenait à la règle énoncée à l’article 92. La Russie soutient que le changement d’immatriculation est intervenu dès le 24 décembre. Face à cet argument, les États-Unis pourraient faire valoir que ce n’est qu’au moment où le pavillon russe a été peint sur la coque du navire – ce qui aurait eu lieu le 31 décembre – que l’article 92 pouvait être invoqué à leur encontre.

Article qui précise également qu’« un navire ne peut changer de pavillon au cours d’un voyage ou lors d’une escale, sauf en cas de transfert réel de propriété ou de changement d’immatriculation ». Cette disposition est souvent mal comprise et interprétée comme interdisant purement et simplement tout changement de pavillon en cours de route — comme cela semble avoir été le cas ici. Une lecture plus attentive montre toutefois que ce n’est pas exact : ce que la règle interdit, c’est un changement de pavillon sans changement d’immatriculation correspondant.

Mais ce n’est pas la situation ici. À supposer qu’il y ait bien eu une immatriculation effective en Russie, c’est cet élément qui fait foi. Le fait de peindre un pavillon sur la coque faute d’en disposer physiquement n’en est qu’un indice matériel.

Le changement de pavillon en cours de poursuite constitue un point inédit du droit international de la mer, dans la mesure où aucun précédent connu n’existe. En l’absence de réponse juridique claire, la manière dont cet incident se réglera est susceptible de faire jurisprudence. Il faudra donc entendre les argumentaires juridiques concurrents des États-Unis et de la Russie pour déterminer lequel se révèle le plus convaincant.

The Conversation

Andrew Serdy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.01.2026 à 18:03

La « défense avancée » d’Israël au Proche-Orient

Lina Kennouche, Chercheuse associée au CREAT, Université de Lorraine
Au prétexte d’assurer sa sécurité dans son entourage immédiat, Israël se montre de plus en plus interventionniste dans les États voisins, spécialement au Liban et en Syrie.
Texte intégral (2875 mots)

En dépit des accords de cessez-le-feu conclus avec le Liban et à Gaza, et des discussions en cours avec la Syrie sur les contours d’un accord de sécurité, Israël poursuit une politique dite de « défense avancée » qui fait peu de cas de la souveraineté de ses voisins. Au nom de l’impératif de la sanctuarisation de son territoire, Tel-Aviv continue de redéfinir les frontières, d’étendre sa profondeur stratégique et d’asseoir son contrôle sur son voisinage. Cette politique se heurte toutefois de plus en plus aux intérêts de puissances régionales, comme la Turquie ou l’Arabie saoudite.


Depuis deux ans, l’accumulation de succès tactiques conduit Tel-Aviv à opter pour une politique impériale qui se poursuit en dépit des différents processus de négociations en cours. Au Liban, à Gaza, en Syrie, cette politique ne va pas sans susciter de tensions avec les grands acteurs de la région.

Détruire le Hezbollah… ou détruire le Liban ?

Au Liban, la guerre d’attrition visant à détruire les capacités militaires du Hezbollah – organisation libanaise alliée de l’Iran – et à décapiter sa chaîne de commandement a abouti à l’accord de cessez-le-feu du 27 novembre 2024.

Le dossier libanais est perçu par Israël comme le point de départ de la stratégie de restructuration du Moyen-Orient. Bien que le texte de l’accord ne prévoie que la cessation des hostilités et le retrait des forces militaires du Hezbollah et de ses armes du sud de la rivière Litani en échange d’un retrait israélien des cinq positions stratégiques qu’il occupe au Sud-Liban, la lettre complémentaire (side letter) adressée par Washington à Tel-Aviv donne un blanc-seing à la partie israélienne pour « répondre aux menaces » et « agir à tout moment contre les violations commises dans le sud du Liban ». En d’autres termes, les garanties offertes par les États-Unis permettent à Israël de mener des actions militaires préemptives sans être inquiété pour cela.

Entre novembre 2024 et novembre 2025, la Force intérimaire des Nations unies au Liban (FINUL) a recensé plus de dix mille violations du cessez-le-feu par Israël. La partie israélienne considère que l’engagement diplomatique avec l’État libanais demeure distinct de ses attaques militaires contre le Hezbollah, qu’elle qualifie de groupe terroriste. De surcroît, l’État libanais, qui n’a cessé d’appeler, sans succès, à l’action de la communauté internationale pour faire cesser les attaques quasi quotidiennes contre sa souveraineté et son intégrité territoriale, s’est vu imposer, sous la pression de Washington, un calendrier pour désarmer le Hezbollah, au risque de mettre en péril la stabilité interne, dans un contexte marqué par une grande fragilité de ses institutions.

Ainsi, l’armée libanaise est censée avoir achevé le démantèlement de toutes les infrastructures du Hezbollah et le désarmement total du groupe dans de zone située au sud du Litani, à environ 30 km de la frontière avec Israël ; mais la partie israélienne réclame désormais la mise en application de la phase deux, à savoir la restauration du monopole exclusif de l’État sur les armes. Toutefois, comme le rappellent les universitaires Joseph Daher, Sami Zoughaib et Sami Atallah dans une publication du 20 novembre dernier :

« […] La véritable souveraineté se transmet rarement par une simple signature. Elle repose sur trois fondements interdépendants : un monopole crédible de la force par l’État, des institutions fonctionnelles et solvables, et une légitimité suffisamment large pour lier les communautés à l’État. Le Liban manque de ces trois éléments. Au contraire, la coercition extérieure dicte la politique, transformant l’État d’acteur souverain en instrument. »

La Syrie dans le viseur

En Syrie, tout en poursuivant les négociations autour d’un accord de sécurité, Israël mène des actions qui fragilisent l’État syrien et favorisent la fragmentation du territoire.

Au lendemain de la chute du régime d’Assad – événement dans lequel Israël se félicite d’avoir joué un rôle majeur grâce à sa guerre d’attrition visant à affaiblir les groupes pro-iraniens –, l’aviation israélienne a conduit des frappes préemptives massives, estimant avoir détruit de 70 % à 80 % des capacités militaires syriennes. Entre décembre 2024 et juillet 2025, plus de 800 attaques aériennes israéliennes contre la Syrie auraient été dénombrées.

À ce jour, l’intransigeance israélienne en matière d’exigences sécuritaires continue de faire obstacle à la conclusion d’un accord avec la Syrie. Tel-Aviv, qui a élargi son occupation au Golan en s’emparant de 600 kilomètres carrés sur le territoire syrien, en violation de l’accord de désengagement de 1974, réclame le droit d’intervenir militairement dans le sud syrien et de conduire des frappes sous le prétexte de préserver sa sécurité et sa stabilité.

Le projet d’accord de sécurité, qui reporte la question de la restitution du Golan (occupé par Israël depuis 1967), comporte d’autres exigences drastiques comme l’élargissement de la zone tampon de deux kilomètres côté Syrie et la mise en place d’une zone démilitarisée dans le Sud, qui constitueraient un précédent dangereux. En dépit de sa volonté plusieurs fois réitérée de conclure un accord de sécurité pour apaiser les tensions avec Israël, le président syrien Ahmed al-Charaa se montre réticent à l’idée d’une zone tampon qui transformerait la région en un espace de danger « aux conséquences inconnues ».

Israël dispose déjà d’une totale liberté d’action en Syrie comme l’illustre parfaitement sa gestion de la province de Quneitra, où les habitants font face à des incursions quotidiennes, à des contrôles et arrestations arbitraires, à la confiscation de leurs logements et de leurs biens, sans que l’armée syrienne ne les protège.

Tout en adoptant une posture maximaliste dans les négociations, Israël cherche à exploiter les minorités druze et kurde comme vecteur de déstabilisation, renouant ainsi avec la stratégie de l’expert du ministère israélien des affaires étrangères Oded Yinon développée dans les années 1980. Yinon considérait le monde arabe comme un maillon faible de l’ordre international. Les États étaient « un château de cartes temporaire » construit par la France et le Royaume-Uni dans les années 1920, qui ont divisé arbitrairement la région en dix-neuf États, « tous composés de combinaisons de minorités et de groupes ethniques hostiles les uns aux autres ». Dès lors, selon lui, ces États étant artificiels, il convient de les démembrer et de recomposer des entités sur des bases confessionnelles.

Cette approche est prégnante chez certains membres du gouvernement Nétanyahou. L’actuel ministre des affaires étrangères Gideon Saar a co-écrit en octobre 2015 avec un colonel de l’armée israélienne un article intitulé « Farewell to Syria » dans lequel il affirmait :

« Toute stratégie élaborée dans le but de mettre fin à la guerre civile en Syrie et de façonner son avenir doit partir d’un postulat clair : la Syrie, effondrée et divisée, ne peut être reconstituée. Il est donc nécessaire de se concentrer sur l’identification d’alternatives pratiques à l’État syrien. […] Un règlement coordonné et ordonné visant à séparer les forces entre la majorité sunnite et les minorités vivant sur le sol syrien […] offre le meilleur potentiel de stabilité. […] Tout accord de paix en Syrie doit reposer sur la garantie de l’existence de ces communautés au sein d’entités étatiques qui leur sont propres. »

Aussitôt après sa nomination à la tête de la diplomatie israélienne, Gideon Saar a annoncé qu’Israël devait se tourner vers les Kurdes, les Druzes et les autres minorités en Syrie et au Liban. Israël a, d’un côté, cherché à instrumentaliser la question druze, comme on l’a vu lors des affrontements intercommunautaires de mai dernier quand les Israéliens, en invoquant la défense des minorités, ont lancé une vague de bombardements massifs en Syrie et continuent de se présenter comme les protecteurs de cette communauté.


À lire aussi : Les violences inter-communautaires en Syrie et l’avenir de la transition


D’un autre côté, la partie israélienne a tenté de renforcer ses liens avec les Forces démocratiques syriennes (dominées par les Kurdes de la branche syrienne du PKK), engagées dans un processus d’unification pour placer les institutions civiles et militaires du nord-est de la Syrie (Rojava), sous le contrôle de l’État.

Après une interview accordée début décembre 2025 au Jerusalem Post par le commandant en chef des FDS, Mazloum Abdi, des révélations du Washington Post ont fait état des liens qu’entretiendraient les FDS avec Israël. Selon le quotidien américain, « des personnalités druzes liées aux services de sécurité israéliens ont acheminé des fonds vers des militants druzes à Soueïda via les FDS quelques mois avant la chute du régime d’Assad ».

Bien que les FDS démentent ces accusations – également nourries par différentes déclarations de Mazloum Abdi (« Si Israël peut empêcher les attaques contre nous et mettre fin au massacre de notre peuple, nous nous en réjouissons et nous lui en sommes reconnaissants ») –, les révélations du Washington Post renforcent l’argument de la Turquie selon lequel les FDS seraient inféodées à Israël, ce qui implique que leur intégration dans l’État syrien doit nécessairement entraîner leur désarmement et la dissolution de leur commandement.

Le mécontentement de la Turquie…

Depuis plusieurs mois, les actions israéliennes en Syrie heurtent les intérêts de la Turquie et suscitent des tensions croissantes avec Ankara. En effet, la Turquie, qui est l’un des principaux parrains d’Ahmed al-Charaa et qui a largement œuvré à sa normalisation, souhaite stabiliser un pays sur lequel elle entend exercer une forte influence.

L’accumulation des tensions a conduit Ankara à déployer des radars turcs à l’intérieur du territoire syrien, ce qui entraverait la liberté d’action d’Israël. La Turquie envisagerait également d’installer une base militaire.

De son côté, Israël a renforcé son partenariat sécuritaire et énergétique avec la Grèce et avec Chypre, opposées à la Turquie sur la question du zonage maritime en Méditerranée orientale. Dans un contexte où Athènes et Nicosie voient en Tel-Aviv un contrepoids aux ambitions de la Turquie, une hypothétique convergence entre Ankara et Téhéran pourrait se dessiner dans les semaines à venir.

Enfin, un autre signe supplémentaire de l’exacerbation des contradictions entre Israël et la Turquie est perceptible dans le refus israélien d’une participation turque à une « force de stabilisation internationale » à Gaza prévue dans le cadre du plan Trump pour la paix publié le 29 septembre 2025.

Ce plan ne constituerait, pour reprendre les termes d’une analyse récente publiée par le média Orient XXI, qu’une étape supplémentaire dans la réalisation du projet hégémonique israélien au Moyen-Orient « en rendant notamment obsolètes les frontières traditionnelles et en garantissant à Israël une liberté de mouvement pour frapper qui il veut, quand il veut et où il veut […] ». Il comporte plusieurs objectifs comme « exploiter davantage les fonds du Golfe pour financer le Conseil de la paix qui serait présidé par Donald Trump et préparer le plan de développement économique de Trump pour Gaza ; […] l’élimination de toute forme de résistance dans les territoires occupés ; la liquidation de la cause palestinienne et le déplacement forcé de la population ; […] normaliser la présence d’Israël dans la région et ses relations avec tous les pays arabes, en particulier l’Arabie saoudite ».

En offrant les mêmes garanties à Israël que dans le cadre libanais, les Américains consacreraient sa liberté d’action sur le territoire gazaoui aux côtés de la force de stabilisation internationale et lui permettraient donc de continuer à contrôler Gaza en évitant le coût d’une occupation permanente.

Par ailleurs, les États-Unis – qui superviseraient le Conseil de la paix et seraient donc en charge de la surveillance du comité de gouvernance temporaire de Gaza et du développement de la bande en coopération avec les pays du Golfe pour financer les projets et maintenir l’illusion d’une légitimité politique – pourraient également tenter, par ce biais, de renforcer les relations entre Israël et l’Arabie saoudite tout en enterrant la question palestinienne.

… et de l’Arabie saoudite

Toutefois, ce dernier pari ne tient pas compte de la déconnexion croissante des intérêts entre Tel-Aviv et Riyad. L’Arabie saoudite ne souscrit pas à l’approche israélienne de la « défense avancée » sous-tendue par une stratégie de restructuration du Moyen-Orient. Elle voit dans l’usage de sa supériorité militaire une menace pour ses propres intérêts et sa politique souveraine. Durant la guerre des douze jours contre l’Iran, Riyad s’est distanciée des actions israéliennes et s’est vigoureusement opposée à l’utilisation de son territoire et de son espace aérien par l’aviation américaine et israélienne pour frapper l’Iran.

Par ailleurs, en Syrie, elle converge avec la Turquie dans sa volonté de stabiliser le pays et veut exorciser le risque d’un effondrement qui sèmerait le chaos dans la région. Sur ce point, l’administration Trump est sur la même ligne que la Turquie et l’Arabie saoudite, tout en cherchant à offrir les meilleures garanties de sécurité possible à Israël, qui demeure étroitement tributaire de l’assistance financière, militaire des États-Unis, ainsi que de leur soutien diplomatique.

Terminons par ce constat du journaliste et écrivain américain Roger Cohen dans un article du New York Times le 30 novembre dernier après un séjour en Israël et au Liban : « Je n’ai trouvé que peu de signes indiquant que la puissance israélienne, telle qu’elle est actuellement déployée, permettra d’assurer un avenir plus pacifique à long terme pour Israël et la région. »

The Conversation

Lina Kennouche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.01.2026 à 17:58

François Mitterrand, impossible héros de la gauche ?

Judith Bonnin, Maîtresse de conférences en histoire contemporaine, Université Bordeaux Montaigne
François Mitterrand disparaissait le 8 janvier 1996. Pourquoi le legs politique du premier président socialiste de la Vᵉ République, omniprésent dans l’imaginaire français, fascinant et sulfureux, est-il si complexe à assumer à gauche ?
Texte intégral (2974 mots)

François Mitterrand disparaissait il y a trente ans, le 8 janvier 1996. Premier président de gauche sous la Vᵉ République (de 1981 à 1995), il reste omniprésent dans l’imaginaire français, comme en témoignent de nombreux films ou livres qui lui sont régulièrement consacrés. Malgré d’importantes réformes (abolition de la peine de mort, retraite à 60 ans, RMI…), son legs politique est complexe à assumer à gauche, le parcours de l’homme étant entaché de zones sombres (Vichy, le colonialisme) et d’un soupçon permanent d’insincérité ou de trahison des idéaux qui l’ont porté au pouvoir (rupture avec le capitalisme). Quels sont les apports récents de la recherche à ce sujet ?


En 2016, le centenaire de la naissance de François Mitterrand et les vingt ans de sa disparition avaient donné lieu à de nombreuses commémorations et publications. Dix ans plus tard, de nouvelles recherches ont revisité l’histoire mitterrandienne en s’appuyant notamment sur des sources inédites publiées, à l’image des Lettres à Anne et du Journal pour Anne (2016), ou déposées en archives. Outre sa place croissante dans la littérature scientifique, François Mitterrand s’est aussi installé dans le paysage fictionnel français, dans le Promeneur du Champ-de-Mars (2005), les Saveurs du palais (2012), l’Inconnu de la Grande Arche (2025), dans les séries Bardot (2023) et Tapie (2023), ou, actuellement dans Mitterrand confidentiel, diffusée sur France 2. À travers ces récits, auxquels s’ajoutent des témoignages comme le documentaire écrit par sa fille Mazarine, François Mitterrand, une autre vie possible (2025) , cette figure de la politique française du second vingtième siècle peuple toujours puissamment les imaginaires de nos contemporains. Si sa biographie est désormais bien connue, son héritage, sans cesse réinterrogé, demeure marqué par une forte charge polémique et émotionnelle qui fait obstacle à une héroïsation partisane.

En effet, dans le panthéon de la gauche socialiste, on compte Jean Jaurès (1859-1914), Léon Blum (1872-1950), et, de manière moins évidente, François Mitterrand. Jean Jaurès est célébré comme le grand pacifiste internationaliste, le socialiste républicain, le défenseur des ouvriers de Carmaux. Léon Blum, c’est le choix de l’exercice du pouvoir en démocratie, le Front populaire et ses conquêtes, le combat contre l’antisémitisme et contre Vichy. François Mitterrand est le socialiste qui a le plus longtemps exercé le pouvoir en France : quatorze ans à l’Elysée. Mais la complexité de son parcours l’empêche d’incarner le héros de gauche « idéal ». S’il a longtemps œuvré à contrôler le récit de son parcours, la fin de son dernier septennat et de sa vie est marquée par des révélations tant privées (sa maladie, sa fille cachée) que politiques – notamment la publication d’Une jeunesse française, par Pierre Péan, en 1994, qui révèle à beaucoup son passé durant la Seconde Guerre mondiale.

Trois dossiers principaux – la Seconde Guerre mondiale, la politique (néo)coloniale de la France en Afrique et le rapport au capitalisme – font, selon nous, obstacle à un rapport apaisé de la gauche à François Mitterrand.

Mitterrand et la Seconde Guerre mondiale

Le premier sujet problématique concerne les rôles que François Mitterrand joua durant la période vichyste : la photographie prise avec Pétain le 15 octobre 1942, sa décoration de la francisque en avril 1943, sa relation avec René Bousquet notamment agitent encore régulièrement la sphère éditoriale et médiatique, alors même que l’essentiel des faits est connu de longue date.

Membres du Commissariat général au reclassement des prisonniers de guerre, François Mitterrand (à droite) et Marcel Barrois (au centre) sont reçus en audience par le maréchal Pétain, le 15 octobre 1942.

Né dans la bourgeoisie charentaise en 1916, François Mitterrand s’engage, étudiant, en politique dans la droite ultraconservatrice de la ligue des Croix-de-Feu du colonel de La Rocque. Mobilisé en 1940, fait prisonnier, il s’évade d’Allemagne, trouve un emploi par ses réseaux familiaux dans l’administration de Vichy, adhère à la Révolution nationale sans être antisémite. Puis il entre progressivement en résistance en 1943 par patriotisme anti-allemand et bascule totalement dans la Résistance en novembre 1943. À la Libération, il s’ancre progressivement et définitivement à gauche.

Beaucoup de ces éléments étaient connus de ses contemporains. L’historienne Noëlline Castagnez a montré que, dès les années 1950, les bancs de droite de l’Assemblée nationale bruissent de l’insulte « francisque Mitterrand » et que durant la campagne présidentielle de 1965, c’est de Gaulle lui-même qui choisit de ne pas se servir de cet élément pour ne pas affaiblir le mythe de la France résistante ou la Ve République. À côté des réécritures ou « recompositions » de Mitterrand lui-même, l’histoire des oublis et (re)découvertes de son passage par Vichy est donc aussi celle des arbitrages de ses alliés et adversaires.

Le choc de la publication d’Une jeunesse française, du journaliste Pierre Péan, en 1994, sera particulièrement fort pour les jeunes socialistes, percevant leur parti comme un rempart homogène contre l’extrême droite depuis les années 1930, élevés dans le mythe résistancialiste selon le terme d’Henry Rousso, et découvrant progressivement, comme l’opinion, l’existence de « vichysto-résistants ».

Ce passé mitterrandien est toujours entouré d’un halo sulfureux, car certains y voient le « péché originel » d’un homme dont le parcours militant est perçu comme insincère, structuré seulement par son ambition.

Mitterrand et le colonialisme

Le rôle de François Mitterrand dans la politique coloniale puis néocoloniale française est un deuxième obstacle mémoriel majeur à la pleine revendication de son héritage à gauche. Cet aspect de sa vie politique a, en effet, fait l’objet d’une percée historiographique et éditoriale dans les années 2024-2025 (avec les travaux d’Anne-Laure Ollivier et Frédéric Turpin, de Thomas Deltombe, de Pascal Blanchard et Nicolas Bancel). Si, à l’issue de ces travaux, de réelles nouveautés ont été mises en lumière, à l’image d’un récit de voyage en Afrique subsaharienne tenu par Mitterrand entre janvier et février 1950, et que nous avons édité, l’essentiel était connu pour qui s’intéressait à la question.


À lire aussi : François Mitterrand, à l’origine du déclin de l’influence postcoloniale de la France en Afrique ?


François Mitterrand avait notamment été ministre de la France d’outre-mer en 1950 et ministre de l’intérieur en 1954, c’est à ce titre qu’il déclare que « l’Algérie, c’est la France », formule alors plutôt consensuelle parmi les forces de gouvernement (et non slogan des ultras de l’Algérie française), puis garde des Sceaux en 1956-1957. Sa dureté à ce poste a notamment été mise en lumière par Benjamin Stora et François Malye en 2010.

L’actualité éditoriale mitterrandienne à ce sujet s’explique par la vivacité des questions mémorielles postcoloniales et par les avancées historiennes sur le rôle la France en Afrique, et notamment la remise en 2021 du rapport de la Commission Duclert sur « La France, le Rwanda et le génocide des Tutsi (1990-1994) ». Ministre colonial de 1950, leader d’un parti anticolonial en 1971, président du discours tiers-mondiste dit de Cancún en 1981 et chef d’État en responsabilité au moment du génocide des Tutsis en 1994 : le parcours de François Mitterrand peut être réduit par des militants déçus ou par des opposants à celui d’un homme fondamentalement de droite passé de colonial à néocolonial.

Les historiens, eux, tentent de contextualiser chacune de ces séquences et en soulignent les continuités de manière plus fine : en 1950, dans un monde politique où la décolonisation est une option très marginale, même à gauche, Mitterrand est un colonial réformiste et progressiste. Comme nous l’avons montré en 1971, il endosse assez peu le programme tiers-mondiste du PS, porté par des experts issus de la gauche chrétienne qui n’ont jamais totalement eu son attention. Ses grilles de lecture et alliances forgées à l’époque coloniale perdurent alors discrètement, sans que ce soit un sujet pour la majorité de l'électorat de gauche : le rapport des candidats au passé colonial français ne fut pas un enjeu de la campagne présidentielle de 1981.

Mitterrand et le capitalisme

Un troisième dossier nourrit négativement son bilan et alimente à gauche son procès en traîtrise : c’est celui de l’absence de rupture avec le capitalisme. C’est en effet sur cette idée forte, centrale dans la doctrine socialiste, qu’il conquiert la tête du PS, proclamant à la tribune du congrès d’Épinay en 1971 : « Celui qui n’accepte pas la rupture […] avec la société capitaliste, celui-là, je le dis, il ne peut pas être adhérent du Parti socialiste. »

Or à cette promesse, qui contribue à l’union de la gauche (1972-1977) et porte l’espoir et le vote de beaucoup à gauche en mai 1981, répond l’annonce très dramatisée du « tournant de la rigueur », le 21 mars 1983. À cette date, le franc est dévalué pour la troisième fois par les socialistes et maintenu dans le système monétaire européen (SME). Ce choix mitterrandien est vécu par certains comme celui de la raison et de l’Europe. Pour d’autres, il signe, par-delà le refus d’une « autre politique » monétaire, la fin du volontarisme social et économique socialiste, le triomphe « des marchés » et celui de l’Europe libérale. L’adoption du traité de Maastricht par référendum à une courte majorité, en septembre 1992, en dépit du fort engagement personnel de François Mitterrand, confirme cette prééminence européenne et libérale du cap présidentiel pour les déçus de 1983. Si la réalité économique et la chronologie de ce « tournant » ont été relativisées par les historiens, à l’instar de Frédéric Bozo qui dans un ouvrage récent revient sur cette « névrose nationale », ce moment reste particulièrement douloureux dans l’histoire de la gauche.

Si le bilan mitterrandien existe, par-delà 1983, (on songe par exemple à la création du revenu minimum d’insertion en 1988), le traumatisme ressenti à l’annonce du « tournant » introduit de fait une fracture qui sépare, d’une part, les grandes mesures de 1981-1982 (on citera pêle-mêle l’abolition de la peine de mort, les nationalisations, la 5ᵉ semaine de congés payés, la semaine de 39 heures, la décentralisation, la retraite à 60 ans, la réforme de l’audiovisuel, les lois Auroux) et, d’autre part, la rigueur, les cohabitations et un second septennat plus marquant sur le plan diplomatique qu’intérieur. À un temps « socialiste » s’opposerait ainsi un temps plus « gaullo-mitterrandiste », qui l’éloigne de la filiation de Jaurès et de Blum.

Le troisième président préféré des Français

En 2026, la peur du retour au pouvoir de l’extrême droite, la polarisation par celle-ci du débat public sur les questions postcoloniales, migratoires et identitaires, l’aggravation continue des crises économiques, politiques, européennes sont des enjeux face auxquels l’héritage mitterrandien ne semble pas le plus univoque et efficace pour la gauche et les socialistes contemporains. La dynamique d’« union de la gauche » qui a porté Mitterrand au pouvoir, au détriment de ses partenaires, n’offre pas non plus de modèle réactivable, au contraire du plus lointain et aussi plus fantasmé « front populaire ».

En 2021, un sondage Ifop classait François Mitterrand troisième président de la République préféré des Français. En tête du classement, de Gaulle, héros national et seul président à avoir fondé une famille politique se revendiquant de manière pérenne de son héritage. En second, le gaulliste Jacques Chirac, qu’une vague de nostalgie avait érigé dès les années 2010 en icône « swag » (stylé, cool), et dont la disparition en 2019 avait suscité une forte émotion. François Mitterrand arrivait cependant largement en tête parmi les sympathisants de gauche.

À l’image de la panthéonisation en 2025 de Robert Badinter, son ami et ministre, qui consacre une part de l’héritage socialiste et humaniste de 1981, on peut ainsi supposer que la mémoire militante, comme la mémoire nationale, continuera à exercer sur le bilan mitterrandien ce « droit d’inventaire » – revendiqué par Lionel Jospin dès 1995 et par François Hollande en 2009 – en sélectionnant ce qui peut, aujourd’hui encore, être rassembleur.


Judith Bonnin est l’autrice, avec Pierre-Emmanuel Guigo, de Mitterrand, à paraître le 13 janvier 2026 aux PUF_.

The Conversation

Judith Bonnin est experte pour la Fondation Jean-Jaurès, qui a financé la publication de sa thèse. Elle est membre du conseil scientifique de l'Institut François Mitterrand.

07.01.2026 à 17:58

Pourquoi reconstruisons-nous les monuments « à l’identique » ?

Patrice Gourbin, Historien de l'architecture [maître de conférences à l'Ecole nationale supérieure d'architecture de Normandie], Ecole Nationale supérieure d'architecture et de paysage de Bordeaux (ENSAP Bordeaux)
Depuis les années 1990 ont émergé de nouvelles pratiques de (re)construction, en dehors du champ d’action du service des Monuments historiques.
Texte intégral (2041 mots)
La reconstruction de Notre Dame de Paris, en avril 2024. CC BY

En 2019, la reconstruction de la charpente de Notre-Dame de Paris « à l’identique » des matériaux d’origine et de leur mise œuvre a été présentée comme une nécessité technique, historique et parfois même mystique. Or ce type d’attitude, relativement récente, mérite d’être interrogée en tant que fait culturel qui interroge le rapport de nos sociétés à leur histoire.


Fort de la mission qui lui avait été confiée par l’État dans les années 1830, le service des Monuments historiques fut pendant près de cent cinquante ans l’unique garant du patrimoine national.

Confronté aux dévastations de la Grande Guerre, il mit en place une doctrine de reconstruction des édifices ou parties d’édifices détruits qui fut reprise après la Seconde Guerre mondiale et se maintint inchangée jusqu’au milieu des années 1990. Il ne s’agissait pas de refaire les monuments « à l’identique » de ce qu’ils étaient avant la catastrophe, mais de leur redonner leur apparence originelle tout en les améliorant d’un triple point de vue, technique, archéologique et artistique.

Les charpentes furent par exemple reconstruites en béton armé pour des raisons d’économie, de facilité d’entretien et de résistance au feu. Le matériau pouvait aussi être utilisé pour renforcer des structures instables ou remplacer à moindre coût les maçonneries traditionnelles. À Rouen, la grande voûte en bois de la salle des procureurs du palais de justice, incendiée en mars 1944, fut reconstituée dans son apparence grâce à un voile mince de béton armé supportant à la fois un lambris de bois intérieur et la couverture extérieure en ardoises épaisses. La modification concernait l’ensemble de la structure de l’édifice : du fait de la poussée de la nouvelle voûte, trois fois plus lourde que l’ancienne, il fallut renforcer les fondations en sous-œuvre et forer l’épaisseur des murs pour y installer des tirants métalliques reliant la voûte, le plancher intermédiaire en béton et les fondations.

Retrouver un état de « référence »

Sur le plan archéologique, il était courant de supprimer des éléments considérés comme non pertinents, en particulier ceux du XIXᵉ siècle, une période dévalorisée de l’histoire de l’art. Le but était de retrouver un état de référence, souvent le plus ancien connu. Par exemple pour la reconstruction de l’église de Carignan (Ardennes) détruite en 1940, l’architecte en chef Yves-Marie Froidevaux choisit de revenir à l’état de 1681 en remplaçant la tour-porche du XIXe en pierre par un clocher en charpente de style classique.

Politiques de création

Enfin, la dernière amélioration concernait le domaine de la création. Si les éléments décoratifs répétitifs (corniches, garde-corps, décor géométrique ou végétal, modénature étaient refaits tels qu’ils étaient avant la catastrophe, ce n’était généralement pas le cas des éléments artistiques uniques, tels que tympans sculptés, chapiteaux, vitraux, mobilier. Leur remplacement était alors une occasion de faire appel à des créateurs contemporains.

Lors de la première reconstruction, des commandes furent passées auprès des artistes au cas par cas pour remplacer les éléments mobiliers détruits. Lors de la seconde, le service des Monuments historiques vit dans les destructions une opportunité de développer une politique de création dans les monuments anciens, en particulier dans le domaine du vitrail. L’intervention n’était pas uniquement réparatrice : les objets et vitraux du XIXe siècle, considérés comme inappropriés, étaient souvent supprimés, qu’ils soient endommagés ou non, au profit de créations neuves. La commande reposait sur une conception corporatiste : l’objectif était de créer une classe d’artisans spécialisés dans l’intervention en milieu patrimonial. Ce n’est qu’en 1955 que les commandes commencèrent à s’ouvrir à des artistes qui n’étaient pas aussi des maîtres-verriers, comme Jacques Villon (à Metz) ou Marc Chagall (à Reims).

Les dernières interventions sur les monuments endommagés par la seconde guerre mondiale datent du milieu des années 1980. À Rouen, la flèche de la tour Saint-Romain de la cathédrale fut reconstruite en 1984 avec une charpente en béton armé.

Incontestée, la reconstruction-amélioration s’appliquait à toutes sortes d’interventions, post-catastrophe ou non : la reconstitution des combles du Parlement de Bretagne à Rennes après l’incendie de 1994, la remise en état d’usage du château de Falaise (Calvados) à partir de 1997 ou de celui de Suscinio (Morbihan).

Nouvelles pratiques de reconstruction

Mais le milieu des années 1990 fut aussi celui de l’émergence de nouvelles pratiques de (re)construction, en dehors du champ d’action du service des Monuments historiques. Les interventions s’inspiraient des méthodes de l’archéologie expérimentale qui cherchait, par la reproduction du geste créateur, à mieux comprendre les artefacts originaux. À Saint-Sylvain-d’Anjou, une association initiée par le maire de la commune restitua un château à motte en bois de l’an mil à quelques du site originel afin de l’ouvrir à la visite. À Rochefort la reconstruction de la frégate l’Hermione débuta en 1992 avec un double objectif. Il s’agissait non seulement de refaire un objet à valeur mémorielle et patrimoniale, mais aussi de mettre en scène sa fabrication dans le cadre d’un chantier immersif ouvert au public.

La construction du château (imaginaire) de Guédelon qui débuta en 1997 reposait sur la même stratégie, mais avec une exigence supplémentaire dans le domaine de l’archéologie de la matière et du geste. Il s’agissait de retrouver les savoir-faire et les matériaux correspondant à la période de référence qui avait été choisie. Les interférences avec le présent étaient évacuées pour la science mais aussi pour le spectacle, avec par exemple des ouvriers vêtus de costumes médiévaux.

Le patrimoine-spectacle existait déjà : le premier son et lumière avait eu lieu à Chambord en 1950 avec un succès planétaire et de multiples avatars au fil du temps comme celui du Puy-du-Fou. Guédelon y ajoutait une dimension scientifique et son succès témoignait de la profondeur des attentes du public, qui n’était pas seulement consommateur de divertissement.

Les actuels chantiers de la charpente de la cathédrale de Paris et de la flèche de l’abbatiale de Saint-Denis sont dans la continuité de ce renversement des pratiques engagé dans les années 1990. La triple amélioration qui caractérisait les reconstructions suivant les deux guerre mondiales s’est évaporée. Dévalorisées, les techniques modernes sont considérées comme inappropriées au moment même où leur utilisation plus que centenaire aurait pu en démontrer la pertinence économique et structurelle.

Quant à l’amélioration créative, elle paraît désormais anachronique comme le montre le procès intenté à l’encontre de l’insertion de vitraux contemporains à Notre-Dame de Paris voulue par le président de la République. Appliquant les leçons de Rochefort et Guédelon, les deux chantiers parisiens convoquent science et spectacle. Il s’agit tout autant de retrouver l’apparence ancienne que de s’assurer du geste et de la matière ancienne, sous le regard du public qui est invité à suivre l’avancement des travaux, sur site (à Saint-Denis) ou en différé (à Paris) par médias interposés. Enfin l’équilibre économique est assuré de la même manière, par les dons et les recettes du chantier-spectacle.

La reconstruction de tout ou partie du patrimoine disparu a-t-elle trouvé un nouveau départ ? Le patrimoine-spectacle, qui est aussi patrimoine-science a trouvé son public, mais il ne s’applique qu’à des édifices iconiques de l’histoire nationale. Peut-être marque-t-il la fin de cette expansion patrimoniale dénoncée par les experts dans les années 1990, de l’historienne Françoise Choay, qui y voyait le signe d’un « narcissisme collectif », au directeur de l’architecture et du patrimoine François Barré qui s’inquiétait de l’abus patrimonial. Quoiqu’il en soit, le patrimoine-spectacle-et-science peut dès maintenant être érigé en emblème du champ culturel patrimonial des années 2020.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Patrice Gourbin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

07.01.2026 à 17:56

Microcapteurs pour suivre la qualité de l’air : gadgets ou véritables outils de suivi ?

Marie Bellugue Duclos, Doctorante, Université Paris-Saclay
Denis Machon, Professeur, INSA Lyon – Université de Lyon
Michael Canva, Directeur de recherche, Centre national de la recherche scientifique (CNRS); Université de Sherbrooke
Les microcapteurs ont démocratisé le suivi de la qualité de l’air. Mais leur performance est variable : à quelles conditions peuvent-ils fournir une information utilisable ?
Texte intégral (2994 mots)

Le suivi de la qualité de l’air s’est grandement démocratisé grâce à l’essor de microcapteurs électroniques accessibles à tout un chacun. Ces dispositifs sont-ils performants, et à quelles conditions peuvent-ils fournir une information utilisable ? État des lieux.


La pollution de l’air extérieur peut être liée au trafic routier, au chauffage au bois, aux activités industrielles ou encore aux feux de forêt et aux éruptions volcaniques. La diversité des particules qui en résulte illustre bien la nature diffuse et mobile de cette pollution. Celle-ci a des conséquences graves en termes d'effets sur la santé, allant des troubles respiratoires immédiats à des maladies chroniques incurables.

Selon l’Organisation mondiale de la santé (OMS), la pollution de l’air, tous polluants confondus, est responsable de 7,4 millions de décès par an dans le monde dont 4,2 millions liés à l’air extérieur et 3,2 millions à l’air intérieur. En France, le fardeau sanitaire des particules fines entraînerait à lui seul 40 000 décès chaque année, et est associés à un coût socio-économique estimé à 13 milliards d’euros.

Aujourd’hui, suivre la qualité de l’air auquel chacun est exposé n’a jamais été aussi simple. En quelques clics, il devient possible d’acheter des microcapteurs, d’accéder à des cartes en ligne ou de télécharger des applications mobiles fournissant un accès à ces données en temps réel. Tout comme la météo guide le choix de prendre un parapluie, cet accès offre aujourd’hui aux citoyens et aux décideurs un outil pratique pour orienter leurs actions.

Pourtant, derrière cette démocratisation, se pose la question de la performance de ces microcapteurs opto-électroniques. S’agit-il vraiment de sentinelles de confiance ? Faisons le point.


À lire aussi : Le potentiel oxydant : un nouvel indice pour mesurer la pollution atmosphérique


Des microcapteurs dans l’air du temps

Commençons par rappeler comment est menée la surveillance réglementaire de la qualité de l’air en France. Elle est coordonnée par le Laboratoire central de surveillance de la qualité de l’air (LCSQA) et mise en œuvre au niveau régional par les associations agréées pour la surveillance de la qualité de l’air (AASQA). Les données, librement accessibles grâce au site régional des AASQA, sont produites selon des protocoles normés afin de s’assurer qu’elles soient comparables d’une station de mesure à l’autre et d’une région à l’autre.

Exemple de station de mesure officielle de la qualité de l’air. Michael Coghlan, CC BY-SA

Toutefois, le nombre de stations de mesure mises en place résulte d’un compromis entre couverture géographique et coûts. La modélisation, basée sur les modèles Chimere ou Sirane par exemple, permet d’extrapoler la qualité de l’air sur un territoire donné, mais elle reste dépendante de la qualité et du nombre des mesures locales.

Afin de renforcer la couverture sans augmenter les coûts, la directive européenne, dont la réglementation française découle, autorise les réseaux de surveillance réglementaire à procéder à des mesures indicatives, pour lesquelles les exigences de qualité sont plus souples. Ce cadre favorise l’intégration des microcapteurs de 10 à 100 fois moins coûteux que les équipements utilisés pour les stations de référence, tant à l'achat qu’en fonctionnement.

Ce marché a le vent en poupe. En 2023, il pesait plus de 6 milliards d’euros, marché qui pourrait s’élever en 2032 à 13,5 milliards. En 2022, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) dénombrait 60 000 références produits disponibles sur les plateformes de vente en ligne.

On y retrouve donc des microcapteurs à bas coût prêts à l’emploi capables de collecter et de transmettre les données en temps réel. Le prix des composants se limite à quelques dizaines d’euros, tandis que le coût total du dispositif varie d’environ une centaine à plusieurs milliers d’euros selon les fonctionnalités.

Une mesure facile, mais une interprétation parfois délicate

Que valent ces différents types de microcapteurs ? Pour le savoir, il faut d’abord définir ce que l’on souhaite mesurer lorsqu’on parle de particules fines. Loin d’être un mélange défini, les particules dans l’air forment un ensemble hétérogène et variable par leur forme, leur taille et leur état.

Trois catégories se distinguent :

  • les hydrométéores (pluie, neige, brouillard),

  • les aérosols (suie, poussières, embruns, composés organiques…)

  • et les bioaérosols (pollens, bactéries, virus, spores…).

Par convention, la matière particulaire en suspension (ou Particulate Matter, PM) est décrite en fonction de la taille de ses constituants, dans lesquels les hydrométéores doivent être exempts. Ainsi, par convention, les particules grossières PM10, les particules fines PM2,5 et les particules ultrafines PM0,1 représentent respectivement des ensembles hétérogènes de taille inférieure ou égale à 10, 2,5 et 0,1 micromètre (µm).

Plus les particules sont petites, plus elles sont susceptibles de pénétrer profondément dans les voies respiratoires. Les PM1,0 peuvent être également suivies par des microcapteurs et des équipements de référence, mais elles ne font pas l’objet d’une réglementation spécifique ni ne sont associées à des seuils sanitaires!


À lire aussi : Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?


Or, les microcapteurs bas coût pour le suivi des particules, dont la mesure est basée sur leur comptage grâce à un principe optique, sont sensibles aux conditions environnementales et aux caractéristiques des particules, ce qui fragilise les performances. Leur fonctionnement repose sur la diffusion de la lumière par le passage d’une particule à travers un faisceau laser. Il s’agit du même principe qui rend visible un rayon lumineux dans la fumée. L’intensité détectée dans une direction donnée dépend de la taille, de la forme, de la composition et de l’orientation des particules.

Il faut également noter que ces microcapteurs sont calibrés avec des particules de polystyrène, loin de refléter l’hétérogénéité réelle de la pollution de l’air extérieur. S’ajoutent à cela leur encrassement et leur vieillissement, qui dégradent les performances dans le temps. L’interprétation des données exige donc une connaissance fine de ces limites.

Des données précieuses… mais sous conditions

Pour autant, les microcapteurs ne sont pas à exclure. En effet, en cas d’épisode de pollution, ils détectent les mêmes tendances que les stations réglementaires, justifiant leur usage pour des mesures indicatives.

Pour s’y retrouver, les organismes pour la surveillance de la qualité de l’air ont mené des évaluations en confrontant les microcapteurs aux équipements réglementaires. Accessibles en ligne, les résultats du challenge Airlab (Airparif, France) et de l’AQ-SPEC (South Coast AQMD, États-Unis) révèlent des corrélations satisfaisantes entre microcapteurs et ces équipements pour les PM1,0 et PM2,5. En revanche, elles sont moins bonnes pour les PM10 , car la conception des microcapteurs et le principe de la mesure ne permettent pas de bien les détecter.

Ces microcapteurs peuvent être achetés autant par des citoyens, des collectivités, des industriels, des associations ou des chercheurs. Tous ces acteurs peuvent publier leurs données sur des cartes interactives, ou y contribuer ponctuellement.

Contrairement aux cartes des AASQA, qui sont comparables entre elles grâce à des protocoles stricts, chaque plateforme adopte sa propre présentation.

Il est donc essentiel de bien comprendre l’information affichée : les points de mesure peuvent fournir une information visuelle qui représente une concentration (Atmotube par exemple) ou un indice de qualité de l’air (IQAir par exemple) avec un jeu de couleurs propre aux plate-formes comme des données chiffrées sans repère pour interpréter la donnée (OpenSenseMap par exemple). De plus, selon les plateformes, une même carte peut afficher tout un ensemble d’indicateurs de pollution de l’air, pas seulement ceux liés à un polluant spécifique comme les particules.

D’un service à l’autre, les cartes de la qualité de l’air peuvent varier considérablement, comme le montre cette comparaison du 17/11/2025 à 05h00 entre les cartes disponibles via IQAir (en haut) et Waqi (en bas). IQ Air/Waqi.info

Par ailleurs, peu de plateformes précisent si les mesures sont faites en intérieur, en extérieur, en mobilité ou en point fixe. De plus, une donnée en temps réel et une donnée moyennée sur une période donnée ne sont pas comparables. De ce fait, pour une même zone géographique, la qualité de l’air affichée peut varier d’une plateforme à l’autre, selon l’emplacement de la mesure, l’indicateur utilisé et la période considérée. En France, les données des AASQA restent la référence pour une information de confiance.

Les microcapteurs n’en restent pas moins des sentinelles utilisables sous réserve d’une excellente maîtrise de leurs limites. L’utilisation individuelle de microcapteurs par le grand public peut être encadrée par un protocole rigoureux pour assurer la qualité des données et accompagner leur interprétation. Le projet d’OpenRadiation, qui porte sur la mesure de la radioactivité, en est un exemple : lorsqu’une mesure faite par l’utilisateur d’un microcapteur apparaît inhabituelle sur la carte, un gestionnaire contacte alors ce contributeur pour comprendre l’origine de cette déviation. La cartographie de la qualité de l'air s'appuie sur une plus grande quantité de microcapteurs, ce qui rend plus difficile un suivi individualisé. Néanmoins, une validation des données à l’instar de ce qui est réalisé pour le suivi réglementaire pourrait être envisagée à l’aide d’un traitement adapté, avec un filtrage par exemple.

Ainsi, comme en témoignent la Captothèque (Atmo Auvergne-Rhône-Alpes) ou Ambassad’air (Rennes), programmes de sciences participatives basés sur la mesure citoyenne de la qualité de l’air, les microcapteurs peuvent non seulement fournir des indications, mais aussi contribuer à l’engagement citoyen pour l’observation environnementale.


À lire aussi : Ces citoyens qui mesurent la radioactivité de leur environnement


The Conversation

Marie Bellugue Duclos a reçu des financements du CNRS pour sa thèse. Elle utilise des micro-capteurs pour ses recherches.

Denis Machon a reçu des financements du CNRS et de l'ANR (France), du CRSNG (Canada) et du FRQ (Québec).

Michael Canva a reçu des financements du CNRS et de l’ANR (France), du CRSNG (Canada) et du FRQ (Québec).

07.01.2026 à 17:54

Pourquoi la procrastination n’a rien à voir avec la paresse – et comment la surmonter

Annemieke Apergis-Schoute, Lecturer in Psychology, Queen Mary University of London
La raison pour laquelle nous procrastinons tient moins à notre force de caractère qu’à la capacité de notre cerveau à gérer le stress.
Texte intégral (1610 mots)

Procrastiner ne veut pas dire que l’on manque de force de caractère. Cela tient plutôt à la capacité de notre cerveau à gérer le stress et à un manque de flexibilité. La bonne nouvelle, c’est que la souplesse nécessaire pour la surmonter peut s’acquérir.


La plupart d’entre nous ont déjà vécu cette situation : une échéance approche, la tâche est parfaitement réalisable, mais, au lieu de nous y mettre, nous nous sentons soudainement obligés de ranger un tiroir ou de réorganiser les applications sur notre téléphone. La procrastination peut sembler irrationnelle, vue de l’extérieur, mais il est difficile d’y résister quand on y est soi-même confronté. Bien qu’elle soit souvent considérée comme un manque de discipline, des recherches montrent qu’elle est bien plus liée à la flexibilité (ou à la rigidité) avec laquelle notre cerveau réagit à l’inconfort et à l’incertitude.

En d’autres termes, la procrastination n’est pas un problème de gestion du temps, mais un problème de régulation des émotions. Les gens ne retardent pas les choses parce qu’ils manquent de compétences de planification, mais parce que leur cerveau cherche à échapper à un état intérieur émotionnel difficile. Lorsque je demande à mes étudiants pourquoi ils procrastinent, leurs réponses sont étonnamment similaires : « Je ne sais pas par où commencer », « Je me sens perdu », « Je suis anxieux », « Je me sens dépassé ». Aucun d’entre eux ne dit « Je m’en fiche » : la procrastination vient généralement du fait que l’on se soucie trop des choses.

Surtout, le phénomène d’évitement empêche le cerveau de se rendre compte d’une réalité importante : commencer une action est souvent gratifiant. Le premier pas, aussi petit soit-il, suffit à libérer de la dopamine. Cela aide à augmenter la motivation après – et non, avant – avoir commencé. Mais lorsque nous évitons de nous confronter à la tâche en question, nous ne ressentons jamais ce signal de récompense, et elle va continuer à nous sembler tout aussi intimidante le lendemain.

Flexibilité cognitive

La flexibilité cognitive est la capacité à actualiser ses attentes lorsque les circonstances changent, à modifier sa stratégie et à s’affranchir des schémas inefficaces. C’est un élément fondamental de l’apprentissage : le cerveau fait des prédictions, reçoit de nouvelles informations et s’adapte en conséquence.

Imaginez que vous attendiez un bus coincé dans les embouteillages. Une personne flexible changera rapidement d’itinéraire pour emprunter la ligne de métro qui, si elle correspond habituellement à un trajet plus long, permettra désormais d’aller plus vite. Une personne rigide continuera d’attendre, non pas parce qu’elle ignore qu’il existe une alternative, mais parce que changer d’itinéraire lui semble difficile ou « injustifié », et que son esprit reste figé sur son choix initial.

Je constate clairement ce schéma dans mes recherches sur le trouble obsessionnel compulsif (TOC). Bien que très différent de la procrastination, ce phénomène implique une difficulté à s’écarter d’une prédiction initiale, en particulier lorsqu’il y a incertitude ou risque d’erreur. Lorsque le cerveau ne parvient pas à actualiser ses informations, il reste focalisé sur une idée.

Les étudiants d’aujourd’hui sont confrontés à une véritable tempête. Les téléphones et les réseaux sociaux réduisent leur capacité d’attention. Le perfectionnisme amplifie l’autocritique. Et l’anxiété atteint des niveaux records dans les universités britanniques. Conjugués, ces facteurs affaiblissent la capacité du cerveau à s’adapter, ce qui est précisément la capacité nécessaire pour entreprendre une tâche difficile.

Du point de vue des neurosciences, la procrastination représente un bras de fer entre deux systèmes. D’un côté agissent des mécanismes de défense, activés lorsqu’une tâche semble incertaine, difficile ou évaluative. Cela donne lieu à des pensées telles que « Et si c’était terrible ? », « Et si j’échouais ? » De l’autre intervient le système de récompense, activé par tout ce qui procure un sentiment de bien-être immédiat (faire défiler son fil d’actualité, ranger, envoyer des messages à ses amis).

Lorsque les mécanismes de défense dominent, il peut être impossible de se mettre au travail. Pour les esprits rigides, en particulier, le cerveau a du mal à revenir sur sa prédiction initiale selon laquelle la tâche constitue un danger ou s’avère insurmontable. L’évitement devient alors la seule option possible, et le petit soulagement qui est alors ressenti incite le cerveau à répéter ce comportement.

En effet, des recherches montrent que la procrastination est essentiellement un remède à court terme pour améliorer l’humeur : une échappatoire rapide à un malaise, qui génère elle-même davantage de stress par la suite.

Il y a une génération, procrastiner exigeait de la créativité. Il fallait trouver des distractions. Aujourd’hui, ce sont elles qui vous trouvent. Les réseaux sociaux sont conçus pour déclencher une recherche de nouveauté stimulée par la dopamine. Pour quelqu’un qui est déjà anxieux ou surchargé, le téléphone devient une échappatoire omniprésente. Comme l’a dit un étudiant : « Il est plus facile de ne pas faire le travail. » Non pas parce que le travail n’a pas d’importance, mais parce que l’alternative qui lui est proposée offre une récompense instantanée.

La flexibilité peut se travailler

Alors, comment éviter la procrastination ? Il ne s’agit pas de devenir plus discipliné, mais plutôt de renforcer les systèmes cérébraux qui vous permettent de vous mettre au travail. Voici quelques moyens d’y parvenir.

Décomposez les tâches
Divisez le travail en unités concrètes et gérables : rédigez un titre, rédigez quelques points clés ou lisez une page. Cela réduit la menace perçue d’une tâche importante et sans contours bien définis, et cela procure au cerveau de petites récompenses régulières sous forme de dopamine à chaque étape franchie.

Misez sur les micro-changements
Les micro-changements sont de minuscules actions initiatrices : ouvrir le document, poser vos notes sur le bureau. Ils ne réduisent pas la tâche elle-même, mais ils interrompent l’état de « blocage » et incitent doucement le cerveau à se mettre en mouvement.

Changez de perspective
Recadrez la tâche comme si vous conseilliez quelqu’un d’autre : « Que dirais-je raisonnablement à un ami dans cette situation ? » Cela assouplit la pensée rigide et axée sur la menace et aide le cerveau à générer des interprétations alternatives plus souples.

Développez votre tolérance émotionnelle
Le malaise lié au démarrage atteint rapidement son apogée, puis diminue. Se le rappeler peut rendre l’évitement moins irrésistible.

Accordez-vous des récompenses immédiates
Associez la tâche à quelque chose d’agréable (de la musique, une boisson chaude ou le fait de travailler avec d’autres personnes) afin que la première étape soit moins pénible et plus gratifiante.

Ensemble, ces stratégies renforcent la forme de flexibilité cognitive la plus pertinente pour affronter la procrastination : la capacité à passer de l’évitement à l’action lorsqu’une tâche semble inconfortable. D’autres formes de flexibilité cognitive (telles que le changement de règle ou la flexibilité motrice) peuvent également être améliorées, mais grâce à différents types d’entraînement.

Si vous vous reconnaissez dans les étudiants qui se disent « anxieux », « dépassés » ou « ne sachant pas par où commencer », cela ne signifie pas que vous êtes paresseux. Cela signifie simplement que votre cerveau a du mal à changer d’état. La procrastination en dit beaucoup moins sur la volonté que sur la façon dont notre esprit gère l’incertitude et l’inconfort.

Et ce qui est encourageant, c’est que la procrastination n’est pas immuable. La flexibilité s’améliore avec la pratique. Chaque fois que vous faites un pas, même minime, comme ouvrir le fichier ou écrire la première ligne, vous ne vous contentez pas de progresser dans la tâche. Vous montrez à votre cerveau que commencer est faisable, supportable et souvent gratifiant.

Au fil du temps, ces petits changements s’accumulent pour produire quelque chose de puissant : un esprit capable de se diriger vers ce qui compte, plutôt que de fuir l’inconfort.

The Conversation

Annemieke Apergis-Schoute a reçu un financement du Wellcome Trust pour ses précédentes recherches sur les TOC.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞