LePartisan - 180 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

31.03.2026 à 17:08

Entre baptêmes d’adultes, influenceurs et retour des rites, les nouveaux visages du catholicisme

Charles Mercier, Professeur des universités en histoire contemporaine, Université de Bordeaux
Le nombre de baptêmes est en hausse. Qui sont ces nouveaux catholiques qui suivent des influenceurs sur les réseaux sociaux et qui aspirent à une pratique plus rituelle de la religion ?
Texte intégral (2392 mots)

Alors que les vocations de prêtres sont en crise et que la fréquentation des messes recule depuis des décennies, le nombre de baptêmes connaîtrait une augmentation significative. Faut-il y voir un renversement de tendances pour l’Église catholique ? Qui sont ces nouveaux fidèles ? Leur pratique de la religion se distingue-t-elle de celle de leurs aînés ? À l’approche de Pâques, l’historien Charles Mercier remet le phénomène en perspective.


The Conversation : La hausse du nombre de baptêmes traduit-elle un regain global du catholicisme en France ?

Charles Mercier : L’évolution notable concerne les adolescents et les jeunes adultes : on est passé d’un peu moins de 6 000 baptêmes (adultes et adolescents confondus) en 2022, à plus de 21 000 en 2026. Mais il faut mettre ce regain en perspective avec les chiffres des ordinations de prêtres, des baptêmes d’enfants, des mariages et des enterrements à l’église, sur lesquels on a moins de visibilité, et qui sont soit en recul, soit en voie de stabilisation. Si les avis sont partagés sur la question, il n’y a assurément pas de croissance généralisée.

Concernant cette hausse des baptêmes chez les jeunes, plusieurs facteurs sont en jeu. D’abord, il y a un effet de report du baptême de l’enfance vers l’adolescence et l’âge adulte. Avec la sécularisation de la société, les familles sont moins religieuses. Quand elles le demeurent, l’individualisation des valeurs les pousse à ne pas décider pour leur enfant : la religion est de moins en moins perçue comme une identité dont on hérite. Elle est plutôt vue comme un choix individuel à faire quand on a l’âge et la maturité de se prononcer. Près de 75 % des enfants étaient baptisés avant l’âge de 7 ans en 1974, 50 % en 1996 et seulement un quart en 2024. On considère qu’« ils choisiront quand ils seront plus grands ».

Enfin, cette augmentation des baptêmes à l’âge adulte s’inscrit aussi dans un regain du spirituel qui profite au catholicisme et à d’autres religions.

Qu’est-ce qui peut jouer un rôle déclencheur pour ces personnes qui se tournent vers le baptême à l’adolescence ou à l’âge adulte ?

C. M. : Sur cette question, on peut croiser les chiffres de la Conférence des évêques de France avec ceux d’une enquête menée par le quotidien la Croix l’an dernier. Ce qui ressort en premier, c’est l’expérience spirituelle forte. La moitié des nouveaux baptisés déclare avoir ressenti une présence, une paix ou une plénitude perçues comme surnaturelles, par exemple en rentrant dans une église ou en assistant à un rite religieux.

Viennent ensuite les épreuves de la vie (une rupture amoureuse, la perte d’un être cher, une cassure dans une trajectoire jusque-là bien tracée…) qui poussent à se questionner et à chercher une manière de surmonter la souffrance.

Le troisième facteur, qui est mentionné par un tiers des nouveaux baptisés, c’est le désir de donner un sens à l’existence : à quoi ça sert de vivre si ça finit par la mort, à quoi ça sert d’accumuler des richesses, pourquoi aller travailler, faire des enfants… ? Une société orientée vers des perspectives uniquement matérielles ne suffirait pas à répondre à ces questions, et, dans certains cas de figure, le spirituel et le religieux deviendraient des ressources.

« Baptême de jeunes adultes : ils choisissent de se convertir au catholicisme » (France 3 Hauts-de-France, avril 2025).

La transmission de la foi catholique se fait-elle aujourd’hui hors du cadre familial ?

C. M. : La réponse est nuancée, car une partie des catholiques continuent d’être baptisés enfants, et éduqués religieusement par leur famille. Mais oui, l’augmentation des conversions à la fin de l’adolescence ou à l’entrée dans l’âge adulte indique le passage d’une transmission verticale à une transmission plus horizontale. Dans l’ enquête de la Croix, les amis jouent un rôle dans presque 50 % des parcours de demande de baptême d’adultes, en parlant de leur foi, en prêtant une Bible, en invitant à assister à une messe, à un rassemblement spirituel ou à un groupe de prière.

Les conjoints sont évoqués par un petit tiers de l’échantillon. La mise en couple peut être le point de départ du rapprochement avec le catholicisme, dans la mesure où l’exogamie, c’est-à-dire le fait de se marier hors de son milieu d’origine, est de plus en plus fréquente, et favorise sans doute les couples mixtes sur le plan des convictions.

On le voit, la transmission se fait surtout entre pairs. Néanmoins, le cadre familial n’est pas complètement effacé, même s’il y a souvent un saut générationnel : les néo-catholiques convoquent plus souvent la figure de leurs grands-parents que celle de leurs parents. En entretien, ils parlent de la grand-mère qui les avait emmenés pendant les vacances à l’église, qui leur avait fait faire une prière ou qui leur apparaît tout simplement comme une figure de bonté et qui devient une sorte de modèle inspirant.

Dans le cas d’un nouveau baptisé sur cinq, le contact avec des influenceurs sur les réseaux sociaux aurait également compté.

Qui sont-ils, ces influenceurs catholiques ?

C. M. : Certaines figures se sont imposées, avec des centaines de milliers d’abonnés, comme le frère Paul-Adrien ou sœur Albertine, qui bénéficient d’une forme de légitimité liée à leur statut de religieux. Au deuxième plan, il y a des influenceurs qui ont moins d’abonnés, mais dont l’âge, entre 18 ans et 25 ans, peut créer un effet d’identification chez les jeunes adultes. Ils délivrent des conseils religieux – comment faire son carême – qui peuvent se mélanger avec des conseils bien-être ou même beauté – comment avoir un bon teint, etc. C’est un univers foisonnant, très dynamique sur Instagram et sur TikTok.

L’Église catholique reste-t-elle en retrait de ce phénomène numérique ou le soutient-elle ?

C. M. : L’Église est à la fois intéressée par le potentiel que cela représente et vigilante sur les dérives possibles. En juillet 2025, il y a eu le jubilé des influenceurs à Rome. Il y a tous les vingt-cinq ans ce qu’on appelle le jubilé, une « année sainte » durant laquelle les catholiques sont invités à faire une démarche de pèlerinage. Et, pour la première fois, un événement a été consacré aux influenceurs, avec l’idée qu’Internet peut être un moyen d’évangélisation, à condition de ne pas céder au narcissisme, à la mise en avant de soi ni à la polarisation.

Ces influenceurs sont souvent des électrons libres. Même pour ceux qui sont prêtres ou religieux, la hiérarchie catholique a parfois peu de prise sur le contenu qu’ils diffusent. Les influenceurs catholiques tirent leur légitimité de leur public et non d’un mandat, ce qui contribue à désinstitutionnaliser la communication de l’Église catholique.

« Les nouveaux apôtres sur les réseaux » (France 24, juillet 2025)

Qu’est-ce qui caractérise la pratique religieuse de ces jeunes par rapport à leurs aînés ?

C. M. : Chez ces jeunes arrivés dans l’Église catholique à l’âge adulte comme chez ceux qui ont grandi dans le catholicisme, on observe un certain retour en grâce de dévotions traditionnelles qui avaient été un peu marginalisées par les générations précédentes, comme le chapelet. Cette nouvelle génération se réapproprie des pratiques qui étaient vues comme vieillottes ou désuètes, tout en les adaptant parfois aux codes de la pop culture. On peut citer le Sacré-Cœur qui a fait l’objet d’un film et qui devient aussi un objet de déco, disponible dans des enseignes de grande distribution.

La tendance est aussi au retour d’une gestuelle plus codifiée, comme le fait de s’agenouiller à certains moments de la messe. C’est quelque chose qui avait plus ou moins disparu du catholicisme et qui revient avec les jeunes adultes. Peut-être que cela témoigne d’une plus grande sensibilité à la dimension transcendante et verticale de la religion.

Peut-être faut-il aussi y voir une demande de cadre qui permettrait de structurer son existence et favoriserait un sentiment d’appartenance. On peut prendre l’exemple du carême, qui n’a pas la dimension festive du ramadan, et consiste surtout, depuis le concile Vatican II (1962-1965), à mener un travail d’ascèse de manière individuelle et discrète. On sent que les jeunes catholiques, sans doute du fait de leurs contacts avec leurs amis musulmans, sont en demande d’instructions et de règles précises, mais aussi de moments communautaires.

Quel rapport ces nouveaux catholiques entretiennent-ils avec la figure du pape ?

C. M. : C’est une question à laquelle il n’est pas aisé de répondre… Je serais tenté de dire que le pontificat de François a opéré un déplacement de la figure du pape. Schématiquement, on pourrait dire que Benoît XVI et, plus encore, Jean-Paul II étaient des figures mobilisatrices en interne : leurs voyages et leurs apparitions créaient un fort effet de cohésion parmi les fidèles, notamment chez les jeunes, nés et élevés dans le catholicisme. C’est la dynamique des Journées mondiales de la jeunesse (JMJ) de Jean-Paul II, dont le magnétisme et le charisme déplaçaient et transportaient les foules catholiques.

François a fait un pas de côté : selon ses propres mots, il a voulu s’adresser à toutes les brebis qui étaient sorties de l’enclos de l’Église (ou qui n’y étaient jamais entrées) plutôt qu’au petit nombre qui y était installé. Il a adopté des positions sur l’immigration, l’écologie, la morale familiale qui ont pris à rebrousse-poil une partie de sa base, mais qui ont pu susciter de l’intérêt chez des personnes, et notamment des jeunes, qui étaient éloignées de l’univers catholique. Si bien qu’on peut dire que la figure du pape est devenue moins centrale pour les natifs du catholicisme, mais plus importante pour un certain nombre de néo-catholiques qui ont été touchés par la manière dont il a repositionné l’Église par rapport aux grands enjeux contemporains.

Il faudra voir si cette tendance se confirme avec Léon XIV, qui apparaît pour le moment comme quelqu’un de relativement discret et qui semble presque vouloir s’effacer derrière la fonction pontificale.

L’aspiration à des pratiques plus traditionnelles, évoquée plus haut, résume-t-elle les évolutions du catholicisme chez les jeunes ?

C. M. : Il y a une autre dynamique importante, qui est l’apparition d’un catholicisme de la diversité, liée à la fois à l’accroissement numérique des jeunes catholiques issus de l’immigration et à une augmentation de la religiosité dans les banlieues populaires. Des jeunes qui sont de culture catholique, mais dont la famille a cessé de pratiquer, s’intéressent, à travers le contact avec leurs voisins musulmans, à leur propre héritage religieux. Cette « émulation » contribue à complexifier la sociologie du catholicisme, longtemps vu comme bourgeois, blanc, conservateur. La visibilité de plus en plus grande de ces populations issues de la diversité contribue à renouveler les codes de la première religion de France.


Propos recueillis par Aurélie Djavadi.

The Conversation

Charles Mercier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

31.03.2026 à 17:07

Question de goût : les néandertaliens aimaient-ils vraiment les femmes « sapiens » ?

Ludovic Slimak, Archéologue et chercheur au CNRS, Auteurs historiques The Conversation France; Université de Toulouse
Un article récent paru dans « Science » a été largement lu comme s’il révélait une préférence des hommes néandertaliens pour les femmes sapiens. Mais qu’en est-il vraiment ?
Texte intégral (2986 mots)

Un article récent paru dans Science a été largement lu comme s’il révélait une préférence des hommes néandertaliens pour les femmes sapiens. Cette lecture, séduisante pour nos imaginaires contemporains, nous maintient dans une zone de confort où l’altérité se laisse encore penser dans les termes du désir et de l’attirance. Mais dès que l’on restitue les chromosomes à l’épaisseur des sociétés, en croisant génétique, archéologie et anthropologie culturelle, une autre image se dessine, plus dérangeante, qui touche à quelque chose de plus nu dans l’humain : des groupes structurés par des règles de circulation, des réciprocités inégales, des frontières, des alliances et peut-être des violences dont nous commençons à peine à mesurer la profondeur.


À lire les titres de presse, l’affaire semble entendue. El País annonce que les hommes néandertaliens « choisissaient » les femmes sapiens. Science évoque une « partner preference ». National Geographic imagine déjà les « Roméos de la préhistoire ». The Telegraph laisse entendre que les Néandertaliens « avaient des vues sur » les femmes sapiens.

En quelques heures, une analyse statistique est devenue un récit de désirs. La « vie sexuelle » de nos ancêtres était enfin à portée de clics. Le glissement n’a rien d’anodin. Il transforme une asymétrie de transmission génétique en récit d’affects, en attirances et en romances passées. On fabrique une scène où le Roméo néandertalien remporte le cœur de la Juliette sapiens. Le discours sur nos origines devient roman-photo.

Or, l’étude parue dans Science ne raconte rien de tel. Les auteurs interrogent un motif bien connu. Chez les humains modernes non africains, les traces d’ADN néandertalien ne sont pas réparties uniformément et sont plus fréquentes dans les chromosomes non sexuels que sur le chromosome X, qui en est fortement appauvri.

Pour expliquer ce contraste, les auteurs confrontent plusieurs hypothèses, sélection naturelle, biais démographiques liés au sexe ou préférence de partenaire. Leur conclusion reste prudente : une préférence de partenaire est un mécanisme parcimonieux possible, mais elle n’exclut ni des biais démographiques ni des scénarios plus complexes.

L’étude ne montre donc ni une attirance observée ni une préférence vécue. Elle propose quelque chose de beaucoup plus étroit : dans l’espace de modèles qu’elle teste, certains scénarios rendent plus plausible une asymétrie de type mâles néandertaliens/femelles sapiens. Dans un tel schéma, l’ADN néandertalien peut se transmettre largement dans les chromosomes ordinaires, tandis que le chromosome X néandertalien circule plus difficilement, puisqu’un père ne le transmet qu’à ses filles. Ce n’est pas rien. Mais ce n’est pas non plus l’observation directe d’une attirance entre populations, et montrer qu’un modèle statistique peut produire un motif génétique n’est pas prouver que ce modèle est historiquement vrai.

Ce que le chromosome X ne dit pas de la vie sociale

Dès que l’on passe des données génétiques à leurs implications historiques et sociales, les lectures deviennent fragiles. Les chromosomes ne transmettent pas la mémoire fidèle de la vie sociale de nos ancêtres. Le fait que l’ADN néandertalien soit rare sur le chromosome X ne permet pas, en soi, de reconstituer les organisations sociales du Paléolithique ni les préférences sexuelles de ces populations.

Lorsque deux groupes proches se croisent, les chromosomes sexuels ne se comportent pas comme les autres. Ils sont souvent plus sensibles aux incompatibilités et à la sélection naturelle. Prenons le cas d’un père néandertalien et d’une mère sapiens. Leur enfant reçoit bien de l’ADN néandertalien dans beaucoup de ses chromosomes. Mais le chromosome X du père ne passe pas aux garçons, seulement aux filles. Il circule donc moins facilement d’une génération à l’autre. De plus, dans les hybridations entre groupes proches, les mâles sont souvent les plus fragiles biologiquement, avec davantage de problèmes de survie ou de fertilité. C’est pourquoi les chromosomes sexuels, et en particulier le chromosome X, peuvent perdre plus vite l’ADN venu de l’autre groupe. Un appauvrissement du chromosome X en ADN néandertalien peut ainsi relever d’un phénomène biologique classique, et non du souvenir d’un choix amoureux.

Le signal observé aujourd’hui peut donc avoir plusieurs causes. Les auteurs eux-mêmes ne présentent pas la « préférence de partenaire » comme une preuve directe, mais comme l’explication la plus parcimonieuse dans leur modèle statistique. Ils précisent qu’elle n’exclut ni des biais démographiques liés au sexe, ni des scénarios plus complexes où sélection naturelle, migrations différenciées et asymétries sexuées auraient agi ensemble.

La génétique détecte des transmissions. Elle ne reconstitue pas une société. Elle ne dit ni si ces unions relevaient d’alliances, de captures, d’échanges asymétriques, de violence ou de choix, ni qui décidait, ni sous quelles contraintes circulaient femmes et hommes entre les groupes. Entre un patron chromosomique et une scène de vie, il manque encore tout un monde, celui des constructions sociales, des règles de résidence, des hiérarchies, des conflits et des asymétries entre collectifs.

Les gènes, malgré tout leur pouvoir, ne parlent pas des amours passés. Ils parlent seulement de ce qui a survécu.

Ce qu’El Sidrón change dans la discussion

C’est ici que l’archéologie et l’anthropologie culturelle redeviennent décisives, car les gènes ne suffisent pas à reconstituer la scène sociale des rencontres entre Néandertal et Sapiens. Il faut alors quitter le seul article de Science pour revenir à d’autres données et tenter malgré tout d’accéder, indirectement, à la structure des groupes néandertaliens. Le site d’El Sidrón, dans le nord de l’Espagne, fournit à cet égard un point d’appui particulièrement fort.

Les auteurs de l’étude y ont identifié des ossements appartenant à au moins 12 néandertaliens. Le point le plus frappant concerne les adultes. Trois mâles portent la même lignée mitochondriale, alors que trois femelles présentent chacune une lignée différente. Or, l’ADN mitochondrial ne se transmet que par les mères. Les chercheurs en ont tiré une lecture simple et lourde d’implications : les hommes seraient restés dans leur groupe, tandis que les femmes auraient davantage circulé entre groupes. En d’autres termes, El Sidrón serait compatible avec un système patrilocal.

L’idée est décisive. Toute population humaine a besoin d’échanges avec l’extérieur pour se reproduire sur la durée. Dans de très nombreuses sociétés humaines, cette circulation passe d’abord par les femmes, qui quittent plus souvent leur groupe d’origine que les hommes. Plus généralement la dispersion féminine et le maintien des mâles dans leur groupe constituent aussi un schéma prédominant chez les grands singes. Voir apparaître chez Néandertal un signal compatible avec une plus forte mobilité féminine relève donc d’une tendance comportementale profonde, que l’on retrouve des primates aux sociétés humaines, et la mobilité féminine entre groupes est ici l’explication la plus plausible du motif observé. Pour une fois, nous disposons donc d’un point d’appui concret sur l’organisation sociale néandertalienne.

Et cette tendance profonde à la dispersion féminine change beaucoup de choses car dès lors tout un monde social devient pensable : échanges de femmes entre groupes, intégrations asymétriques, circulations réciproques ou non, alliances, captures, ou formes plus dures encore de relations intergroupes. À partir de là, la question n’est plus seulement de savoir quel chromosome a survécu, mais dans quel type de société ces transmissions ont eu lieu. Et cette seule possibilité suffit déjà à déplacer la lecture du papier de Science, car l’asymétrie génétique observée pourrait alors relever d’un monde social, encore inexploré, structuré par des règles de résidence, de circulation et d’échange.

« Néandertal, “Sapiens” : je t’aime, moi non plus »

Intégrer les contraintes de l’anthropologie culturelle aux lectures biomoléculaires permet d’autres basculements. En Belgique, le site de Goyet a livré les ossements de quatre néandertaliennes et de deux immatures. Les traces de découpe y sont nettes sur cinq d’entre eux. Le profil démographique de cet assemblage apparaît trop singulier pour relever d’une mortalité ordinaire. Les signatures isotopiques suggèrent une origine géographique non locale. Les auteurs avancent l’hypothèse d’un cannibalisme lié au conflit, une prédation ciblant les femelles des groupes voisins. Si cette interprétation est juste, elle dit quelque chose de brutal. Ici les relations entre groupes néandertaliens ne relevaient pas d’un monde sentimental mais de la capture, de la mise à mort et de la consommation de l’autre.

Les données peuvent effectivement être lues ainsi, mais ce dossier oblige aussi à la prudence. Le corpus est réduit. Les fouilles sont anciennes. Les données spatiales manquent. L’identité du groupe local prédateur n’est pas directement observée. Ici encore, les traces ne parlent pas d’une seule voix.

C’est alors qu’un renversement devient possible. Si l’on quitte un instant le seul regard biomoléculaire pour revenir au social, une société patrilocale change profondément le sens des corps. Les femmes viennent d’autres groupes, mais dans des mondes où la mobilité féminine est un schéma commun, des grands singes jusqu’aux sociétés humaines, l’interprétation de ce signal devient immédiatement plus subtile.

Le constat d’un cannibalisme affectant des femmes provenant de régions voisines peut donc se lire comme la simple prédation sur des étrangères. Mais il ne peut exclure une autre lecture, celle d’un traitement interne, ritualisé, de femmes venues d’ailleurs, mais désormais pleinement intégrées au groupe. La biologie et la génétique ne peuvent nous dire si un individu né ailleurs reste un étranger ou devient un membre plein et entier de mon propre monde social.

Retournons alors à l’étude de Science. C’est ici qu’il faut être très précis sur ce qu’elle démontre réellement. Le signal d’ascendance sapiens mobilisé par les auteurs renvoie à un épisode très ancien, autour de 250 000 ans. Leur démonstration ne repose donc pas sur l’observation directe du principal métissage qui a laissé sa trace chez les humains actuels. Elle suppose que le même mécanisme génétique aurait été encore à l’œuvre 200 000 ans plus tard, au moment des ultimes contacts entre Sapiens et Néandertal.

Si l’on considère la très forte tendance à la mobilité des femelles, un paradoxe apparaît et met profondément en tension l’extrapolation proposée par l’article de Science. Si des femmes sapiens entraient réellement et régulièrement dans des groupes néandertaliens, on s’attendrait à voir persister, chez les derniers néandertaliens, un signal génétique récent d’ascendance sapiens. Or, ce n’est pas ce que montrent les données disponibles. Chez les premiers Sapiens anciens d’Eurasie, l’héritage néandertalien est constant. En revanche, les génomes néandertaliens exploités jusqu’alors ne documentent aucun apport récent sapiens au sein des dernières populations néandertaliennes. Le flux génétique reconnu au moment des contacts fonctionne donc dans une seule direction, de Néandertal vers Sapiens.

Une autre hypothèse anthropologique devient alors pensable. Dans un monde patrilocal, la circulation des femmes ne règle pas seulement la reproduction mais structure les alliances entre groupes. Si l’échange cesse d’être réciproque, c’est toute la relation qui change. La formule est rude, mais elle dit bien ce paradoxe :

« Je prends ta sœur, mais je ne te donne pas la mienne. »

Il ne s’agit pas d’en faire une description mécanique de chaque croisement, mais cette formule nomme une structure possible : celle d’un rapport inégal entre ces humanités, voire d’une dissymétrie sociale durable entre groupes néandertaliens et sapiens. C’est ce lien entre flux génétique à sens unique, patrilocalité et non-réciprocité de l’échange qui m’avait conduit, dans Néandertal nu en 2022, à relever ce paradoxe singulier : « Néandertal, Sapiens, je t’aime, moi non plus. »

Replacé dans ce cadre, le sens des signatures moléculaires bascule. L’asymétrie ne se lit plus comme la trace fossile d’une préférence, mais comme l’un des effets possibles d’un rapport structurellement inégal entre populations humaines. Ajoute-t-on à cela le fait que les chromosomes sexuels éliminent plus vite certains apports génétiques, et le tableau change encore. Ce que l’on croyait lire comme un roman du désir pourrait bien relever, plus profondément, de structures sociales asymétriques.

Ce que les gènes ne savent pas des humains

Projeter sur la très longue histoire de l’humanité nos récits de désir, de goût et de préférence nous permet de rester dans notre zone de confort. Mais la confrontation à l’altérité est toujours plus rude. Nos valeurs n’ont aucune universalité spontanée. Elles ne peuvent servir de socle pour penser les mondes disparus. Les rencontres entre Néandertal et Sapiens ne se laissent réduire ni à des amours passées ni à des guerres simplement transposées depuis nos imaginaires modernes. Ce que les chercheurs tentent d’approcher, ce sont des structures sociales, des formes d’échange, des frontières entre groupes, la qualité des alliances, des manières de faire monde.

Pour cela, aligner des chromosomes ou des isotopes ne suffit pas. La paléoanthropologie doit retrouver son sens plein. Elle n’est pas seulement science des os mais étude éthologique, culturelle et sociale des sociétés humaines du passé.

La difficulté n’est donc pas de choisir entre des disciplines certaines et d’autres fragiles, mais d’apprendre à faire dialoguer des champs de savoir qui travaillent tous, chacun à leur manière, sur des traces incomplètes.

La vraie leçon est peut-être là. Les chromosomes ne nous racontent pas une petite histoire d’amour entre populations. Ils ouvrent vers des questions bien plus vastes. Qui entre dans le groupe. À quelles conditions. Selon quelles règles de circulation. Sous quelle réciprocité ou non-réciprocité. Avec quelle violence, parfois. Et surtout avec quelle transformation du statut des personnes.

Le corps, sa peau, ses os, ses gènes, ses isotopes, ne nous diront jamais rien de la réalité de l’individu dans un corps social. L’humain est cette créature qui n’est pas réductible à sa matière.

Chez les humains, l’étranger ne naît que du regard qui l’exclut.

Alors oui, la question est bien une question de goût. Mais pas forcément au sens où l’ont entendu les grands médias. Ce que les journaux ont transformé en affaire de préférence sentimentale pourrait bien relever, en réalité, de quelque chose de beaucoup plus profond et, parfois, dans certaines formes de cannibalisme, de beaucoup plus littéral…


Les illustrations de cet article sont extraites de la bande dessinée Néandertal nu, de Frédéric Bihel et Ludovic Slimak, publiée chez Odile Jacob, 2026.

The Conversation

Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

31.03.2026 à 15:35

Introducing a new citizen science nature app that’s geared towards the scientific community

Pierre Bonnet, Chercheur en Botanique et Informatique appliqué à la biodiversité, Cirad
Alexis Joly, Docteur en informatique, Inria
Pl@ntNet, the “shazam” for plants is a well-known app among the hiking community and nature enthusiasts, but not many know that it’s a precious resource for scientists.
Texte intégral (2864 mots)
PlantNet is the brainchild of a consortium composed of four French research organisations (CIRAD, Inria, INRAE and IRD) and the Agropolis Foundation. It has recorded over 80,000 plant species and registers, on average, 100,000-700,000 new users per day and is available in 54 languages. Plantnet.org, Fourni par l'auteur

Identifying weeds, checking out the pollen map, or discovering new plant life-forms are among the promising wealth of data available to users of PlantNet – a “Shazam!” for plants. Pierre Bonnet and computer scientist Alexis Joly introduced us to the digitally enhanced plant recognition application they developed.


The Conversation: What can you tell us about PlantNet users?

Pierre Bonnet and Alexis Joly: An impact study carried out a few years ago identified that 12% of users used the app for work, either for research, land management, farming or teaching purposes. The large majority of users use PlantNet out of curiosity or personal interest.

Looking at who and where PlantNet users are based reflects the way technology is used in different parts of the world. In Asia, we have quite a few young users, because they are the most connected. We can also observe that the Chinese flora, which is nevertheless very rich, is poorly represented by the users of the application, and this is explained in particular by the fact that non-state or non-Chinese platforms, which are not carried by Chinese companies or partners, are much less present on this market.

Tropical parts of the world are very biodiversity-rich, is PlantNet particularly big there?

P.B. and A.J.: Brazil is in eighth place with just over 600,000 annual users. Indonesia and India are in the top 20. Currently, the bulk of PlantNet’s activity is still in Europe and North America. Several things explain this. PlantNet has already been launched in France and in Europe, and has therefore been further promoted and attracted media attention in this region of the world. Backed by user demand, the application was also initially adapted to the French and Mediterranean flora before it was gradually extended to include other European flora, then North American, and tropical.

It should also be taken into account that in tropical areas, species richness is certainly far greater, but access capacities are often more limited. The road network is less developed; 3G connectivity can be poor, particularly in forested mountain areas.

In the field, plant biodiversity can also be more complex to photograph, take for example, the many tropical plants that are epiphytic that is to say, that grow on another plant, especially at canopy level. When we talk about trees that are several tens of metres high, it immediately becomes more complex to photograph.

All this makes tropical plants and flowers considerably less known. The application covers almost 100% of European flora, compared with coverage of a few tens of percent for tropical countries. This is something that is not unique to PlantNet, and generally applies to all institutional databases, especially since covering tropical areas costs more.

But despite this, we are working with partners in Costa Rica, Guyana, Brazil, Cameroon, Madagascar and Malaysia, in particular to extend our coverage of the number of species.

In the tropics or elsewhere, what can be noted about the plants that users are looking to identify? Are the most common plants the most in demand or not necessarily?

P.B. and A.J.: There is necessarily a correlation, because very rare plants are necessarily rarely observed. But we also note that certain plants are very common, but of little interest, because they are “discreet”. These can be crop weeds, plants found by the roadside but which do not have noticeable flowers, which are pollinated by the wind with slender, greenish flowers, such as species of fescue (Festuca spp.), or bromes (Bromus spp.). They are less observed because they are actually less attractive. We can also note that tree searches are popular, whereas certain herbaceous or epiphytic plants tend to be extremely rare.

People actually often observe plants that they like, or plants that seem useful to them. Incidentally, we get a lot of requests about fruits, berries, and plums, probably because people want to know if they are edible or not.

But the goal of tracking useful plants for humans was not the main objective of the PlantNet project from the get-go. We had to adapt it, however, to meet expectations in terms of this type of use while remaining fairly moderate regarding the volume of information we provide.

At the same time, we are working more and more with people who study animal health, either in human health and who use the PlantNet service or data for their own work. Like for instance, people who worked for ToxiPlant which identifies plants that are toxic for horses. We also regularly consult doctors on different uses of PlantNet for identifying allergenic plants, especially those that cause skin allergies. We also liaise with the French regional agency for monitoring air quality ATMO Occitanie, which uses shared data on flowering plants listed through PlantNet that it integrates into its air quality estimation models indicating pollen counts.

Are there certain plants that would benefit from being photographed more?

P.B. and A.J.: Yes. There are plants that interest us, or our partners, but for which we have very little data. These include allergenic plants for respiratory allergies, such as male junipers, which release pollen when their cones open.

These cones are very discreet. Junipers are therefore photographed, but rarely with illustrations that show the development stage of the cones. Seeing as they cause allergies, some of our partners would like to collect more data on the subject. We hope to remedy this through animation features, either directly through the platform or through social media, to generate interest in collecting data on this type of plant or on rare, endangered plants or plants that have conservation issues, such as Marsilea strigosa Willd. and Arenaria provincialis Chater & P. Halliday (native to the South-eastern France).

We also have the case of certain plants that interest us for agriculture, weeds, for example, which we have barely identified at the stage of young shoots, such as ‘Imperatacylindrica_ (L.) Raeusch. or that Galium aparine L.

Your application encourages users to take several different pictures. This can be photos of flowers, leaves, fruits, bark, or of the entire plant, for example, to help them identify plants. What type of data do you have the most of?

P.B. and A.J.: Data on flowers, especially in their blooming seasons – during spring and early summer. Flowers attract interest and trigger observation. They are also the most effective visually, and have typically been used a lot by botanists in the past.

On PlantNet, after flowers, we notice a decreasing degree of performance for fruit, leaves, and then twigs and bark, which are sometimes more difficult to take pictures of, even if users are always encouraged to combine several criteria (flower and fruit, flower and leaf…) each time to maximise their chance of correctly identifying a plant.

What happens when PlantNet can’t match a photograph with an existing species?

P.B. and A.J.: Troubleshooting “no results found” is still a tricky business for all forms of AI, and PlantNet is no exception. Some species are very poorly represented, and it is very difficult to teach the model behind the app to differentiate between something that is very rare in the learning database and something that we do not have at all. We therefore seek to quantify the uncertainty, rather than decide when the model is uncertain or not. We are working with our team on creating confidence intervals. That is why, in some cases, the application will provide several species.

One thing that makes this work difficult is that new species often resemble existing species. A new species is thought to be very picturesque, but it isn’t always the case, hence the confusion.

There is also the issue of hybrid, ornamental plants. You will always come across new plant creations. We cover them, but not as well as other plants, even though we are trying to overcome this difficulty.

We also set out to simply identify more and more plants. Today PlantNet covers 85,000 species out of an estimated 400,000, with 2,000 new species being discovered each year. These discoveries are made by taxonomists worldwide and via the World Flora Online network, which brings together several dozen universities, herbaria and botanical gardens, which PlantNet joined in 2025.

Working closely with these networks will enable us to improve cases where PlantNet performs poorly, particularly when new species emerge thanks to the research carried out by the taxonomists, who actually further knowledge by dividing what was previously thought as a single species, but which represents, in fact, several of them or, conversely, by grouping together what were thought to be different species, but which turns out in reality to be only one plant.

Let’s come back to the 10% of users who use PlantNet for work. Who are they? What line of work are they in?

P.B. and A.J.: PlantNet’s data is very useful for building species distribution models predicting where a given species is commonly found. There are certainly biases in our data, depending on where people do and don’t go, but they can help us to gain a better understanding of the factors that influence these distributions, including climate change. This provides answers to questions like, “will species change habitats or stay put?” or “what is the human impact on species distribution?” Many ecologists download the PlantNet data and couple it with other data for species distribution modelling.

PlantNet data can also help in the detection of invasive species that are often notable for their size, density, visual appearance, or novelty, such as Carpobrotus edulis (L.) N.E.Br or Mirabilis jalapa L. We are working on this subject with the French Biodiversity Office, which is interested in using plant monitoring cameras to detect the presence of invasive plants, in order to contain their expansion within the areas where they are found.

We have an ongoing project that focuses on improving the classification of species that are present in farming environments and recognition of plant pathogens whether they are viruses, bacteria, fungi…

Have you discovered any unusual uses of the app that have surprised you?

P.B. and A.J.: Perhaps the most surprising was a Dutch museum which used PlantNet to identify plants featured in the paintings it had on display.

Other surprises have included people using PlantNet to identify a tattoo of a plant, or a plant-inspired pattern of an oilcloth… along with other more fun uses of the app like on the Explorama or Geo Quest apps which use our automated identification service.

PlantNet supports the diversity of possible uses, not by trying to integrate them, but rather by sharing its plant-identifying services. We have more than 20,000 accounts that have incorporated PlantNet’s service into their own mobile or web application, or in their data processing workflow.

And what other uses for PlantNet could be developed?

P.B. and A.J.: We have processed just over 1.3 billion plant ID requests. Among this data, there is a lot of material for characterising environments and species… However, the data is still difficult to use due to its sheer volume. These photos most probably contain new species and data on species that do not exist elsewhere. Photos users have posted provide potentially interesting information about the associated communities (not just in the foreground, i.e.; the plant photographed, but in the background) and about plants’ surrounding environments. While it’s not what the photo primarily sets out to do, it does offer potentially very interesting data on plant associations, that for the moment, remain untapped.

Little use has been made of our data to study the impact of current, fairly fast-moving climate change. PlantNet has, in this respect, collected extensive data over the last five to ten years that could allow us to gain greater understanding on how plants react to such swift environmental changes. From one year to the next, there may be a lot of variability, but for now, it is difficult to measure this impact.

What can PlantNet users do to help further research going forward?

P.B. and A.J.: Creating a user profile significantly increases the benefits for research. By creating an account, people agree to terms of use and facilitate re-exploitation for research. The more qualitative the data is, the more relevant it is to research activities. Geolocation is, for example, very valuable to us. It is also beneficial for users with a potentially higher level of determination.

We encourage researchers around the world to feel free to explore the full potential of PlantNet, whether it be via our shared data or the services we offer.


Interview by Gabrielle Maréchaux, Environment Journalist at The Conversation France.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Pierre Bonnet a reçu des financementsde la commission européenne (projets HORIZON GUARDEN - 101060693 et MAMBO - 101060639) ainsi que de l'agence nationale de la recherche (PEPR AgroEcoNum - 22-PEAE-0009).

Alexis Joly a reçu des financements de la commission européenne (projets HORIZON GUARDEN et MAMBO) ainsi que de l'agence nationale de la recherche (PEPR AgroEcoNum).

31.03.2026 à 14:03

Cinquante ans d’Apple : huit moments clés qui ont changé notre monde

Nick Dalton, Associate Professor in the School of Computer Science, Northumbria University, Newcastle
Pour les 50 ans de la marque à la pomme, retour sur quelques innovations d’Apple et de Steve Jobs qui ont profondément changé la relation entre humains et machines.
Texte intégral (2222 mots)
Une réplique de l'Apple I et son boîtier en bois de koa (exposée à Varsovie), l'ordinateur qui a lancé l'odyssée de la marque. Andrew Sozinov/Shutterstock

De la démocratisation de l’ordinateur personnel à l’invention de l’écosystème des applications, Apple a souvent imposé de nouvelles manières d’utiliser la technologie. Voici quelques-unes des innovations les plus marquantes de l’entreprise depuis un demi-siècle.


Au début des années 1970, l’idée qu’une personne ordinaire puisse posséder un ordinateur semblait absurde. À l’époque, les ordinateurs ressemblaient davantage à des porte-avions ou à des centrales nucléaires qu’à des appareils domestiques : d’immenses machines installées dans des centres de données, exploitées par des équipes de spécialistes au service de gouvernements, d'universités et de grandes entreprises.

Puis vint Apple.

Fondée le 1er avril 1976 par deux « décrocheurs universitaires », les fameux « college dropouts » Steve Jobs et Steve Wozniak, la start-up de la Silicon Valley n’a pas inventé l’informatique. Mais elle a sans doute accompli quelque chose de plus important : contribuer à transformer l’informatique en technologie personnelle.

Avant Apple, les ordinateurs étaient le plus souvent vendus sous forme de kits à assembler. Jobs a compris que les gens préféraient des machines déjà montées, prêtes à fonctionner. Les tout premiers Apple I, dotés de boîtiers en bois de koa fabriqués à la main, se vendent aujourd’hui aux enchères pour plusieurs centaines de milliers de dollars.

En tant qu’utilisateur précoce d’Apple et développeur d’applications, voici ma sélection personnelle des réalisations technologiques les plus marquantes de l’entreprise – et de Steve Jobs – au cours des 50 dernières années.

Apple II – beige et unique en son genre

Les premiers ordinateurs personnels relevaient davantage de la curiosité que de l’outil réellement utile. L’Apple II, lancé en juin 1977, introduisit quelque chose de nouveau : le style. Même sa couleur – beige ! – était originale, contrastant avec les boîtiers métalliques noirs courants à l’époque.

L’affichage en couleurs était nouveau et enthousiasmant, et le clavier offrait une sensation agréable à l’usage. Un simple haut-parleur, doté d’une sortie d’un seul bit, était ingénieusement exploité pour produire des tonalités et même des sons ressemblant à la parole. Le design était révolutionné jusqu’à l’emballage : Jerry Manock, premier designer salarié d'Apple, installa la machine dans un boîtier en plastique moulé à l’allure élégante et professionnelle.

La souris – une nouvelle manière d’interagir

En 1979, Steve Jobs, alors âgé de 24 ans et convaincu que le géant technologique IBM était en train de rattraper Apple, se mit en quête de la prochaine grande innovation. L’entreprise de photocopieurs Xerox, qui souhaitait obtenir des actions Apple avant même son entrée en bourse, lui proposa en échange une visite de ses laboratoires de recherche voisins. Jobs comprit alors que des chercheurs du centre de recherche de Xerox à Palo Alto, comme Alan Kay, étaient en train d’inventer la prochaine génération d’interfaces informatiques.

Au cœur de cette révolution se trouvait un dispositif mis au point au milieu des années 1960 par le mentor d'Alan Kay, Douglas Engelbart, à l’université Stanford, et surnommé « la souris ». La vision de Douglas Engelbart, qui voyait l’ordinateur comme une machine destinée à augmenter les capacités de l’esprit humain, inspira Alan Kay et ses collègues, qui conçurent des interfaces graphiques dans lesquelles les utilisateurs interagissaient avec des barres de défilement, des boutons, des menus et des fenêtres.

Macintosh – la naissance du lancement de produit moderne

Steve Jobs pensait que n’importe qui devait pouvoir utiliser un ordinateur. En janvier 1984, le premier Apple Mac poussa cette idée à un niveau inédit. Fini les commandes informatiques sibyllines et les manuels qui les accompagnaient. Les premiers utilisateurs, dont je faisais partie, avaient l’impression de savoir instinctivement comment tout faire.

Mais le lancement du Mac ne se résume pas à ce saut technologique. Il inspira aussi ce qui est devenu un moment culturel désormais ancré dans nos vies : le lancement de produit. Après une publicité aguicheuse diffusée lors du Super Bowl et réalisée par Ridley Scott, Steve Jobs mit en scène dans un théâtre de 1 500 places un lancement de produit centré sur un présentateur charismatique et seul en scène. Il sortit d’un sac un petit ordinateur carré – encore beige – alors appelé Macintosh, qui se mit à parler de lui-même sous les applaudissements enthousiastes de la salle.

Vidéo : MacEssentials.

Pixar – le projet parallèle de Jobs

Au cours de sa première décennie, Apple connut une croissance exceptionnelle – mais frôla aussi la faillite à plusieurs reprises. Des difficultés qui conduisirent l’entreprise à l’un des épisodes les plus spectaculaires de son histoire lorsque, en mai 1985, Apple força Jobs à quitter la société.

Un an plus tard, alors qu’il dirige la start-up NeXT Inc, Steve Jobs rachète une division de la société de production de George Lucas, qu’il rebaptise rapidement Pixar. Son logiciel RenderMan permettait de générer des images en répartissant les calculs entre plusieurs machines travaillant simultanément.

Pixar, souvent décrit avec humour comme le « projet parallèle » de Jobs, deviendra l’un des studios d’animation les plus influents – et les plus rentables – au monde, en produisant notamment le premier long métrage entièrement animé par ordinateur, Toy Story (1995).

La bande-annonce de Toy Story (1995)

IMac – la rencontre de deux visions

Après une tentative infructueuse de développer un nouveau système d’exploitation avec IBM, Apple finit par racheter la société NeXT de Steve Jobs. En septembre 1997, celui-ci revient alors comme PDG par intérim alors que l’entreprise se trouve, selon ses propres mots, à « deux mois de la faillite ». Si ce retour est salué par de nombreux utilisateurs d’Apple, il inquiète une partie des salariés. Jobs commence en effet rapidement à licencier du personnel et à fermer les produits jugés défaillants.

Au cours de cette restructuration, il visite le studio de design d’Apple et s’entend immédiatement avec un jeune designer britannique, Jony Ive. De cette rencontre naît en 1998 l’iMac translucide aux couleurs acidulées. Essentiellement des machines NeXT plus petites et moins chères, les iMac (le « i » signifiant Internet) inaugurent aussi une autre innovation d’Apple, aujourd'hui devenue une habitude : abandonner les technologies vieillissantes. Le lecteur de disquettes est supprimé au profit d’un lecteur de CD – un choix très critiqué à l’époque, mais largement imité par la suite.

Vidéo : TheAppleFanBoy – Archives Apple & Computer

IPod – 1 000 chansons dans votre poche

Pour Apple, l’informatique n’a jamais consisté uniquement à faire de l’informatique. En 2001, l’entreprise commence à s’intéresser au traitement du son et de la vidéo, et plus seulement du texte et des images. En novembre de la même année, elle lance l’iPod – un baladeur capable de stocker « 1 000 chansons dans votre poche », contre au maximum 20 à 30 par cassette sur un Walkman de Sony.

L’iPod se pilote grâce à une élégante « click wheel » permettant de naviguer à l’écran. La musique est synchronisée via une nouvelle application appelée iTunes. Dès 2005, les utilisateurs s’en servent aussi pour gérer des fichiers audio téléchargés automatiquement depuis Internet grâce à un système appelé RSS. C’est ce qui donnera le « pod » de podcast.

Vidéo : xaviertic.

IPhone – un ordinateur dans toutes les mains

En 2007, de nombreux fabricants de téléphones mobiles avaient approché Apple pour fusionner l’iPod avec leurs appareils. Steve Jobs choisit une autre voie. Le 9 janvier, il dévoile le produit le plus ambitieux jamais lancé par Apple : un appareil combinant téléphone, lecteur de musique et ordinateur Mac – le tout au format d’un simple combiné, sans clavier physique et doté d’un large écran.

La plupart des « experts » des médias, de TechCrunch au Guardian, prédisaient un échec. Steve Ballmer, alors PDG de Microsoft, se moquait du prix de 500 dollars, affirmant que personne n’achèterait un tel appareil. En réalité, 1,4 million d’iPhone furent vendus avant même la fin de l’année – et plus de 3 milliards depuis. Pour la première fois, un véritable ordinateur se retrouvait dans toutes les mains – ouvrant la voie aux réseaux sociaux tels que nous les connaissons aujourd’hui.

Vidéo : Histoire du Mac.

La révolution logicielle de l’App Store

À la mi-2008, l’iPhone offre à tous les développeurs la possibilité de créer une multitude vertigineuse de nouvelles applications. Dans le même temps, l’App Store – lancé le 10 juillet 2008 – résout l’un des problèmes les plus complexes : la distribution et la commercialisation de ces « apps ». Historiquement, les logiciels étaient souvent copiés et diffusés librement. L’App Store change la donne en utilisant un chiffrement robuste pour garantir que la copie achetée ne puisse être utilisée que par l’utilisateur concerné, réduisant ainsi le piratage.

En lançant le premier App Store au sens moderne du terme, Apple a transformé la manière dont les utilisateurs découvrent et achètent des logiciels. Cela déclenche une explosion du nombre d’applications et impose une idée simple mais puissante : quoi que vous souhaitiez faire, quelqu’un, quelque part, a déjà créé l’application pour le faire. Apple résume cette évolution dans un slogan devenu célèbre : « There’s an app for that » (« Il y a une application pour ça »).

À maintes reprises, cette entreprise hors norme a anticipé l’intérêt d’ouvrir l’informatique au plus grand nombre. Joyeux anniversaire, Apple !

The Conversation

Nick Dalton ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

31.03.2026 à 13:02

Red flags in the workplace: why whistleblowers are still few and far between

Wim Vandekerckhove, Professeur en éthique des affaires, EDHEC Business School
Are whistleblowing frameworks at the root of employee silence on legal, ethical or financial misconduct? A free tool for integrity professionals seeks to improve channels for encouraging employees to speak up.
Texte intégral (1488 mots)

Whether it’s the Mediator pharmaceutic scandal in France or the outcry over the Dieselgate emissions case that rocked Europe’s largest carmaker, when a scandal breaks, we often hear about one or two whistleblowers, but we are also left wondering why all those who knew said nothing as the disaster unfolded.

Why do most people remain silent when they see wrongdoing?

A recent study in corporate whistleblowing practices by Transparency International reveals that 15% of employees believe wrongdoing is taking place in their workplace. Two thirds of them say they share their concern with others. Most of the time with their direct manager.

During a team meeting they might ask whether they understood the process correctly, or they might ask a colleague whether what they are supposed to do is in line with company policy. At that point, they express a concern, but that doesn’t necessarily make them a whistleblower or at least they do not see themselves as a whistleblower.

Previous research indicates the most common response to this low level of sharing a concern is that the employee is ignored.

Being ignored is for most of us also why we don’t take a concern further. At this stage, we then tend to remain silent. Very few employees will raise their concern with higher management or through a dedicated whistleblowing channel.

Why the ‘silent majority’?

According to Navex], one of Europe’s market leaders in operating internal whistleblowing systems and software within firms, on average the number of employees reporting wrongdoing through an internal whistleblowing channel sits at 1.57 in 100 employees.

Now let’s appreciate how little this is with actual figures. Imagine a company of 200 employees, according to the study by Transparency International, among 30 employees who witness wrongdoing, 19 will express some doubt.

The Navex study suggests that when ignored, only 3 will report their concern through an internal whistleblowing channel.

Summing this up, if you have 200 employees and 30 of them see wrongdoing, 27 remain silent and only 3 speak up.

Speaking up largely depends on the type of wrongdoing: we are most likely to report wrongdoing that poses a threat to someone’s health or safety, and least likely to report wrongdoing that concerns a breach in company policy. But here is the catch: before someone’s life is in danger, we have already spent much time remaining silent on the slippery slope of company policy breaches. Our silence on “lesser wrongdoings” provides behavioural training that actually encourages silence on bigger misconduct we might witness.

A lack of trust in ‘the process’

What seems to hold us back is a perception that speaking up is risky. In the TI study, only 17% of employees said they felt confident that reporting wrongdoing to their employer would be acted upon and they would not suffer as a result of reporting their concern. This stands in contrast to the over-confidence observed among top management: 68% of employers in the survey believed that if someone reported wrongdoing through the organization’s whistleblowing channel, it would be acted upon by the organization and the whistleblower would remain unharmed. In other words, employees remain silent because they do not trust reporting channels.

What are the big truth-telling demotivators?

The TI study also gives insight into the barriers employees see. Fear of retaliation is the biggest barrier, with 32% of employees saying they feared losing their job if they reported a wrongdoing. The second highest barrier is also important, with 24% indicating they remained silent because they did not believe their report would make any difference.

Hence, employee silence is driven by fear and futility.

Since 2019, the EU whistleblowing directive requires that all organizations of more than 50 employees have an internal whistleblowing channel, and that they have the capacity to carry out a diligent follow up of reports that come through those channels.

Transpositions into national legislation across the European Union’s 27 Member States have been in place for a while. With enhanced protection measures and channel requirements, the aim of the EU Whistleblowing Directive was to create an environment for employees to raise their concerns safely and effectively.

A new tool for testing whistleblowing monitoring in the EU

The fact remains that among organizations there is a lot of room for improvement.

As part of the EDHEC Business school’s European Commission backed BRIGHT project - Building Resilience through Integrity, Good Governance, and Honesty Training, a free online Speak-Up Self Assessment tool (SUSA) was developed for integrity professionals across Europe to self-assess the speak-up culture and whistleblowing systems in their organizations.

The tool is designed to provide feedback on how firms such as France’s EDF group for example, align with the EU requirements, the ISO37002:2021 standard, and the guidelines from the International Chamber of Commerce (ICC).

What is the future of speak up culture?

SUSA data indicates that whistleblowing channels exist but are too often of poor quality. Whilst most organizations seem to hope for a quick fix, what is really needed is a continuous management effort to build and strengthen speak-up cultures.

We should not rest on our laurels in the hope that the silence of the old generation is on its way out, making way for the voice of the new generation. On the contrary, a study by Protect, the UK’s leading charity that supports and advises whistleblowers, shows that Gen Z is even more silent that the Baby Boomers.

Their recent study found that young workers (18-24 years old) are less likely to speak up than any other age group, regardless of the type of wrongdoing. The silent majority facing barriers of fear and futility seems to be growing, and that should be a cause for concern.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Wim Vandekerckhove was the coordinator for EDHEC Business School of the BRIGHT project, funded by the European Commission.

31.03.2026 à 12:16

Dormir une heure de moins : les effets du changement d’heure sur la vigilance, l’humeur et le bien-être psychologique

Oliver Serrano León, Director y profesor del Máster de Psicología General Sanitaria, Universidad Europea
Le passage à l’heure d’été peut avoir des répercussions temporaires sur le sommeil, la concentration, l’humeur et le bien-être psychologique. Mais rien d’alarmant dans la plupart des cas.
Texte intégral (1672 mots)

Le week-end dernier, nous sommes passés à l’heure d’été. Des données scientifiques montrent pourtant que le fait d’avancer l’heure peut avoir des répercussions sur le sommeil, la concentration, l’humeur et le bien-être psychologique pendant plusieurs jours. Mais, dans la plupart des cas et en l’absence de troubles liés à la santé mentale, ces désagréments sont temporaires et ne sont pas des signaux alarmants.


Ce dimanche 29 mars, une scène familière s’est répétée : le calendrier officiel a marqué le début de l’heure légale d’été. En Espagne, concrètement, l’heure est avancée d’une heure simultanément sur tout le territoire, bien que l’heure officielle diffère entre la péninsule et les Canaries, comme le prévoit le décret royal régissant le changement d’heure.

(Le changement d’heure a été instauré en France à la suite du choc pétrolier de 1973-1974. Les dates de passage à l’heure d’été puis d’hiver sont désormais harmonisées dans tous les pays membres de l’Union européenne, ndlr).

Sur le papier, cela semble être un ajustement mineur. Mais pour le cerveau, ce n’est pas toujours le cas.

Ce n’est pas seulement une mauvaise soirée à passer

Du point de vue de la psychologie, ce qui importe, ce n’est pas tant l’heure « perdue » que le décalage qui se produit entre le temps social et le temps biologique. Notre organisme fonctionne selon des rythmes circadiens, c’est-à-dire des oscillations internes qui régulent le sommeil, l’éveil, la température corporelle, l’appétit et une grande partie de la régulation émotionnelle. Quand l’heure officielle est avancée d’un coup, le corps n’accompagne pas toujours ce changement selon le même rythme. C’est la raison pour laquelle de nombreuses personnes ressentent pendant quelques jours une sensation semblable à un petit [« jet lag social »] : elles rencontrent des difficultés pour s’endormir, se lever et être performantes comme si rien ne s’était passé.

Une des erreurs les plus courantes consiste à penser que le changement se résume à dormir une heure de moins le dimanche matin. Les données disponibles indiquent que la réalité est plus complexe. Une analyse récente de 27 études conclut que le passage à l’heure d’été est associé à des effets négatifs sur la durée et la qualité du sommeil, ainsi qu’à une somnolence diurne accrue.

Cet effet semble d’ailleurs plus marqué chez les personnes dites de chronotype vespéral, c’est-à-dire celles qui ont tendance à se coucher et à se lever plus tard. Il ne s’agit pas seulement de passer une mauvaise nuit : dans certains cas, l’adaptation peut prendre plusieurs jours.

Ce léger manque de sommeil a des conséquences psychologiques perceptibles. Le plus souvent, cela ne se manifeste pas comme un problème clinique majeur, mais plutôt comme une accumulation de « microdégradations » quotidiennes : davantage de moments d’inattention, une moindre concentration, plus de lenteur dans les processus mentaux, une tolérance réduite à la frustration et de l’irritabilité.

La littérature scientifique sur le sommeil, les rythmes circadiens et la santé mentale montre que les perturbations du repos et de la synchronisation circadienne affectent non seulement notre sommeil, mais aussi notre attention, nos fonctions cognitives et notre humeur. En d’autres termes : lorsque l’horloge biologique est déréglée, une partie de nos ressources psychologiques l’est également.

Attention, erreurs et fatigue : les effets les plus immédiats

Au printemps, le changement de saison a également été associé à une augmentation de la fatigue et à une baisse des performances dans les tâches qui exigent une vigilance soutenue. Ce n’est pas un hasard si dans certaines recherches, des effets ont été observés dans des contextes où une légère baisse de vigilance a des conséquences importantes.

Une étude publiée dans Current Biology a révélé que le passage à l’heure d’été était associé à une augmentation de 6 % du risque d’accidents de la route mortels aux États-Unis. Ce chiffre ne signifie pas que toutes les personnes vont moins bien conduire de manière notable. Mais cela renforce une idée fondamentale : même une perturbation apparemment modeste du sommeil peut avoir des effets réels sur l’attention et le temps de réaction.

Tout le monde n’est pas affecté de la même manière

Et le constat est le même que pour presque tous les phénomènes psychologiques : toute la population n’est pas affectée de la même manière. Les personnes qui ont l’habitude de se coucher tard, celles qui souffrent déjà d’un déficit de sommeil ou qui ont des horaires matinaux rigides ressentent généralement davantage ce décalage.

Les adolescents et adolescentes constituent également un groupe particulièrement sensible. Une étude sur le sommeil à cet âge après le passage à l’heure d’été a montré que cette adaptation peut nuire au repos et être associée à une baisse des capacités cognitives. Ces résultats ne sont pas surprenants. L’adolescence s’accompagne déjà d’une tendance biologique à repousser l’heure du coucher. Or le changement d’heure va exactement dans le sens contraire.

Le changement d’heure peut-il avoir une incidence sur l’humeur ?

Le changement d’heure peut-il également affecter l’humeur ? Oui, mais il convient de faire preuve de prudence. Il serait exagéré d’affirmer que le fait d’avancer l’horaire d’une heure « provoque » à lui seul des troubles psychologiques. Les données sont plus nuancées. Une étude bien connue menée au Danemark a par exemple observé une augmentation de 11 % des épisodes dépressifs unipolaires à l’automne après le changement d’heure, mais pas celui qui a lieu au printemps, (c’est-à-dire après le passage à l’heure d’été, ndlr). Plus récemment, une étude démographique menée en Angleterre n’a trouvé que peu de preuves d’un effet aigu du passage à l’heure d’été sur les événements liés à la santé mentale enregistrés dans les services de santé.

Une interprétation raisonnable amène à ne pas être alarmiste : pour la plupart des gens, le changement d’heure ne posera pas de problème clinique, mais il peut temporairement affecter l’humeur, le niveau d’énergie et la régulation émotionnelle, surtout si une vulnérabilité préexistante était déjà présente.

Cette prudence s’accorde bien à ce que l’on sait sur le lien entre rythmes biologiques et santé mentale. Des études récentes indiquent que, chez les personnes souffrant de troubles de l’humeur, les perturbations de la phase circadienne peuvent précéder les symptômes liés à des troubles de l’humeur. Cela ne signifie pas que le changement d’heure soit la seule cause, mais cela aide à comprendre pourquoi un ajustement apparemment insignifiant peut être plus perceptible chez certaines personnes que chez d’autres.

Comment amortir l’impact

La meilleure façon d’aborder le changement d’heure réside dans le fait de ne pas en faire tout un drame, sans pour autant l’ignorer. Les recherches sur l’adaptation circadienne rappellent que la lumière du matin est l’un des signaux les plus puissants pour avancer l’horloge biologique et que la lumière du soir a tendance à la retarder.

C’est pourquoi il est utile de s’exposer à la lumière naturelle le matin, d’éviter toute stimulation lumineuse intense le soir et de veiller tout particulièrement à bien se reposer les jours précédents et suivants le changement d’heure. Il peut également être utile d’avancer progressivement l’heure du coucher de 15 à 20 minutes les jours précédents, plutôt que d’attendre que le corps se réadapte tout seul d’un jour à l’autre.

In fine, le changement d’heure sert de rappel, certes gênant mais utile : l’esprit ne fonctionne pas indépendamment du sommeil, de la lumière ou des rythmes biologiques. Une heure peut sembler insignifiante, mais lorsque ces soixante minutes se traduisent par un sommeil de moins bonne qualité, davantage de fatigue, une baisse de la concentration et une irritabilité accrue, cela dépasse le simple réglage de l’horloge et devient également une question de bien-être psychologique.

The Conversation

Oliver Serrano León ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2026 à 16:42

Les Mayas : des mathématiciens qui lisaient l’avenir dans les étoiles ?

Noémie Combe, Enseignante-chercheuse en mathématiques fondamentales à l'ESILV, Pôle Léonard de Vinci
Mille ans avant l’Europe, les Mayas résolvaient déjà des équations complexes. Armés du seul regard et d’une patience infinie, ils scrutaient le ciel et prédisaient avec précision les éclipses et les trajectoires des planètes.
Texte intégral (2154 mots)
La pyramide El Castillo à Chichén Itzá, au Mexique actuel. Lors des équinoxes, les ombres sur la pyramides semblent guider le dieu serpent vers le sommet. Noémie Combe, Fourni par l'auteur

Mille ans avant l’Europe, les Mayas résolvaient déjà des équations complexes. Armés du seul regard et d’une patience infinie, ils scrutaient le ciel et prédisaient avec précision les éclipses et les trajectoires des planètes.


Embarquons pour un voyage dans des temps reculés. Nous sommes sur les territoires des actuels Mexique, Guatemala, Bélize, Honduras et Salvador. C’est dans ce cadre luxuriant que les Mayas ont bâti un héritage extraordinaire : une astronomie stupéfiante, des mathématiques avancées, une architecture audacieuse et une écriture hiéroglyphique riche.

Ainsi, les cités mayas étaient orientées vers les astres. À Chichén Itzá (actuellement au Mexique), lors des équinoxes, les ombres sur la pyramide El Castillo semblent animer la progression du dieu serpent Kukulkan le long des marches – un phénomène comparable s’observe à El Tajín.

Chichén Itza et le serpent à l’équinoxe (Giulio Magli). Source : Polimi OpenKnowledge.

Les « codex », leurs traités astronomiques, sont un des rares témoignages survivants de ces savoirs. Le plus célèbre est le codex de Dresde. Son mystère est double : l’énigme de ses symboles – glyphes serrés, colonnes de chiffres, divinités codifiées – et celle de son destin.

Comment ce manuscrit du Yucatán a-t-il traversé l’Atlantique pour échouer dans une bibliothèque de Saxe ? La théorie dominante veut que l’Espagnol Hernán Cortés (1485-1547) l’ait envoyé en Europe après la conquête du Mexique, parmi les objets précieux offerts à la cour madrilène. Le manuscrit aurait circulé en Europe avant d’aboutir à Vienne, où, en 1739, le directeur de la bibliothèque royale de Dresde Johann Christian Götze le racheta à un propriétaire le jugeant « incompréhensible et sans valeur », ignorant qu’il tenait l’un des documents astronomiques les plus sophistiqués jamais produits. Götze le rapporta à Dresde, où il est toujours conservé aujourd’hui.

Mars et le secret derrière le nombre 78

Pour déchiffrer les symboles du codex, un détour s’impose. Les Mayas comptaient en base 20 : un point valait une unité, une barre cinq unités, et un coquillage représentait le zéro – concept que l’Europe n’adoptera qu’au XIᵉ siècle.

une page du codex, avec des symboles et un dessin
Extrait du « codex de Dresde », à lire de gauche à droite. Le personnage au nez ornementé, suspendu à droite, est le dieu maya de Mars – la « bête de Mars ». Sa présence confirme que tous les calculs de cette page concernent Mars et ses cycles. Codex de Dresde, Princeton University Library

Sur la page du codex de Dresde concernent Mars et ses cycles se trouve une suite de nombres : 78, 156, 234, 312, 390, 780. Chaque terme est un multiple de 78. On observe par ailleurs que cette suite est presque une suite arithmétique (une suite telle que la différence entre deux termes consécutifs doit être égale à une constante), mais le dernier terme déroge : il vaut 10 × 78 (au lieu de 6 × 78).

Le 78 correspond à un dixième de la « période synodique » de Mars, c’est-à-dire le temps pour retrouver la même position dans le ciel, vue depuis la Terre, soit 780 jours. Les Mayas l’avaient calculée avec une précision remarquable : 780 jours contre 779,94 jours aujourd’hui. Les cinq premiers termes balisent les étapes intermédiaires, et le dernier marque le cycle complet.

Le zodiaque maya comptait 13 constellations le long de l’écliptique, et Mars met 260 jours (13 × 20) pour le parcourir. Trois traversées complètes du zodiaque maya correspondent exactement à 780 jours. Cette durée de 260 jours correspond aussi au Tzolk’in, le calendrier rituel maya, ce qui permet d’aligner parfaitement le rythme de Mars et le calendrier. Ainsi, la suite de nombres sur le codex formait une table de navigation céleste.

Les éclipses lunaires

Une autre page du codex présente une nouvelle suite de nombres : 9 360, 9 537, 9 714, 9 891, 10 039. Jusqu’à 9 891, chaque valeur augmente de 177 jours (9 183 + 177 = 9 360, 9 360 + 177 = 9 537, 9 537 + 177 = 9 714, 9 714 + 177 = 9 891). Mais ici encore, le dernier terme rompt le schéma : 10 039 = 9 891 + 148, révélant un second cycle.

symboles et dessins du codex
Extrait du « codex de Dresde », à lire de gauche à droite, qui révèlent les connaissances sur les périodes des éclipses lunaires. Codex de Dresde, Princeton University Library

Ceci n’est pas une erreur : si la période synodique de la Lune est de 29,5 jours environ, toutes les pleines lunes ne donnent pas lieu à une éclipse. L’intervalle entre deux éclipses consécutives correspond à 5 ou 6 lunaisons (soit 148 ou 177 jours).

En effet, l’orbite de la Lune est inclinée d’environ 5° : les éclipses ne se produisent qu’au voisinage d’un nœud orbital. Le Soleil y passe tous les 173,31 jours (la saison d’éclipses), et il s’écoule nécessairement 5 ou 6 lunaisons entières entre deux éclipses.

Les Mayas avaient calculé la période synodique de la Lune à 29,53 jours, à quelques secondes de la mesure moderne. Certains multiples coïncidaient avec les saisons d’éclipses, leur permettant de les anticiper.

schéma terre, lune, soleil
Schéma expliquant pourquoi toutes les pleines Lunes ne résultent pas en éclipses. Noémie Combe, Fourni par l'auteur

Le système mathématique des Mayas

La sophistication mathématique des Mayas transparaît jusque dans leur quotidien. Ils pratiquaient instinctivement ce que l’on appelle aujourd’hui l’arithmétique modulaire. Le principe en est simple : plutôt que de considérer la valeur d’un nombre, l’arithmétique modulaire s’intéresse uniquement au reste qu’il laisse après division par un nombre de référence – le modulo (ici, modulo 20). Les Mayas, sans jamais employer ce vocabulaire, appliquaient précisément cette logique, et ce, bien avant que le mathématicien allemand Carl Friedrich Gauss (1777-1855) n’en pose les bases formelles au tournant du XIXᵉ siècle. Aujourd’hui, on trouve un écho de ce genre de mathématiques dans des domaines aussi contemporains que la cryptographie et la sécurité informatique.

En langage moderne, ces calculs s’interprètent comme des opérations dans l’anneau ℤ/20ℤ. Cette notion d’anneau est l’une des pierres angulaires des mathématiques contemporaines, au cœur de l’algèbre abstraite de la fin du XIXᵉ siècle. Parmi ses fondateurs figure le mathématicien Richard Dedekind (1831–1916).

Les pages du codex recèlent encore bien des zones d’ombre et de mystère. Qui sait quels secrets dorment encore dans les colonnes de glyphes du codex, attendant d’être dévoilés ?

The Conversation

Noémie Combe ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2026 à 16:41

Les éjaculations fréquentes amélioreraient la qualité du sperme, selon une nouvelle étude

Rebecca Dean, Research Fellow, Department of Biology, University of Oxford
Irem Sepil, Lecturer in Evolutionary Biology, University of Oxford
Krish Sanghvi, PhD Candidate, Department of Biology, University of Oxford
De nouvelles recherches suggèrent que plus les spermatozoïdes restent longtemps dans l’organisme avant l'éjaculation, plus leur qualité diminue.
Texte intégral (1501 mots)

On savait que la qualité du sperme déclinait avec les années. De nouveaux travaux révèlent que les spermatozoïdes s’altèrent également durant les périodes d’abstinence, ce qui pourrait avoir des conséquences en matière de fertilité.


En matière de reproduction, la biologie féminine est souvent vue comme un implacable compte à rebours. Les femmes naissent en effet avec une réserve d’ovocytes qui durera leur vie entière. Cela signifie que l’âge d’une femme et celui de ses ovocytes coïncident généralement. Autrement dit, plus une femme avance en âge, plus ses ovocytes vieillissent.

La reproduction masculine est régie, quant à elle, par des mécanismes différents. Les spermatozoïdes sont produits de manière continue à partir de la puberté, et peuvent être stockés dans les voies génitales avant l’éjaculation. En d’autres termes, l’âge d’un homme et celui de ses spermatozoïdes ne sont pas forcément les mêmes. Mais qu’advient-il des gamètes mâles durant cette période d’attente ?

Les hommes souhaitant procréer se voient fréquemment conseiller d’observer une période d’abstinence sexuelle de quelques jours avant d’avoir une relation sexuelle, afin de permettre une augmentation de la concentration en spermatozoïdes de leur éjaculat. S’il est avéré que l’abstinence accroît la numération spermatique, le volume éjaculé n’est pas l’unique facteur déterminant le degré de fertilité.

Les résultats de notre nouvelle étude démontrent que chez l’être humain (ainsi que chez d’autres espèces animales), les spermatozoïdes qui sont stockés durant les périodes d’abstinence subissent un processus de « sénescence » et voient en réalité leur qualité s’altérer.

Nous savions déjà que la fertilité masculine décline avec l’âge. Déterminer si la durée de stockage des spermatozoïdes contribue à ce déclin est d’autant plus opportun à notre époque que l’activité sexuelle semble en recul, en particulier chez les jeunes. Conjuguée à la tendance mondiale au report de la parentalité, cette évolution pourrait accroître encore la baisse de la fécondité observée à l’échelle du globe.

Stress et épuisement

Dans le cadre de nos travaux, nous avons compilé les données portant sur la semence de près de 55 000 hommes ayant participé à 115 études publiées dans des revues scientifiques. Nos analyses indiquent que lorsqu’un homme s’abstient d’éjaculer, la santé de ses spermatozoïdes décline de manière significative. Leur capacité de déplacement (mobilité spermatique) et leur viabilité s’amenuisent, tandis que leur ADN subit davantage de lésions.

Nous avons identifié deux causes probables à ces phénomènes. La première est le stress oxydatif (que l’on peut schématiquement considérer comme une sorte de « rouille » biologique) qui s’accumule dans les spermatozoïdes et peut les endommager. La seconde est l’épuisement énergétique : à l’inverse de la plupart des cellules, les spermatozoïdes sont extrêmement actifs, mais n’ont qu’une capacité limitée à reconstituer leurs réserves d’énergie. En cas de stockage prolongé, ils se retrouvent tout simplement à court de carburant…

Avant de fournir un échantillon de sperme destiné à être analysé, ou à être employé dans le cadre d’un traitement destiné à améliorer la fertilité ou une procédure de type FIV (fécondation in vitro), l’Organisation mondiale de la santé préconise une période d’abstinence allant de deux à sept jours. Cependant, nos travaux laissent entendre que des délais plus courts pourraient s’avérer préférables pour optimiser la qualité spermatique des échantillons.

Ces observations corroborent une découverte récente selon laquelle, dans le cadre d’une procédure de FIV, une éjaculation survenant moins de 48 heures avant le prélèvement améliore les résultats des traitements par rapport à des durées d’abstinence plus longues.

Elles sont également en ligne avec une hypothèse formulée par les biologistes évolutionnistes. Nous savons que chez les primates, la masturbation, qui entraîne des éjaculations fréquentes, améliore la qualité des éjaculats. Ce constat, mis en perspective avec nos propres résultats, suggère que la masturbation masculine pourrait présenter un avantage adaptatif : elle permettrait l’évacuation des spermatozoïdes stockés et altérés.

La détérioration du sperme ne se produit pas seulement lorsque celui-ci est stocké dans l’organisme masculin. Elle peut également survenir après l’accouplement, lors du stockage au sein des voies génitales féminines. Si les spermatozoïdes humains ne survivent que quelques jours chez la femme, dans d’autres espèces animales, telles que les fourmis, les abeilles ou les chauves-souris, le sperme peut être conservé dans le corps des femelles pendant plusieurs mois, voire plusieurs années, avant d’être employé pour fertiliser les œufs.

De la faune à l’humain : une constante biologique

Afin de vérifier si l’altération du sperme durant le stockage correspond à un schéma biologique universel, nous avons examiné les données de 56 études couvrant 30 espèces animales différentes, incluant des oiseaux, des abeilles, des reptiles et divers mammifères. Là encore, nous avons constaté que la qualité spermatique déclinait effectivement durant la phase de stockage. Les pères ayant stocké leur sperme avant l’éjaculation ou les mères l’ayant conservé avant la fertilisation ont produit des embryons dont les chances de survie étaient moindres.

Selon nous, ces résultats ne sont pas uniquement dus à la dégradation de l’ADN. Il se pourrait également que, par rapport aux spermatozoïdes fraîchement produits, les spermatozoïdes stockés présentent un profil d’expression génique différent (autrement dit, que les gènes qui sont activés chez eux soient dans une configuration différente).

Fait intéressant, le sperme s’altère à un rythme plus lent chez les femelles que chez les mâles. Cela pourrait s’expliquer par le fait que les femelles de diverses espèces qui stockent les spermatozoïdes ont développé des organes spécialisés qui sécrètent des antioxydants. Ces substances nourrissent et protègent les spermatozoïdes stockés, prolongeant ainsi leur durée de vie fonctionnelle.

En définitive, qu’il s’agisse des souris ou des humains, les spermatozoïdes, tout comme les ovocytes, possèdent une « date de péremption ». Lorsque leur stockage s’étire excessivement avant la fécondation, leur qualité périclite.

De nombreux troubles de la fertilité dépendent de facteurs qui échappent à notre contrôle. Ils peuvent être la conséquence de notre exposition à des polluants environnementaux, au stress, ou résulter de notre bagage génétique. La durée de stockage du sperme, en revanche, est un paramètre aisément modifiable. Nos travaux suggèrent qu’en perspective d’une fécondation, il pourrait être intéressant de privilégier des spermatozoïdes issus d’une éjaculation récente. Cette intervention simple, en optimisant la qualité séminale, pourrait offrir un gain substantiel en matière de fertilité.

The Conversation

Rebecca Dean bénéficie d'une bourse Daphne Jackson financée par le NERC.

Irem Sepil bénéficie d'un financement du BBSRC et de la Royal Society.

Krish Sanghvi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2026 à 16:40

Séparatisme, jihād, laïcité : la bataille des mots autour de l’islam de France

Ali Mostfa, Maître de conférences, HDR en sociologie du fait islamique, UCLy (Lyon Catholic University)
La Grande Mosquée de Paris revient sur le sens de certains mots, tels que séparatisme, jihād, laïcité. Un enjeu essentiel pour penser les relations de l’islam et de la République.
Texte intégral (2186 mots)

Dans un contexte où l’islam est régulièrement présenté comme un défi pour la cohésion nationale, la Grande Mosquée de Paris publie un guide, Musulmans en Occident. Pratique cultuelle immuable, présence adaptée, destiné à « adapter » la présence musulmane au cadre français. Son interprétation de termes, tels que séparatisme, jihād, laïcité, ou islamophobie, déplace la compréhension de ce qu’est – et n’est pas – l’islam. Par exemple, le guide réinscrit la laïcité dans une généalogie islamique, ou considère le « séparatisme » comme un phénomène extérieur à la doctrine.


La Grande Mosquée de Paris, par l’intermédiaire de la commission dite « religieuse » chargée de la rédaction du guide, propose une interprétation de certains termes centraux du débat sur l’islam de France à travers son guide Musulmans en Occident. Pratique cultuelle immuable, présence adaptée. Héritière d’une histoire d’institutionnalisation étroitement liée à l’État, la Grande Mosquée occupe une position d’interface : elle se présente comme partenaire des pouvoirs publics pour encadrer un islam compatible avec le cadre laïc et républicain.

Dans le même temps, elle se situe en tension, ou en compétition, avec d’autres pôles de représentation (fédérations, courants, instances nationales successives), ce qui relativise sa capacité à parler au nom de « l’islam de France ». Son entreprise de redéfinition est particulièrement intéressante concernant certains termes controversés tels que séparatisme, jihād, laïcité ou islamophobie.

Séparatisme

Lorsque le mot « séparatisme » est mobilisé dans le débat public, il renvoie à l’idée d’une contre-société islamiste menaçant la cohésion nationale. Dans le discours des Mureaux du 2 octobre 2020, Emmanuel Macron désigne un projet politico-religieux visant à soustraire certains groupes à la loi commune et à fragiliser l’unité républicaine. Le terme fonctionne comme une catégorie englobante : il relie radicalisation, influences étrangères, repli communautaire et menace sécuritaire dans une même matrice interprétative.

La Grande Mosquée ne conteste ni l’existence de phénomènes de repli ni la légitimité de l’État à intervenir. Mais elle soutient que la notion, telle qu’elle est mobilisée par les responsables politiques et les médias, ne possède pas d’équivalent doctrinal dans la tradition islamique classique. Les catégories médiévales parfois convoquées pour suggérer une logique intrinsèque de séparation, comme dār al-islām et dār al-ḥarb, sont replacées dans leur contexte historique et géopolitique.

En mobilisant des principes juridiques d’adaptation, comme la darūra (la nécessité) ou la recherche de la maṣlaḥa (l’intérêt commun), ainsi que des références scripturaires, notamment le verset 14 de la sourate 49 valorisant la pluralité des peuples, le guide défend une thèse claire : le repli séparatiste ne procède d’aucune obligation religieuse.

Le déplacement est décisif. Là où le discours politique tend à inscrire le « séparatisme » dans une problématique structurelle touchant à l’islamisme et, plus largement, à l’organisation du religieux, le guide en fait un phénomène contingent, extérieur à la doctrine. Sans nier le terme, il le circonscrit et en fait un problème social ou politique, à travers le concept de « citoyenneté musulmane » (muwāṭana), comprise comme l’affirmation de la compatibilité entre la pratique religieuse et l’adhésion aux valeurs démocratiques, tout en le privant de fondement théologique. Ce faisant, la Grande Mosquée ne s’oppose pas frontalement à l’action publique, elle en redéfinit les implications religieuses.

Jihād

Un mécanisme comparable apparaît à propos du « jihād », autre mot devenu central dans les représentations sécuritaires.

Dans l’espace médiatique, il est largement assimilé à la violence armée. Le guide propose une lecture appuyée sur des usages textuels et juridiques classiques : il rappelle d’abord l’étymologie (« effort, lutte ») et met au premier plan le combat intérieur contre ses propres faiblesses, souvent désigné dans la tradition comme « jihād majeur ». Le Coran qualifie d’ailleurs une fois le jihād de « grand » (Q 25:52). La dimension armée, qualifiée de « jihād mineur », n’est pas niée, mais strictement encadrée : défense contre une agression, protection des opprimés, respect de limites précises interdisant toute violence indiscriminée (Q 2:190). Cette approche n’efface pas l’histoire des usages violents du terme, elle en conteste la centralité doctrinale. Autrement dit, ce qui structure la perception publique, la violence, devient une dimension secondaire et conditionnelle, tandis que l’effort moral est présenté comme le cœur normatif du concept.

Dans cette perspective, la guerre n’est pas désignée par jihād dans le texte coranique, qui recourt plutôt à qitāl (« combat armé »), voire à ḥarb, pour désigner la guerre au sens strict. La conflictualité n’y apparaît toutefois jamais comme un horizon autonome : elle est pensée dans une tension normative avec les notions de paix et de réconciliation – ṣulḥ, ṣalāḥ ou iṣlāḥ – qui visent à restaurer l’ordre face au fasād (« désordre, corruption »).

En revanche, jihād a fait l’objet, tout au long de l’histoire de la pensée islamique, d’un investissement interprétatif soutenu, au point de devenir un lieu de controverses et un terrain de conflits d’interprétation.

Laïcité

Le guide reprend la définition juridique de référence de la laïcité – liberté de conscience, neutralité de l’État, loi de 1905 –, mais il la met en parallèle avec des versets coraniques et avec la Charte de Médine (622), présentée comme un précédent historique de coexistence entre communautés religieuses sous une autorité commune. Ce rapprochement ne vise pas seulement à démontrer une compatibilité formelle. Il tend à réinscrire la laïcité dans une généalogie islamique, en suggérant que le pluralisme relève aussi de ressources internes à la tradition.

À travers ce déplacement, les rédacteurs du glossaire reconfigurent le cadre d’évaluation. La laïcité ne fonctionne plus uniquement comme une norme externe à laquelle l’islam devrait se conformer, mais comme un principe pouvant être mis en correspondance avec des catégories internes à la tradition. Le rapport implicite d’asymétrie s’en trouve transformé : l’islam n’est plus seulement sommé de prouver sa compatibilité, il est présenté comme disposant déjà de ressources permettant de penser la coexistence dans un cadre politique commun.

Islamophobie

L’entrée « islamophobie » révèle une autre facette de cette entreprise. Le terme y est défini comme une forme de discrimination visant des personnes en raison de leur appartenance réelle ou supposée à l’islam, ancré dans le droit de la lutte contre les discriminations. Or, les pouvoirs publics privilégient souvent l’expression « actes antimusulmans », estimant que « islamophobie » peut brouiller la distinction entre critique d’une religion, protégée par la liberté d’expression, et haine envers des individus. Cette réserve contraste avec la reconnaissance du terme dans certaines instances internationales, comme l’illustre l’instauration par les Nations unies d’une journée internationale de lutte contre l’islamophobie.

Dans ce contexte, le guide ne développe pas longuement cette controverse, mais il l’intègre à sa manière en faisant figurer dans le glossaire le néologisme « musulmanophobie », présenté comme une alternative moins controversée, car centré sur les personnes plutôt que sur la religion. Ce choix est révélateur de la démarche d’ensemble. Conscients des résistances que suscite le terme, les rédacteurs privilégient un mot de rechange qui préserve la réalité discriminatoire tout en désamorçant le débat sémantique, illustrant ainsi, à l’échelle d’un seul mot, la logique même du takyīf (« adaptabilité »).

Adaptabilité ou islam de France ?

Ces redéfinitions obéissent à une logique d’ensemble, dont la clé de lecture est la notion d’« adaptabilité ». Le guide la formule à travers le concept de takyīf, qu’il présente comme une capacité à ajuster l’application des normes au contexte et aux situations concrètes, et en fait la deuxième entrée du glossaire. L’ajustement au contexte y est présenté non comme une concession à la modernité occidentale, mais comme une exigence propre à la tradition juridique islamique. L’islam n’y apparaît pas comme un bloc figé en confrontation avec la République, mais comme une tradition dotée d’une capacité d’interprétation et d’ajustement internes.

Le choix de placer l’« adaptabilité » (takyīf) au cœur de la démarche n’est pas anodin face à la notion d’« islam de France », centrale dans les discours politiques récents. Les deux notions recouvrent des logiques distinctes.

L’« islam de France » suppose une reformulation normative, où c’est l’islam lui-même qui est appelé à se redéfinir structurellement et à intérioriser des normes extérieures à sa tradition. L’« adaptabilité » (takyīf) procède d’une tout autre démarche : ajuster les modalités de présence au contexte français en puisant dans les ressources propres de la tradition islamique. Dans le premier cas, l’impulsion vient de l’extérieur, dans le second, elle est revendiquée comme interne.

Changer les termes du débat ?

Le guide de la Grande Mosquée de Paris ne mettra certainement pas fin aux désaccords. Il opère cependant un geste important en refusant que les catégories forgées dans l’arène politique définissent seules le sens des termes qui structurent le débat public sur l’islam. Cette intervention survient dans un moment où l’islam est saisi dans l’espace public à travers une inflation de dénominations qui ne se limitent pas à des mots isolés, mais qui prennent souvent la forme de syntagmes récurrents – islam radical, islam modéré, islam religieux, islam politique – constituant progressivement un micro-système terminologique qui organise ce débat. Dans cette dynamique, chaque nouvelle catégorie agit comme un acte de nomination : elle sélectionne certains traits, en écarte d’autres et contribue à fixer une représentation particulière de l’islam dans la société française. Le débat ne porte donc pas seulement sur des réalités sociales, mais sur les opérations discursives par lesquelles ces réalités sont constituées comme problèmes publics.

Dans un contexte politique où ces opérations de nomination tendent à se multiplier, se pose aussi la question de l’adresse même de ce glossaire. À bien des égards, son destinataire implicite ne semble pas tant être les musulmans de France que les acteurs publics avec lesquels se négocient les termes mêmes du débat. Le geste consistant à redéfinir ces mots apparaît ainsi moins comme une simple clarification interne que comme une tentative d’intervenir, par le langage, dans la manière dont l’islam est qualifié et gouverné.

The Conversation

Ali Mostfa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2026 à 16:39

De Gaza à l’Iran : l’opinion publique israélienne face à la guerre

Elizabeth Sheppard Sellam, Responsable du programme « Politiques et relations internationales » à la faculté de langues étrangères, Université de Tours
Si la population israélienne soutient largement l’opération contre l’Iran, cet appui ne se traduit pas par une adhésion au gouvernement Nétanyahou, loin de là.
Texte intégral (1800 mots)

Près de 80 % des Israéliens soutiennent les opérations militaires visant l’Iran. Cette cohésion, qui repose sur une perception largement partagée du caractère existentiel de la menace iranienne pour la survie du pays et qui prolonge en quelque sorte le ralliement autour du drapeau constaté après le 7 octobre 2023, ne dit pas tout de la situation politique. Le gouvernement Nétanyahou demeure impopulaire, la non-conscription des ultra-orthodoxes soulève de plus en plus de crispations et, sur le fond, les citoyens sont de plus en plus nombreux à s’interroger sur l’issue des guerres sans fin dans lesquelles leur pays est engagé.


Le passage de la guerre à Gaza à une confrontation ouverte avec l’Iran marque pour Israël un tournant stratégique majeur. D’un enchaînement d’opérations répétées, parfois longues mais circonscrites, à des fronts identifiés, le pays bascule vers une conflictualité régionale plus diffuse, impliquant davantage d’acteurs et s’étendant sur un espace élargi. Cette évolution ne correspond pas seulement à une intensification du conflit, mais à un véritable changement de nature. Elle installe Israël dans une confrontation durable, où les enjeux de sécurité s’imposent comme un cadre structurant du débat public et politique.

Dans ce contexte, plusieurs questions se posent. Comment une société confrontée à une insécurité durable évolue-t-elle politiquement ? Dans quelle mesure la perception d’une menace majeure produit-elle une forme de cohésion sans effacer les divisions internes ? Et comment cette tension s’exprime-t-elle dans un contexte de guerre prolongée et d’échéances électorales ?

Ralliement autour du drapeau

Contrairement à une grande partie de l’Europe occidentale, où les menaces sont souvent perçues comme lointaines, cette expérience est en Israël immédiate et concrète. Les attaques du 7-Octobre, les déplacements massifs de populations dans le sud puis dans le nord, les tirs répétés et les pertes humaines ont profondément transformé les perceptions collectives. Cette expérience directe de la guerre rapproche Israël de certains pays d’Europe orientale, notamment les États baltes ou l’Ukraine, où les préoccupations sécuritaires structurent les choix politiques. Elle constitue aussi une ligne de fracture au sein de l’Europe elle-même.

Dans ce cadre, la montée en puissance de l’Iran comme acteur central du conflit est décisive. L’image de la pieuvre illustre cette lecture stratégique. L’Iran en constitue la tête, tandis que ses relais – les houthistes du Yémen, le Hezbollah libanais, les milices chiites d’Irak… – en représentent les prolongements. La guerre de Gaza s’inscrit ainsi dans une architecture plus large, ce qui éclaire le basculement vers une confrontation régionale.

La question centrale devient alors celle d’une tension entre unité stratégique et fragmentation politique. Le 7-Octobre a suscité un réflexe de « ralliement autour du drapeau » face au choc sécuritaire, mais ce phénomène est intervenu dans une société déjà traversée par des divisions politiques profondes. La guerre ne suspend pas ces clivages. Elle les déplace, les reconfigure et en révèle de nouveaux.

Comprendre cette tension suppose d’abord de revenir sur la transformation du conflit lui-même et sur les formes de cohésion qu’il produit.

Une guerre qui s’inscrit dans la durée

Un an après le 7-Octobre, en 2024, une large majorité des Israéliens confiaient que leur sentiment de sécurité personnelle s’était dégradé. Si la situation a évolué depuis, ces données éclairent la profondeur du choc initial et ses effets persistants sur les représentations collectives.

Les enquêtes d’opinion montrent également un fort effet de ralliement depuis le début de la guerre en Iran, le 28 février 2026. Selon un sondage de l’Institut d’études de la sécurité nationale de l’Université de Tel-Aviv effectué ce 19 mars, les Israéliens soutiennent à 78,5 % les frappes israélo-américaines contre l’Iran et se déclarent satisfaits des résultats militaires obtenus (ce ratio atteint 91,5 % parmi les Israéliens juifs, contre seulement 25,5 % parmi les Israéliens arabes, où l’opposition à la guerre est majoritaire à 65,5 %).

Ce soutien, qui repose sur une perception largement partagée de la menace iranienne, connaît toutefois des limites. L’appui à la poursuite du conflit jusqu’à des objectifs maximalistes recule tandis que les inquiétudes liées à la durée, aux coûts et aux résultats de la guerre progressent.

La cohésion de la société israélienne sur la question de l’attitude à adopter à l’égard de l’Iran n’a pourtant rien d’évident. Elle contraste avec les divisions observées sur d’autres fronts.

Pendant la guerre à Gaza, la société israélienne a été traversée par des tensions importantes, notamment autour de la question des otages et des objectifs du conflit. Ces débats ont laissé des traces durables et continuent d’influencer les perceptions de la confrontation avec Gaza.

Sur le front libanais, les enquêtes d’opinion montrent une perception beaucoup plus incertaine des résultats de la guerre, une part importante de la population doutant que les opérations actuelles aboutiront à un calme durable.

Ce contraste met en évidence l’existence d’une hiérarchie des menaces dans l’opinion publique. Le niveau de consensus observé face à l’Iran apparaît spécifique et ne s’étend pas automatiquement aux autres théâtres du conflit. Autrement dit, même en situation de guerre, la cohésion nationale n’est ni constante ni homogène. Elle dépend des perceptions de la menace, des objectifs poursuivis et des coûts anticipés. Elle apparaît ainsi comme une variable du conflit, et non comme une donnée acquise.

Enfin, la capacité de la société à soutenir un conflit prolongé apparaît incertaine. Une partie significative de la population exprime des doutes sur la possibilité de maintenir un effort de guerre dans la durée, ce qui souligne les contraintes internes d’une guerre longue.

Une unité stratégique sans unité politique

Malgré un consensus relativement large sur la nécessité de faire face à l’Iran, celui-ci ne se traduit pas par un soutien équivalent au gouvernement. Des figures de l’opposition ont exprimé leur soutien à l’action militaire tout en maintenant de fortes critiques à l’encontre de l’exécutif.

Les sondages confirment cette dissociation. Une majorité relative de la population exprime une faible confiance dans le gouvernement, dans un contexte de forte polarisation politique et sociale. Ces divisions ne se limitent pas à l’évaluation du conflit. Elles portent également sur les choix politiques à venir. La question de l’avenir de Gaza constitue un point de clivage majeur, entre différentes visions de gouvernance, de sécurité et de relations régionales.

Parmi les enjeux les plus sensibles figure celui de la conscription des ultra-orthodoxes. Dans un pays en guerre, la participation à l’effort de défense devient une question centrale de légitimité et de cohésion nationale. L’exemption de certains groupes est de plus en plus contestée et cristallise des tensions politiques majeures.


À lire aussi : Juifs ultra-orthodoxes en Israël : l’exemption de service militaire face à l’épreuve de la guerre


À l’approche d’échéances électorales – les prochaines élections législatives israéliennes doivent, en principe, avoir lieu au plus tard en octobre 2026 (fin de la législature actuelle, sauf dissolution anticipée) –, ces tensions sont appelées à s’intensifier. Le soutien à l’action militaire ne neutralise pas les rivalités politiques. Il les reconfigure et leur donne de nouveaux objets.

Une société profondément divisée

L’évolution actuelle met en lumière une configuration politique singulière. Israël, dont de nombreuses villes sont bombardées, fait face à une menace directe, ce qui produit un niveau élevé de cohésion stratégique, en particulier vis-à-vis de l’Iran, sans pour autant effacer les divisions internes.

Dans un contexte de guerre prolongée et d’élections législatives qui approchent rapidement le maintien d’une compétition politique réelle et d’un débat public actif témoigne de la solidité du fonctionnement démocratique israélien. La guerre ne suspend pas la vie politique. Elle en redéfinit les priorités et en intensifie les enjeux.

À l’horizon électoral, cette tension entre impératif sécuritaire et fragmentation politique constitue l’une des principales incertitudes. Elle révèle une dynamique durable où unité stratégique et division politique coexistent sans se neutraliser.

Autrement dit, la guerre permanente n’efface pas les fractures. Elle les inscrit dans le temps long de la vie politique israélienne sans les résoudre.

The Conversation

Elizabeth Sheppard Sellam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2026 à 16:39

Bien plus que du football : les répercussions de l’attribution de la Coupe d’Afrique des Nations au Maroc

Tapiwa Seremani, Assitant Professor in Business Ethics, IÉSEG School of Management
La décision, a priori strictement sportive, a un impact difficile à sous-estimer sur la perception réciproque des Africains nord-africains et sub-sahariens.
Texte intégral (1700 mots)

La Coupe d’Afrique des Nations, organisée tous les deux ans, se donne toujours pour objectif de mettre en évidence la supposée unité du continent. La dernière édition en date, au Maroc, a eu dans une large mesure l’effet inverse, la finale ayant été entourée de tensions maximales, qui ont nettement dépassé les limites du terrain. Deux mois plus tard, la Confédération africaine de football a décidé de retirer le trophée au Sénégal et de proclamer le Maroc, défait sur le terrain, finalement vainqueur – une mesure tardive qui a encore jeté de l’huile sur le feu, attisant soupçons de corruption, commentaires racistes et renfermement identitaire.


Si la finale de la 35e édition de la Coupe d’Afrique des Nations (CAN), disputée entre le Sénégal et le Maroc le 18 janvier 2026, a suscité de vifs débats autour des notions de justice et de corruption dans le football africain, rares étaient ceux qui pouvaient anticiper l’ampleur des fractures politiques et culturelles déclenchées par la décision de la Confédération africaine de football (CAF), le 17 mars, soit deux mois après la rencontre, de retirer le titre au Sénégal pour l’attribuer au Maroc.

Un scandale continental

L’événement a rapidement dépassé le cadre strictement sportif. Depuis cette décision, des informations font état du placement du trophée sous protection militaire au Sénégal. Plusieurs figures majeures du football africain, telles que George Weah – unique lauréat africain du Ballon d’Or et ancien président du Liberia – ou encore Claude Le Roy, ancien sélectionneur du Cameroun, du Ghana et du Sénégal, se sont élevées contre la décision de la CAF. Le gouvernement sénégalais s’est entretenu avec la Fédération sénégalaise de football, exigeant l’ouverture d’une enquête formelle sur cette décision en raison de soupçons de corruption. Parallèlement, les réseaux sociaux se sont trouvés saturés de contenus racistes opposant l’Afrique du Nord à l’Afrique subsaharienne.

Ces tensions, dès le lendemain de la finale, ont débordé des frontières du continent, se manifestant également dans des espaces marqués par une forte présence de diasporas africaines, tels que Paris, Bruxelles ou Londres. Dès lors, au-delà des enjeux sportifs, le dommage le plus durable de cette décision réside sans doute dans les divisions et conflits qu’elle a ravivés entre Africains, souvent selon des lignes raciales et des clivages hérités de l’époque coloniale.

La CAN constitue sans doute le plus grand événement culturel organisé sur le continent africain pour mettre en valeur à la fois les performances sportives et l’unité africaine. D’un point de vue strictement sportif, la décision de la CAF est sans précédent. Rappelons qu’à la création de la CAF et de la CAN en 1957, l’objectif politique était de construire une organisation et un événement panafricains unifiés, porteurs d’une identité postcoloniale commune destinée à dépasser les lignes de fracture héritées de la colonisation – notamment entre Afrique francophone et anglophone, entre Afrique du Nord et Afrique subsaharienne, ou encore entre identités arabe et noire. On en est loin.

Le contexte sportif

Pour comprendre la décision de la CAF et les divisions qu’elle a engendrées, il est utile de revenir sur les événements ayant précédé et jalonné la rencontre censée désigner le champion d’Afrique. Avant même la finale, les tensions étaient palpables, nourries par la conviction croissante, chez certains supporters et au sein de plusieurs équipes, que l’arbitrage favorisait le Maroc, pays hôte. Cette perception a été renforcée par des informations selon lesquelles, à Rabat, l’équipe sénégalaise n’aurait pas bénéficié d’escorte policière lors de ses déplacements vers son hôtel et vers le stade.

Le déroulement du match lui-même s’est avéré particulièrement controversé. Des ramasseurs de balle et même des joueurs marocains auraient tenté de priver le gardien sénégalais de sa serviette – un accessoire essentiel pour essuyer ses gants et le ballon en cas d’humidité, pratique courante dans le football professionnel. Le point de rupture survient lorsque, en fin de match, le Sénégal inscrit un but finalement refusé par l’arbitre pour une faute antérieure. Quelques instants plus tard, un penalty est accordé au Maroc.

En signe de protestation face à ce qu’il percevait comme une injustice manifeste, l’entraîneur sénégalais a appelé ses joueurs à quitter le terrain, ce qu’ils ont fait. Une partie des supporters sénégalais a alors tenté d’envahir la pelouse. Le capitaine du Sénégal, Sadio Mané, resté sur le terrain, s’est efforcé de convaincre ses coéquipiers de reprendre le jeu, ce qu’ils ont finalement accepté après une interruption d’environ quinze minutes (interruption qui justifiera, deux mois plus tard, la décision de la CAF de proclamer que le Sénégal a eu match perdu par forfait). Le Sénégal a inscrit un but en prolongation, s’adjugeant ainsi la victoire et se voyant finalement remettre la Coupe.

Toutefois, nous l’avons dit, la fédération marocaine a immédiatement déposé une plainte auprès de la CAF, laquelle a été acceptée : près de deux mois plus tard, le titre a été officiellement attribué au Maroc.

Les conséquences ont été immédiates. Des informations ont fait état d’agressions visant des Africains subsahariens au Maroc. En cette fin mars, dix-huit supporters sénégalais demeurent emprisonnés au Maroc, accusés de « vandalisme » pour leur comportement durant la finale du 18 janvier.

Si une part importante des analyses s’est concentrée sur les implications sportives – notamment en raison du caractère inédit de la décision de la CAF –, l’ampleur des fractures sociales et culturelles qu’elle a engendrées apparaît tout aussi frappante qu’inquiétante.

La fragilité de l’identité panafricaine

La création de la CAF et l’organisation de la première CAN en 1957 s’inscrivent dans le contexte des mouvements de décolonisation qui traversaient alors le continent africain. Elles répondaient à une ambition politique explicite : forger une identité panafricaine collective fondée sur l’unité et la coopération. Le football devait en être le vecteur privilégié.

Cette vision est clairement exprimée dans le discours prononcé en 1974 par le président de la CAF de l’époque, l’Éthiopien Yidnekatchew Tessema : « Je lance un appel à notre assemblée générale pour qu’elle affirme que l’Afrique est une et indivisible […]. Nous ne reconnaissons pas la division de l’Afrique en sphères francophone, anglophone ou arabophone. Arabes d’Afrique du Nord et Zoulous d’Afrique australe, nous sommes tous des Africains authentiques. »

Force est de constater que cette identité panafricaine postcoloniale est demeurée fragile. Les événements entourant la finale entre le Sénégal et le Maroc, ainsi que la décision subséquente de la CAF, ont ravivé les lignes de fracture que la compétition cherchait précisément à dépasser lors de sa création, notamment entre espaces francophones et anglophones, et ravivé des logiques de hiérarchisation raciale et régionale, en particulier entre Afrique du Nord et Afrique subsaharienne.

Ces divisions, enracinées dans des politiques coloniales de « diviser pour mieux régner », ont laissé des traces durables. La vision d’une identité panafricaine unifiée apparaît ainsi, aujourd’hui encore, comme un projet fragile. Les événements récents en constituent un rappel saisissant.

Pourtant, l’unité et la coopération africaines demeurent des conditions essentielles au progrès du continent dans tous les domaines. Fait révélateur, lors de la prochaine Coupe du monde, les équipes africaines les plus susceptibles de prétendre à une victoire historique pourraient bien être… le Maroc et le Sénégal.

The Conversation

Tapiwa Seremani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2026 à 16:38

Forêts et plantations de palmiers à huile peuvent-elles vraiment coexister ? Des résultats prometteurs en provenance de Bornéo

Alain Rival, Agronome. Agrosystèmes Biodiversifiés,, Cirad
Denis Fabre, Chercheur en écophysiologie (PhD), Cirad
Marc Ancrenaz, Research Fellow, Cardiff University
Philippe Guizol, Researcher, Cirad
Longtemps accusée de détruire les forêts tropicales, la culture du palmier à huile évolue. À Bornéo, l’agroforesterie concilie production, biodiversité et climat.
Texte intégral (3384 mots)
Les systèmes agroforestiers, comme TRAILS, permettent de documenter des travaux combinant productivité et biodiversité. Alain Rival/Cirad, Fourni par l'auteur

On estime qu’un produit de supermarché sur deux contient aujourd’hui de l’huile de palme. À l’heure où il semble difficile de se passer de cette ressource, une chose reste néanmoins possible et même prometteuse : pratiquer l’agroforesterie pour que les plantations de palmiers à huile ne soient plus une menace pour la biodiversité.


La culture du palmier à huile est fréquemment associée à la déforestation tropicale et à l’érosion de la biodiversité. De fait, en Asie du Sud-Est, l’expansion rapide des plantations industrielles au cours des dernières décennies a profondément transformé les paysages, fragmentant les forêts et réduisant l’habitat d’espèces emblématiques, comme les orangs-outans ou les éléphants de Bornéo. Cette trajectoire a durablement ancré l’idée selon laquelle la production d’huile de palme serait fondamentalement incompatible avec la conservation de la nature.

Cette opposition entre production agricole et biodiversité repose toutefois en grande partie sur un modèle agricole spécifique, celui de la monoculture intensive. Elle tend à masquer l’existence d’alternatives pionnières, capables de concilier production et fonctions écologiques dans les paysages tropicaux.

Ces autres façons de produire de l’huile de palme sont pourtant cruciales à développer à l’heure où le palmier à huile reste la culture oléagineuse la plus productive au monde. À surface égale, il produit en moyenne 4 à 10 fois plus d’huile que le soja, le colza ou le tournesol. Remplacer l’huile de palme par ces alternatives nécessiterait donc beaucoup plus de terres agricoles, avec un risque de déplacer la déforestation plutôt que de la réduire.

Par ailleurs, la demande mondiale en huiles végétales reste très élevée et continue de croître, portée par des usages alimentaires, cosmétiques et industriels en pleine expansion. Dans ce contexte, une sortie totale de l’huile de palme apparaît difficile à court terme.

L’enjeu principal n’est donc pas seulement de substituer une huile à une autre, mais de transformer les modes de production du palmier à huile qui ont peu changé depuis le début du XXᵉ siècle.

Les fragilités du modèle dominant

Introduite en Asie du Sud-Est à l’époque coloniale par les puissances européennes, la culture du palmier à huile – originaire d’Afrique de l’Ouest – a ensuite été largement développée en Indonésie et en Malaisie selon des modèles agricoles intensifs hérités de cette période. Les plantations conventionnelles sont ainsi conçues pour maximiser les rendements à court terme, en reposant sur des peuplements très homogènes et une forte intensification des pratiques. Cette simplification des écosystèmes s’accompagne toutefois d’effets négatifs bien documentés : appauvrissement des sols, pollution des eaux, dépendance accrue aux engrais et aux pesticides chimiques, perte d’habitats pour la faune et la flore ainsi qu’une plus grande vulnérabilité aux parasites et ravageurs. Ces derniers peuvent entraîner des pertes de rendement importantes, de l’ordre de 30 % en moyenne lorsque les populations ne sont pas maîtrisées.

Avec le changement climatique, ces fragilités deviennent plus visibles. L’augmentation des températures, la multiplication des vagues de chaleur et la variabilité accrue des précipitations exposent les plantations à des stress thermiques et hydriques croissants. Dans ce contexte, la question n’est plus seulement de freiner l’expansion agricole, mais aussi de transformer, afin de les rendre plus robustes face au changement climatique, les plantations existantes, qui occupent déjà des millions d’hectares en zone tropicale.

L’agroforesterie comme voie alternative

L’agroforesterie, qui associe arbres et cultures agricoles sur une même parcelle, est reconnue pour sa capacité à concilier production agricole et maintien des fonctions écologiques vitales. De nombreux travaux montrent que les systèmes agroforestiers tropicaux peuvent héberger une biodiversité relativement élevée, notamment pour les oiseaux et les insectes, tout en assurant des niveaux de production significatifs, par exemple dans les plantations indonésiennes de cacao.

Contrairement à l’idée selon laquelle biodiversité et productivité seraient nécessairement antagonistes, certaines agroforêts tropicales atteignent des niveaux de rendement élevés tout en conservant une diversité biologique conséquente – parfois même supérieure à celle de forêts dégradées environnantes pour certains groupes, comme les chauves-souris ou les plantes non vascularisées (fougères, mousses). Ces résultats ont contribué à renouveler le regard porté sur les plantations tropicales, longtemps considérées comme incompatibles avec les objectifs de conservation.

Tester l’agroforesterie dans les plantations de palmiers à huile

Appliquée au palmier à huile, l’agroforesterie reste encore peu développée à grande échelle. Les craintes d’une baisse de rendement, la complexité technique des systèmes à mettre en place, et les contraintes de gestion expliquent en partie cette situation. C’est précisément pour tester ces hypothèses à l’échelle réelle qu’a été lancé le projet Transitionning to Agroecological Innovative Landscapes in Sabah, East Malaysia (TRAILS), d’agroforesterie à taille réelle.

Le projet couvre 38 hectares (ha) d’essais installés dans une plantation commerciale de 8 000 ha, dans le bassin de la rivière Kinabatangan, dans l’État de Sabah, dans la partie malaisienne de l’île de Bornéo. Il s’appuie sur des dispositifs de plantation spécifiquement conçus pour le palmier à huile, combinant différentes densités et différents types d’associations d’arbres forestiers natifs afin d’optimiser à la fois les performances agronomiques et les fonctions écologiques des plantations.

Les pépinières d’espèces forestières natives alimentent l’ensemble des projets de reforestation du bassin de la Kinabatangan. Fourni par l'auteur

Contrairement à l’image classique de cultures poussant à l’ombre de grands arbres, les palmiers à huile forment déjà une canopée relativement basse et régulière. L’agroforesterie consiste ici à introduire d’autres espèces d’arbres au sein des parcelles, soit entre les rangées, soit en petits groupes, afin de créer une végétation plus diversifiée et structurée en plusieurs étages. On obtient ainsi un paysage où les palmiers coexistent avec des arbres de tailles et de formes variées, rompant avec l’uniformité des plantations conventionnelles. La question de la compétition pour la lumière est centrale, elle va conduire à des choix d’espèces aux architectures complémentaires : certaines laissent filtrer la lumière, d’autres occupent des strates différentes de la canopée.

Des schémas de plantation innovants

Les systèmes agroforestiers testés dans le cadre du projet TRAILS reposent de fait sur des schémas de plantation innovants. Les espèces forestières sont sélectionnées pour leur compatibilité écologique avec le palmier à huile, leur architecture et leur capacité à structurer l’espace sans entrer en compétition excessive pour la lumière, l’eau ou les nutriments. Les espèces introduites sont choisies pour leur complémentarité avec le palmier à huile.

Dans la vallée de la Kinabatangan, des projets de restauration menés notamment par différents intervenants locaux, comme la coopérative villageoise Kopel ou l’ONG Hutan, utilisent des espèces locales, comme Octomeles sumatrana (binuang), Nauclea sp. ou des figuiers (Ficus). Certaines ont une croissance rapide et améliorent le microclimat, d’autres tolèrent les sols inondés ou développent des racines profondes, limitant la compétition pour l’eau et les nutriments.

Ces arbres permettent de moduler l’ombrage, d’améliorer les microclimats et de diversifier la structure verticale des plantations. Les figuiers fournissent des ressources alimentaires clés pour la faune tout au long de l’année. Ces choix de conception jouent un rôle déterminant dans les performances attendues du système : elles font l’objet d’analyses détaillées dans les travaux récents menés au Sabah.

Productivité et biodiversité : un compromis moins difficile qu’attendu

L’une des principales interrogations concernant l’intégration de l’agroforesterie dans les plantations de palmiers à huile porte sur son impact potentiel sur la productivité. Les premiers résultats obtenus au Sabah montrent que les palmiers cultivés en association avec des arbres forestiers peuvent maintenir, dans les stades précoces étudiés jusqu’à présent, des niveaux de production comparables à ceux des monocultures conventionnelles.

L’intégration d’arbres dans les plantations, qu’il s’agisse de palmiers à huile ou d’autres cultures, modifie sensiblement le microclimat des parcelles. La présence d’une végétation plus diversifiée et stratifiée permet de réduire les températures au sol de 2 à 5 °C, grâce à l’ombrage et à l’évapotranspiration des arbres, tout en maintenant une humidité plus élevée et en limitant l’évaporation de l’eau dans les sols. Les arbres jouent également un rôle de brise-vent, réduisant la vitesse du vent et l’érosion. L’ensemble de ces effets atténue les stress hydriques et thermiques et renforce la résilience des cultures face aux aléas climatiques.

En parallèle, les bénéfices pour la biodiversité sont significatifs. Plus de 60 espèces d’oiseaux ont été recensées dans les parcelles agroforestières, contre généralement moins de 20 à 30 espèces dans les plantations de palmiers à huile conventionnelles, souvent dominées par quelques espèces généralistes. L’augmentation de la diversité végétale au sein des plantations favorise, pour sa part, la présence d’oiseaux et d’autres groupes faunistiques qui contribue à restaurer certaines fonctions écologiques, comme la régulation des insectes ravageurs ou la dispersion des graines, dans des paysages fortement fragmentés. Dans des régions comme la Kinabatangan, ces systèmes plus complexes peuvent également améliorer la qualité de l’habitat et la connectivité écologique pour certaines espèces, en complément des forêts restantes.

Comme l’a souligné un article récent, les dispositifs agroforestiers pourraient rendre les paysages dominés par le palmier à huile plus favorables aux déplacements de la faune sauvage. Ces espaces peuvent notamment bénéficier à des espèces en danger d’extinction, telles que les orangs-outans, les éléphants ou les macaques, capables de traverser des plantations, mais aussi à des animaux moins emblématiques, tels que les civettes, ou encore à de nombreux oiseaux forestiers et chauves-souris, qui utilisent ces zones comme habitats intermédiaires ou corridors entre fragments de forêt.

Un levier face au changement climatique

Au-delà de ses effets positifs sur la biodiversité, l’agroforesterie constitue également un levier important d’adaptation au changement climatique dans les plantations tropicales. L’intégration d’arbres au sein des parcelles permet de réduire les températures au sol, d’améliorer la rétention d’eau dans les sols et de limiter l’érosion, contribuant ainsi à renforcer la résilience des systèmes agricoles face aux perturbations climatiques.

Ces aménagements peuvent aussi améliorer les conditions de travail dans les plantations, notamment en apportant de l’ombre et en atténuant l’exposition des travailleurs à des chaleurs extrêmes, un enjeu sanitaire de plus en plus important dans les régions tropicales. En effet, les travailleurs agricoles sont directement confrontés aux effets du changement climatique : températures plus élevées, pluies plus irrégulières ou périodes de sécheresse plus fréquentes rendent le travail en plein air encore plus pénible. Ces conditions peuvent également affecter la productivité des cultures, ce qui accentue la précarité économique des travailleurs et la vulnérabilité des filières agricoles.

Des dimensions sociales indissociables

D’autres changements sont également possibles. À l’heure où les plantations peinent à trouver des travailleurs, mais où l’huile de palme reste une matière première cruciale au niveau mondial, le projet TRAILS accorde une attention particulière aux dimensions sociales. Des pépinières communautaires, souvent portées par des groupes de femmes, assurent ainsi la collecte, la sélection et la production des plants forestiers.

Les plants de pépinières font l’objet d’une attention particulière auprès des groupes de femmes du projet TRAILS. Alain Rival, Cirad, Fourni par l'auteur

Ces activités sont accompagnées de formations techniques en agroforesterie et en gestion durable des terres, contribuant au renforcement des compétences locales et à la diversification des moyens de subsistance dans une zone rurale assez isolée. Cette implication continue des communautés locales est essentielle pour garantir l’appropriation des systèmes agroforestiers et leur pérennité à long terme.

La plaine de la Kinabatangan est un hotspot de biodiversité désormais intégré à la Kinabatangan Biosphere Reserve (KBR) de l’Unesco. Alain Rival, Cirad, Fourni par l'auteur

Vers des paysages multifonctionnels

La reconnaissance de la plaine de la Kinabatangan comme réserve de biosphère de l’Unesco souligne l’importance de modèles agricoles capables de s’articuler avec des objectifs de conservation à l’échelle du paysage (Unesco, 2023).

Les approches agroforestières expérimentées au Sabah s’inscrivent pleinement dans cette logique intégrée. Sans remplacer les forêts tropicales intactes, les systèmes agroforestiers à base de palmiers à huile peuvent contribuer à transformer les paysages agricoles en leviers complémentaires de conservation et de résilience écologique.


Cet article a été réalisé avec Isabelle Lackman, de l’ONG Hutan, et Sempe Burhan, de la Melangking Oil Palm Plantations.

The Conversation

Alain Rival a reçu des financements Le Fonds de solidarité pour les projets innovants (FSPI), un dispositif de financement ministère de l’Europe et des Affaires étrangères. Le projets TRAILS recoit le soutien financier de l'APF (Alliance pour la Protection des Forets), ainsi que des sociétés Ferrero et Saint Hubert.

Denis Fabre, Marc Ancrenaz et Philippe Guizol ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

30.03.2026 à 16:29

Lire pour apprendre ? Comment l’IA transforme le rapport des étudiants aux bibliothèques

Cécile Touitou, Responsable de la mission Prospective à la bibliothèque / DRIS, Sciences Po
Sophie Forcadell, Chargée de mission CIVICA pour les bibliothèques, Sciences Po
Permettant de contourner la lecture directe d’un texte, de le résumer ou de le comprendre, l’intelligence artificielle transforme le rapport des étudiants aux livres.
Texte intégral (2423 mots)

En trois ans à peine, l’intelligence artificielle générative s’est imposée comme un outil incontournable dans les routines de recherche des étudiants, bousculant leur façon d’apprendre tout en remodelant aussi profondément leur rapport aux livres, même dans des filières comme les sciences humaines où ils ont longtemps eu une place centrale.


Dans un paysage saturé d’informations, quelles stratégies les étudiants européens développent-ils pour mener leurs recherches académiques ? Entre quête d’efficacité et pression du temps, ils privilégieraient les contenus « rentables », préférant souvent s’appuyer sur l’IA pour obtenir des synthèses plutôt que de consulter les sources primaires.

C’est ce que nous apprend le baromètre des compétences informationnelles initié par le réseau des bibliothécaires de l’alliance universitaire européenne CIVICA. Les résultats de cette enquête transnationale, menée en partenariat avec l’Ifop, témoignent d’un écosystème en tension et pointent un risque de mésusage des IA génératives. Ils permettent aussi d’interroger des tendances de fond de nos sociétés, comme le rapport au livre.

Jusqu’ici central dans les apprentissages, en particulier dans des filières comme les sciences humaines, le livre, en format numérique ou papier, est-il désormais supplanté par d’autres ressources et outils ?

Google et ChatGPT d’abord… les bibliothèques ensuite ?

Pour un étudiant, mener des recherches, lire des ouvrages, élargir les apprentissages est depuis toujours une condition essentielle à sa réussite. À mesure que l’océan informationnel s’étend, y naviguer devient plus complexe, voire plus anxiogène.

Et si l’IA permettait non seulement d’accéder à cette « bibliothèque universelle » mais aussi de « l’ingurgiter » sans la lire, et de court-circuiter ainsi un chemin perçu comme semé d’embûches jusqu’au texte original dans son intégralité ?

Les efforts déployés pour la recherche d’information sont limités pour la plupart des répondants, mais une importante minorité y consacre « beaucoup » de temps. Cette activité prend de l’ampleur à mesure que les étudiants avancent dans les études. Alors que 41 % y consacrent de deux à cinq heures par semaine, une proportion tout aussi importante (41 %) y consacre six heures et plus, 24 % des doctorants déclarant même y passer plus de dix heures hebdomadaires.

Près de 55 % des répondants évoquent le stress généré par l’abondance de sources, la part monte à 62 % dans la population des doctorants, voire à 64 % pour les étudiants en droit.

Ils cherchent, pensent savoir le faire… mais le font-ils efficacement compte tenu de la très grande hétérogénéité des interfaces et de la complexité des périmètres documentaires de chacun de ces réservoirs ? Les bibliothécaires académiques constatent au quotidien la fragilité de leurs compétences en la matière.

Interrogés sur leurs connaissances de base, les étudiants se sentent confiants, mais leur confiance s’érode lorsqu’il s’agit des compétences les plus techniques. Environ 73 % se sentent à l’aise pour trouver des informations et 71 % pour évaluer leur fiabilité, mais ce chiffre tombe à 58 % pour la gestion des références bibliographiques et à 54 % pour l’utilisation des bases de données universitaires.

La recherche sur Internet est le point d’entrée par défaut (71 %) ; on entend par là des moteurs de recherche généraliste type Google que 67 % des étudiants en master déclarent utiliser et 49 % des doctorants. Ces derniers privilégient cependant les moteurs académiques du type Google Scholar (76 % versus 49 %).

Les répondants déclarent que l’IA générative est devenue – en à peine trois ans – un usage courant (61 %), en deuxième place des réponses, devant les listes de lectures fournies par les enseignants (59 %) et loin devant les catalogues des bibliothèques (38 %). Le déclaratif sur l’usage de l’IA à des fins académiques est très différent selon l’université de l’étudiant. Cette grande dispersion des niveaux d’usage révèle également une grande variété selon les niveaux et les disciplines et l’accompagnement institutionnel et académique.

Livres imprimés : un usage contrasté selon le niveau et la discipline

En 2025, le numérique fragmente le temps étudiant, envahit les temps morts et impose des arbitrages fondés sur la rentabilité académique. Dans ce contexte, comment trouver le temps de « lire » ?

À la proposition « Ma charge de travail universitaire est tellement lourde et les délais tellement courts que je n’ai pas assez de temps pour une lecture approfondie et critique » 73 % des étudiants de niveau bachelors acquiescent, 76 % des masters et 69 % des doctorants. Sept étudiants en master sur dix déclarent même « la plupart du temps, je lis des résumés de livres ou d’articles plutôt que des livres/articles entiers » (4,5 sur 10 pour les doctorants) !

Si l’on constate une érosion des prêts d’ouvrages imprimés et de la consultation électronique dans toutes les bibliothèques universitaires du monde, qu’en est-il concrètement des pratiques étudiantes ?

Seuls 17 % des répondants citent les livres et/ou les e-books parmi leurs sources « les plus utiles ou pertinentes » pour le travail académique, mais ils sont 46 % à déclarer les utiliser. Ce décalage est important : on utilise le livre, mais on ne le considère pas comme ressource de référence. C’est particulièrement vrai pour les bachelors et les étudiants en sociologie du panel de l’alliance CIVICA où les écarts sont les plus élevés. A contrario, c’est pour les doctorants et les étudiants en histoire qu’il est le plus faible. Les réponses par niveau (LMD) ou par discipline montrent des situations très différentes entre usage et utilité perçue par sous-population, comme on peut le lire sur le graphique suivant.

On mesure un usage des livres imprimés globalement faible mais cette moyenne recouvre des réalités très polarisées : si 28 % des répondants déclarent les utiliser pour rechercher des informations liées à leurs travaux, c’est le cas pour 25 % en master vs 45 % en doctorat ; 75 % en histoire vs 14 % en Affaires publiques.

Fourni par l'auteur

Et si, au lieu d’une prise de distance des étudiants par rapport au livre imprimé, on assistait simplement à une spécialisation des usages en fonction des besoins, de l’offre éditoriale et du type de travaux dans chaque discipline ? Les faibles utilisateurs de livres imprimés peuvent consulter des articles en ligne, par exemple.

Les livres imprimés semblent être devenus une ressource de niche, surtout mobilisée par les doctorants, dans des travaux nécessitant de la littérature approfondie ou dans des domaines où le numérique est moins développé. Pour les plus jeunes, manque de temps, faible rentabilité académique, ou manque d’appétence pour la lecture sont parmi les explications que l’on peut avancer à cette désaffection massive, même s’il existe toujours de gros lecteurs.

Quel usage des e-books ?

S’ils ne lisent plus sur papier, le font-ils en ligne comme l’ont pensé bien des médias ? Près de 65 % des étudiants disent préférer la version numérique au papier quand ils ont le choix entre les deux versions, surtout les doctorants (75 %) plus que les bachelors (63 %), témoignant d’une accoutumance avec les années d’études à une lecture plus pratique du support numérique et une meilleure compréhension de l’écosystème des publications scientifiques en ligne.

Fourni par l'auteur

L’usage déclaré des e-books est en moyenne 6 points plus élevé que celui de l’imprimé (12 pour les bachelors !), pour autant seulement 33 % des répondants déclarent les utiliser ; 22 % les utilisent tout le temps ou fréquemment, 12 % quelques fois ; mais 67 % rarement ou jamais ! On constate donc que le support n’est pas la solution à ce problème.

Globalement, 75 % des étudiants en master déclarent donc ne pas utiliser les ouvrages imprimés, et 72 % les ouvrages numériques, un constat qui pose beaucoup de questions. Les étudiants de master semblent privilégier d’autres types de ressources, notamment les bases de données académiques.

Pour beaucoup, retrouver rapidement les ouvrages recommandés peut devenir un obstacle : listes de lecture dispersées, références incomplètes, faible visibilité des exemplaires disponibles ou des versions numériques… Autant de freins qui poussent certains étudiants à se tourner vers des sources plus facilement accessibles, même si elles sont parfois moins fiables ou moins adaptées.

Adoption massive mais confiance mitigée

Concomitamment à ces évolutions qui percutent le rapport à l’imprimé, l’IA est devenue un outil incontournable pour les étudiants, mais cette adoption massive ne s’accompagne pas d’une confiance équivalente dans les contenus générés ni de recommandations institutionnelles claires.

L’IA n’est pas systématiquement considérée comme pertinente sur le plan académique. L’écart entre l’utilisation fréquente et l’utilité perçue suggère des pratiques hétérogènes : certains étudiants s’appuient sur l’IA comme un outil d’aide courant, tandis que d’autres l’utilisent occasionnellement ou restent sceptiques quant à sa valeur académique.

Environ un étudiant sur deux ferait confiance à l’IA pour générer des idées pour un projet de recherche. La confiance s’effondre lorsque l’IA est utilisée pour la recherche de sources et le référencement. Les étudiants attribuent une note élevée à l’IA pour la traduction (86 % de fiabilité) et une note relativement élevée pour la synthèse (71 %) et la compréhension de concepts complexes (69 %), mais leur confiance chute fortement pour la recherche d’articles scientifiques (38 %) et la suggestion de sources (32 %), précisément là où les erreurs peuvent compromettre la qualité académique.

En l’espace de trois ans, le recours à l’IA pour contourner la lecture directe d’un texte, obtenir un résumé ou extraire les idées phares s’est imposé comme une pratique courante, nouvelle étape de cette mutation des pratiques lectorales des jeunes étudiée dès la fin du siècle dernier. Un rapport « utilitariste » au livre s’impose dans un écosystème informationnel en pleine mutation où la tentation des intermédiaires qui facilitent l’accès et l’appropriation des contenus peut être considérée comme un risque ou une opportunité.


Cet article a été écrit par Cécile Touitou, responsable de la cellule « prospective » de la bibliothèque de Sciences Po, avec la collaboration de Sophie Forcadell, chargée de mission université européenne CIVICA à la bibliothèque de Sciences Po Paris.

The Conversation

Cécile Touitou est présidente de la commission CN 46-8 de l'Afnor "Information et documentation - Qualité, statistiques et évaluation des résultats".

Sophie Forcadell est membre des bibliothèques académiques LIBER.

30.03.2026 à 16:28

La prise en compte des violences conjugales, un défi pour les entreprises

Séverine Lemière, Maîtresse de conférences en Sciences de gestion, Université Paris Cité
Olga Lelebina, Professeure de RH et de Management, ISG International Business School
Les violences conjugales concernent aussi les entreprises qui les intègrent à leur politique EDI. Revue des mesures prises par quelques firmes françaises.
Texte intégral (1575 mots)

Les conséquences des violences conjugales ne s’arrêtant pas à la porte des entreprises, certaines d’entre elles les ont intégrées dans leur politique de diversité, d’égalité et d’inclusion. Panorama des outils proposés par certaines firmes du CAC 40.


Parmi les victimes de violences conjugales, nombreuses sont celles qui occupent un emploi. Quand elles partent travailler, elles quittent le domicile et leur agresseur. Face à cette évidence, le milieu professionnel peut constituer un espace de protection, de ressources et de socialisation. En conséquence, il peut aussi devenir un acteur à part entière de la lutte contre les violences conjugales.

Les violences conjugales passent la porte de l’entreprise

Dans toute organisation, il existe inévitablement des personnes confrontées à des violences conjugales. Ces violences ont des répercussions significatives sur la vie professionnelle. Elles peuvent entraîner des retards, des absences répétées, une baisse de concentration, une fatigue chronique ou encore une diminution de la qualité du travail. Les relations avec les collègues ou avec l’encadrement peuvent également se dégrader parce que la personne victime se trouve en situation d’épuisement psychologique, émotionnel ou physique. La victime risque d’ailleurs d’être perçue comme un ou une collègue moins fiable.

L’agresseur peut poursuivre son emprise jusque sur le lieu de travail avec des messages ou appels incessants, des menaces ou des agressions sur le lieu de travail ou à proximité. Autrement dit, les violences au sein du foyer peuvent fragiliser le parcours professionnel de la victime. Le conjoint violent peut chercher à limiter l’engagement de la victime, préférer qu’elle reste à la maison, la décourager de suivre des formations ou d’accepter des mobilités, l’inciter à réduire son temps de travail ou même à quitter son emploi.


À lire aussi : Les femmes cadres, victimes oubliées des violences conjugales


Des violences systémiques

La convention d’Istanbul rappelle que les violences faites aux femmes ne relèvent pas de simples conflits privés, mais qu’elles constituent l’expression d’un système où la domination, la discrimination et les stéréotypes de genre créent un terrain favorable à l’emprise et à la violence. Ces violences sont à la fois la cause et la conséquence des inégalités entre les femmes et les hommes. Elles s’enracinent dans des rapports de pouvoir déséquilibrés et contribuent, en retour, à limiter l’autonomie personnelle, économique et professionnelle des femmes.

Pour une organisation, ne pas intégrer ce sujet dans sa stratégie d’égalité, de diversité et d’inclusion revient à ignorer un obstacle important et invisible à l’égalité réelle. Depuis quelques années, plusieurs grands groupes (dont Kering, L’Oréal, BNP Paribas, Carrefour, SNCF et EDF) se sont engagés dans des initiatives collectives comme le réseau OneInThreeWomen, créé en 2018, qui incite les employeurs à inscrire la prise en charge des violences conjugales dans leur stratégie de diversité et d’inclusion.

Des bonnes pratiques

Plusieurs organisations, en France et à l’international, ont déjà intégré la lutte contre les violences conjugales dans leurs engagements en matière d’égalité entre les femmes et les hommes. Voici quelques axes d’action issus de ces retours d’expérience.

De grandes entreprises ont lancé des campagnes de sensibilisation en interne (affichages, newsletters spécifiques, podcasts…) pour faire connaître l’ampleur du problème et les ressources disponibles. Certaines formations ciblent les managers, le personnel RH, les services sociaux ou de santé au travail, afin de mieux repérer les signaux d’alerte et réagir correctement. De son côté, Kering a choisi de sensibiliser progressivement tous ses collaborateurs, du vendeur en boutique jusqu’aux membres du comité exécutif, en s’appuyant sur des associations spécialisées.

BNP Paribas, avec son pôle d’action sociale au sein des RH, intègre les violences conjugales dans l’écoute des collaborateurs en difficulté. Ce type de service interne permet de briser l’isolement de la victime en lui proposant écoute, conseils et orientation vers les associations spécialisées.

« Le maintien dans l’emploi est une priorité absolue », déclare BNP Paribas, qui peut par exemple proposer à une victime un changement de site géographique si sa sécurité l’exige. Chez EDF, les services sociaux sont aussi au centre des dispositifs à destination des victimes de violences conjugales, et peuvent permettre la demande de mesures de soutien comme un hébergement temporaire ou des aides financières.

Certaines entreprises ont choisi d’accorder les jours d’absences rémunérées ; par exemple, trois jours d’absence rémunérés à La Poste pour effectuer les démarches (dépôt de plainte, rendez-vous médicaux, relogement…) nécessaires. Outre les congés, la flexibilité du temps de travail peut aussi être cruciale : aménagement d’horaires afin de permettre à la personne de disposer de temps pour les démarches inhérentes aux violences.

Un écosystème de soutien

Souvent, les victimes ne savent pas vers qui se tourner pour obtenir de l’aide, tandis que les entreprises, de leur côté, ne disposent pas toujours de l’expertise nécessaire. C’est pourquoi certains groupes établissent des partenariats avec des associations spécialisées pour orienter les salariées concernées vers des professionnel·les formé·es et proposer des interventions, formations ou ateliers de sensibilisation. En unissant leurs forces avec le tissu associatif, les employeurs contribuent à créer un écosystème de soutien autour de la victime.

Certains partenariats vont plus loin, c’est le cas entre EDF et l’association FIT Une femme, un toit, avec la réalisation de recherche-action et la co-construction de dispositifs adaptés aux réalités de terrain et enrichis par l’expertise associative, ce qui permet à l’entreprise et à l’association de monter en compétences mutuellement.

Ministère chargé de l’égalité entre les femmes et les hommes, 2024.

Formaliser l’engagement et garantir de nouveaux droits

Certaines entreprises inscrivent leur engagement dans leurs politiques RH avec la signature d’une charte – qu’elle soit interne à l’entreprise ou interentreprises, par exemple la charte OneInThreeWomen.

D’autres entreprises ont fait le choix de l’intégration des violences conjugales dans les accords collectifs relatifs à l’égalité professionnelle entre les femmes et les hommes, ce qu’ont fait des entreprises pionnières, comme Orange, EDF, SNCF, Korian, La Poste, Carrefour, Legrand. Ces engagements négociés avec les partenaires sociaux garantissent de nouveaux droits et les moyens alloués, ils témoignent de la vision partagée entre direction et syndicats de la reconnaissance des conséquences professionnelles des violences conjugales et du rôle du milieu professionnel auprès des victimes.

Considérer les violences conjugales comme un objet à part entière des politiques d’égalité, de diversité et d’inclusion constitue une évolution culturelle majeure dans le monde du travail.

Cela suppose de reconnaître que les violences conjugales ne relèvent pas uniquement de la sphère personnelle ou sociétale, mais qu’elles constituent également un enjeu organisationnel. Il s’agit dès lors d’un nouveau défi managérial, dans la continuité des engagements en faveur de l’égalité entre femmes et hommes, qui doit permettre, en partenariat avec les politiques publiques de lutte contre les violences et les associations féministes spécialistes de l’accompagnement des victimes, de construire un environnement favorable à la sortie des violences.

The Conversation

Séverine Lemière est membre de l'association FIT une femme un toit. Elle mène des recherches-actions avec EDF.

Olga Lelebina ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2026 à 16:27

Handicap et accès à la culture : quand le metal devient vecteur d’inclusion

Emilie Ruiz, Maitre de conférences HDR, Université Savoie Mont Blanc
Corentin Charbonnier, Docteur en Anthropologie, Université de Tours
Que signifie réellement l’« inclusion » dans un événement culturel singulier comme le Hellfest, le célèbre festival de metal ? Récit d’une expérimentation en cocréation entre les organisateurs de l’événement et des personnes en situation de handicap.
Texte intégral (1303 mots)
Le groupe Slayer au Hellfest, en 2017. Photo Corentin Charbonnier, Fourni par l'auteur

Vingt ans après la loi de 2005 sur l’égalité des droits des personnes en situation de handicap, l’accessibilité des lieux culturels a nettement progressé en France. Mais la participation réelle des publics concernés reste limitée. Une expérimentation menée entre une pension de famille et le Hellfest, en Loire-Atlantique, montre en quoi l’inclusion ne se résume pas à des aménagements techniques.


Un samedi de juin 2023, au milieu des dizaines de milliers de festivaliers réunis au Hellfest (Clisson, Loire-Atlantique), six habitants d’une pension de famille découvrent pour la première fois l’un des plus grands festivals de France. Certains vivent avec des troubles psychiques, d’autres avec des limitations physiques et pourtant, tous participent à une expérience singulière : explorer ce que signifie réellement l’« inclusion » dans un événement culturel singulier. Cette expérimentation, menée avec des résidents de la pension de famille de l’Orangerie, une structure gérée par la Croix-Rouge française, invite à repenser en profondeur la manière dont les institutions culturelles abordent le handicap. Car malgré les progrès réalisés ces dernières années, l’accès à la vie culturelle reste encore limité pour de nombreuses personnes en situation de handicap.

Tenir compte du handicap invisible

Depuis la loi française de 2005 sur l’égalité des droits des personnes handicapées, les lieux culturels ont considérablement amélioré leur accessibilité physique : rampes d’accès, plateformes réservées, signalétique adaptée. Mais un paradoxe demeure : malgré ces aménagements, les personnes en situation de handicap participent encore relativement peu à la vie culturelle et associative. Si le handicap visible est de fait perceptible, le handicap invisible, notamment psychique ou cognitif, reste pour le grand public, méconnu. La diversité des troubles et de leur prise en soin entrave leur plein exercice de la citoyenneté et donc leur participation à des évènements culturels. Le contexte des festivals ne peut être de ce fait limité à la simple implantation d’un accès physique adapté.

Vivre un festival autrement

En s’appuyant sur l’expertise de professionnels, de bénévoles et en expérimentant, les initiatives portées par le Hellfest permettent de proposer une autre approche de l’accessibilité. Par exemple, pour les personnes malentendantes, des gilets vibrants permettant de ressentir physiquement les vibrations de la musique sont proposés. Certains concerts sont aussi partiellement traduits en langue des signes.

Ces dispositifs illustrent une idée simple : l’accessibilité ne consiste pas forcément à reproduire une expérience standard pour tous, mais à permettre des manières différentes de vivre un même événement. Pour les participants de la pension de famille de l’Orangerie, l’expérience du festival s’avère à la fois fascinante et déstabilisante. Les structures monumentales du site, l’intensité sonore ou la densité de la foule peuvent susciter autant d’émerveillement que d’appréhension. Mais ces réactions contrastées révèlent aussi une réalité souvent oubliée : les personnes vivant avec un handicap psychique ne sont pas condamnées à rester à l’écart de ces expériences culturelles. Elles peuvent y participer pleinement, à condition que les conditions soient adaptées et préparées et devenir ainsi expertes de leurs conditions d’accessibilité.

L’inclusion commence bien avant l’événement

Pendant plus d’un an, les participants ont préparé, avec le soutien de leur encadrant, moniteur-éducateur de formation, leur venue : visites du site à vide, participation à la tournée Warm-Up du festival, repérage des espaces accessibles, organisation du suivi médical ou logistique. Cette phase d’anticipation a permis aux résidents de se familiariser progressivement avec l’environnement du festival et d’en réduire les incertitudes.

Le projet n’est pas né d’une décision institutionnelle. Il a été proposé par une résidente lors d’une réunion collective de la pension de famille, puis discuté et adopté par le groupe. Autrement dit, les participants n’ont pas simplement été « inclus » dans un dispositif : ils ont contribué à construire eux-mêmes leur participation.

Une inclusion qui mobilise tout un écosystème

L’inclusion culturelle repose rarement sur un seul acteur. Dans cette expérimentation, plusieurs organisations ont joué un rôle déterminant : la pension de famille de l’Orangerie, la Croix-Rouge française, l’association Culture du cœur, mais aussi des mécènes du festival. Chacun contribue à résoudre une partie des difficultés : financement, accompagnement social, logistique, accès aux billets ou médiation culturelle. Cette configuration rappelle que l’inclusion culturelle est un processus collectif impliquant de multiples organisations. Elle s’imbrique ainsi pleinement dans une démarche partenariale, essentielle au travail social.

Cet écosystème ne peut fonctionner sans le rôle clé de certains acteurs, capables de relier des univers qui communiquent peu entre eux et donc de rendre les frontières entre ces acteurs moins imperméables. Éducateurs spécialisés, médiateurs culturels ou réalisateur, familiers du travail social, peuvent ainsi agir comme des « acteurs-frontières ». Leur rôle consiste à traduire les attentes et les contraintes de chaque milieu (institutions sociales, organisateurs culturels, participants) afin de rendre possible la coopération.

Le metal, un terrain inattendu

Cette expérimentation (dont le documentaire Rendre l’enfer accessible témoigne avec sincérité) invite à repenser les politiques publiques d’accessibilité culturelle, encore largement centrées sur l’adaptation physique des infrastructures. Trois pistes émergent : (1) élargir la définition du handicap prise en compte dans les politiques culturelles, afin d’intégrer davantage les handicaps psychiques ou invisibles, (2) soutenir financièrement les démarches de co-construction avec les publics concernés, et pas seulement les investissements matériels, et (3) former et reconnaître les acteurs-frontières, qui jouent un rôle essentiel dans la mise en relation des différents partenaires.

Souvent associé à une esthétique radicale ou marginale, le metal apparaît rarement dans les débats sur les politiques culturelles. Avec une identité historiquement construite autour de communautés de fans fortement engagées et solidaires, certaines initiatives d’inclusion trouvent un terrain favorable pour se développer : elles ne sont pas sans faire écho à l’éthos de l’identité metal : partager un moment collectif, au-delà des distinctions sociales ou physiques, à l’instar des valeurs qui façonnent ce genre musical et véhiculées par certains groupes tels que Gojira.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

30.03.2026 à 11:13

Ce qui conduit les Français à pousser les portes d’un tiers-lieu

Guillaume Denos, Maître de Conférence, Université d’Angers
Ces espaces de sociabilité séduisent autant par leur convivialité que par leurs nombreuses activités. Explication avec les témoignages d’usagers et d’usagères de trois tiers-lieux en France.
Texte intégral (1449 mots)

Malgré les baisses des subventions, les tiers-lieux connaissent toujours un engouement. Car ces espaces de sociabilité séduisent autant par leur convivialité que par leurs nombreuses activités, manuelles et intellectuelles. Explication à l’appui de témoignages d’usagers et d’usagères de La Cocotte solidaire, d’Agis et du « makerspace » L’Établi.


À Digne-les-Bains, dans les Alpes-de-Haute-Provence, le projet de tiers-lieu culturel, soutenu par la maire sortante divers gauche Patricia Granet, était au cœur de la campagne municipale. À Carquefou en Loire-Atlantique, la candidate divers droite Jéromine Da Prat, souhaitait créer un « tiers-lieu jeunesse de 11 à 25 ans ». À Arras (Pas-de-Calais), le centriste Frédéric Leturque officialisait sa campagne au Perchoir, un tiers-lieu inclusif.

Le terme « tiers-lieu » trouve son origine dans les travaux du sociologue américain Ray Oldenburg, qui publie en 1989 The Great Good Place. Il y décrit les third places, des espaces qui ne sont ni la maison ni le travail, mais un troisième lieu de sociabilité essentiel.

En France, on compte plus de 3 500 tiers-lieux, 62 % en dehors des métropoles, un tiers en ruralité.

Dans un contexte social et économique différent de celui décrit par Oldenburg, marqué en France par le désengagement progressif de l'état et l'accentuation des enjeux de transitions, les caractéristiques des tiers-lieux sont à réexaminer. En effet, le dernier projet de loi de finances 2026 confirme la suppression des aides directes aux tiers-lieux, passant de 12 millions d’euros à 1,20 million d’euros. Or, 49 % du financement des tiers-lieux provient de subventions publiques.

Alors, les tiers-lieux contemporains répondent-ils toujours aux mêmes motivations ? Et qu’est-ce qui attire concrètement leurs usagers ?

Comprendre la motivation des usagers

Pour répondre à ces questions, nous avons mené une recherche dans le cadre du projet EVATLESS avec l’Université d’Angers. Ce dernier s’intéresse à l’évaluation de tiers-lieux de l’économie sociale et solidaire (ESS), en partant d’un principe simple : pour comprendre leur valeur, il faut écouter celles et ceux qui les fréquentent.

Nous avons étudié trois tiers-lieux portés par des associations situées à la fois en centre-ville, en périphérie et dans une commune rurale :

  • La Cocotte solidaire, propose des repas participatifs et solidaires visant à lutter contre l’isolement social ;

  • L’Établi, fonctionne comme une bibliothèque d’outils et organise des ateliers de bricolage autour du partage et du réemploi ;

  • Au germoir d’initiatives solidaires (Agis) anime sur une commune des initiatives locales liées à la transition écologique et sociale.

Au total, 65 usagers ont participé à l’enquête. L’objectif n’était pas seulement de savoir si les activités proposées leur plaisaient, mais de comprendre ce que ces lieux représentent pour eux, et ce qui motive leur fréquentation.

Une méthodologie immersive et participative a été mise au point pour rendre cette recherche accessible à tout le monde et fournir aux associations des témoignages. Cette méthodologie implique des partenaires associatifs à chaque étape de la recherche et déploie la méthode Q. L’enjeu est de faciliter l’expression d’avis personnels sur une question donnée, comme « Qu’est-ce qui vous incite à (re)venir dans ce tiers-lieu ? »

Espace de convivialité

Dans notre étude, nous constatons que venir dans des tiers-lieux, c’est accéder facilement à une ambiance que l’on ne retrouve pas ailleurs. Un lieu chaleureux, mais également pratique et accessible. On peut y venir à pied, à n’importe quel moment de la journée, voire certains soirs et le week-end.

« Le vendredi soir, en même temps que je viens chercher mes légumes, je trouve un espace qui est agréable, convivial. Ça fait plaisir de venir ici et c’est juste à côté de chez moi », témoigne un usager d’Agis.

Cette convivialité repose sur ce que les usagers anticipent trouver dans les tiers-lieux : des habitués qui sont parfois des amis, des salariés qui coordonnent les activités et rassurent par leur présence ou, de manière plus secondaire, une programmation culturelle.

Variétés d’activités

Les usagers valorisent la simplicité de leur engagement dans les tiers-lieux associatifs étudiés. Une adhésion annuelle suffit bien souvent à participer activement au fonctionnement du lieu : bricolage, cuisine, organisation d’évènements, etc. Une variété d’activités qui permet de se sentir utile par le « faire ».

« Et qu’est-ce qui t’a donné envie de venir ? »
« D’abord de cuisiner ensemble et [d’] offrir ce repas après. Et puis en me forçant aussi à être avec des gens que je ne connaissais pas. Quand je ne connais pas les gens, je suis assez en retrait mais, là, je plonge dans le bain », souligne un usager de La Cocotte solidaire.

L’engagement dans des activités de « transition » permet aux répondants de réaliser concrètement ce qui peut faire sens ou d’entrer en accord avec leurs valeurs personnelles : être conseillé lors d’un Repair Café, cuisiner un repas végétarien ou faciliter la collecte d’une Amap.

Interactions sociales sans jugement

Les tiers-lieux sont des lieux « ressources ». Les répondants valorisent le cadre et les moyens mis en place (humains, notamment) pour les accueillir et les écouter de manière inconditionnelle. En ce sens, ils viennent avant tout chercher des interactions sociales et des rencontres.

« Je sais que c’est un endroit convivial ici. Je viens pour passer un bon moment et sortir de l’isolement parce que, même si j’ai un mari à la maison, je ne connais pas grand monde à Nantes. C’est aussi pour rencontrer du monde ici », rappelle une usagère de La Cocotte solidaire.

En dehors du besoin de lien social, les usagers sont attirés par la possibilité de découvrir d’autres organisations qui forment un réseau autour du tiers-lieu. La possibilité d’accéder à de nouvelles connaissances et compétences les attire :

« Depuis que je viens là, à chaque fois que je fais quelque chose, j’apprends et ça, j’adore. Je vois bien que quand je demande un conseil à quelqu’un, il est content de m’expliquer », s’enthousiasme un usager de L’Établi.

Les tiers-lieux attirent des personnes de tous horizons, car ils mettent en œuvre de manière implicite une logique réciprocitaire de don et de contre-don. Ils créent des espaces informels valorisant la possibilité pour chacun de donner comme de recevoir.

Grâce à la convivialité, déjà centrale dans les écrits d’Oldenburg, ce troc est facilité et encourage les usagers à venir donner de leur temps, de leurs compétences, et du sens à leurs actions – tout en recevant de l’attention, de nouvelles connaissances, des biens ou des services écoresponsables.

The Conversation

Guillaume Denos a reçu des financements de l'Université d'Angers et de la Région Pays de la Loire pour mener cette étude dans le cadre des financements PULSAR. Il est membre bénévole de l'association La Cocotte Solidaire.

30.03.2026 à 11:12

Comment les managers marketing utilisent la cocréation pour reprendre le pouvoir

Carole Charbonnel, maître de conférences en sciences de gestion, spécialité marketing, Université Jean Moulin Lyon 3
Les opérations de cocréation associant marques et consommateurs se multiplient. Elles sont paradoxalement l’aveu d’une fragilité de la fonction marketing.
Texte intégral (1436 mots)

Les opérations de cocréation entre les marques et leurs consommateurs se sont largement développées. Une raison méconnue de cet engouement tient à l’affaiblissement de la fonction marketing dans l’entreprise. En faisant alliance avec les consommateurs, les managers marketing valorisent le rôle clé qu’ils occupent dans la relation avec le client final.


Au bord de la faillite dans les années 2000, Lego a fait de la cocréation un pilier de son renouveau grâce à la communauté Lego Ideas qui permet aux fans de créer de nouveaux designs. À l’instar de la marque danoise, les activités de cocréation sont déployées par des entreprises diversifiées, depuis L’Oréal et son forum de 13 000 consommateurs, qui proposent des idées et testent les produits, jusqu’à la marque solidaire C’est qui le patron ?, dont les clients déterminent les cahiers des charges produits et participent aux actions commerciales.

Les activités de cocréation, par lesquelles les marques interagissent et collaborent avec leurs consommateurs, constituent aujourd’hui une alternative aux méthodes traditionnelles du marketing, qui ne sollicitent pas la participation active du public. Les pratiques de cocréation suscitent toutefois de nombreuses critiques dans la sphère académique et médiatique.

Un travail gratuit des consommateurs ?

La collaboration des consommateurs permet en effet aux marques de bénéficier d’une forme de travail gratuit, bien que volontaire.

La cocréation est également considérée comme un levier par lequel le marché étend toujours plus son emprise sur les individus, sous couvert de dialogue et d’ouverture. La multinationale Mondelez a ainsi subi un bad buzz, lorsqu’elle a proclamé en 2020 remplacer le marketing par l’humaning, une approche censée mettre au premier plan la création de connexions avec les consommateurs.


À lire aussi : Les leçons marketing d’un chef-d’œuvre télévisuel, « Mad Men »


Face à ces critiques et au risque médiatique, une recherche académique publiée récemment dans la Revue française de gestion nous aide à mieux comprendre ce qui motive les praticiens du marketing à développer la cocréation avec les consommateurs.

De façon surprenante, les entretiens que j’ai menés avec une quinzaine de directeurs marketing chargés de grandes marques font ressortir que les activités de cocréation ne sont pas nécessairement mises en place selon une perspective de performance. En effet, les managers interrogés affirment être satisfaits de déployer une approche cocréative, mais ils reconnaissent ne pas savoir si celle-ci est réellement plus performante que des méthodes traditionnelles, car elle requiert plus d’investissement en temps managérial.

Un aveu de faiblesse de la fonction marketing ?

Loin de se fonder sur des moteurs objectifs, l’engouement pour la cocréation semble trouver sa source dans la situation perçue des managers au sein de l’organisation et face au marché. Contrairement aux praticiens interrogés qui privilégient des approches traditionnelles, tous les interviewés déployant des activités de cocréation expriment ainsi le sentiment d’une faiblesse de la fonction marketing face aux autres départements de l’entreprise : « Tout est drivé par l’agro-industrie » (Philippe), et souvent les ventes prédominent, car « On pense client (en l’espèce, le distributeur) plus que consommateur » (Nicolas).

Dans ce contexte, le marketing voit son rôle restreint à des activités opérationnelles au service d’autres fonctions :

« Tu peux imaginer le cafouillis total de gens qui [ne ] savent pas quel est le rôle du marketing, pour eux le rôle du marketing, c’est faire une brochure promotionnelle […] Avant d’aller voir les clients, les vendeurs viennent nous voir et disent : “Tiens, tu ne peux pas me faire une petite photo ?” […] Mon premier client, ce n’est pas mes clients, c’est mes collègues aux ventes. »
(Christophe.)

Non seulement ces managers peinent à influencer les politiques de l’entreprise, mais ils ressentent également une fragilité de l’expertise marketing vis-à-vis de consommateurs décrits comme volatils et difficiles à influencer.

Ces consommateurs relativement puissants, ils tentent de s’en faire des alliés à travers les pratiques de cocréation. En se prévalant de collaborer et de dialoguer avec leurs clients, ils ont le sentiment de se renforcer eux-mêmes au sein de l’organisation, ils parviennent à « ne pas se faire ridiculiser auprès du grand patron » (Christophe). Car la voix du marché est irréfutable :

« C’est pas moi qui déclare que ça marche, on a en ligne 150 femmes qui nous ont dit que ça marche. »
(Marie.)

Saper le pouvoir des autres fonctions

En opérant une alliance avec les consommateurs, les marketeurs seraient même susceptibles de saper le pouvoir des autres fonctions :

« Avec les interactions, les gens des autres fonctions sont dépossédés d’un certain pouvoir, ils acceptent d’être challengés, ils ont peur, maintenant la communauté les remet en cause […] J’ai levé le voile [sur un] un monstre, je ne sais pas si on est capable de prendre la mesure de cette évolution. »
(Florent.)

Dotés d’une image de puissance et d’autonomie, les consommateurs sont alors vus comme les acteurs volontaires d’une forme de démocratisation des activités marketing. Dans cette perspective, la question éthique liée à la mise au travail des consommateurs par les marques n’a logiquement pas de place :

« Les gens font des choses incroyables […] Ils essayent de s’amuser en ayant l’impression d’être aussi importants que celui qui représente l’entreprise […] Il y a aussi, sans doute de façon inconsciente, une notion qu’ils prennent le pouvoir sur l’entreprise, sur les produits ou sur la comm’. C’est une façon de remettre la main dessus et ça, c’est extrêmement valorisant, voire pour certains extrêmement jouissif ! »
(Florent.)

Alors que le recul d’influence de la fonction marketing au sein des entreprises est largement étayé par la recherche, cette étude nous aide à mieux comprendre pourquoi la cocréation est devenue une approche usuelle en dépit de critiques répétées et d’une difficulté à évaluer sa performance.

Les managers du marketing d’aujourd’hui tentent d’exploiter la figure du consommateur roi, suivant en cela les pas de leurs prédécesseurs des années 1960, qui s’étaient imposés dans les entreprises grâce au concept de centralité du consommateur.

BFM Business, 2026.

Il semble néanmoins nécessaire que ces managers d’aujourd’hui prennent en compte les enjeux éthiques soulevés par la cocréation. Ceci exige de reconnaître que la collaboration des clients est une forme de travail nécessitant rémunération, et de renoncer à tout discours associant la cocréation à un marketing plus démocratique. Les praticiens du marketing gagneront à assumer, enfin, que leurs activités de cocréation sont dirigées par l’entreprise afin de servir une finalité lucrative.

The Conversation

Carole Charbonnel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

30.03.2026 à 11:12

Écouter résonner les crises dans les parcours de vie de deux entrepreneuses : découvrir l’impact d’une lecture sensible au long cours

Julie Tixier, Maîtresse de Conférences en sciences de gestion, Université Gustave Eiffel
Amélie Notais, Maîtresse de Conférences en Sciences de Gestion, Le Mans Université, Le Mans Université
Le parcours de deux entrepreneuses montre à quel point celui-ci est indissociable de la notion de crise. Traverser une crise, c’est un moyen de se transformer et de transformer son projet.
Texte intégral (2209 mots)

Loin des clichés et des récits édifiants d’entrepreneurs héroïques, l’examen du parcours de deux femmes montre au contraire que le processus n’est pas linéaire. Traversant des crises successives, Claire et Fatou s’affirment au fil de la démarche prouvant qu’« on ne naît pas entrepreneuse, on le devient ».


Qu’elle soit climatique, économique ou encore sanitaire, la crise toucherait en priorité les femmes. En effet, les femmes représentent 70 % des travailleurs pauvres et, selon les Nations unies, face aux crises climatiques, les femmes seraient quatorze fois plus susceptibles de mourir que les hommes, principalement en raison d’un accès limité à « l’information, d’une mobilité restreinte, d’un manque de prise de décision et de ressources ».

Pour autant, des femmes s’emparent parfois de certains de ces moments instables, au travers de l’entrepreneuriat. Les parcours suivis sur plusieurs années de Fatou et de Claire (les prénoms ont été changés, ndlr), deux entrepreneuses, sont mobilisés pour dépasser la seule lecture objective, linéaire et extrinsèque de la crise. Ces parcours sont analysés plus en détail dans un article de la revue RIMHE.

L’approche féminine et féministe de cette recherche « embrasse des formes de théorisation plus humaines, plus fluides et plus ouvertes, ancrées dans des questions qui nous sont véritablement proches (…) et qui reconnaissent notre ancrage dans notre monde et notre responsabilité envers les autres ». Cette posture phénoménologique saisit « l’expérience vivante du monde » de deux entrepreneuses singulières. Elle amène à essayer de comprendre les significations, les logiques et le sens des éléments vécus, observés.

Cette logique nous a guidées pour rendre compte au plus près des ressentis, des parcours des femmes dans leur entièreté : factuelle, émotionnelle, relationnelle. La granularité fine de l’étude de ces deux récits permet d’explorer la richesse d’une lecture deleuzienne de l’entrepreneuriat en train de se faire et d’illustrer un « devenir entrepreneuse » qui s’inscrit dans la lignée de ce que Deleuze et Guattari ont défini comme le « devenir femme ».

En adoptant une méthodologie longitudinale, cette recherche met en évidence comment il est possible de composer avec, voire de transcender, les crises et de se construire en fonction d’elles.

Identité entrepreneuriale en construction

Les crises apparaissent de façon régulière dans leur vie. Claire et Fatou racontent combien chaque crise peut être à l’origine d’une insécurité, d’une instabilité, et ainsi amorcer un diagnostic, conduire à une réflexion voire à une évolution de l’identité et/ou du projet entrepreneurial. Ce sont autant de turbulences et de rencontres qui, suivant le moment de l’histoire de l’entrepreneuse, peuvent conduire ou non à une résonance qui orientera plus ou moins durablement les pratiques de l’entrepreneuriat et la construction de l’identité entrepreneuriale.

« J’étais dans une période où je me disais que ce serait intéressant d’entreprendre, mais c’est vraiment la rencontre de mon associée et le fait que c’était le bon moment pour moi pour me dire, “Allez, c’est parti !” »
(Claire.)


À lire aussi : La femme pour l’entrepreneuriat social, l’homme, pour l’entrepreneuriat tout court… Archéologie d’une croyance


Pour sa part, au cours d’un master 2, Fatou réalise un travail en groupe sur un habitat intergénérationnel innovant en milieu ouvert pour des cas d’Alzheimer, dans une maison « à taille humaine ». Pour cette femme qui s’engage dans les études, après dix ans de vie professionnelle comme assistante sociale, il s’agit d’un temps de rupture pour se consacrer à ce qui lui tient à cœur. C’est ce travail universitaire qui va résonner avec son désir d’entreprendre pour travailler à un modèle inclusif pour les personnes âgées.

À chacune son déclic

Fatou est la seule de son groupe à souhaiter œuvrer à la concrétisation d’un tel projet. Elle choisit de rechercher et d’adapter son projet à son environnement plus urbain. Parallèlement, elle saisit l’opportunité de devenir étudiante-entrepreneuse pour bénéficier d’un coaching. À l’issue de son master 2 en économie sociale et solidaire, Fatou décide d’intégrer un nouveau master 2, spécialisé en entrepreneuriat (en alternance), afin de tout mettre en œuvre pour son projet.

Claire est cadre, directrice des achats d’un grand groupe, quand elle découvre le portrait d’une porteuse de projet à impact dans un magazine engagé en faveur de l’écologie. Cette découverte fortuite sème la graine, ouvrant son chemin vers l’entrepreneuriat. Le témoignage de cette femme qui a son âge et semble partager avec elle un ensemble de valeurs lui « parle ».

Au moment de cette lecture, elle sait qu’elle devra bientôt quitter son poste pour suivre son mari, muté dans une nouvelle région. Après en avoir discuté, le couple a fait ce choix familial délicat de déménager, et ce, malgré l’absence de perspectives professionnelles pour Claire au sein de son entreprise dans ce nouveau lieu de résidence.

Contacts en ligne

C’est dans ce contexte incertain qu’elle s’efforce de provoquer la rencontre de cette porteuse de projet à impact. En quelques clics, Claire identifie l’incubateur de cette entrepreneuse et ses coordonnées. Elle la contacte et, peu après leur premier échange téléphonique, les deux femmes s’associent. La région au sein de laquelle la famille de Claire s’installe s’avère rapidement intéressante pour son projet entrepreneurial. Elle lui offre un territoire d’accueil chaleureux au sein duquel déployer son entreprise.

Claire est en région, et son associée à Paris. Cette gestion bicéphale s’accoutume bien de la distance géographique et en fait même rapidement un atout pour répartir les tâches de chacune. Ce qui, au début, s’apparente à une crise professionnelle (pas de poste de même niveau possible sur le nouveau territoire d’affectation de son mari) est transformé par Claire en une opportunité. Elle décide de se lancer dans une nouvelle aventure professionnelle et d’ouvrir la porte de l’entrepreneuriat.

La crise, un moment décisif pour un autodiagnostic

Pour Fatou comme pour Claire, on s’aperçoit que l’intention d’entreprendre prend forme après une crise, un moment décisif, empli de doutes et d’instabilités et, simultanément, propre à l’autodiagnostic : la formation pour l’une, la mobilité géographique contrainte pour l’autre. La crise est l’étincelle qui alimente le feu entrepreneurial. Toutes deux permettent aux signaux qu’elles lisent et/ou entendent de résonner suffisamment fort pour s’inscrire dans leur parcours et les mettre en action. Claire résume cela en ces termes :

« J’avais certainement un peu les oreilles ouvertes sur ce type de sujet ! »

Elles laissent cette résonance faire écho, se propager, grandir et ainsi façonner leur idée d’entreprendre et de devenir entrepreneuse. La crise apparaît dans les parcours de Fatou et de Claire comme plurielle.

Un chamboulement interne

Durant un « hackathon » (concours d’innovation en temps limité, ndlr), des étudiants en alternance, souvent en reprise d’études, travaillent sur le projet de Fatou. Leurs connaissances professionnelles du secteur et de ses impératifs sont mises à profit durant trois jours. Fatou mesure l’importance de ces conseils, et l’on perçoit physiquement le chamboulement interne de Fatou qui absorbe le choc de l’afflux d’éléments à prendre en considération.

Les retours des étudiants, notamment sur les plannings de demandes de financement, sur les lieux potentiels, sur les subventions et sur le budget de fonctionnement, sont autant d’éléments qui la propulsent dans un autre périmètre de son projet. Très vite, elle analyse et reconfigure son projet en fonction des éléments fournis et avance considérablement dans sa démarche. Elle se retourne vers nous pour nous confier, abasourdie :

« Ils m’ont fait gagner deux ans dans mon projet ! »

Elle a pleinement conscience de l’intérêt de ces rencontres et souhaite les multiplier de manière continue. Quelques mois plus tard, grâce à une rencontre avec le maire d’une ville voisine, elle a pu trouver la maison qui abrite aujourd’hui son projet et se lance dans les travaux d’aménagement du lieu.


À lire aussi : Le microcrédit, un outil financier qui peut coûter cher aux femmes


Une identité qui s’affirme

C’est à trois reprises que Fatou s’est présentée comme entrepreneuse auprès de trois groupes d’étudiant·es différents. À chaque fois, nous avons clairement observé une évolution quant à sa posture en tant qu’entrepreneuse. Elle se présente aux étudiant·es, la première fois en tant qu’ancienne étudiante, puis de plus en plus comme entrepreneuse. Au travers de l’exercice structurant du pitch entrepreneurial, Fatou affirme son identité d’entrepreneuse et prend confiance en elle dans ce nouveau costume.

Plusieurs mois les débuts de Claire dans l’entrepreneuriat, son mari perd son emploi. La famille se retrouve alors dans une nouvelle région, où elle a emménagé pour un travail qui n’existe plus. Après le choc de la nouvelle, Claire trouve certains avantages à cette période d’inactivité de son mari. Elle découvre la gestion d’un business sans la pression des tâches quotidiennes, déléguées totalement à son mari :

« Quand on n’a pas que cela à faire, on peut avancer, c’est facile. »

Durant cette période, elle recrute et fait grandir l’équipe qui l’entoure en région.

« Femmes, cheffes d’entreprise », M6 Media Bank, 2023.

Entreprendre, un travail émotionnel

Plus que la crise, cette analyse montre que c’est ce que l’on en fait, chemin faisant, qui compte. L’étude en quelques étapes clés des parcours de ces deux entrepreneuses illustre la nécessité de mieux observer et de rendre compte du travail émotionnel, de digestion de la crise, de diagnostic qui trame l’entrepreneuriat en train de se faire. Loin d’être exceptionnelles, les crises se révèlent récurrentes, dès lors que le chercheur ou la chercheuse dézoome et considère le parcours entrepreneurial dans sa dynamique.

Nous donnons à voir une trajectoire qui compose avec les crises, s’en arrange et parfois les transcende. Les crises, d’intensité et de nature variables, rythment le parcours, et certaines contribuent à le nourrir. L’inscription des crises dans un contexte sensible, subjectif et sur un temps long permet de saisir l’importance de leur résonance en tant qu’élément transformatif.

Tantôt fondatrice, tantôt incrémentale, la crise peut largement contribuer à façonner l’entrepreneuriat en train de se faire. Elle forme une brèche régulière qui pousse à avancer, à construire et à se construire comme entrepreneuse. Tout au long du parcours entrepreneurial, les cheffes d’entreprise performent et affinent progressivement leur identité entrepreneuriale. La notion de crise comme rencontre, au sens deleuzien, avec ce « dehors, quelque chose qui brutalise les schémas de pensée préétablis », est ici revisitée à l’aune de l’identité en train de se faire, et d’un devenir entrepreneuse.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

30.03.2026 à 11:12

Quand l’IA trahit les identités professionnelles

Youssef Souak, PhD - Assistant Professeur- INSEEC Business School, INSEEC Grande École
Claudia-Roxana RUSU, Professeure assistante, ESSCA School of Management
Demba Ousmane DIOUF, Professeur assistant en marketing, PSB Paris School of Business
L’IA est un outil qui finit par changer celles et ceux qui l’utilisent. En particulier, c’est l’identité professionnelle des personnes qui est affectée. Notamment celle des plus jeunes.
Texte intégral (2165 mots)
Le recours à l’IA n’est pas neutre quant à la définition de l’identité professionnelle des individus (visuel créé par IA).

Utilisée dans un cadre professionnel, l’IA est souvent perçue comme un simple outil. Son usage peut pourtant avoir un impact sur la façon dont les individus construisent leur identité au travail. Les jeunes professionnels sont particulièrement exposés et pourraient rencontrer à terme des difficultés à reconnaître qui ils sont vraiment.


Votre CV est rédigé par ChatGPT. Votre profil LinkedIn, peaufiné par un algorithme. Vos mails professionnels sont corrigés en temps réel. Les conséquences de l’usage de l’intelligence artificielle (IA) dans un cadre professionnel ne se limitent pas à un gain de temps et d’efficacité. C’est votre identité professionnelle qui est en train de se redéfinir. Silencieusement. Profondément.

Il vaudrait mieux que ce ne soit pas à votre insu.

Être ou ne pas être authentique

Imaginez deux candidats à un même poste. L’un a rédigé sa lettre de motivation à la main, laborieusement, avec ses propres mots. L’autre a utilisé un assistant d’IA générative pour structurer, affiner et polir son discours en quelques minutes. Lequel est le plus compétent ? Lequel est le plus authentique ? Et surtout, lequel est le plus vraiment lui-même ?

Ces questions émergent aujourd’hui au cœur du marché du travail. De plus en plus, elles seront au centre du monde professionnel.


À lire aussi : Salariés, chefs d'entreprises : l'IA va tout changer, profitez-en !


« L’intelligence artificielle générative (IA générative) est une catégorie d’IA qui se concentre sur la création de données, de contenus ou de choses artistiques, de façon indépendante. Elle diffère de l’IA classique, qui se concentre, quant à elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA générative vise à produire de nouvelles données qui ressemblent à celles créées par des êtres humains, que ce soit sous forme de textes, d’images ou encore de musique, par exemple»,

indique un article publié par Big média.

L’essor fulgurant des outils d’IA générative (Lechat, ChatGPT, Copilot, Claude…) transforme non seulement la manière dont nous travaillons, mais aussi la manière dont nous nous présentons, dont nous évaluons nos compétences, et dont nous construisons notre identité professionnelle.

C’est ce que révèle une étude qualitative menée auprès d’étudiants en alternance et de professionnels en activité dans des secteurs variés. À travers vingt-cinq entretiens approfondis, une double tension est apparue avec une fréquence remarquable : l’IA comme levier de professionnalisation… et l’IA comme source d’interrogation sur soi.

Qui parle ?

L’identité professionnelle n’est pas un fait donné. Elle se construit dans les interactions, les reconnaissances, les réussites accumulées. Depuis les travaux fondateurs du sociologue Claude Dubar, on sait que l’identité au travail résulte d’une transaction permanente entre ce que l’on pense être et ce que les autres reconnaissent en vous.

Or, l’IA vient perturber cette transaction. Quand une machine formule à votre place un argument que vous n’auriez pas trouvé seul, que reste-t-il de votre contribution réelle ? Que dit de vous le fait que vous ayez su bien poser la question ?

Quand un algorithme optimise votre profil LinkedIn de façon à en maximiser la visibilité, est-ce encore vous qui parlez ?

Plusieurs professionnels interrogés dans le cadre de notre étude expriment ce malaise avec une acuité saisissante. La frontière entre assistance et substitution devient floue, et avec elle, la frontière entre compétence réelle et compétence simulée.

« Quand j’utilise l’IA, j’ai l’impression que mon travail n’est pas honnête, que c’est pas vraiment moi qui l’ai fait. Le fait de tout donner à un outil remet en question mes propres capacités et la valeur que j’attribue à mon investissement. »
Étudiant en alternance dans le secteur financier.

Une forte tension identitaire

Ce témoignage n’est pas isolé. Il révèle une tension identitaire profonde entre l’identité « pour soi » – fondée sur l’effort, l’expertise, l’investissement personnel – et l’identité « pour autrui », c’est-à-dire l’image projetée vers les recruteurs, les collègues, les clients. L’IA peut soigner la seconde tout en fragilisant la première.

Cette fragilisation est d’autant plus insidieuse qu’elle opère à bas bruit. Ce n’est pas une perte de compétence objectivable, mais un ébranlement de la confiance en sa propre valeur. Ce que les psychologues nomment le « sentiment d’efficacité personnelle », théorisé par Albert Bandura, est mis à rude épreuve.

Ce phénomène a désormais un nom dans la littérature en sciences de gestion : la « menace de l’identité professionnelle » (Professional Identity Threat)

Une étude internationale publiée en 2025 dans la revue AI & Society confirme que plus un professionnel perçoit l’IA comme une menace pour son identité, moins il est enclin à l’adopter. Or, l’article montre également que les professionnels qui ont le plus besoin de maîtriser l’IA pour protéger leur position sont précisément ceux qui résistent le plus à l’adopter. Ceci crée un paradoxe productif et identitaire à la fois.

L’efficacité personnelle, une croyance ancrée dans l’expérience

Le sentiment d’efficacité personnelle désigne la conviction qu’a un individu de sa capacité à accomplir des tâches données. Ce n’est pas l’estime de soi en général mais une croyance spécifique, ancrée dans l’expérience : « Je suis capable de faire ce travail, même lorsque c’est difficile. »

Or, l’usage répété de l’IA peut progressivement éroder cette conviction. Plusieurs participants à notre étude décrivent un phénomène de dépendance progressive, presque invisible. On commence par vérifier un mail avec l’IA. Puis on ne sait plus envoyer un mail sans elle.

« Même si je suis sûre de moi, j’ai quand même ce réflexe automatique d’aller vérifier. Et ça crée une perte de confiance. Je me demande comment est-ce qu’avant je faisais sans l’IA ? »
Étudiante en alternance dans un cabinet de recrutement spécialisé dans la santé.

Plus ou moins de compétences

Ce témoignage illustre un paradoxe majeur. Conçue pour augmenter les capacités humaines, l’IA peut in fine les fragiliser psychologiquement. Non parce que l’individu perd réellement ses compétences, mais parce qu’il cesse de croire en elles indépendamment de l’outil.

Ce glissement est particulièrement préoccupant pour les jeunes professionnels en phase de construction identitaire. Ils n’ont pas encore accumulé suffisamment d’expériences fondatrices pour asseoir leur confiance sur un socle solide. L’IA risque alors de court-circuiter ce processus d’apprentissage par l’erreur et le dépassement de soi, pourtant essentiel au développement de l’identité professionnelle.

L’article de Nir Eisikovits et de Jacob Burley publié dans The Conversation, évoquait déjà les questions éthiques soulevées par l’utilisation de l’IA en contexte d’apprentissage d’étudiants du supérieur. Leur réflexion met en évidence le phénomène de « décharge cognitive » au cœur de la déstructuration du processus d’acquisition des connaissances.

En revanche, chez les professionnels expérimentés, l’équation semble différente. Forts d’un sentiment d’efficacité consolidé par des années de pratique, ils utilisent l’IA comme un amplificateur, non comme une béquille. Elle « professionnalise », « structure », « met des mots plus justes » – sans remettre en cause leur conviction d’être l’auteur véritable du travail produit.

Se vendre ou se trahir ?

Le personal branding ou marque personnelle, désigne la stratégie par laquelle un individu construit et diffuse une image professionnelle cohérente pour se différencier sur le marché du travail. LinkedIn en est l’arène principale, mais il s’étend à tout ce qui construit la réputation du salarié, aussi bien ses publications que ses interventions et autres recommandations.

L’IA transforme profondément les règles de ce jeu. Elle permet de produire des contenus « polishés », des profils optimisés, des CV sans fautes, quel que soit le niveau réel de l’individu. Elle démocratise la qualité de surface tout en risquant de niveler par le haut une concurrence déjà féroce.

Fnege Médias, 2025.

Un révélateur de fragilité

L’un des enseignements les plus marquants de cette recherche est peut-être le suivant : loin d’inventer les fragilités identitaires, l’IA agit comme un révélateur. Quand un étudiant ressent que son travail « n’est pas vraiment lui » lorsqu’il utilise l’IA, c’est souvent le signe que son identité professionnelle n’est pas encore suffisamment ancrée pour résister à l’intermédiation technologique.

En revanche, ceux qui disposent d’une identité professionnelle solide, construite sur des expériences vécues, des réussites reconnues, une trajectoire cohérente, intègrent l’IA sans s’y perdre. Ils la décrivent comme « une version améliorée d’eux-mêmes », non comme un substitut.

Ce constat a des implications importantes pour les établissements d’enseignement supérieur. Former des étudiants à l’IA ne peut pas se réduire à leur apprendre des outils. Il faut les aider à construire, avant tout, une identité professionnelle assez robuste pour que l’IA reste un levier et ne devienne pas une prothèse.

Apprendre à construire une identité

Développer cette identité suppose de travailler la réflexivité : la capacité à observer ses propres actions, à reconnaître ce qui vient réellement de soi et ce que l’on projette sur une machine. Cela implique aussi de mettre en valeur les expériences fondatrices : les échecs, les négociations compliquées, les projets menés jusqu’au bout sans soutien extérieur.

Aux amateurs de science-fiction et aux autres, la question n’est pas tant de savoir si l’IA va « prendre » les emplois. Elle est autrement plus subtile et plus urgente : l’IA va-t-elle vampiriser les identités professionnelles des individus ?


Cet article est fondé sur une étude qualitative, menée entre décembre 2025 et janvier 2026, s’appuyant sur 25 entretiens semi-directifs approfondis auprès d’étudiants en alternance et de professionnels en activité (assurance, finance, commerce, droit, management, technologie). Les auteurs remercient Yaël Salomon, étudiante de l’Inseec Grande École, pour sa contribution à la collecte et à la retranscription des données empiriques qui fondent cette étude.

The Conversation

Claudia-Roxana RUSU est membre de laboratoire de recherche IRGO de l'Université de Bordeaux.

Demba Ousmane DIOUF et Youssef Souak ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

30.03.2026 à 11:11

Robots, IA, numérique : et si les syndicats accéléraient la transformation technologique ?

Patrice Laroche, Professeur des Universités en sciences de gestion, Université de Lorraine
Le lien entre présence de syndicats et adoption de technologies innovantes n’est pas forcément celui qu’on croit. Tout dépend du contexte institutionnel.
Texte intégral (1628 mots)

Robots, intelligence artificielle, numérique : à mesure que les technologies transforment le travail, les syndicats sont souvent présentés comme un obstacle à l’innovation. Sur quelles preuves repose cette opinion ? Et si, loin de freiner la transformation technologique, le dialogue social pouvait aussi l’accélérer… Au-delà des discours à l’emporte-pièce, les syndicats de salariés constituent-ils vraiment un frein à l’innovation technologique ? Ou sont-ils, dans certains contextes, un atout ?


Profondément ancrée, la représentation des syndicats comme étant par nature hostiles aux innovations et au changement technologique repose davantage sur des idées reçues que sur des résultats empiriques robustes. Les statistiques internationales disponibles ne suggèrent pas de relation mécanique négative entre syndicalisation et adoption de nouvelles technologies (Figure 1).

En effet, les pays nordiques, caractérisés par une forte syndicalisation, figurent parmi ceux où l’usage de l’IA est le plus répandu, tandis que plusieurs pays faiblement syndiqués affichent de façon égale des niveaux d’adoption modestes. Cette dispersion suggère que la présence syndicale, en elle-même, n’explique pas les écarts d’adoption technologique. Ces écarts invitent plutôt à s’intéresser aux cadres institutionnels et aux modalités du dialogue social.

Figure 1 – Syndicalisation et adoption de l’IA dans les entreprises européennes en 2024

Un débat ancien et loin d’être tranché

En fait, la relation entre syndicats et investissement productif est l’un des grands classiques de l’économie du travail.

Avec mon collègue Chris Doucouliagos, nous avions d’ailleurs proposé, il y a quelques années, une méta-analyse de la littérature sur cette question. Cette étude montrait que les effets des syndicats sur l’investissement et l’innovation étaient loin d’être univoques et dépendaient fortement des contextes institutionnels.

Elle mettait en évidence une opposition récurrente entre deux visions théoriques :

  • d’un côté, les syndicats comme freins à l’investissement ;
  • de l’autre, les syndicats comme acteurs du dialogue social susceptibles de favoriser des stratégies de long terme.

C’est précisément dans le prolongement de ce débat que s’inscrit, aujourd’hui, la question de l’adoption des technologies numériques avancées.


À lire aussi : La responsabilité sociale des entreprises, un outil pour court-circuiter les syndicats ?


Débats théoriques

La théorie économique n’offre pas une prédiction unique quant au rôle des syndicats. Dans une représentation néoclassique standard, la présence syndicale est associée à la hausse du coût du travail. À technologie donnée, cette augmentation du salaire relatif incite les entreprises à substituer du capital au travail, ce qui peut se traduire par davantage d’investissement productif ou technologique.

À l’inverse, la théorie dite du hold-up, proposée initialement par les économistes américains Benjamin Klein, Robert Crawford et Armen Alchian, souligne un mécanisme de désincitation à investir. En anticipant qu’une partie des gains liés à l’investissement pourra être captée plus tard par les salariés (à travers la négociation salariale, par exemple), l’entreprise peut renoncer à certaines technologies pourtant techniquement accessibles, conduisant à un sous-investissement.

Enfin, une troisième approche met l’accent sur le rôle des syndicats comme mécanismes de voix collective. En facilitant la coordination, la formation et l’acceptation du changement, le dialogue social peut rendre l’investissement plus efficace et plus durable.

L’influence du cadre institutionnel de négociation

L’importance relative de ces mécanismes dépend étroitement du cadre institutionnel dans lequel s’exerce la représentation syndicale, comme l’ont souligné les économistes Justus Haucap et Christian Wey. En particulier, l’effet des syndicats sur l’adoption des technologies numériques dépend étroitement du niveau auquel s’organise la négociation collective et du rôle concret que jouent les représentants du personnel dans l’entreprise.

Avec sa négociation salariale largement centralisée et son dialogue social de proximité, l’Italie est un terrain d’observation particulièrement éclairant. En Italie, la négociation salariale est largement centralisée au niveau des branches tandis que la représentation syndicale en entreprise porte davantage sur l’organisation du travail, la formation et les conditions d’emploi. Cette configuration limite les comportements de captation de rente au niveau de l’entreprise et renforce le rôle des syndicats comme acteurs du dialogue social local.

C’est dans ce contexte qu’une étude récente des économistes Fabio Berton, Stefano Dughera et Andrea Ricci, menée sur plusieurs milliers d’entreprises italiennes, analyse l’adoption des technologies numériques avancées, en mobilisant une méthodologie rigoureuse visant à corriger les biais de causalité.

Des résultats clairs… et contre-intuitifs

Pour dépasser ce problème classique de causalité, les auteurs ont eu recours à une méthode dite des variables instrumentales. Ils exploitent notamment un indicateur original : le niveau de dons de sang par habitant observé au niveau provincial dans les années 1990. Le don du sang reflète des dispositions altruistes et un sens du collectif, qui favorisent la présence syndicale, sans lien direct avec les choix technologiques des entreprises plusieurs décennies plus tard. Combiné à des informations sur la diffusion passée des syndicats par secteur et par région, cet outil permet d’isoler un effet propre de la représentation du personnel sur la transformation numérique des entreprises.

Le constat est sans ambiguïté : les entreprises dotées d’une représentation syndicale ont une probabilité significativement plus élevée d’adopter des technologies numériques avancées. En moyenne, cette probabilité est supérieure d’environ 15 points de pourcentage par an par rapport aux entreprises non syndiquées. Ces entreprises n’adoptent pas seulement plus souvent une technologie, mais en adoptent également un plus grand nombre, signe d’une transformation numérique plus profonde.

Des syndicats pour mieux identifier les résistances internes

Plusieurs mécanismes permettent de comprendre ce résultat. D’abord, la présence syndicale peut réduire les résistances internes face au changement. En donnant aux salariés une possibilité de s’exprimer, elle permet d’anticiper les conflits et de négocier les modalités de la transition technologique.

Ensuite, les entreprises « syndiquées » investissent davantage dans la formation et connaissent une plus grande stabilité de l’emploi. Or, les technologies numériques avancées nécessitent souvent des compétences spécifiques et une accumulation de savoirs internes, qui s’accommodent mal d’un fort turnover.

CFDT Cadres, 2019.

Enfin, le dialogue social contribue à instaurer un climat de confiance propice à l’investissement de long terme. La transformation numérique n’est pas seulement une affaire de machines, mais aussi d’organisation et de coopération.

Les élus du personnel, des agents favorables à la transformation ?

Ces résultats ne signifient pas que la présence syndicale favorise partout et toujours l’innovation. Ils soulignent surtout l’importance du cadre institutionnel. Dans des systèmes où la négociation est très décentralisée et où les syndicats disposent d’un fort pouvoir de fixation des salaires au niveau de l’entreprise, les effets peuvent être différents. Ils mettent également en lumière une limite importante de l’étude italienne : les auteurs ne distinguent pas la nature des organisations syndicales présentes dans l’entreprise.

Or, cette dimension est loin d’être anodine. Dans des contextes marqués par un fort pluralisme syndical, comme l’Italie – ou la France –, les syndicats peuvent poursuivre des stratégies différenciées et entretenir des relations variées avec les employeurs, susceptibles d’influencer les dynamiques d’innovation. Au fond, ce n’est donc pas tant la présence de syndicats qui importe que leurs modes d’action : selon les configurations, ils peuvent tout autant freiner l’innovation que la rendre possible.

À l’heure où l’intelligence artificielle et l’automatisation suscitent de fortes inquiétudes sociales, ces résultats invitent à dépasser une opposition simpliste entre innovation et protection des salariés. La transformation technologique est aussi un processus social, qui gagne à être négocié plutôt qu’imposé. Dès lors, plutôt que d’affaiblir le dialogue social au nom de la compétitivité, il pourrait être plus efficace de le renforcer pour accompagner la transition numérique des entreprises.

The Conversation

Patrice Laroche dirige le programme WAVE (Workplace Arrangements and Voice Effects) financé par l'Agence nationale de la recherche (ANR) au sein du CEREFIGE (Université de Lorraine)

29.03.2026 à 16:41

« Fluxuat » nec mergitur : géopolitique des flux et conflits maritimes contemporains

Xavier Carpentier-Tanguy, Indopacifique, Géopolitique des mondes marins, réseaux et acteurs de l'influence, diplomatie publique, Sciences Po
Face aux stratégies de déni d’accès et aux menaces hybrides sur les flux mondiaux, les États-Unis et l’Europe cherchent à renforcer leur contrôle sur les voies maritimes mondiales.
Texte intégral (2546 mots)

Les mers et les océans du monde entier sont avant tout des lieux de passage pour navires commerciaux et militaires, et à ce titre deviennent des lieux de conflictualité dont le contrôle est essentiel du point de vue stratégique comme économique.


Alors que l’Iran a restreint l’accès au détroit d’Ormuz, provoquant une envolée des primes d’assurance et un ralentissement brutal des flux de pétrole et de gaz, la vulnérabilité de l’économie-monde apparaît au grand jour. Les frappes croisées, les menaces d’« escortes armées » et la militarisation accélérée du golfe Persique font de ce passage un laboratoire des conflits du XXIᵉ siècle.

Cette crise ne surgit pas ex nihilo : elle prolonge une longue histoire de bras de fer autour des détroits, canaux et mers intérieures. De Panama à Ormuz, en passant par la mer Rouge et l’espace arctique, ce sont les mêmes logiques de contrôle des flux qui sont à l’œuvre.

Du canal de Panama au détroit d’Ormuz

Depuis 2025, les États-Unis ont intensifié leur engagement stratégique pour le contrôle des espaces maritimes et des points de transit critiques, à travers une série d’opérations militaires et diplomatiques ciblées. En Amérique latine, cette posture s’est traduite par une intervention directe au Venezuela en janvier 2026, où une « attaque de grande envergure » a visé les infrastructures militaires et portuaires, notamment la base aérienne Generalissimo Francisco de Miranda et le port de La Guaira, principal accès maritime de Caracas. Cette opération, baptisée Absolute Resolve, a permis la capture du président Nicolás Maduro, accusé de trafic de drogue et de déstabilisation régionale, et a confirmé la volonté américaine de sécuriser les routes des Caraïbes et de contrer l’influence chinoise et russe dans la région.

Dès les années 1980, les États-Unis avaient déjà affirmé leur présence en Amérique centrale, avec des opérations comme Urgent Fury à Grenade en 1983, visant à protéger les ressortissants américains et à limiter l’influence cubaine. En décembre 1989, l’opération Just Cause au Panama a marqué un tournant : près de 27 000 soldats américains ont été déployés pour renverser le général Manuel Noriega, ancien allié devenu un obstacle à la stabilité régionale et à la maîtrise du canal de Panama, un point de passage stratégique pour le commerce mondial.

Plus récemment, les ambitions américaines se sont étendues à l’Arctique. Rappelons que l’administration Trump évoquait déjà sa volonté d’acquérir le Groenland en 2019, volonté réaffirmée avec force depuis un an. Cette initiative est révélatrice de l’importance croissante des routes maritimes polaires dans un contexte de fonte des glaces. Cette volonté de contrôle s’est poursuivie en 2025-2026 avec le renforcement des patrouilles et des infrastructures militaires dans la région, visant à sécuriser les accès au passage du Nord-Ouest et à contrer les ambitions russes et chinoises.

En février 2026, les États-Unis ont lancé l’opération « Epic Fury » contre l’Iran, une campagne militaire d’ampleur visant à neutraliser les capacités balistiques et navales iraniennes, ainsi qu’à empêcher toute reconstitution rapide de ces forces. Déclenchée le 28 février 2026, cette opération a mobilisé des frappes aériennes massives, des drones et une coordination interarmées, confirmant la volonté américaine de contrôler les espaces stratégiques du Moyen-Orient et de sécuriser les flux énergétiques et commerciaux — une volonté qu’a encore accrue la fermeture par Téhéran du détroit d’Ormuz.

L’implication européenne

Face à cette escalade, l’Europe a réagi avec détermination. Plusieurs États membres de l’UE ont déployé des moyens navals significatifs pour sécuriser Chypre et les axes maritimes stratégiques vers Suez et Ormuz. L’Italie a déployé la frégate Martinengo près de Chypre aux côtés de la frégate espagnole Cristobal Colon, tandis que les Pays-Bas ont préparé la frégate HNLMS Evertsen pour des opérations régionales. L’Allemagne a envoyé la frégate FGS Nordrhein-Westfalen dans la zone de Chypre, et la Grèce a mobilisé sa nouvelle frégate Kimon, équipée d’un système de défense aérienne longue portée, ainsi que la frégate de classe Hydra Psara. Le Royaume-Uni a annoncé l’envoi du destroyer de défense aérienne HMS Dragon à Chypre, équipé du système de missiles Sea Viper, ainsi que des hélicoptères dotés de capacités anti-drones. La France, enfin, a ordonné le déploiement de son porte-avions Charles-de-Gaulle, qui était encore en Baltique, ses moyens aériens embarqués et son escorte de frégates vers la Méditerranée.


À lire aussi : Le déploiement français au large de la guerre en Iran : cadre juridique et modalités d’action


Cette mobilisation européenne coordonnée vise à protéger les bases britanniques à Chypre, frappées par des drones iraniens, et à sécuriser les routes énergétiques vitales alors que la circulation dans le détroit d’Ormuz demeure un enjeu capital, perturbant l’approvisionnement mondial en pétrole et gaz.

En mars 2026, la pression exercée sur l’Iran s’inscrit dans cette continuité stratégique : elle illustre une doctrine de sécurisation des flux énergétiques, commerciaux et numériques, désormais concentrés dans des zones pivots comme le golfe Persique, la mer Rouge, la Méditerranée occidentale et le Haut-Nord.

Le détroit d’Ormuz, par lequel transitent entre 20 et 25 % du pétrole et du gaz naturel liquéfié mondiaux, reste le goulot d’étranglement central de l’économie globale. Sa géographie offre à Téhéran un levier structurel pour perturber la liberté de navigation. Les analyses de renseignement maritime de 2024 montrent que la contraction du trafic dans cette zone résulte de la dissuasion indirecte iranienne et de l’impact des primes d’assurance, même en l’absence de minage massif. Contrairement à Gibraltar ou à Suez, les navires traversant Ormuz atteignent directement les côtes du Golfe, où se concentrent des infrastructures pétrochimiques, des terminaux de GNL et des unités de dessalement, devenues des cibles stratégiques.


À lire aussi : Du détroit d’Ormuz à l’Europe : comprendre la rapidité de la propagation de l’insécurité énergétique


L’évolution du combat naval au cours des dernières décennies

L’opération américaine « Praying Mantis » en 1988, déclenchée après le minage du USS Samuel B. Roberts, a marqué un tournant dans les tensions maritimes entre Washington et Téhéran.

Dans La confrontation en mer, Nicolas Mazzucchi démontre que l’océan est dorénavant autant un théâtre de confrontation qu’un simple espace de circulation. En réponse, l’Iran a développé des capacités asymétriques, déployant une « poussière navale » de centaines d’embarcations rapides, soutenues par des missiles côtiers et des drones. Cette architecture garantit une menace permanente sur les routes maritimes et assure une résilience face aux frappes conventionnelles, tout en permettant des ripostes ciblées ou massives contre les infrastructures régionales.

L’amiral Nicolas Vaujour, dans ses analyses sur la supériorité technologique – présentées dans son livre les Guerres en mer –, insiste sur l’impératif pour les marines modernes de s’adapter à ces nouvelles menaces. L’industrie européenne répond à ce défi avec des solutions souveraines, comme la solution Orange Drone Guardian lancée en 2026, qui renforce la détection des drones intrusifs et la protection des sites sensibles.

La vulnérabilité des routes alternatives confirme que l’évitement n’est pas une solution viable. L’attaque par drone contre le port saoudien de Yanbu et la campagne houthie en mer Rouge à l’automne 2023 ont démontré qu’un acteur lié à Téhéran peut paralyser jusqu’à 15 % du commerce mondial.


À lire aussi : Le retour des blocus navals en mer Noire et en mer Rouge : vers le démembrement d’un espace commun ?


Dans [Vaincre en mer], Thibault Lavernhe et François-Olivier Corman décrivent l’ère actuelle comme le « cinquième âge » du combat naval, où la saturation des senseurs et la coordination des attaques en temps réel redéfinissent les conditions de survie des navires. La suspension des attaques des houthis en 2026 suggère une « patience stratégique » : les milices conservent ce levier pour une escalade future, en fonction des rapports de force régionaux.

Car Téhéran étend désormais ses cibles aux infrastructures numériques, avec des frappes signalées contre des centres de données aux Émirats arabes unis et à Bahreïn. Cette guerre hybride vise à paralyser l’économie numérique mondiale. Le flux, quelle que soit sa nature, possède une valeur stratégique. L’empêcher ou le réduire, c’est affaiblir l’opposant et peser sur des négociations possibles.

En Méditerranée occidentale, l’Algérie a renforcé sa flotte de sous-marins Kilo armés de missiles Kalibr, adressant le signal capacitaire d’un possible verrouillage du détroit de Gibraltar sous une bulle de déni d’accès (A2/AD). Cette diffusion des stratégies de contestation des espaces maritimes se confirme aussi dans le Haut-Nord, où l’exercice Cold Response 2026 de l’OTAN met l’accent sur la maîtrise du spectre électromagnétique pour neutraliser les capteurs adverses avant tout engagement cinétique.

Dénis d’accès (A2/AD) et bulles de souveraineté : enjeux juridiques et limites du droit international

Les stratégies de déni d’accès (A2/AD) et les bulles de souveraineté redéfinissent les équilibres géopolitiques en mer, mais soulèvent des questions juridiques majeures au regard de la Convention des Nations unies sur le droit de la mer (UNCLOS, 1982). Ce traité, ratifié par 169 États, consacre la liberté de navigation en haute mer (article 87) et encadre strictement les droits des États côtiers dans leurs eaux territoriales (article 2) et zones économiques exclusives (article 56).


À lire aussi : La ZEE française, levier de puissance pour Paris dans le duel Washington-Pékin


Pourtant, les pratiques A2/AD, comme celles déployées par Pékin en mer de Chine méridionale ou par l’Iran dans le golfe Persique, exploitent les zones grises du droit international pour restreindre l’accès à des espaces stratégiques.

La Cour permanente d’arbitrage (CPA), dans l’affaire Philippines c. Chine (2016), a rappelé que les revendications maritimes doivent respecter les limites fixées par UNCLOS, notamment en matière de délimitation des ZEE et de passage inoffensif (articles 19 et 24). Les bulles A2/AD, en combinant missiles sol-mer, drones et guerre électronique, testent ces principes : elles peuvent être interprétées comme une violation du droit coutumier si elles restreignent arbitrairement la liberté de navigation, sauf en cas de menace avérée et proportionnée. Des juristes comme Myron H. Nordquist et Yu Minyou (Wuhan University) soulignent que ces stratégies révèlent les lacunes de UNCLOS face aux nouvelles technologies (drones, cyberattaques) et aux actions unilatérales, appelant à un renforcement des mécanismes de règlement des différends (Partie XV de UNCLOS) et à l’élaboration de normes coutumières complémentaires.

Dans ce contexte, où les flux maritimes – énergétiques, commerciaux et numériques – deviennent à la fois des enjeux et des armes, la capacité des États à garantir leur maîtrise continue s’impose comme un impératif stratégique. C’est cette exigence de maîtrise et de résilience des flux face aux perturbations qui trouve son écho dans la devise adaptée Fluxuat nec mergitur (qui pourrait se traduire par « Traversé par les flux, mais jamais entravé ») : nous sommes entrés de plain-pied dans l’ère de la polémorrhée – de polémos (la guerre) et rhéos (le flux).

The Conversation

Xavier Carpentier-Tanguy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.03.2026 à 16:40

IA et métacognition : savoir quand on peut faire confiance, ou non, à la machine n’est pas toujours évident

Ikram Chraibi Kaadoud, Chercheuse XAI & sciences cognitives, Inria
Un système d’IA doit toujours être supervisé par un humain, mais encore faut-il que cette personne soit en mesure de distinguer quand elle comprend ce que propose la machine et quand elle peut être influencée.
Texte intégral (2119 mots)

Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.


Un système d’IA doit toujours être supervisé par un humain, mais encore faut-il que cette personne soit en mesure de distinguer quand elle comprend ce que propose la machine et quand elle peut être influencée.


Les cadres contemporains de gouvernance de l’intelligence artificielle (IA) reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il doit être en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent transparence, explicabilité et supervision humaine.

Sont explicitement visés les systèmes utilisés dans le recrutement et l’évaluation des travailleurs, l’accès aux prestations sociales, les décisions d’octroi de crédit, le contrôle aux frontières, l’administration de la justice, et les soins de santé critiques.

Le plan d’action des États-Unis sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.

Ces engagements sont nécessaires mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.

Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle, et techniquement opaques – précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.

Par exemple, l’infirmier aux urgences en charge du triage aux urgences qui reçoit un score de triage produit par un système IA ne dispose pas systématiquement des explications qui l’ont généré. Le conseiller bancaire qui doit décider en quelques minutes de bloquer un compte sur la base d’une alerte de fraude automatisée travaille potentiellement avec un modèle propriétaire qu’il ne peut pas interroger. L’agent administratif qui valide l’attribution d’un logement social ou d’une prestation algorithmiquement priorisée ne peut généralement pas expliquer pourquoi un dossier a été classé avant un autre. L’enseignant qui contresigne une notation automatisée d’examen n’a pas accès aux critères qui ont produit le score. Dans chacun de ces cas, la supervision humaine est formellement présente – et substantiellement impossible.

Des opérateurs métacognitivements avertis

La métacognition – la capacité à monitorer et réguler ses propres processus cognitifs – est le substrat psychologique d’une supervision efficace. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.

La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation – la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement – est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, les chercheurs Parasuraman et Riley ont montré en 1997 que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique – deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information. Par exemple, dans des expériences en simulateur de vol citées par ces auteurs, des pilotes équipés d’un système d’alerte automatique ont éteint un moteur en réponse à une fausse alerte – une décision qu’ils avaient eux-mêmes déclaré, avant l’expérience, ne jamais prendre sur la seule foi d’une alerte automatisée.

Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Les travaux de Kahneman sur une cognition à double processus – connu aussi sous le nom de Système 1/Système 2, les deux vitesses de pensées – éclairent ce mécanisme. Face à un système IA qui produit un output avec fluidité et assurance, l’esprit humain tend à activer un traitement rapide et intuitif (celui qu’on mobilise pour des tâches familières et peu risquées), plutôt que de réaliser une analyse profonde de la situation, plus longue, plus réfléchi, plus logique, et donc plus gourmande cognitivement.

Plus concrètement, une explication qui paraît plausible déclenche des réponses cognitives différentes d’une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative.

Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Une équipe de recherche, dans une étude expérimentale rigoureuse, a constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions – notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements.

Plus concrètement, sur la tâche d’analyse de sentiment, l’IA expliquait son jugement en surlignant les mots qu’elle avait identifiés comme positifs ou négatifs. Or les participants humains évaluaient le ton d’un texte de manière globale, en tenant compte du contexte et de la cohérence d’ensemble – un processus que la mise en évidence de mots individuels ne peut pas restituer. Ici, l’IA et l’humain n’arrivent pas à leur jugement par le même chemin : L’IA identifie des élements locaux (un mot, une phrase), là ou l’humain construit un jugement holiste (l’ensemble du texte, le contexte, la cohérence interne). Quand l’explication fournie reflète la logique de la machine plutôt que celle du raisonnement humain, elle ne donne pas à l’opérateur les outils pour évaluer si la recommandation est fiable – elle le convainc simplement de la suivre.

L’explicabilité est ainsi une condition nécessaire mais insuffisante d’une supervision efficace. Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.

Trois implications pour la gouvernance de l’IA

Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique – parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales –, trois implications peuvent être énoncées :

  • La transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans impliquer les individus dans les processus de conception de ces explications et de cette documentation et prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que « trop d’explications » peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.

  • La qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé.

Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie – et en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à questionner la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». La métacognition n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.

  • Les compétences métacognitives – savoir ce qu’on comprend, détecter ses propres erreurs de raisonnement, réguler ses stratégies cognitives – varie selon les individus et n’est pas uniformément répartie au sein de la population, ce qui crée un risque structurel pour la sécurité. Il s’agit d’une hypothèse, formulée à partir de travaux menés en psychologie de l’éducation, qui n’a pas encore été étudiée dans le contexte de la gouvernance de l’IA. C’est peut-être le prochain axe de recherche que les gouvernements devraient activement encourager. En effet, si les organisations les mieux dotées en moyens matériels et en ressources humaines peuvent satisfaire aux exigences de supervision réelle, celles qui n’en n’ont pas – non pas parce que leurs personnels seraient moins capables, mais parce que les conditions permettant le développement de cette compétence situationnelle n’ont pas été réunies – produiront une conformité de façade, insuffisante, générant une fausse sécurité particulièrement dangereuse dans les domaines critiques.
The Conversation

Ikram Chraibi Kaadoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.03.2026 à 16:39

How do Israel and Iran’s nuclear status differ under international law?

Catherine Maia, Professeure de droit international à l’Université Lusófona (Portugal) et professeure invitée à Sciences Po Paris (France), Sciences Po
If Israel possesses a nuclear arsenal, while Iran is denied that possibility, what do the international norms on accepting, producing or acquiring nuclear weapons have to say about such double standards?
Texte intégral (1578 mots)

At a time when military tensions in the Middle East have further intensified in recent weeks, in the context of operations conducted by the United States and Israel and renewed concerns surrounding Iran’s nuclear programme, a recurring question has re-emerged in public debate: why does Israel possess nuclear weapons while Iran is legally prohibited from acquiring them?

Often framed in terms of unequal treatment or “double standards,” this question actually relates to the very structure of the international legal regime governing nuclear weapons.

International law is a legal order created by states and for states. As such, it is grounded in the consent of states, which derives from their sovereignty. This fundamental principle also applies to the legal regime governing nuclear weapons: the possession of nuclear weapons – or the decision to renounce them – is a matter of sovereign choice. In other words, only a state may consent to limiting its military capabilities by renouncing possession of such weapons of mass destruction.

This state voluntarism is clearly reflected in the 1968 Treaty on the Non-Proliferation of Nuclear Weapons (NPT).

What’s the NPT?

This treaty constitutes one of the pillars of collective security in international law. Its purpose is to prevent the proliferation of nuclear weapons – in particular to additional states – in order to promote nuclear disarmament, and encourage safe and peaceful use of nuclear energy.

The NPT distinguishes between nuclear-weapon states (United States, Russia, the United Kingdom, France, and China) and non-nuclear-weapon states. More specifically, it defines nuclear-weapon states as those that had manufactured and exploded a nuclear weapon or other nuclear explosive device before 1 January 1967, while the other parties are classified as non-nuclear-weapon states and have agreed to forswear the possession of nuclear weapons.

Nuclear power: different rules for the haves and the have nots

This fundamental distinction structures the entire legal regime of the treaty and entails differentiated but complementary obligations among the 191 States parties. While non-nuclear-weapon states agree not to acquire nuclear weapons, nuclear-weapon states agree not to transfer such weapons or assist other states in acquiring them. The treaty also stipulates an obligation to pursue negotiations in good faith towards nuclear disarmament.

In a context marked by Cold War tensions and fears of an uncontrolled proliferation of nuclear powers, the spread of nuclear weapons to an increasing number of states was perceived in 1968 as a major factor of international instability and a heightened risk of nuclear conflict. Against this backdrop, the compromise at the heart of the NPT was accepted, based on a differentiated allocation of obligations between nuclear-weapon states and non-nuclear-weapon states.

Although this asymmetrical compromise may, at first glance, appear unequal, it was designed as an instrument of strategic stability and collective security, while also constituting a direct expression of state sovereignty. A state may indeed decide to limit its own prerogatives. In return, breaches of these commitments entail legal consequences. This is where the debate over the different treatment of Iran and Israel arises.

If Israel has a nuclear arsenal, why can’t Iran?

Iran has been a party to the NPT since 1970 and is legally bound, as a non-nuclear-weapon state, not to acquire nuclear weapons, while also being subject to the safeguards mechanisms of the International Atomic Energy Agency (IAEA). Its nuclear programme is therefore assessed within a treaty framework that imposes specific legal obligations and international verification requirements.

By contrast, Israel is not a party to the NPT. Under the principle of the relative effect of treaties, Israel, not being a party to the NPT, cannot be legally bound by obligations arising from that treaty.

A legal framework producing differentiated outcomes

The difference in treatment between the two countries thus stems less from a legal inconsistency than from the very logic of international law. It illustrates the coexistence within the international order of de jure nuclear-weapon states and de facto nuclear-weapon states, such as Israel.

Several states currently possess nuclear weapons outside the framework of the NPT. In addition to Israel, this is also the case for India, Pakistan and North Korea (since its withdrawal from the treaty in 2003). Their situation does not, in itself, constitute a violation of the NPT, since they are not (or are no longer) parties to it. They therefore operate within a legal framework distinct from that applicable to states bound by the treaty.

This situation reflects a fundamental feature of the international legal order: the coexistence of treaty regimes to which not all states necessarily adhere. One example is the 2017 Treaty on the Prohibition of Nuclear Weapons (TPNW), to which 74 states are currently parties, and which prohibits the acquisition, possession and use of such weapons. This legal regime coexists alongside that of the NPT.

Accordingly, the question of why Israel possesses nuclear weapons, while Iran is denied that possibility is less a reflection of a contradiction in international law than a consequence of its structure.

In the absence of a treaty commitment, general international law does not currently establish a comprehensive and absolute prohibition on the possession of nuclear weapons as such. Only those states that have consented to specific obligations – notably within the framework of the NPT or the TPNW – are legally bound.

This analysis is supported by the jurisprudence of the International Court of Justice. In its 1986 judgement in Military and Paramilitary Activities in and against Nicaragua, the Court stated:

“In international law there are no rules, other than such rules as may be accepted by the state concerned, by treaty or otherwise, whereby the level of armaments of a sovereign state can be limited, and this principle is valid for all states without exception.”

Thus, in accordance with the principle of sovereign equality, limitations on military capabilities derive solely from state consent. In the absence of such a commitment, no state may legally impose on another an obligation of renunciation.

International law governing nuclear weapons therefore does not establish any general right to possess such weapons.

Rather, it reflects the existence of sovereign commitments through which some states have chosen to renounce them, while others have decided not to subject themselves to such constraints.

This article was co-authored with Débora Surreco Carrilho, PhD candidate in international law, University of Orléans (France).


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Catherine Maia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.03.2026 à 16:28

Instagram et YouTube reconnus responsables d’addiction dans un procès historique aux États-Unis

Rob Nicholls, Senior Research Associate in Media and Communications, University of Sydney
Aux États-Unis, un procès inédit vient de reconnaître la responsabilité d’Instagram et de YouTube dans l’addiction d’une jeune utilisatrice. Un verdict qui pourrait marquer un tournant juridique pour les géants des réseaux sociaux.
Texte intégral (1809 mots)
Ce sont les choix de conception, notamment le défilement infini, qui ont convaincu le jury de condamner Meta et YouTube. Christian Wiediger/Unsplash

Le verdict rendu dans l’affaire KGM pourrait marquer un moment charnière pour l’industrie des réseaux sociaux. En reconnaissant l’addiction comme un dommage possible, la justice américaine ouvre la porte à de nombreuses autres poursuites.


Instagram et YouTube présentent un défaut de conception qui rend ces réseaux sociaux addictifs, a jugé un jury aux États-Unis. Le jury de Los Angeles a mis près de neuf jours à rendre son verdict dans cette affaire historique intentée par une femme identifiée sous les initiales KGM contre les plateformes de réseaux sociaux. Il a accordé 3 millions de dollars (2,6 millions d'euros) de dommages et intérêts, Meta (propriétaire d’Instagram) étant jugé responsable à 70 % et Google (propriétaire de YouTube) à 30 %. Le jury a ensuite accordé 3 millions de dollars supplémentaires de dommages punitifs.

TikTok et Snap ont tous deux conclu un accord à l’amiable, dont les termes restent confidentiels, avant le début du procès de six semaines. Il s’agit de la deuxième lourde défaite de Meta devant les tribunaux américains la même semaine. Le 24 mars, un jury du Nouveau-Mexique a en effet jugé l’entreprise coupable d’avoir dissimulé des informations sur les risques d’exploitation sexuelle des enfants et sur les effets néfastes de ses plateformes sur la santé mentale des mineurs.

L’affaire portée par KGM est la première du genre, mais elle ne sera pas la dernière. Elle fait partie de plus de vingt procès dits « bellwether » qui doivent bientôt être jugés. Il s’agit en quelque sorte de procès tests, destinés à mesurer la réaction des jurys et à établir un précédent juridique.

Le verdict pourrait donc avoir des répercussions considérables. Il pourrait marquer pour la tech un moment comparable à celui qu’a connu l’industrie du tabac, avec des milliers d’affaires similaires prêtes à être portées devant les tribunaux.

Des machines conçues pour rendre dépendant

KGM — aujourd’hui âgée de 20 ans — affirme avoir commencé à utiliser YouTube à l’âge de six ans et Instagram à neuf ans, développant selon elle des usages compulsifs, pouvant aller jusqu’à 16 heures passées en une seule journée sur Instagram. Elle soutient que les caractéristiques de conception de ces plateformes ont contribué à son anxiété, à sa dépression, à sa dysmorphie corporelle et à des idées suicidaires.

Son action en justice affirme que Meta et YouTube ont fait des choix de conception délibérés — comme le « défilement infini » — pour rendre leurs plateformes plus addictives pour les enfants afin d’augmenter leurs profits. Elle soutient que les entreprises se sont largement inspirées des techniques comportementales et neurobiologiques utilisées par les machines à sous et exploitées par l’industrie du tabac afin de maximiser l’engagement des jeunes et d’augmenter les revenus publicitaires.

L’avocat de KGM, Mark Lanier, a déclaré aux jurés :

Ces entreprises ont construit des machines conçues pour rendre dépendants les cerveaux des enfants, et elles l’ont fait délibérément.

L'avocat a cité une étude interne de Meta appelée « Project Myst ». Celle-ci aurait montré que les enfants ayant déjà subi des « effets négatifs » étaient les plus susceptibles de devenir dépendants à Instagram, et que les parents étaient impuissants face à cette addiction.

Il a ajouté :

À partir du moment où [KGM] a été enfermée dans la machine, sa mère en a été exclue.

Les jurés ont également entendu que des communications internes de Meta comparaient les effets de la plateforme à ceux de la drogue et des jeux d’argent. Le jury a estimé que cette prise de conscience en interne constituait un niveau de connaissance susceptible d’engager la responsabilité de l'entreprise.

Par ailleurs, une note interne de YouTube décrivait apparemment « l’addiction des spectateurs » comme un objectif, et un employé d’Instagram a écrit que l’entreprise était composée de « véritables dealers ».

Mark Lanier a établi un parallèle direct avec les procès contre l’industrie du tabac, soutenant que lorsque l’on trouve une connaissance en interne du phénomène, un ciblage délibéré et un déni public, la responsabilité juridique s’ensuit.

Pointer la responsabilité de la famille

Meta a soutenu que KGM faisait face à d’importantes difficultés bien avant d’utiliser les réseaux sociaux et que les éléments présentés ne permettaient pas de réduire toute une vie d’épreuves à un seul facteur.

L’avocat de Meta a mis en avant la dynamique familiale de KGM comme cause de ses troubles de santé mentale et a affirmé que les réseaux sociaux avaient peut-être au contraire constitué pour elle un exutoire lorsqu’elle rencontrait des difficultés à la maison.

Le directeur général de Meta, Mark Zuckerberg, a témoigné pour la défense :

Je n’essaie pas de maximiser le temps que les gens passent chaque mois sur nos plateformes.

À propos des outils de sécurité que Meta a ajoutés ces dernières années, Zuckerberg a précisé :

J’aurais aimé que nous y arrivions plus tôt.

Dans leurs plaidoiries finales, les avocats de YouTube ont fait valoir qu’il n’existait pas une seule mention d’une addiction à YouTube dans le dossier médical de KGM.

Les deux entreprises ont fondé une partie de leur défense sur les protections prévues par la Section 230, soutenant qu’elles ne pouvaient pas être tenues responsables des contenus publiés sur leurs plateformes.

Le juge a toutefois indiqué aux jurés que la manière dont les contenus sont diffusés constitue une question distincte de leur nature. Cette distinction a limité la capacité de Meta et de Google à s’appuyer sur les protections offertes par la Section 230.

Contester la protection juridique

Il s’agit de l’une des premières affaires visant une grande entreprise technologique à être jugée par un jury — une situation que ces entreprises ont jusque-là cherché à éviter.

Ainsi, en juin 2024, quelques mois avant un procès devant jury dans l’affaire intentée par le Département de la justice contre le monopole de Google dans les technologies publicitaires, Google a versé plus de 2 millions de dollars (1,73 million d'euros) au Département de la justice. Cette somme représentait le triple des dommages réclamés, auxquels s’ajoutaient les intérêts.

Aux États-Unis, un procès devant jury n’est requis que lorsqu’il est question de dommages et intérêts. En payant d’avance l’intégralité de la somme réclamée dans cette affaire, Google avait supprimé la demande de dommages et intérêts — et, avec elle, le droit à un procès devant jury. Jusqu’à présent, les tribunaux américains ont largement rejeté les recours qui mettaient en cause la conception même des plateformes.

Cela concerne notamment le défilement infini et les systèmes de notifications. La distinction entre « conception de la plateforme » et « curation du contenu » a été centrale dans la manière dont les tribunaux ont analysé les arguments fondés sur le Premier amendement dans ces litiges.

Le verdict rendu par le jury dans l’affaire KGM met en lumière les limites de la protection offerte par la Section 230.

Le premier – mais pas le dernier

C’est la première grande affaire visant une entreprise de la tech, à l’échelle mondiale, à examiner l’addiction comme source de préjudice. Jusqu’ici, les procédures se concentraient surtout sur des violations de la loi.

Dans le procès intenté au Nouveau-Mexique contre Meta, par exemple, le jury a estimé que l’entreprise avait fait des déclarations fausses ou trompeuses et s’était livrée à des pratiques commerciales « abusives », exploitant la vulnérabilité et l’inexpérience des enfants. Des milliers d’infractions ont été retenues, pour une sanction totale de 375 millions de dollars (325 millions d'euros).

L’affaire KGM ouvre la voie aux nombreuses autres procédures visant à obtenir des dommages et intérêts auprès des plateformes de réseaux sociaux pour les effets de l’addiction. Aux États-Unis, ces affaires pourraient logiquement être examinées ensemble dans le cadre d’une action collective. Le verdict pourrait aussi servir de base à d’autres recours, collectifs ou individuels, dans le monde entier.

Meta et Google ont indiqué séparément qu’ils comptaient faire appel de la décision.

The Conversation

Rob Nicholls fait partie du Centre for AI, Trust, and Governance de l’Université de Sydney et reçoit des financements de l’Australian Research Council.

29.03.2026 à 10:38

Des maisons en corail parsèment le Pacifique et les chercheurs savent désormais quand elles ont été construites

James L. Flexner, Senior Lecturer in Historical Archaeology and Heritage, University of Sydney
Dans l’archipel des Gambier, des maisons en corail construites au XIXᵉ siècle racontent une histoire peu connue de la colonisation missionnaire dans le Pacifique.
Texte intégral (1572 mots)

En Polynésie française, des dizaines de maisons construites en corail témoignent d’un profond bouleversement provoqué par l’arrivée des missionnaires au XIXᵉ siècle. Grâce à une méthode de datation très précise, des archéologues parviennent aujourd’hui à retracer pour la première fois le calendrier de leur construction.


Les îles Mangareva (Ma'areva) se situent à environ 1 600 kilomètres au sud-est de Tahiti, en Polynésie française. Elles tirent leur nom – qui signifie « montagnes flottantes » – de l’effet produit par les embruns qui se brisent sur les atolls coralliens environnants, ou motu : les anciens sommets volcaniques donnent alors l’impression de flotter au-dessus des vagues.

Aujourd’hui, les îles abritent environ 2 000 habitants, dont beaucoup travaillent dans les fermes perlières installées dans le lagon turquoise. À travers les îles subsistent aussi les vestiges de dizaines d’édifices remarquables : des maisons construites en corail.

Dans le cadre d’un projet plus vaste consacré aux transformations de la vie quotidienne à Mangareva au XIXᵉ siècle, mon équipe de recherche en archéologie a documenté des dizaines de ces maisons de corail, notamment sur les îles d’Aukena, Akamaru, Mangareva et Taravai.

Aujourd’hui, dans un nouvel article publié dans la revue Antiquity, nous avons établi la première chronologie précise de la construction de ces maisons de corail.

Ces résultats mettent en évidence de nouvelles dynamiques dans la manière dont les sociétés du Pacifique ont transformé leur environnement bâti après le contact avec les Européens – et montrent comment cet héritage colonial continue encore aujourd’hui de façonner la vie locale.

La colonisation a transformé la vie des communautés dans le Pacifique

Des missionnaires catholiques français ont établi un poste à Mangareva à partir de 1834. En plus d’apprendre les prières, d’assister aux offices religieux et de lire la Bible, les habitants de Mangareva ont profondément modifié leur vie quotidienne à leur contact. Parmi les nombreux changements figure une transformation complète des espaces domestiques.

En quelques décennies, les habitations traditionnelles en bois et en chaume ont été remplacées par un nouveau type de petites maisons en pierre. Les missionnaires consignaient souvent des dates précises pour leurs constructions, en particulier pour la cathédrale de Rikitea, les églises réparties dans l’archipel ou encore les principales écoles catholiques.

En revanche, pour la catégorie de bâtiments la plus nombreuse de cette période – les maisons –, nous ne disposons généralement d’aucune information sur leur date de construction, sur ceux qui les ont bâties ni sur les personnes qui y ont vécu.

Une méthode de datation précise

Lors de travaux de terrain en octobre 2024, j’ai remarqué que l’un des blocs de corail tombé du mur de la maison en ruine que nous fouillions contenait des coraux branchus qui semblaient très frais, presque comme s’ils venaient d’être coupés sur le récif vivant.

Nous avons utilisé une technique avancée appelée datation uranium-thorium (U-Th) pour déterminer l’âge de ces coraux branchus – et des structures construites à partir d’eux.

Contrairement à la datation au radiocarbone, plus connue et dont les marges d’erreur se comptent en décennies, la datation U-Th est extrêmement précise : elle permet de déterminer à quelques années près la date à laquelle les coraux sont morts, ne laissant derrière eux que leur exosquelette dur.

Contrairement aussi à la datation au radiocarbone, qui n’est pas très fiable pour des matériaux âgés de moins d’environ quatre cents ans, la datation U-Th fonctionne jusqu’à des périodes très récentes, voire presque jusqu’à nos jours.

Nous avons prélevé un échantillon « témoin » sur un bâtiment dont la date est connue – l’école de garçons d’Aukena construite dans les années 1850 – ainsi que des échantillons provenant de huit autres maisons et d’une tour de guet en corail.

Nous avons également prélevé un corail branchu dans une couche de fosse située dans la même maison où j’avais remarqué pour la première fois ces branches de corail à l’aspect « frais » dans les blocs.

À l’époque, nous pensions que cette fosse contenait les restes d’un festin organisé juste avant la construction de la maison. Les dates qui se recoupent dans nos résultats U-Th ont confirmé cette hypothèse.

Une tour de guet construite sur une petite colline surplombant un lagon turquoise.
Tour de guet en corail à la pointe Mata Kuiti, sur l’île d’Aukena. James Flexner, professeur associé, University of Sydney

Les mystères du « vieux corail »

Après analyse des échantillons, nous avons été surpris de constater que plusieurs dates ne correspondaient pas à ce que nous avions prévu.

Certains coraux semblaient être morts avant les années 1830, lorsque les missionnaires sont arrivés. Certains remontaient même à une période antérieure au contact avec les Européens dans les années 1790.

Un problème similaire est bien connu dans la datation au radiocarbone : le problème du « vieux bois », où la date de la mort d’un organisme peut précéder de plusieurs décennies, voire de plusieurs siècles, l’événement que l’archéologue cherche à dater. Étions-nous confrontés ici à un problème de « vieux corail » ?

Deux explications sont possibles.

Un archéologue ayant visité Mangareva dans les années 1930 a signalé des amas de débris de corail qu’il pensait être les restes de marae, des structures autrefois sacrées renversées pendant la période missionnaire. Cela ouvre la possibilité que ce corail ancien ait été réutilisé pour de nouvelles constructions.

Une autre explication possible pour ce type de corail, appartenant au genre scientifique Acropora, est que certaines branches meurent à distance de la zone de croissance active du récif au fil des années ou des décennies, tout en conservant leur apparence « fraîche ».

Ce scénario est peut-être le plus probable, car nos dates « trop anciennes » ne devançaient la chronologie attendue que de quelques années ou décennies, et non de plusieurs siècles. Mais nous ne pouvons pas non plus écarter complètement l’hypothèse des marae.

Il nous reste encore beaucoup à apprendre sur la manière dont les populations utilisaient le corail pour construire leurs bâtiments dans le passé – et peut-être aussi sur la façon dont les récifs coralliens se sont régénérés, ou non, après des décennies d’exploitation humaine. Ce dernier point pourrait être important pour réfléchir plus attentivement à nos propres relations avec les récifs coralliens aujourd’hui.

The Conversation

James L. Flexner est professeur associé d’archéologie historique et de patrimoine à l’Université de Sydney. Cette recherche est financée par l’Australian Research Council (FT210100244).

29.03.2026 à 09:03

Non, la France rurale n’est pas un désert culturel

Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
La notion de « désert culturel » n’a rien de neutre et, surtout, elle ne correspond pas à la réalité des territoires ruraux d’aujourd’hui.
Texte intégral (1336 mots)

Les élections municipales sont terminées, mais un conflit discret persiste dans les campagnes françaises. Il ne porte ni sur l’agriculture ou le prix de l’essence, ni même sur la santé. Il concerne la culture. En effet, sous les radars médiatiques, une tension croissante apparaît autour de la question de ce que doit être l’offre culturelle dans les territoires ruraux.


Ce conflit latent s’est récemment invité dans le débat public à travers le plan « Culture et ruralité » porté par Rachida Dati. Ayant pour enjeu de renforcer l’offre artistique dans les territoires ruraux, ce plan s’inscrit dans la rhétorique désormais bien installée de la lutte contre les « déserts culturels ».

Derrière cette expression plane l’idée qu’une partie du territoire national n’aurait pas accès à la culture et nécessiterait une intervention publique renforcée. Mais cette manière de poser le problème n’est pas neutre.

Elle repose sur une représentation particulière de la culture et sur une lecture implicite des territoires ruraux comme des espaces culturellement déficitaires. Autrement dit, la question n’est pas seulement celle de l’accès à la culture, mais celle de la définition même de ce qui est considéré comme tel.

Aux origines de la notion de « désert culturel »

Pour comprendre cette situation, il faut revenir sur l’histoire des politiques culturelles françaises. Celles-ci se sont structurées autour d’un projet de maillage territorial visant à diffuser les œuvres artistiques sur l’ensemble du territoire. Lorsque André Malraux devient ministre des affaires culturelles en 1959, il affirme l’objectif de permettre la rencontre entre « les grandes œuvres de l’humanité » et le public le plus large possible, tout en précisant que « si la culture existe, ce n’est pas du tout pour que les gens s’amusent ». La création des maisons de la culture participe de cette ambition : rendre accessibles les formes artistiques légitimes, et donc tout à fait sérieuses, mais souvent éloignées des pratiques culturelles existantes et des attentes des publics.

À partir des années 1980, malgré l’affirmation d’une démocratie culturelle plus attentive à la diversité de ces pratiques, la décentralisation renforce néanmoins ce modèle en consolidant un réseau d’institutions :scènes nationales, médiathèques, musées… Ce maillage demeure toutefois largement structuré par les centralités urbaines. Les territoires ruraux apparaissent alors en périphérie de cette organisation, ce qui alimente aujourd’hui la lecture en termes de « désert culturel ».

La culture, bien présente dans les territoires ruraux

Cette lecture mérite cependant d’être nuancée à un double titre. D’une part, les territoires ruraux ne sont pas dépourvus de pratiques culturelles. Sociabilités associatives, fêtes locales, pratiques amateurs ou liées au patrimoine structurent des espaces culturels à part entière, bien que peu reconnus par les acteurs institutionnels. Et ce sont bien des pratiques culturelles, parce qu’elles génèrent cette situation sociale inédite : l’expérience esthétique, fût-elle produite par des formes et des objets (musicaux, plastiques, écrits, visuels, numériques, etc.), des artefacts qui n’appartiennent pas à l’histoire de l’art.

D’autre part, l’action publique elle-même ne se limite pas à l’État. Dans de nombreux territoires ruraux, les communautés de communes jouent aujourd’hui un rôle central dans l’offre culturelle. Elles assurent la gestion d’équipements, soutiennent des programmations, coordonnent des réseaux associatifs et portent des projets à l’échelle intercommunale.

Ces acteurs intermédiaires occupent une position singulière. Ils se situent à la fois en relais et en tension avec les orientations nationales. D’un côté, ils dépendent des arbitrages opérés par les directions régionales des affaires culturelles (Drac), qui continuent de structurer l’accès aux ressources et la légitimité des projets. De l’autre, ils développent des stratégies propres, parfois en complément, en décalage, voire en opposition aux priorités définies à l’échelle nationale. Ce jeu d’ajustements produit des configurations locales hétérogènes, où l’offre culturelle résulte autant d’un modèle descendant que de négociations entre échelles d’action et de rôle des élus à travers, par exemple, les projets culturels de territoires.

Par ailleurs, les campagnes françaises ont profondément changé. Comme l’a montré Jean-Pierre Le Goff, elles sont traversées par des recompositions liées notamment aux mobilités résidentielles et à l’installation de populations issues des classes moyennes urbaines. Ces transformations, particulièrement visibles dans les espaces périurbains, brouillent les frontières entre ville et campagne. Elles introduisent aussi de nouvelles attentes culturelles, portées notamment par ces nouveaux habitants, et parmi eux, ceux que Le Goff appelle les « cultureux », un terme péjoratif qui désigne les dépositaires et tenants de la culture « légitime » venant « de la ville ».

Le risque du malentendu

Dans ce contexte, l’action culturelle peut devenir un vecteur de diffusion de référentiels urbains. Mais ce modèle peut entrer en décalage avec les formes culturelles préexistantes. Certaines pratiques locales restent marginalisées ou invisibilisées. La musique country par exemple, largement plébiscitée et pratiquée (musiques et danses) en milieu rural est totalement absente des politiques culturelles. Le risque est alors celui d’un malentendu : des politiques conçues pour « apporter » la culture dans des territoires où elle existe déjà, mais sous d’autres formes.

Pour autant, les dynamiques actuelles ne se réduisent pas à une opposition entre culture légitime et pratiques locales, ni entre ville et campagne. On observe l’émergence de configurations hybrides : tiers-lieux, collectifs artistiques/habitants ou encore réinventions de formes traditionnelles comme, selon les régions, les comices agricoles, les fest-noz, les carnavals, par exemple . Ces évènements parfois revisités articulent alors création contemporaine, participation habitante et pratiques festives, parfois avec l’appui ou malgré les cadres institutionnels.

Dans ces espaces, la culture devient un lieu de négociation et d’expérimentation, où se recomposent les hiérarchies culturelles et où se vit la communauté locale, bien loin des enjeux artistiques. Les élus y jouent un rôle central, capables d’articuler des logiques institutionnelles, esthétiques et habitantes, tout en composant avec les contraintes des politiques nationales.

Derrière les débats récurrents sur les « déserts culturels », c’est donc moins un manque qu’un problème de cadrage qui se dessine. Ce qui est en jeu, ce n’est pas l’absence de culture, mais la difficulté à reconnaître la pluralité de ses formes et la diversité de ses régimes de légitimité. Les mondes ruraux et périurbains ne sont pas en attente de culture : ils en produisent, selon des modalités qui échappent en partie aux catégories de l’action publique et aux arbitrages centralisés.

The Conversation

Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.03.2026 à 09:03

Qui veut encore devenir prof ? Ce qu’une approche internationale nous dit de la « crise des vocations » enseignantes

Fernando Nunez-Regueiro, Chercheur en sciences de l'éducation, Université Grenoble Alpes (UGA)
Plus l’accès à l’enseignement supérieur se développe, moins le métier enseignant paraît attractif alors même que les besoins en professeurs augmentent. Regard sur ce paradoxe.
Texte intégral (1288 mots)

D’où vient cette crise d’attractivité qui touche les métiers de l’enseignement en France et dans le monde ? Une revue d’études menées dans 18 pays incite à se pencher sur les conditions d’exercice et la reconnaissance d’une profession dont la contribution sociale fait pourtant toujours rêver un nombre non négligeable de candidats.


Alors que de nombreux pays font face à des pénuries d’enseignants, une question revient avec insistance : qui choisit encore d’entrer dans le métier, et pourquoi ? Une revue systématique récente, menée à partir de 39 études qualitatives dans 18 pays, couvrant plus de soixante ans de recherches et 4 700 futurs enseignants, nous permet de dresser un panorama inédit de ces motivations.

Cette étude met en lumière un paradoxe : plus un pays est développé, moins le métier d’enseignant apparaît attractif pour des raisons matérielles ou statutaires, alors même que les besoins en enseignants augmentent. Autrement dit, la « crise des vocations » ressemble moins à un manque d’envie qu’à une crise des conditions d’exercice.

Des motivations d’abord liées au sens du métier

À travers les pays, deux grandes familles de motivations dominent. La première est intrinsèque (environ 41 % des motivations recensées dans la revue). De nombreux candidats évoquent le plaisir d’enseigner, l’intérêt pour une discipline ou le sentiment d’être compétent pour transmettre des savoirs. L’enseignement est perçu comme une activité porteuse de sens, en cohérence avec une identité personnelle.

La seconde est altruiste (19 % des motivations). Les futurs enseignants expriment le désir de contribuer à la société, de travailler avec des enfants ou des adolescents, de favoriser l’égalité des chances ou d’influencer positivement l’avenir des jeunes générations.

Au total, les motivations intrinsèques et altruistes représentent près de 60 % des raisons évoquées pour devenir enseignant. Ces résultats convergent avec de grandes enquêtes internationales : le choix d’enseigner repose d’abord sur l’intérêt pour le métier et sur l’envie de contribuer au bien commun. Autrement dit, devenir enseignant n’est pas, dans la majorité des cas, un simple calcul économique.

Le rôle variable des motivations matérielles

Les raisons extrinsèques d’enseigner (c’est-à-dire la sécurité de l’emploi, la stabilité du revenu, les horaires compatibles avec la vie familiale, le statut social) représentent environ 40 % des motivations dans l’ensemble des études. Mais leur importance varie fortement selon les contextes culturels et historiques.

Dans les pays à niveau de développement intermédiaire, le métier d’enseignant est souvent perçu comme un moyen d’accéder à l’enseignement supérieur, d’obtenir un emploi stable ou de bénéficier d’un statut reconnu (52 % des motivations). Il peut constituer une voie d’ascension sociale ou un choix pragmatique dans un marché du travail contraint. En revanche, dans les pays à haut niveau de développement humain, ces dimensions matérielles sont beaucoup moins centrales (34 % des motivations).

Ce contraste s’explique par un mécanisme structurel. Lorsque l’enseignement supérieur se massifie et que les débouchés professionnels se diversifient (pays fortement développés), l’enseignement n’est plus l’une des rares professions stables accessibles aux diplômés. Il devient une option parmi d’autres. Si, dans le même temps, sa rémunération relative ou son prestige progressent moins vite que ceux d’autres carrières qualifiées, son attractivité diminue en comparaison. Il ne s’agit pas nécessairement d’une dégradation absolue du métier, mais d’un affaiblissement relatif dans un marché du travail plus concurrentiel parmi les diplômés.

Un paradoxe au cœur des systèmes éducatifs

C’est là que l’on peut parler de « paradoxe » des motivations enseignantes. À mesure que les sociétés se développent, la massification scolaire accroît les besoins en enseignants ; mais, dans le même temps, le métier devient relativement moins attractif sur le plan matériel et statutaire. Les systèmes éducatifs se retrouvent alors dans une situation délicate : ils ont besoin d’un nombre croissant d’enseignants, mais ne peuvent plus compter sur l’attractivité comparative du métier pour recruter.

Ce paradoxe pose un défi majeur aux politiques éducatives. Peut-on durablement compter sur la seule « vocation » pour assurer le renouvellement du corps enseignant ?


À lire aussi : La crise des vocations enseignantes, un défi récurrent dans l’histoire de l’école ?


La France s’inscrit pleinement dans ce questionnement. Les étudiants engagés dans les parcours de formation enseignante déclarent majoritairement un intérêt fort pour l’enseignement et pour la contribution sociale du métier. Les vocations existent. En revanche, l’environnement de formation et d’exercice peut fragiliser cet engagement.

La formation initiale combine préparation académique, concours exigeants et stages en responsabilité. Cette articulation, dans un système centralisé, est souvent perçue comme lourde et stressante. Les recherches montrent que les étudiants peuvent ressentir un décalage entre les exigences académiques et leur désir concret d’enseigner. Les périodes de stage constituent également un moment critique : charge émotionnelle, gestion de classe, sentiment d’insuffisance, qualité variable du mentorat.


À lire aussi : Pourquoi tant de difficultés à recruter des enseignants ?


La question de la reconnaissance joue aussi un rôle central. Le débat public insiste régulièrement sur les difficultés du métier : violences scolaires, perte d’autorité, crise du recrutement. Sans nier ces réalités, cette focalisation contribue à redéfinir symboliquement la profession, mais par la négative. Or le statut social compte. Lorsque le niveau de diplôme requis augmente sans que la reconnaissance matérielle et symbolique suive, un sentiment de déclassement peut s’installer.

Enfin, l’empilement des réformes et la centralisation des décisions peuvent entrer en tension avec les attentes d’autonomie professionnelle. Or les motivations intrinsèques prospèrent dans des environnements où la cohérence institutionnelle et la confiance sont fortes.

En France comme dans de nombreux pays européens, l’enjeu n’est donc pas seulement d’augmenter le nombre de candidats. Il s’agit de restaurer un équilibre entre quatre dimensions interdépendantes : la cohérence de la formation initiale, la qualité de l’accompagnement en stage, la stabilité des politiques d’éducation et la reconnaissance sociale et statutaire du métier. En somme, les vocations existent. Reste à savoir si le système éducatif leur permet encore de s’inscrire dans la durée.

The Conversation

Fernando Nunez-Regueiro ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.03.2026 à 09:02

Ces PFAS qui échappent à la surveillance environnementale

Ninon Serre, Docteure en chimie environnementale, Ifremer
Yann Aminot, Biogéochimiste des contaminants organiques, Ifremer
Comme bon nombre de polluants, les PFAS atteignent souvent les mers et les océans. Beaucoup ne font pas l’objet de réglementations alors qu’ils sont observés à des taux élevés dans les écosystèmes marins sans que leurs effets soient connus, révèlent des travaux inédits.
Texte intégral (2229 mots)

Comme bon nombre de polluants, les composés per- et polyfluoroalkylés, ou PFAS, atteignent souvent les mers et les océans. Si la présence de certains d’entre eux est surveillée, beaucoup d’autres ne font pas l’objet de réglementations. Ils sont pourtant observés à des taux élevés dans les écosystèmes marins, sans pour autant que leurs effets soient connus, révèlent des travaux inédits.


Vous avez sans doute déjà entendu parler des « polluants éternels », ou composés per- et polyfluoroalkylés (PFAS), mais saviez-vous qu’il en existe des milliers ? Et que les plus abondants ne sont pas tous surveillés dans l’environnement, alors même que leur dangerosité reste inconnue ?

Cette réalité apparaît pourtant lorsque l’on étudie des organismes marins, comme les moules, les crevettes et les poissons, des côtes françaises. Ces analyses délicates et très spécifiques sont cruciales pour comprendre la très longue vie de ces molécules appelées « polluants éternels ».

De fait, si on les sait aujourd’hui présents un peu partout, des poêles et casseroles antiadhésives à vos vêtements imperméables, en passant par votre maquillage, vos produits d’entretien, dans l’eau du robinet et jusque dans votre sang, nous savons également, que, comme bon nombre de polluants, la destination finale des PFAS reste souvent les océans.

Certains PFAS étant très mobiles dans les milieux aquatiques, la contamination est continuellement transportée depuis les milieux continentaux jusqu’aux océans, qui agissent comme des réservoirs finaux pour les composés les plus persistants. Les environnements côtiers constituent ainsi des écosystèmes clés pour l’étude du devenir des PFAS dans l’environnement.

Plusieurs PFAS utilisés dans de nombreuses applications pendant un demi siècle, principalement l’acide perfluorooctanesulfonique (PFOS) et l’acide perfluorooctanoïque (PFOA), sont également reconnus pour leur omniprésence, leur toxicité et leur capacité à s’accumuler dans les organismes vivants, à tous les niveaux de la chaîne alimentaire. C’est ce qu’on appelle la bioaccumulation.

Ainsi, certains PFAS qui atteignent les mers et les océans peuvent revenir dans notre assiette via la pêche et la consommation de certains crustacés ou poissons. Ces propriétés ont suscité des inquiétudes quant à leurs effets potentiels sur la santé humaine et sur les écosystèmes. Depuis les années 2000, certains PFAS ont donc progressivement été intégrés aux programmes de surveillance environnementale et sanitaire et font désormais l’objet de réglementations internationales. Mais est-ce vraiment suffisant ?

Pourquoi les industries utilisent-elles des PFAS ?

  • Les composés per- ou polyfluoroalkylés sont utilisés depuis les années 1950 pour une multitude d’applications industrielles, domestiques et agricoles, notamment du fait de leur grande stabilité thermique et chimique. Cette remarquable stabilité rend certains PFAS très persistants dans l’environnement, ce qui leur vaut justement le surnom de « polluants éternels ».

La face cachée de l’iceberg

Aujourd’hui, les mesures mises en place ne concernent que quelques dizaines de composés, notamment le PFOS et le PFOA. Pourtant, les PFAS ne se limitent pas à une poignée de molécules bien connues, mais correspondent bien à des milliers de composés de structures variées.

4 PFAS sont aujourd'hui soumis à la réglementation européenne dans l'alimentation, des milliers d'autres ne sont pas concernés.
Quatre PFAS sont aujourd'hui soumis à la réglementation européenne dans l’alimentation, des milliers d’autres ne sont pas concernés. Fourni par l'auteur

Ainsi, de nombreux PFAS échappent aux analyses ciblées communément réalisées, qui risquent donc de sous-estimer la contamination réelle.

Pourquoi s’intéresser aux organismes marins ?

Au-delà des exigences réglementaires, l’analyse des organismes marins permet d’identifier et de caractériser l’ensemble des composés capables de s’accumuler dans les organismes au fil du temps (bioaccumulables) ou de se concentrer le long de la chaîne alimentaire (bioamplifiables).

Le PFOS, notamment, est généralement présent à des concentrations plus élevées dans les espèces en haut de la chaîne alimentaire, telles que les mammifères marins, que dans les espèces en bas de la chaîne alimentaire, telles que les moules. Il est donc considéré bioamplifiable.

Des analyses qui permettent de voir plus large

Nos travaux menés à l’Ifremer ont permis de rechercher simultanément des centaines de PFAS dans les moules et dans les huîtres de côtes françaises, en mettant en œuvre une méthode analytique de pointe, la spectrométrie de masse à haute résolution. Au total, près de 80 PFAS différents ont été détectés dans ces organismes, incluant des composés connus et réglementés, comme le PFOS et le PFOA, mais également de nombreux autres échappant aux programmes de suivi et à la réglementation.

Ces travaux ont également permis d’identifier des zones fortement contaminées, présentant une grande diversité de PFAS à des concentrations plus élevées : les estuaires de grands fleuves (Seine, Loire et Rhône) et les zones fortement industrialisées, telles que l’étang de Berre (Bouches-du-Rhône) sur la côte méditerranéenne.

Quelle part représente la face cachée de l’iceberg ?

Les analyses menées ont également révélé que des PFAS non suivis et non réglementés sont parfois présents à des concentrations élevées dans les organismes marins. Parmi eux se trouve le 6:2 fluorotélomère sulfonamide bétaïne (6:2 FTAB), un composé abondamment utilisé dans les émulseurs anti-incendie et largement ignoré dans les programmes de surveillance. Ce composé a été détecté à des niveaux souvent supérieurs à ceux des PFAS connus et réglementés, comme le PFOS.

Les quatre PFAS soumis à la réglementation UE 2023/915 de la Commission européenne (PFOS, PFOA, PFNA et PFHxS), présentaient des concentrations globalement inférieures aux seuils fixés pour la consommation humaine. Par exemple, dans les moules bleues analysées, ces quatre composés réglementés étaient détectés à des niveaux près de vingt fois inférieurs à la valeur seuil définie par la Commission européenne.

En revanche, lorsque l’ensemble des PFAS détectés était pris en compte, les concentrations totales atteignaient des valeurs plus de 70 fois supérieures à celles du seuil des quatre composés réglementés. Ces résultats révèlent une contamination bien plus importante et complexe que celle des composés sujets à une réglementation et mesurés par les suivis traditionnels.

Est-ce que la face cachée de l’iceberg présente un risque pour l’environnement et l’humain ?

La toxicité de la majorité des composés détectés reste à ce jour inconnue, et il est donc impossible d’évaluer précisément le risque qu’ils représentent pour l’environnement et pour la santé humaine.

En revanche, nous savons que plusieurs des PFAS détectés sont des précurseurs, c’est-à-dire qu’une fois dans l’environnement, ils peuvent se dégrader en d’autres PFAS plus persistants appelés « produits terminaux ». Les composés les plus connus et réglementés sont justement des produits terminaux, tels que le PFOS et le PFOA.

Dans le cadre de nos travaux menés à l’Ifremer, des espèces situées à différents niveaux des chaînes alimentaires du bar européen et de la sole commune provenant de l’estuaire de la Seine ont également été étudiées. Ces espèces comprenaient des coquillages, des crustacés et des poissons.

Les résultats obtenus montrent que les concentrations de ces composés précurseurs ont tendance à diminuer du bas vers le haut de la chaîne alimentaire, tandis que celles des produits terminaux augmentent. Les espèces en haut de la chaîne alimentaire, notamment celles possédant un foie, semblent donc pouvoir dégrader certains précurseurs.

Ces observations mettent en évidence les limites des suivis et des réglementations actuels, qui ne concernent qu’un nombre restreint de PFAS et ne tiennent pas compte des transformations chimiques qui peuvent se produire dans l’environnement et au sein des organismes.

Ces résultats posent également question sur l’exposition de l’humain à travers la consommation de produits de la mer, notamment d’espèces basses dans la chaîne alimentaire, telles que les coquillages qui contiennent des proportions élevées de précurseurs, dont la toxicité est encore peu connue.

Une fois consommés, ces précurseurs non suivis et non réglementés pourraient être dégradés en produits terminaux et donc participer à l’exposition humaine à des PFAS dont la toxicité est avérée, tels que le PFOS. Ainsi, la vision actuelle de la contamination de l’humain et l’environnement par les PFAS, ainsi que les risques associés, reste partielle et bénéficierait de la prise en compte d’un plus grand nombre de substances.

Vers une meilleure gestion des PFAS

Pour permettre une évaluation complète des risques associés aux PFAS dans leur ensemble, il sera donc essentiel à l’avenir de conduire des études écotoxicologiques spécifiques sur ces précurseurs et sur leurs produits de transformation.

En ce qui concerne la réglementation, des évolutions sont en cours. En 2023, le Danemark, la Suède, la Norvège, la Finlande et l’Allemagne ont soumis à l’Agence européenne des produits chimiques (ECHA) une proposition visant à réglementer à l’échelle européenne la fabrication, l’utilisation et la vente d’environ 10 000 PFAS. Cette initiative qui a été soutenue par la France illustre un nouveau tournant dans la prise de conscience et la gestion de la contamination par les PFAS dans sa globalité.

The Conversation

Ninon Serre a reçu des financements de l'Ifremer et de la région Pays de la Loire.

Yann Aminot a reçu des financements de l'Office Français de la Biodiversité (OFB) et de la région Pays de la Loire.

29.03.2026 à 09:02

La dernière guerre du Hezbollah ?

Hussein Abou Saleh, Docteur associé au Centre d'études et de recherches internationales (CERI), Sciences Po
Déjà très affaibli par sa précédente confrontation avec Israël, le Hezbollah s’est tout de même lancé dans une nouvelle guerre plus que périlleuse pour sa survie.
Texte intégral (2722 mots)

L’entrée en guerre du Hezbollah contre Israël, en représailles à l’assassinat de Khamenei à Téhéran et à la violation continuelle par Tel-Aviv de l’accord de cessez-le-feu de fin 2024, apparaît comme un pari très risqué, dans un contexte où le mouvement chiite libanais est aux abois aux niveaux militaire, politique et financier, et où Beyrouth tente de le désarmer et de reprendre la pleine possession des territoires qu’il contrôle encore.


L’« axe de la résistance » est entré dans une période de profonde transformation à la suite des guerres régionales au Moyen-Orient depuis le 7 octobre 2023. Il est loin d’être en mesure de jouer un rôle stratégique déterminant pour l’issue du conflit israélo-américain en cours contre l’Iran. Alors que la guerre atteint un nouveau paroxysme, deux fronts sont actifs, le Liban et l’Irak, mais un seul prend de l’importance : le Liban.

Les campagnes israéliennes dévastatrices menées depuis 2023 ont révélé les faiblesses et les limites du réseau de supplétifs iraniens, mais ont également souligné leur capacité à résister à la pression. Ces groupes se transforment en insurrections plus ou moins localisées. C’est pourquoi ils sont autant préoccupés par leur propre survie que par celle de la République islamique d’Iran. Leur intervention dans ce conflit relève moins de la stratégie d’« unité des arènes », qui prévoyait une intervention militaire conjointe contre Israël en cas d’attaque contre l’un de ses membres, que de la volonté d’assurer leur propre survie.

Le 28 février, avec l’assassinat du guide suprême iranien, l’ayatollah Khamenei, âgé de 86 ans, la « ligne rouge » de l’« axe » a été franchie, et le Hezbollah libanais s’est rapidement impliqué dans une guerre avec Israël qui donne au gouvernement Nétanyahou l’occasion de s’attaquer violemment, une fois de plus, à ses structures, déjà largement fragilisées.

Pourquoi le Hezbollah est-il entré en guerre ?

Aux premières heures du 2 mars, le Hezbollah a tiré six roquettes sur le nord d’Israël en représailles à l’assassinat de Khamenei et à la violation persistante par Israël de l’accord de cessez-le-feu annoncé fin novembre 2024, comme indiqué dans sa déclaration écrite. Sa décision de frapper Israël n’était pas nécessairement une démonstration de force ni un signe crédible de sa capacité à dissuader toute agression israélienne, à l’instar des attaques lancées le 8 octobre 2023 en soutien au Hamas à Gaza, mais avant tout une nécessité stratégique pleinement ancrée dans le contexte politique national et régional.

La valeur du Hezbollah, tant en termes de dissuasion que d’influence sur la dynamique régionale, a considérablement diminué depuis le dernier conflit. L’effondrement du régime d’Assad en Syrie a coupé le corridor logistique qui assurait son réapprovisionnement en armes provenant d’Iran et de Syrie, tandis que les effets cumulatifs de la dernière guerre ont encore affaibli ses moyens. En conséquence, sa capacité opérationnelle est désormais fortement réduite. Il reste cependant à déterminer si ces limitations se traduisent par une efficacité réduite sur le champ de bataille.

Après trois semaines de guerre, le Hezbollah poursuit ses attaques quotidiennes contre Israël. Parallèlement, Israël progresse lentement, occupant davantage de territoire et infligeant de lourdes pertes civiles, avec un bilan de plus de 1 072 morts. Plus d’un million de personnes ont été déplacées, ce qui représente près de 20 % de la population du Liban. Les bombardements ont forcé des milliers de familles à fuir vers des zones plus sûres ou à se réfugier dans des bâtiments publics, comme les écoles. Les frappes aériennes israéliennes ont gravement endommagé ou détruit plusieurs ponts stratégiques sur le fleuve Litani, isolant ainsi le sud du Liban du reste du pays. Cette campagne vise à créer une zone tampon et à couper les lignes de ravitaillement du Hezbollah. Une stratégie visant à raser ce qui reste des villages du sud semble être mise en œuvre, comme on peut le constater à Khiam.

De plus, la base sociale du Hezbollah continue de subir les lourdes conséquences des destructions et des pertes considérables subies lors de la guerre de 2023, ce qui limite sa capacité de rétablissement rapide et de mobilisation durable.

La décision du Hezbollah d’entrer en guerre a pris une grande partie du Liban au dépourvu. Depuis l’accord de cessez-le-feu de novembre 2024, le Hezbollah avait fait preuve de ce que les analystes ont qualifié d’extrême retenue face à la pression croissante de l’État libanais pour obtenir son désarmement et aux violations incessantes de l’accord par Israël, qui ont entraîné la mort d’environ 350 membres du Hezbollah et d’environ 150 civils.

En réalité, deux facteurs majeurs ont façonné le comportement du Hezbollah jusqu’au début du conflit actuel. D’une part, il s’est concentré sur sa reconstruction organisationnelle et militaire après les graves revers subis lors de sa dernière guerre, à partir du 8 octobre 2023. D’autre part, l’ensemble de l’échiquier politique libanais faisait pression sur lui afin qu’il ne s’implique pas dans de futurs conflits. C’est pourquoi, de concert avec le reste de « l’axe de la résistance », il a choisi de ne pas intervenir lors des douze jours de frappes israéliennes contre l’Iran en juin 2025.

Au niveau national, le Hezbollah s’est retrouvé de plus en plus isolé. Le gouvernement, en coopération avec les Forces armées libanaises et la Force intérimaire des Nations unies au Liban (Finul), et conformément à l’accord de cessation des hostilités, est parvenu à éliminer toute présence militaire du Hezbollah des zones situées au sud du fleuve Litani, jusqu’à la frontière israélienne, et à démanteler une grande partie de ses infrastructures militaires. Il a également pris des mesures, dans le respect des contraintes politiques existantes, pour endiguer les activités et organisations financières illégales liées au Hezbollah. Ces mesures comprenaient notamment l’interdiction faite au secteur financier libanais d’avoir toute relation, directe ou indirecte, avec des entités non agréées et soumises à des sanctions internationales, ce qui a considérablement affecté les finances du Hezbollah. D’autres mesures ont consisté à appliquer la réglementation en matière de lutte contre le blanchiment d’argent et à renforcer les contrôles aux frontières et aux douanes afin de limiter les flux financiers illicites.

Ces mesures ont fortement réduit la capacité du Hezbollah à maintenir son système traditionnel de soutien social, notamment à indemniser les communautés touchées et à financer la rénovation ou la reconstruction d’après-guerre. Sa base de soutien s’est ainsi retrouvée prise en étau entre un État financièrement incapable de financer la reconstruction, une communauté internationale réticente ou incapable de fournir une aide financière suffisante et un parti confronté, pour la première fois, à des efforts soutenus visant à restreindre ses ressources financières et à limiter la libre circulation de ses stocks d’armes. Si le Hezbollah est parvenu à s’adapter partiellement et à contourner certaines de ces contraintes, leur impact n’en a pas moins été visible et leur portée politique manifeste.

Par ailleurs, la répression institutionnelle libanaise contre le Hezbollah était à son comble lorsque ce dernier a lancé l’attaque contre Israël. Ainsi, à la mi-février 2026, le gouvernement a exhorté les Forces armées libanaises à mettre en œuvre un second objectif stratégique : le démantèlement de l’infrastructure militaire du Hezbollah au nord du fleuve Litani. Selon ses estimations, l’armée libanaise aurait besoin d’au moins quatre mois pour achever cette seconde phase.

Si le Hezbollah avait acquiescé à la mise en œuvre du premier objectif au sud du Litani, conformément à son interprétation de l’accord de cessez-le-feu, il a catégoriquement rejeté cette seconde étape, la qualifiant de « grave faute ». En réponse, les Forces armées libanaises ont appelé tous les acteurs politiques à la prudence, compte tenu de la sensibilité de la situation et des risques de guerre civile liés à cette phase.

Ajoutons que le mécontentement de la base sociale du mouvement s’est accru en raison de l’absence de tout effort de reconstruction, des nombreuses violations du cessez-le-feu et de l’impossibilité pour certains de retourner dans leurs villages ou de prendre l’initiative de reconstruire leurs maisons. C’est dans ce contexte national que le Hezbollah a décidé de frapper Israël, quitte à s’exposer à une réplique dévastatrice.

Cela distingue son engagement militaire actuel des opérations précédentes, ce qui amène les analystes à conclure qu’il pourrait s’agir de la dernière guerre du groupe, dans laquelle il a décidé de jouer toutes ses cartes.

La réaction du gouvernement libanais

Quelques heures après l’attaque contre Israël, le gouvernement libanais a pris une mesure radicale en interdisant toutes les activités militaires et sécuritaires du Hezbollah au Liban, les déclarant formellement illégales et limitant juridiquement son action à la sphère politique.

Le premier ministre a réaffirmé l’engagement du Liban envers l’accord de cessez-le-feu et a mobilisé l’armée pour prévenir toute attaque provenant du territoire libanais. Bien que cette décision politique soit dépourvue de mécanisme d’application, elle n’en demeure pas moins significative, car elle a été approuvée par le mouvement Amal, allié politique de longue date du Hezbollah.

Peu après, plusieurs individus se rendant au Sud-Liban et se présentant comme membres du Hezbollah ont été arrêtés en possession d’armes, notamment des roquettes et des grenades. Ces arrestations ont démontré la détermination du gouvernement à faire respecter l’interdiction des activités militaires et sécuritaires du Hezbollah et à réaffirmer l’autorité de l’État sur les armes et la sécurité au Liban.

En résumé, le gouvernement a, de fait, mis fin à une ère où les calculs politiques primaient et permettaient de considérer le Hezbollah comme un groupe de résistance, ou comme un élément d’une formule politico-sécuritaire libanaise appelée « L’armée, le peuple et la résistance », qui légitimait son statut armé aux côtés des forces armées libanaises.

Une paix introuvable ?

Alors que la guerre se poursuit sans relâche au Liban, le gouvernement et le président de la République ont tenté de lancer une initiative visant à engager des pourparlers directs avec Israël, brisant ainsi des tabous politiques de longue date qui, jusqu’alors, auraient pu anéantir toute carrière politique dans le pays.

Cette initiative s’est soldée par un échec, tant au niveau national que régional. Le président du Parlement a refusé de nommer un représentant chiite, conditionnant cette nomination à un cessez-le-feu et au retour des personnes déplacées. Le Hezbollah, par la voix d’un haut responsable de son bureau politique, a condamné l’initiative, la qualifiant de « trahison de la résistance » et soulignant que « l’État ne peut faire aucune promesse sans l’approbation de la résistance [c’est-à-dire du Hezbollah] ».

Par ailleurs, Israël a rejeté la proposition libanaise d’un cessez-le-feu d’un mois, période durant laquelle des pourparlers directs auraient été entamés, jugeant cette proposition « insuffisante et tardive » et préférant poursuivre la guerre tout en consolidant et, potentiellement, en étendant sa zone tampon établie lors du précédent conflit.

Dans ce conflit, le Hezbollah a démontré sa capacité à freiner l’avancée de l’armée israélienne et à limiter ses opérations. Mais, malgré un certain regain du prestige militaire perdu lors du précédent conflit, il n’a jusqu’à présent réalisé aucun gain stratégique. On ignore encore si le groupe parviendra à rétablir l’équilibre de dissuasion antérieur le long de la frontière israélo-libanaise, ou du moins à annuler les gains stratégiques israéliens acquis lors de la précédente guerre. Selon son secrétaire général, le cheikh Naïm Ghassem, la guerre en cours est « une bataille existentielle ».

De leur côté, des responsables iraniens ont déclaré que tout accord de cessez-le-feu impliquant Téhéran inclurait également le front libanais, signifiant ainsi que le Liban et le Hezbollah ne seraient pas mis à l’écart. Des tracts israéliens ont été largués au-dessus de Beyrouth, porteurs d’un avertissement explicite : « Face au succès retentissant à Gaza, le journal “La Nouvelle Réalité” arrive au Liban. » Ce message évoque l’offensive israélienne de deux ans contre Gaza comme un modèle de ce que le Liban pourrait connaître.

Quelle que soit la suite des événements, une chose est sûre : le Hezbollah semble avoir atteint un point de non-retour dans ses relations avec les autres acteurs politiques libanais. Une bataille politique encore plus ardue attend le Hezbollah sur le plan intérieur, alors qu’il s’efforce de convaincre les autres que le désarmement n’est pas une option.

The Conversation

Hussein Abou Saleh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.03.2026 à 17:20

Des personnels soignants se mobilisent pour défendre l’hôpital public

Ludivine Perray-Redslob, Professeure associée en comptabilité, EM Lyon Business School
Agathe Morinière, Enseignante-chercheuse, Université de Montpellier
Nathalie Clavijo, Docteure en sciences de gestion, TBS Education
Face à l’érosion de l’hôpital public, des soignants ont multiplié des formes de mobilisations originales pour rappeler que le soin n’est pas une marchandise mais un pilier de la société.
Texte intégral (1328 mots)

Funérailles symboliques, minutes de silence, déclarations d’amour… au cours des dernières années, face à l’érosion de l’hôpital public, de nombreux soignants ont eu recours à des formes de mobilisations originales qui mettent en scène la mort et l’amour. Une manière de rappeler que le soin n’est pas une marchandise mais un pilier de la société.


Insuffisance des moyens, pénurie de personnel, violence aux urgences, fermeture de lits et épuisement professionnel des équipes soignantes… les signaux d’alerte se multiplient au sein de l’hôpital public français depuis la mise en œuvre des réformes relevant du « nouveau management public ».

En janvier dernier, les urgences de l’hôpital de Rennes (Ille-et-Vilaine) se sont mises en grève suite à la mort de deux patients qui attendaient sur des brancards. À Aix-en-Provence (Bouches-du-Rhône), le même mois, une patiente en attente d’une place aux urgences est décédée avant d’avoir pu être prise en charge. Le 8 janvier 2026, la ministre de la santé Stéphanie Rist a, quant à elle, fait état d’une « tension dans tous les services d’urgences ». Tous ces faits illustrent l’actualité du problème.

Pourtant, depuis 2019, face à ces situations répétées, deux collectifs de personnels soignants – le Collectif Inter-Urgences et le Collectif Inter-Hôpitaux – alertent sur les conséquences humaines de ces politiques de santé fondées sur la rentabilité, en investissant l’espace public ainsi que les réseaux sociaux.

Nous avons mené une enquête pendant quatre années sur ces deux collectifs et avons collecté des textes, des chansons, des clips, des photographies, des vidéos, des dessins, produits par les soignants eux-mêmes ou relayés par ces collectifs sur les réseaux sociaux. Dans leurs revendications, les soignants mobilisent la mort et l’amour comme des langages politiques pour interroger notre rapport collectif au soin, au service public et à la solidarité.

« Faire mourir » symboliquement l’hôpital pour alerter

Des cercueils portés dans la rue, des cortèges funéraires, des minutes de silence organisées devant les établissements : à première vue, ces scènes peuvent surprendre. Pourquoi « enterrer » symboliquement l’hôpital public alors même que les soignants se battent pour le sauver ? Parce que la symbolique de la mort agit comme un électrochoc. En mettant en scène la mort de l’hôpital, les soignants cherchent à provoquer une prise de conscience : sans réaction collective, ce pilier essentiel de notre société risque de disparaître. Ces rituels de deuil donnent une forme visible à un processus lent et souvent invisible : l’érosion progressive du service public de santé.

La mort permet aussi de rappeler une évidence que les logiques comptables tendent à faire oublier : l’hôpital est une infrastructure vitale. Nous en dépendons tous, un jour ou l’autre. En ce sens, la mort n’est pas seulement une fin ; elle devient un langage politique pour dire l’urgence d’agir.

Exposer la vulnérabilité des soignants

Les mobilisations ne portent pas uniquement sur l’institution hospitalière. Elles rendent aussi visibles les corps de celles et ceux qui y travaillent. Lors de certaines actions, des soignants simulent leur propre mort dans l’espace public, allongés au sol, une seringue symboliquement pointée vers leur tête. D’autres mettent en scène l’asphyxie, pour dénoncer des conditions de travail devenues étouffantes.

Ces images sont fortes, parfois choquantes. Elles disent pourtant une réalité largement documentée dans certains services : surcharge de travail, impossibilité de prendre des pauses, accélération du temps, tension de valeurs, souffrance psychique, burn out, voire suicides. En exposant leur vulnérabilité, les soignants rompent avec l’image héroïque, mais dangereuse, du personnel soignant animé par une vocation qui dépasserait leurs besoins physiologiques, psychiques et humains.


À lire aussi : La crise des urgences, un miroir de la crise du système de santé français


Ils rappellent ainsi que ceux qui prennent soin ont eux aussi besoin d’être protégés et que, lorsque la santé au travail des soignants se dégrade, les patients en subissent les conséquences.

Déclarer son amour à l’hôpital public

À côté de ces mises en scène de la mort, un autre symbole traverse les mobilisations : l’amour. Banderoles proclamant « J’aime mon hôpital », post-it en forme de cœur collés sur les murs, lettres adressées à l’hôpital public à la manière de déclarations amoureuses… Les soignants ont invité les citoyens à exprimer leur attachement à cette institution. Cet amour n’a rien de naïf. Il est profondément politique. En déclarant leur amour à l’hôpital public, les citoyens affirment que le soin ne se réduit pas à une prestation marchande. Ils rappellent que l’hôpital incarne des valeurs de solidarité, d’égalité et d’attention aux plus vulnérables.

L’amour devient alors un acte de résistance : aimer l’hôpital public, c’est refuser qu’il soit géré uniquement selon des critères de rentabilité.

Une responsabilité collective

Ces mobilisations esquissent une éthique de la vie et de la mort, dans laquelle le soin est pensée comme une responsabilité collective, reposant à la fois sur des infrastructures publiques et sur des relations humaines qui reconnaissent nos vulnérabilités et notre interdépendance universelle. Les gestes d’amour, de solidarité et de compassion mis en avant dans les mobilisations rappellent que le soin n’est pas seulement un acte technique, mais une relation humaine fondée sur l’attention portée aux autres.

L’éthique de la vie et de la mort pensée dans ces mobilisations consiste aussi à faire du soin une affaire publique. C’est-à-dire à s’engager collectivement à rendre visible ce qui est habituellement rendu invisible : les corps vulnérables, les situations indignes, la mort progressive de l’hôpital public.

La crise de l’hôpital public n’est pas seulement un problème de gestion. Elle pose une question fondamentale : quelle place voulons-nous donner au soin dans notre société ? Acceptons-nous que certaines vies valent moins que d’autres, faute de moyens ? Ou considérons-nous le soin comme un bien commun, à préserver collectivement ?

En mobilisant la mort et l’amour, les soignants invitent la société à réfléchir aux conditions nécessaires à une vie digne d’être vécue et à ce que nous sommes prêts à engager pour préserver ces conditions de vie.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

28.03.2026 à 17:19

Dans les villages de montagne, ces résidences secondaires qui pèsent sur les élections

Lucie Bargel, Politiste, enseignante-chercheuse, Université Côte d’Azur
Contrairement aux idées reçues, le lieu de résidence n’est pas toujours le lieu de vote. Une enquête montre la présence d’électeurs et électrices ainsi que d’élu·es non résident·es dans les petites communes de montagne.
Texte intégral (1573 mots)
Un village de montagne dans les Alpes-Maritimes. Dans certaines vallées de ce département, les résidences secondaires peuvent représenter jusqu’aux deux-tiers des logements dans les plus petits villages. Jpchevreau, CC BY

Contrairement aux idées reçues, le lieu de résidence ne correspond pas toujours au lieu de vote. Une enquête ethnographique montre la présence continue d’électeurs et d’électrices, de votant·es et d’élu·es non résident·es dans les petites communes de montagne.


Les personnes qui ne résident pas toute l’année dans une commune mais qui y paient des impôts peuvent s’y inscrire sur les listes électorales, voter et être élues. Et elles sont nombreuses à le faire dans les petites communes françaises, en particulier en montagne.

Comment expliquer cette volonté de voter ailleurs que sur son lieu de résidence principale ? Quels débats crée cette présence d’électeurs mobiles ?

En France, il est possible d’être inscrit sur les listes électorales, de voter et d’être candidat ou candidate dans un village dont où l’on ne réside pas. L’Insee définit la résidence principale, celle où l’on est recensé, comme celle dans laquelle on passe le plus de temps. La situation la plus fréquente est de figurer sur les listes électorales de cette commune de résidence principale. Mais le Code électoral prévoit qu’on peut aussi demander à s’inscrire sur les listes électorales d’une commune dans laquelle on est né·e, dans laquelle on a précédemment résidé, dans laquelle vivent nos parents si on a moins de 26 ans, ou dans laquelle on paie des impôts sur une résidence secondaire ou une entreprise, par exemple.

Dans les villages ruraux, et en particulier dans ceux qui comptent de nombreuses résidences secondaires, cette option légale a des effets très concrets.

Enquête ethnographique dans les Alpes-Maritimes

Dans mes travaux, je me suis d’abord intéressée à une vallée montagnarde des Alpes-Maritimes, où les résidences secondaires peuvent représenter jusqu’aux deux tiers des logements dans les plus petits villages. Et ces « résident·es secondaires » ne sont pas indifférents à la vie politique locale : on trouve dans ces villages plus de personnes inscrites sur les listes électorales que de personnes recensées par l’Insee, et même, régulièrement, plus de votes exprimés que de personnes recensées. Ceci est particulièrement fort pour les élections municipales : cela veut dire que les résident·es « secondaires » sont des personnes qui participent à la vie sociale de la commune, qui connaissent personnellement les candidat·es, et qui sont ainsi incitées à participer aux élections autant que les résident·es permanent·es.

Cette incitation à participer commence au moment de s’inscrire sur les listes, en amont de l’élection. Au mois de décembre de l’année précédente (au moment de mon enquête, désormais six semaines avant), les candidat·es aux élections municipales du mois de mars suivant profitent de la période des vacances et des réunions familiales au village d’origine pour tenter de convaincre les personnes attachées au village de s’y inscrire, et d’y voter ou d’y faire une procuration. La campagne se poursuit, au-delà des quelques réunions officielles, dans le cours des rituels sociaux ordinaires liés aux évènements familiaux, naissances, décès, etc. (comme l’a montré Jean-Louis Briquet en Corse) qui dans ce cas ont lieu tant de visu qu’à distance, par téléphone, ou bien pendant les week-ends.

Nombre de ces résident·es secondaires sont en effet présents régulièrement au village. Le caractère montagnard de ces derniers est important : même s’ils ne sont pas très éloignés, « à vol d’oiseau », des grandes villes voisines, le fait que ces trajets aient lieu sur des routes de montagne, où l’on ne peut rouler vite et où les dégâts sont fréquents, empêche ces « originaires » d’être des « pendulaires » qui effectuent le trajet pour aller travailler chaque jour. Plutôt, dans cette vallée, ils et elles partent le lundi matin et reviennent le vendredi soir. À leurs yeux, ils habitent au village.

Une constante depuis le la moitié du XXᵉ siècle

À partir de cette première enquête ethnographique, j’ai élargi la focale temporelle et géographique. Dans cette vallée, la présence d’électeurs et d'électrices « en trop » par rapport aux résident·es recensé·es est une constante depuis la moitié du XXᵉ siècle (et sans doute avant mais l’on ne dispose pas des chiffres). De même, avec Baptiste Coumont, nous avons comparé systématiquement les chiffres du recensement et ceux des listes électorales et constaté que cette extra-inscription concerne toutes les zones de montagne françaises.

Ces résultats ne sont pas très étonnants si on sait que les montagnes sont, structurellement, des lieux de migrations temporaires, adaptées aux spécificités du territoire et du climat. Pendant les mois d’hiver, contraints à l’inactivité, les montagnards descendent occuper des emplois peu qualifiés dans les plaines, et remontent ensuite au village. L’activité pastorale est elle-même structurée par cette mobilité entre différentes altitudes selon les saisons. Les villages de montagne ont donc toujours été composés de personnes mobiles, se considérant comme appartenant au village même sans y être présentes en permanence.

Si aujourd’hui la présence de ces résident·es « secondaires » sur les listes électorales est légale, elle n’est pas sans contestations. Certain·es résident·es permanent·es voient d’un mauvais œil l’influence des « vacanciers » sur les choix politiques de la commune. Les résident·es secondaires sont attaché·es au village précisément parce qu’il constitue une forme de « refuge » par rapport à la ville où elles résident le reste du temps, ils viennent y chercher de l’espace, du calme, de la tranquillité, dans certains cas un lien avec des « traditions » qui prennent la forme de manifestations pendant les week-ends et les mois d’été.

Pour leur part, les permanent·es sont souvent prêt·es à renoncer à une partie du « calme » de leur quotidien en faveur de plus d’activités économiques, de commerces, d’emploi, etc. Et peuvent voir d’un mauvais œil le fait que des citadins, ayant accès à plus de ressources et à de meilleurs emplois, prétendent aussi participer aux choix politiques du village. On peut se demander quelle traduction politique trouvent dans les urnes ces différents rapports au territoire.

Usages non électoraux du vote

Ces pratiques d’inscription sur les listes électorales et de participation aux élections dans son village « d’origine » plutôt que dans son lieu de résidence permanent éclairent aussi l’existence d’usages non électoraux du vote. Voter, ce n’est pas (seulement) exprimer une opinion politique abstraite, rationnelle, séparée du reste de la vie. En France, une série d’enquêtes collectives s’intéresse, depuis 15 ans, au façonnage des pratiques électorales par les relations sociales. Dans mes recherches, je m’intéresse au fait que ces relations sociales n’ont pas nécessairement lieu dans un seul et même endroit.

Les « émigré·es » au sens large, les personnes qui ont changé de pays, mais aussi celles qui ont quitté leur village pour étudier ou occuper de meilleurs emplois, ou encore celles qui continuent de revenir régulièrement dans leur village familial même si elles n’y sont pas nées, peuvent préférer participer à la vie politique de ce lieu investi affectivement. Dans leur cas, le vote sert à manifester cette appartenance sans résidence permanente, et le lieu du vote est au moins aussi important pour les personnes que son contenu.

The Conversation

Lucie Bargel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.03.2026 à 13:57

Vendeurs de drogue sur le « darknet » : des entrepreneurs très bien organisés

Camille Roucher, Doctorant contractuel en sciences de l'information et de la communication, Université de Lorraine
Derrière l’imaginaire d’un darknet chaotique, une enquête révèle que les vendeurs de drogue adoptent les codes du commerce légal et se perçoivent en entrepreneurs.
Texte intégral (2015 mots)
Techniques marketing, visibilité, e-réputation... À rebours de l’image d’un darknet obscur où tout serait permis, une enquête révèle un commerce de drogue structuré, similaire aux grandes plateformes de vente en ligne, comme Amazon et Vinted. Color4260/Shutterstock

Une immersion de quatre ans dans le darknet révèle la façon dont les vendeurs de drogue et les administrateurs de marchés noirs parlent de leur activité, à travers des témoignages exclusifs. Loin de la représentation chaotique qui est habituellement faite de cette partie invisible d’Internet, ils se décrivent comme des entrepreneurs et démontrent le caractère ultra organisé du trafic de drogues.


« Je suis un businessman. »

C’est ainsi que Joshua, vendeur de drogues sur le darknet, décrit son activité.

Accessible grâce à des navigateurs anonymisants, comme TOR, le darknet est une partie d’Internet invisible aux moteurs de recherche classiques. L’anonymat qu’il offre permet d’accéder à des services non censurés, parfois illégaux. Longtemps décrit comme un espace anarchique, qui serait empreint de violence et hors de tout contrôle, il bénéficie depuis peu d’un intérêt nouveau et plus nuancé de la part des médias.

Aujourd’hui encore, il est majoritairement connu pour ses marchés clandestins de hack (vol de données), de drogues et d’armes.

Après avoir mené une enquête en immersion pendant quatre ans sur ces marchés noirs, ils apparaissent comme étant très structurés. Et l’imagerie utilisée par les trafiquants ressemble moins à celle du crime qu’à celle du monde de l’entreprise. Comprendre que le commerce de drogue sur le darknet mime les aspects d’entreprises légales offre des perspectives inédites pour réfléchir à la régulation et à la prévention des comportements numériques à risques.

Par souci de confidentialité, les identités des témoins ont été modifiées.

Parler de clients, de qualité et de réputation

L’attention portée aux clients et à leur satisfaction est au cœur de l’activité des vendeurs sur le darknet.

Travis témoigne de sa stratégie de vente en expliquant :

« J’essaie d’offrir la meilleure expérience possible aux clients potentiels et à leurs parties prenantes, y compris leur famille et leurs amis. »

Lorsque Travis emploie ces mots pour décrire son activité sur le darknet, il mobilise un vocabulaire issu du marketing ou du management. Rien, dans cette formulation, ne renvoie explicitement à l’illégalité de son activité. Il est question d’« expérience client », de « parties prenantes », de satisfaction et de réputation.

Sur le darknet, les vendeurs parlent régulièrement de leurs clients, de la qualité des produits proposés et de leur réputation. Ces éléments sont centraux, car les plateformes reposent sur les mêmes systèmes d’évaluation publics qu’eBay ou Amazon. Les acheteurs laissent des notes et des commentaires, parfois de façon très détaillée. Ces avis conditionnent les algorithmes des marchés, chargés de mettre en avant les meilleurs vendeurs et leurs produits.

Plus encore que l’argent, la réputation est une ressource essentielle pour les vendeurs. Ils la soignent par leur efficacité, leur service client et par le soin accordé en amont et en aval de l’acte d’achat.

Interrogé sur ses pratiques d’achat de drogue, James explique :

« En fin de compte, tout repose sur les avis laissés aux vendeurs. »

Sur ces plateformes, chaque transaction donne lieu à une évaluation publique, qui fonctionne comme un indicateur de fiabilité. Ces notes orientent les choix des acheteurs. Mais surtout, elles conditionnent directement le positionnement des vendeurs dans les résultats de recherche et leur capacité à attirer de nouveaux clients. Une succession d’avis négatifs peut entraîner une perte rapide de crédibilité et une exclusion de la plateforme. Cette logique s’accompagne donc d’un véritable travail de mise en visibilité.

La publicité pour repousser les frontières du marché

« Forums, publicités payantes, tous les outils à notre disposition », explique John.

Ancien dealer de rue, il décrit un univers très différent de celui qu’il a connu auparavant. Là où le deal de rue repose sur un territoire, des relations de proximité et parfois de violence, le darknet impose d’autres règles. La concurrence y est forte, internationale mais sans territoire à gouverner. Pour exister, les vendeurs doivent apprendre à se démarquer autrement.

Dans ce contexte, il n’est plus question d’appartenance à un groupe ou de contrôle d’un espace. Les vendeurs maîtrisent des outils de visibilité (bannières publicitaires, jeux-concours, échantillons gratuits), comprennent les enjeux d’image de marque et cherchent à se différencier dans un environnement saturé d’offres.

Le trafic se raconte alors moins comme une activité clandestine violente que comme un marché concurrentiel, structuré par des algorithmes et des outils familiers au commerce en ligne. En effet, le darknet attire à la fois un public déjà familier du trafic et de nouveaux entrants, parfois issus d’autres milieux, qui apportent ou acquièrent progressivement des connaissances en marketing pour réussir sur ces plateformes. Cette adaptation répond aussi aux attentes d’un public exigeant, qui compare la qualité du service à celle des sites de commerce en ligne, comme Amazon.

Administrer, arbitrer, maintenir l’ordre des marchés

Les marchés de drogues sur le darknet ne reposent pas uniquement sur l’activité des vendeurs et des acheteurs. En arrière-plan, des administrateurs, souvent les créateurs mêmes des plateformes, en assurent la gestion en continu. Tandis que des modérateurs, recrutés par ces responsables, veillent au respect des règles et au traitement des litiges entre acheteurs et vendeurs, en échange d’un pourcentage sur les transactions.

Andrew, créateur et administrateur d’un marché de drogue international, offre un témoignage exclusif sur les missions qui lui incombent.

« Je développe les marchés, je paie les serveurs, je satisfais les utilisateurs et les fournisseurs, je veille à ce que le marché ne soit pas paralysé par des attaques DDoS, je veille à la sécurité des utilisateurs, à la mienne et à celle des modérateurs à tout moment, et je mets fin aux activités des escrocs. »

Lors de nos échanges, il estime consacrer 70 % de son quotidien à s’occuper de la plateforme de vente qu’il administre. Ses tâches (surveillance technique du site, résolution des litiges entre utilisateurs, vérification des vendeurs ou suppression d’annonces frauduleuses) montrent que la gestion d’une plateforme illégale repose sur un travail continu, routinier et souvent chronophage.

La médiation de conflits constitue également une part importante de cette activité. Les acheteurs peuvent, par exemple, déposer une réclamation via l’interface du site lorsqu’un colis n’est pas reçu ou qu’il est jugé non conforme à la description et aux images de présentation. Dans ce cas, les modérateurs examinent les preuves fournies (photos, captures d’écran, numéro de suivi) et décident, selon les règles de la plateforme, d’un remboursement ou du rejet de la plainte. Ces arbitrages peuvent conduire à des avertissements, voire à l’exclusion de vendeurs jugés non conformes aux règles. Tout comme les gestionnaires de plateformes légales, comme Airbnb ou Vinted, les modérateurs s’assurent du service client et s’interposent pour veiller au bon comportement de chacun.

Démystifier l’image du darknet

Les discours recueillis auprès des vendeurs et des administrateurs montrent que le darknet est un univers codifié, où les individus qui s’y retrouvent mobilisent un langage ordinaire, emprunté au commerce et à l’entreprise. Ils organisent leur activité de manière méthodique et prétendent accorder beaucoup d’attention à la qualité des produits, à la réputation et à la satisfaction des clients. Les transactions s’accompagnent de procédures, de suivis et de cadres qui structurent les marchés et encadrent les interactions, même si l’ensemble reste illégal.

Cet écart entre l’image publique et les pratiques observées souligne la richesse et la complexité des marchés du darknet, à l’image des individus très divers qui les occupent. Certains expliquent être des pères de famille, d’autres d’anciens vendeurs de rue reconvertis en ligne, d’autres encore des étudiants menant des vies ordinaires. Plus encore, il révèle un univers à l’apparence assez normale, derrière l’illégalité. L’environnement numérique supprime la violence physique caractéristique du trafic de rue. Et, même si des tensions peuvent exister sur le darknet, elles passent par des sanctions virtuelles plutôt que par des représailles directes.

Un écart marqué avec les représentations dominantes du darknet

Observer et relayer la manière dont les vendeurs parlent de leur activité permet de mieux comprendre le fonctionnement des marchés numériques illégaux, jusqu’alors plutôt étudiés a posteriori de leur fermeture. L’attention que les vendeurs portent à leur réputation, aux évaluations et à la satisfaction des clients révèle des mécanismes de confiance et de coordination qui échappent aux analyses simplifiées du darknet comme un espace dénué de règles. Prendre au sérieux ces voix, encore très rarement interrogées, vise à enrichir la réflexion publique et politique. Mettre en évidence la manière dont ces acteurs adoptent des pratiques entrepreneuriales permet d’affiner les politiques publiques, en révélant les leviers concrets de leur activité. Une telle compréhension ouvre la voie à des interventions plus adaptées, ciblant les conditions de fonctionnement du marché lui-même.

Sur le darknet, le trafic de drogue n’a donc plus grand rapport avec le trafic de rue traditionnel. Les vendeurs se perçoivent comme des entrepreneurs ou des hommes d’affaires.

Cette posture reflète une tendance générale observée dans la société contemporaine, où les individus tendent à se concevoir comme des microentreprises, organisant leur travail, leur réputation et leurs relations comme autant de ressources à optimiser. Ce faisant, les vendeurs du darknet sont parvenus à transposer la culture et les tactiques du commerce légal, modifiant en profondeur la façon dont les produits illégaux se vendent par le biais du numérique.

The Conversation

Camille Roucher ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.03.2026 à 11:02

Donald Trump incarne le « théorème du dictateur » du prix Nobel d’économie Kenneth Arrow

Patrick Mardellat, Professeur des universités en sciences économiques, Sciences Po Lille
Comment concevoir un système de vote respectant les préférences de chacun et la justice ? Pour l’économiste Kenneth Arrow, la solution peut se trouver entre les mains d’un dictateur. Paradoxal, non ?
Texte intégral (2026 mots)
Donald Trump pourrait-il être le président des États-Unis utilitariste cherchant le plus grand bonheur pour le plus grand nombre ? AntonWatman/Shutterstock

Kenneth Arrow est un économiste récompensé en 1972 par le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel. À travers le théorème d’impossibilité, ou « théorème du dictateur », il souligne l’impossibilité de concevoir un système de vote (ou de décision collective) parfait respectant les préférences de chacun et la justice… à moins qu’une seule personne n’impose ses choix à tous. Une illustration de la démocratie des États-Unis à l’ère de Donald Trump ?


Dans ce qu’il reste de démocraties libérales dans le monde, les opinions publiques sont sidérées par le spectacle de la politique que mène Donald Trump depuis la Maison-Blanche et Mar-a-Lago. Le président de la plus ancienne démocratie au monde semble n’avoir d’autre boussole que ses préférences du moment, que seule l’opposition d’un rapport de force défavorable semble pouvoir arrêter.

La surprise et la crainte que suscite cette politique erratique tiennent en grande part au fait que le processus d’élection démocratique a été respecté. Le président exerce son second mandat en toute légitimité ; il n’est pas parvenu à la fonction suprême par un coup de force.

Comment comprendre que les électeurs d’une des nations les plus riches et prospères, mais aussi parmi les plus éduqués au monde, aient pu confier leur souveraineté à un homme qui aujourd’hui piétine les principes sur lesquels cette souveraineté du peuple américain repose ? Comment nommer et expliquer le phénomène que représente Donald Trump, et qui menace bien d’autres démocraties, y compris en Europe ?

Détour par l’économie avec le théorème du dictateur de Kenneth Arrow, chercheur récompensé en 1972 par le Prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel.

Démocratie illibérale

Pour qualifier ce phénomène, il est courant d’invoquer l’illibéralisme, ou de parler de « démocratie illibérale », expression que l’on doit au politologue états-unien Fareed Zakaria – dont se réclament Viktor Orban et ses émules, au nombre desquels il faut compter Donald Trump.

Alors que la démocratie a pendant plus d’un siècle été associée au libéralisme politique – élections libres, séparation des pouvoirs, liberté d’expression, etc. –, dessinant les contours de ce que l’on pourrait appeler un constitutionnalisme libéral, décrit par le philosophe Bernard Manin, ce qui nous frappe aujourd’hui c’est que démocratie et constitutionnalisme libéral peuvent diverger.

La démocratie ne garantit pas les vertus du libéralisme politique, elle peut s’exercer à son encontre en contestant l’indépendance de la justice, en affaiblissant les contre-pouvoirs, en réduisant les libertés universitaires et de la presse.

Capitalisme, utilitarisme et démocratie

Kenneth Arrow (1921-2017) Wikimedia commons

Ce qui manque dans ce tableau, c’est le rôle joué par l’économie. Pour comprendre le phénomène Donald Trump et ses avatars, il faut combiner l’éthique utilitariste qui guide nos gouvernants, l’économie capitaliste qui court après l’enrichissement, et la démocratie qui au sens le plus restreint est une procédure de sélection des dirigeants politiques.

Capitalisme, utilitarisme et démocratie, voilà la devise de cet ordre qui a été promu après la Seconde Guerre mondiale.

Le capitalisme, avec son économie de marché, promettait la prospérité de masse rappelée par Edmund Phelps, lauréat 2006 du prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel. L’utilitarisme mettait en avant le plus grand bonheur pour le plus grand nombre. « Les actions sont bonnes ou sont mauvaises dans la mesure où elles tendent à accroître le bonheur, ou à produire le contraire du bonheur », souligne John Stuart Mill en 1863. La démocratie proposait des règles équitables et rationnelles de sélection des dirigeants pour conduire cette politique utilitariste dans le respect du pluralisme des préférences.

Les sciences économiques et politiques, qui se sont scindées en deux au cours du vingtième siècle (on parlait d’économie politique depuis le XVIIe siècle), ont produit des discours et des fictions théoriques pour promouvoir cette architecture sociétale ayant vu le jour dans les années 1950.

Théorème du dictateur

Avec la domination du modèle américain sur le « monde libre », socle à l’idéal européen, l’économiste Kenneth Arrow formule son théorème d’impossibilité en 1951. L’éthique utilitariste, promouvant le bien-être maximal, ne peut servir de fondement moral du capitalisme et d’horizon d’une politique démocratique. Il met en garde la communauté des économistes et des politistes sur les illusions d’un tel pari.


À lire aussi : « The Apprentice », ou le capitalisme prédateur selon Donald Trump


Le paradoxe de Kenneth Arrow : il est impossible d’avoir une procédure collective de classement de la répartition (ou de production) des richesses au niveau politique respectant les préférences individuelles.

L’envers de ce théorème d’impossibilité est un théorème d’existence, connu également comme le « théorème du dictateur ». Une telle procédure n’est possible que si les préférences d’un dictateur s’imposent dans le choix collectif, quelles que soient les préférences individuelles. Une alternative est que ce choix soit imposé par l’appel à la tradition ou à l’unanimité autour d’un dogme (la domination, dans la démonstration de Kenneth Arrow).

Bien-être imposé ou dictatorial

Ce théorème est dévastateur pour l’ambition politico-économique dont les États-Unis s’étaient fait le porte-étendard dans le monde libre. Pour citer Kenneth Arrow, « le mécanisme de marché ne peut donner un choix rationnel » et « l’idéologie de la souveraineté de l’électeur est incompatible avec celle de la rationalité collective ». Il résume sa découverte à la fin de l’ouvrage par ces mots :

« La seule fonction de bien-être collectif possible est soit imposée, soit dictatoriale. »

À partir de 1963, Kenneth Arrow, plutôt que de parler de fonction de bien-être collectif, parlera de constitution pour désigner « le processus de détermination d’un ordre collectif ou d’une fonction de choix à partir des ordres individuels ».

Ce à quoi nous assistons aujourd’hui avec le trumpisme, c’est l’illustration et la vérification du paradoxe de Kenneth Arrow. Les règles démocratiques d’une élection libre ont été respectées et ont porté au pouvoir Donald Trump. Celui-ci, une fois aux commandes, fait passer ses préférences individuelles pour les préférences collectives. Il impose ses vues sur l’immigration, le commerce international ou l’environnement, dans le mépris des préférences des électeurs états-uniens et de nombreux citoyens du monde.

Se protéger du despotisme

Certes, des électeurs de Trump lui restent encore fidèles et peuvent avoir l’illusion que leurs préférences personnelles sont entendues. La campagne électorale et les réseaux sociaux ont permis au président des États-Unis d’imposer ses propres préférences comme étant celles de son électorat, qui pour une part d’entre eux se rendent compte qu’ils ont été trompés. Les citoyens états-uniens sont sommés de se replier sur leurs intérêts privés, sur l’amélioration de leur sort matériel, en dehors de la politique, et le despote peut quant à lui imposer ses choix auxquels tous doivent se plier.

À la suite des travaux de Kenneth Arrow, les économistes et les philosophes politiques ont délaissé la question fondamentale qu’il pose : capitalisme et démocratie libérale ne peuvent être associés sur la base de l’éthique utilitariste, qui fait de la maximisation du bonheur le but de toute politique. Cette idée de bonheur, une idée nouvelle selon le révolutionnaire français Saint-Just, ne peut à elle seule intégrer les choix rationnels des individus dans une fonction de bien-être collectif.

Sur cette base, l’horizon politique du maximum de bien-être pour le plus grand nombre ne peut être le ciment par lequel capitalisme et démocratie peuvent devenir compatibles. Il n’y a pas d’éthique propre à l’enrichissement qui puisse nous protéger du despotisme.

The Conversation

Patrick Mardellat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.03.2026 à 14:22

Comment réformer la nomination du président de la Cour des comptes ?

Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School
Le déport d’Amélie de Montchalin n’épuise pas complètement la question de la gouvernance et des nominations à la tête de la Cour des comptes. Une institution née au Moyen-Âge.
Texte intégral (1850 mots)

Après une nomination contestée à la présidence de la Cour des comptes, Amélie de Montchalin a indiqué qu’elle n’interviendrait pas sur les budgets à l’élaboration desquels elle a participé comme membre du Gouvernement. Au-delà de cet épisode, la question de la nomination du président et de la gouvernance de cette institution, créée au Moyen-Âge, est posée.


Mercredi 25 mars, Amélie de Montchalin, nommée première présidente de la Cour des comptes par le président de la République le 23 février dernier, annonce qu’elle ne participera pas aux débats de la Cour sur les budgets publics 2025 et 2026 dont elle fut partie prenante.

De fait, sa nomination à la tête d’une institution chargée d’évaluer la bonne gestion des finances publiques soulève d’importantes questions de gouvernance publique au moment où l’État de droit est attaqué de toutes parts dans les pays démocratiques.

Une des plus anciennes institutions françaises

L’origine de la Cour des comptes remonte à l’ordonnance royale de Vivier-en-Brie promulguée en 1320 par Philippe V Le Long. Le principe cardinal de l’inamovibilité des magistrats qui la composent remonte également à l’Ancien Régime, et, plus précisément, à une autre ordonnance de Louis XI prise en 1467. Après les bouleversements de la Révolution, Napoléon lui donne sa forme actuelle par la loi du 16 septembre 1807. La Cour devient un organe indépendant du pouvoir exécutif avec pour mission principale de contrôler rigoureusement et de sanctionner si nécessaire les agents qui manipulent des fonds publics. Depuis, elle assure l’effectivité de l’article 15 de la Déclaration des droits de l’homme du 26 août 1789 :

« La société a le droit de demander compte à tout agent public de son administration. »

Un outil de contrôle démocratique

Le périmètre de ses missions s’est progressivement élargi au fil du temps avec l’accroissement, la diversité et la complexité de la sphère publique. Aujourd’hui, elle est la tête de pont d’un réseau comprenant les vingt-six cours des comptes régionales (dont quinze en métropole) qui continuent de contrôler et de sanctionner si nécessaire les irrégularités des agents publics et, plus globalement, tous les organismes qui perçoivent des fonds publics.


À lire aussi : Niches socio-fiscales : comment faire le tri ?


La Cour est surtout connue du grand public pour son rapport annuel qui dénonce avec constance les gaspillages publics comme le fiasco du projet informatique obligeant les propriétaires immobiliers à déclarer leurs biens dans la précipitation pour un coût de 1,3 milliard soit… cent fois plus que le coût estimé. Mais ce sont surtout ses attributions de certification des comptes de l’État depuis 2001 et d’assistance du Parlement gravée dans le marbre de l’article 47-2 de la Constitution depuis 2008 qui en font un pilier essentiel du contrôle démocratique.

200 magistrats inamovibles

La principale voie de recrutement des quelque 200 magistrats inamovibles de la Cour se fait sur concours selon le classement de sortie de l’Institut national du service public (ex ENA) comme pour les magistrats du Conseil d’État. Cela garantit un haut niveau intellectuel. Elle sert d’ailleurs de douillet camp de base aux ambitieux qui délaissent rapidement la maison de la rue Cambon pour entamer une carrière politique à l’instar de François Hollande qui avait benoîtement avoué ce privilège exorbitant alors qu’il était président.

Pour diversifier un corps qui risque de devenir trop monolithique, deux autres voies d’accès existent. La première, marginale, dite au tour extérieur et prévue par les textes, concerne des profils expérimentés et suit une procédure formalisée. La seconde, exceptionnelle, dite nomination hors tour, est à la discrétion du président de la République. C’est cette procédure qui a été mise en œuvre pour la nomination d’Amélie de Montchalin, comme cela avait déjà été le cas par exemple pour Najad Vallaud Belkacem, une ex-ministre de l’Éducation.

Un président Primus inter pares

Si le premier président n’a pas de pouvoir juridictionnel supérieur aux autres magistrats car les décisions sont toujours collégiales, il organise le travail de la Cour, en fixe les priorités de contrôle et en supervise les activités administratives.

Son pouvoir d’influence s’étend en interne à la validation des rapports et surtout dans les relations qu’il entretient avec le Gouvernement et le Parlement et plus généralement par ses interventions (récurrentes sous le dernier mandat) dans les médias.

Des nominations de plus en plus politiques

Historiquement, le premier président de la Cour de comptes était issu du sérail mais depuis une quarantaine d’années les nominations sont devenues exclusivement politiques. En effet, après Jean Rosenwald (1982-1983) qui avait fait toute sa carrière à la Cour, les nominations d’hommes politiques aux compétences budgétaires très disparates se sont succédé à l’exception de François Logerot (2001 à 2004).

Si le père de la loi organique relative aux lois de finances de 2001 Didier Migaud (2010-2020) est un expert reconnu des finances publiques, les compétences de Pierre Joxe (1993-2001) et de Philippe Seguin (2004-2010) sont bien modestes. Le dernier président, Pierre Moscovici (2020-2025) s’est surtout illustré par une responsabilité directe dans la dérive des comptes publics comme ministre de l’Économie et des finances (2012-2014) puis indirecte, mais réelle, en refusant de sanctionner le non respect du pacte de stabilité et de la croissance par la France comme commissaire européen aux affaires économiques et monétaires (2014-2019). Dans ce contexte, la nomination d’Amélie de Montchalin loin d’être une rupture, ne fait qu’exacerber une tendance de fond.

Politisation et conflits d’intérêts

La politisation de l’institution, dénoncée avec force par les oppositions (RN et LFI) au moment de sa nomination, est paradoxalement un risque marginal car l’histoire nous rappelle sans cesse la pérennité du mot de Louis XIV :

« Toutes les fois que je donne une place vacante, je fais cent mécontents et un ingrat ».

On l’a encore vu avec Pierre Moscovici qui s’est mué dès sa nomination en féroce contempteur de la dérive des comptes pour marquer son indépendance vis-à-vis du pouvoir exécutif.

LCP Mai 2024.

Plus problématique est bien sûr le conflit d’intérêts patent d’Amélie de Montchalin ou de son prédécesseur qui ont chacun participé directement à l’élaboration des politiques budgétaires peu efficaces qu’ils devaient et doivent encore évaluer. En l’espèce, le simple soupçon d’un manque d’impartialité suffit à fragiliser la crédibilité de l’institution. Or, la légitimité de la Cour des comptes repose précisément sur la confiance démocratique qu’elle inspire.

Deux types de solutions

Deux types de propositions simples pourraient être appliquées pour améliorer la gouvernance de la vieille dame de la rue Cambon :

  • un recrutement uniquement interne,

  • un recrutement externe mieux contrôlé.

Dans tous les cas, il serait sage d’aligner la durée du mandat de Premier président sur celle des membres du Conseil constitutionnel, soit 9 ans. Aujourd’hui, Amélie de Monchalin, âgée de 40 ans, pourrait se maintenir en poste pendant… 27 ans.

Au nom de la compétence, une procédure de recrutement interne pourrait aisément s’inspirer des deux autres hautes juridictions. Ainsi le Vice-président du Conseil d’État (le président en est officiellement le président de la République à titre symbolique) est nécessairement choisi parmi les membres les plus expérimentés du corps. Quant au premier président de la Cour de cassation, il est nommé par le président de la République française, sur proposition du Conseil supérieur de la magistrature. Ce processus garantit l’indépendance et la légitimité de la nomination, conformément à l’organisation judiciaire française.

Une période de vacuité

Au nom de la visibilité de l’institution, une procédure de recrutement externe serait fondée sur deux principes. Le premier imposerait une période de vacuité de quelques années entre des fonctions politiques et des fonctions de contrôle, évitant ainsi les conflits d’intérêts sans s’interdire de nommer des personnalités compétentes en finances publiques.

Le second renforcerait le rôle du Parlement dans les nominations sur le modèle existant pour les membres du Conseil constitutionnel et des autorités administratives indépendantes. Ainsi depuis la réforme constitutionnelle de 2008 l’article 13 de la Constitution restreint le pouvoir de nomination du président de la République qui ne peut procéder à ces nominations lorsque l’addition des votes négatifs dans chaque commission permanente de l’Assemblée et du Sénat représente au moins trois cinquièmes des suffrages exprimés. C’est ainsi que la nomination de Richard Ferrand s’est jouée à une voix en commission des finances de l’Assemblée nationale le 19 février 2005.

The Conversation

Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.03.2026 à 13:58

Quand le GPS devient une arme en mer : comment la guerre électronique menace les navires et leurs équipages

Anna Raymaker, Ph.D. Candidate in Electrical and Computer Engineering, Georgia Institute of Technology
Brouillage, spoofing et autres attaques numériques montrent à quel point le transport maritime moderne dépend de signaux GPS fragiles – et combien leurs perturbations peuvent mettre les équipages en danger.
Texte intégral (2714 mots)
De plus en plus connectés, les navires sont également de plus en plus vulnérables aux cyberattaques.

Des navires qui semblent tourner en rond, dériver à l’intérieur des terres ou apparaître soudain à des centaines de kilomètres de leur route : ces anomalies sont devenues plus fréquentes dans les zones de conflit. Elles révèlent l’essor du spoofing GPS, une menace croissante pour les systèmes de navigation maritime et pour les équipages qui en dépendent.


La guerre en Iran fait la une de l’actualité, entre frappes aériennes et montée des tensions militaires. Mais au-delà des destructions immédiates, le conflit révèle aussi une menace plus discrète, et en rapide progression : la vulnérabilité des navires – et de leurs équipages – aux perturbations de leurs systèmes de navigation.

Le transport maritime moderne repose largement sur la navigation satellitaire GPS. Lorsque ces signaux sont brouillés ou manipulés, les navires peuvent soudain apparaître, pour leur propre équipage comme pour les autres bâtiments, à un endroit où ils ne sont pas. Dans certains cas, des bateaux ont été observés en train de « sauter » d’un point à l’autre sur les cartes, dériver à des kilomètres à l’intérieur des terres ou semblant tourner en rond selon des trajectoires impossibles. Dans les zones de guerre, ce risque est encore plus élevé : un navire peut alors être dévié de sa route et se retrouver, sans le savoir, en plein danger.

En tant que chercheur en cybersécurité spécialisé dans les infrastructures critiques et les systèmes maritimes, j’étudie la manière dont les menaces numériques affectent les navires et les personnes qui les exploitent.

Pour comprendre les risques liés aux perturbations du GPS, il faut d’abord comprendre comment fonctionne ce système. Le GPS détermine une position à partir de signaux envoyés par des satellites en orbite autour de la Terre. Un récepteur calcule sa localisation en mesurant le temps que ces signaux mettent à lui parvenir. Or, lorsqu’ils atteignent la surface de la Terre, ces signaux sont extrêmement faibles, ce qui les rend relativement faciles à brouiller ou à manipuler.

Brouillage et usurpation du GPS

Dans le cas du brouillage GPS (dit « jamming »), un attaquant neutralise les véritables signaux satellites en les noyant sous un bruit électromagnétique. Les récepteurs ne parviennent alors plus à les capter et les systèmes de navigation perdent leur position. Sur un téléphone, cela peut se traduire par une carte qui se fige ou par une localisation qui saute de manière erratique.

L’usurpation GPS (ou « spoofing ») est plus sophistiquée. Au lieu de bloquer les signaux, l’attaquant émet de faux signaux satellites imitant les vrais. Le récepteur les accepte et calcule alors une position erronée. C’est comme si vous rouliez vers le nord alors que votre GPS affirme soudain que vous partez vers le sud. Le récepteur ne dysfonctionne pas : il a simplement été trompé.

Des boucles visibles en mer Noire montrent des positions de navires falsifiées par spoofing GPS, enregistrées en janvier 2025. Les points rouges correspondent à de fausses positions GPS diffusées lors de ces attaques, faisant apparaître les navires comme se déplaçant en cercles parfaits sur les cartes de suivi, alors qu’ils se trouvaient en réalité à des centaines de kilomètres de là. Ces perturbations sont largement considérées comme liées aux interférences électroniques dans la région dans le contexte de la guerre en Ukraine. Image réalisée à partir de données de Spire Global. Anna Raymaker

Pour les marins, le spoofing peut avoir de graves conséquences. En pleine mer, il existe peu de repères permettant de vérifier la position d’un navire lorsque le GPS se comporte de manière étrange. Près des côtes, on ne dispose plus de la moindre marge d’erreur : les profondeurs varient rapidement et les dangers sont nombreux, en particulier dans des passages étroits comme le détroit d’Ormuz, près de l’Iran, où des opérations de spoofing GPS sont signalés depuis le début de la guerre. Or les navires sont massifs et manœuvrent lentement : même de petites erreurs de navigation peuvent provoquer des échouements ou des collisions.

Un échouement en mer Rouge

Un exemple marquant s’est produit en mai 2025. Alors qu’il transitait par la mer Rouge, le porte-conteneurs MSC Antonia a commencé à afficher des positions très éloignées de sa localisation réelle. Pour les navigateurs à bord, le navire semblait avoir soudain « sauté » de plusieurs centaines de kilomètres vers le sud sur la carte et se mettre à suivre une nouvelle trajectoire. Désorienté, l’équipage a fini par perdre le contrôle de la situation, et le navire s’est échoué. L’incident a causé plusieurs millions de dollars de dégâts et nécessité une opération de renflouement qui a duré plus de cinq semaines.

Comparaison de la route du MSC Antonia montrant, à gauche, la trajectoire réelle du navire et son point d’échouement, et à droite la route falsifiée par spoofing. Les lignes rouges et noires à droite indiquent les positions GPS trompeuses où le navire semblait soudain apparaître. Ces trajectoires erronées ont semé la confusion parmi les navigateurs et ont conduit à l’échouement. Images réalisées à partir de données de VT Explorer. Anna Raymaker

L’incident du MSC Antonia est loin d’être un cas isolé. Les données de suivi maritime ont mis en évidence des groupes de navires apparaissant soudain dans des positions impossibles, parfois loin à l’intérieur des terres ou décrivant des cercles parfaits sur les cartes. Des anomalies de plus en plus souvent attribuées à des opérations de spoofing GPS dans des zones de fortes tensions géopolitiques.

Mais les interférences GPS ne sont qu’une facette des menaces numériques qui pèsent désormais sur le transport maritime. Des rapports du secteur font état d’attaques par rançongiciel visant des compagnies maritimes, de compromissions de chaînes d’approvisionnement et d’inquiétudes croissantes autour de la sécurité des systèmes de contrôle embarqués, qu’il s’agisse des moteurs, de la propulsion ou des équipements de navigation. Plus les navires sont connectés – via l’internet satellitaire et des outils de surveillance à distance –, plus les points d’entrée potentiels pour les cyberattaques sont nombreux.

Les navires militaires tentent souvent de réduire ces risques en mettant en place une séparation plus stricte des réseaux informatiques et en organisant régulièrement des exercices d’entraînement, comme les simulations dites de « mission control », qui consistent à opérer malgré des systèmes de communication ou de navigation dégradés. Certains experts en cybersécurité estiment que des pratiques similaires pourraient renforcer la résilience du transport maritime commercial, même si la taille réduite des équipages et les ressources limitées rendent l’adoption de procédures inspirées du monde militaire plus difficile.

L’expérience des marins

Dans le débat public sur la cybersécurité maritime, l’attention se porte souvent sur les failles techniques des systèmes embarqués. Mais une autre dimension est tout aussi essentielle : les femmes et les hommes qui doivent interpréter ces technologies et réagir lorsque quelque chose tourne mal.

Dans une étude récente, mes collègues et moi avons interrogé des marins professionnels sur leur expérience des incidents cyber et sur leur capacité à y faire face. Les entretiens ont été menés avec des officiers de navigation, des ingénieurs et d’autres membres d’équipage responsables des systèmes du navire. Un constat s’en dégage clairement : les menaces numériques se multiplient en mer, mais les équipages sont mal préparés pour y répondre.

Beaucoup de marins nous ont expliqué que leur formation à la cybersécurité se concentrait presque exclusivement sur le phishing par e-mail et l’usage de clés USB. Une approche qui peut avoir du sens dans un environnement de bureau, mais qui prépare très peu aux incidents cyber à bord d’un navire, où les systèmes de navigation et de contrôle peuvent devenir les principales cibles. Résultat : de nombreux marins manquent de repères clairs pour comprendre comment une cyberattaque pourrait affecter les équipements dont ils dépendent au quotidien.

Le problème apparaît lorsque les systèmes du navire commencent à se comporter de manière anormale. Plusieurs marins ont ainsi raconté avoir vu le GPS afficher des positions erronées ou perdre momentanément le signal. Dans ces situations, il est souvent difficile de savoir s’il s’agit d’une simple panne technique ou du signe d’une interférence malveillante.

Et même lorsque l’équipage soupçonne un problème, de nombreux navires ne disposent pas de procédures claires pour faire face à un incident cyber. Les marins décrivent fréquemment des situations où ils devraient improviser si les systèmes de navigation ou d’autres outils numériques se comportaient de façon inattendue. Contrairement aux pannes matérielles, qui s’accompagnent généralement de listes de vérification et de protocoles bien établis, les incidents cyber se situent souvent dans une zone grise où les responsabilités et les réponses à apporter restent floues.

Un autre défi tient à la disparition progressive des pratiques traditionnelles de navigation. Pendant des siècles, les marins s’appuyaient sur les cartes papier et la navigation astronomique pour déterminer leur position. Aujourd’hui, la plupart des navires commerciaux dépendent presque entièrement de systèmes électroniques.

Plusieurs marins ont ainsi souligné que les cartes papier ne sont plus toujours disponibles à bord et que la navigation céleste est très rarement pratiquée. Si le GPS ou les systèmes de navigation électroniques cessent de fonctionner, les équipages disposent donc de peu de moyens pour vérifier indépendamment leur position. L’un des marins interrogés résume brutalement le risque : « Sans cartes, si vous êtes victime de spoofing, vous êtes un peu fichus. »

Une connectivité croissante, des risques accrus

Dans le même temps, les navires sont de plus en plus connectés. Les bâtiments modernes s’appuient désormais largement sur l’internet satellitaire – notamment des systèmes comme Starlink – ainsi que sur des outils de surveillance à distance pour gérer leurs opérations et communiquer avec la terre.

Si ces technologies améliorent l’efficacité, elles élargissent aussi les vulnérabilités des systèmes embarqués. La connectivité qui permet aux équipages d’envoyer des e-mails ou d’accéder à internet peut également ouvrir des voies d’accès aux cybermenaces vers les systèmes du navire.

À mesure que le spoofing GPS se multiplie dans les régions marquées par des tensions géopolitiques, les difficultés décrites par les marins dans notre étude deviennent de plus en plus difficiles à ignorer. Les océans peuvent sembler vastes et vides, mais les signaux numériques qui guident les navires modernes circulent dans un espace saturé et disputé.

Lorsque ces signaux sont manipulés, les conséquences ne se limitent pas aux systèmes militaires. Elles touchent aussi les navires commerciaux qui transportent l’essentiel des marchandises mondiales, ainsi que les équipages chargés de les conduire en toute sécurité.

The Conversation

Anna Raymaker a reçu des financements de la National Science Foundation et du Department of Energy pour ses travaux de recherche.

26.03.2026 à 15:44

Demain, qui produira les récits qui façonnent nos sociétés ?

Tom van Laer, Professor of Persuasive Language and Storytelling, SKEMA Business School
Les biens culturels, et notamment les séries et les films, ont un rôle immense à jouer : ils forment un écosystème de récits, qui influence la société dont il est le reflet. À ce titre, continuer d’en financer la diversité est fondamental.
Texte intégral (1789 mots)

Ces dernières années, les politiques culturelles sont redevenues un sujet de débat en Europe. Dans plusieurs pays de l’Union européenne, la montée de l’extrême droite s’accompagne de critiques croissantes à l’égard des subventions publiques au secteur culturel, jugées coûteuses ou inefficaces. Dans un environnement médiatique de plus en plus structuré par quelques grandes plateformes états-uniennes, que signifie encore soutenir une production audiovisuelle souveraine ? Que risque une société lorsqu’elle affaiblit sa capacité à produire et à diffuser ses propres histoires ?


Chaque printemps à Lille (Nord), le festival Séries Mania, dont la saison 2026 s’achève ce vendredi 27 mars, rassemble des milliers de spectateurs, professionnels et créateurs autour des séries télévisées du monde entier. Devenu le plus grand événement mondial consacré aux séries, le festival a attiré plus de 108 000 visiteurs et près de 5 000 professionnels issus de 75 pays en 2025. L’événement est en grande partie soutenu par des financements publics : collectivités locales, le Centre national du cinéma (CNC) et l’Union européenne (UE).

Derrière les tapis rouges, le Rassemblement national (RN) a critiqué ce type d’investissements au nom d’un argument simple : la culture devrait fonctionner comme n’importe quel marché. Si une œuvre trouve son public, elle survivra ; sinon, elle disparaîtra.

Mais cette vision fait fi d’un élément central : la production culturelle ne se limite pas à des biens économiques. Elle constitue aussi un écosystème de récits, qui façonne la manière dont une société se comprend et se projette.

Le marché ne mesure pas tout

L’argument du RN repose sur une logique de rentabilité immédiate. Pourtant, des séries comme Dix pour cent (2015-2020), Lupin (depuis 2021), Borgen (Danemark, 2010-2022), ou La Casa de Papel (Espagne, 2017-2021) ne sont pas de simples produits : ce sont des miroirs collectifs. Leur impact social dépasse souvent leurs performances commerciales immédiates, tout en s’inscrivant parfois dans un succès international à long terme, largement amplifié par les plateformes américaines.

Les chercheurs en économie de la culture soulignent depuis longtemps que les biens culturels produisent de nombreuses externalités positives : non seulement le renforcement de la langue (argument fétiche du RN), mais aussi la transmission culturelle, l’innovation et l’inspiration et le rayonnement international.

Le rapport de l’Unesco sur les industries culturelles et créatives face à la pandémie de Covid-19 montre, par exemple, que ces secteurs génèrent non seulement des revenus économiques, mais aussi des bénéfices sociaux, notamment en matière d’éducation et de participation culturelle.

Les festivals, comme Séries Mania, et les mécanismes publics de soutien permettent précisément de prendre en compte ces effets plus larges, que le marché seul peine à valoriser.

Les histoires changent les attitudes et les comportements

Depuis plusieurs décennies, les sciences sociales étudient l’effet des récits sur les individus. Les recherches sur la « transportation narrative », développées par mes collègues et moi, montrent que les histoires peuvent modifier les attitudes et les comportements lorsqu’un public est immergé dans un récit. Dans cet état d’immersion, les spectateurs deviennent plus réceptifs aux idées et aux valeurs portées par l’histoire.

Notre recherche montre ainsi que les récits influencent la persuasion, les émotions et les attitudes du public. Nos travaux sur la narration et sa réception confirment que l’engagement narratif peut même affecter durablement des décisions et des comportements.

Ces résultats dépassent largement la communication commerciale. Ils suggèrent que les récits médiatiques contribuent à structurer les représentations collectives, qu’il s’agisse de valeurs sociales, de visions du futur ou d’identité collective. Comme le résume une maxime souvent attribuée aux Hopis, peuple autochtone d’Amérique du Nord :

« Ceux qui racontent les histoires gouvernent le monde. »

Autrement dit contrôler les récits revient à orienter la manière dont une société comprend la réalité.

Les histoires partagées comme espaces de médiation culturelle

Enfin, les événements culturels jouent aussi un rôle civique. Selon les travaux sur l’expérience culturelle immersive, les histoires partagées créent des lieux de rencontre entre territoires, générations et milieux sociaux. Ils offrent une communauté partagée où les récits circulent et où les spectateurs peuvent débattre de questions contemporaines à travers la fiction.

Dans une période marquée par la fragmentation médiatique et la polarisation politique, ce forum public remplit une fonction non négligeable dans la cohésion démocratique.

Une infrastructure narrative

Au fond, la question n’est peut-être pas seulement celle du financement d’une industrie. Elle concerne la capacité d’une société à maintenir ce que l’on pourrait appeler une infrastructure narrative au-delà du marketing.

Comme les infrastructures physiques (routes, réseaux numériques, etc.), cette infrastructure est rarement visible. Pourtant, loin d’être un luxe, elle permet la circulation des idées, des imaginaires et des identités.

La recherche sur le rôle des récits dans l’imagination des futurs montre que les histoires structurent profondément les perceptions collectives. Elles influencent la manière dont les individus interprètent les événements sociaux ou politiques. Plus largement, le travail sur les imaginaires collectifs souligne que les représentations culturelles contribuent à orienter la manière dont les sociétés envisagent leurs transformations et leur avenir.

Affaiblir les institutions qui soutiennent la création culturelle ne signifie donc pas seulement produire moins d’œuvres. Cela peut aussi réduire la disponibilité des récits.

Produire des récits, une forme de souveraineté

Dans ce contexte, soutenir la création audiovisuelle revient aussi à soutenir la capacité d’un pays à produire ses propres histoires. Ce soutien est donc un levier de souveraineté.

Le politiste Joseph Nye, professeur à Harvard, a popularisé le concept de soft power : l’influence qu’un pays exerce non par la contrainte, mais par l’attraction culturelle et symbolique. Les États-Unis ont longtemps exercé cette influence à travers Hollywood et les séries télévisées. Plus récemment, la Corée du Sud a renforcé sa visibilité internationale grâce à ses films, sa musique et ses séries, phénomène souvent qualifié de K-wave ou de hallyu (« vague coréenne »). Les anime japonais sont aussi souvent cités comme exemples de cette influence narrative.

Les industries culturelles représentent ainsi une part importante de l’économie française : 2,9 % du PIB en 2024, plus de 100 milliards d’euros de chiffre d’affaires et environ 586 000 emplois directs. Comme le souligne le rapport « Creative Economy Outlook » des Nations unies, les secteurs créatifs contribuent aussi au rayonnement international du pays. Dans un contexte où les budgets de production tendent à orienter la création vers des formats facilement exportables, les institutions, comme le CNC en France, ou le Forum européen du film, jouent donc un rôle stratégique.

Dans ce contexte, réduire fortement les soutiens culturels peut avoir un effet paradoxal : affaiblir la capacité d’un pays à produire et à diffuser ses propres récits, au moment même où les plateformes américaines structurent de plus en plus la circulation des contenus. La réalisatrice afghane Shahrbanoo Sadat résume ce problème ainsi :

« L’Afghanistan n’a pas d’industrie cinématographique, et il est souvent mal représenté par les films réalisés par des cinéastes internationaux. Le seul type de film que l’on attend est un drame de guerre. »

Financer des récits, c’est aussi financer une identité collective

À court terme, réduire les subventions culturelles peut sembler une décision budgétaire parmi d’autres. Mais à plus long terme, la question devient celle de la souveraineté narrative : qui produit les histoires qui circulent dans une société ?

Les récits ne se contentent pas de divertir : ils tissent la trame de la démocratie. Les festivals, les institutions et les programmes de soutien contribuent ainsi à maintenir un espace où les récits peuvent être produits, expérimentés et partagés.

Dans un environnement médiatique dominé par quelques grandes plateformes américaines, les politiques culturelles jouent souvent un rôle de contrepoids. Elles permettent de maintenir des voix, des perspectives et des formats français et européens.

Autrement dit, ce que financent les politiques culturelles ne se limite pas à des films ou à des séries. Elles soutiennent un écosystème de création et de circulation des histoires qui participent à la construction d’une identité collective. Et lorsqu’un pays affaiblit cet écosystème, il ne perd pas seulement une industrie. Il risque aussi de perdre une partie de sa capacité à raconter le monde et à se raconter lui-même.

The Conversation

Tom van Laer a participé à des discussions politiques sur l'audiovisuel européen, notamment dans le cadre du Forum européen du film organisé par la Commission européenne. Il ne travaille pas, ne conseille pas et ne reçoit pas de financement d’organisations susceptibles de tirer profit de cet article.

26.03.2026 à 15:44

Droits de douane américains : encore plus de chaos… et 10 milliards d’intérêts à payer

Antoine Bouët, Directeur, CEPII
En annulant les droits de douane imposés par Donald Trump, la Cour suprême rappelle l’état du droit. Le président dispose d’autres outils. Mais gare au coût des errements juridiques !
Texte intégral (2136 mots)

La décision de la Cour suprême des États-Unis concernant les droits de douane mis en place par Donald Trump ne lève pas toutes les questions posées par ce qui ressort désormais comme un abus de Donald Trump par rapport au texte constitutionnel. Car le président possède d’autres moyens pour imposer sa politique sans vote du Congrès. Sans oublier que va se poser la question des droits perçus illégalement et qu’il faudra bien rembourser. Rien que le paiement des intérêts pourrait représenter 10 milliards de dollars (plus de 8,66 milliards d’euros) !


La Cour suprême des États-Unis a jugé illégale l’utilisation de l’International Emergency Economic Powers Act (IEEPA) par l’administration Trump pour imposer des droits de douane et a rappelé qu’aux États-Unis le pouvoir du portefeuille (Power of the Purse) appartient au Congrès.

Ce verdict annule automatiquement :

  • les trafficking tariffs imposés en février 2025 aux produits du Canada, de la Chine et du Mexique du fait de la contrebande de fentanyl et des flux migratoires – les « tarifs réciproques », compris entre 10 % et 50 %, imposés aux produits de tous les pays ayant un excédent commercial vis-à-vis des États-Unis et annoncés le 2 avril 2025, « jour de la Libération »,

  • ainsi que les tarifs sanctionnant certains pays (Brésil, Cuba, Russie, Venezuela).

Cela présage-t-il une accalmie du côté des droits de douane américains ? Au contraire, la situation est devenue encore plus chaotique, et la crédibilité de l’équipe au pouvoir est de nouveau sérieusement écornée. Pour trois raisons.

Pour remplacer l’IEEPA, l’administration américaine a déjà annoncé la mise en place d’une surtaxe généralisée de 10 % au nom de la section 122 du Trade Act de 1974. Cette disposition législative donne l’autorisation au président d’imposer immédiatement un droit de douane de 15 % maximum, en sus des droits existants, pour résoudre un problème de « déficit important et sérieux de balance des paiements ». Cette surcharge tarifaire ne peut s’appliquer que pendant cent cinquante jours et ne peut être prolongée que si le Congrès donne son accord.


À lire aussi : Droits de douane américains : en attente d’une décision historique de la Cour suprême


Un argument fallacieux

Ces cinq mois seront l’occasion pour l’administration de procéder à des enquêtes, au titre de la section 301 du Trade Act de 1974, sur les pratiques déloyales de 60 partenaires commerciaux des États-Unis (dont l’Union européenne) accusés de ne pas assez restreindre l’importation de produits fabriqués à l’aide de travail forcé, produits qui seraient une concurrence déloyale pour les exportateurs américains ! Ces enquêtes viennent d’être lancées (12 mars 2026).

C’est bien évidemment un argument fallacieux permettant à l’administration américaine d’essayer de remplacer les droits de douane IEEPA, invalidés par la Cour suprême, par des droits de douane section 301. Ceux-ci, à la différence des droits de douane au titre de la section 122, pourraient être pérennes.

Du temporaire qui peut durer combien de temps ?

Notons néanmoins qu’une « enquête 301 » a pour but de dénoncer la pratique déloyale d’un partenaire et, par le biais d’une menace d’un droit de douane ou de son application, de la faire cesser. Un droit de douane section 301 est donc normalement par nature temporaire. Mais l’administration américaine a manifestement pour objectif d’appliquer ces droits de douane de manière pérenne pour protéger l’économie américaine et faire pression sur ses partenaires de façon à obtenir une ouverture de leur économie aux produits américains.

L’application de la section 122 pose aussi un certain nombre de problèmes qui ont déjà entraîné des contestations juridiques.

D’abord, la surtaxe doit être généralisée et universelle. Elle doit s’appliquer à tous les biens et à tous les pays. Or, les droits IEEPA avaient inclus un certain nombre d’exemptions en matière de partenaires et de biens, et le nouveau droit section 122 confirme ces exemptions.

Quel déficit prendre en compte ?

En outre, et plus fondamentalement, cette loi a pour objet un déficit de la balance des paiements et non de la balance commerciale. La distinction est importante. La balance commerciale synthétise les échanges de biens ou de biens et services. La balance des paiements y ajoute les transferts internationaux de revenus, les investissements directs et les investissements de portefeuille. Par construction, une balance des paiements est équilibrée, mais, par abus de langage, le terme de « déficit de la balance des paiements » s’est imposé pour décrire une situation de déséquilibre externe. Alors qu’un déficit commercial, justification de la politique protectionniste de Donald Trump, décrit un excès d’importations de biens sur les exportations de biens, un déficit de la balance des paiements survient lorsqu’il n’y a pas assez de flux financiers privés entrants pour financer un déficit de la balance courante (qui comprend les échanges de biens, de services et de revenus).

En régime de change fixe, un déficit de la balance des paiements se résout par des pertes de réserves de change et d’or de la banque centrale. Or, les États-Unis ne sont plus en régime de change fixe depuis le début des années 1970. En régime de changes flottants, ce déficit peut se résoudre par une dépréciation de la monnaie nationale, le dollar. Cela correspond bien à la situation actuelle. Or, il est difficile de constater, aujourd’hui, un déficit de la balance des paiements américaine et une absence de flux financiers entrants privés aux États-Unis.

Élément intéressant, lors de la défense de l’utilisation de l’IEEPA par l’exécutif américain devant les tribunaux en juillet 2025, les juristes de la Maison-Blanche ont insisté sur ce point : un déficit commercial ne peut être considéré comme un déficit de la balance des paiements ; donc la section 122 du Trade Act de 1974 ne peut pas être utilisée pour résoudre le problème économique actuel des États-Unis !

L’utilisation de la section 122 du Trade Act de 1974 par l’administration Trump pour appliquer des droits de douane est déjà contestée par la compagnie alimentaire Burlap & Barrel et par les procureurs et gouverneurs de 24 États démocrates. Les arguments précédents, différenciant déficit commercial et déficit de la balance des paiements, sont repris par les plaignants. La Cour du commerce international doit écouter les plaignants et l’administration le 10 avril et pourrait rendre son verdict une semaine plus tard.

Un problème de crédibilité

Une autre dimension du problème écorne aussi la crédibilité de l’administration américaine : le remboursement des droits de douane indûment collectés entre février 2025 et février 2026 sous couvert de l’IEEPA. La Cour du commerce international a, en effet, sommé l’Agence de protection des douanes et des frontières des États-Unis de rembourser ces taxes.

La tâche est compliquée : il y aurait 165 milliards de dollars (plus de 142,9 milliards d’euros) à rembourser à 330 566 importateurs, selon Brandon Lord, le directeur exécutif pour le commerce de cette agence, soit en moyenne 499 143,89 dollars (432 508,18 euros) par opérateur commercial. Il faut évidemment vérifier chaque demande de remboursement, et chaque importateur a fait, sur la période considérée, plusieurs opérations d’importation. Il y aurait au total 53 173 939 opérations à vérifier ! Brandon Lord estime à cinq minutes le temps nécessaire à la vérification d’une opération. Si cela est fait manuellement, il en déduit que l’opération nécessitera 4 431 161 hommes-heures, soit 506 hommes-année !

Près de 10 milliards d’intêts à verser ?

Il faut donc privilégier une procédure automatique de vérification et de remboursement. Mais cette tâche est compliquée, car la plupart des importateurs n’ont pas la possibilité de recevoir des transferts électroniques. L’agence a promis de définir une solution en quarante-cinq jours ! Mais le temps presse, car le Trésor américain devra rembourser les taxes collectées, mais aussi les intérêts qui courent sur les sommes prélevées, évaluées à 650 millions de dollars (soit 563,38 millions d’ euros) par mois. Si le problème n’est pas résolu avant la fin de l’année, cela fera presque 10 milliards de dollars (plus de 8,66 milliards d’euros) d’intérêt à verser !

Dernier tracas pour l’équipe de la Maison-Blanche, les accords commerciaux conclus avec 20 pays en 2025 s’appuient sur les droits de douane appliqués sous couvert de l’IEEPA. Ces accords sont donc fragilisés, car ils mentionnent tous explicitement l’utilisation de l’IEEPA comme base juridique du tarif appliqué par les États-Unis.

France 24, 2026.

Des accords à revoir

Pour illustration, prenons le cas de l’Union européenne. En août 2025, l’accord de Turnberry prévoyait que les exportations européennes taxées traditionnellement à moins de 15 % seraient taxées à 15 %, les produits taxés à plus de 15 % ayant un droit inchangé. Donc un produit taxé traditionnellement à 10 % serait taxé à 15 % du fait du seul accord de Turnberry. Mais, avec la section 122, du fait de l’application de la surcharge tarifaire de 10 points de pourcentage, il pourrait être maintenant taxé à 20 %. L’accord de Turnberry est dans ce cas plus intéressant.

Prenons un autre cas de figure : un produit dont le droit aux États-Unis avant l’investiture de Donald Trump était de 0 %. Quand c’est l’Union européenne qui l’exporte, du fait de l’accord de Turnberry, il passe à 15 %. Mais avec la section 122, les concurrents directs des Européens ne vont être pénalisés que d’un droit de douane de 10 %. La situation est donc défavorable aux Européens si l’accord est conservé.

Pour les Européens, il sera aussi important de connaître le sort, donc le droit de douane, que leur réserve l’enquête 301 : sera-t-il opportun de le contester et de réclamer l’application de l’accord de Turnberry ? Ou, au contraire, d’accepter le nouveau tarif américain sur les exportations européennes ? La position de l’Union européenne est donc difficile à définir, et l’impact du verdict de la Cour suprême sur l’accord de Turnberry est incertain.

Si la Cour suprême des États-Unis a bien rappelé avec force les limites du pouvoir présidentiel, elle n’a pas mis fin au chaos induit par la politique commerciale américaine. Bien au contraire !

The Conversation

Antoine Bouët ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.03.2026 à 15:44

Qu’est-ce que l’« IA agentique » ? Comprendre son histoire pour dépasser l’effet de mode

Maxime Morge, Professeur d'Informatique au LIRIS (Laboratoire d'InfoRmatique en Image et Systèmes d'information), CNRS, Université Claude Bernard Lyon 1; Centrale Lyon; INSA Lyon – Université de Lyon; Université Lumière Lyon 2
L’« IA agentique » promet d’accomplir des tâches complexes de manière autonome… Toutefois, le champ actuel ne recouvre pas encore toute la richesse du concept d’« agent autonome » tel qu’il a été élaboré depuis des décennies.
Texte intégral (1555 mots)

Réserver un voyage en comparant des centaines d’offres, rédiger un rapport à partir de plusieurs documents, analyser des données médicales ou corriger automatiquement un programme informatique : ces tâches exigent de la réflexion, de la méthode et des compétences variées. L’« IA agentique » promet désormais de les accomplir de manière autonome, en orchestrant les opérations nécessaires, en utilisant des outils et en corrigeant ses propres erreurs… Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’« agent autonome » tel qu’il a été élaboré dans les décennies précédentes.


Le cabinet Gartner a présenté 2026 comme l’année des « agents IA ». Ces systèmes dépassent la simple amélioration des assistants conversationnels. Les agents IA d’OpenClaw sont d’ores et déjà capables de dialoguer entre eux et d’exécuter des tâches complexes avec une supervision humaine limitée. Pour les entreprises, que ce soit dans l’industrie, l’administration ou la santé, la promesse est celle d’une automatisation plus souple qu’avec les logiciels traditionnels, capable de s’adapter à des situations variées plutôt que d’appliquer des règles prédéfinies.

Pourtant, derrière l’apparente nouveauté se cache une histoire plus ancienne. L’IA agentique s’inscrit dans la continuité de plusieurs décennies de recherche sur les agents autonomes et les systèmes multi-agents. Ce qui change aujourd’hui, ce sont les outils, notamment les grands modèles de langage et leur capacité à interagir plus naturellement avec les humains.

De la génération de texte à l’action

Les modèles conversationnels, comme ChatGPT, Gemini ou Claude, impressionnent par leur aptitude à résumer ou à rédiger des textes complexes. Pris isolément, ils restent toutefois essentiellement réactifs : ils produisent une réponse en fonction d’une requête. Un agent autonome va plus loin. Il peut analyser une demande, planifier une séquence d’opérations, utiliser des outils externes (moteur de recherche, base de données, logiciel), évaluer le résultat obtenu et ajuster sa stratégie si nécessaire.

Là où un modèle de langue se limite à écrire un programme informatique, un agent peut l’exécuter dans un environnement sécurisé, observer les erreurs éventuelles, corriger le code, puis le tester à nouveau. En somme, les agents IA ne font pas que parler, ils agissent.

Le passage de la génération de texte à l’action transforme la nature même du logiciel. Alors qu’un programme suit des instructions précisément définies à l’avance, un agent autonome peut, lui, adapter dynamiquement ses décisions en fonction du contexte, des résultats obtenus et des objectifs fixés. Il ne remplace pas nécessairement l’humain, mais modifie la répartition des tâches entre supervision et exécution.

Promesses et risques

Cette évolution ouvre des perspectives considérables. Dans les organisations, des agents peuvent automatiser des processus métiers laborieux. Dans l’industrie, ils peuvent coordonner des systèmes logiciels complexes. Dans le domaine médical, ils peuvent analyser des dossiers, rechercher des publications pertinentes et proposer des synthèses pour assister les médecins. Mais ces promesses s’accompagnent de risques.

En effet, les modèles actuels peuvent produire des informations inexactes, les fameuses hallucinations, et sont susceptibles de reproduire des biais présents dans leurs données d’entraînement. Si les agents sont cantonnés à un rôle d’assistant, ces limites sont déjà problématiques ; elles deviennent critiques lorsqu’elles concernent des systèmes capables d’agir sur des infrastructures techniques, notamment en exécutant des commandes système, en manipulant des fichiers ou en envoyant des requêtes réseau.

La question des agents d’IA n’est donc pas seulement technique : elle est aussi juridique, économique et sociétale. Elle touche à la transformation du travail qualifié et à la gouvernance des systèmes informatiques.

Une filiation historique

L’idée d’un agent autonome n’est pas née avec les modèles de langue. Elle remonte aux origines mêmes de l’intelligence artificielle. En 1956, lors de la conférence fondatrice de Dartmouth (au nord-est des États-Unis), l’un de ses organisateurs, Marvin Minsky, définissait déjà l’IA comme la conception de programmes capables d’accomplir des tâches mobilisant des capacités dites intelligentes telles que comprendre, apprendre, raisonner ou décider.

À partir des années 1980, la notion d’« agent intelligent » devient centrale. Un « agent » est alors défini comme un programme capable de percevoir son environnement, de prendre des décisions et d’agir pour atteindre des objectifs. Très tôt, les chercheurs développent le champ des systèmes multi-agents : des ensembles organisés de programmes autonomes qui interagissent dans un même environnement numérique. L’objectif est de comprendre comment ces entités peuvent se coordonner, coopérer ou entrer en compétition afin de résoudre des problèmes complexes.

Plusieurs travaux emblématiques illustrent concrètement cette approche. Le système HEARSAY-II repose sur un modèle de « tableau noir ». Plusieurs modules spécialisés pour la reconnaissance, l’analyse et l’interprétation du langage contribuent à la compréhension de la parole en partageant leurs hypothèses dans un espace commun structuré. Le Contract Net Protocol propose un mécanisme inspiré des appels d’offres : pour réaliser une tâche, un agent émet un appel à proposition, d’autres agents proposent leurs services, et les plus compétents se voient attribuer le contrat. Autrement dit la coordination entre agents est au cœur de l’IA depuis plusieurs décennies.

Un réservoir d’idées encore sous-exploité

Mais si l’idée d’agent n’est pas nouvelle, l’« IA agentique » s’impose aujourd’hui auprès des non-spécialistes en raison du rôle central joué par les grands modèles de langue. Bien que dénués de compréhension causale et de compréhension du monde physique, ceux-ci fournissent aux agents une capacité linguistique et une forme de « sens commun » statistique qui facilitent l’interaction avec les humains et l’interprétation d’instructions complexes en langage naturel.

Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’agent autonome tel qu’il a été élaboré dans les décennies précédentes. Dans la pratique, elle repose encore le plus souvent sur une séquence d’actions où chaque étape est prévue et ordonnée à l’avance. Les travaux menés depuis les années 1990 sur les systèmes multi-agents qui portent sur la coopération, la négociation, l’allocation de tâches et l’adaptation collective offrent un réservoir d’idées encore largement sous-exploitées.

L’intégration de ces mécanismes avec les capacités des grands modèles ouvre pour demain des perspectives nouvelles : des agents capables non seulement d’exécuter un plan mais de s’organiser collectivement, de se spécialiser et de s’adapter à des environnements complexes.

L’IA agentique constitue ainsi une nouvelle étape plutôt qu’une rupture. Elle associe l’héritage théorique des systèmes multi-agents à la puissance récente des modèles génératifs. Comprendre cette filiation historique permet de dépasser l’effet de mode. L’IA agentique représente une tentative de transformer des modèles prédictifs en systèmes capables d’agir, de planifier et, peut-être demain, de s’organiser collectivement dans des environnements complexes.

The Conversation

Maxime MORGE a reçu des financements de Lyon 1 Université et CNRS, .

26.03.2026 à 15:44

Quand la pratique médicale perpétue des stéréotypes hérités du racisme scientifique des XVIIIᵉ et XIXᵉ siècles

Élodie Edwards-Grossi, PhD, Associate Professor in Sociology and American Studies, Université Paris Dauphine – PSL
Delphine Peiretti-Courtis, Agrégée, docteure en histoire, enseignante et chercheuse, Aix-Marseille Université (AMU)
Dans « le Racisme scientifique et médical », Élodie Edwards-Grossi et Delphine Peiretti-Courtis évoquent des situations où la pratique médicale perpétue des stéréotypes hérités de thèses racistes des XVIIIᵉ et XIXᵉ siècles.
Texte intégral (2103 mots)

Au XVIIIᵉ puis au XIXᵉ siècle, des scientifiques et des médecins théorisaient une supposée supériorité des personnes blanches, en s’appuyant sur des critères biologiques. Dans le Racisme scientifique et médical (éditions PUF, 2026), Élodie Edwards-Grossi (Université Paris Dauphine-PSL/Institut universitaire de France) et Delphine Peiretti-Courtis (Aix-Marseille Université) expliquent comment, aujourd’hui, la pratique médicale perpétue des stéréotypes et biais raciaux hérités de ces thèses qui nuisent à la prise en charge en santé des personnes racisées. Extraits.


Le 26 décembre 2024, un député français d’extrême droite partageait, sur le réseau social X (anciennement Twitter), une carte censée représenter le Quotient Intellectuel moyen par pays, qui rappelait en tout point les procédés classificatoires du XIXe siècle.

Ce planisphère révèle toute la prégnance et les permanences, à l’heure actuelle, de la ferveur taxinomique et du racisme scientifique nés aux XVIIIe et XIXe siècles, et pose la question de ses ramifications avec la sphère politique.

La notion de « race » relayée sur les réseaux sociaux

Relayée auprès d’un large public francophone par ce député, cette carte avait déjà été abondamment relayée sur les réseaux sociaux en 2019. Elle avait même suscité la création d’un mot-clé « #carte QI », utilisé pour donner une grande visibilité à ces théories.

Cette carte est, hélas, loin d’être la seule occurrence de diffusion de croyances biologisantes et hiérarchisantes à propos de la notion de « race » sur Internet, comme en témoignent de nombreux articles de vulgarisation scientifique, émettant l’idée, pour le grand public, que cette catégorie pourrait, à nouveau, être appréhendée avec la génétique.

Analyser les résurgences actuelles du racisme scientifique

Dans ce contexte, les théories racistes empreintes d’un réalisme biologique recouvrent une fonction sociale et politique bien particulière : celle de la légitimation de courants et d’idéologies inégalitaires, qui, pour exister, doivent avant tout s’appuyer sur l’idée que la déshumanisation d’une partie de la population est la résultante de caractéristiques naturelles et inébranlables, ancrées dans les corps et les esprits de ces mêmes individus.

Le racisme scientifique, à travers le déploiement du réalisme biologique, propose ainsi une caution non négligeable à des programmes politiques façonnant les inégalités. Il revêt une double fonction : il est à la fois le produit et le levier de l’ordre social raciste dans lequel il est façonné, et sans cesse réactivé, tout en fournissant à ses partisans les justifications de son maintien.

Dans quels contextes politiques et géographiques les théories et pratiques qui constituent le racisme scientifique et médical apparaissent-elles ? Pouvons-nous relever des systématicités dans les parcours de leurs auteurs ? Quels positionnements entretiennent-ils vis-à-vis de leurs pairs, des décisionnaires politiques, mais aussi du grand public ? Enfin, quelles résurgences pouvons-nous mettre en exergue ?

C’est précisément le sujet de l’ouvrage le Racisme scientifique et médical : ancré en histoire et en sociologie de la connaissance, celui-ci propose de documenter les modalités de production et de circulation du racisme scientifique et médical et leurs réappropriations sociales et politiques.

Quand les corps et les esprits des personnes racisées sont infériorisés

La notion de racisme scientifique et médical recouvre a priori de nombreuses théories et pratiques. Des historiens ayant travaillé de manière pionnière sur le sujet, tels Claude Blanckaert ou Stephen Jay Gould, ont décrit le racisme scientifique comme l’ensemble des théories et pratiques se réclamant de différents champs scientifiques (on peut citer la biologie, la psychologie, la génétique, l’anthropologie, etc.) proposant une définition altérisant, et infériorisant, les corps et les esprits des personnes racisées.

Présentées comme « scientifiques » par leurs instigateurs et leurs soutiens, ces théories établissent, dans le même temps, la supposée supériorité tacite ou explicite des personnes blanches en utilisant les mêmes critères corporels ou mentaux variés : le QI, la taille des crânes, l’intelligence sont autant de points qui reviennent dans ces études suggérant l’infériorité des uns au profit de la primauté des autres. Ces écrits ont été produits et ont circulé dans des contextes politiques épars et révèlent une forte porosité quant aux liens entre science et politique.

Un fait social contemporain qui touche le champ médical

Réinsérer la question du racisme scientifique et médical dans une approche critique des rapports sociaux de race, grâce à un dialogue transdisciplinaire entre sciences sociales et sciences historiques, c’est comprendre comment les artisans du racisme scientifique bénéficient d’un besoin de méconnaissance pour voir advenir leurs théories. Pour exister, ces théories ont besoin d’un vide épistémologique qui s’inscrit dans une histoire longue de la production de l’ignorance.

Cette production de l’ignorance a largement été produite par l’appareil étatique qui se refusait, et se refuse encore, à produire une analyse rigoureuse des rapports sociaux de race. Celle-ci permettrait notamment de mettre à mal les croyances et itérations, toujours présentes, de la race comme catégorie d’analyse biologique malgré son invalidation dans la deuxième moitié du XXe siècle.

Nous souhaitons insister sur le fait que le racisme scientifique et médical est bien un fait social contemporain, débordant du cadre historique que nous nous proposons d’étudier dans cet ouvrage : bien que l’autorité médicale cherche à entrer dans un rapport d’exceptionnalisme de son champ, le champ médical n’est pas exempt des rapports sociaux qui le modèlent.

Des effets sur les trajectoires de vie des individus

La question des tissages historiques et des résurgences du racisme scientifique et médical est ainsi capitale : loin d’avoir disparu, celui-ci a parcouru les époques et produit un effet encore conséquent.

À titre d’exemple, en décembre 2024, plusieurs quotidiens régionaux rapportèrent qu’une femme racisée avait accouché, sans prise en charge, sur le parking d’un hôpital à Dijon, en Côte d’Or, malgré ses appels à l’aide. L’un des journalistes relatant l’événement avait titré son article « On la refuse aux urgences : cette femme a dû accoucher dans le parking (et ça en dit long sur les préjugés racistes) ». Mettant en lien la mise en danger de cette femme et la longue histoire du syndrome méditerranéen en France, cet article souligne la manière dont des stéréotypes de résistance à la douleur des personnes racisées, formulés dès le XIXe siècle ont pu être transmis et rester vivaces jusqu’à nos jours.

De tels stéréotypes préfigurent bien la manière dont le racisme scientifique et médical produit un effet concret sur les trajectoires de vie et de mort des individus. Pour reprendre les mots toujours aussi actuels de Colette Guillaumin, autrice pionnière dans le champ des études sur le racisme en France, cet exemple met en relief « la réalité de la “race”. Cela n’existe pas. Cela pourtant produit des morts ». Les inégalités et différences de prises en charge de santé du fait de la subsistance de biais raciaux en médecine produisent une mise en danger différentielle et accrue des corps racisés. Ainsi, de cette manière, le racisme scientifique et médical peut être vu comme l’une des facettes matérielles, concrètes et opérantes du racisme structurel.

Stéréotypes, biais et pratiques discriminatoires

Partant du principe que la classe sociale ou les facteurs socio-économiques ne peuvent pas expliquer l’ensemble des trajectoires de soins de ces personnes, le concept de racisme médical s’intéresse par exemple aux biais présents et passés qui modèlent les représentations et les pratiques des médecins et psychiatres, majoritairement issus du groupe dominant blanc envers leurs patients et patientes.

Ces biais ne sont pas la résultante d’actes de discriminations conscients et donc voulus : ils sont le fruit de l’accumulation de stéréotypes sur les corps racisés encore largement diffusés dans les salles de cours, dans les livres de médecine, mais aussi de l’agrégation d’allégations fausses, érigées en « données scientifiques » qui ont traversé les siècles, sans connaître une condamnation explicite, telle que la théorie du syndrome méditerranéen, qui consiste en la croyance erronée en une exagération de la douleur chez les personnes originaires du Maghreb et d’Afrique subsaharienne.

Ces théories, qui débouchent sur la formation de pratiques discriminatoires, entérinent des prescriptions médicamenteuses elles aussi différentielles qui ont pour résultante de nourrir chez la patientèle une certaine défiance à l’égard des médecins et de leurs institutions. Les patients et patientes choisissent parfois de ne plus faire confiance au personnel soignant, ou aux institutions les employant.

La médecine, instrument et vecteur de théories

Écrire de front sur le racisme scientifique, parfois vu comme seul objet historique, et le racisme médical nous semble important à plus d’un titre. Cela permet d’abord d’aller à l’encontre d’un récit exceptionnalisant qui viserait à mettre en exergue les spécificités du champ de la médecine (et de toutes ses spécialités, la chirurgie, la psychiatrie, la gynécologie, la cardiologie, la dermatologie, etc.) vis-à-vis du reste des sciences (sciences naturelles, biologie, pharmacie, etc.).

Les médecins acquièrent un statut sans précédent au cours du XVIIIe siècle, et plus encore durant le XIXe siècle, surnommé le siècle du scientisme. Producteurs de savoirs, ils sont également liés au pouvoir. Ce qui fait la spécificité de la médecine, et qui a notamment été mis en lumière par Michel Foucault par le biais du concept de biopouvoir, réside dans le rôle social et politique spécifique qu’elle détient, à l’instar de l’Église dans les siècles précédents.

En tant qu’experts des corps, des âmes, et donc des sociétés, les médecins s’arrogent la possibilité de statuer sur la normalité ou l’anormalité des corps, et sur ce qui constitue une différence ou une convergence humaine. En cela, la médecine devient le principal instrument et le vecteur de théories objectivant des différences corporelles présentées comme raciales.

C’est bien l’assignation d’une marque biologique à un groupe social donné qui produit la naturalisation de ce groupe, et radicalise, ainsi sa différence.

The Conversation

Élodie Edwards-Grossi a reçu des financements de l'Institut universitaire de France.

Delphine Peiretti-Courtis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.03.2026 à 15:43

Contrôle coercitif : pourquoi ce concept transforme l’appréhension des violences faites aux femmes et aux enfants

Andreea Gruev-Vintila, Maîtresse de conférences HDR en psychologie sociale, spécialiste de la violence conjugale/contrôle coercitif, Université Paris Nanterre
Le « contrôle coercitif » désigne un schéma de comportements qui prive les victimes de leurs droits et de leurs ressources. Ce concept permet de mieux combattre les violences faites aux femmes et aux enfants.
Texte intégral (1772 mots)

Le « contrôle coercitif » désigne un schéma global de comportements, avec ou sans violences physiques, par lequel un agresseur conjugal, quasi exclusivement un homme, restreint les droits, les libertés et les ressources de la victime, le plus souvent une femme, au détriment indissociable des enfants. Ce terme permet de nommer des situations longtemps indicibles faute de mots pour les désigner. Ce faisant, il devient un outil de connaissance et un levier de justice dans la lutte contre les violences faites aux femmes et aux enfants.


Ces dernières décennies, plusieurs pays ont reconnu les limites des approches traditionnelles de la violence conjugale, qui la réduisent à une série d’actes d’agression ou de « conflits » de couple devenus houleux. Ils ont opté pour une approche fondée sur le modèle du « contrôle coercitif ».

Cette approche révèle la violence conjugale comme une captivité : un schéma global de comportements visant à restreindre les droits et les ressources des victimes, le plus souvent des femmes, particulièrement des mères, pour obtenir leur obéissance.

Evan Stark, travailleur sociojudiciaire et professeur à Rutgers University (États-Unis), constate dans le livre Coercive Control: How Men Entrap Women in Personal Lives (2007), qui a propulsé le concept, que 75 % des arrestations pour violence physique concernent des agressions s’inscrivant presque toujours dans un ensemble d’autres comportements.

Captivité invisible

L’ouvrage le Contrôle coercitif. Au cœur de la violence conjugale (2023), premier livre en français consacré à ce concept, décrit ce schéma de comportements – isolement, surveillance, intimidation, privation de droits et de ressources, dénigrement, menaces, contrôle économique, administration de la peur avec ou sans violence physique, instrumentalisation des enfants et des procédures judiciaires.

Ce concept rompt avec la vision fragmentée de la violence conjugale comme enchaînement d’« actes » ou de « conflit », pour l’appréhender comme une stratégie globale de mise en captivité invisible au sein du couple et de la famille, comparable, par ses tactiques et ses effets, au contrôle des prisonniers de guerre, des otages, des membres de sectes.

Le contrôle coercitif atteint l’autonomie, la dignité, la capacité d’agir et la sécurité des victimes. Ses effets sont souvent durables et dévastateurs : peur paralysante, subordination, appauvrissement, sabotage du lien mère-enfant, dégradation de la santé, mort à petit feu, tentatives de suicide ou meurtre.

Un comportement quasi exclusivement masculin

Le contrôle coercitif est une « conduite calculée et malveillante, déployée quasi-exclusivement par des hommes pour dominer une femme » (Stark, 2007) : en Angleterre et au Pays de Galles, qui l’ont incriminé en 2015, 832 des 853 personnes condamnées en 2024 pour contrôle coercitif étaient des hommes, soit 97,5 %.

Le contrôle coercitif des hommes sur les femmes est un précurseur majeur des féminicides, des suicides provoqués, des homicides d’enfants et des violences faites aux enfants hors zone de guerre. Même en l’absence d’hostilité envers les enfants, il les affecte pleinement, qu’ils soient directement ciblés ou « seulement » témoins de ce qui est fait à leur mère. Le risque pour les enfants est déchiffrable à l’aune du contrôle coercitif exercé sur la mère.

Les données montrent que 87 % des affaires portées devant les juges aux affaires familiales au Royaume-Uni et 83 % en Australie comportent des éléments de violence domestique/contrôle coercitif.

En France, sur le quart de million de personnes ayant déposé plainte pour violence conjugale (ministère de l’intérieur, 2024), 84 % des victimes sont des femmes (85 % des mis en cause sont des hommes), et 82 % des femmes victimes ont des enfants. Le Haut Conseil à l’égalité estimait en 2021 que 398 310 enfants en sont covictimes.

Origine et évolution conceptuelle

L’histoire du terme n’est pas au départ pas conjugale. Dès 1956-1957, Albert Biderman, sociologue militaire, décrit les méthodes coercitives utilisées pour obtenir la soumission des prisonniers de guerre américains pendant la guerre de Corée : isolement, épuisement, privations, menaces, démonstration de toute-puissance. Il montre que c’est le cumul de ces méthodes, et non une vulnérabilité des victimes, qui permet d’obtenir l’obéissance.

En 1992, Judith Herman, professeure de psychiatrie à Harvard University, montre que la répétition prolongée de tels comportements, subis dans un contexte de captivité (camps, régimes totalitaires, violence conjugale, violences sexuelles incestueuses), produit un trouble de stress post-traumatique complexe.

Les recherches féministes déplacent aussi la focale. Cette perspective, restructurée par Evan Stark, révèle la violence conjugale comme une captivité, une privation de ressources nécessaires au développement de la personne y compris en tant que citoyenne : une violence sociale.

Un changement de paradigme

La notion a, depuis, fait son chemin. Ainsi, la directive européenne 2024/1385 du 14 mai 2024 sur la lutte contre la violence à l’égard des femmes et contre la violence domestique, nomme le contrôle coercitif. Il est au cœur des rapports parlementaires Chandler-Vérien (2023) et Josso-Guillotin (2025), d’une jurisprudence française et européenne, de formations des magistrats, d’une proposition de loi qui étend la protection aux enfants, d’une priorité de politique civile, du rapport « À vif » visant à guider la politique judiciaire en la matière, du premier rapport d’évaluation thématique de la France par le Groupe d’experts sur la lutte contre la violence à l’égard des femmes et la violence domestique (2025).


À lire aussi : Juger les violences conjugales : une audience historique sur le contrôle coercitif en France


Ce changement de paradigme a des implications normatives majeures. Dans des systèmes juridiques et des pratiques professionnelles encore largement organisés autour de l’idée de conflit conjugal entre parties égales, il met au jour l’illusion d’une symétrie là où l’un des partenaires dispose d’un arsenal structurel de ressources – contrôle économique, social, surveillance numérique, instrumentalisation du déficit des procédures et de formation des professionnels – qui fausse jusqu’à l’accès effectif au droit.

Dans ce contexte, le contrôle coercitif n’est pas un simple choix terminologique, mais le nom d’un crime contre la liberté et les droits humains commis majoritairement contre des femmes, spécifiquement contre des mères, indissociablement contre des enfants, perpétré au sein de la famille et longtemps rendu indicible faute de mots.

Il devient à la fois outil de connaissance et levier de justice. Il permet de penser ensemble la prévention, la protection des victimes adultes et enfants, la poursuite et la responsabilisation des auteurs, et des politiques coordonnées –c’est-à-dire les quatre piliers de la convention d’Istanbul.


La série « L’envers des mots » est réalisée avec le soutien de la délégation générale à la langue française et aux langues de France du ministère de la culture.

The Conversation

Membre du HCE depuis juin 2025

26.03.2026 à 15:43

Groenland : le développement touristique, opportunité ou menace ?

Marie-Noëlle Rimaud, Professeur associé, département académique tourisme, Excelia
Le tourisme pourrait être nettement plus important au Groenland, mais dans quelle mesure est-ce souhaitable ?
Texte intégral (2424 mots)
Touristes à Ofjord, dans le parc national du Nord-Est, Groenland, octobre 2014. GRID-Arendal/Flickr, CC BY-NC

Si le Groenland se trouve depuis un an sous les feux de l’actualité du fait des récurrentes déclarations de Donald Trump, qui affirme vouloir l’annexer aux États-Unis, le territoire a également d’autres enjeux à gérer, à commencer par la gestion du tourisme. Fort de ses paysages spectaculaires et de l’attrait qu’exerce la culture inuit, le Groenland s’efforce de concilier accroissement des revenus générés par le tourisme et protection de ses atouts naturels et culturels face aux dangers d’un surtourisme.


Un dilemme majeur attend les Groenlandais en matière de tourisme dans les années à venir : développer résolument ce secteur… ou ne pas le faire, pour éviter ce que d’aucuns qualifient de « surtourisme ». Le Grand Nord a la cote et la construction d’aéroports capables d’accueillir des vols long courrier accentue les risques. Le géographe Rémy Knafou rappelait fort justement en 2023 que « la seule manière réellement opérationnelle de vouloir contrôler l’impact du tourisme dans des lieux peu ou pas habités est de ne pas s’y lancer ».

Jusqu’à tout récemment, en raison du climat nordique et de la nuit polaire, le tourisme se concentrait sur une courte période de l’année, de juin à fin août, et ne concernait que quelques sites emblématiques : essentiellement Ilulissat et son fjord glacé classé au patrimoine de l’Unesco, et la baie de Disko. Dès lors, le nombre de visiteurs étrangers était relativement limité : en 2023, il s’est élevé à 130 000 personnes.

Les détracteurs du tourisme craignent qu’avec la multiplication des vols directs (notamment entre Nuuk et New York), des développements touristiques exagérés fragilisent les milieux naturels et la qualité de vie locale et entraînent une folklorisation de la culture inuit. L’Organisation internationale du tourisme social alerte sur le risque, via le tourisme communautaire, de figer les identités locales dans une mise en scène artificielle, une image pittoresque généralement promue par les opérateurs touristiques étrangers.

Le réchauffement climatique perturbe déjà les modes de vie des communautés et des conflits d’usage pourraient apparaître autour des projets touristiques trop ambitieux, mal conçus, irrespectueux des coutumes ou des lieux.

Extrait du cas pédagogique Groenland KALAALLIT NUNAAT. Cliquer pour zoomer. KALAALLIT NUNAAT

Comment réussir une transition touristique harmonieuse ?

Au-delà d’un plan, il semble pertinent d’encourager les autorités groenlandaises à poursuivre leurs réflexions par une identification des ressources naturelles patrimoniales. En plus des sites iconiques cités plus haut, il pourrait s’agir de la région de Kujataa (classée au patrimoine mondial de l’Unesco), le parc national du Nord-Est (réserve de biosphère), la faune et les paysages arctiques : l’inlandsis. Cette cartographie des ressources permettra de repérer les plus attractives, mais surtout les plus vulnérables, car rares et fragiles.

Visit Greenland, site web de promotion touristique appartenant au gouvernement du Groenland, a imaginé un concept, The Big Artic Five : Traîneau, Aurores boréales, Glace & neige, Baleines, Communautés. Attention toutefois à ne pas tomber dans l’aura mystique et le mythe du bon sauvage. Avec raison, plusieurs auteurs mettent en avant un attrait spécifique des régions polaires : l’imaginaire nordique. Alain Grenier soulignait ainsi en 2009 que « l’imaginaire du Nord constitue le premier attrait des régions nordiques et, à plus grande échelle, des régions polaires ». Nicolas Escach constatait en 2020 que « dans un monde saturé, l’Arctique est également associé à la promesse d’une réserve d’espace vierge, une sorte de retour ontologique aux origines ». La question de l’image à donner du territoire et de la manière de communiquer sera donc essentielle.

Bateau d’un opérateur groenlandais qui propose des croisières à la journée entre Ilulissat et Oqaatsut. Il s’agit d’une unité de petite taille adaptée à une visite respectueuse des communautés et dont l’intégralité des revenus demeure dans le pays. M.-N. Rimaud, Fourni par l'auteur

Dans un second temps, les décideurs groenlandais auront intérêt à conduire un recensement des parties prenantes du secteur du tourisme, afin le moment venu de les informer, de les sensibiliser, peut-être de les inciter à changer de regard, et enfin les accompagner. L’orientation d’une partie des dispositifs de soutien en faveur d’acteurs qui s’engagent dans la transition a montré son efficacité ailleurs.

In fine, il serait souhaitable de conduire une sorte d’auto-diagnostic sur les menaces liées au réchauffement climatique et à une capacité de charge touristique exagérée, par exemple en utilisant une matrice de criticité (ce qui permettrait d’établir une sorte de classement concernant l’exploitation de divers sites, qui irait d’un risque élevé ou considérable à l’absence de risque avéré).

Un documentaire diffusé sur Arte rappelle la dépendance du pays à la pêche (4 000 personnes, soit 10 % de la population, travaillent dans ce secteur), qui l’oblige à rechercher une diversification. Naaja H. Nathanielsen, la ministre des ressources naturelles, confirme dans le documentaire le besoin crucial de trouver des ressources supplémentaires :

« [Près de ] 54 % du budget de l’État vient de l’extérieur : il s’agit de la subvention accordée par le Danemark ainsi que de fonds qui viennent de l’UE. Nous avons donc une tâche très difficile à accomplir. Nous devons gagner plus d’argent par nos propres moyens afin d’être autosuffisants. »

Pour cela, des investissements conséquents devront être réalisés, car le pays manque cruellement d’infrastructures et les conditions climatiques et d’accès y sont beaucoup plus difficiles qu’ailleurs.

La loi de novembre 2024

Comme je le précisais dans un article du Polar Journal, une loi sur le développement touristique est entrée en vigueur en novembre 2024. Elle confirme que le territoire souhaite faire du tourisme un moteur de croissance et offrir des opportunités aux entrepreneurs groenlandais. La question qui reste en suspens est l’équilibre entre les opérateurs locaux et les investisseurs extérieurs, jugés omniprésents. Aude Créquy regrettait déjà en 2012 que pour le tourisme de croisière ou celui d’aventure, l’argent circule plutôt de mains occidentales en mains occidentales.

Le nouveau texte introduit une politique d’investissement et de propriété plus restrictive. La loi impose désormais une autorisation pour exercer une activité touristique et exige que les titulaires de licences soient résidents et imposables au Groenland. Certaines activités, comme les croisières, sont limitées à des zones et périodes spécifiques ; mais l’entrée en vigueur de la loi est prévue au 1er janvier 2027, laissant un temps d’adaptation aux opérateurs.

Dans une analyse d’avril 2025, la banque nationale du Danemark lançait une mise en garde contre une tendance consistant à trop restreindre l’implication des investisseurs étrangers :

« Les investissements étrangers apportent généralement des connaissances et du capital-risque qui favorisent le développement des entreprises et les revenus de la société. Une structure commerciale plus large nécessite des investissements importants, et la base de ces investissements ne peut être créée uniquement à partir de l’épargne et du capital groenlandais. »

Autre mise en garde informelle : l’exemple de l’archipel norvégien du Svalbard. Sa ville principale, Longyearbyen, est « envahie » par les visiteurs durant une dizaine de jours l’été, ce qui a obligé le gouvernement à prendre des mesures restrictives. Visit Svalbard invite à réfléchir à la meilleure manière d’organiser le secteur : « Le Svalbard doit atteindre un équilibre optimal sur la destination en garantissant “le bon nombre de visiteurs au bon endroit et au bon moment” – “The right volumes of the right guests in the right place at the right time” (4R). La destination donnera la priorité aux marchés et segments qui contribuent de manière constante à la création de valeur locale la plus élevée avec l’empreinte la plus faible (rendement élevé, faible impact). »

En matière d’organisation agile, le pilotage des croisières d’observation des baleines dans le Saint-Laurent, au Canada peut également servir de modèle.

Des décisions stratégiques à prendre

Les arbitrages finaux seront importants : quel sera le volume de touristes, et s’agit-il de tenter d’attirer un tourisme de masse ou un tourisme de luxe ; la désaisonnalisation est-elle recherchée et si oui, comment, y parvenir ? Quels seront les hauts lieux touristiques (c’est-à-dire ceux sur lesquels la communication groenlandaise insistera le plus) et comment les protéger ? Quels partenaires financiers pour les porteurs de projet locaux et comment s’assurer d’un retour sur investissement suffisant pour les communautés ?

Le Groenland appartient aux Groenlandais ! Mais son avenir dépendra aussi de la capacité des autres nations à reconnaître ce pays et à le respecter. La déclaration de Naaja H. Nathanielsen sur LinkedIn mi-janvier 2026 – « j’inviterai les pays partageant les mêmes idées à rendre notre région sûre dans une collaboration respectueuse : investir, s’engager et être un allié » – peut apparaître comme un programme souhaitable.

The Conversation

Marie-Noëlle Rimaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞