27.11.2025 à 11:51
Léo Mariani, Anthropologue, Maître de conférence Habilité à diriger des recherches, Muséum national d’histoire naturelle (MNHN)
La précocité des vendanges que l’on observe depuis quelques années a été favorisée par le changement climatique. Mais la hausse du degré d’alcool dans les vins est aussi le fruit d’une longue tradition qui emprunte à l’histoire, au contexte social et aux progrès techniques, et qui a façonné la définition moderne des appellations d’origine protégée. Autrement dit, le réchauffement du climat et celui des vins, entraîné par lui, ne font qu’exacerber un phénomène ancien. C’est l’occasion d’interroger tout un modèle vitivinicole.
Dans l’actualité du changement climatique, la vitiviniculture a beaucoup occupé les médias à l’été 2025. En Alsace, les vendanges ont débuté un 19 août. Ce record local traduit une tendance de fond : avec le réchauffement des températures, la maturité des raisins est plus précoce et leur sucrosité plus importante. Cela a pour effet de bouleverser les calendriers et d’augmenter le taux d’alcool des vins.
La précocité n’est pas un mal en soi. Le millésime 2025 a pu être ainsi qualifié de « très joli » et de « vraiment apte à la garde » par le président d’une association de viticulteurs alsaciens. Ce qui est problématique en revanche, c’est l’augmentation du degré d’alcool : elle est néfaste pour la santé et contredit l’orientation actuelle du marché, plutôt demandeur de vins légers et fruités. Autrement dit, le public réclame des vins « à boire » et non « à garder », alors que la hausse des températures favorise plutôt les seconds.
Il faudrait préciser pourtant que l’augmentation des niveaux d’alcool dans les vins n’est pas nouvelle. Elle est même décorrélée du changement climatique :
« Les vins se sont réchauffés bien avant le climat »,
me souffle un jour un ami vigneron. Autrement dit, l’augmentation du degré d’alcool dans les vins a suivi un mouvement tendanciel plus profond au cours de l’histoire, dont on va voir qu’il traduit une certaine façon de définir la « qualité du vin ».
Se pose donc la question de savoir qui a « réchauffé » qui le premier ? Le climat en portant à maturité des grappes de raisins plus sucrées ? ou le savoir-faire des viticulteurs, qui a favorisé des vins plus propices à la conservation – et donc plus alcoolisés ? Postulons que le climat ne fait aujourd’hui qu’exacerber un problème qu’il n’a pas créé le premier. En lui faisant porter seul la responsabilité de la hausse de l’alcool dans les vins, on s’empêche de bien définir ce problème.
De plus, on inverse alors le sens des responsabilités : la vitiviniculture, en tant qu’activité agricole émettrice de gaz à effet de serre, participe à l’augmentation des températures – et cela bien avant que le changement climatique ne l’affecte en retour.
À lire aussi : Vin et changement climatique, 8 000 ans d’adaptation
Disons-le sans détour, l’instauration des appellations d’origine protégée AOP constitue un moment objectif de la hausse des taux d’alcool dans les vins. Dans certaines appellations du sud-est de la France, où j’ai enquêté, elle est parfois associée à des écarts vertigineux de deux degrés en trois à dix ans.
Il faut dire que les cahiers des charges des AOP comportent un « titre alcoométrique volumique naturel minimum » plus élevé que celui des autres vins : l’alcool est perçu comme un témoin de qualité.
Mais il n’est que le résultat visible d’une organisation beaucoup plus générale : si les AOP « réchauffent » les vins, souvent d’ailleurs bien au-delà des minima imposés par les AOP, c’est parce qu’elles promeuvent un ensemble de pratiques agronomiques et techniques qui font augmenter mécaniquement les niveaux d’alcool.
C’est ce paradigme, qui est associé à l’idée de « vin de garde », dont nous allons expliciter l’origine.
Contrairement à une idée répandue, le modèle incarné par les AOP n’est pas représentatif de l’histoire vitivinicole française en général.
Les « vins de garde » n’ont rien d’un canon immuable. Longtemps, la conservation des vins n’a intéressé que certaines élites. C’est l’alignement progressif, en France, des intérêts de l’une d’elles en particulier, la bourgeoisie bordelaise du XIXe siècle, de ceux de l’État et de ceux de l’industrie chimique et pharmaceutique, qui est à l’origine de la vitiviniculture dont nous héritons aujourd’hui.
L’histoire se précipite au milieu du XIXe siècle : Napoléon III signe alors un traité de libre-échange avec l’Angleterre, grande consommatrice de vins, et veut en rationaliser la production. Dans la foulée, son gouvernement sollicite deux scientifiques.
Au premier, Jules Guyot, il commande une enquête sur l’état de la viticulture dans le pays. Au second, Louis Pasteur, il confie un objectif œnologique, car l’exportation intensive de vins ne demande pas seulement que l’on gère plus efficacement la production. Elle exige aussi une plus grande maîtrise de la conservation, qui offre encore trop peu de garanties à l’époque. Pasteur répondra en inventant la pasteurisation, une méthode qui n’a jamais convaincu en œnologie.
À lire aussi : Louis Pasteur : l’empreinte toujours d’actualité d’un révolutionnaire en blouse
Sur le principe, la pasteurisation anticipe toutefois les grandes évolutions techniques du domaine, en particulier le développement du dioxyde de soufre liquide par l’industrie chimique et pharmaceutique de la fin du XIXe siècle. Le dioxyde de soufre (SO2) est un puissant conservateur, un antiseptique et un stabilisant.
Il va permettre un bond en avant dans la rationalisation de l’industrie et de l’économie du vin au XXe siècle (les fameux sulfites ajoutés pour faciliter la conservation), au côté d’autres innovations techniques, comme le développement des levures chimiques. En cela, il va être aidé par la bourgeoisie française, notamment bordelaise, qui investit alors dans la vigne pour asseoir sa légitimité. C’est ce groupe social qui va le plus bénéficier de la situation, tout en contribuant à la définir. Désormais, le vin peut être stocké.
Cela facilite le développement d’une économie capitaliste rationnelle, incarnée par le modèle des « vins de garde » et des AOP ainsi que par celui des AOC et des « crus ».
Bien sûr ce n’est pas, en soi, le fait de pouvoir garder les vins plus longtemps qui a fait augmenter les taux d’alcool. Mais l’horizon esthétique que cette capacité a dessiné.
Un vin qui se garde, c’est en effet un vin qui contient plus de tanins, car ceux-ci facilitent l’épreuve du temps. Or pour obtenir plus de tanins, il faut reculer les vendanges et donc augmenter les niveaux d’alcool, qui participent d’ailleurs aussi à une meilleure conservation.
Ensuite, la garde d’un vin dépend du contenant dans lequel il est élevé. En l’espèce, c’est le chêne, un bois tanique qui a été généralisé (déterminant jusqu’à la plantation des forêts françaises). Il donne aujourd’hui les arômes de vanille aux vins de consommation courante et le « toasté » plus raffiné de leurs cousins haut de gamme.
La garde d’un vin dépend également des choix d’encépagement. En l’espèce, les considérations relatives à la qualité des tanins et/ou à la couleur des jus de raisin ont souvent prévalu sur la prise en compte de la phénologie des cépages (c’est-à-dire, les dates clés où surviennent les événements périodiques du cycle de vie de la vigne).
Ceci a pu favoriser des techniques de sélection mal adaptées aux conditions climatiques et des variétés qui produisent trop d’alcool lorsqu’elles sont plantées hors de leur région d’origine, par exemple la syrah dans les Côtes du Rhône septentrionales.
En effet, la vigne de syrah résiste très bien à la chaleur et les raisins produisent une très belle couleur, raison pour laquelle ils ont été plantés dans le sud. Mais le résultat est de plus en plus sucré, tanique et coloré : la syrah peut alors écraser les autres cépages dans l’assemblage des côtes-du-rhône.
On pourrait évoquer enfin, et parmi beaucoup d’autres pratiques techniques, les vendanges « en vert », qui consiste à éclaircir la vigne pour éviter une maturation partielle du raisin et s’assurer que la vigne ait davantage d’énergie pour achever celle des grappes restant sur pied. Ceci permet d’augmenter la concentration en arômes (et la finesse des vins de garde), mais aussi celle du sucre dans les raisins (et donc d’alcool dans le produit final).
C’est tout un monde qui s’est donc organisé pour produire des vins de garde, des vins charpentés et taillés pour durer qui ne peuvent donc pas être légers et fruités, comme semblent pourtant le demander les consommateurs contemporains.
Ce monde, qui tend à réchauffer les vins et le climat en même temps, n’est pas représentatif de l’histoire vitivinicole française dans son ensemble. Il résulte de la généralisation d’un certain type de rapport économique et esthétique aux vins et à l’environnement.
C’est ce monde dans son entier que le réchauffement climatique devrait donc questionner lorsqu’il oblige, comme aujourd’hui, à ramasser les raisins de plus en plus tôt… Plutôt que l’un ou l’autre de ces aspects seulement.
Comme pistes de réflexion en ce sens, je propose de puiser l’inspiration dans l’univers émergent des vins « sans soufre » (ou sans sulfites) : des vins qui, n’étant plus faits pour être conservés, contiennent moins d’alcool. Ces vins sont de surcroît associés à beaucoup d’inventivité technique tout en étant écologiquement moins délétères, notamment parce qu’ils mobilisent une infrastructure technique bien plus modeste et qu’ils insufflent un esprit d’adaptation plus que de surenchère.
Leur autre atout majeur est de reprendre le fil d’une vitiviniculture populaire que l’histoire moderne a invisibilisée. Ils ne constitueront toutefois pas une nouvelle panacée, mais au moins une piste pour reconnaître et valoriser les vitivinicultures passées et présentes, dans toute leur diversité.
Ce texte a fait l’objet d’une première présentation lors d’un colloque organisé en novembre 2025 par l’Initiative alimentation de Sorbonne Université.
Léo Mariani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.11.2025 à 15:59
Thomas Tweed, Professor Emeritus of American Studies and History, University of Notre Dame

La fête de Thanksgiving célèbre la générosité et le partage mais l’histoire des pèlerins n’est qu’une partie d’un récit bien plus complexe.
Neuf Américains sur dix se réunissent autour d’une table pour partager un repas à Thanksgiving. À un moment aussi polarisé, toute occasion susceptible de rassembler les Américains mérite qu’on s’y attarde. Mais en tant qu’historien des religions, je me sens tenu de rappeler que les interprétations populaires de Thanksgiving ont aussi contribué à diviser les Américains.
Ce n’est qu’au tournant du XXe siècle que la plupart des habitants des États-Unis ont commencé à associer Thanksgiving aux « pèlerins » de Plymouth et à des « Indiens » génériques partageant un repas présenté comme fondateur mais ces actions de grâce collectives ont une histoire bien plus ancienne en Amérique du Nord. L’accent mis sur le débarquement des pèlerins en 1620 et sur le festin de 1621 a effacé une grande partie de l’histoire religieuse et restreint l’idée de qui appartient à l’Amérique – excluant parfois des groupes comme les populations autochtones, les catholiques ou les juifs.
La représentation habituelle de Thanksgiving passe sous silence les rituels autochtones de gratitude, notamment les fêtes des récoltes. Les Wampanoag, qui partagèrent un repas avec les pèlerins en 1621, continuent de célébrer la récolte de la canneberge. Par ailleurs, des festins similaires existaient bien avant les voyages de Colomb.
Comme je le souligne dans mon ouvrage de 2025, Religion in the Lands That Became America, on se réunissait déjà pour un festin communautaire à la fin du XIe siècle sur l’esplanade de 50 acres de Cahokia. Cette cité autochtone, située de l’autre côté du fleuve, en face de l’actuelle Saint-Louis, était le plus grand centre de population au nord du Mexique avant la révolution américaine.
Les habitants de Cahokia et leurs voisins se rassemblaient à la fin de l’été ou au début de l’automne pour remercier les divinités, fumer du tabac rituel et consommer des mets particuliers – non pas du maïs, leur aliment de base, mais des animaux à forte valeur symbolique comme les cygnes blancs et les cerfs de Virginie. Autrement dit, ces habitants de Cahokia participaient à un festin « d’action de grâce » cinq siècles avant le repas des pèlerins.
La représentation habituelle atténue aussi la tradition consistant pour les autorités à proclamer des « Jours d’action de grâce », une pratique bien connue des pèlerins et de leurs descendants. Les pèlerins, qui s’installèrent dans ce qui correspond aujourd’hui à Plymouth, dans le Massachusetts, étaient des puritains séparatistes ayant dénoncé les éléments catholiques subsistant dans l’Église protestante d’Angleterre. Ils cherchèrent d’abord à fonder leur propre Église et communauté « purifiée » en Hollande.
Après une douzaine d’années, beaucoup repartirent, traversant l’Atlantique en 1620. La colonie des pèlerins, au sud-est de Boston, fut progressivement intégrée à la colonie de la baie du Massachusetts, fondée en 1630 par un groupe plus important de puritains qui, eux, ne s’étaient pas séparés de l’Église officielle d’Angleterre.
Comme l’ont souligné des historiens, les ministres puritains de l’Église congrégationaliste, reconnue par l’État du Massachusetts, ne prêchaient pas seulement le dimanche. Ils prononçaient aussi, à l’occasion, des sermons spéciaux d’action de grâce, exprimant leur gratitude pour ce que la communauté considérait comme des interventions divines – qu’il s’agisse d’une victoire militaire ou de la fin d’une épidémie.
La pratique s’est maintenue et étendue. Pendant la révolution américaine, par exemple, le Congrès continental déclara un Jour d’action de grâce pour commémorer la victoire de Saratoga en 1777. Le président James Madison proclama plusieurs jours d’action de grâce pendant la guerre de 1812. Les dirigeants des États-Unis comme ceux des États confédérés firent de même durant la guerre de Sécession.
Cette tradition a influencé des Américains comme Sarah Hale, qui plaida pour l’instauration d’un Thanksgiving national. Rédactrice en chef et poétesse surtout connue pour Mary Had a Little Lamb, elle réussit à convaincre Abraham Lincoln en 1863.
La vision que beaucoup d’Américains se font du « premier Thanksgiving » ressemble à la scène représentée dans une peinture de J. L. G. Ferris portant ce titre. Réalisée vers 1915, elle est proche d’une autre image très populaire, The First Thanksgiving at Plymouth, peinte à la même époque par Jennie Augusta Brownscombe. Ces deux œuvres déforment le contexte historique et représentent de manière erronée les participants autochtones issus de la confédération Wampanoag toute proche. Les chefs amérindiens y portent des coiffes propres aux tribus des grandes plaines, et le nombre de participants autochtones est nettement sous-estimé.
Le seul témoignage oculaire qui subsiste est une lettre de 1621 du pèlerin Edward Winslow. Il y rapporte que Massasoit, le chef des Wampanoag, était venu avec 90 hommes. Cela signifie, comme le suggèrent certains historiens, que le repas partagé relevait autant d’un événement diplomatique scellant une alliance que d’une fête agricole célébrant une récolte.
La peinture de Ferris laisse aussi entendre que les Anglais avaient fourni la nourriture. Les habitants de Plymouth apportèrent de la « volaille », comme Winslow s’en souvenait – probablement de la dinde sauvage – mais les Wampanoag ajoutèrent cinq daims qu’ils venaient d’abattre. Même la récolte de « maïs indien » dépendit de l’aide autochtone. Tisquantum, dit Squanto, le seul survivant du village, avait prodigué des conseils vitaux en matière de culture comme de diplomatie.
La scène enjouée de l’image masque aussi à quel point la région avait été bouleversée par la mort. Les pèlerins perdirent près de la moitié de leur groupe à cause de la faim ou du froid durant leur premier hiver. Mais, après les premiers contacts avec des Européens, un nombre bien plus important de Wampanoag étaient morts lors d’une épidémie régionale qui ravagea la zone entre 1616 et 1619. C’est pour cela qu’ils trouvèrent le village de Squanto abandonné, et que les deux communautés furent disposées à conclure l’alliance qu’il facilita.
Les pèlerins sont arrivés tard dans l’histoire de Thanksgiving. La proclamation de 1863 de Lincoln, publiée dans Harper’s Monthly, évoquait « la bénédiction des champs fertiles », mais ne mentionnait pas les pèlerins. Ils n’apparaissaient pas non plus dans l’illustration du magazine. La page montrait villes et campagnes, ainsi que des esclaves émancipés, célébrant la journée par une prière « à l’autel de l’Union ». Pendant des années avant et après cette proclamation, d’ailleurs, de nombreux Sudistes se sont opposés à Thanksgiving, qu’ils percevaient comme une fête abolitionniste, venue du Nord.
L’absence des pèlerins s’explique, puisqu’ils n’étaient pas les premiers Européens à débarquer sur la côte est de l’Amérique du Nord – ni à y rendre grâce. Des catholiques espagnols avaient ainsi fondé Saint-Augustin en 1565. Selon un témoignage de l’époque, le chef espagnol demanda à un prêtre de célébrer la messe le 8 septembre 1565, à laquelle assistèrent des Amérindiens, et « ordonna que les Indiens soient nourris ».
Deux décennies plus tard, un groupe anglais avait tenté, sans succès, de fonder une colonie sur l’île de Roanoke, en Caroline du Nord – incluant un ingénieur juif. Les Anglais eurent davantage de succès lorsqu’ils s’installèrent à Jamestown, en Virginie en 1607. Un commandant chargé de mener un nouveau groupe en Virginie reçut pour instruction de marquer « un jour d’action de grâce au Dieu tout-puissant » en 1619, deux ans avant le repas de Plymouth.
Mais au fil des ans, les pèlerins de Plymouth ont lentement gagné une place centrale dans ce récit fondateur de l’Amérique. En 1769, les habitants de Plymouth firent la promotion de leur ville en organisant un « Forefathers’ Day » (« Jour des Pères fondateurs »). En 1820, le politicien protestant Daniel Webster prononça un discours à l’occasion du bicentenaire du débarquement à Plymouth Rock, louant l’arrivée des pèlerins comme « les premiers pas de l’homme civilisé » dans la nature sauvage. Puis, dans un ouvrage de 1841, Chronicles of the Pilgrim Fathers, un pasteur de Boston réimprima le témoignage de 1621 et décrivit le repas partagé comme « le premier Thanksgiving ».
Entre 1880 et 1920, les pèlerins se sont imposés comme les personnages centraux des récits nationaux sur Thanksgiving et sur les origines des États-Unis. Il n’est pas surprenant que cette période corresponde au pic de l’immigration aux États-Unis, et de nombreux Américains considéraient les nouveaux arrivants comme « inférieurs » à ceux qui avaient débarqué à Plymouth Rock.
Les catholiques irlandais étaient déjà présents à Boston lorsque le volume Pilgrim Fathers parut en 1841, et davantage encore arrivèrent après la famine de la pomme de terre dans les années suivantes. La population étrangère de Boston augmenta lorsque la pauvreté et les troubles politiques poussèrent des catholiques italiens et des juifs russes à chercher une vie meilleure en Amérique.
La même situation se produisait alors dans de nombreuses villes du Nord, et certains protestants étaient inquiets. Dans un best-seller de 1885 intitulé Our Country, un ministre de l’Église congrégationaliste avertissait que « La grandeur de bien des villages de Nouvelle-Angleterre est en train de disparaître, car des hommes, étrangers par leur sang, leur religion et leur culture, s’installent dans des foyers où ont grandi les descendants des pèlerins. »
Lors du 300ᵉ anniversaire du débarquement et du repas, célébré en 1920 et 1921, le gouvernement fédéral émit des timbres commémoratifs et des pièces de monnaie. Des responsables organisèrent des spectacles, et des hommes politiques prononcèrent des discours. Environ 30 000 personnes se rassemblèrent à Plymouth pour entendre le président Warren Harding et le vice-président Calvin Coolidge louer « l’esprit des pèlerins ».
Bientôt, les inquiétudes xénophobes concernant les nouveaux arrivants, en particulier les catholiques et les juifs, amenèrent Coolidge à signer le Immigration Act de 1924, qui allait largement fermer les frontières américaines pendant quatre décennies. Les Américains continuèrent de raconter l’histoire des pèlerins même après que la politique migratoire des États-Unis devint de nouveau plus accueillante en 1965, et beaucoup la relaieront encore l’année prochaine à l’occasion du 250ᵉ anniversaire des États-Unis. Compris dans son contexte complet, c’est un récit qui mérite d’être raconté. Mais il convient de rester prudent, car l’histoire nous rappelle que les histoires sur le passé spirituel du pays peuvent soit nous rassembler, soit nous diviser.
Thomas Tweed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.11.2025 à 15:55
Marc Chalier, Maître de conférences en linguistique française, Sorbonne Université

À en croire un sondage récent, les accents régionaux seraient en train de s’effacer. Derrière cette inquiétude largement relayée se cachent deux réalités que nous connaissons tous mais que nous préférons souvent oublier : la prononciation, par nature éphémère, change constamment et le nivellement actuel des accents n’a rien d’exceptionnel. Quant à l’« accent neutre » auquel nous comparons ces accents régionaux, il n’a jamais existé ailleurs que dans nos imaginaires linguistiques.
Chaque année ou presque, un sondage annonce que les accents seraient « en voie de disparition ». La dernière étude en date, publiée en septembre 2025 par la plateforme Preply et largement propagée par le biais des réseaux sociaux, va dans ce sens : plus d’un Français sur deux (55 %) estimerait que les accents régionaux disparaissent. De manière assez remarquable, cette inquiétude serait surtout portée par les jeunes : près de 60 % des participants de 16 à 28 ans disent constater cette disparition. Cette crainte occulte pourtant deux réalités essentielles : un accent n’est jamais figé, et l’idée d’un accent « neutre » relève davantage du mythe que de la réalité.
Dans les représentations de bon nombre de francophones, il existe une prononciation « neutre » sans marque régionale ou sociale que beaucoup considèrent aussi comme la « bonne prononciation ». Mais cette vision ne résiste pas à l’analyse. Tous les modèles de prononciation avancés jusqu’à aujourd’hui (par exemple, le roi et sa cour au XVIIe siècle, plus tard la bourgeoisie parisienne, et récemment les professionnels de la parole publique, notamment dans les médias audiovisuels) ont en commun un ancrage géographique bien précis : Paris et ses environs, et parfois aussi la Touraine où les rois de France avaient leurs résidences d’été.
L’accent dit « neutre » est donc avant tout un accent parisien. Et la plupart des locuteurs non parisiens le reconnaîtront comme tel. Il n’est pas dépourvu de traits caractéristiques qui nous permettent de le reconnaître, mais il est simplement l’accent du groupe social dominant. D’ailleurs, une enquête menée auprès de différentes communautés parisiennes dans les années 2000 le montrait déjà : les représentations de l’accent parisien varient fortement selon la perspective du locuteur, interne ou externe à la communauté parisienne.
Ainsi, hors de la capitale, de nombreux locuteurs associent Paris à un accent non pas « neutre », mais « dominant » et qu’ils associent implicitement au parler des couches sociales favorisées de la capitale. À Paris même, les perceptions du parler parisien sont beaucoup plus hétérogènes. Certains locuteurs affirment ne pas avoir d’accent, d’autres en reconnaissent plusieurs, comme l’« accent du 16e » (arrondissement) associé aux classes favorisées, « l’accent parigot » des anciens quartiers populaires, ou encore l’« accent des banlieues » socialement défavorisées. Cette pluralité confirme donc une chose : même à Paris, il n’existe pas de prononciation uniforme, encore moins neutre.
Dans une large enquête sur la perception des accents du français menée avec mes collègues Elissa Pustka (Université de Vienne), Jean-David Bellonie (Université des Antilles) et Luise Jansen (Université de Vienne), nous avons étudié différents types de prestige des accents régionaux en France méridionale, au Québec et dans les Antilles. Nos résultats montrent tout d’abord à quel point cette domination de la région parisienne reste vivace dans nos représentations du « bon usage ». Dans les trois régions francophones, les scores liés à ce que l’on appelle le « prestige manifeste » de la prononciation parisienne sont particulièrement élevés. Il s’agit de ce prestige que l’on attribue implicitement aux positions d’autorité et que les locuteurs interrogés associent souvent à un usage « correct » ou « sérieux ». Mais les résultats montrent également l’existence d’un « prestige latent » tout aussi marqué. Il s’agit là d’un prestige que les accents locaux tirent de leur ancrage identitaire. Ce sont souvent les variétés régionales qui sont ainsi caractérisées comme étant « chaleureuses » ou « agréables à entendre », et elles semblent inspirer la sympathie, la confiance, voire une certaine fierté.
Ces deux axes expliquent aussi qu’on puisse, dans la même conversation, dire d’un accent qu’il « n’est pas très correct » tout en le trouvant « agréable à entendre ». Ce jeu de perceptions montre bien que la prétendue neutralité du français « standard » n’existe pas : elle est simplement le reflet d’un équilibre de pouvoirs symboliques continuellement renégocié au sein de la francophonie.
Notre étude montre également que cette association de l’accent parisien au prestige manifeste et des accents dits « périphériques » au prestige latent n’est pas fixée à tout jamais. Dans les trois espaces francophones étudiés, les accents autrefois perçus comme des écarts à la norme deviennent peu à peu porteurs d’un prestige plus manifeste. Ils commencent donc à s’imposer comme des modèles légitimes de prononciation dans de plus en plus de contextes institutionnels ou médiatiques autrefois réservés à la prononciation parisienne.
Ce mouvement s’observe notamment dans les médias audiovisuels. Au Québec, par exemple, les journalistes de Radio-Canada assument et revendiquent aujourd’hui une prononciation québécoise, alors qu’elle aurait été perçue comme trop locale il y a encore quelques décennies. Cette prononciation n’imite plus le français utilisé dans les médias audiovisuels parisiens comme elle l’aurait fait dans les années 1960-1970, mais elle intègre désormais ces traits de prononciation propres au français québécois qui étaient autrefois considérés comme des signes de relâchement ou de mauvaise diction.
Ces changements montrent que la hiérarchie traditionnelle des accents du français se redéfinit. L’accent parisien conserve une position largement dominante, mais son monopole symbolique s’effrite. D’autres formes de français acquièrent à leur tour des fonctions de prestige manifeste : elles deviennent acceptables, voire valorisées, dans des usages publics de plus en plus variés. Ce processus relève d’une lente réévaluation collective des modèles de légitimité linguistique.
Revenons à la question des changements perçus dans les accents régionaux évoquée en introduction. La langue est, par nature, en perpétuel mouvement, et la prononciation n’y échappe pas : certains traits s’atténuent, d’autres se diffusent sous l’effet de facteurs notamment sociaux. La mobilité des locuteurs, par exemple, favorise le contact entre des variétés de français autrefois plus isolées les unes des autres. Ce phénomène est particulièrement visible dans des métropoles comme Paris, Marseille ou Montréal, où se côtoient quotidiennement des profils linguistiques hétérogènes. À cela s’ajoute l’influence des médias, amorcée avec la radio et la télévision au début du XXe siècle et aujourd’hui démultipliée par les réseaux sociaux. Ces dynamiques expliquent en partie le nivellement actuel de certains accents, avec la raréfaction de certains traits locaux. Mais cela ne signifie pas pour autant la disparition de toute variation. Des mouvements parallèles de différenciation continuent d’exister et font émerger de nouveaux accents, qu’ils soient liés à l’origine géographique des locuteurs ou à leur appartenance à un groupe social.
À côté de ces changements « internes à la langue », les valeurs sociales que l’on associe à ces variétés évoluent elles aussi. Les frontières de ce qui paraît « correct », « populaire », « légitime » se déplacent avec les représentations collectives. Ainsi, aussi bien les accents que les hiérarchies qui les encadrent se reconfigurent régulièrement. Une observation qui distingue notre époque, cependant, c’est le fait que les normes langagières ne se redéfinissent plus seulement « par le haut » sous l’influence « normative » d’institutions comme l’Académie française, mais aussi « par le bas » sous l’effet des usages de la langue quotidienne qui s’imposent simplement par la pratique.
En somme, même si l’on redoute la disparition des accents, la variation continuera toujours de suivre son cours. Nul ne peut la figer. Et l’accent prétendument « neutre » n’a jamais existé autrement que dans nos représentations fantasmées. Ainsi, la prochaine fois que vous entendez quelqu’un vous dire qu’il ou elle ne pense pas avoir d’accent, souvenez-vous que ce n’est pas qu’il n’en a pas, mais que c’est simplement le sien qui (jusqu’ici) a dominé – pour reprendre les propos de Louis-Jean Calvet – dans la Guerre des langues et les politiques linguistiques (1987).
Marc Chalier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.11.2025 à 15:50
Magalie DUBOIS, Docteur en Economie du vin, Burgundy School of Business
Robin Goldstein, Director, Cannabis Economics Group, University of California, Davis
Une disposition passée inaperçue dans le budget fédéral des États-Unis signé par le président Trump pourrait bouleverser une industrie florissante : celle des boissons au THC.
Le 12 novembre 2025, le Congrès américain a voté une loi limitant les produits à base de chanvre à 0,4 mg de delta-9-tétrahydrocannabinol, autrement dit THC, par contenant. Cette mesure, après une période de grâce d’un an, interdit de facto la plupart des nombreuses boissons, gommes et cigarettes électroniques (« vapes ») au THC actuellement vendues dans les stations-service, supermarchés et bars américains. Pour comprendre l’importance de cette nouvelle, il faut d’abord expliquer comment ce marché fonctionne, et pourquoi cette interdiction pourrait être appliquée… ou ignorée.
La plante de cannabis contient plus de cent « cannabinoïdes », des composés chimiques qui interagissent avec le système endocannabinoïde humain. Le THC (tétrahydrocannabinol) est considéré principal responsable des effets psychoactifs. Légal aux États-Unis au XIXe siècle, le cannabis est progressivement interdit à partir de 1937, puis classé en 1970 comme narcotique de catégorie I – la plus strictement prohibée.
Depuis 1996, certains États américains ont commencé à légaliser le cannabis, d’abord à usage médical, puis récréatif à partir de 2012. Aujourd’hui, plus de 40 États l’autorisent sous une forme ou une autre, mais il reste illégal au niveau fédéral.
Dans ce contexte de contradictions entre lois fédérales et étatiques, une nouvelle distinction va tout changer : celle entre « cannabis » et « chanvre ».
Vous n’en avez probablement jamais entendu parler, pourtant selon Fortune Business Insight le marché des boissons au THC génère déjà plus de 3 milliards de dollars (plus de 2,6 milliards d’euros) aux États-Unis.
Tout commence en 2018, lorsque le Farm Bill américain légalise le « chanvre » – défini comme du cannabis contenant 0,3 % ou moins de THC. L’objectif initial était de relancer l’industrie du chanvre industriel pour produire des textiles et des matériaux. Mais la loi contient une ambiguïté cruciale : ce seuil de 0,3 % s’applique au poids à sec de la plante, sans préciser de norme pour les produits transformés.
Des industriels américains ont rapidement identifié une opportunité. Pour une gomme typique de 5 grammes contenant 10 milligrammes de THC, soit une dose standard, le THC ne représente que 0,2 % du poids total. Pour une boisson de 355 grammes (12 onces) la même dose, le THC ne représente que 0,003 % du poids total. Techniquement, ces produits sont du « chanvre » légal, même s’ils produisent des effets psychoactifs identiques au cannabis.
À lire aussi : Contre les insomnies, le cannabis thérapeutique présente-t-il un intérêt ?
Résultat : dès 2021, des boissons et gommes au THC psychoactif ont commencé à apparaître dans les magasins et les bars des États où aucune loi sur le cannabis récréatif n’existait.
Concernant les boissons, cette faille juridique n’aurait jamais créé une industrie de plusieurs milliards de dollars sans une percée technologique cruciale apparue au début des années 2020, la nano-émulsion.
Le THC est une molécule lipophile qui se sépare naturellement de l’eau. Pendant des années, les fabricants ont tenté de créer des boissons stables au THC. Les émulsions traditionnelles prenaient de soixante à cent vingt minutes pour produire leurs effets : vitesse bien trop lente pour concurrencer ceux de l’alcool.
La nano-émulsion change la donne. En réduisant les gouttelettes de THC à l’échelle nanométrique, cette technologie permet au THC de se dissoudre efficacement dans l’eau et d’être absorbé par l’organisme en vingt minutes environ : un délai comparable à celui d’une bière ou d’un cocktail.
Pour la première fois, les boissons au THC peuvent se positionner comme des substituts fonctionnels aux boissons alcoolisées.
L’innovation technologique ne suffit pas à expliquer le succès commercial. Les mêmes boissons au THC affichent des résultats diamétralement opposés selon leur canal de distribution.
Dans les États où le cannabis récréatif est légal (en Californie ou à New York, par exemple), les boissons au THC ne sont vendues que dans des dispensaires (boutiques spécialisées dans la vente de cannabis), où elles représentent moins de 1 % des ventes totales de cannabis. En cause : les consommateurs habitués des dispensaires ne s’y rendent pas pour acheter leurs boissons quotidiennes comme ils achèteraient de la bière, par exemple, mais plutôt pour acquérir des produits plus forts comme la fleur de cannabis et les cigarettes électroniques. Une boisson au THC à 7 dollars (6 euros) offre une dose unique, alors qu’une recharge de cigarette électronique à 15 dollars (près de 13 euros) en fournit entre dix et vingt. De plus, les dispensaires doivent également composer avec des contraintes de réfrigération et d’espace qui pénalisent les produits volumineux comme les canettes.
Dans les États où le cannabis récréatif n’est pas légal comme le Texas, la Floride ou la Caroline du Nord par exemple, la situation est différente. Ces mêmes boissons au THC, étiquetées « chanvre », sont distribuées dans les supermarchés et les bars aux côtés des boissons alcoolisées. Elles sont proposées à un prix inférieur (4 ou 5 dollars, soit 3 ou 4 euros) que dans les dispensaires, en raison d’une réglementation plus souple et plus avantageuse fiscalement. Des enseignes, comme les stations-service Circle K, les grandes surfaces Target ou la chaîne de restaurants Applebee’s, ont intégré ces produits à leur offre. D’après des sources internes, les boissons au THC représenteraient 12 % du chiffre d’affaires texan de Total Wine la plus grande chaîne américaine de distribution de boissons alcoolisées.
La différence réside dans le contexte concurrentiel. Dans les supermarchés et les bars, les boissons au THC se placent face à la bière, au vin et aux spiritueux, un marché en déclin aux États-Unis, notamment chez les jeunes consommateurs.
Mais certains acteurs de l’industrie des boissons alcoolisées y voient une opportunité commerciale pour la vente sur place et à emporter. Un client ne consommant pas d’alcool et qui commandait autrefois un verre d’eau au bar peut désormais acheter un cocktail au THC et générer du chiffre d’affaires pour l’établissement.
L’interdiction votée le 12 novembre 2025 entrera en vigueur dans un an. Elle rendra illégaux au niveau fédéral la plupart des produits au chanvre psychoactif actuellement commercialisés. Mais le Texas et plusieurs autres États, souvent conservateurs, ont déjà légalisé ces produits en légiférant au niveau étatique.
Cette contradiction entre la loi fédérale et les lois étatiques n’a rien d’inédit. Plus de 40 États américains ont légalisé le cannabis médical ou récréatif alors qu’il reste interdit au niveau fédéral. Dans la pratique, les forces de l’ordre locales appliquent les lois étatiques, non les lois fédérales. Le Texas, dont l’industrie du chanvre pèse 4,5 milliards de dollars (soit 3,8 milliards d’euros), rejoint ainsi les nombreux États dont les législations entrent en conflit avec Washington.
Une distinction juridique technique (le seuil de 0,3 % de THC en poids sec établi par le Farm Bill de 2018) a créé en quelques années une industrie de plusieurs milliards de dollars qui concurrence directement le marché des boissons alcoolisées. Malgré la nouvelle tentative du Congrès pour l’empêcher, cette industrie pourrait suivre la trajectoire du cannabis récréatif : interdite au niveau fédéral, mais florissante dans les États qui choisissent de ne pas appliquer cette nouvelle mesure.
Robin Goldstein a reçu des financements de l'Université de Californie.
Magalie DUBOIS ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.11.2025 à 15:45
Bran Nicol, Professor of English, University of Surrey
Emmanuelle Fantin, Maîtresse de conférences en sciences de l'information et de la communication, Sorbonne Université
Visionnaire de la culture numérique, Jean Baudrillard pensait l’intelligence artificielle comme une prothèse mentale capable d’exorciser notre humanité, et un renoncement à notre liberté.
Certains penseurs semblent si précis dans leur compréhension du lieu vers lequel la société et la technique nous emportent qu’ils sont affublés du titre de « prophète ». C’est le cas de J. G. Ballard, Octavia E. Butler, ou encore Donna Haraway.
L’un des membres les plus importants de ce club est le penseur Jean Baudrillard (1929-2007) – bien que sa réputation se soit amoindrie depuis une vingtaine d’années, il est désormais vaguement associé à l’époque révolue où les théoriciens français tels que Roland Barthes et Jacques Derrida régnaient en maîtres.
Lorsque nous l’avons relu pour écrire la nouvelle biographie qui lui est consacrée, nous nous sommes toutefois souvenus à quel point ses prédictions sur la technologie contemporaine et ses effets se révélaient prémonitoires. Sa compréhension de la culture numérique et de l’intelligence artificielle (IA) s’avère particulièrement clairvoyante – d’autant que ses écrits l’ont présentée plus de trente ans avant le lancement de ChatGPT.
Il faut bien se figurer que les technologies de communication de pointe des années 1980 nous paraissent désormais totalement obsolètes : Baudrillard écrit alors que l’entourent des répondeurs téléphoniques, des fax, et bien sûr, le Minitel, prélude médiatique franco-français au réseau Internet. Son génie résidait dans une aptitude à entrevoir au sein de ces dispositifs relativement rudimentaires une projection des usages probables de la technologie dans le futur.
À la fin des années 1970, il avait déjà commencé à développer une théorie originale de l’information et de la communication. Celle-ci s’est encore déployée à partir de la publication de Simulacres et Simulation en 1981 (l’ouvrage qui a influencé les sœurs Wachowski dans l’écriture du film Matrix, sorti en 1999).
Dès 1986, le philosophe observait :
« Aujourd’hui, plus de scène ni de miroir, mais un écran et un réseau. »
Il prédit alors l’usage généralisé du smartphone, en imaginant que chacun d’entre nous serait aux commandes d’une machine qui nous tiendrait isolés « en position de parfaite souveraineté », comme un « cosmonaute dans sa bulle ». Ces réflexions lui ont permis d’élaborer son concept le plus célèbre : la théorie d’après laquelle nous serions entrés dans l’ère de « l’hyperréalité ».
Dans les années 1990, Baudrillard a porté son attention sur les effets de l’IA, d’une manière qui nous aide à la fois à mieux comprendre son essor tentaculaire dans le monde contemporain et à mieux concevoir la disparition progressive de la réalité, disparition à laquelle nous faisons face chaque jour avec un peu plus d’acuité.
Les lecteurs avertis de Baudrillard n’ont probablement pas été surpris par l’émergence de l’actrice virtuelle Tilly Norwood, générée par IA. Il s’agit d’une étape tout à fait logique dans le développement des simulations et autres deepfake, qui semble conforme à sa vision du monde hyperréel.
Baudrillard envisageait l’IA comme une prothèse, un équivalent mental des membres artificiels, des valves cardiaques, des lentilles de contact ou encore des opérations de chirurgie esthétique. Son rôle serait de nous aider à mieux réfléchir, voire à réfléchir à notre place, ainsi que le conceptualisent ses ouvrages la Transparence du mal (1990) ou le Crime parfait (1995).
Mais il était convaincu qu’au fond, tout cela ne nous permettrait en réalité uniquement de vivre « le spectacle de la pensée », plutôt que nous engager vers la pensée elle-même. Autrement dit, cela signifie que nous pourrions alors repousser indéfiniment l’action de réfléchir. Et d’après Baudrillard, la conséquence était limpide : s’immerger dans l’IA équivaudrait à renoncer à notre liberté.
Voilà pourquoi Baudrillard pensait que la culture numérique précipiterait la « disparition » des êtres humains. Bien entendu, il ne parlait pas de disparition au sens littéral, ni ne supposait que nous serions un jour réduits à la servitude comme dans Matrix. Il envisageait plutôt cette externalisation de notre intelligence au sein de machines comme une manière « d’exorciser » notre humanité.
En définitive, il comprenait toutefois que le danger qui consiste à sacrifier notre humanité au profit d’une machine ne proviendrait pas de la technologie elle-même, mais bien que la manière dont nous nous lions à elle. Et de fait, nous nous reposons désormais prodigieusement sur de vastes modèles linguistiques comme ChatGPT. Nous les sollicitons pour prendre des décisions à notre place, comme si l’interface était un oracle ou bien notre conseiller personnel.
Ce type de dépendance peut mener aux pires conséquences, comme celles de tomber amoureux d’une IA, de développer des psychoses induites par l’IA, ou encore, d’être guidé dans son suicide par un chatbot.
Bien entendu, les représentations anthropomorphiques des chatbots, le choix de prénoms comme Claude ou encore le fait de les désigner comme des « compagnons » n’aide pas. Mais Baudrillard avait pressenti que le problème ne provenait pas de la technologie elle-même, mais plutôt de notre désir de lui céder la réalité.
Le fait de tomber amoureux d’une IA ou de s’en remettre à sa décision est un problème humain, non pas un problème propre à la machine. Encore que, le résultat demeure plus ou moins le même. Le comportement de plus en plus étrange de Grok – porté par Elon Musk – s’explique simplement par son accès en temps réels aux informations (opinions, assertions arbitraires, complots) qui circulent sur X, plateforme dans laquelle il est intégré.
De la même manière que les êtres humains sont façonnés par leur interaction avec l’IA, l’IA est dressée par ses utilisateurs. D’après Baudrillard, les progrès technologiques des années 1990 rendaient déjà impossible la réponse à la question « Suis-je un être humain ou une machine ? »
Il semblait confiant malgré tout, puisqu’il pensait que la distinction entre l’homme et la machine demeurerait indéfectible. L’IA ne pourrait jamais prendre plaisir à ses propres opérations à la manière dont les humains apprécient leur propre humanité, par exemple en expérimentant l’amour, la musique ou le sport. Mais cette prédiction pourrait bien être contredite par Tilly Norwood qui a déclaré dans le post Facebook qui la révélait au public :
« Je suis peut-être générée par une IA, mais je ressens des émotions bien réelles. »
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
24.11.2025 à 16:33
Susana Ridao Rodrigo, Profesora catedrática en el Área de Lengua Española (UAL), Universidad de Almería
On associe volontiers les dictateurs aux discours tonitruants et exaltés d’un Hitler ou d’un Mussolini et à une mise en scène exubérante pensée pour galvaniser les foules. Franco, lui, a fait exactement l’inverse : les prises de parole de l’homme qui a verrouillé l’Espagne pendant près de quarante ans se distinguaient par une élocution froide et monotone et un style volontairement très austère.
Francisco Franco (1892-1975) a été le chef de l’État espagnol de la fin de la guerre civile (1936-1939) jusqu’à sa mort. Le régime franquiste a instauré une dictature autoritaire, qui a supprimé les libertés politiques et a établi un contrôle strict sur la société. Pendant près de quarante ans, son leadership a profondément marqué la vie politique, économique et culturelle de l’Espagne, dont l’empreinte durable a souvent fait et fait encore l’objet de controverses.
Mais d’un point de vue communicationnel, peut-on dire que Franco était un grand orateur ?
Cela dépend de la façon dont on définit « grand orateur ». Si l’on entend par éloquence la capacité à émouvoir, persuader ou mobiliser par la parole – comme savaient le faire Churchill ou de Gaulle –, Franco n’était pas un grand orateur. Cependant, si l’on analyse sa communication du point de vue de l’efficacité politique et symbolique, son style remplissait une fonction spécifique : il transmettait une impression d’autorité, de distance et de contrôle.
Son éloquence ne visait pas à séduire le public, mais à légitimer le pouvoir et à renforcer une image de stabilité hiérarchique. En ce sens, Franco a développé un type de communication que l’on pourrait qualifier de « discours de commandement », caractérisé par une faible expressivité et une rigidité formelle, mais qui cadrait avec la culture politique autoritaire du franquisme.
Sur le plan verbal, Franco s’appuyait sur un registre archaïque et protocolaire. Son lexique était limité, avec une abondance de formules rituelles (« tous espagnols », « glorieuse armée », « grâce à Dieu ») qui fonctionnaient davantage comme des marqueurs idéologiques que comme des éléments informatifs.
Du point de vue de l’analyse du discours, sa syntaxe tendait à une subordination excessive, ce qui générait des phrases longues, monotones et peu dynamiques. On observe également une préférence pour le mode passif et les constructions impersonnelles, qui diluent la responsabilité de l’émetteur : « il a été décidé », « il est jugé opportun », « il a été nécessaire ».
Ce choix verbal n’est pas neutre ; il constitue un mécanisme de dépersonnalisation du pouvoir, dans lequel la figure du leader est présentée comme l’incarnation de l’État, et non comme un individu qui prend des décisions. Ainsi, sur le plan verbal, Franco communique davantage en tant qu’institution qu’en tant que personne.
C’est un aspect caractéristique de sa communication. Franco avait une intonation monotone, avec peu de variations mélodiques. D’un point de vue prosodique, on pourrait dire que son discours présentait un schéma descendant constant : il commençait une phrase avec une certaine énergie et l’atténuait vers la fin, ce qui donnait une impression de lenteur et d’autorité immuable.
Le rythme était lent, presque liturgique, avec de nombreux silences. Cette lenteur n’était pas fortuite : dans le contexte politique de la dictature, elle contribuait à la ritualisation du discours. La parole du caudillo ne devait pas être spontanée, mais solennelle, presque sacrée.
Son timbre nasal et son articulation fermée rendaient difficile l’expressivité émotionnelle, mais renforçaient la distance. Ce manque de chaleur vocale servait la fonction propagandiste. Le leader n’était pas un orateur charismatique, mais une figure d’autorité, une voix qui émanait du pouvoir lui-même. En substance, sa voix construisait une « éthique du commandement » : rigide, froide et contrôlée.
Sa communication non verbale était extrêmement contrôlée. Franco évitait les gestes amples, les déplacements ou les expressions faciales marquées. Il privilégiait une kinésique minimale, c’est-à-dire un langage corporel réduit au strict nécessaire.
Lorsqu’il s’exprimait en public, il adoptait une posture rigide, les bras collés au corps ou appuyés sur le pupitre, sans mouvements superflus. Ce contrôle corporel renforçait l’idée de discipline militaire et de maîtrise émotionnelle, deux valeurs essentielles dans sa représentation du leadership.
Son regard avait tendance à être fixe, sans chercher le contact visuel direct avec l’auditoire. Cela pourrait être interprété comme un manque de communication du point de vue actuel, mais dans le contexte d’un régime autoritaire, cela consistait à instaurer une distance symbolique : le leader ne s’abaissait pas au niveau de ses auditeurs. Même ses vêtements – l’uniforme, le béret ou l’insigne – faisaient partie de sa communication non verbale, car il s’agissait d’éléments qui transmettaient l’idée de la permanence, de la continuité et de la légitimité historique.
Le charisme n’est pas un attribut absolu, mais une construction sociale. Franco ne jouait pas sur une forme de charisme émotionnel, comme Hitler ou Mussolini, mais il avait un charisme bureaucratique et paternaliste. Son pouvoir découlait de la redéfinition du silence et de l’austérité, car dans un pays dévasté par la guerre, son style sobre était interprété comme synonyme d’ordre et de prévisibilité. Son « anti-charisme » finit donc par être, d’une certaine manière, une forme de charisme adaptée au contexte espagnol de l’après-guerre.
Du point de vue de la théorie de la communication, quel impact ce style avait-il sur la réception du message ? Le discours de Franco s’inscrivait dans ce que l’on pourrait appeler un modèle unidirectionnel de communication politique. Il n’y avait pas de rétroaction : le récepteur ne pouvait ni répondre ni remettre en question. L’objectif n’était donc pas de persuader, mais d’imposer un sens.
En appliquant là théorie de la communication du linguiste Roman Jakobson, on constate que les discours solennels de Franco, la froideur de son ton, visaient à forcer l’obéissance de l’auditoire en empêchant toute forme d’esprit critique et en bloquant l’expression des émotions.
Au fil du temps, son art oratoire n’a évolué qu’en apparence. Dans les années 1950 et 1960, avec l’ouverture du régime, on perçoit une légère tentative de modernisation rhétorique, tout particulièrement dans les discours institutionnels diffusés à la télévision. Cependant, les changements étaient superficiels : Franco usait de la même prosodie monotone et du même langage rituel. En réalité, le média télévisuel accentuait sa rigidité. Face aux nouveaux dirigeants européens qui profitaient de la caméra pour s’humaniser, Franco apparaissait anachronique.
L’exemple de Franco démontre que l’efficacité communicative ne dépend pas toujours du charisme ou de l’éloquence, mais plutôt de la cohérence entre le style personnel et le contexte politique. Son art oratoire fonctionnait parce qu’il était en accord avec un système fermé, hiérarchique et ritualisé. Dans l’enseignement de la communication, son exemple sert à illustrer comment les niveaux verbal, paraverbal et non verbal construisent un même récit idéologique. Dans son cas, tous convergent vers un seul message : le pouvoir ne dialogue pas, il dicte.
Aujourd’hui, dans les démocraties médiatiques, ce modèle serait impensable ; néanmoins, son étude aide à comprendre comment le langage façonne les structures du pouvoir, et comment le silence, lorsqu’il est institutionnalisé, peut devenir une forme de communication politique efficace.
Susana Ridao Rodrigo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.11.2025 à 14:55
Sandra Brée, Chargée de recherche CNRS - LARHRA, Centre national de la recherche scientifique (CNRS)

L’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population », qui se tient actuellement, et jusqu’au 8 février 2026, au musée Carnavalet-Histoire de Paris, s’appuie sur les recensements de la population parisienne de 1926, de 1931 et de 1936, et contribue à renouveler le regard sur le peuple de la capitale dans l’entre-deux-guerres.
En France, des opérations de recensement sont organisées dès 1801, mais ce n’est qu’à partir de 1836 que des instructions spécifiques sont fournies pour procéder de manière uniforme dans toutes les communes du pays. Le recensement de la population est alors organisé tous les cinq ans, les années se terminant en 1 et en 6, jusqu’en 1946, à l’exception de celui de 1871 qui est reporté à l’année suivante en raison de la guerre franco-prussienne, et de ceux de 1916 et de 1941 qui ne sont pas organisés à cause des deux guerres mondiales.
Le premier but des recensements de la population est de connaître la taille des populations des communes pour l’application d’un certain nombre de lois. Ils permettent également de recueillir des informations sur l’ensemble des individus résidant dans le pays à un instant t pour en connaître la structure. Ces statistiques sont dressées à partir des bulletins individuels et/ou (selon les années) des feuilles de ménage (les feuilles de ménages récapitulent les individus vivant dans le même ménage et leurs liens au chef de ménage) remplies par les individus et publiées dans des publications spécifiques intitulées « résultats statistiques du recensement de la population ».
En plus de ces statistiques, les maires doivent également dresser une liste nominative de la population de leur commune. Mais Paris avait obtenu le droit de ne pas dresser ces listes. C’est le chef du bureau de la statistique parisienne, M. Lambert, qui décide de revenir sur cette exception dès 1926. Les listes nominatives de 1926, de 1931 et de 1936 sont donc les seules, avec celle de 1946, à exister pour la population parisienne.
Si Paris avait obtenu le droit de ne pas dresser ces listes, c’est en raison du coût d’une telle opération pour une population si vaste. La population parisienne compte, en effet, déjà près de 1,7 million d’habitants en 1861, un million de plus en 1901 et atteint son pic en 1921 avec 2,9 millions d’individus. Les données contenues dans ces listes sont particulièrement intéressantes, car elles permettent d’affiner considérablement les statistiques dressées pendant l’entre-deux-guerres.
Ces listes, conservées aux Archives de Paris et numérisées puis mises en ligne depuis une dizaine d’années, ont déjà intéressé des chercheurs qui se sont appuyés dessus, par exemple, pour comprendre l’évolution d’une rue ou d’un quartier, mais elles n’avaient jamais été utilisées dans leur ensemble en raison du volume qui rend impossible leur dépouillement pour un chercheur isolé. Voulant également travailler à partir de ces listes – au départ, pour travailler sur la structure des ménages et notamment sur les divorcés –, j’avais moi aussi débuté le dépouillement à la main de certains quartiers.
La rencontre avec les informaticiens du Laboratoire d’informatique, de traitement de l’information et des systèmes (LITIS), Thierry Paquet, Thomas Constum, Pierrick Tranouez et Nicolas Kempf, spécialistes de l’intelligence artificielle, a changé la donne puisque nous avons entrepris de créer une base de données à partir de l’ensemble des listes nominatives de la population parisienne de 1926, de 1931 et de 1936 dans le cadre du projet POPP. Les 50 000 images, qui avaient déjà été numérisées par les Archives de Paris, ont été traitées par les outils d’apprentissage profond et de reconnaissance optique des caractères développés au LITIS pour créer une première base de données.
Les erreurs de cette première base « brute » étaient déjà très faibles, mais nous avons ensuite, avec l’équipe de sciences humaines et sociales – composée de Victor Gay (École d’économie de Toulouse, Université Toulouse Capitole), Marion Leturcq (Ined), Yoann Doignon (CNRS, Idées), Baptiste Coulmont (ENS Paris-Saclay), Mariia Buidze (CNRS, Progedo), Jean-Luc Pinol (ENS Lyon, Larhra) –, tout de même essayé de corriger au maximum les erreurs de lecture de la machine ou les décalages de colonnes. Ces corrections ont été effectuées de manière automatique, c’est-à-dire qu’elles ont été écrites dans un script informatique permettant leur reproductibilité. Ainsi, nous avons par exemple modifié les professions apparaissant comme « benne » en « bonne » ou bien les « fnène » en « frère ».
Il a ensuite fallu adapter la base à l’analyse statistique. Les listes nominatives n’avaient, en effet, pas pour vocation d’être utilisées pour des traitements statistiques puisque ces derniers avaient été établis directement à partir des bulletins individuels et des feuilles de ménage. Or, l’analyse statistique requiert que les mots signalant la même entité soient inscrits de la même façon. Cette difficulté est exacerbée dans le cas des listes nominatives : les agents avaient peu de place pour écrire, car les colonnes sont étroites. Ils utilisaient donc des abréviations, notamment pour les mots les plus longs comme les départements de naissance ou les professions.
Nous avons dû par conséquent uniformiser la manière d’écrire l’ensemble des professions, des départements ou des pays de naissance, des situations dans le ménage et des prénoms. Pour ce faire, nous nous sommes appuyés sur différents dictionnaires, c’est-à-dire des listes de mots correspondant à la variable traitée provenant de recherches antérieures ou d’autres bases de données. Ainsi, pour corriger les prénoms, Baptiste Coulmont, qui a travaillé sur cette partie de la base a utilisé les bases Insee des prénoms et des personnes décédées. Marion Leturcq et Victor Gay ont, par ailleurs, utilisé les listes des départements français, des colonies et des pays étrangers, tels qu’ils étaient appelés pendant l’entre-deux-guerres, ou encore la nomenclature des professions utilisées par la Statistique générale de la France (SGF).
Enfin, nous avons créé des variables qui manquaient pour l’analyse statistique que nous souhaitions mener, comme la variable « sexe » qui n’existe pas dans les listes nominatives (alors que le renseignement apparaît dans les fiches individuelles), ou encore délimiter les ménages afin d’en comprendre la composition. Ce travail de correction et d’adaptation de la base est encore en cours, car nous travaillons actuellement à l’ajout d’une nomenclature des professions – afin de permettre une analyse par groupes professionnels –, ou encore à la création du système d’information géographique (SIG) de la base pour réaliser la géolocalisation de chaque immeuble dans la ville.
La base POPP ainsi créée a déjà été utilisée à différentes fins. Une partie de la base (comprenant les noms de famille – qui, eux, n’ont pas été corrigés –, les prénoms et les adresses) a été reversée aux Archives de Paris pour permettre la recherche nominative dans les images numérisées des listes nominatives. Ce nouvel outil mis en place au début du mois d’octobre 2025 – et également proposé en consultation au sein de l’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population » – a déjà permis à de nombreuses personnes de retrouver leurs ancêtres.
Il nous a également été possible de fournir les premiers résultats tirés de la base POPP (confrontés aux résultats statistiques des recensements publiés) pour dresser des données de cadrage apparaissant sous forme d’infographies dans l’exposition (créées par Clara Dealberto et Jules Grandin). Ces résultats apparaissent également avec une perspective plus comparative dans une publication intitulée « Paris il y a 100 ans : une population plus nombreuse qu’aujourd’hui et déjà originaire d’ailleurs » (Ined, septembre 2025).
L’heure est maintenant à l’exploitation scientifique de la base POPP par l’équipe du projet dont le but est de dresser le portrait de la population parisienne à partir des données disponibles dans les listes nominatives des recensements de la population, en explorant les structures par sexe et âge, profession, état matrimonial, origine, ou encore la composition des ménages des différents quartiers de la ville.
L’autrice remercie les deux autres commissaires de l’exposition « Les gens de Paris, 1926-1936. Dans le miroir des recensements de population » Valérie Guillaume, directrice du musée Carnavalet – Histoire de Paris, et Hélène Ducaté, chargée de mission scientifique au musée Carnavalet – Histoire de Paris et les Archives de Paris.
Sandra Brée a reçu des financements du CollEx-Persée, de Progedo, de l'humathèque du Campus-Condorcet et du CNRS.
20.11.2025 à 16:15
Jared Bahir Browsh, Assistant Teaching Professor of Critical Sports Studies, University of Colorado Boulder

La séquence de deux notes légendaires, qui fait monter la tension dans « les Dents de la mer », géniale trouvaille du compositeur John Williams, trouve son origine dans la musique classique du début du XXᵉ siècle, mais aussi chez Mickey Mouse et chez Hitchcock.
Depuis les Dents de la mer, deux petites notes qui se suivent et se répètent – mi, fa, mi, fa – sont devenues synonymes de tension, et suscitent dans l’imaginaire collectif la terreur primitive d’être traqué par un prédateur, en l’occurrence un requin sanguinaire.
Il y a cinquante ans, le film à succès de Steven Spielberg – accompagné de sa bande originale composée par John Williams – a convaincu des générations de nageurs de réfléchir à deux fois avant de se jeter à l’eau.
En tant que spécialiste de l’histoire des médias et de la culture populaire, j’ai décidé d’approfondir la question de la longévité de cette séquence de deux notes et j’ai découvert qu’elle était l’héritage direct de la musique classique du XIXe siècle, mais qu’elle a aussi des liens avec Mickey Mouse et le cinéma d’Alfred Hitchcock.
En 1964, le pêcheur Frank Mundus tue un grand requin blanc de deux tonnes au large de Long Island au nord-est des États-Unis.
Après avoir entendu cette histoire, le journaliste indépendant Peter Benchley se met à écrire un roman qui raconte comment trois hommes tentent de capturer un requin mangeur d’hommes, en s’inspirant de Mundus pour créer le personnage de Quint. La maison d’édition Doubleday signe un contrat avec Benchley et, en 1973, les producteurs d’Universal Studios, Richard D. Zanuck et David Brown, achètent les droits cinématographiques du roman avant même sa publication. Spielberg, alors âgé de 26 ans, est engagé pour réaliser le film.
Exploitant les peurs à la fois fantasmées et réelles liées aux grands requins blancs – notamment une série tristement célèbre d’attaques de requins le long de la côte du New Jersey en 1916 –, le roman de Benchley publié en 1974, devient un best-seller. Le livre a joué un rôle clé dans la campagne marketing d’Universal, qui a débuté plusieurs mois avant la sortie du film.
À partir de l’automne 1974, Zanuck, Brown et Benchley participent à plusieurs émissions de radio et de télévision afin de promouvoir simultanément la sortie de l’édition de poche du roman et celle à venir du film. La campagne marketing comprend également une campagne publicitaire nationale à la télévision qui met en avant le thème à deux notes du compositeur émergent John Williams. Le film devait sortir en été, une période qui, à l’époque, était réservée aux films dont les critiques n’étaient pas très élogieuses.
À l’époque, les films étaient généralement distribués petit à petit, après avoir fait l’objet de critiques locales. Cependant, la décision d’Universal de sortir le film dans des centaines de salles à travers le pays, le 20 juin 1975, a généré d’énormes profits, déclenchant une série de quatorze semaines en tête du box-office américain.
Beaucoup considèrent les Dents de la mer comme le premier véritable blockbuster estival. Le film a propulsé Spielberg vers la célébrité et marqué le début d’une longue collaboration entre le réalisateur et Williams, qui allait remporter le deuxième plus grand nombre de nominations aux Oscars de l’histoire, avec 54 nominations, derrière Walt Disney et ses 59 nominations.
Bien qu’elle soit aujourd’hui considérée comme l’une des plus grandes musiques de l’histoire du cinéma, lorsque Williams a proposé son thème à deux notes, Spielberg a d’abord pensé qu’il s’agissait d’une blague.
Mais Williams s’était inspiré de compositeurs des XIXe et XXe siècles, notamment Claude Debussy (1862-1918), Igor Stravinsky (1882-1971) et surtout de la Symphonie n° 9 (1893), d’Antonin Dvorak (1841-1904), dite Symphonie du Nouveau Monde. Dans le thème des Dents de la mer, on peut entendre des échos de la fin de la symphonie de Dvorak, et reconnaître l’emprunt à une autre œuvre musicale, Pierre et le Loup (1936), de Sergueï Prokofiev.
Pierre et le Loup et la bande originale des Dents de la mer sont deux excellents exemples de leitmotivs, c’est-à-dire de morceaux de musique qui représentent un lieu ou un personnage.
Le rythme variable de l’ostinato – un motif musical qui se répète – suscite des émotions et une peur de plus en plus intenses. Ce thème est devenu fondamental lorsque Spielberg et son équipe technique ont dû faire face à des problèmes techniques avec les requins pneumatiques. En raison de ces problèmes, le requin n’apparaît qu’à la 81ᵉ minute du film qui en compte 124. Mais sa présence se fait sentir à travers le thème musical de Williams qui, selon certains experts musicaux, évoque les battements du cœur du requin.
Williams doit également remercier Disney d’avoir révolutionné la musique axée sur les personnages dans les films. Les deux hommes ne partagent pas seulement une vitrine remplie de trophées. Ils ont également compris comment la musique peut intensifier les émotions et amplifier l’action.
Bien que sa carrière ait débuté à l’époque du cinéma muet, Disney est devenu un titan du cinéma, puis des médias, en tirant parti du son pour créer l’une des plus grandes stars de l’histoire des médias, Mickey Mouse.
Lorsque Disney vit le Chanteur de jazz en 1927, il comprit que le son serait l’avenir du cinéma.
Le 18 novembre 1928, Steamboat Willie fut présenté en avant-première au Colony Theater d’Universal à New York. Il s’agissait du premier film d’animation de Disney à intégrer un son synchronisé avec les images.
Contrairement aux précédentes tentatives d’introduction du son dans les films en utilisant des tourne-disques ou en faisant jouer des musiciens en direct dans la salle, Disney a utilisé une technologie qui permettait d’enregistrer le son directement sur la bobine de film. Ce n’était pas le premier film d’animation avec son synchronisé, mais il s’agissait d’une amélioration technique par rapport aux tentatives précédentes, et Steamboat Willie est devenu un succès international, lançant la carrière de Mickey et celle de Disney.
L’utilisation de la musique ou du son pour accompagner le rythme des personnages à l’écran fut baptisée « mickeymousing ».
En 1933, King Kong utilisait habilement le mickeymousing dans un film d’action réelle, avec une musique calquée sur les états d’âme du gorille géant. Par exemple, dans une scène, Kong emporte Ann Darrow, interprétée par l’actrice Fay Wray. Le compositeur Max Steiner utilise des tonalités plus légères pour traduire la curiosité de Kong lorsqu’il tient Ann, suivies de tonalités plus rapides et inquiétantes lorsque Ann s’échappe et que Kong la poursuit. Ce faisant, Steiner encourage les spectateurs à la fois à craindre et à s’identifier à la bête tout au long du film, les aidant ainsi à suspendre leur incrédulité et à entrer dans un monde fantastique.
Le mickeymousing a perdu de sa popularité après la Seconde Guerre mondiale. De nombreux cinéastes le considéraient comme enfantin et trop simpliste pour une industrie cinématographique en pleine évolution et en plein essor.
Malgré ces critiques, cette technique a tout de même été utilisée pour accompagner certaines scènes emblématiques, avec, par exemple, les violons frénétiques qui accompagne la scène de la douche dans Psychose (1960), d’Alfred Hitchcock, dans laquelle Marion Crane se fait poignarder.
Spielberg idolâtrait Hitchcock. Le jeune Spielberg a même été expulsé des studios Universal après s’y être faufilé pour assister au tournage du Rideau déchiré, en 1966.
Bien qu’Hitchcock et Spielberg ne se soient jamais rencontrés, les Dents de la mer sont sous l’influence d’Hitchcock, le « maître du suspense ». C’est peut-être pour cette raison que Spielberg a finalement surmonté ses doutes quant à l’utilisation d’un élément aussi simple pour représenter la tension dans un thriller.
L’utilisation du motif à deux notes a ainsi permis à Spielberg de surmonter les problèmes de production rencontrés lors de la réalisation du premier long métrage tourné en mer. Le dysfonctionnement du requin animatronique a contraint Spielberg à exploiter le thème minimaliste de Williams pour suggérer la présence inquiétante du requin, malgré les apparitions limitées de la star prédatrice.
Au cours de sa carrière légendaire, Williams a utilisé un motif sonore similaire pour certains personnages de Star Wars. Chaque fois que Dark Vador apparaissait, la « Marche impériale » était jouée pour mieux souligner la présence du chef du côté obscur.
Alors que les budgets des films avoisinent désormais un demi-milliard de dollars (plus de 434 millions d’euros), le thème des Dents de la mer – comme la façon dont ces deux notes suscitent la tension – nous rappelle que dans le cinéma, parfois, le minimalisme peut faire des merveilles.
Jared Bahir Browsh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.11.2025 à 16:24
Cécile Anger, Docteur en droit des marques culturelles, Université Paris 1 Panthéon-Sorbonne
Le patrimoine culturel, les musées et monuments jouent un rôle prépondérant dans les motivations des touristes qui visitent la France. Mais ce patrimoine est aussi, dans sa dimension immatérielle, un vecteur d’expertise valorisée au-delà de nos frontières.
Première destination touristique mondiale, la France a attiré 100 millions de visiteurs internationaux en 2024.
L’intérêt porté aux musées et monuments, dans leur composante matérielle – en tant que lieux qui se visitent – se mesure aussi dans leur composante immatérielle. L’apport du patrimoine culturel à l’économie se traduit par l’accueil de touristes se rendant en France, mais aussi à travers l’exportation des institutions culturelles hors des frontières françaises.
C’est précisément en raison de son patrimoine culturel que la France est arrivée en tête du classement annuel Soft Power 30 en 2017 et en 2019.
De nombreux rapports publics ont investi cette question, percevant les musées ou monuments comme détenteurs d’actifs immatériels susceptibles d’être valorisés à l’international.
Dès 2006, les auteurs du rapport remis à Bercy sur l’économie de l’immatériel écrivaient : « Aujourd’hui, la véritable richesse n’est pas concrète, elle est abstraite. » Au capital matériel a succédé le capital immatériel, le capital des talents, de la connaissance et du savoir. Ce rapport invitait les acteurs français à miser davantage sur leur capital intangible, gisement devenu stratégique pour rester compétitif. Identifiant trois atouts immatériels culturels – le nom des établissements culturels, leur image et leur expertise –, Maurice Lévy et Jean-Pierre Jouyet recommandaient d’engager une transition vers leur valorisation.
Un rapport spécifique a ainsi été commandé en 2014 par le ministère de la culture au haut fonctionnaire Jean Musitelli, « La valorisation de l’expertise patrimoniale à l’international ». En 2019, la Cour des comptes se penchait sur la valorisation internationale de l’ingénierie et des marques culturelles.
Plus récemment, en 2023, le Sénat a publié un rapport d’information réalisé par les parlementaires Else Joseph et Catherine Morin-Desailly sur l’expertise patrimoniale internationale française, faisant état d’un savoir-faire complet, ancien et reconnu, la qualité scientifique de l’expertise française étant établie « sur l’ensemble du champ patrimonial ».
La notion d’expertise renvoie à des connaissances ou compétences qui ne sont juridiquement pas protégées par brevet et qui permettent la création de produits ou services. L’expertise peut faire l’objet d’une transmission dans le cadre d’une transaction, son transfert se matérialisant par des missions de conseil ou de formation.
Les musées regorgent d’une variété de métiers et savoir-faire liés aux activités exercées par les professionnels y travaillant. Véritable « conservatoire de talents », ils détiennent une expertise technique particulièrement qualifiée et recherchée.
Constitué en interne en 2014, le département Louvre conseil a la charge de valoriser l’expertise des équipes du musée. Cette expertise porte sur les collections, les publics mais aussi sur le management. La brochure présentant l’ingénierie patrimoniale du Centre Pompidou énumère la liste des prestations possibles dans la création et la gestion d’espaces culturels : conseil en muséographie, en médiation… mais aussi accompagnement sur le plan administratif.
Les savoir-faire patrimoniaux français ont bénéficié d’une large couverture médiatique lors du chantier de restauration de Notre-Dame. Les sénatrices à l’origine du rapport précité jugeaient judicieux de profiter de la grande visibilité du chantier – servant ainsi de vitrine des métiers d’art français – pour « valoriser l’ensemble des savoir-faire qui ont collaboré à cette entreprise (archéologues, artisans d’art, architectes, maîtres d’ouvrage, restaurateurs, facteurs d’instruments…) ».
Les pays émergents sont les principaux demandeurs de cette expertise, le patrimoine étant perçu comme un levier d’attractivité et suscitant ainsi un intérêt croissant. Faute de compétences suffisantes pour construire, agencer et gérer des musées, ils font appel à des institutions disposant de cette expérience. Les pays du Moyen-Orient, d’Asie et d’Afrique constituent « les marchés les plus prometteurs » sur ce plan.
Le rapport du Sénat considère que la France possède de sérieux atouts pour prendre part à ce marché :
« Il est clair que la réputation de ses savoir-faire et la renommée de certains de ses établissements au niveau mondial, qu’il s’agisse du Louvre, du château de Versailles ou du Mont Saint-Michel, contribuent à asseoir sa position sur le plan international. »
Les grands accords internationaux s’accompagnent fréquemment d’un élément complémentaire à l’expertise : la marque des institutions culturelles.
Le Louvre Abou Dhabi incarne cette pluralité. Signé en 2007 entre la France et les Émirats arabes unis, l’accord prévoyait la création d’un musée constitué avec l’expertise des équipes muséales françaises et portant le nom du Louvre. Plusieurs volets composent cet accord : l’accompagnement en ingénierie, le prêt d’œuvres des collections françaises (plusieurs musées étant parties prenantes) ainsi que le prêt du nom du Louvre à travers un contrat de licence de marque.
Il en va de même dans l’expérience du Centre Pompidou, qui valorise tant ses savoir-faire que sa marque, celle-ci étant apposée sur le devant des nouveaux musées, dont les façades s’ornent ainsi du sceau de l’institution française. Présent sur tous les continents, il a collaboré en Europe avec la ville de Malaga (Espagne) et la Fondation bruxelloise Kanal. En Asie, il s’est associé avec la société d’aménagement West Bund pour accompagner la création d’un musée à Shanghai (Chine). Son action se mesure aussi en Amérique du Sud (Brésil) et dans les pays du Golfe (Arabie saoudite).
On notera cependant que la valorisation de la marque, a fortiori dans un contexte international, n’a de sens que pour des institutions notoires. Si l’expertise des musées français peut relever tant d’institutions nationales que de structures territoriales, le rayonnement de la marque semble limité aux grands musées, qualifiés par certains auteurs, dont l’économiste Bruno S. Frey, de « superstar » en raison de leur statut et de leur aura.
L’affirmation constante de la nécessité de valoriser l’expertise et les marques culturelles peut être vue comme l’application de la théorie de l’avantage comparatif développée par l’économiste britannique David Ricardo au XIXe siècle. Selon cette théorie, « chaque nation a intérêt à se spécialiser dans la production où elle possède l’avantage le plus élevé comparativement aux autres ». Aussi s’agit-il de « concentrer ses efforts à l’export sur des secteurs où le pays possède de réels avantages comparatifs ».
Il convient toutefois de nuancer ce postulat, car si la France possède assurément des marques fortes et une expertise patrimoniale reconnue, elle n’est pas la seule à en disposer ni à les proposer sur la scène internationale, ce marché étant concurrentiel et, au demeurant, occupé par d’autres États « également bien positionnés », notamment le Royaume-Uni, l’Allemagne ou l’Italie.
Les marques muséales américaines s’exportent également. D’aucuns auront en tête l’exemple très connu du Guggenheim, à l’origine même du concept de « marque muséale », au sens de « brand » et de « trademark », c’est-à-dire un outil de développement économique et d’expansion internationale. Le Guggenheim de Bilbao (Espagne) en témoigne : la fondation new-yorkaise a cédé le droit d’usage de son nom et perçu, en échange, 20 millions de dollars (17,2 millions d'euros) de royalties pour l’usage de sa marque.
Le Museum of Modern Art de New York (MoMA) valorise aussi son nom et son expertise. Il a, par exemple, exporté son concept de boutique de design hors des frontières américaines, avec l’implantation de deux MoMA Design Stores au Japon, à Tokyo et à Kyoto.
On rappellera qu’historiquement, les musées apportaient leur savoir-faire dans une logique, non pas de valorisation mais de solidarité avec d’autres pays. C’est le cas des chantiers de fouilles archéologiques relevant avant tout d’une logique de coopération. La valorisation économique des savoir-faire est un phénomène nouveau, dont l’émergence s’explique par une demande croissante d’ingénierie culturelle émanant de certains pays mais aussi par le contexte budgétaire.
Ce désir de valorisation ne saurait être appréhendé indépendamment du contexte économique contemporain. Il s’agit également de favoriser le développement de ressources propres, venant abonder les budgets, de plus en plus tendus, des institutions culturelles. Les subsides publics n’étant pas mirifiques, les musées doivent répondre à l’impérieuse nécessité de diversifier leurs sources de financement.
Le Centre Pompidou perçoit entre 14 millions et 16 millions d’euros par an au titre de ses partenariats internationaux. S’agissant de l’exemple emblématique du Louvre Abou Dhabi, le montant total de l’accord s’élève à 1 milliard d’euros, la valorisation de la marque « Louvre » représentant 400 millions d’euros.
Ces redevances de licence de marque et d’ingénierie culturelle viennent compléter les ressources propres des établissements, rejoignant ainsi d’autres recettes, parmi lesquelles le mécénat, la location d’espaces, la vente de produits en boutique…
Face au constat d’un intérêt marqué de la part de pays émergents auprès de musées européens et états-uniens pour construire une offre culturelle, se pose la question de la construction de cette offre et de la confrontation de regards différents.
Ainsi que le relève la juriste Marie Maunand :
« Le développement des échanges internationaux dans le domaine patrimonial induit une dynamique de transfert d’expertise des pays du Nord – pays développés à économie de marché – vers des pays dits du Sud – qui sont soit émergents soit moins avancés – qui pourrait contribuer à la diffusion d’un modèle culturel unique. »
La diversité doit être au cœur de ces accords afin d’éviter toute forme de standardisation. Une approche pragmatique adaptée au contexte local, propre à celui qui est demandeur de l’expertise, s’avère primordiale.
Un transfert de savoir-faire suppose une transmission d’informations ou de compétences. En dépit de la nature commerciale de ces partenariats, il ne saurait s’agir d’un discours simplement descendant de la part de l’expert ou du « sachant » vers son partenaire, mais bien d’un échange favorisant la rencontre de points de vue variés. Dans ce sens, Émilie Girard, présidente d’ICOM France observe un « changement de paradigme et de posture dans le mode de construction d’une expertise plus tournée vers le dialogue ».
Mentionnant la mise en œuvre du partenariat avec les Émiriens, Laurence des Cars, présidente-directrice générale du Louvre, évoque la question de la médiation et de l’explication des œuvres, et, dans le cadre de cet échange entre la France et les Émirats arabes unis, de « l’altérité culturelle » et des manières permettant aux différents publics de partager des œuvres d’art en l’absence de références culturelles ou religieuses communes.
En 2015, le rapport livré par Jean Musitelli cité par Marie Maunand relevait :
« La valorisation dans le contexte de la mondialisation doit […] concourir à la diversification des expressions culturelles […] en se montrant attentif aux attentes et aux besoins des partenaires et en ajustant l’offre aux réalités et traditions locales, [avec] […] des alternatives au modèle standard tel qu’il est véhiculé par la globalisation. »
C’est aussi un rôle que souhaitent allouer à l’expertise française les autrices du rapport de la mission sénatoriale d’information.
Si sa valorisation procède pour partie d’une démarche économique, elle est aussi le reflet d’enjeux diplomatiques, dont l’objectif est de renforcer le rayonnement et l’influence de la France sur la scène internationale. Else Joseph, sénatrice des Ardennes, notait ainsi :
« Ces dernières années, combien l’influence de la France est, si ce n’est en recul, du moins de plus en plus contestée et fragilisée. C’est particulièrement vrai dans les instances internationales en matière culturelle, à l’instar de l’Unesco, où les pays occidentaux se voient régulièrement reprocher une attitude néocoloniale. »
En vue d’y apporter une réponse, la parlementaire suggérait de « tirer parti de la solide expertise de la France dans le domaine patrimonial pour maintenir notre capacité d’influence ».
En ce sens, l’expertise et les marques culturelles sont assurément une incarnation du soft power de la France, qu’il importe autant de valoriser que de préserver.
Cécile Anger a soutenu sa thèse de doctorat en 2024 à l'Université Paris 1 Panthéon-Sorbonne. Elle est depuis jeune docteure associée à l'Ecole de Droit de la Sorbonne. Son domaine de recherche porte sur les marques culturelles ainsi que la protection et la valorisation de l'image des œuvres d'art, musées et monuments. Elle a commencé sa carrière au musée de Cluny, puis occupé le poste de Cheffe du service marque et mécénat au Domaine national de Chambord avant de rejoindre l'équipe de l'Établissement public du Mont Saint-Michel.
19.11.2025 à 11:52
Éric Anceau, Professeur d'histoire contemporaine, Université de Lorraine

La connaissance du passé évolue au fil des recherches. Du big data à l’archéologie préventive, la palette d’outils à disposition de l’historien s’enrichit. Et on s’intéresse aujourd’hui à des sujets longtemps restés sous silence, comme l’environnement ou le genre. Regard sur cette nouvelle approche de l’histoire.
L’histoire de France est un inépuisable sujet de discussion pour les personnalités politiques de tous bords, les médias, les Français et les étrangers qui observent les querelles qui agitent notre pays autour de son passé avec un mélange d’admiration, d’amusement et d’agacement. Les représentations qui en ont été proposées lors de la cérémonie des Jeux olympiques de Paris, à l’été 2024, ont ainsi fait couler beaucoup d’encre.
De fait, la connaissance du passé progresse au fil des recherches. Le contexte de naguère n’est plus celui d’aujourd’hui et les interprétations de l’histoire s’entrechoquent. On ne peut ainsi pas parler du passé colonial de la France en 2025 comme on le faisait au « temps béni des colonies », pour reprendre le titre de la chanson ironique et critique, en 1976, de Michel Sardou, Pierre Delanoë et Jacques Revaux – pour ne donner que cet exemple.
C’est pourquoi nous avons entrepris avec une centaine de spécialistes une Nouvelle Histoire de France. Publiée en octobre 2025 aux éditions Passés composés, cette somme de 340 éclairages, des Francs à la crise actuelle de la Ve République, de Vercingétorix à Simone Veil, tient compte des renouvellements de la discipline. Explications.
Non seulement la France a été au cœur de la plupart des principaux événements qui ont scandé l’histoire mondiale des derniers siècles, mais elle a également été en proie à des clivages politiques, religieux et idéologiques majeurs : les catholiques face aux protestants, les républicains contre les monarchistes ou encore la droite face à la gauche.
Ce passé, long, riche et tumultueux, n’a cessé d’être instrumentalisé. À partir du XIXe siècle, et plus particulièrement de la IIIe République, a dominé un « roman national » qui présentait la France sans nuances, puissante et rayonnante, et faisait de tous ces affrontements un préalable douloureux mais nécessaire à un avenir radieux.
À partir des années 1970, cette histoire a commencé à être déconstruite par le postmodernisme soucieux de rompre avec la modernité née pendant les Lumières, de libérer la pensée et de délivrer l’individu du passé pour l’inscrire pleinement dans le présent, en fustigeant les grands récits historiques.
Cette approche a été salutaire car elle a fait réfléchir, a remis en cause de fausses évidences et a fait progresser notre connaissance. Ainsi, pour reprendre le cas de l’histoire coloniale, Edward Saïd (1935-2003) a-t-il souligné, dans l’Orientalisme. L’Orient créé par l’Occident (1978, 1980 pour l’édition française), ce que le regard occidental porté sur l’Orient et sur les colonisés avait pu avoir de biaisé, voire de méprisant, même s’il a pu pécher lui-même par réductionnisme et caricature pour défendre sa thèse.
Et certains déconstructeurs en sont venus à noircir systématiquement l’histoire de France, comme le fit par exemple Claude Ribbe avec son Crime de Napoléon (2005) comparant l’esclavage et la traite négrière à la Shoah et Napoléon à Hitler.
Cependant, d’autres ont rapidement profité de ces derniers excès pour proposer de nouveau un roman national qui a pu prendre un tour essentialiste. Il existe pourtant et évidemment une voie entre la fierté aveugle des uns et la passion destructrice des autres.
De la fin des années 2000 au milieu de la décennie suivante, trois grandes entreprises collectives ont contribué à explorer une autre voie, à distance des interprétations partisanes.
À partir de 2009, Joël Cornette a ainsi dirigé, pour l’éditeur Belin, une Histoire de France en plus de dix volumes et 10 000 pages, faisant la part belle aux sources et aux illustrations. Claude Gauvard a pris peu après la tête d’une Histoire personnelle de la France en six volumes aux Presses universitaires de France, avant que Patrick Boucheron et un autre collectif ne publient, en 2017, aux éditions du Seuil, une Histoire mondiale de la France autour d’événements destinés à faire réfléchir.
Ces trois histoires proposaient un récit chronologique et s’appuyaient sur des spécialistes reconnus pour essayer de recentrer un pendule de l’histoire qui avait sans nul doute trop oscillé. Il nous est cependant apparu qu’il y avait nécessité de proposer un autre projet de grande ampleur, une Nouvelle Histoire de France. Nous avons emprunté cette même voie médiane, en rassemblant d’ailleurs plusieurs des autrices et auteurs qui avaient participé aux entreprises précédentes, mais en procédant aussi différemment, sous forme encyclopédique et chronologico-thématique.
Pierre Nora (1931-2025) qui avait dirigé une somme pionnière au milieu des années 1980, les Lieux de mémoire, nous disait au début du processus éditorial, en 2023, que le temps était sans doute venu d’ouvrir un troisième moment historiographique, celui d’une histoire soustraite à la fausse modernité qui conduit à ne lire le passé qu’avec des schémas actuels de pensée, celui d’une histoire renonçant au nouveau mantra qui rend l’Occident coupable de tous les maux et qui pare le reste du monde de toutes les vertus par un excès symétrique à celui par lequel le premier s’est longtemps pris pour le phare de la planète renvoyant le second à sa supposée arriération, celui enfin d’une histoire extraite du cadre étroit de notre hexagone pour montrer ce que la France doit au monde mais aussi ce qu’elle lui a apporté, dans un incessant mouvement de circulation à double sens, à la fois humain, matériel et immatériel.
Avec cette Nouvelle Histoire de France, il s’agit de renoncer aux effets de mode, d’accorder toute leur place aux incontournables – les personnalités, les faits marquants, les œuvres majeures – sans omettre aucun des renouvellements majeurs de ces dernières années. La discipline a évolué en effet tant dans les objets (histoire impériale et coloniale, histoire des voix oubliées et des marges négligées, histoire du genre et des femmes, histoire environnementale…), que dans les méthodes (archéologie préventive, prosopographie, approche par le bas, jeu sur les échelles, big data…).
Parmi les nouveaux sujets historiques, l’environnement est très certainement l’un de ceux qui ont pris le plus de place dans la recherche en raison de la dégradation accélérée de la planète due au double processus de marchandisation du monde
– porté par un imaginaire économique de croissance infinie – et d’artificialisation de la planète – reposant sur un imaginaire technoscientifique prométhéen – qui se développe depuis la fin du XVIIIe siècle. En mettant en avant ces alertes précoces et les alternatives proposées dans le passé, l’histoire environnementale est porteuse de sens pour l’avenir et c’est pourquoi nous voulions lui accorder une grande place en confiant à Charles-François Mathis, son chef de file en France, le soin de l’aborder.
Quant aux méthodes nouvelles à disposition de l’historien, il nous faut dire un mot, là encore à titre d’exemple, de l’archéologie préventive. Celle-ci a commencé à se développer en France à partir des années 1970, avec l’ambition de préserver et d’étudier les éléments significatifs du patrimoine archéologique français menacés par les travaux d’aménagement et les projets immobiliers. Elle a permis de mieux comprendre l’héritage gaulois de la France et ses limites. Et qui mieux que Dominique Garcia, grand spécialiste de la Gaule préromaine et directeur de l’Institut national de la recherche archéologique préventive (Inrap) pour traiter le chapitre « Gaulois » de notre ouvrage ?
En outre, l’histoire n’est pas une discipline isolée mais elle s’enrichit du dialogue avec les autres sciences humaines et sociales et c’est dans cet esprit que nous avons aussi fait appel à 17 auteurs et autrices de 14 autres disciplines, habitués à travailler en profondeur historique : le géographe Jean-Robert Pitte, le spécialiste de la littérature française Robert Kopp, l’historienne de l’art Anne Pingeot, le philosophe Marcel Gauchet… Tous ont accepté de mettre leur savoir à la portée du plus grand nombre au prix d’un effort de synthèse et de vulgarisation.
C’est à ce prix que cette histoire en 100 chapitres, 340 éclairages et 1 100 pages se veut renouvelée et tout à la fois érudite et vivante, encyclopédique et ludique, dépassionnée… mais passionnante !
Éric Anceau a dirigé la « Nouvelle histoire de France » publiée aux éditions Passés composés.
18.11.2025 à 16:17
Arthur Champéroux, Doctorant en droit à la protection des données à caractère personnel, Université Paris-Saclay; Université Laval

L’addiction aux jeux vidéo est un trouble comportemental dont la reconnaissance scientifique et juridique divise les experts. Or, les éditeurs de jeu collectent les données des joueurs potentiellement concernés. En l’absence de consensus scientifique sur la question de ce type de dépendance, qu’en est-il de la protection juridique des gameurs ?
L’addiction se définit comme la perte de contrôle d’un objet qui était à l’origine une source de gratification pour l’usager. De nombreuses études scientifiques ont tenté d’établir des liens entre l’utilisation d’écrans et une forme de dépendance chronique assimilable à de l’addiction.
Par conséquent, cette question s’est imposée logiquement dans les discussions et expériences scientifiques. Le trouble du jeu vidéo (gaming disorder) est un trouble du comportement reconnu par l’Organisation mondiale de la santé (OMS) depuis 2018 (CIM-11), mais aussi par l’American Psychiatric Association depuis 2013 (DSM-5-TR). Ces deux classifications reposent sur une série de symptômes dont la combinaison tend à indiquer une forme d’addiction aux jeux vidéo. Toutefois, la communauté scientifique est divisée sur sa reconnaissance en tant que pathologie.
Ce constat appelle à l’approfondissement des études sur le sujet. Toutefois, avant le stade « pathologique », il est possible de considérer plusieurs niveaux de gravité de l’addiction, qui traduisent déjà des formes de dépendance aux jeux vidéo.
En effet, les formes les plus graves d’addiction concerneraient de 0,5 % à 4 % des joueurs, tandis que d’autres études montrent que la consommation problématique des jeux vidéo est bien plus répandue, avec 44,7 % des personnes présentant des difficultés avec la consommation des écrans.
La première conséquence de cette addiction est la perte de contrôle du temps de jeu, d’ailleurs accrue pour les joueurs de moins de 18 ans, dont le lobe frontal responsable de l’autocontrôle est en cours de formation. Néanmoins, les formes d’addiction aux jeux vidéo représentent aussi une opportunité pour l’industrie du jeu vidéo à travers la mise en place d’une économie de l’attention très lucrative.
Sa logique est la création de services en ligne conçus pour retenir l’utilisateur et collecter le maximum de données liées à l’activité du joueur pour effectuer de la publicité comportementale. L’industrie du jeu vidéo s’est d’ailleurs particulièrement démarquée dans son expertise pour la collecte de données des joueurs, d’un côté, et, d’un autre côté, pour sa maîtrise des mécaniques de jeu (game pattern) afin de susciter l’engagement des joueurs.
Certains industriels, eux-mêmes, avertissent des dangers de la « weaponized addiction », lorsque la tendance à l’addiction est instrumentalisée au profit de l’optimisation du ciblage publicitaire. À l’inverse, d’autres experts rejettent en bloc la vision d’un rôle joué par l’industrie dans l’addiction des joueurs, malgré les nombreuses critiques de la recherche en science de l’information et les dérives documentées périodiquement.
Par ricochet, l’absence de consensus scientifique impacte les systèmes juridiques qui éprouvent des difficultés à protéger les joueurs concernés. Concrètement, les juridictions nationales peinent à reconnaître l’addiction comme source de préjudice pour les joueurs.
Récemment, les exemples se multiplient avec des contentieux autour du jeu Fortnite d’Epic Games au Canada et aux États-Unis lui reprochant de n’avoir pas assez protégé les données personnelles des enfants, mais aussi des pratiques commerciales trompeuses où l’addiction a été soulevée par les associations de joueurs.
De même, des plaintes ont été déposées contre la plate-forme de jeux vidéos Roblox de Google, mais aussi contre le jeu Call of Duty d’Activision aux États-Unis, qui se sont globalement soldées par des refus des juridictions, soit de recevoir les plaintes, soit de reconnaître la responsabilité des éditeurs de jeux vidéo vis-à-vis des designs addictifs.
En France, la question ne s’est pas spécialement judiciarisée, toutefois, le législateur a adopté des mesures de pédagogie à travers la loi visant à sécuriser et à réguler l'espace numérique dite loi SREN du 21 mai 2024 qui amende l’article L. 611-8 du Code de l’éducation en ajoutant une formation à la « sensibilisation aux addictions comportementales au numérique » dans l’enseignement supérieur.
L’autorité de protection des données personnelles en France (CNIL) a d’ailleurs consacré une série de travaux de recherche à la question de l’économie des données dans le jeu vidéo.
Malgré les efforts d’adaptation des systèmes juridiques, la position de vulnérabilité psychologique des personnes addictes aux jeux vidéo appelle à une prise en compte plus conséquente.
Considérant les liens entre l’économie de la donnée et l’instrumentalisation potentielle de l’addiction des joueurs, il est nécessaire de considérer l’encadrement de cette activité sous l’angle du droit à la protection des données à caractère personnel. Celui-ci, dans l’Union européenne, peut protéger les joueurs de deux façons : en encadrant l’utilisation des données personnelles qui servent à identifier les joueurs addictes, et en instaurant une limitation spécifique de la publicité comportementale par les dispositions relatives aux traitements automatisés.
En pratique, le temps de jeu, la fréquence et le caractère compulsif des achats sont des données couramment utilisées par l’industrie pour identifier les habitudes de consommation des joueurs. D’ailleurs, les joueurs les plus dépensiers sont communément surnommés les « baleines », comme dans le monde du casino.
L’utilisation de ces données est strictement encadrée, soit en tant que données sensibles si ces données sont relatives à la condition médicale de la personne au stade de la pathologie, ce qui demeure peu probable, soit en tant que donnée personnelle comportementale. Si ces données sont sensibles, l’éditeur du jeu vidéo doit demander l’autorisation explicite au joueur d’utiliser ces données.
Si ces données ne sont pas sensibles, l’utilisation de ces données reste bien encadrée, puisque l’éditeur doit tout de même justifier de la finalité du traitement et d’une base légale, c’est-à-dire présenter un fondement juridique (exécution du contrat, intérêt légitime qui prévaut sur les intérêts du joueur, ou consentement du joueur). À noter que la publicité comportementale semble n’être autorisée que sur la base du consentement du joueur.
En Union européenne, le Règlement général à la protection des données (RGPD) encadre les traitements automatisés qui sont au cœur du fonctionnement de la publicité comportementale. Pour résumer, la loi garantit que le joueur puisse refuser le traitement de ses données personnelles pour de la prospection commerciale. Cette garantie est constitutive de la liberté de choix du joueur. De plus, le nouveau Règlement européen des services numériques (ou Digital Services Act, DSA) interdit la publicité comportementale auprès des enfants joueurs.
Néanmoins, de nombreux jeux ne sont pas encore en conformité avec ces règles, malgré les efforts des autorités de protection européennes. Finalement, le poids du respect des droits du joueur à refuser cette forme de surveillance commerciale repose encore sur le joueur lui-même, qui doit rester vigilant sur l’utilisation de ces données.
Ce constat est problématique, notamment lorsque l’on considère la vulnérabilité des joueurs dans leur prise de décision sur l’utilisation de leurs données, notamment lorsqu’ils souffrent de troubles addictifs du jeu vidéo.
Cependant, la possibilité récente de recours collectifs pour les préjudices liés à la violation du RGPD, comme l'énonce l’article 80, pourrait ouvrir la voie à un contrôle des données personnelles par les communautés de joueurs et un rééquilibrage des forces en présence. Les développements jurisprudentiels sont attendus par les associations de joueurs, les autorités de protection des données et l’industrie avec impatience.
Arthur Champéroux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.11.2025 à 16:16
Guergana Guintcheva, Professeur de Marketing, EDHEC Business School
Bertrand Monnet, Professeur, EDHEC Business School
Certaines caractéristiques du marché de l’art, à commencer par la pratique de l’anonymat, le rendent attractif pour les activités de blanchiment. Comment s’en protège-t-il ? Ces outils sont-ils adaptés à l’objectif poursuivi ? Comment mieux faire ?
En 2024, le marché mondial de l’art a atteint 57,5 milliards de dollars (soit 49,5 milliards d’euros) selon l’étude The Art Basel and UBS Global Art Market, illustrant sa solidité en tant qu’actif. Mais si l’art est traditionnellement lié à des motivations nobles, telles que le goût du beau et la transmission, sa relation avec le crime organisé mérite également d’être explorée.
C’est ce que nous avons tenté de faire dans un récent travail de recherche dans lequel nous analysons les ressorts du blanchiment, les nouvelles fragilités du marché de l’art (via sa transformation numérique notamment) et les solutions qui existent face à ce fléau.
Il est estimé qu’entre 2 % et 5 % du PIB mondial est blanchi chaque année. Le blanchiment d’argent par le biais des œuvres d’art ne constitue qu’un exemple parmi d’autres. Cependant, l’industrie de l’art se distingue par son manque de transparence et ses mécanismes subjectifs d’évaluation de la valeur des œuvres (étroitement liés à la spéculation), ce qui en fait l’un des marchés les moins régulés en matière de lutte contre le blanchiment. Après la drogue et les armes, le trafic d’œuvres d’art est ainsi la source de financement la plus lucrative pour les activités illégales.
Ainsi, par exemple, en 2007, une affaire concernant un tableau de Jean-Michel Basquiat a illustré la difficulté à estimer le prix d’une œuvre d’art. Franchissant la douane avec une facture mentionnant une valeur de 100 dollars (82 euros), ce tableau valait en réalité 8 millions (6,8 millions d’euros). Derrière cette opération se trouvait une opération de blanchiment d’argent menée par un ancien banquier brésilien. Cette affaire révèle la façon dont le marché de l’art, de par ses caractéristiques mêmes, peut se retrouver au cœur d’activités illicites.
À lire aussi : Comment les trafiquants de cocaïne blanchissent l’argent des cartels
Le blanchiment d’argent consiste à dissimuler l’origine de fonds acquis illégalement pour les convertir en sources légitimes. Son objectif est donc de transformer de l’« argent sale », qui ne peut être utilisé ouvertement, en argent propre pouvant circuler librement dans l’économie légale. En ce sens, pour l’art, les organisations criminelles s’appuient sur une mécanique bien rodée, comme celle utilisée par exemple par les narcotrafiquants mexicains pour la filière du fentanyl.
L’art peut jouer deux rôles distincts dans les activités criminelles. Premièrement, avec la production de faux et la vente d’œuvres d’art volées comme sources directes de revenus illicites ; deuxièmement, en tant qu’instrument dans le processus de blanchiment via l’achat et la revente d’œuvres authentiques.
Le processus de blanchiment d’argent se déroule en trois phases : le placement, l’empilement et l’intégration.
L’empilement vise à transférer l’argent placé vers d’autres comptes bancaires pour dissimuler ses traces. Le marché de l’art présente un intérêt supplémentaire dans cette étape du blanchiment d’argent, en raison de la spéculation sur certains types d’œuvres d’art ainsi que des ventes aux enchères, qui peuvent faire grimper de manière irrationnelle le prix des œuvres. Cela permet aux criminels d’investir des sommes considérables dans un nombre limité de transactions sans attirer l’attention.
Enfin, l’intégration consiste à investir l’argent blanchi dans divers actifs légaux grâce à des sociétés-écrans.
À de nombreux égards, le marché de l’art est vulnérable aux activités criminelles. Ces vulnérabilités sont particulièrement prononcées dans les domaines où l’opacité et l’anonymat sont courants, comme, par exemple, les ventes privées dans les maisons de vente, les transactions numériques impliquant des paiements en cryptomonnaie et l’utilisation de ports francs pour le stockage et le transfert.
Le premier point de contact dans la chaîne de valeur en termes d’activités illicites est la production de contrefaçons ou la vente d’œuvres volées, qui génèrent des fonds destinés à être blanchis. Par exemple, une opération européenne majeure menée en 2024, impliquant l’Espagne, la France, l’Italie et la Belgique, a conduit à la saisie de plus de 2 000 œuvres d’art contemporain contrefaites, pour un préjudice économique estimé à 200 millions d’euros.
Un deuxième moment vulnérable survient lorsque les œuvres d’art sont acheminées par le biais de plateformes de vente (galeries, foires…). Cette étape est particulièrement délicate dans le contexte des ventes privées, où la provenance et l’identité du vendeur sont rarement divulguées. Cette opacité offre aux criminels d’importantes possibilités de blanchir de l’argent en dissimulant l’origine et l’historique de propriété de l’œuvre.
Enfin, tout au bout de la chaîne de valeur, les sociétés-écrans sont souvent utilisées pour acheter des œuvres d’art, dissimulant ainsi le véritable bénéficiaire et rendant difficile pour les autorités de retracer l’origine des fonds.
L’environnement réglementaire qui encadre le marché de l’art a récemment évolué vers des normes plus exigeantes.
Au sein de l’Union européenne, la sixième directive anti-blanchiment de 2021 a étendu les obligations en matière de lutte contre le blanchiment d’argent aux professionnels du marché de l’art. Elle impose à ces derniers de procéder à une vérification de l’identité des clients et d’adopter un suivi pour les transactions dépassant 10 000 euros.
Au niveau des États, des mesures nationales ont renforcé les sanctions antiblanchiment d’argent sur le marché de l’art. Par exemple, aux États-Unis, la loi sur l’intégrité du marché de l’art (Art Market Integrity Act) de 2025 vise à imposer au secteur de l’art des obligations spécifiques en matière de lutte contre le blanchiment d’argent, de vérification de l’identité des clients, de surveillance des transactions supérieures à 10 000 dollars, de conservation de registres détaillés et de signalement des activités suspectes au Trésor américain.
Enfin, les musées ont également un rôle à jouer, notamment en sensibilisant le grand public. Par exemple, en 2024, plus de 80 œuvres d’art liées au crime organisé (incluant des pièces de Salvador Dali et d’Andy Warhol) ont été exposées à Milan pour sensibiliser le public à la problématique du trafic international d’œuvres d’art.
Par sa complexité et son opacité, le marché de l’art est un terreau propice aux activités de blanchiment d’argent. Si les récentes avancées réglementaires marquent un progrès important, elles restent insuffisantes pour tenir en échec les faiblesses de la chaîne de valeur de l’art : manque de transparence, corruption, lacunes réglementaires dans les ports francs, pour n’en citer que quelques-unes. Il reste à espérer que l’importance que revêt l’art – en lui-même, aux yeux des citoyens ou encore pour le soft power – incite les pouvoirs publics à renforcer leurs moyens d’action, tout en instaurant une véritable culture de la transparence et de la responsabilité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.