LePartisan - 19 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 25 dernières parutions

27.11.2025 à 11:51

Le climat est-il vraiment seul responsable de l’augmentation du degré d’alcool des vins ?

Léo Mariani, Anthropologue, Maître de conférence Habilité à diriger des recherches, Muséum national d’histoire naturelle (MNHN)
Le changement climatique favorise des vendanges plus précoces, des raisins plus sucrés et des vins donc plus alcoolisés. Il vient en réalité amplifier un modèle plus ancien.
Texte intégral (3410 mots)

La précocité des vendanges que l’on observe depuis quelques années a été favorisée par le changement climatique. Mais la hausse du degré d’alcool dans les vins est aussi le fruit d’une longue tradition qui emprunte à l’histoire, au contexte social et aux progrès techniques, et qui a façonné la définition moderne des appellations d’origine protégée. Autrement dit, le réchauffement du climat et celui des vins, entraîné par lui, ne font qu’exacerber un phénomène ancien. C’est l’occasion d’interroger tout un modèle vitivinicole.


Dans l’actualité du changement climatique, la vitiviniculture a beaucoup occupé les médias à l’été 2025. En Alsace, les vendanges ont débuté un 19 août. Ce record local traduit une tendance de fond : avec le réchauffement des températures, la maturité des raisins est plus précoce et leur sucrosité plus importante. Cela a pour effet de bouleverser les calendriers et d’augmenter le taux d’alcool des vins.

La précocité n’est pas un mal en soi. Le millésime 2025 a pu être ainsi qualifié de « très joli » et de « vraiment apte à la garde » par le président d’une association de viticulteurs alsaciens. Ce qui est problématique en revanche, c’est l’augmentation du degré d’alcool : elle est néfaste pour la santé et contredit l’orientation actuelle du marché, plutôt demandeur de vins légers et fruités. Autrement dit, le public réclame des vins « à boire » et non « à garder », alors que la hausse des températures favorise plutôt les seconds.

Il faudrait préciser pourtant que l’augmentation des niveaux d’alcool dans les vins n’est pas nouvelle. Elle est même décorrélée du changement climatique :

« Les vins se sont réchauffés bien avant le climat »,

me souffle un jour un ami vigneron. Autrement dit, l’augmentation du degré d’alcool dans les vins a suivi un mouvement tendanciel plus profond au cours de l’histoire, dont on va voir qu’il traduit une certaine façon de définir la « qualité du vin ».

Se pose donc la question de savoir qui a « réchauffé » qui le premier ? Le climat en portant à maturité des grappes de raisins plus sucrées ? ou le savoir-faire des viticulteurs, qui a favorisé des vins plus propices à la conservation – et donc plus alcoolisés ? Postulons que le climat ne fait aujourd’hui qu’exacerber un problème qu’il n’a pas créé le premier. En lui faisant porter seul la responsabilité de la hausse de l’alcool dans les vins, on s’empêche de bien définir ce problème.

De plus, on inverse alors le sens des responsabilités : la vitiviniculture, en tant qu’activité agricole émettrice de gaz à effet de serre, participe à l’augmentation des températures – et cela bien avant que le changement climatique ne l’affecte en retour.


À lire aussi : Vin et changement climatique, 8 000 ans d’adaptation


Quand la définition des AOP fait grimper les degrés

Disons-le sans détour, l’instauration des appellations d’origine protégée AOP constitue un moment objectif de la hausse des taux d’alcool dans les vins. Dans certaines appellations du sud-est de la France, où j’ai enquêté, elle est parfois associée à des écarts vertigineux de deux degrés en trois à dix ans.

Il faut dire que les cahiers des charges des AOP comportent un « titre alcoométrique volumique naturel minimum » plus élevé que celui des autres vins : l’alcool est perçu comme un témoin de qualité.

Mais il n’est que le résultat visible d’une organisation beaucoup plus générale : si les AOP « réchauffent » les vins, souvent d’ailleurs bien au-delà des minima imposés par les AOP, c’est parce qu’elles promeuvent un ensemble de pratiques agronomiques et techniques qui font augmenter mécaniquement les niveaux d’alcool.

C’est ce paradigme, qui est associé à l’idée de « vin de garde », dont nous allons expliciter l’origine.

Les « vins de garde » se généralisent sous l’influence de l’État, de la bourgeoisie et de l’industrie

Contrairement à une idée répandue, le modèle incarné par les AOP n’est pas représentatif de l’histoire vitivinicole française en général.

Napoléon III, en voulant développer le commerce du vin avec l’Angleterre, a favorisé l’émergence du standard des vins de garde. Jean Hippolyte Flandrin

Les « vins de garde » n’ont rien d’un canon immuable. Longtemps, la conservation des vins n’a intéressé que certaines élites. C’est l’alignement progressif, en France, des intérêts de l’une d’elles en particulier, la bourgeoisie bordelaise du XIXe siècle, de ceux de l’État et de ceux de l’industrie chimique et pharmaceutique, qui est à l’origine de la vitiviniculture dont nous héritons aujourd’hui.

L’histoire se précipite au milieu du XIXe siècle : Napoléon III signe alors un traité de libre-échange avec l’Angleterre, grande consommatrice de vins, et veut en rationaliser la production. Dans la foulée, son gouvernement sollicite deux scientifiques.

Au premier, Jules Guyot, il commande une enquête sur l’état de la viticulture dans le pays. Au second, Louis Pasteur, il confie un objectif œnologique, car l’exportation intensive de vins ne demande pas seulement que l’on gère plus efficacement la production. Elle exige aussi une plus grande maîtrise de la conservation, qui offre encore trop peu de garanties à l’époque. Pasteur répondra en inventant la pasteurisation, une méthode qui n’a jamais convaincu en œnologie.


À lire aussi : Louis Pasteur : l’empreinte toujours d’actualité d’un révolutionnaire en blouse


Sur le principe, la pasteurisation anticipe toutefois les grandes évolutions techniques du domaine, en particulier le développement du dioxyde de soufre liquide par l’industrie chimique et pharmaceutique de la fin du XIXe siècle. Le dioxyde de soufre (SO2) est un puissant conservateur, un antiseptique et un stabilisant.

Carte des principaux crus de la région bordelaise. DemonDeLuxe/WikiCommons, CC BY-SA

Il va permettre un bond en avant dans la rationalisation de l’industrie et de l’économie du vin au XXe siècle (les fameux sulfites ajoutés pour faciliter la conservation), au côté d’autres innovations techniques, comme le développement des levures chimiques. En cela, il va être aidé par la bourgeoisie française, notamment bordelaise, qui investit alors dans la vigne pour asseoir sa légitimité. C’est ce groupe social qui va le plus bénéficier de la situation, tout en contribuant à la définir. Désormais, le vin peut être stocké.

Cela facilite le développement d’une économie capitaliste rationnelle, incarnée par le modèle des « vins de garde » et des AOP ainsi que par celui des AOC et des « crus ».

Ce qu’il faut pour faire un vin de garde

Bien sûr ce n’est pas, en soi, le fait de pouvoir garder les vins plus longtemps qui a fait augmenter les taux d’alcool. Mais l’horizon esthétique que cette capacité a dessiné.

Un vin qui se garde, c’est en effet un vin qui contient plus de tanins, car ceux-ci facilitent l’épreuve du temps. Or pour obtenir plus de tanins, il faut reculer les vendanges et donc augmenter les niveaux d’alcool, qui participent d’ailleurs aussi à une meilleure conservation.

Les vins de garde sont vieillis en fûts de chêne, ce qui a contribué à en façonner le profil aromatique. Mark Stebnicki/Pexels, CC BY

Ensuite, la garde d’un vin dépend du contenant dans lequel il est élevé. En l’espèce, c’est le chêne, un bois tanique qui a été généralisé (déterminant jusqu’à la plantation des forêts françaises). Il donne aujourd’hui les arômes de vanille aux vins de consommation courante et le « toasté » plus raffiné de leurs cousins haut de gamme.

La garde d’un vin dépend également des choix d’encépagement. En l’espèce, les considérations relatives à la qualité des tanins et/ou à la couleur des jus de raisin ont souvent prévalu sur la prise en compte de la phénologie des cépages (c’est-à-dire, les dates clés où surviennent les événements périodiques du cycle de vie de la vigne).

Grappes de raisin de variété syrah. Hahn Family Wines/WIki Commons, CC BY

Ceci a pu favoriser des techniques de sélection mal adaptées aux conditions climatiques et des variétés qui produisent trop d’alcool lorsqu’elles sont plantées hors de leur région d’origine, par exemple la syrah dans les Côtes du Rhône septentrionales.

En effet, la vigne de syrah résiste très bien à la chaleur et les raisins produisent une très belle couleur, raison pour laquelle ils ont été plantés dans le sud. Mais le résultat est de plus en plus sucré, tanique et coloré : la syrah peut alors écraser les autres cépages dans l’assemblage des côtes-du-rhône.

On pourrait évoquer enfin, et parmi beaucoup d’autres pratiques techniques, les vendanges « en vert », qui consiste à éclaircir la vigne pour éviter une maturation partielle du raisin et s’assurer que la vigne ait davantage d’énergie pour achever celle des grappes restant sur pied. Ceci permet d’augmenter la concentration en arômes (et la finesse des vins de garde), mais aussi celle du sucre dans les raisins (et donc d’alcool dans le produit final).

C’est tout un monde qui s’est donc organisé pour produire des vins de garde, des vins charpentés et taillés pour durer qui ne peuvent donc pas être légers et fruités, comme semblent pourtant le demander les consommateurs contemporains.

« Sans sulfites », un nouveau modèle de vins « à boire »

Ce monde, qui tend à réchauffer les vins et le climat en même temps, n’est pas représentatif de l’histoire vitivinicole française dans son ensemble. Il résulte de la généralisation d’un certain type de rapport économique et esthétique aux vins et à l’environnement.

C’est ce monde dans son entier que le réchauffement climatique devrait donc questionner lorsqu’il oblige, comme aujourd’hui, à ramasser les raisins de plus en plus tôt… Plutôt que l’un ou l’autre de ces aspects seulement.

Comme pistes de réflexion en ce sens, je propose de puiser l’inspiration dans l’univers émergent des vins « sans soufre » (ou sans sulfites) : des vins qui, n’étant plus faits pour être conservés, contiennent moins d’alcool. Ces vins sont de surcroît associés à beaucoup d’inventivité technique tout en étant écologiquement moins délétères, notamment parce qu’ils mobilisent une infrastructure technique bien plus modeste et qu’ils insufflent un esprit d’adaptation plus que de surenchère.

Leur autre atout majeur est de reprendre le fil d’une vitiviniculture populaire que l’histoire moderne a invisibilisée. Ils ne constitueront toutefois pas une nouvelle panacée, mais au moins une piste pour reconnaître et valoriser les vitivinicultures passées et présentes, dans toute leur diversité.


Ce texte a fait l’objet d’une première présentation lors d’un colloque organisé en novembre 2025 par l’Initiative alimentation de Sorbonne Université.

The Conversation

Léo Mariani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.11.2025 à 15:59

Thanksgiving : derrière l’histoire populaire des pèlerins et des « Indiens », de nombreux oubliés…

Thomas Tweed, Professor Emeritus of American Studies and History, University of Notre Dame
Thanksgiving est la tradition qui rassemble le plus d’États-Uniens. Mais l’image classique des pèlerins occulte des pans importants de l’histoire du pays.
Texte intégral (2658 mots)
Le premier Thanksgiving, peint en 1912 par Jean Leon Gerome Ferris (1863-1930). L’imagerie associée au repas renvoie à une version tronquée de l’Histoire. Library of Congress

La fête de Thanksgiving célèbre la générosité et le partage mais l’histoire des pèlerins n’est qu’une partie d’un récit bien plus complexe.


Neuf Américains sur dix se réunissent autour d’une table pour partager un repas à Thanksgiving. À un moment aussi polarisé, toute occasion susceptible de rassembler les Américains mérite qu’on s’y attarde. Mais en tant qu’historien des religions, je me sens tenu de rappeler que les interprétations populaires de Thanksgiving ont aussi contribué à diviser les Américains.

Ce n’est qu’au tournant du XXe siècle que la plupart des habitants des États-Unis ont commencé à associer Thanksgiving aux « pèlerins » de Plymouth et à des « Indiens » génériques partageant un repas présenté comme fondateur mais ces actions de grâce collectives ont une histoire bien plus ancienne en Amérique du Nord. L’accent mis sur le débarquement des pèlerins en 1620 et sur le festin de 1621 a effacé une grande partie de l’histoire religieuse et restreint l’idée de qui appartient à l’Amérique – excluant parfois des groupes comme les populations autochtones, les catholiques ou les juifs.

Croyances agraires et fêtes des récoltes

La représentation habituelle de Thanksgiving passe sous silence les rituels autochtones de gratitude, notamment les fêtes des récoltes. Les Wampanoag, qui partagèrent un repas avec les pèlerins en 1621, continuent de célébrer la récolte de la canneberge. Par ailleurs, des festins similaires existaient bien avant les voyages de Colomb.

Comme je le souligne dans mon ouvrage de 2025, Religion in the Lands That Became America, on se réunissait déjà pour un festin communautaire à la fin du XIe siècle sur l’esplanade de 50 acres de Cahokia. Cette cité autochtone, située de l’autre côté du fleuve, en face de l’actuelle Saint-Louis, était le plus grand centre de population au nord du Mexique avant la révolution américaine.

Les habitants de Cahokia et leurs voisins se rassemblaient à la fin de l’été ou au début de l’automne pour remercier les divinités, fumer du tabac rituel et consommer des mets particuliers – non pas du maïs, leur aliment de base, mais des animaux à forte valeur symbolique comme les cygnes blancs et les cerfs de Virginie. Autrement dit, ces habitants de Cahokia participaient à un festin « d’action de grâce » cinq siècles avant le repas des pèlerins.

Des jours « d’action de grâce »

La représentation habituelle atténue aussi la tradition consistant pour les autorités à proclamer des « Jours d’action de grâce », une pratique bien connue des pèlerins et de leurs descendants. Les pèlerins, qui s’installèrent dans ce qui correspond aujourd’hui à Plymouth, dans le Massachusetts, étaient des puritains séparatistes ayant dénoncé les éléments catholiques subsistant dans l’Église protestante d’Angleterre. Ils cherchèrent d’abord à fonder leur propre Église et communauté « purifiée » en Hollande.

Après une douzaine d’années, beaucoup repartirent, traversant l’Atlantique en 1620. La colonie des pèlerins, au sud-est de Boston, fut progressivement intégrée à la colonie de la baie du Massachusetts, fondée en 1630 par un groupe plus important de puritains qui, eux, ne s’étaient pas séparés de l’Église officielle d’Angleterre.

Comme l’ont souligné des historiens, les ministres puritains de l’Église congrégationaliste, reconnue par l’État du Massachusetts, ne prêchaient pas seulement le dimanche. Ils prononçaient aussi, à l’occasion, des sermons spéciaux d’action de grâce, exprimant leur gratitude pour ce que la communauté considérait comme des interventions divines – qu’il s’agisse d’une victoire militaire ou de la fin d’une épidémie.

La pratique s’est maintenue et étendue. Pendant la révolution américaine, par exemple, le Congrès continental déclara un Jour d’action de grâce pour commémorer la victoire de Saratoga en 1777. Le président James Madison proclama plusieurs jours d’action de grâce pendant la guerre de 1812. Les dirigeants des États-Unis comme ceux des États confédérés firent de même durant la guerre de Sécession.

Cette tradition a influencé des Américains comme Sarah Hale, qui plaida pour l’instauration d’un Thanksgiving national. Rédactrice en chef et poétesse surtout connue pour Mary Had a Little Lamb, elle réussit à convaincre Abraham Lincoln en 1863.

La fête des récoltes de 1621

La vision que beaucoup d’Américains se font du « premier Thanksgiving » ressemble à la scène représentée dans une peinture de J. L. G. Ferris portant ce titre. Réalisée vers 1915, elle est proche d’une autre image très populaire, The First Thanksgiving at Plymouth, peinte à la même époque par Jennie Augusta Brownscombe. Ces deux œuvres déforment le contexte historique et représentent de manière erronée les participants autochtones issus de la confédération Wampanoag toute proche. Les chefs amérindiens y portent des coiffes propres aux tribus des grandes plaines, et le nombre de participants autochtones est nettement sous-estimé.

Le seul témoignage oculaire qui subsiste est une lettre de 1621 du pèlerin Edward Winslow. Il y rapporte que Massasoit, le chef des Wampanoag, était venu avec 90 hommes. Cela signifie, comme le suggèrent certains historiens, que le repas partagé relevait autant d’un événement diplomatique scellant une alliance que d’une fête agricole célébrant une récolte.

La peinture de Ferris laisse aussi entendre que les Anglais avaient fourni la nourriture. Les habitants de Plymouth apportèrent de la « volaille », comme Winslow s’en souvenait – probablement de la dinde sauvage – mais les Wampanoag ajoutèrent cinq daims qu’ils venaient d’abattre. Même la récolte de « maïs indien » dépendit de l’aide autochtone. Tisquantum, dit Squanto, le seul survivant du village, avait prodigué des conseils vitaux en matière de culture comme de diplomatie.

La scène enjouée de l’image masque aussi à quel point la région avait été bouleversée par la mort. Les pèlerins perdirent près de la moitié de leur groupe à cause de la faim ou du froid durant leur premier hiver. Mais, après les premiers contacts avec des Européens, un nombre bien plus important de Wampanoag étaient morts lors d’une épidémie régionale qui ravagea la zone entre 1616 et 1619. C’est pour cela qu’ils trouvèrent le village de Squanto abandonné, et que les deux communautés furent disposées à conclure l’alliance qu’il facilita.

La primauté des pèlerins

Les pèlerins sont arrivés tard dans l’histoire de Thanksgiving. La proclamation de 1863 de Lincoln, publiée dans Harper’s Monthly, évoquait « la bénédiction des champs fertiles », mais ne mentionnait pas les pèlerins. Ils n’apparaissaient pas non plus dans l’illustration du magazine. La page montrait villes et campagnes, ainsi que des esclaves émancipés, célébrant la journée par une prière « à l’autel de l’Union ». Pendant des années avant et après cette proclamation, d’ailleurs, de nombreux Sudistes se sont opposés à Thanksgiving, qu’ils percevaient comme une fête abolitionniste, venue du Nord.

L’absence des pèlerins s’explique, puisqu’ils n’étaient pas les premiers Européens à débarquer sur la côte est de l’Amérique du Nord – ni à y rendre grâce. Des catholiques espagnols avaient ainsi fondé Saint-Augustin en 1565. Selon un témoignage de l’époque, le chef espagnol demanda à un prêtre de célébrer la messe le 8 septembre 1565, à laquelle assistèrent des Amérindiens, et « ordonna que les Indiens soient nourris ».

Deux décennies plus tard, un groupe anglais avait tenté, sans succès, de fonder une colonie sur l’île de Roanoke, en Caroline du Nord – incluant un ingénieur juif. Les Anglais eurent davantage de succès lorsqu’ils s’installèrent à Jamestown, en Virginie en 1607. Un commandant chargé de mener un nouveau groupe en Virginie reçut pour instruction de marquer « un jour d’action de grâce au Dieu tout-puissant » en 1619, deux ans avant le repas de Plymouth.

Mais au fil des ans, les pèlerins de Plymouth ont lentement gagné une place centrale dans ce récit fondateur de l’Amérique. En 1769, les habitants de Plymouth firent la promotion de leur ville en organisant un « Forefathers’ Day » (« Jour des Pères fondateurs »). En 1820, le politicien protestant Daniel Webster prononça un discours à l’occasion du bicentenaire du débarquement à Plymouth Rock, louant l’arrivée des pèlerins comme « les premiers pas de l’homme civilisé » dans la nature sauvage. Puis, dans un ouvrage de 1841, Chronicles of the Pilgrim Fathers, un pasteur de Boston réimprima le témoignage de 1621 et décrivit le repas partagé comme « le premier Thanksgiving ».

L’essor de l’immigration

Entre 1880 et 1920, les pèlerins se sont imposés comme les personnages centraux des récits nationaux sur Thanksgiving et sur les origines des États-Unis. Il n’est pas surprenant que cette période corresponde au pic de l’immigration aux États-Unis, et de nombreux Américains considéraient les nouveaux arrivants comme « inférieurs » à ceux qui avaient débarqué à Plymouth Rock.

Les catholiques irlandais étaient déjà présents à Boston lorsque le volume Pilgrim Fathers parut en 1841, et davantage encore arrivèrent après la famine de la pomme de terre dans les années suivantes. La population étrangère de Boston augmenta lorsque la pauvreté et les troubles politiques poussèrent des catholiques italiens et des juifs russes à chercher une vie meilleure en Amérique.

La même situation se produisait alors dans de nombreuses villes du Nord, et certains protestants étaient inquiets. Dans un best-seller de 1885 intitulé Our Country, un ministre de l’Église congrégationaliste avertissait que « La grandeur de bien des villages de Nouvelle-Angleterre est en train de disparaître, car des hommes, étrangers par leur sang, leur religion et leur culture, s’installent dans des foyers où ont grandi les descendants des pèlerins. »

Lors du 300ᵉ anniversaire du débarquement et du repas, célébré en 1920 et 1921, le gouvernement fédéral émit des timbres commémoratifs et des pièces de monnaie. Des responsables organisèrent des spectacles, et des hommes politiques prononcèrent des discours. Environ 30 000 personnes se rassemblèrent à Plymouth pour entendre le président Warren Harding et le vice-président Calvin Coolidge louer « l’esprit des pèlerins ».

Bientôt, les inquiétudes xénophobes concernant les nouveaux arrivants, en particulier les catholiques et les juifs, amenèrent Coolidge à signer le Immigration Act de 1924, qui allait largement fermer les frontières américaines pendant quatre décennies. Les Américains continuèrent de raconter l’histoire des pèlerins même après que la politique migratoire des États-Unis devint de nouveau plus accueillante en 1965, et beaucoup la relaieront encore l’année prochaine à l’occasion du 250ᵉ anniversaire des États-Unis. Compris dans son contexte complet, c’est un récit qui mérite d’être raconté. Mais il convient de rester prudent, car l’histoire nous rappelle que les histoires sur le passé spirituel du pays peuvent soit nous rassembler, soit nous diviser.

The Conversation

Thomas Tweed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.11.2025 à 15:55

Et si l’accent « neutre » n’existait pas ?

Marc Chalier, Maître de conférences en linguistique française, Sorbonne Université
Malgré une crainte récurrente, les accents ne sont pas près de disparaître, et l’accent prétendument « neutre » n’a jamais existé autrement que dans nos représentations fantasmées.
Texte intégral (1848 mots)
Croire que l’on n’a pas d’accent ou que l’on a un accent « neutre » revient bien souvent à ne pas s’apercevoir que l’on en effectivement a un. Pixabay, CC BY

À en croire un sondage récent, les accents régionaux seraient en train de s’effacer. Derrière cette inquiétude largement relayée se cachent deux réalités que nous connaissons tous mais que nous préférons souvent oublier : la prononciation, par nature éphémère, change constamment et le nivellement actuel des accents n’a rien d’exceptionnel. Quant à l’« accent neutre » auquel nous comparons ces accents régionaux, il n’a jamais existé ailleurs que dans nos imaginaires linguistiques.


Chaque année ou presque, un sondage annonce que les accents seraient « en voie de disparition ». La dernière étude en date, publiée en septembre 2025 par la plateforme Preply et largement propagée par le biais des réseaux sociaux, va dans ce sens : plus d’un Français sur deux (55 %) estimerait que les accents régionaux disparaissent. De manière assez remarquable, cette inquiétude serait surtout portée par les jeunes : près de 60 % des participants de 16 à 28 ans disent constater cette disparition. Cette crainte occulte pourtant deux réalités essentielles : un accent n’est jamais figé, et l’idée d’un accent « neutre » relève davantage du mythe que de la réalité.

L’accent « neutre » est une illusion

Dans les représentations de bon nombre de francophones, il existe une prononciation « neutre » sans marque régionale ou sociale que beaucoup considèrent aussi comme la « bonne prononciation ». Mais cette vision ne résiste pas à l’analyse. Tous les modèles de prononciation avancés jusqu’à aujourd’hui (par exemple, le roi et sa cour au XVIIe siècle, plus tard la bourgeoisie parisienne, et récemment les professionnels de la parole publique, notamment dans les médias audiovisuels) ont en commun un ancrage géographique bien précis : Paris et ses environs, et parfois aussi la Touraine où les rois de France avaient leurs résidences d’été.

L’accent dit « neutre » est donc avant tout un accent parisien. Et la plupart des locuteurs non parisiens le reconnaîtront comme tel. Il n’est pas dépourvu de traits caractéristiques qui nous permettent de le reconnaître, mais il est simplement l’accent du groupe social dominant. D’ailleurs, une enquête menée auprès de différentes communautés parisiennes dans les années 2000 le montrait déjà : les représentations de l’accent parisien varient fortement selon la perspective du locuteur, interne ou externe à la communauté parisienne.

Ainsi, hors de la capitale, de nombreux locuteurs associent Paris à un accent non pas « neutre », mais « dominant » et qu’ils associent implicitement au parler des couches sociales favorisées de la capitale. À Paris même, les perceptions du parler parisien sont beaucoup plus hétérogènes. Certains locuteurs affirment ne pas avoir d’accent, d’autres en reconnaissent plusieurs, comme l’« accent du 16e » (arrondissement) associé aux classes favorisées, « l’accent parigot » des anciens quartiers populaires, ou encore l’« accent des banlieues » socialement défavorisées. Cette pluralité confirme donc une chose : même à Paris, il n’existe pas de prononciation uniforme, encore moins neutre.

Les différentes formes de prestige d’un accent

Dans une large enquête sur la perception des accents du français menée avec mes collègues Elissa Pustka (Université de Vienne), Jean-David Bellonie (Université des Antilles) et Luise Jansen (Université de Vienne), nous avons étudié différents types de prestige des accents régionaux en France méridionale, au Québec et dans les Antilles. Nos résultats montrent tout d’abord à quel point cette domination de la région parisienne reste vivace dans nos représentations du « bon usage ». Dans les trois régions francophones, les scores liés à ce que l’on appelle le « prestige manifeste » de la prononciation parisienne sont particulièrement élevés. Il s’agit de ce prestige que l’on attribue implicitement aux positions d’autorité et que les locuteurs interrogés associent souvent à un usage « correct » ou « sérieux ». Mais les résultats montrent également l’existence d’un « prestige latent » tout aussi marqué. Il s’agit là d’un prestige que les accents locaux tirent de leur ancrage identitaire. Ce sont souvent les variétés régionales qui sont ainsi caractérisées comme étant « chaleureuses » ou « agréables à entendre », et elles semblent inspirer la sympathie, la confiance, voire une certaine fierté.

Ces deux axes expliquent aussi qu’on puisse, dans la même conversation, dire d’un accent qu’il « n’est pas très correct » tout en le trouvant « agréable à entendre ». Ce jeu de perceptions montre bien que la prétendue neutralité du français « standard » n’existe pas : elle est simplement le reflet d’un équilibre de pouvoirs symboliques continuellement renégocié au sein de la francophonie.

L’émancipation des accents « périphériques »

Notre étude montre également que cette association de l’accent parisien au prestige manifeste et des accents dits « périphériques » au prestige latent n’est pas fixée à tout jamais. Dans les trois espaces francophones étudiés, les accents autrefois perçus comme des écarts à la norme deviennent peu à peu porteurs d’un prestige plus manifeste. Ils commencent donc à s’imposer comme des modèles légitimes de prononciation dans de plus en plus de contextes institutionnels ou médiatiques autrefois réservés à la prononciation parisienne.

Ce mouvement s’observe notamment dans les médias audiovisuels. Au Québec, par exemple, les journalistes de Radio-Canada assument et revendiquent aujourd’hui une prononciation québécoise, alors qu’elle aurait été perçue comme trop locale il y a encore quelques décennies. Cette prononciation n’imite plus le français utilisé dans les médias audiovisuels parisiens comme elle l’aurait fait dans les années 1960-1970, mais elle intègre désormais ces traits de prononciation propres au français québécois qui étaient autrefois considérés comme des signes de relâchement ou de mauvaise diction.

Ces changements montrent que la hiérarchie traditionnelle des accents du français se redéfinit. L’accent parisien conserve une position largement dominante, mais son monopole symbolique s’effrite. D’autres formes de français acquièrent à leur tour des fonctions de prestige manifeste : elles deviennent acceptables, voire valorisées, dans des usages publics de plus en plus variés. Ce processus relève d’une lente réévaluation collective des modèles de légitimité linguistique.

Une dynamique normale du changement

Revenons à la question des changements perçus dans les accents régionaux évoquée en introduction. La langue est, par nature, en perpétuel mouvement, et la prononciation n’y échappe pas : certains traits s’atténuent, d’autres se diffusent sous l’effet de facteurs notamment sociaux. La mobilité des locuteurs, par exemple, favorise le contact entre des variétés de français autrefois plus isolées les unes des autres. Ce phénomène est particulièrement visible dans des métropoles comme Paris, Marseille ou Montréal, où se côtoient quotidiennement des profils linguistiques hétérogènes. À cela s’ajoute l’influence des médias, amorcée avec la radio et la télévision au début du XXe siècle et aujourd’hui démultipliée par les réseaux sociaux. Ces dynamiques expliquent en partie le nivellement actuel de certains accents, avec la raréfaction de certains traits locaux. Mais cela ne signifie pas pour autant la disparition de toute variation. Des mouvements parallèles de différenciation continuent d’exister et font émerger de nouveaux accents, qu’ils soient liés à l’origine géographique des locuteurs ou à leur appartenance à un groupe social.

À côté de ces changements « internes à la langue », les valeurs sociales que l’on associe à ces variétés évoluent elles aussi. Les frontières de ce qui paraît « correct », « populaire », « légitime » se déplacent avec les représentations collectives. Ainsi, aussi bien les accents que les hiérarchies qui les encadrent se reconfigurent régulièrement. Une observation qui distingue notre époque, cependant, c’est le fait que les normes langagières ne se redéfinissent plus seulement « par le haut » sous l’influence « normative » d’institutions comme l’Académie française, mais aussi « par le bas » sous l’effet des usages de la langue quotidienne qui s’imposent simplement par la pratique.

En somme, même si l’on redoute la disparition des accents, la variation continuera toujours de suivre son cours. Nul ne peut la figer. Et l’accent prétendument « neutre » n’a jamais existé autrement que dans nos représentations fantasmées. Ainsi, la prochaine fois que vous entendez quelqu’un vous dire qu’il ou elle ne pense pas avoir d’accent, souvenez-vous que ce n’est pas qu’il n’en a pas, mais que c’est simplement le sien qui (jusqu’ici) a dominé – pour reprendre les propos de Louis-Jean Calvet – dans la Guerre des langues et les politiques linguistiques (1987).

The Conversation

Marc Chalier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.11.2025 à 15:50

Boissons au cannabis : comment une faille juridique a créé une industrie de plusieurs milliards de dollars que le Congrès veut maintenant interdire

Magalie DUBOIS, Docteur en Economie du vin, Burgundy School of Business
Robin Goldstein, Director, Cannabis Economics Group, University of California, Davis
Une disposition passée inaperçue dans le budget fédéral américain signé par le président Trump pourrait bouleverser l’industrie florissante des boissons au THC.
Texte intégral (1698 mots)

Une disposition passée inaperçue dans le budget fédéral des États-Unis signé par le président Trump pourrait bouleverser une industrie florissante : celle des boissons au THC.


Le 12 novembre 2025, le Congrès américain a voté une loi limitant les produits à base de chanvre à 0,4 mg de delta-9-tétrahydrocannabinol, autrement dit THC, par contenant. Cette mesure, après une période de grâce d’un an, interdit de facto la plupart des nombreuses boissons, gommes et cigarettes électroniques (« vapes ») au THC actuellement vendues dans les stations-service, supermarchés et bars américains. Pour comprendre l’importance de cette nouvelle, il faut d’abord expliquer comment ce marché fonctionne, et pourquoi cette interdiction pourrait être appliquée… ou ignorée.

Cannabis, chanvre et THC : un peu d’histoire

La plante de cannabis contient plus de cent « cannabinoïdes », des composés chimiques qui interagissent avec le système endocannabinoïde humain. Le THC (tétrahydrocannabinol) est considéré principal responsable des effets psychoactifs. Légal aux États-Unis au XIXe siècle, le cannabis est progressivement interdit à partir de 1937, puis classé en 1970 comme narcotique de catégorie I – la plus strictement prohibée.

Depuis 1996, certains États américains ont commencé à légaliser le cannabis, d’abord à usage médical, puis récréatif à partir de 2012. Aujourd’hui, plus de 40 États l’autorisent sous une forme ou une autre, mais il reste illégal au niveau fédéral.

Dans ce contexte de contradictions entre lois fédérales et étatiques, une nouvelle distinction va tout changer : celle entre « cannabis » et « chanvre ».

Une industrie née d’un vide juridique

Vous n’en avez probablement jamais entendu parler, pourtant selon Fortune Business Insight le marché des boissons au THC génère déjà plus de 3 milliards de dollars (plus de 2,6 milliards d’euros) aux États-Unis.

Tout commence en 2018, lorsque le Farm Bill américain légalise le « chanvre » – défini comme du cannabis contenant 0,3 % ou moins de THC. L’objectif initial était de relancer l’industrie du chanvre industriel pour produire des textiles et des matériaux. Mais la loi contient une ambiguïté cruciale : ce seuil de 0,3 % s’applique au poids à sec de la plante, sans préciser de norme pour les produits transformés.

Des industriels américains ont rapidement identifié une opportunité. Pour une gomme typique de 5 grammes contenant 10 milligrammes de THC, soit une dose standard, le THC ne représente que 0,2 % du poids total. Pour une boisson de 355 grammes (12 onces) la même dose, le THC ne représente que 0,003 % du poids total. Techniquement, ces produits sont du « chanvre » légal, même s’ils produisent des effets psychoactifs identiques au cannabis.


À lire aussi : Contre les insomnies, le cannabis thérapeutique présente-t-il un intérêt ?


Résultat : dès 2021, des boissons et gommes au THC psychoactif ont commencé à apparaître dans les magasins et les bars des États où aucune loi sur le cannabis récréatif n’existait.

L’innovation qui change tout

Concernant les boissons, cette faille juridique n’aurait jamais créé une industrie de plusieurs milliards de dollars sans une percée technologique cruciale apparue au début des années 2020, la nano-émulsion.

Le THC est une molécule lipophile qui se sépare naturellement de l’eau. Pendant des années, les fabricants ont tenté de créer des boissons stables au THC. Les émulsions traditionnelles prenaient de soixante à cent vingt minutes pour produire leurs effets : vitesse bien trop lente pour concurrencer ceux de l’alcool.

La nano-émulsion change la donne. En réduisant les gouttelettes de THC à l’échelle nanométrique, cette technologie permet au THC de se dissoudre efficacement dans l’eau et d’être absorbé par l’organisme en vingt minutes environ : un délai comparable à celui d’une bière ou d’un cocktail.

Pour la première fois, les boissons au THC peuvent se positionner comme des substituts fonctionnels aux boissons alcoolisées.

Le paradoxe du marché

L’innovation technologique ne suffit pas à expliquer le succès commercial. Les mêmes boissons au THC affichent des résultats diamétralement opposés selon leur canal de distribution.

Dans les États où le cannabis récréatif est légal (en Californie ou à New York, par exemple), les boissons au THC ne sont vendues que dans des dispensaires (boutiques spécialisées dans la vente de cannabis), où elles représentent moins de 1 % des ventes totales de cannabis. En cause : les consommateurs habitués des dispensaires ne s’y rendent pas pour acheter leurs boissons quotidiennes comme ils achèteraient de la bière, par exemple, mais plutôt pour acquérir des produits plus forts comme la fleur de cannabis et les cigarettes électroniques. Une boisson au THC à 7 dollars (6 euros) offre une dose unique, alors qu’une recharge de cigarette électronique à 15 dollars (près de 13 euros) en fournit entre dix et vingt. De plus, les dispensaires doivent également composer avec des contraintes de réfrigération et d’espace qui pénalisent les produits volumineux comme les canettes.

Dans les États où le cannabis récréatif n’est pas légal comme le Texas, la Floride ou la Caroline du Nord par exemple, la situation est différente. Ces mêmes boissons au THC, étiquetées « chanvre », sont distribuées dans les supermarchés et les bars aux côtés des boissons alcoolisées. Elles sont proposées à un prix inférieur (4 ou 5 dollars, soit 3 ou 4 euros) que dans les dispensaires, en raison d’une réglementation plus souple et plus avantageuse fiscalement. Des enseignes, comme les stations-service Circle K, les grandes surfaces Target ou la chaîne de restaurants Applebee’s, ont intégré ces produits à leur offre. D’après des sources internes, les boissons au THC représenteraient 12 % du chiffre d’affaires texan de Total Wine la plus grande chaîne américaine de distribution de boissons alcoolisées.

Contexte concurrentiel

La différence réside dans le contexte concurrentiel. Dans les supermarchés et les bars, les boissons au THC se placent face à la bière, au vin et aux spiritueux, un marché en déclin aux États-Unis, notamment chez les jeunes consommateurs.

Mais certains acteurs de l’industrie des boissons alcoolisées y voient une opportunité commerciale pour la vente sur place et à emporter. Un client ne consommant pas d’alcool et qui commandait autrefois un verre d’eau au bar peut désormais acheter un cocktail au THC et générer du chiffre d’affaires pour l’établissement.

Slate, 2022.

L’interdiction sera-t-elle appliquée ?

L’interdiction votée le 12 novembre 2025 entrera en vigueur dans un an. Elle rendra illégaux au niveau fédéral la plupart des produits au chanvre psychoactif actuellement commercialisés. Mais le Texas et plusieurs autres États, souvent conservateurs, ont déjà légalisé ces produits en légiférant au niveau étatique.

Cette contradiction entre la loi fédérale et les lois étatiques n’a rien d’inédit. Plus de 40 États américains ont légalisé le cannabis médical ou récréatif alors qu’il reste interdit au niveau fédéral. Dans la pratique, les forces de l’ordre locales appliquent les lois étatiques, non les lois fédérales. Le Texas, dont l’industrie du chanvre pèse 4,5 milliards de dollars (soit 3,8 milliards d’euros), rejoint ainsi les nombreux États dont les législations entrent en conflit avec Washington.

Une distinction juridique technique (le seuil de 0,3 % de THC en poids sec établi par le Farm Bill de 2018) a créé en quelques années une industrie de plusieurs milliards de dollars qui concurrence directement le marché des boissons alcoolisées. Malgré la nouvelle tentative du Congrès pour l’empêcher, cette industrie pourrait suivre la trajectoire du cannabis récréatif : interdite au niveau fédéral, mais florissante dans les États qui choisissent de ne pas appliquer cette nouvelle mesure.

The Conversation

Robin Goldstein a reçu des financements de l'Université de Californie.

Magalie DUBOIS ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.11.2025 à 15:45

Jean Baudrillard, le philosophe qui a prédit l’intelligence artificielle, trente ans avant ChatGPT

Bran Nicol, Professor of English, University of Surrey
Emmanuelle Fantin, Maîtresse de conférences en sciences de l'information et de la communication, Sorbonne Université
À travers les dispositifs médiatiques rudimentaires de son époque, comme le Minitel, Jean Baudrillard a réussi à prédire les usages futurs que la technologie numérique allait engendrer.
Texte intégral (1513 mots)

Visionnaire de la culture numérique, Jean Baudrillard pensait l’intelligence artificielle comme une prothèse mentale capable d’exorciser notre humanité, et un renoncement à notre liberté.


Certains penseurs semblent si précis dans leur compréhension du lieu vers lequel la société et la technique nous emportent qu’ils sont affublés du titre de « prophète ». C’est le cas de J. G. Ballard, Octavia E. Butler, ou encore Donna Haraway.

L’un des membres les plus importants de ce club est le penseur Jean Baudrillard (1929-2007) – bien que sa réputation se soit amoindrie depuis une vingtaine d’années, il est désormais vaguement associé à l’époque révolue où les théoriciens français tels que Roland Barthes et Jacques Derrida régnaient en maîtres.

Lorsque nous l’avons relu pour écrire la nouvelle biographie qui lui est consacrée, nous nous sommes toutefois souvenus à quel point ses prédictions sur la technologie contemporaine et ses effets se révélaient prémonitoires. Sa compréhension de la culture numérique et de l’intelligence artificielle (IA) s’avère particulièrement clairvoyante – d’autant que ses écrits l’ont présentée plus de trente ans avant le lancement de ChatGPT.

Un contexte de préhistoire numérique

Il faut bien se figurer que les technologies de communication de pointe des années 1980 nous paraissent désormais totalement obsolètes : Baudrillard écrit alors que l’entourent des répondeurs téléphoniques, des fax, et bien sûr, le Minitel, prélude médiatique franco-français au réseau Internet. Son génie résidait dans une aptitude à entrevoir au sein de ces dispositifs relativement rudimentaires une projection des usages probables de la technologie dans le futur.

À la fin des années 1970, il avait déjà commencé à développer une théorie originale de l’information et de la communication. Celle-ci s’est encore déployée à partir de la publication de Simulacres et Simulation en 1981 (l’ouvrage qui a influencé les sœurs Wachowski dans l’écriture du film Matrix, sorti en 1999).

Dès 1986, le philosophe observait :

« Aujourd’hui, plus de scène ni de miroir, mais un écran et un réseau. »

Il prédit alors l’usage généralisé du smartphone, en imaginant que chacun d’entre nous serait aux commandes d’une machine qui nous tiendrait isolés « en position de parfaite souveraineté », comme un « cosmonaute dans sa bulle ». Ces réflexions lui ont permis d’élaborer son concept le plus célèbre : la théorie d’après laquelle nous serions entrés dans l’ère de « l’hyperréalité ».

Matrix (1999), partiellement inspiré des travaux de Jean Baudrillard.

Dans les années 1990, Baudrillard a porté son attention sur les effets de l’IA, d’une manière qui nous aide à la fois à mieux comprendre son essor tentaculaire dans le monde contemporain et à mieux concevoir la disparition progressive de la réalité, disparition à laquelle nous faisons face chaque jour avec un peu plus d’acuité.

Les lecteurs avertis de Baudrillard n’ont probablement pas été surpris par l’émergence de l’actrice virtuelle Tilly Norwood, générée par IA. Il s’agit d’une étape tout à fait logique dans le développement des simulations et autres deepfake, qui semble conforme à sa vision du monde hyperréel.

« Le spectacle de la pensée »

Baudrillard envisageait l’IA comme une prothèse, un équivalent mental des membres artificiels, des valves cardiaques, des lentilles de contact ou encore des opérations de chirurgie esthétique. Son rôle serait de nous aider à mieux réfléchir, voire à réfléchir à notre place, ainsi que le conceptualisent ses ouvrages la Transparence du mal (1990) ou le Crime parfait (1995).

Mais il était convaincu qu’au fond, tout cela ne nous permettrait en réalité uniquement de vivre « le spectacle de la pensée », plutôt que nous engager vers la pensée elle-même. Autrement dit, cela signifie que nous pourrions alors repousser indéfiniment l’action de réfléchir. Et d’après Baudrillard, la conséquence était limpide : s’immerger dans l’IA équivaudrait à renoncer à notre liberté.

Voilà pourquoi Baudrillard pensait que la culture numérique précipiterait la « disparition » des êtres humains. Bien entendu, il ne parlait pas de disparition au sens littéral, ni ne supposait que nous serions un jour réduits à la servitude comme dans Matrix. Il envisageait plutôt cette externalisation de notre intelligence au sein de machines comme une manière « d’exorciser » notre humanité.

En définitive, il comprenait toutefois que le danger qui consiste à sacrifier notre humanité au profit d’une machine ne proviendrait pas de la technologie elle-même, mais bien que la manière dont nous nous lions à elle. Et de fait, nous nous reposons désormais prodigieusement sur de vastes modèles linguistiques comme ChatGPT. Nous les sollicitons pour prendre des décisions à notre place, comme si l’interface était un oracle ou bien notre conseiller personnel.

Ce type de dépendance peut mener aux pires conséquences, comme celles de tomber amoureux d’une IA, de développer des psychoses induites par l’IA, ou encore, d’être guidé dans son suicide par un chatbot.

Bien entendu, les représentations anthropomorphiques des chatbots, le choix de prénoms comme Claude ou encore le fait de les désigner comme des « compagnons » n’aide pas. Mais Baudrillard avait pressenti que le problème ne provenait pas de la technologie elle-même, mais plutôt de notre désir de lui céder la réalité.

Le fait de tomber amoureux d’une IA ou de s’en remettre à sa décision est un problème humain, non pas un problème propre à la machine. Encore que, le résultat demeure plus ou moins le même. Le comportement de plus en plus étrange de Grok – porté par Elon Musk – s’explique simplement par son accès en temps réels aux informations (opinions, assertions arbitraires, complots) qui circulent sur X, plateforme dans laquelle il est intégré.

« Suis-je un être humain ou une machine ? »

De la même manière que les êtres humains sont façonnés par leur interaction avec l’IA, l’IA est dressée par ses utilisateurs. D’après Baudrillard, les progrès technologiques des années 1990 rendaient déjà impossible la réponse à la question « Suis-je un être humain ou une machine ? »

Il semblait confiant malgré tout, puisqu’il pensait que la distinction entre l’homme et la machine demeurerait indéfectible. L’IA ne pourrait jamais prendre plaisir à ses propres opérations à la manière dont les humains apprécient leur propre humanité, par exemple en expérimentant l’amour, la musique ou le sport. Mais cette prédiction pourrait bien être contredite par Tilly Norwood qui a déclaré dans le post Facebook qui la révélait au public :

« Je suis peut-être générée par une IA, mais je ressens des émotions bien réelles. »

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

18 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞