27.11.2025 à 17:06
La dinde constitue un mets de choix sur les tables des fêtes d’Europe et d’Amérique du Nord, que ce soit pour Thanksgiving ou Noël. Son origine et les péripéties qui l’ont menée jusque dans nos cuisines sont toutefois peu connues du grand public.
La période des festivités de fin d’année semble tout indiquée pour revenir sur l’histoire naturelle et culturelle de cet oiseau de basse-cour, qui a fait l’objet d’un ouvrage collectif sorti en juin 2025 aux éditions scientifiques du Muséum national d’histoire naturelle.
La dinde ou le dindon commun, selon que l’on parle de la femelle ou du mâle, appartiennent à l’espèce Meleagris gallopavo que l’on retrouve encore à l’état sauvage sur l’essentiel du territoire des États-Unis, dans le sud du Canada et le nord du Mexique. Les sociétés américaines ont longtemps interagi avec ces oiseaux, essentiellement à travers la chasse. Le plus ancien kit de tatouage retrouvé en contexte archéologique, au Tennessee (États-Unis), daté d’entre 3500 et 1500 ans avant notre ère, était constitué d’os de dindon appointés. Mais ce n’est ni dans cette région ni à cette époque que la domestication du dindon a commencé, c’est-à-dire que le dindon et les humains sont entrés dans une relation de proximité mutualiste conduisant aux oiseaux de basse-cour que l’on connaît aujourd’hui [figure 1].
Jusqu’au début de notre ère, les indices archéologiques d’un rapprochement entre dindons et humains sont, de fait, ténus. C’est en Amérique centrale, au Guatemala, que l’on retrouve la plus ancienne preuve de la gestion et de la manipulation des dindons. Dans cette région tropicale, on ne trouve pas de dindon commun sauvage mais son proche cousin, le dindon ocellé [figure 2]. Or sur le site d’El Mirador, quelques os de dindon commun ont été retrouvés, datés entre 300 avant notre ère et le tout début de notre ère – une identification confirmée par la génétique.
L’analyse des isotopes du strontium contenus dans ces os, spécifiques de l’environnement dans lequel un animal a vécu, ont quant à eux montré que les oiseaux avaient été élevés dans l’environnement local. Il s’agit de la trace la plus ancienne de translocation de l’espèce, son déplacement dans une région dans laquelle elle ne vivrait pas naturellement. Or un tel déplacement, sur des milliers de kilomètres et vers un environnement très différent, nécessite une connaissance fine du dindon et de ses besoins ainsi que des compétences zootechniques certaines. C’est donc l’aboutissement de plusieurs générations d’interactions et de rapprochement dans la région où le dindon commun se trouve naturellement, probablement sur la côte du golfe du Mexique ou dans le centre du Mexique, près de l’actuelle ville de Mexico. Au fil du temps, le nombre de restes de dindon augmente dans les sites archéologiques jusqu’à l’arrivée des Européens au XVIe siècle.
Dans le sud-ouest des États-Unis, à la convergence de l’Utah, du Colorado, du Nouveau-Mexique et de l’Arizona, on sait que les dindons étaient déjà présents il y a environ 10 000 ans, au début de la période holocène mais ils sont particulièrement rares dans les sites archéologiques.
Ce n’est qu’entre le début et 200 de notre ère qu’on voit leurs ossements apparaître régulièrement dans les sites archéologiques, bien qu’en faible proportion. Les traces les plus abondantes de leur présence sont leurs crottes (que l’on appelle coprolithes une fois fossilisées, dans le registre archéologique) retrouvées en particulier dans des structures en briques de terre crue complétées de branches qui servaient probablement à maintenir les dindons en captivité.
Ces oiseaux appartiennent à une lignée génétique différente de celle des dindons sauvages locaux et l’analyse des isotopes du carbone contenu dans leurs os indique qu’ils ont consommé de grandes quantités de maïs. Ce sont donc des oiseaux captifs, certainement domestiques, mais on retrouve rarement leurs os dans ce que les archéologues étudient le plus, les poubelles des maisons. Ils n’auraient donc pas été mangés, ou assez rarement par rapport aux efforts mis en place pour les garder sur les sites. Les plumes d’oiseaux étaient néanmoins importantes pour ces populations et on retrouve notamment des fragments de plumes de dindon incluses dans le tissage d’une couverture en fibre en yucca. Une seule couverture aurait nécessité plus de 11 000 plumes, soit cinq à dix oiseaux selon la taille des plumes sélectionnées. Les oiseaux maintenus en captivité auraient ainsi pu être plumés régulièrement pour fournir cette matière première.
Au fil du temps, l’usage de dindons domestiques s’étend entre cette région du sud-ouest des États-Unis, le Mexique et l’Amérique centrale, mais les dindons sauvages restent bien présents dans l’environnement. Dans l’est des États-Unis, en revanche, si les restes osseux de dindons peuvent être abondants sur les sites archéologiques, il s’agit d’oiseaux sauvages chassés. C’est une mosaïque d’usage du dindon que les Européens ont ainsi rencontré à leur arrivée sur le continent américain [figure 3].
C’est lors du quatrième voyage de Christophe Colomb en Amérique, alors qu’il explore les côtes de l’actuel Honduras, que l’on trouve ce qui peut être la première rencontre entre des Européens et des dindons, en 1502. On ne sait pas exactement comment leur réputation atteint l’Europe, probablement à travers les premières villes européennes construites dans les Antilles, mais en 1511 une lettre est envoyée par la couronne d’Espagne au trésorier en chef des Indes (les Antilles) demandant à ce que chaque bateau revenant vers la péninsule rapporte des « poules d’Inde » (d’où la contraction « dinde » apparue au XVIIe siècle en français), mâle et femelle, en vue de leur élevage.
En 1520, l’évêque d’Hispaniola (île englobant aujourd’hui Haïti et la République dominicaine) offre à Lorenzo Pucci, cardinal à Rome, un couple de dindons.
L’ouvrage publié au Muséum national d’histoire naturelle montre la multiplication des témoignages de la présence du dindon dans l’entourage de l’aristocratie européenne au cours du XVIe siècle. En France, en 1534, on trouve des dindons à Alençon, en Normandie, dans le château de Marguerite d’Angoulême, sœur de François Ier et reine de Navarre.
C’est aussi en 1534 qu’une amusante histoire se déroule en Estonie, où l’évêque de Tartu envoie un dindon en présent au duc Glinski – dindon qu’il avait précédemment reçu d’Allemagne. Mais l’oiseau exotique se répand aussi progressivement dans les basses-cours et sa consommation se généralise.
Entre le XVIe et le XVIIe siècle, il accompagne de nombreuses missions maritimes commerciales, atteignant même le Japon et revenant en Amérique – depuis l’Europe – dans les établissements coloniaux. Il semble toutefois être longtemps resté réservé aux repas de fêtes, et ce n’est qu’au cours du XXe siècle, avec l’essor de l’industrie agroalimentaire et la sélection de races de plus en plus lourdes, que sa viande entre dans la production de nombreux produits transformés. Finalement, l’animal complet, rôti et dressé sur une table à l’occasion de Thanksgiving ou de Noël, conserve la trace de cette longue histoire.
Aurélie Manin a reçu des financements des Actions Marie Sklodowska-Curie pour réaliser ce travail.
27.11.2025 à 11:51
La précocité des vendanges que l’on observe depuis quelques années a été favorisée par le changement climatique. Mais la hausse du degré d’alcool dans les vins est aussi le fruit d’une longue tradition qui emprunte à l’histoire, au contexte social et aux progrès techniques, et qui a façonné la définition moderne des appellations d’origine protégée. Autrement dit, le réchauffement du climat et celui des vins, entraîné par lui, ne font qu’exacerber un phénomène ancien. C’est l’occasion d’interroger tout un modèle vitivinicole.
Dans l’actualité du changement climatique, la vitiviniculture a beaucoup occupé les médias à l’été 2025. En Alsace, les vendanges ont débuté un 19 août. Ce record local traduit une tendance de fond : avec le réchauffement des températures, la maturité des raisins est plus précoce et leur sucrosité plus importante. Cela a pour effet de bouleverser les calendriers et d’augmenter le taux d’alcool des vins.
La précocité n’est pas un mal en soi. Le millésime 2025 a pu être ainsi qualifié de « très joli » et de « vraiment apte à la garde » par le président d’une association de viticulteurs alsaciens. Ce qui est problématique en revanche, c’est l’augmentation du degré d’alcool : elle est néfaste pour la santé et contredit l’orientation actuelle du marché, plutôt demandeur de vins légers et fruités. Autrement dit, le public réclame des vins « à boire » et non « à garder », alors que la hausse des températures favorise plutôt les seconds.
Il faudrait préciser pourtant que l’augmentation des niveaux d’alcool dans les vins n’est pas nouvelle. Elle est même décorrélée du changement climatique :
« Les vins se sont réchauffés bien avant le climat »,
me souffle un jour un ami vigneron. Autrement dit, l’augmentation du degré d’alcool dans les vins a suivi un mouvement tendanciel plus profond au cours de l’histoire, dont on va voir qu’il traduit une certaine façon de définir la « qualité du vin ».
Se pose donc la question de savoir qui a « réchauffé » qui le premier ? Le climat en portant à maturité des grappes de raisins plus sucrées ? ou le savoir-faire des viticulteurs, qui a favorisé des vins plus propices à la conservation – et donc plus alcoolisés ? Postulons que le climat ne fait aujourd’hui qu’exacerber un problème qu’il n’a pas créé le premier. En lui faisant porter seul la responsabilité de la hausse de l’alcool dans les vins, on s’empêche de bien définir ce problème.
De plus, on inverse alors le sens des responsabilités : la vitiviniculture, en tant qu’activité agricole émettrice de gaz à effet de serre, participe à l’augmentation des températures – et cela bien avant que le changement climatique ne l’affecte en retour.
À lire aussi : Vin et changement climatique, 8 000 ans d’adaptation
Disons-le sans détour, l’instauration des appellations d’origine protégée AOP constitue un moment objectif de la hausse des taux d’alcool dans les vins. Dans certaines appellations du sud-est de la France, où j’ai enquêté, elle est parfois associée à des écarts vertigineux de deux degrés en trois à dix ans.
Il faut dire que les cahiers des charges des AOP comportent un « titre alcoométrique volumique naturel minimum » plus élevé que celui des autres vins : l’alcool est perçu comme un témoin de qualité.
Mais il n’est que le résultat visible d’une organisation beaucoup plus générale : si les AOP « réchauffent » les vins, souvent d’ailleurs bien au-delà des minima imposés par les AOP, c’est parce qu’elles promeuvent un ensemble de pratiques agronomiques et techniques qui font augmenter mécaniquement les niveaux d’alcool.
C’est ce paradigme, qui est associé à l’idée de « vin de garde », dont nous allons expliciter l’origine.
Contrairement à une idée répandue, le modèle incarné par les AOP n’est pas représentatif de l’histoire vitivinicole française en général.
Les « vins de garde » n’ont rien d’un canon immuable. Longtemps, la conservation des vins n’a intéressé que certaines élites. C’est l’alignement progressif, en France, des intérêts de l’une d’elles en particulier, la bourgeoisie bordelaise du XIXe siècle, de ceux de l’État et de ceux de l’industrie chimique et pharmaceutique, qui est à l’origine de la vitiviniculture dont nous héritons aujourd’hui.
L’histoire se précipite au milieu du XIXe siècle : Napoléon III signe alors un traité de libre-échange avec l’Angleterre, grande consommatrice de vins, et veut en rationaliser la production. Dans la foulée, son gouvernement sollicite deux scientifiques.
Au premier, Jules Guyot, il commande une enquête sur l’état de la viticulture dans le pays. Au second, Louis Pasteur, il confie un objectif œnologique, car l’exportation intensive de vins ne demande pas seulement que l’on gère plus efficacement la production. Elle exige aussi une plus grande maîtrise de la conservation, qui offre encore trop peu de garanties à l’époque. Pasteur répondra en inventant la pasteurisation, une méthode qui n’a jamais convaincu en œnologie.
À lire aussi : Louis Pasteur : l’empreinte toujours d’actualité d’un révolutionnaire en blouse
Sur le principe, la pasteurisation anticipe toutefois les grandes évolutions techniques du domaine, en particulier le développement du dioxyde de soufre liquide par l’industrie chimique et pharmaceutique de la fin du XIXe siècle. Le dioxyde de soufre (SO2) est un puissant conservateur, un antiseptique et un stabilisant.
Il va permettre un bond en avant dans la rationalisation de l’industrie et de l’économie du vin au XXe siècle (les fameux sulfites ajoutés pour faciliter la conservation), au côté d’autres innovations techniques, comme le développement des levures chimiques. En cela, il va être aidé par la bourgeoisie française, notamment bordelaise, qui investit alors dans la vigne pour asseoir sa légitimité. C’est ce groupe social qui va le plus bénéficier de la situation, tout en contribuant à la définir. Désormais, le vin peut être stocké.
Cela facilite le développement d’une économie capitaliste rationnelle, incarnée par le modèle des « vins de garde » et des AOP ainsi que par celui des AOC et des « crus ».
Bien sûr ce n’est pas, en soi, le fait de pouvoir garder les vins plus longtemps qui a fait augmenter les taux d’alcool. Mais l’horizon esthétique que cette capacité a dessiné.
Un vin qui se garde, c’est en effet un vin qui contient plus de tanins, car ceux-ci facilitent l’épreuve du temps. Or pour obtenir plus de tanins, il faut reculer les vendanges et donc augmenter les niveaux d’alcool, qui participent d’ailleurs aussi à une meilleure conservation.
Ensuite, la garde d’un vin dépend du contenant dans lequel il est élevé. En l’espèce, c’est le chêne, un bois tanique qui a été généralisé (déterminant jusqu’à la plantation des forêts françaises). Il donne aujourd’hui les arômes de vanille aux vins de consommation courante et le « toasté » plus raffiné de leurs cousins haut de gamme.
La garde d’un vin dépend également des choix d’encépagement. En l’espèce, les considérations relatives à la qualité des tanins et/ou à la couleur des jus de raisin ont souvent prévalu sur la prise en compte de la phénologie des cépages (c’est-à-dire, les dates clés où surviennent les événements périodiques du cycle de vie de la vigne).
Ceci a pu favoriser des techniques de sélection mal adaptées aux conditions climatiques et des variétés qui produisent trop d’alcool lorsqu’elles sont plantées hors de leur région d’origine, par exemple la syrah dans les Côtes du Rhône septentrionales.
En effet, la vigne de syrah résiste très bien à la chaleur et les raisins produisent une très belle couleur, raison pour laquelle ils ont été plantés dans le sud. Mais le résultat est de plus en plus sucré, tanique et coloré : la syrah peut alors écraser les autres cépages dans l’assemblage des côtes-du-rhône.
On pourrait évoquer enfin, et parmi beaucoup d’autres pratiques techniques, les vendanges « en vert », qui consiste à éclaircir la vigne pour éviter une maturation partielle du raisin et s’assurer que la vigne ait davantage d’énergie pour achever celle des grappes restant sur pied. Ceci permet d’augmenter la concentration en arômes (et la finesse des vins de garde), mais aussi celle du sucre dans les raisins (et donc d’alcool dans le produit final).
C’est tout un monde qui s’est donc organisé pour produire des vins de garde, des vins charpentés et taillés pour durer qui ne peuvent donc pas être légers et fruités, comme semblent pourtant le demander les consommateurs contemporains.
Ce monde, qui tend à réchauffer les vins et le climat en même temps, n’est pas représentatif de l’histoire vitivinicole française dans son ensemble. Il résulte de la généralisation d’un certain type de rapport économique et esthétique aux vins et à l’environnement.
C’est ce monde dans son entier que le réchauffement climatique devrait donc questionner lorsqu’il oblige, comme aujourd’hui, à ramasser les raisins de plus en plus tôt… Plutôt que l’un ou l’autre de ces aspects seulement.
Comme pistes de réflexion en ce sens, je propose de puiser l’inspiration dans l’univers émergent des vins « sans soufre » (ou sans sulfites) : des vins qui, n’étant plus faits pour être conservés, contiennent moins d’alcool. Ces vins sont de surcroît associés à beaucoup d’inventivité technique tout en étant écologiquement moins délétères, notamment parce qu’ils mobilisent une infrastructure technique bien plus modeste et qu’ils insufflent un esprit d’adaptation plus que de surenchère.
Leur autre atout majeur est de reprendre le fil d’une vitiviniculture populaire que l’histoire moderne a invisibilisée. Ils ne constitueront toutefois pas une nouvelle panacée, mais au moins une piste pour reconnaître et valoriser les vitivinicultures passées et présentes, dans toute leur diversité.
Ce texte a fait l’objet d’une première présentation lors d’un colloque organisé en novembre 2025 par l’Initiative alimentation de Sorbonne Université.
Léo Mariani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.11.2025 à 15:59

La fête de Thanksgiving célèbre la générosité et le partage mais l’histoire des pèlerins n’est qu’une partie d’un récit bien plus complexe.
Neuf Américains sur dix se réunissent autour d’une table pour partager un repas à Thanksgiving. À un moment aussi polarisé, toute occasion susceptible de rassembler les Américains mérite qu’on s’y attarde. Mais en tant qu’historien des religions, je me sens tenu de rappeler que les interprétations populaires de Thanksgiving ont aussi contribué à diviser les Américains.
Ce n’est qu’au tournant du XXe siècle que la plupart des habitants des États-Unis ont commencé à associer Thanksgiving aux « pèlerins » de Plymouth et à des « Indiens » génériques partageant un repas présenté comme fondateur mais ces actions de grâce collectives ont une histoire bien plus ancienne en Amérique du Nord. L’accent mis sur le débarquement des pèlerins en 1620 et sur le festin de 1621 a effacé une grande partie de l’histoire religieuse et restreint l’idée de qui appartient à l’Amérique – excluant parfois des groupes comme les populations autochtones, les catholiques ou les juifs.
La représentation habituelle de Thanksgiving passe sous silence les rituels autochtones de gratitude, notamment les fêtes des récoltes. Les Wampanoag, qui partagèrent un repas avec les pèlerins en 1621, continuent de célébrer la récolte de la canneberge. Par ailleurs, des festins similaires existaient bien avant les voyages de Colomb.
Comme je le souligne dans mon ouvrage de 2025, Religion in the Lands That Became America, on se réunissait déjà pour un festin communautaire à la fin du XIe siècle sur l’esplanade de 50 acres de Cahokia. Cette cité autochtone, située de l’autre côté du fleuve, en face de l’actuelle Saint-Louis, était le plus grand centre de population au nord du Mexique avant la révolution américaine.
Les habitants de Cahokia et leurs voisins se rassemblaient à la fin de l’été ou au début de l’automne pour remercier les divinités, fumer du tabac rituel et consommer des mets particuliers – non pas du maïs, leur aliment de base, mais des animaux à forte valeur symbolique comme les cygnes blancs et les cerfs de Virginie. Autrement dit, ces habitants de Cahokia participaient à un festin « d’action de grâce » cinq siècles avant le repas des pèlerins.
La représentation habituelle atténue aussi la tradition consistant pour les autorités à proclamer des « Jours d’action de grâce », une pratique bien connue des pèlerins et de leurs descendants. Les pèlerins, qui s’installèrent dans ce qui correspond aujourd’hui à Plymouth, dans le Massachusetts, étaient des puritains séparatistes ayant dénoncé les éléments catholiques subsistant dans l’Église protestante d’Angleterre. Ils cherchèrent d’abord à fonder leur propre Église et communauté « purifiée » en Hollande.
Après une douzaine d’années, beaucoup repartirent, traversant l’Atlantique en 1620. La colonie des pèlerins, au sud-est de Boston, fut progressivement intégrée à la colonie de la baie du Massachusetts, fondée en 1630 par un groupe plus important de puritains qui, eux, ne s’étaient pas séparés de l’Église officielle d’Angleterre.
Comme l’ont souligné des historiens, les ministres puritains de l’Église congrégationaliste, reconnue par l’État du Massachusetts, ne prêchaient pas seulement le dimanche. Ils prononçaient aussi, à l’occasion, des sermons spéciaux d’action de grâce, exprimant leur gratitude pour ce que la communauté considérait comme des interventions divines – qu’il s’agisse d’une victoire militaire ou de la fin d’une épidémie.
La pratique s’est maintenue et étendue. Pendant la révolution américaine, par exemple, le Congrès continental déclara un Jour d’action de grâce pour commémorer la victoire de Saratoga en 1777. Le président James Madison proclama plusieurs jours d’action de grâce pendant la guerre de 1812. Les dirigeants des États-Unis comme ceux des États confédérés firent de même durant la guerre de Sécession.
Cette tradition a influencé des Américains comme Sarah Hale, qui plaida pour l’instauration d’un Thanksgiving national. Rédactrice en chef et poétesse surtout connue pour Mary Had a Little Lamb, elle réussit à convaincre Abraham Lincoln en 1863.
La vision que beaucoup d’Américains se font du « premier Thanksgiving » ressemble à la scène représentée dans une peinture de J. L. G. Ferris portant ce titre. Réalisée vers 1915, elle est proche d’une autre image très populaire, The First Thanksgiving at Plymouth, peinte à la même époque par Jennie Augusta Brownscombe. Ces deux œuvres déforment le contexte historique et représentent de manière erronée les participants autochtones issus de la confédération Wampanoag toute proche. Les chefs amérindiens y portent des coiffes propres aux tribus des grandes plaines, et le nombre de participants autochtones est nettement sous-estimé.
Le seul témoignage oculaire qui subsiste est une lettre de 1621 du pèlerin Edward Winslow. Il y rapporte que Massasoit, le chef des Wampanoag, était venu avec 90 hommes. Cela signifie, comme le suggèrent certains historiens, que le repas partagé relevait autant d’un événement diplomatique scellant une alliance que d’une fête agricole célébrant une récolte.
La peinture de Ferris laisse aussi entendre que les Anglais avaient fourni la nourriture. Les habitants de Plymouth apportèrent de la « volaille », comme Winslow s’en souvenait – probablement de la dinde sauvage – mais les Wampanoag ajoutèrent cinq daims qu’ils venaient d’abattre. Même la récolte de « maïs indien » dépendit de l’aide autochtone. Tisquantum, dit Squanto, le seul survivant du village, avait prodigué des conseils vitaux en matière de culture comme de diplomatie.
La scène enjouée de l’image masque aussi à quel point la région avait été bouleversée par la mort. Les pèlerins perdirent près de la moitié de leur groupe à cause de la faim ou du froid durant leur premier hiver. Mais, après les premiers contacts avec des Européens, un nombre bien plus important de Wampanoag étaient morts lors d’une épidémie régionale qui ravagea la zone entre 1616 et 1619. C’est pour cela qu’ils trouvèrent le village de Squanto abandonné, et que les deux communautés furent disposées à conclure l’alliance qu’il facilita.
Les pèlerins sont arrivés tard dans l’histoire de Thanksgiving. La proclamation de 1863 de Lincoln, publiée dans Harper’s Monthly, évoquait « la bénédiction des champs fertiles », mais ne mentionnait pas les pèlerins. Ils n’apparaissaient pas non plus dans l’illustration du magazine. La page montrait villes et campagnes, ainsi que des esclaves émancipés, célébrant la journée par une prière « à l’autel de l’Union ». Pendant des années avant et après cette proclamation, d’ailleurs, de nombreux Sudistes se sont opposés à Thanksgiving, qu’ils percevaient comme une fête abolitionniste, venue du Nord.
L’absence des pèlerins s’explique, puisqu’ils n’étaient pas les premiers Européens à débarquer sur la côte est de l’Amérique du Nord – ni à y rendre grâce. Des catholiques espagnols avaient ainsi fondé Saint-Augustin en 1565. Selon un témoignage de l’époque, le chef espagnol demanda à un prêtre de célébrer la messe le 8 septembre 1565, à laquelle assistèrent des Amérindiens, et « ordonna que les Indiens soient nourris ».
Deux décennies plus tard, un groupe anglais avait tenté, sans succès, de fonder une colonie sur l’île de Roanoke, en Caroline du Nord – incluant un ingénieur juif. Les Anglais eurent davantage de succès lorsqu’ils s’installèrent à Jamestown, en Virginie en 1607. Un commandant chargé de mener un nouveau groupe en Virginie reçut pour instruction de marquer « un jour d’action de grâce au Dieu tout-puissant » en 1619, deux ans avant le repas de Plymouth.
Mais au fil des ans, les pèlerins de Plymouth ont lentement gagné une place centrale dans ce récit fondateur de l’Amérique. En 1769, les habitants de Plymouth firent la promotion de leur ville en organisant un « Forefathers’ Day » (« Jour des Pères fondateurs »). En 1820, le politicien protestant Daniel Webster prononça un discours à l’occasion du bicentenaire du débarquement à Plymouth Rock, louant l’arrivée des pèlerins comme « les premiers pas de l’homme civilisé » dans la nature sauvage. Puis, dans un ouvrage de 1841, Chronicles of the Pilgrim Fathers, un pasteur de Boston réimprima le témoignage de 1621 et décrivit le repas partagé comme « le premier Thanksgiving ».
Entre 1880 et 1920, les pèlerins se sont imposés comme les personnages centraux des récits nationaux sur Thanksgiving et sur les origines des États-Unis. Il n’est pas surprenant que cette période corresponde au pic de l’immigration aux États-Unis, et de nombreux Américains considéraient les nouveaux arrivants comme « inférieurs » à ceux qui avaient débarqué à Plymouth Rock.
Les catholiques irlandais étaient déjà présents à Boston lorsque le volume Pilgrim Fathers parut en 1841, et davantage encore arrivèrent après la famine de la pomme de terre dans les années suivantes. La population étrangère de Boston augmenta lorsque la pauvreté et les troubles politiques poussèrent des catholiques italiens et des juifs russes à chercher une vie meilleure en Amérique.
La même situation se produisait alors dans de nombreuses villes du Nord, et certains protestants étaient inquiets. Dans un best-seller de 1885 intitulé Our Country, un ministre de l’Église congrégationaliste avertissait que « La grandeur de bien des villages de Nouvelle-Angleterre est en train de disparaître, car des hommes, étrangers par leur sang, leur religion et leur culture, s’installent dans des foyers où ont grandi les descendants des pèlerins. »
Lors du 300ᵉ anniversaire du débarquement et du repas, célébré en 1920 et 1921, le gouvernement fédéral émit des timbres commémoratifs et des pièces de monnaie. Des responsables organisèrent des spectacles, et des hommes politiques prononcèrent des discours. Environ 30 000 personnes se rassemblèrent à Plymouth pour entendre le président Warren Harding et le vice-président Calvin Coolidge louer « l’esprit des pèlerins ».
Bientôt, les inquiétudes xénophobes concernant les nouveaux arrivants, en particulier les catholiques et les juifs, amenèrent Coolidge à signer le Immigration Act de 1924, qui allait largement fermer les frontières américaines pendant quatre décennies. Les Américains continuèrent de raconter l’histoire des pèlerins même après que la politique migratoire des États-Unis devint de nouveau plus accueillante en 1965, et beaucoup la relaieront encore l’année prochaine à l’occasion du 250ᵉ anniversaire des États-Unis. Compris dans son contexte complet, c’est un récit qui mérite d’être raconté. Mais il convient de rester prudent, car l’histoire nous rappelle que les histoires sur le passé spirituel du pays peuvent soit nous rassembler, soit nous diviser.
Thomas Tweed ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.11.2025 à 15:55

À en croire un sondage récent, les accents régionaux seraient en train de s’effacer. Derrière cette inquiétude largement relayée se cachent deux réalités que nous connaissons tous mais que nous préférons souvent oublier : la prononciation, par nature éphémère, change constamment et le nivellement actuel des accents n’a rien d’exceptionnel. Quant à l’« accent neutre » auquel nous comparons ces accents régionaux, il n’a jamais existé ailleurs que dans nos imaginaires linguistiques.
Chaque année ou presque, un sondage annonce que les accents seraient « en voie de disparition ». La dernière étude en date, publiée en septembre 2025 par la plateforme Preply et largement propagée par le biais des réseaux sociaux, va dans ce sens : plus d’un Français sur deux (55 %) estimerait que les accents régionaux disparaissent. De manière assez remarquable, cette inquiétude serait surtout portée par les jeunes : près de 60 % des participants de 16 à 28 ans disent constater cette disparition. Cette crainte occulte pourtant deux réalités essentielles : un accent n’est jamais figé, et l’idée d’un accent « neutre » relève davantage du mythe que de la réalité.
Dans les représentations de bon nombre de francophones, il existe une prononciation « neutre » sans marque régionale ou sociale que beaucoup considèrent aussi comme la « bonne prononciation ». Mais cette vision ne résiste pas à l’analyse. Tous les modèles de prononciation avancés jusqu’à aujourd’hui (par exemple, le roi et sa cour au XVIIe siècle, plus tard la bourgeoisie parisienne, et récemment les professionnels de la parole publique, notamment dans les médias audiovisuels) ont en commun un ancrage géographique bien précis : Paris et ses environs, et parfois aussi la Touraine où les rois de France avaient leurs résidences d’été.
L’accent dit « neutre » est donc avant tout un accent parisien. Et la plupart des locuteurs non parisiens le reconnaîtront comme tel. Il n’est pas dépourvu de traits caractéristiques qui nous permettent de le reconnaître, mais il est simplement l’accent du groupe social dominant. D’ailleurs, une enquête menée auprès de différentes communautés parisiennes dans les années 2000 le montrait déjà : les représentations de l’accent parisien varient fortement selon la perspective du locuteur, interne ou externe à la communauté parisienne.
Ainsi, hors de la capitale, de nombreux locuteurs associent Paris à un accent non pas « neutre », mais « dominant » et qu’ils associent implicitement au parler des couches sociales favorisées de la capitale. À Paris même, les perceptions du parler parisien sont beaucoup plus hétérogènes. Certains locuteurs affirment ne pas avoir d’accent, d’autres en reconnaissent plusieurs, comme l’« accent du 16e » (arrondissement) associé aux classes favorisées, « l’accent parigot » des anciens quartiers populaires, ou encore l’« accent des banlieues » socialement défavorisées. Cette pluralité confirme donc une chose : même à Paris, il n’existe pas de prononciation uniforme, encore moins neutre.
Dans une large enquête sur la perception des accents du français menée avec mes collègues Elissa Pustka (Université de Vienne), Jean-David Bellonie (Université des Antilles) et Luise Jansen (Université de Vienne), nous avons étudié différents types de prestige des accents régionaux en France méridionale, au Québec et dans les Antilles. Nos résultats montrent tout d’abord à quel point cette domination de la région parisienne reste vivace dans nos représentations du « bon usage ». Dans les trois régions francophones, les scores liés à ce que l’on appelle le « prestige manifeste » de la prononciation parisienne sont particulièrement élevés. Il s’agit de ce prestige que l’on attribue implicitement aux positions d’autorité et que les locuteurs interrogés associent souvent à un usage « correct » ou « sérieux ». Mais les résultats montrent également l’existence d’un « prestige latent » tout aussi marqué. Il s’agit là d’un prestige que les accents locaux tirent de leur ancrage identitaire. Ce sont souvent les variétés régionales qui sont ainsi caractérisées comme étant « chaleureuses » ou « agréables à entendre », et elles semblent inspirer la sympathie, la confiance, voire une certaine fierté.
Ces deux axes expliquent aussi qu’on puisse, dans la même conversation, dire d’un accent qu’il « n’est pas très correct » tout en le trouvant « agréable à entendre ». Ce jeu de perceptions montre bien que la prétendue neutralité du français « standard » n’existe pas : elle est simplement le reflet d’un équilibre de pouvoirs symboliques continuellement renégocié au sein de la francophonie.
Notre étude montre également que cette association de l’accent parisien au prestige manifeste et des accents dits « périphériques » au prestige latent n’est pas fixée à tout jamais. Dans les trois espaces francophones étudiés, les accents autrefois perçus comme des écarts à la norme deviennent peu à peu porteurs d’un prestige plus manifeste. Ils commencent donc à s’imposer comme des modèles légitimes de prononciation dans de plus en plus de contextes institutionnels ou médiatiques autrefois réservés à la prononciation parisienne.
Ce mouvement s’observe notamment dans les médias audiovisuels. Au Québec, par exemple, les journalistes de Radio-Canada assument et revendiquent aujourd’hui une prononciation québécoise, alors qu’elle aurait été perçue comme trop locale il y a encore quelques décennies. Cette prononciation n’imite plus le français utilisé dans les médias audiovisuels parisiens comme elle l’aurait fait dans les années 1960-1970, mais elle intègre désormais ces traits de prononciation propres au français québécois qui étaient autrefois considérés comme des signes de relâchement ou de mauvaise diction.
Ces changements montrent que la hiérarchie traditionnelle des accents du français se redéfinit. L’accent parisien conserve une position largement dominante, mais son monopole symbolique s’effrite. D’autres formes de français acquièrent à leur tour des fonctions de prestige manifeste : elles deviennent acceptables, voire valorisées, dans des usages publics de plus en plus variés. Ce processus relève d’une lente réévaluation collective des modèles de légitimité linguistique.
Revenons à la question des changements perçus dans les accents régionaux évoquée en introduction. La langue est, par nature, en perpétuel mouvement, et la prononciation n’y échappe pas : certains traits s’atténuent, d’autres se diffusent sous l’effet de facteurs notamment sociaux. La mobilité des locuteurs, par exemple, favorise le contact entre des variétés de français autrefois plus isolées les unes des autres. Ce phénomène est particulièrement visible dans des métropoles comme Paris, Marseille ou Montréal, où se côtoient quotidiennement des profils linguistiques hétérogènes. À cela s’ajoute l’influence des médias, amorcée avec la radio et la télévision au début du XXe siècle et aujourd’hui démultipliée par les réseaux sociaux. Ces dynamiques expliquent en partie le nivellement actuel de certains accents, avec la raréfaction de certains traits locaux. Mais cela ne signifie pas pour autant la disparition de toute variation. Des mouvements parallèles de différenciation continuent d’exister et font émerger de nouveaux accents, qu’ils soient liés à l’origine géographique des locuteurs ou à leur appartenance à un groupe social.
À côté de ces changements « internes à la langue », les valeurs sociales que l’on associe à ces variétés évoluent elles aussi. Les frontières de ce qui paraît « correct », « populaire », « légitime » se déplacent avec les représentations collectives. Ainsi, aussi bien les accents que les hiérarchies qui les encadrent se reconfigurent régulièrement. Une observation qui distingue notre époque, cependant, c’est le fait que les normes langagières ne se redéfinissent plus seulement « par le haut » sous l’influence « normative » d’institutions comme l’Académie française, mais aussi « par le bas » sous l’effet des usages de la langue quotidienne qui s’imposent simplement par la pratique.
En somme, même si l’on redoute la disparition des accents, la variation continuera toujours de suivre son cours. Nul ne peut la figer. Et l’accent prétendument « neutre » n’a jamais existé autrement que dans nos représentations fantasmées. Ainsi, la prochaine fois que vous entendez quelqu’un vous dire qu’il ou elle ne pense pas avoir d’accent, souvenez-vous que ce n’est pas qu’il n’en a pas, mais que c’est simplement le sien qui (jusqu’ici) a dominé – pour reprendre les propos de Louis-Jean Calvet – dans la Guerre des langues et les politiques linguistiques (1987).
Marc Chalier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.11.2025 à 15:50
Une disposition passée inaperçue dans le budget fédéral des États-Unis signé par le président Trump pourrait bouleverser une industrie florissante : celle des boissons au THC.
Le 12 novembre 2025, le Congrès américain a voté une loi limitant les produits à base de chanvre à 0,4 mg de delta-9-tétrahydrocannabinol, autrement dit THC, par contenant. Cette mesure, après une période de grâce d’un an, interdit de facto la plupart des nombreuses boissons, gommes et cigarettes électroniques (« vapes ») au THC actuellement vendues dans les stations-service, supermarchés et bars américains. Pour comprendre l’importance de cette nouvelle, il faut d’abord expliquer comment ce marché fonctionne, et pourquoi cette interdiction pourrait être appliquée… ou ignorée.
La plante de cannabis contient plus de cent « cannabinoïdes », des composés chimiques qui interagissent avec le système endocannabinoïde humain. Le THC (tétrahydrocannabinol) est considéré principal responsable des effets psychoactifs. Légal aux États-Unis au XIXe siècle, le cannabis est progressivement interdit à partir de 1937, puis classé en 1970 comme narcotique de catégorie I – la plus strictement prohibée.
Depuis 1996, certains États américains ont commencé à légaliser le cannabis, d’abord à usage médical, puis récréatif à partir de 2012. Aujourd’hui, plus de 40 États l’autorisent sous une forme ou une autre, mais il reste illégal au niveau fédéral.
Dans ce contexte de contradictions entre lois fédérales et étatiques, une nouvelle distinction va tout changer : celle entre « cannabis » et « chanvre ».
Vous n’en avez probablement jamais entendu parler, pourtant selon Fortune Business Insight le marché des boissons au THC génère déjà plus de 3 milliards de dollars (plus de 2,6 milliards d’euros) aux États-Unis.
Tout commence en 2018, lorsque le Farm Bill américain légalise le « chanvre » – défini comme du cannabis contenant 0,3 % ou moins de THC. L’objectif initial était de relancer l’industrie du chanvre industriel pour produire des textiles et des matériaux. Mais la loi contient une ambiguïté cruciale : ce seuil de 0,3 % s’applique au poids à sec de la plante, sans préciser de norme pour les produits transformés.
Des industriels américains ont rapidement identifié une opportunité. Pour une gomme typique de 5 grammes contenant 10 milligrammes de THC, soit une dose standard, le THC ne représente que 0,2 % du poids total. Pour une boisson de 355 grammes (12 onces) la même dose, le THC ne représente que 0,003 % du poids total. Techniquement, ces produits sont du « chanvre » légal, même s’ils produisent des effets psychoactifs identiques au cannabis.
À lire aussi : Contre les insomnies, le cannabis thérapeutique présente-t-il un intérêt ?
Résultat : dès 2021, des boissons et gommes au THC psychoactif ont commencé à apparaître dans les magasins et les bars des États où aucune loi sur le cannabis récréatif n’existait.
Concernant les boissons, cette faille juridique n’aurait jamais créé une industrie de plusieurs milliards de dollars sans une percée technologique cruciale apparue au début des années 2020, la nano-émulsion.
Le THC est une molécule lipophile qui se sépare naturellement de l’eau. Pendant des années, les fabricants ont tenté de créer des boissons stables au THC. Les émulsions traditionnelles prenaient de soixante à cent vingt minutes pour produire leurs effets : vitesse bien trop lente pour concurrencer ceux de l’alcool.
La nano-émulsion change la donne. En réduisant les gouttelettes de THC à l’échelle nanométrique, cette technologie permet au THC de se dissoudre efficacement dans l’eau et d’être absorbé par l’organisme en vingt minutes environ : un délai comparable à celui d’une bière ou d’un cocktail.
Pour la première fois, les boissons au THC peuvent se positionner comme des substituts fonctionnels aux boissons alcoolisées.
L’innovation technologique ne suffit pas à expliquer le succès commercial. Les mêmes boissons au THC affichent des résultats diamétralement opposés selon leur canal de distribution.
Dans les États où le cannabis récréatif est légal (en Californie ou à New York, par exemple), les boissons au THC ne sont vendues que dans des dispensaires (boutiques spécialisées dans la vente de cannabis), où elles représentent moins de 1 % des ventes totales de cannabis. En cause : les consommateurs habitués des dispensaires ne s’y rendent pas pour acheter leurs boissons quotidiennes comme ils achèteraient de la bière, par exemple, mais plutôt pour acquérir des produits plus forts comme la fleur de cannabis et les cigarettes électroniques. Une boisson au THC à 7 dollars (6 euros) offre une dose unique, alors qu’une recharge de cigarette électronique à 15 dollars (près de 13 euros) en fournit entre dix et vingt. De plus, les dispensaires doivent également composer avec des contraintes de réfrigération et d’espace qui pénalisent les produits volumineux comme les canettes.
Dans les États où le cannabis récréatif n’est pas légal comme le Texas, la Floride ou la Caroline du Nord par exemple, la situation est différente. Ces mêmes boissons au THC, étiquetées « chanvre », sont distribuées dans les supermarchés et les bars aux côtés des boissons alcoolisées. Elles sont proposées à un prix inférieur (4 ou 5 dollars, soit 3 ou 4 euros) que dans les dispensaires, en raison d’une réglementation plus souple et plus avantageuse fiscalement. Des enseignes, comme les stations-service Circle K, les grandes surfaces Target ou la chaîne de restaurants Applebee’s, ont intégré ces produits à leur offre. D’après des sources internes, les boissons au THC représenteraient 12 % du chiffre d’affaires texan de Total Wine la plus grande chaîne américaine de distribution de boissons alcoolisées.
La différence réside dans le contexte concurrentiel. Dans les supermarchés et les bars, les boissons au THC se placent face à la bière, au vin et aux spiritueux, un marché en déclin aux États-Unis, notamment chez les jeunes consommateurs.
Mais certains acteurs de l’industrie des boissons alcoolisées y voient une opportunité commerciale pour la vente sur place et à emporter. Un client ne consommant pas d’alcool et qui commandait autrefois un verre d’eau au bar peut désormais acheter un cocktail au THC et générer du chiffre d’affaires pour l’établissement.
L’interdiction votée le 12 novembre 2025 entrera en vigueur dans un an. Elle rendra illégaux au niveau fédéral la plupart des produits au chanvre psychoactif actuellement commercialisés. Mais le Texas et plusieurs autres États, souvent conservateurs, ont déjà légalisé ces produits en légiférant au niveau étatique.
Cette contradiction entre la loi fédérale et les lois étatiques n’a rien d’inédit. Plus de 40 États américains ont légalisé le cannabis médical ou récréatif alors qu’il reste interdit au niveau fédéral. Dans la pratique, les forces de l’ordre locales appliquent les lois étatiques, non les lois fédérales. Le Texas, dont l’industrie du chanvre pèse 4,5 milliards de dollars (soit 3,8 milliards d’euros), rejoint ainsi les nombreux États dont les législations entrent en conflit avec Washington.
Une distinction juridique technique (le seuil de 0,3 % de THC en poids sec établi par le Farm Bill de 2018) a créé en quelques années une industrie de plusieurs milliards de dollars qui concurrence directement le marché des boissons alcoolisées. Malgré la nouvelle tentative du Congrès pour l’empêcher, cette industrie pourrait suivre la trajectoire du cannabis récréatif : interdite au niveau fédéral, mais florissante dans les États qui choisissent de ne pas appliquer cette nouvelle mesure.
Robin Goldstein a reçu des financements de l'Université de Californie.
Magalie DUBOIS ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.11.2025 à 15:45
Visionnaire de la culture numérique, Jean Baudrillard pensait l’intelligence artificielle comme une prothèse mentale capable d’exorciser notre humanité, et un renoncement à notre liberté.
Certains penseurs semblent si précis dans leur compréhension du lieu vers lequel la société et la technique nous emportent qu’ils sont affublés du titre de « prophète ». C’est le cas de J. G. Ballard, Octavia E. Butler, ou encore Donna Haraway.
L’un des membres les plus importants de ce club est le penseur Jean Baudrillard (1929-2007) – bien que sa réputation se soit amoindrie depuis une vingtaine d’années, il est désormais vaguement associé à l’époque révolue où les théoriciens français tels que Roland Barthes et Jacques Derrida régnaient en maîtres.
Lorsque nous l’avons relu pour écrire la nouvelle biographie qui lui est consacrée, nous nous sommes toutefois souvenus à quel point ses prédictions sur la technologie contemporaine et ses effets se révélaient prémonitoires. Sa compréhension de la culture numérique et de l’intelligence artificielle (IA) s’avère particulièrement clairvoyante – d’autant que ses écrits l’ont présentée plus de trente ans avant le lancement de ChatGPT.
Il faut bien se figurer que les technologies de communication de pointe des années 1980 nous paraissent désormais totalement obsolètes : Baudrillard écrit alors que l’entourent des répondeurs téléphoniques, des fax, et bien sûr, le Minitel, prélude médiatique franco-français au réseau Internet. Son génie résidait dans une aptitude à entrevoir au sein de ces dispositifs relativement rudimentaires une projection des usages probables de la technologie dans le futur.
À la fin des années 1970, il avait déjà commencé à développer une théorie originale de l’information et de la communication. Celle-ci s’est encore déployée à partir de la publication de Simulacres et Simulation en 1981 (l’ouvrage qui a influencé les sœurs Wachowski dans l’écriture du film Matrix, sorti en 1999).
Dès 1986, le philosophe observait :
« Aujourd’hui, plus de scène ni de miroir, mais un écran et un réseau. »
Il prédit alors l’usage généralisé du smartphone, en imaginant que chacun d’entre nous serait aux commandes d’une machine qui nous tiendrait isolés « en position de parfaite souveraineté », comme un « cosmonaute dans sa bulle ». Ces réflexions lui ont permis d’élaborer son concept le plus célèbre : la théorie d’après laquelle nous serions entrés dans l’ère de « l’hyperréalité ».
Dans les années 1990, Baudrillard a porté son attention sur les effets de l’IA, d’une manière qui nous aide à la fois à mieux comprendre son essor tentaculaire dans le monde contemporain et à mieux concevoir la disparition progressive de la réalité, disparition à laquelle nous faisons face chaque jour avec un peu plus d’acuité.
Les lecteurs avertis de Baudrillard n’ont probablement pas été surpris par l’émergence de l’actrice virtuelle Tilly Norwood, générée par IA. Il s’agit d’une étape tout à fait logique dans le développement des simulations et autres deepfake, qui semble conforme à sa vision du monde hyperréel.
Baudrillard envisageait l’IA comme une prothèse, un équivalent mental des membres artificiels, des valves cardiaques, des lentilles de contact ou encore des opérations de chirurgie esthétique. Son rôle serait de nous aider à mieux réfléchir, voire à réfléchir à notre place, ainsi que le conceptualisent ses ouvrages la Transparence du mal (1990) ou le Crime parfait (1995).
Mais il était convaincu qu’au fond, tout cela ne nous permettrait en réalité uniquement de vivre « le spectacle de la pensée », plutôt que nous engager vers la pensée elle-même. Autrement dit, cela signifie que nous pourrions alors repousser indéfiniment l’action de réfléchir. Et d’après Baudrillard, la conséquence était limpide : s’immerger dans l’IA équivaudrait à renoncer à notre liberté.
Voilà pourquoi Baudrillard pensait que la culture numérique précipiterait la « disparition » des êtres humains. Bien entendu, il ne parlait pas de disparition au sens littéral, ni ne supposait que nous serions un jour réduits à la servitude comme dans Matrix. Il envisageait plutôt cette externalisation de notre intelligence au sein de machines comme une manière « d’exorciser » notre humanité.
En définitive, il comprenait toutefois que le danger qui consiste à sacrifier notre humanité au profit d’une machine ne proviendrait pas de la technologie elle-même, mais bien que la manière dont nous nous lions à elle. Et de fait, nous nous reposons désormais prodigieusement sur de vastes modèles linguistiques comme ChatGPT. Nous les sollicitons pour prendre des décisions à notre place, comme si l’interface était un oracle ou bien notre conseiller personnel.
Ce type de dépendance peut mener aux pires conséquences, comme celles de tomber amoureux d’une IA, de développer des psychoses induites par l’IA, ou encore, d’être guidé dans son suicide par un chatbot.
Bien entendu, les représentations anthropomorphiques des chatbots, le choix de prénoms comme Claude ou encore le fait de les désigner comme des « compagnons » n’aide pas. Mais Baudrillard avait pressenti que le problème ne provenait pas de la technologie elle-même, mais plutôt de notre désir de lui céder la réalité.
Le fait de tomber amoureux d’une IA ou de s’en remettre à sa décision est un problème humain, non pas un problème propre à la machine. Encore que, le résultat demeure plus ou moins le même. Le comportement de plus en plus étrange de Grok – porté par Elon Musk – s’explique simplement par son accès en temps réels aux informations (opinions, assertions arbitraires, complots) qui circulent sur X, plateforme dans laquelle il est intégré.
De la même manière que les êtres humains sont façonnés par leur interaction avec l’IA, l’IA est dressée par ses utilisateurs. D’après Baudrillard, les progrès technologiques des années 1990 rendaient déjà impossible la réponse à la question « Suis-je un être humain ou une machine ? »
Il semblait confiant malgré tout, puisqu’il pensait que la distinction entre l’homme et la machine demeurerait indéfectible. L’IA ne pourrait jamais prendre plaisir à ses propres opérations à la manière dont les humains apprécient leur propre humanité, par exemple en expérimentant l’amour, la musique ou le sport. Mais cette prédiction pourrait bien être contredite par Tilly Norwood qui a déclaré dans le post Facebook qui la révélait au public :
« Je suis peut-être générée par une IA, mais je ressens des émotions bien réelles. »
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
24.11.2025 à 16:33
On associe volontiers les dictateurs aux discours tonitruants et exaltés d’un Hitler ou d’un Mussolini et à une mise en scène exubérante pensée pour galvaniser les foules. Franco, lui, a fait exactement l’inverse : les prises de parole de l’homme qui a verrouillé l’Espagne pendant près de quarante ans se distinguaient par une élocution froide et monotone et un style volontairement très austère.
Francisco Franco (1892-1975) a été le chef de l’État espagnol de la fin de la guerre civile (1936-1939) jusqu’à sa mort. Le régime franquiste a instauré une dictature autoritaire, qui a supprimé les libertés politiques et a établi un contrôle strict sur la société. Pendant près de quarante ans, son leadership a profondément marqué la vie politique, économique et culturelle de l’Espagne, dont l’empreinte durable a souvent fait et fait encore l’objet de controverses.
Mais d’un point de vue communicationnel, peut-on dire que Franco était un grand orateur ?
Cela dépend de la façon dont on définit « grand orateur ». Si l’on entend par éloquence la capacité à émouvoir, persuader ou mobiliser par la parole – comme savaient le faire Churchill ou de Gaulle –, Franco n’était pas un grand orateur. Cependant, si l’on analyse sa communication du point de vue de l’efficacité politique et symbolique, son style remplissait une fonction spécifique : il transmettait une impression d’autorité, de distance et de contrôle.
Son éloquence ne visait pas à séduire le public, mais à légitimer le pouvoir et à renforcer une image de stabilité hiérarchique. En ce sens, Franco a développé un type de communication que l’on pourrait qualifier de « discours de commandement », caractérisé par une faible expressivité et une rigidité formelle, mais qui cadrait avec la culture politique autoritaire du franquisme.
Sur le plan verbal, Franco s’appuyait sur un registre archaïque et protocolaire. Son lexique était limité, avec une abondance de formules rituelles (« tous espagnols », « glorieuse armée », « grâce à Dieu ») qui fonctionnaient davantage comme des marqueurs idéologiques que comme des éléments informatifs.
Du point de vue de l’analyse du discours, sa syntaxe tendait à une subordination excessive, ce qui générait des phrases longues, monotones et peu dynamiques. On observe également une préférence pour le mode passif et les constructions impersonnelles, qui diluent la responsabilité de l’émetteur : « il a été décidé », « il est jugé opportun », « il a été nécessaire ».
Ce choix verbal n’est pas neutre ; il constitue un mécanisme de dépersonnalisation du pouvoir, dans lequel la figure du leader est présentée comme l’incarnation de l’État, et non comme un individu qui prend des décisions. Ainsi, sur le plan verbal, Franco communique davantage en tant qu’institution qu’en tant que personne.
C’est un aspect caractéristique de sa communication. Franco avait une intonation monotone, avec peu de variations mélodiques. D’un point de vue prosodique, on pourrait dire que son discours présentait un schéma descendant constant : il commençait une phrase avec une certaine énergie et l’atténuait vers la fin, ce qui donnait une impression de lenteur et d’autorité immuable.
Le rythme était lent, presque liturgique, avec de nombreux silences. Cette lenteur n’était pas fortuite : dans le contexte politique de la dictature, elle contribuait à la ritualisation du discours. La parole du caudillo ne devait pas être spontanée, mais solennelle, presque sacrée.
Son timbre nasal et son articulation fermée rendaient difficile l’expressivité émotionnelle, mais renforçaient la distance. Ce manque de chaleur vocale servait la fonction propagandiste. Le leader n’était pas un orateur charismatique, mais une figure d’autorité, une voix qui émanait du pouvoir lui-même. En substance, sa voix construisait une « éthique du commandement » : rigide, froide et contrôlée.
Sa communication non verbale était extrêmement contrôlée. Franco évitait les gestes amples, les déplacements ou les expressions faciales marquées. Il privilégiait une kinésique minimale, c’est-à-dire un langage corporel réduit au strict nécessaire.
Lorsqu’il s’exprimait en public, il adoptait une posture rigide, les bras collés au corps ou appuyés sur le pupitre, sans mouvements superflus. Ce contrôle corporel renforçait l’idée de discipline militaire et de maîtrise émotionnelle, deux valeurs essentielles dans sa représentation du leadership.
Son regard avait tendance à être fixe, sans chercher le contact visuel direct avec l’auditoire. Cela pourrait être interprété comme un manque de communication du point de vue actuel, mais dans le contexte d’un régime autoritaire, cela consistait à instaurer une distance symbolique : le leader ne s’abaissait pas au niveau de ses auditeurs. Même ses vêtements – l’uniforme, le béret ou l’insigne – faisaient partie de sa communication non verbale, car il s’agissait d’éléments qui transmettaient l’idée de la permanence, de la continuité et de la légitimité historique.
Le charisme n’est pas un attribut absolu, mais une construction sociale. Franco ne jouait pas sur une forme de charisme émotionnel, comme Hitler ou Mussolini, mais il avait un charisme bureaucratique et paternaliste. Son pouvoir découlait de la redéfinition du silence et de l’austérité, car dans un pays dévasté par la guerre, son style sobre était interprété comme synonyme d’ordre et de prévisibilité. Son « anti-charisme » finit donc par être, d’une certaine manière, une forme de charisme adaptée au contexte espagnol de l’après-guerre.
Du point de vue de la théorie de la communication, quel impact ce style avait-il sur la réception du message ? Le discours de Franco s’inscrivait dans ce que l’on pourrait appeler un modèle unidirectionnel de communication politique. Il n’y avait pas de rétroaction : le récepteur ne pouvait ni répondre ni remettre en question. L’objectif n’était donc pas de persuader, mais d’imposer un sens.
En appliquant là théorie de la communication du linguiste Roman Jakobson, on constate que les discours solennels de Franco, la froideur de son ton, visaient à forcer l’obéissance de l’auditoire en empêchant toute forme d’esprit critique et en bloquant l’expression des émotions.
Au fil du temps, son art oratoire n’a évolué qu’en apparence. Dans les années 1950 et 1960, avec l’ouverture du régime, on perçoit une légère tentative de modernisation rhétorique, tout particulièrement dans les discours institutionnels diffusés à la télévision. Cependant, les changements étaient superficiels : Franco usait de la même prosodie monotone et du même langage rituel. En réalité, le média télévisuel accentuait sa rigidité. Face aux nouveaux dirigeants européens qui profitaient de la caméra pour s’humaniser, Franco apparaissait anachronique.
L’exemple de Franco démontre que l’efficacité communicative ne dépend pas toujours du charisme ou de l’éloquence, mais plutôt de la cohérence entre le style personnel et le contexte politique. Son art oratoire fonctionnait parce qu’il était en accord avec un système fermé, hiérarchique et ritualisé. Dans l’enseignement de la communication, son exemple sert à illustrer comment les niveaux verbal, paraverbal et non verbal construisent un même récit idéologique. Dans son cas, tous convergent vers un seul message : le pouvoir ne dialogue pas, il dicte.
Aujourd’hui, dans les démocraties médiatiques, ce modèle serait impensable ; néanmoins, son étude aide à comprendre comment le langage façonne les structures du pouvoir, et comment le silence, lorsqu’il est institutionnalisé, peut devenir une forme de communication politique efficace.
Susana Ridao Rodrigo ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.