26.02.2026 à 11:29
Jordy Bony, Docteur et Professeur en droit à l'EM Lyon, EM Lyon Business School
Quand le chat, malgré sa liberté légendaire, se heurte à un adversaire aussi têtu que le Code civil, quand un plaignant obtient, outre des dommages et intérêts, le versement d’une astreinte financière de 30 euros chaque fois que le félin domestique de sa voisine entrera dans son jardin, cela donne un jugement qui fait beaucoup jaser médiatiquement, mais qui n’est pas du tout surprenant quand on regarde ce que dit le droit.
Le Code civil n’aime pas les chats parce qu’ils sont indisciplinés, imprévisibles et libres, trois qualités que le droit supporte mal. En revanche, il aime la responsabilité, car elle permet de réparer sans juger.
Retour sur une actualité surprenante datant de 2025 : une propriétaire de chat a été condamnée à payer 1 250 euros à son voisin pour des dégradations causées par son animal. Si cette décision a suscité beaucoup d’émoi, elle permet aussi de mieux comprendre une logique du droit civil méconnue du grand public, celle de la réparation sans faute du fait de l’animal, et, de façon plus globale les enjeux juridiques concernant le statut de nos compagnons domestiques.
En l’espèce, une propriétaire de chat vivant dans une maison individuelle laissait son animal circuler librement à l’extérieur. À plusieurs reprises, le chat s’est introduit dans la propriété voisine, où il a causé diverses dégradations, notamment dans le jardin et les aménagements extérieurs. Malgré les démarches amiables entreprises par le voisin pour faire cesser ces intrusions, les passages répétés de l’animal se sont poursuivis.
Estimant subir un préjudice anormal et récurrent, le voisin a alors saisi le tribunal judiciaire compétent. Il reprochait à la propriétaire de ne pas avoir pris les mesures nécessaires pour empêcher son chat de pénétrer sur sa propriété et sollicitait une indemnisation au titre des nuisances et dégradations subies.
Par une ordonnance rendue en janvier 2025, le tribunal de Béziers (Hérault) a fait droit à cette demande. Il a condamné la propriétaire du chat à verser une somme totale de 1 250 euros, comprenant des dommages et intérêts ainsi que des frais de justice. Le juge a également assorti sa décision d’une astreinte financière en cas de nouvelles intrusions de l’animal sur la propriété voisine (soit 30 euros à chaque passage de l’animal chez le voisin), afin d’inciter la propriétaire à prendre des mesures effectives pour y mettre fin. À noter que le voisin avait installé des caméras chez lui pour prouver le passage du chat.
Cette décision, largement relayée dans les médias, a pu surprendre par son montant et par l’idée même qu’un propriétaire puisse être tenu de réparer le comportement d’un chat, animal souvent perçu comme indépendant et difficilement contrôlable. Elle s’inscrit pourtant dans une logique juridique bien établie en droit civil, fondée sur la responsabilité du gardien de l’animal et sur la protection des victimes de troubles anormaux de voisinage.
La première clé de compréhension, très pragmatique, est la suivante : le droit civil ne s’intéresse pas à l’intention de l’animal. Il s’intéresse à une question plus terre-à-terre : qui doit réparer le dommage survenu à la suite des intrusions du chat ?
C’est précisément l’objet de la responsabilité civile : remettre la victime du dommage, autant que possible, dans la situation où elle se serait trouvée si le dommage n’avait pas eu lieu. Et c’est là que le chat, malgré son indépendance légendaire, tombe sur un adversaire plus têtu que lui : le Code civil.
En droit civil français, la responsabilité civile est encadrée par les articles 1240 et suivants du code civil. L’article 1243 intéresse particulièrement notre cas. Il énonce la chose suivante :
« Le propriétaire d’un animal, ou celui qui s’en sert, pendant qu’il est à son usage, est responsable du dommage que l’animal a causé, soit que l’animal fût sous sa garde, soit qu’il fût égaré ou échappé. »
Autrement dit le propriétaire dont le chat erre dans le voisinage devra répondre des dégradations commises par ce dernier, qu’importe que cela soit le résultat d’un manque de diligence ou non. Le Code civil est plutôt clair sur la question.
Il en va de même pour les parents responsables de leurs enfants mineurs causant des dégradations ou des instituteurs et artisans qui sont responsables de leurs élèves et apprentis lorsqu’ils sont sous leur surveillance.
Il faut insister sur un point qui explique, à lui seul, le sentiment de « sévérité » que cette affaire peut susciter : la responsabilité du fait des animaux est une responsabilité de plein droit. Concrètement, le voisin n’a pas à démontrer que la propriétaire a été négligente ni qu’elle « aurait pu faire mieux » : il doit surtout établir que l’animal a joué un rôle dans la survenance du dommage et que la personne poursuivie en était le propriétaire ou, plus largement, le gardien. Qu’importe, d’ailleurs, que l’animal viennent une seule fois ou de façon récurrente. À partir du moment où le lien peut être établi avec certitude entre un dommage certain, la venue du chat et le propriétaire, la responsabilité peut être engagée.
En droit, la notion de « garde » renvoie à l’idée de maîtrise : celui qui a l’usage, le contrôle et la direction de l’animal. Dans l’immense majorité des cas, c’est le propriétaire. Et c’est précisément parce que le chat est un chat (mobile, autonome, parfois fugueur) que le droit choisit une règle simple : la victime ne supporte pas le risque de cette autonomie ; le gardien, si, lorsqu’il est parfaitement identifiable.
C’est quelque chose qui peut être sous-estimé, mais adopter un animal est de fait vecteur de responsabilité. La Société protectrice des animaux (SPA) met d’ailleurs régulièrement à jour la liste des obligations des propriétaires d’animaux domestiques.
À ce stade, le raisonnement est clair, mais l’affaire ne se limite pas à un pot de fleurs renversé. Elle parle aussi de voisinage. En effet, le deuxième fondement utile pour comprendre la décision est la théorie du trouble anormal de voisinage, désormais consacrée dans le Code civil. L’article 1253 dispose que
« Le propriétaire […] qui est à l’origine d’un trouble excédant les inconvénients normaux de voisinage est responsable de plein droit du dommage qui en résulte. »
Dans le langage juridique, « de plein droit » signifie ici que la victime n’a pas à prouver une faute, à condition d’établir l’existence d’un trouble anormal et un lien de causalité entre ce trouble et le chat.
Là encore, la logique est accessible : vivre en société implique d’accepter des désagréments ordinaires. Mais lorsqu’une nuisance dépasse ce qu’on peut raisonnablement tolérer (par sa répétition, sa durée, sa fréquence ou son intensité), le droit ouvre droit à réparation. Dans cette affaire, la répétition des intrusions (et la persistance malgré les démarches amiables) est précisément ce qui fait basculer le dossier du simple incident vers un trouble que le juge peut considérer comme anormal.
Reste enfin une question plus générale, qui explique aussi l’étonnement du public : quel est, au juste, le statut juridique d’un animal ?
Le droit français reconnaît la singularité de l’animal : l’article 515-14 du Code civil dispose que les animaux sont des êtres vivants doués de sensibilité, tout en précisant qu’ils demeurent soumis au régime des biens (sous réserve des lois qui les protègent).
Autrement dit l’animal n’est pas reconnu comme un bien classique au sens du Code civil, mais il n’est pas non plus un sujet de droit civilement « débiteur » : il ne peut pas, juridiquement, être condamné à indemniser. Le droit civil se tourne donc vers une personne : le gardien, parce que c’est le seul acteur doté d’un patrimoine sur lequel la réparation peut s’exécuter. C’est cette singularité qui permet d’affirmer avec humour que « le droit civil n’aime pas les chats » dans le sens où l’animal, en général, s’est révélé être un des enjeux juridiques de la modernisation du droit civil.
Le statut juridique de l’animal demeure toujours un sujet d’intenses débats, riches également en précédents historiques qui peuvent sembler étonnants, à l’instar des procès des animaux qui ont été rendus du XIIIᵉ au XVIᵉ siècle. Aujourd’hui, les poursuites pénales à l’encontre des animaux ne sont pas possibles puisqu’ils sont dénués de personnalité juridique. C’est un élément auquel il faut cependant faire attention, car certaines personnes défendent aujourd’hui l’octroi d’une personnalité juridique animale.
Au fond, cette affaire en dit moins sur les chats que sur le droit civil : ce dernier ne moralise pas, il œuvre pour la réparation. Le propriétaire d’un animal peut trouver cela injuste, surtout lorsque l’animal échappe en partie à son contrôle. Mais c’est précisément la logique du système : éviter que la victime supporte seule un trouble qu’elle n’a pas choisi. Le droit civil n’a pas de préférence pour les chats ou contre eux. Il a une préférence constante : identifier un responsable et réparer.
Si le chat fauteur de troubles avait été un animal errant sans propriétaire, il aurait été manifestement impossible pour le propriétaire du jardin d’obtenir réparation, en l’absence de gardien identifié du félin. Idem pour les animaux non domestiques qui doivent faire l’objet d’une autre forme de contrôle.
À cet égard, le statut du chat peut troubler. Si le droit le considère comme un animal domestique quand il a un gardien, certains peuvent questionner cette nature. C’est ce que souligne l’historienne des sciences Valérie Chansigaud dans Histoire de la domestication animale (2020), lorsqu’elle rappelle le statut atypique du chat. À la différence de nombreuses races de chiens dont l’aptitude à la chasse s’est trouvée « altérée par la domestication », le chat conserve généralement ses capacités de prédateur. Il peut s’éloigner de son gardien, et il reste « difficile de distinguer morphologiquement » les chats domestiques des chats sauvages. Le chat demeure ainsi, écrit-elle, « une énigme » qui « interroge la notion même de domestication ».
Jordy Bony ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 16:52
Maryline Filippi, Professeure d'économie Bordeaux Sciences Agro - Université de Bordeaux, Chercheuse associée INRAE à AgroParisTech, Université de Paris Saclay., AgroParisTech – Université Paris-Saclay

En 2025, les 2 100 coopératives agricoles françaises sont dans la tourmente. Résultat, entre la guerre tarifaire de Donald Trump, le conflit en Ukraine et les accords du Mercosur, elles s’unissent en groupes coopératifs pour affronter les mastodontes mondiaux de l’agroalimentaire. Mais, concrètement, comment ces entreprises singulières peuvent-elles conserver leurs principes coopératifs dans des structures aussi gigantesques ?
Le Salon international de l’agriculture de Paris est l’occasion ici de vous demander si vous savez quelles sont les entreprises qui représentent trois agriculteurs sur quatre, une marque alimentaire sur trois et 70 % de la production agricole française ? Réponse : les coopératives agricoles.
Ces derniers mois, des projets de rapprochement d’envergure conduisent à envisager la création de groupes coopératifs pesant plusieurs milliards d’euros de chiffres d’affaires. À titre d’exemple, le montant évoqué pour la fusion de la coopérative normande Agrial avec son homologue des Pays de la Loire Terrena est estimé à 12 milliards d’euros. Ce groupe regrouperait un portefeuille de marques iconiques, comme Florette, Soignon, Tipiak ou Père Dodu.
Ces processus de rapprochement concernent également des coopératives de taille plus modeste comme les coopératives viticoles de Vinay et de Mancy, à Épernay (Marne).
Derrière ces montants qui peuvent sembler stratosphériques, ces groupes conservent un statut coopératif, défini comme « une association autonome de personnes volontairement réunies pour satisfaire leurs aspirations et besoins économiques, sociaux et culturels communs au moyen d’une entreprise dont la propriété est collective et où le pouvoir est exercé démocratiquement ».
Alors, peut-on considérer que ces concentrations restent compatibles avec le modèle coopératif ? La taille économique rime-t-elle avec l’intérêt des associés coopérateurs ?
En France, les coopératives sont régies par la loi de 1947, déclinée pour les coopératives agricoles dans le Code rural de la pêche maritime. Peu de modifications législatives sont intervenues depuis. Cependant, les lois n°91-005 du 3 janvier 1991 et celle n°92-643 du 13 juillet 1992 ont ajouté des dispositifs conduisant à leur développement conséquent sous forme de groupe coopératif et impactant leur gouvernance démocratique.
Ces groupes coopératifs sont devenus des acteurs économiques de premier plan. Ils concentrent plus de 90 % du chiffre d’affaires de la coopération agricole. Le premier groupe coopératif français InVivo, union de 187 coopératives mères, dirige plus de 200 filiales pour un chiffre d’affaires consolidé de 11,7 milliards d’euros. En parallèle, quatre groupes sont dans le top 10 des entreprises de l’agroalimentaire en France : le groupe Agrial en 4e position, Sodiaal en 7e, Terrena en 9e et Cooperl Arc Atlantique en 10e.
Derrière ces montants impressionnants, la situation financière de certaines coopératives, y compris céréalières, s’est dégradée. Le ratio dettes financières nettes sur fonds propres de ces dernières est passé de 74,88 % en 2018-2019 à 93,88 % en 2023-2024. Côté rentabilité, la marge est restée relativement stable, passant de 3,28 % en 2018-2019 à 3,31 % en 2023-2024.
C’est pourquoi les récents rapprochements entre coopératives, comme Agrial et Terrena, sont liés à la recherche de l’amélioration de la rentabilité économique, sur des marchés de plus en plus concurrentiels et dans un contexte géopolitique instable. Ils concernent tous les secteurs d’activité, céréales, lait ou vin, etc.
L’obtention d’une taille critique – taille minimale du marché nécessaire pour que l’entreprise puisse être viable – s’avère indispensable en raison des capacités financières limitées des coopératives agricoles classiques. L’objectif : structurer une offre commerciale, consolider les filières et aborder des marchés qui se mondialisent.
Les coopératives cherchent ainsi à partager des risques, à mutualiser des coûts d’investissement et d’innovation incontournables pour procéder aux transitions – agro-écologique, énergétique, numérique – dans tous les secteurs et les territoires.
Ces dernières années, les groupes coopératifs multiplient les créations et les acquisitions de sociétés de droit commercial, les imbriquant dans des consortiums d’activités complexes. Derrière cette tendance de fond, il est question de rechercher de nouveaux financements, tout en garantissant aux associés coopérateurs, ou agriculteurs-adhérents, de garder leur pouvoir de décision.
Ces groupes coopératifs sont structurés entre une maison mère de statut coopératif (coopérative ou union de coopératives) et des filiales majoritairement de droit commercial. Ces coopératives agricoles françaises sont considérées au niveau international comme des coopératives traditionnelles au regard des principes premiers établis par les équitables pionniers de Rochedale (Angleterre, XIXᵉ siècle). Concrètement, la propriété capitalistique de la tête du groupe coopératif reste aux seules mains des agriculteurs-adhérents et de leurs représentants, régie par un pouvoir démocratique selon le principe « une personne = une voix ».
En effet, l’ouverture du capital des coopératives à des associés non coopérateurs est restreinte, voire impossible. Le contrôle de la société reste le droit premier des associés coopérateurs, propriétaires de la société grâce à la détention de parts sociales. Ces derniers sont les principaux financeurs des fonds propres de la coopérative.
En créant des partenariats avec des investisseurs au niveau des filiales de droit commercial, et non via la tête de groupe sous un statut de coopérative, la difficulté d’attirer des capitaux extérieurs est ainsi contournée.
Les coopératives agricoles sont des entreprises ancrées territorialement. Elles ont une caractéristique juridique unique au monde : la circonscription territoriale, un périmètre géographique associé à leur activité économique et validé par le Haut Conseil de la coopération agricole (HCCA). Cette dernière définit la zone d’adhésion dans laquelle il est possible pour les producteurs y résidant d’adhérer à la coopérative. Comment ? En prenant des parts sociales, contrepartie de leur engagement via l’apport de ressources ou l’utilisation de services de la coopérative.
Hors de cette « circonscription territoriale » ou de la non-adhésion, la coopérative a une dérogation pour réaliser des opérations limitées à 20 % de son chiffre d’affaires avec des « tiers non associés », pour s’approvisionner en matières ou délivrer un service. Évidemment, elle peut librement vendre les productions de ses associés sans aucune restriction de chiffres d’affaires et de zone géographique. Cet assouplissement autorisé par le ministère de l’agriculture a pour objectif de compenser les éventuelles pertes liées à de mauvaises récoltes, susceptibles de remettre en cause l’équilibre économique de la coopérative. Cette règle ne concerne évidemment pas les filiales de droit commercial.
Le statut d’associé ne peut non plus être obtenu pour des producteurs qui résideraient hors de France contrairement à la pratique dans d’autres pays. Par exemple, les 12 000 producteurs laitiers de la coopérative laitière Arla Foods résident dans sept pays : Royaume-Uni, Belgique, Pays-Bas, Luxembourg, Danemark, Suède et Allemagne.
Le cas du développement de coopératives polyvalentes, comme Agrial ou Terrena, reste une caractéristique des coopératives agricoles françaises, non délocalisables et actrices clés de la souveraineté alimentaire. Avec in fine, un objectif de mettre en œuvre une gouvernance leur permettant à la fois de conserver une proximité avec leurs associés coopérateurs et garantir leur place dans la prise de décision.
Maryline Filippi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.02.2026 à 16:50
Marisa Peyre, Deputy head of ASTRE research unit, epidemiologist, Cirad
François Roger, Directeur régional Asie du Sud-Est, vétérinaire et épidémiologiste, Cirad

La pandémie de Covid-19 a révélé l’urgence de repenser notre approche de la santé. Aujourd’hui, « One Health », qui relie la santé humaine, animale et environnementale, s’est imposée dans les discours, mais fait parfois l’objet de confusion, voire de détournements. Bien mise en œuvre, elle constitue pourtant une conception éprouvée pour renforcer la prévention sanitaire mondiale.
Pandémies, résistance antimicrobienne, maladies vectorielles, effondrement de la biodiversité, dégradation des sols, pollutions chimiques, crises alimentaires… nous avons aujourd’hui une conscience aiguë des liens étroits entre enjeux de santé humaine, animale et environnementale. Face à la multiplication des crises sanitaires, environnementales et climatiques, le concept « One Health » est devenu central pour les analyser et y répondre.
Issues de réflexions anciennes, ses bases fondatrices actuelles ont été posées par les principes de Manhattan, formulés en 2004 lors de la conférence « One World, One Health » organisée par la Wildlife Conservation Society. Ils reconnaissent l’interdépendance étroite entre la santé humaine, la santé animale et la santé des écosystèmes, et appellent à une approche intégrée pour prévenir les crises sanitaires, environnementales et sociales. Cette vision, qui dépasse la seule gestion des risques sanitaires, invite à repenser les modes de production, de consommation et de gouvernance. L’enjeu ? Préserver durablement les socioécosystèmes et les communautés qui en dépendent.
Malgré l’intérêt croissant que le One Health suscite, son utilisation en recherche et ses applications restent floues et souvent mal comprises. Trop souvent, il est réduit à un slogan politique ou à une gestion biomédicale des zoonoses, sans prendre en compte l’interdépendance des facteurs écologiques, sociaux et économiques. Ces derniers conditionnent pourtant la santé globale et la dynamique des crises sanitaires.
Depuis plus de vingt ans, des initiatives portées par la science se développent pour mettre en œuvre de façon concrète l’approche « One Health ». Au Cirad, des travaux sur les maladies animales émergentes, les interfaces faune-élevage-humains et les systèmes agricoles tropicaux ont mis en évidence, dès les années 2000, les liens étroits entre santé, biodiversité et usages des territoires.
Nos recherches ont peu à peu intégré les dimensions environnementales, sociales et alimentaires. L’enjeu est de passer d’une logique de gestion des crises à une approche de prévention des risques d’émergence. En 2021, une coalition internationale portée par la recherche et baptisée PREZODE a été créée pour mener des opérations de prévention fondée sur l’approche One Health.
Elle intervient en Afrique, en Asie, en Amérique latine et dans les Caraïbes pour comprendre, réduire et détecter de façon précoce les risques en santé et éviter les épidémies.
En Guinée, ses équipes ont ainsi observé comment les pratiques agricoles intensives affectant la ressource forestière favorisaient l’intensification des contacts humains-faune. Ces contacts favorisent la transmission entre humains et animaux sauvages de maladies zoonotiques, comme les fièvres hémorragiques (Ebola, Lassa, Marburg).
Avec les communautés locales, des stratégies de prévention basées sur la gestion des écosystèmes ont été mises en place pour limiter le risque d’émergence de nouvelles épidémies.
À Madagascar, des scientifiques du Cirad, en partenariat avec l’ONG Pivot et l’Institut de recherche et de développement (IRD), ont développé une méthode de surveillance intégrée des risques sanitaires. Elle combine les données vétérinaires, humaines et environnementales, pour mieux anticiper les épidémies émergentes.
Au Gabon, dans le cadre d’un projet qui soutient les associations de chasseurs dans leur gestion des ressources forestières – y compris la biodiversité – nous avons mis en place un système de surveillance communautaire pour détecter très rapidement les évènements sanitaires suspects. Ceci a été mené en collaboration, avec le Centre interdisciplinaire de recherche médicale de Franceville (CIRMF).
En Asie du Sud-Est, les actions s’inscrivent dans une approche agroécologique qui articule les enjeux de santé et de gouvernance territoriale. Elles visent à accompagner des transitions agricoles et à réduire les pressions sur les écosystèmes (déforestation, usage des intrants, artificialisation). L’enjeu est d’améliorer la résilience des systèmes alimentaires locaux et la prévention des risques sanitaires, à l’interface entre humains, animaux et environnement.
Ces démarches reposent sur des diagnostics territoriaux participatifs, le croisement de données agricoles, écologiques et sanitaires et le soutien à des pratiques agroécologiques adaptées aux contextes locaux (diversification des cultures, gestion intégrée des élevages, restauration des paysages). L’objectif est de faire de l’agroécologie un levier pour prévenir les émergences infectieuses, améliorer la sécurité alimentaire et permettre un développement territorial durable, en cohérence avec l’approche One Health.
Ces exemples illustrent l’efficacité d’une prévention alliant une vision systémique des enjeux sanitaires et une gouvernance partagée entre acteurs locaux, scientifiques et autorités gouvernementales. Malgré tout, de nombreux obstacles subsistent.
La fragmentation institutionnelle reste l’un des plus grands défis. À toutes les échelles, les secteurs de la santé, de l’agriculture et de l’environnement ne communiquent pas assez, ce qui freine la mise en œuvre d’une gouvernance efficace. La voix des communautés est rarement sollicitée. Les projets One Health sont, en outre, souvent financés à court terme et souvent fléchés sur les zoonoses uniquement. Cela alimente le flou autour du concept et n’encourage pas son appropriation par les pays qui en auraient pourtant le plus besoin.
Les acteurs de terrain soulignent que l’accès en temps utile à des données locales et nationales – depuis leur collecte jusqu’à leur partage et leur analyse – est central. Ce sont elles qui permettent de renforcer la surveillance et la prévention des maladies zoonotiques et construire des systèmes plus résilients, capables d’anticiper et d’atténuer en temps réel les menaces sanitaires actuelles et futures. Il est nécessaire, pour cela, d’être doté d’infrastructures de données solides et partagées entre les secteurs concernés, et de les mobiliser pour développer des outils de modélisation prédictive pertinents. Mais pas seulement : une réponse rapide, adaptée et coordonnée au niveau local peut suffire à prévenir les risques d’émergence.
Sans une collaboration efficace entre les secteurs, le risque est de voir se développer un « One Health washing ». Il existe de nombreux projets qui se revendiquent du concept, mais sans mettre en place de travaux ou d’actions réellement intégrées.
C’est le cas de publications traitant de pathogènes zoonotiques, mais uniquement focalisées sur la santé humaine. Idem pour certaines initiatives agricoles qui utilisent le terme abusivement. Toujours dans ce cadre, certaines études se réclament de l’approche One Health principalement au titre d’une mobilisation interprofessionnelle – par exemple via l’implication de réseaux vétérinaires dans le diagnostic humain – sans pour autant mettre en œuvre un véritable design d’étude intégrant conjointement des données humaines, animales et environnementales, ni analyser les effets d’une action spécifique sur les différents secteurs.
Pour autant, ces projets sont importants. Ils peuvent contribuer à renforcer des approches plus intégrées de la santé. À ce titre, ils constituent des étapes intermédiaires vers un One Health plus abouti. Le principal risque réside plutôt dans l’usage extensif et peu exigeant du terme One Health, qui, en devenant un label fourre-tout, finit par en affaiblir la portée scientifique, opérationnelle et politique.
Dans ce contexte, clarifier les fondements et les modalités d’application du One Health est essentiel. C’est l’objectif de l’Atlas One Health, qui propose une lecture de cette approche articulant santé humaine, animale, des écosystèmes, mais aussi agricultures et systèmes alimentaires, dynamiques sociales, gouvernance et territoires. Avec des études de cas, des cadres analytiques et des outils issus du terrain, cet ouvrage vise à faire du One Health un véritable cadre d’action collective et de prévention.
L’un des défis les plus importants est d’intégrer la dimension sociale et de genre pour garantir des solutions inclusives et efficaces. Ceci évitera des interventions mal adaptées qui risqueraient de creuser davantage les inégalités. En milieu rural notamment, les femmes jouent un rôle clé dans l’alimentation, l’approvisionnement en eau et la gestion des ressources naturelles. Elles restent pourtant souvent invisibles dans les politiques de santé publique et de prévention.
Le financement de la prévention One Health doit être considéré comme un investissement stratégique, et non comme un coût. Moins spectaculaires que la gestion des crises sanitaires, les approches préventives sont largement plus rentables et engendrent des co-bénéfices majeurs : adaptation et atténuation du changement climatique, systèmes agricoles plus durables, réduction des intrants chimiques, protection de la biodiversité et amélioration de la qualité de l’alimentation.
Les travaux menés par le Cirad, l’initiative PREZODE et toute la communauté internationale en faveur de ces principes s’accordent sur le constat que ces actions renforcent simultanément la santé, les moyens de subsistance et la résilience des territoires. Or, la prévention demeure trop dépendante de financements internationaux ponctuels : elle doit être inscrite dans des budgets nationaux pluriannuels intégrés aux politiques agricoles, sanitaires, environnementales et alimentaires, afin de soutenir des transformations structurelles durables.
Anticiper les crises demande de repenser fondamentalement nos systèmes. Une approche « One Health » transformatrice nécessite un engagement politique durable, de la coopération internationale et une volonté commune d’intégrer les dimensions sociales et écologiques dans la gestion des risques sanitaires. Un travail de longue haleine qui est déjà en marche. Ces messages seront portés au cours des évènements organisés par PREZODE lors du Sommet One Health, qui se tiendra à Lyon (Rhône), le 7 avril 2026 sous la présidence française du G7.
Marisa Peyre est membre de PREZODE
François Roger est affilié au CIRAD, partenaire du programme PREZODE mentionné dans cet article.
24.02.2026 à 19:44
Valérie Chansigaud, Historienne des sciences et de l'environnement, chercheuse associée au laboratoire Sphère (Paris Cité - CNRS), Université Paris Cité

Afin de limiter la souffrance animale, la Commission européenne tâche de poser des limites à la sélection génétique des races de chiens et de chats aux traits dits extrêmes. Si cette avancée demeure inédite, elle réagit à un phénomène tout sauf nouveau : l’obsession de l’être humain pour l’apparence des animaux domestiques.
Le Conseil et le Parlement européens ont récemment adopté une accord provisoire visant à encadrer plus strictement l’élevage des chiens et des chats, en interdisant notamment la reproduction et la mise en avant d’animaux présentant des « formes extrêmes ».
Sont particulièrement concernées certaines morphologies associées à des troubles graves et durables, comme les chiens au museau écrasé, chez lesquels les difficultés respiratoires, l’intolérance à l’effort ou les problèmes locomoteurs sont désormais bien documentés.
Cette évolution réglementaire répond à des alertes répétées du monde vétérinaire et à une sensibilité croissante de l’opinion publique à la souffrance animale. Elle s’inscrit également dans une longue histoire de la place démesurée accordée par les sociétés humaines à l’apparence des animaux domestiques et à leur volonté de la façonner.
Il est impossible de dater précisément le moment où les humains auraient commencé à sélectionner des animaux sur des critères esthétiques. Bien avant l’existence des « races » au sens moderne (un phénomène qui émerge au XIXᵉ siècle), des animaux étaient déjà choisis en fonction de leur sexe, de leur âge, de leur couleur ou de leur conformation.
Dans de nombreuses sociétés anciennes, les animaux destinés au sacrifice devaient ainsi répondre à des critères précis d’apparence et d’intégrité corporelle : dans les cultes grecs et romains, seuls des animaux « sans défauts » étaient admis devant les divinités ; en Chine, sous la dynastie Zhou (XIᵉ siècle avant notre ère), les sacrifices royaux exigeaient également des bêtes jugées parfaites, tant extérieurement qu’intérieurement.
Autrement dit la sélection sur l’apparence est probablement aussi ancienne que la domestication elle-même. Elle n’était jamais isolée : elle s’entremêlait à des critères religieux, sociaux, économiques ou politiques, par exemple lorsque le pouvoir politique affirme sa puissance en imposant des animaux sacrificiels répondant à des normes précises.
Ce qui change à l’époque contemporaine, c’est que l’apparence peut devenir, dans certains cas, le critère central, voire exclusif, de la création des races. Posséder un chien de race peut ainsi marquer un rang, une appartenance sociale ou un certain rapport au monde, comme d’autres animaux ont pu, à différentes époques, signaler le prestige ou le pouvoir de leur propriétaire, à commencer par le cheval, mais aussi certains chiens de chasse.
Les races modernes émergent au XIXᵉ siècle, dans un contexte marqué par le goût pour la classification, la hiérarchisation et la distinction sociale fondée sur la notion de « race ». Cette passion pour les lignées « pures » n’est pas sans lien avec les cadres intellectuels qui, à la même époque, voient se développer les théories raciales appliquées aux humains.
Pendant longtemps, les effets de la sélection ont été évalués presque exclusivement à l’aune de la productivité, de l’efficacité ou de la conformité à un standard. La souffrance animale était connue, mais largement tolérée, considérée comme secondaire, voire inévitable. Les pratiques vétérinaires elles-mêmes en témoignent : pendant une longue période, des interventions lourdes ont été pratiquées sans anesthésie, comme la stérilisation des chiennes.
D’autres gestes, aujourd’hui reconnus comme inutiles et douloureux, étaient également courants : on sectionnait par exemple le frein de la langue chez les chiens, dans l’idée erronée de prévenir la rage.
Ces pratiques témoignent d’un rapport au corps animal dans lequel la souffrance était largement ignorée, par indifférence plus que par méconnaissance.
Ce n’est qu’à partir de la seconde moitié du XXᵉ siècle que la douleur chronique, la qualité de vie ou la santé à long terme des animaux commencent à être pensées comme des problèmes en tant que tels. Les inquiétudes actuelles concernant les chiens aux morphologies extrêmes – difficultés respiratoires, troubles locomoteurs, intolérance à l’effort – s’inscrivent pleinement dans cette histoire récente de la sensibilité au bien-être animal.
La récente réglementation européenne semble concerner plus directement les chiens que les chats, et cette impression correspond à une réalité historique, biologique et sociologique. En France, comme dans de nombreux pays européens, les chiens de race sont proportionnellement plus nombreux que les chats de race. Cette différence s’explique en grande partie par l’histoire de l’élevage.
L’intérêt pour les races de chiens est ancien et structurant. La sélection de types morphologiques spécifiques devient l’un des moteurs centraux de l’élevage canin au XIXᵉ siècle, en systématisant et en normant des pratiques bien plus anciennes de différenciation fonctionnelle. Dès l’Antiquité, certains chiens sont ainsi recherchés pour des usages guerriers ou de combat, en fonction de leur taille, de leur puissance ou de leur agressivité.
Ce type de sélection n’est d’ailleurs pas propre aux chiens : chez les gallinacés, des individus ont été privilégiés très tôt pour des usages non alimentaires, notamment pour le combat de coqs ou comme animaux d’ornement, bien avant que ne s’impose une sélection orientée vers la production de chair ou d’œufs.
À l’inverse, les chats ont longtemps échappé à cette logique. Les premiers concours félins du XIXᵉ siècle récompensaient des individus – souvent des chats de gouttière – et non des représentants de races qui n’étaient pas encore standardisées. Le chat est resté plus longtemps un animal ordinaire, moins soumis aux impératifs de sélection morphologique.
Les croisements récents, comme le pomsky (issu du croisement du husky sibérien et du spitz nain), témoignent aujourd’hui d’une forte demande pour des animaux perçus comme originaux et attendrissants, mais qui sont surtout emblématiques d’un effet de mode.
Le choix de ces chiens relève moins d’une réflexion sur leurs besoins ou leur santé que d’une logique de distinction : on choisit un chien comme on choisirait une paire de chaussures, parce qu’il flatte l’ego de son propriétaire et signale une position sociale. Dénoncées depuis longtemps par les vétérinaires, qui constatent au quotidien les conséquences de la sélection de morphologies extrêmes, ces pratiques pourraient être freinées par la nouvelle réglementation européenne, en rappelant clairement que tout croisement n’est pas acceptable dès lors qu’il compromet la santé ou le bien-être des animaux concernés.
Prédire à quoi ressembleront les chiens du futur reste toutefois hasardeux. L’histoire montre que les avancées en matière de protection animale ne sont ni linéaires ni irréversibles. L’émergence d’idéologies brutales ou violentes pourrait très bien conduire à un recul de la prise en compte de la souffrance animale. L’interdiction des formes extrêmes révèle ainsi une tension ancienne entre la vanité des désirs humains parfois cruels et la nécessité d’établir des règles morales pour en limiter les effets – un débat aussi vieux que la philosophie elle-même.
Cette réflexion trouve un écho particulier dans certaines initiatives muséales récentes. L’exposition « Domestique-moi, si tu peux », présentée au Muséum de Toulouse (Haute-Garonne), propose ainsi de revisiter l’histoire longue de la domestication en montrant qu’il ne s’agit pas d’un phénomène « naturel » et qu’elle est façonnée par des choix humains parfois irrationnels. Elle met surtout en évidence la place centrale de la domestication dans la construction des cultures humaines, la sélection artificielle ayant pour objectif principal de rendre des organismes vivants – animaux comme végétaux – compatibles avec les modes de vie et les besoins humains.
L’exposition « Domestique-moi, si tu peux » retrace l’histoire des domestications animales et végétales et leurs conséquences sur la biodiversité. On peut la visiter jusqu’au 5 juillet 2026 au Muséum de Toulouse. L’historienne Valérie Chansigaud en est la commissaire scientifique.
Valérie Chansigaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.02.2026 à 17:03
Sophie Thoyer, Directrice de département Scientifique, Inrae
Pauline Lecole, Maitresse de conférence en économie et politiques agricoles, Montpellier SupAgro
Depuis l’hiver 2024, les mobilisations agricoles ont été largement interprétées, au plan médiatique, comme un rejet massif des normes environnementales. Mais est-ce vraiment le cas ? Qu’en disent eux-mêmes les agriculteurs mobilisés ? Une vaste étude a recensé leurs réponses en France, en Allemagne, en Belgique et aux Pays-Bas. Elle livre une image bien plus nuancée en fonction des États, où le poids des normes environnementales n’est finalement qu’un enjeu secondaire. Celui-ci a pourtant été au cœur de la réponse politique.
Blocages d’autoroutes, convois de tracteurs vers les capitales, déversements de fumier devant les bâtiments publics… depuis l’hiver 2024, les agriculteurs européens se mobilisent de façon spectaculaire. Très visibles, ces mouvements restent pourtant mal compris. Entre cadrages médiatiques hâtifs et récupérations politiques, leurs revendications ont souvent été résumées à un rejet des normes environnementales. Mais est-ce réellement ce que disent les agriculteurs eux-mêmes ?
Pour répondre à cette question, nous avons récemment publié une étude qui s’est appuyée sur une vase enquête en ligne, menée entre avril et juillet 2024, auprès de plus de 2 200 agriculteurs ayant participé aux mobilisations en France, en Allemagne, en Belgique et aux Pays-Bas.
Plutôt qu’une liste fermée de griefs, nous avons préféré leur poser une question simple et surtout ouverte : « Pourquoi vous mobilisez-vous ? » Les agriculteurs ont ainsi pu répondre de façon anonyme et sous une forme libre : parfois en quelques mots, parfois en plusieurs paragraphes.
À lire aussi : Colère des agriculteurs : « Ce qui était cohérent et cohésif est devenu explosif »
Cette méthode a permis d’éviter d’orienter les réponses et de saisir les motivations telles que formulées spontanément par les intéressés eux-mêmes. Les textes ont ensuite été analysés, dans leur langue d’origine, grâce à un grand modèle de langage (LLM), type d’outil relevant de l’intelligence artificielle (IA), pour identifier les principales revendications. Un codage manuel a ensuite permis, pour la France, de vérifier la cohérence de l’analyse faite par l’IA.
Nous avons ainsi pu identifier les grands thèmes récurrents, et ceci en limitant les biais d’interprétation. À la clé, une dizaine de catégories de motivations, que nous avons résumées dans le tableau ci-dessous :
En termes de codage, une réponse peut entrer dans plusieurs catégories de motivations à la fois. Par exemple, un exploitant français cultivant 175 hectares (ha) a indiqué en réponse à l’enquête :
« On nous fait marcher à la baguette, on nous pond des interdictions de partout qui nous compliquent [le] travail, alors que l’on travaille beaucoup à un tarif horaire de misère. »
Cette réponse a pu ainsi être classée à la fois dans les catégories « réglementation », « difficultés financières », « politiques publiques » et « conditions de travail ».
Contrairement à l’idée d’un mouvement unifié partout en Europe autour du rejet des normes environnementales et des insatisfactions liées au revenu, les motivations sont apparues comme fortement différenciées selon les pays.
En France et en Belgique, les difficultés financières dominent largement : plus d’un agriculteur sur deux évoque la faiblesse des revenus, la hausse des coûts des intrants et des prix jugés insuffisamment rémunérateurs.
En Allemagne, la première préoccupation concerne la charge administrative, citée dans plus de la moitié des réponses.
Aux Pays-Bas, les critiques visent plus directement l’inadéquation des réponses en terme de politiques publiques aux besoins et contraintes du monde agricole.
La dénonciation explicite des règles environnementales arrive loin derrière, sauf dans le cas de la Belgique. En France, elle n’est mentionnée que dans une faible proportion des réponses, bien en deçà des enjeux de revenu, de reconnaissance ou de concurrence.
Le mouvement de 2024 apparaît ainsi loin d’être homogène à l’échelle européenne, malgré les tentatives de certains acteurs syndicaux de porter un message unitaire.
À lire aussi : La FNSEA, syndicat radical ? Derrière le mal-être des agriculteurs, des tensions plus profondes
Nous avons ensuite comparé ces motivations aux mesures politiques adoptées entre fin 2023 et septembre 2024 aux niveaux national et européen.
Dans certains cas, les réponses publiques ont été en phase avec les préoccupations exprimées. En Allemagne, l’accent a été mis sur la simplification administrative, qui correspond à la principale revendication identifiée dans notre enquête. En France et en Belgique, plusieurs mesures ont visé à atténuer les difficultés de revenu, mais les moyens mis en œuvre sont restés limités.
En revanche, certaines thématiques ont reçu une attention politique disproportionnée au regard de leur poids réel dans les déclarations des agriculteurs. C’est notamment le cas des régulations environnementales.
Cela s’est traduit notamment dans le paquet simplification de la politique agricole commune (PAC) de mai 2024, qui a accordé des dérogations et des flexibilités supplémentaires à l’application des règles de conditionnalité dans les États membres.
Alors qu’elle n’arrivait qu’en septième position des préoccupations déclarées par les agriculteurs, la réduction des contraintes environnementales a été le troisième chantier législatif en Allemagne, en terme de nombre de mesures prises. Aux Pays-Bas, ce fut même le premier.
De la même manière en France, seuls 7 % des agriculteurs se sont exprimés explicitement pour critiquer le poids des normes environnementales. Pourtant, le gouvernement français a répondu par une suspension du plan Écophyto (destiné à réduire l’usage des pesticides) et par l’allègement des contrôles liés aux obligations environnementales.
Plus tard, une grande partie des débats sur le contenu de la loi d’orientation pour la souveraineté alimentaire et le renouvellement des générations en agriculture, finalement promulguée en mars 2025, et de la proposition de loi sur les contraintes à l’exercice du métier d’agriculteur (dite « loi Duplomb »), ont été extrêmement concentrés sur l’allègement des normes environnementales.
À lire aussi : Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications
Cette focalisation sur les normes environnementales interroge. Elle suggère que certaines revendications ont été amplifiées dans l’espace public, au croisement d’intérêts syndicaux, économiques et politiques. Comme dans tout mouvement social, les mots d’ordre qui circulent ne reflètent pas toujours l’ensemble des préoccupations individuelles.
Donner directement la parole aux agriculteurs ne permet pas seulement de nuancer le récit dominant : cela met en lumière la profondeur du malaise. Au-delà des normes ou des aides, beaucoup expriment un sentiment de déclassement, de perte de sens et d’absence de perspectives pour les générations futures.
Comprendre ces mobilisations suppose donc d’aller au-delà des slogans et de reconnaître leur diversité interne. Faute de quoi, les réponses politiques risquent de traiter seulement les symptômes stratégiquement mis en visibilité par les groupes d’influence plutôt que les causes structurelles du malaise agricole européen.
Solal Courtois-Thobois a participé à la réalisation de cet article.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
23.02.2026 à 17:18
Félicien Boiron, Doctorant en science politique (LAET-ENTPE), ENTPE; Université Lumière Lyon 2

Dunkerque, Montpellier, Calais, Nantes… toutes ces villes ont mis en place la gratuité totale des transports en commun. Promue par certains candidats, conspuée par d’autres, cette mesure devient un élément central des campagnes électorales municipales de 2026. Mais qu’en disent les experts ? Quels sont ses effets bénéfiques et pernicieux ? Décryptage en graphique et en données.
La gratuité des transports en commun, rarement débattue aux élections municipales de 2014 et encore relativement discrète en 2020, se trouve désormais au cœur des campagnes municipales de 2026. Mobiliser une forme de gratuité semble être devenu un passage obligé des débats locaux.
À Lyon (Rhône), après avoir mis en place la gratuité pour les moins de 10 ans, le président de la Métropole Bruno Bernard (Les Écologistes) fait campagne en mobilisant la gratuité des enfants abonnés TCL. De son côté Jean-Michel Aulas (LR, Ensemble) propose une gratuité pour les personnes gagnant moins de 2 500 euros.
Des débats similaires s’ouvrent dans des villes de tailles et de contexte variés comme Angers (Maine-et-Loire), Dijon (Côte-d’Or), Marseille (Bouches-du-Rhône), Paris.
Alors même que les transports en commun relèvent le plus souvent de la compétence des intercommunalités, les décisions de gratuité sont prises par une large diversité de collectivités locales, parfois au titre d’autres compétences.
La gratuité est longtemps restée cantonnée à des territoires de petites tailles, avec des transports en commun peu utilisés et de faibles recettes de billetique. À présent, elle s’invite dans des territoires pluriels. Si elle reste principalement mise en œuvre à l’échelle territoriale des villes, elle se développe au sein de communautés urbaines, comme Poher Communauté en Bretagne, ou par les syndicats de transport comme dans le Douaisis, dans le nord de la France.
Après les records de mise en place de cette mesure dans les villes d’Aubagne (100 000 habitants, Bouches-du-Rhône) en 2009, puis de Dunkerque (200 000 habitants, Nord) en 2018, Montpellier (Hérault) a fait franchir un nouveau seuil à la gratuité à partir de 2021 en instaurant la mesure pour ses habitants sur un réseau comprenant plusieurs lignes de trams. Pour sa part, depuis janvier 2026, le syndicat de transports de l’Artois, dans le Nord, est devenu le plus grand territoire français aux transports totalement gratuits avec 650 000 habitants pouvant bénéficier d’une telle mesure.
Si certains partis ont fait de la gratuité des transports un élément fréquent dans leur programme comme le Parti communiste français (PCF), ou plus récemment La France insoumise (LFI), la gratuité n’est pas réservée aux politiques de gauche. Elle est mise en œuvre aussi bien par la droite, comme à Calais (Pas-de-Calais) ou à Châteauroux (Indre), que par la gauche, comme à Morlaix (Finistère) ou Libourne (Gironde). La mesure résiste aux alternances politiques, en étant rarement remise en question.
Depuis plusieurs années, les rapports et positions sur la gratuité des transports en commun font légion. Alors que, jusque dans les années 2010, la mesure était peu étudiée, essentiellement par les services du ministère de l’environnement, de nombreuses évaluations se sont développées. Des études ont été commandées par la Ville de Paris, par l’Île-de-France Mobilités ou encore par le syndicat de transports lyonnais (Sytral).
Dans ces études, la gratuité des transports en commun est largement évaluée selon ses effets sur la répartition modale, comprise comme le pourcentage d’utilisation des différents modes de transports. La gratuité est jugée bonne si elle permet un bon report modal, c’est-à-dire d’un mode polluant vers un mode moins polluant – de la voiture au vélo, par exemple. Les rapports concluent que la gratuité est inefficace, puisqu’elle engendrerait un report modal, essentiellement depuis la marche et le vélo vers les transports en commun. Même la Cour des comptes a récemment pointé cette inefficacité à produire un bon report modal.
À lire aussi : Gratuité des transports : comprendre un débat aux multiples enjeux
Ce constat d’inefficacité est alors largement relayé au-delà de la sphère experte, notamment par des acteurs institutionnels et des groupes d’intérêts du transport, qui s’appuient sur ces évaluations pour structurer leur opposition à la gratuité. Les groupes d’intérêts du transport, comme le GART, qui regroupe les collectivités, ou l’UTPF, qui regroupe les entreprises de transport, s’appuient sur ces constats pour s’opposer à la mesure. Les groupes d’intérêts du transport mobilisent ces expertises pour s’opposer assez unanimement à la gratuité. La FNAUT qui représente les usagers et usagères des transports défend que « la gratuité totale, isolée de toute autre mesure, ne favorise pas un report modal ».
Si la gratuité des transports est fréquemment étudiée comme une politique publique de mobilité, les élus qui la mobilisent le font au nom d’une grande variété d’objectifs. Nombreux sont les motifs évoqués pour défendre la gratuité, tels que réduction de la pollution de l’air, attractivité territoriale et des commerces, protection du pouvoir d’achat, etc.
À Aubagne, c’est la recherche de liberté et d’accessibilité sociale accrue aux transports qui sont mises en avant. À Dunkerque, on y voit un instrument d’aménagement urbain pour redynamiser le centre-ville. À Montpellier, la mesure est présentée comme un instrument de gouvernance territoriale, pour améliorer le pouvoir d’achat des classes moyennes et populaires. À Calais, on souhaite répondre au mouvement des gilets jaunes et au coût des déplacements. À Nantes (Loire-Atlantique), la gratuité le week-end est associée à des objectifs sociaux et de réduction de l’autosolisme.
Une grande partie des effets prétendus à la gratuité des transports échappe à l’évaluation. Les effets sociaux de la mesure, notamment sur l’isolement de certaines populations, sur la facilité d’accès au transport, ont été encore peu étudiés. Même lorsque l’Observatoire des villes du transport gratuit s’intéresse aux conséquences sur les automobilistes ou sur les jeunes, ce sont essentiellement leurs chiffres sur le report modal qui sont repris dans les débats.
En France, les transports en commun sont financés par trois sources principales :
le versement mobilité, impôt sur la masse salariale, payée par les entreprises, administrations et associations ;
les recettes tarifaires, payées par les usagers et usagères ;
les subventions des collectivités locales.
Les proportions de ces trois sources varient en fonction des territoires, mais le versement mobilité est souvent la source principale du financement. Les territoires denses et au réseau de transport bien structuré présentent en général des recettes tarifaires plus élevées. Aussi, si la gratuité totale des transports en commun supprime des coûts liés à la billetique (distributeurs automatiques de titres, valideurs, logiciels, application, contrôleurs, etc.), dans les grands réseaux, ces coûts sont généralement plus faibles que ce que rapportent les recettes commerciales.
Si l’opposition à la gratuité totale des transports en commun est si forte, c’est que, pour beaucoup, la mesure dévaloriserait le transport. « Aucun service n’est réellement gratuit », « la gratuité n’existe pas » sont autant d’expressions révélant une valorisation d’un service par son prix.
Parler de gratuité des transports en commun est révélateur du caractère anormal de la mesure. Parlons-nous ainsi de « gratuité de la police » ? Dans un secteur plus proche, nous ne parlons pas non plus de gratuité des routes, alors que celles-ci sont très largement gratuites et que leur coût est largement supporté par les contribuables plutôt que les usagers et usagères. Comme pour les transports en commun, beaucoup d’économistes défendent pourtant une tarification de la route.
La gratuité des transports est une politique totem. Souvent intégrée à des projets de mobilités, l’intégralité des effets de la mesure demeure encore largement inconnue, tant les sens associés à la mesure sont divers. Les débats sur la gratuité des transports interrogent ainsi la légitimité d’un financement collectif renforcé des mobilités, mais aussi les cadres d’expertise à partir desquels les politiques publiques sont évaluées et jugées.
La thèse de Félicien Boiron est financée par le ministère de la Transition écologique.
23.02.2026 à 17:17
Romuald Caumont, Chef du service Coordination, évaluation et valorisation à la direction économie circulaire l’Ademe, Ademe (Agence de la transition écologique)
Que contiennent vraiment nos poubelles et comment leur composition a-t-elle évolué au cours des dernières années ? Une vaste étude de l’Ademe révèle les progrès du tri en France : la poubelle grise s’allège et les nouvelles filières de collecte s’inscrivent peu à peu dans les habitudes. Pourtant, un peu moins de 70 % du contenu de nos poubelles grises ne devrait pas s’y trouver : des axes de progression restent donc à développer.
Nos déchets constituent, sans doute, l’objet le plus tangible qui nous lie aux enjeux écologiques. Nous utilisons une poubelle plusieurs fois par jour et c’est, pour beaucoup d’entre nous, le premier sujet par lequel nous avons été sensibilisés à l’environnement. Au cours des dernières décennies, le tri et ses évolutions se sont peu à peu inscrits dans nos habitudes, même s’il reste une marge de progression pour qu’il soit parfaitement mis en œuvre.
Afin de comprendre comment la composition des déchets a évolué dans le temps, l’Agence de la transition écologique (Ademe) a fait l’exercice de se plonger dans le contenu de nos poubelles. L’enjeu était de connaître leur composition détaillée dans un certain nombre de communes, selon des protocoles et des plans d’échantillonnage bien précis afin de s’assurer que ces chiffres soient représentatifs. Ces résultats, publiés fin 2025, ont porté sur les chiffres de 2024.
De telles études avaient déjà été menées par le passé : en 1993, en 2007 puis en 2017. L’objectif, désormais, est d’annualiser cette enquête afin de mieux évaluer l’efficacité des politiques publiques de gestion des déchets. Une démarche qui permet d’identifier les gisements de déchets d’emballages plastiques, autrement dit les potentiels de valorisation à développer. En se penchant sur chaque type de déchets, ce premier travail livre déjà un certain nombre d’enseignements.
Débutons par la fameuse poubelle grise vouée aux ordures ménagères résiduelles. Entre 1993 et 2024, son poids moyen a diminué de 44 %, passant de 396 kg à 223 kg par habitant. Un résultat encourageant, qui s’explique en partie par l’accroissement au cours de cette période de la mise en place du tri, qui n’était pas généralisé il y a trente ans.
Depuis 2017 en particulier, des progrès notables ont eu lieu : 30 kg en moins, là aussi, sans doute, grâce à l’amélioration du tri à la source et la mise en place de la collecte des biodéchets, qui ont chuté de 10 % sur cette période dans les poubelles grises.
Ce bilan appelle toutefois quelques nuances. Certes, le poids de nos poubelles grises diminue, mais, aujourd’hui encore, 69 % des déchets présents dans les poubelles grises ne devraient pas s’y trouver. Une proportion qui n’évolue pas. Leur composition se répartit comme suit :
un tiers correspond à des biodéchets ;
près d’un autre tiers, à des emballages et des papiers destinés à la poubelle jaune ;
5 %, à du verre ;
et 6 %, à des déchets qui devraient faire l’objet d’autres collectes, en particulier textiles et électroniques.
Par ailleurs, si la part des biodéchets et certains emballages et papiers recyclables ont diminué (respectivement, de 10 et 17 % en moins), la quantité de textiles sanitaires (couches, lingettes, essuie-tout, etc.), en revanche, connaît une forte hausse.
À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet
Du côté des déchets de la poubelle jaune, vouée aux emballages et au papier, la tendance est inverse. Leur poids, qui s’élève aujourd’hui à 52,8 kg par an et par habitant, a légèrement augmenté. Ils représentaient 49,4 kg en 2017, contre 45,8 en 2007. Cette hausse de 15 % en plus de quinze ans est logique, le tri étant depuis entré dans les mœurs et ses consignes ayant été élargies. Ce chiffre est une bonne nouvelle : les Français trient davantage.
Toutefois, on observe en même temps une augmentation des erreurs de tri, avec une part de déchets non conformes en progression depuis 2017. Ainsi, en 2024, ces erreurs concernent 19 % des déchets qui se retrouvent dans les bacs jaunes, contre 12,4 % en 2017. Dans la grande majorité, elles concernent des déchets résiduels qui devraient être dans la poubelle grise.
On y observe par ailleurs une forte diminution des papiers entre 2017 et 2024, probablement liée à la numérisation des usages, et au contraire une hausse des cartons – sans doute causée par la progression des livraisons du fait du commerce en ligne – et des emballages plastiques. Cela se rattache à l’extension des consignes de tri en 2023 à l’ensemble des emballages plastiques, qui semble produire des effets.
Depuis la généralisation du tri à la source des biodéchets au 1er janvier 2024, les collectivités territoriales se sont massivement mobilisées. Aujourd’hui, la quasi-totalité d’entre elles propose une solution de proximité (compostage individuel ou partagé) tandis qu’environ 30 % ont également déployé un service de collecte spécifique.
En moyenne, 13 % des déchets déposés dans les bacs de biodéchets sont des erreurs de tri. Le contenu de ces bacs se compose majoritairement de biodéchets alimentaires (69 %), dont 12,5 % relèvent encore du gaspillage alimentaire, et de déchets verts (5,5 %).
Le bilan est donc plutôt positif. Des disparités territoriales subsistent toutefois, notamment entre les collectivités ayant installé une collecte séparée et celles qui privilégient uniquement des solutions de compostage de proximité. Les études annuelles permettront de voir à quelle vitesse la pratique se généralise, à la fois par la mise en place de solutions par les communes et l’appropriation par les citoyens.
Un dernier aspect pointé par l’étude concerne les déchetteries, où la composition des bennes de tout-venant présente une grande diversité, avec 75 % de déchets qui devraient être traités en amont par une filière responsabilité élargie du producteur, dite filière REP, particulière – notamment pour les produits de matériaux de construction du bâtiment, qui occupent un quart des bennes. Cela témoigne d’une forte marge de manœuvre existante sur la structuration des filières REP, et sans doute d’une amélioration de l’information vis-à-vis des usagers.
De manière générale, l’étude menée ici se concentre sur une caractérisation des déchets ménagers et apporte des résultats encourageants sur l’impact des politiques publiques. Elle mériterait toutefois d’être complétée par une approche comportementale auprès des ménages afin de mieux comprendre les freins et les obstacles qui expliquent, notamment, que 69 % du contenu des poubelles grises n’y ait pas sa place.
Romuald Caumont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.02.2026 à 17:14
Service Environnement, The Conversation France
Pour réduire la quantité de déchets, les politiques publiques misent de plus en plus sur les sciences comportementales, par exemple les « nudges ». Au risque d’invisibiliser les déterminants matériels, sociaux et politiques de la production des déchets.
Depuis une dizaine d’années, les collectivités territoriales, les agences nationales et une partie du secteur privé se sont engouffrés dans l’application des sciences comportementales à la réduction des déchets. L’idée ? Si les individus trient mal, les jettent au mauvais endroit ou en produisent trop, c’est qu’ils manquent d’information et de motivation. Il suffirait de mener des campagnes bien ciblées pour les rendre plus vertueux.
Ce récit est séduisant, car il permet d’agir vite, à moindre coût et sans remettre en cause les logiques structurelles qui génèrent les déchets. Il est pourtant réducteur, dans la mesure où il méconnaît les rapports sociaux et les inégalités. Il ramène la question politique des déchets à l’échelle individuelle : les habitants sont vus comme des acteurs indisciplinés mais rationnalisables à coup de micro-incitations.
Sur le terrain, mes observations ethnographiques montrent que ce sujet est davantage structuré par des dispositifs sociotechniques, économiques, et organisationnels que par les intentions individuelles. Dans de nombreux quartiers, le tri est entravé par des infrastructures inadaptées : par exemple, vide-ordures encore en usage qui empêchent toute séparation des flux à la source, bacs trop éloignés ou difficilement d’accès…
Dans les quartiers populaires, des pratiques de circulation d’objets – don, récupération informelle… – se trouvent également placées sous un régime de suspicions et de sanctions. Les acteurs institutionnels chargés de la gestion des déchets valorisent avant tout une logique de salubrité et se concentrent sur l’entretien visuel de la voie publique. Le déchet y est traité comme un rebut dont il faut se débarrasser au plus vite, et non comme une ressource susceptible d’être valorisée.
Les déchets deviennent alors des marqueurs sociaux. Ils servent à requalifier des groupes, à leur attribuer des comportements naturalisés, à désigner des « responsabilités » qui coïncident souvent avec des groupes ethno-sociaux déjà stigmatisés. Les plus précaires sont ainsi les premiers visés par les dispositifs correctifs.
Dans ce contexte, le recours aux sciences comportementales détourne l’attention des problèmes concrets qui structurent la gestion des déchets au quotidien : infrastructures défaillantes ou mal pensées, conditions de travail éprouvantes (par exemple pour les éboueurs ou les gardiens d’immeubles), conflits entre acteurs (par exemple, entre bailleurs, métropole, prestataires…). Au lieu de rendre ces dysfonctionnements visibles, l’analyse se concentre sur le dernier maillon de la chaîne : l’habitant.
Au-delà de l’argument du coût, les institutions plébiscitent cette approche car elle évite de rouvrir le dossier, plus conflictuel, de la réduction à la source (régulation de la production par exemple) ou de la reconfiguration des infrastructures. Elle s’accorde enfin avec une conception néolibérale de l’action publique où chacun est sommé d’être responsable de son empreinte. Or, si les sciences comportementales peuvent livrer des outils ponctuels, elles ne constituent ni une théorie sociale ni une politique publique durable.
Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.02.2026 à 16:28
Pascale Bueno Merino, Directrice de la Recherche, Enseignant-Chercheur en Management Stratégique, Pôle Léonard de Vinci
Hamdi Hamza, Docteur en sciences de gestion, Université Le Havre Normandie
Samuel Grandval, Professeur des Universités en sciences de gestion, Université Le Havre Normandie
Sonia Aissaoui, Maître de Conférences en Sciences de Gestion, Université de Caen Normandie

À l’occasion du Salon international de l’agriculture de Paris, une étude met en lumière le double bénéfice des associations pour le maintien d’une agriculture paysanne, dites Amap : renforcer l’autonomie des agriculteurs et permettre aux bénévoles d’être des entrepreneurs… collectivement.
L’importance des échanges citoyens pour mettre en œuvre une agriculture durable est au cœur du programme de conférences du Salon international de l’agriculture. Les interrogations sur le « comment mieux manger ? » ou sur le « comment produire autrement ? » continuent de retenir l’attention.
Une des solutions à ces questionnements : l’entrepreneuriat collectif à travers les associations pour le maintien d’une agriculture paysanne (Amap). La finalité de l’Amap est la distribution hebdomadaire de paniers de produits agricoles frais, sous réserve d’un pré-paiement de la production par les membres adhérents. La coopération amapienne se matérialise par un engagement contractualisé de consommateurs bénévoles dans l’activité de production et de vente directe de produits alimentaires locaux. Elle repose sur le désir des membres d’interagir et de servir leur collectif.
En 2022, 375 Amap sont recensées rien qu’en Île-de-France, soit plus de 21 000 familles de bénévoles en partenariat avec environ 400 fermes.
Nos derniers résultats de recherche, issus d’entretiens, soulignent que cette collaboration augmente la capacité d’action et d’autonomisation de l’entrepreneur agricole. Elle confère au producteur agricole une aptitude à être maître de ses choix telle que définie dans la Charte initiale des Amap instaurée en 2003, puis révisée en 2024. Les Amap font émerger un environnement « capacitant » – qui permet la création ou le développement de capacités –, fondé sur la mise en place d’une communauté et l’apport de ressources et compétences externes.
Les modalités de distribution, ainsi que les prix, sont fixés conjointement entre l’entrepreneur agricole et les adhérents ;
Le pré-paiement des paniers par les adhérents permet à l’entrepreneur agricole d’anticiper les quantités à distribuer et de sécuriser son revenu, notamment en cas d’insuffisance de la production ;
Les consommateurs amapiens participent à la vie de l’exploitation (distribution des paniers, centralisation de l’information, aide apportée à l’agriculteur sur son exploitation, etc.) ;
En contrepartie, l’agriculteur s’engage à produire des aliments selon des méthodes respectueuses de l’agro-écologie et à participer à la gestion de l’Amap.
Ces principes sont rédigés dans la charte des Amap.
La participation bénévole des consommateurs amapiens aux activités des agriculteurs, entrepreneurs, engendre une relation de travail atypique. Celle-ci repose non pas sur une relation salariée avec lien de subordination, mais sur une relation horizontale basée sur un système de co-production, de co-gestion et de réciprocité apprenante.
Ces principes sont illustrés par des témoignages de membres adhérents d’Amap :
« Avec Marianne (la productrice), il y avait le chantier patates en septembre et puis elle avait demandé aussi pour planter des haies », témoigne une présidente d’Amap interviewée.
« On a une assemblée générale par an de l’Amap […] pour remettre à plat, voir si on change les prix des paniers, voir s’il y a des gens qui ont des choses à dire, qui ont des choses à mettre au point », rappelle un consommateur adhérent interrogé.
Ce dernier se matérialise par l’identification pour l’entrepreneur agricole des besoins des consommateurs d’une part, et la sensibilisation des consommateurs aux pratiques et difficultés de l’exploitant agricole d’autre part.
« Il y a Alain, le maraîcher, il est toujours là. Il nous présente son activité, il fait un retour sur ce qui s’est bien passé, ce qui s’est moins bien passé l’année passée, ce qu’il prévoit des fois comme nouvelle culture et répond aux questions. » (Président d’Amap.)
À lire aussi : L’Île-de-France pourrait-elle être autonome sur le plan alimentaire ?
En résumé, les consommateurs bénévoles deviennent acteurs du fonctionnement de l’Amap en tant que membres volontaires indépendants. Rappelons que les actes de volontariat s’exercent, selon le chercheur Léon Lemercier :
La coopération amapienne permet d’entreprendre ensemble en partageant les risques financiers liés aux aléas de la production agricole. Elle fait émerger des liens de solidarité au sein d’un territoire et co-crée de la valeur sociale, comme l’explicite précisément un président d’Amap :
« Au-delà de la distribution des paniers, c’est aussi un engagement citoyen. C’est-à-dire qu’on veut aussi développer le mouvement des Amap. On est militant. »
Cette approche entrepreneuriale et altruiste de la relation de travail atypique renouvelle la littérature académique dédiée à son analyse, comme celle de la situation de vulnérabilité du travailleur – emploi temporaire, travail à temps partiel, relation de travail déguisée, etc.
Cette relation de travail non salarié s’inscrit dans le cadre d’un projet entrepreneurial collectif, caractérisé par l’union de compétences complémentaires au sein de l’Amap. Dans ce cas précis, l’agrégation de multiples contributions bénévoles, bien que temporaires et à temps partiel, peut concourir au développement d’une exploitation agricole.
Les bénévoles apportent des ressources spécifiques liées à leur propre parcours de vie : compétences professionnelles, disponibilité temporelle, ou encore expérience organisationnelle qui structurent les Amap.
« Je dirais que le problème de la gestion, on l’a résolu avec nos outils, c’est-à-dire qu’on a eu la chance pendant quelques années d’avoir pas mal de développeurs informatiques dans nos adhérents », déclare un président d’Amap interrogé.
La relation de travail amapienne se situe par conséquent entre bénévolat et professionnalisation puisque les consommateurs vont soutenir l’entrepreneur agricole de l’amont à l’aval de la chaîne de valeur de son activité : de fonctions principales (production, marketing, logistique et distribution) à des fonctions support (ressources humaines, système d’information et administration).
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
21.02.2026 à 09:17
Caroline Wybraniec, Chercheuse post-doctorale, Université de Tours
Bertrand Méda, Ingénieur de Recherche, Inrae
Christophe Bressac, Chercheur, Université de Tours
Elisabeth Herniou, Directrice de Recherhce, Centre national de la recherche scientifique (CNRS); Université de Tours
Matthis Gouin, Doctorant en biologie et virologie, Université de Tours
L’entomoculture est souvent présentée comme une alternative prometteuse face aux défis et aux limites des modes de production agricoles et alimentaires traditionnels. Quels enjeux cette filière émergente va-t-elle devoir relever pour continuer à se développer ? Il paraît crucial de s’inspirer de l’élevage traditionnel – qui s’appuie notamment sur des normes précises.
La start-up Ÿnsect a fait les gros titres de la presse ces dernières semaines suite à sa faillite. Certains dénoncent un « fiasco » ou interrogent sur la durabilité de l’élevage d’insectes à large échelle.
La critique est aisée, l’art est difficile. L’échec d’une initiative ne doit pas conduire à abandonner cette nouvelle façon de produire, en France, des ressources de grande qualité. Innovafeed, par exemple, redonne espoir à toute la filière grâce à ses récents succès commerciaux. Des entreprises comme Koppert et Biobest commercialisent également depuis des années des insectes auxiliaires pour la protection des cultures et la pollinisation.
Pour rappel, l’entomoculture consiste à élever des insectes en milieu contrôlé pour produire des protéines (alimentation animale ou humaine), des sous-produits (soie, colorants naturels, engrais) ou des insectes vivants (pour le biocontrôle en agriculture). Sur le plan environnemental, certains insectes peuvent également participer à l’économie circulaire. En effet, ils permettent de valoriser des coproduits de l’industrie agroalimentaire ou des déchets organiques. En agriculture, la protection des cultures par les insectes auxiliaires permet dans certains cas de remplacer les pesticides chimiques. En cela, elle s’inscrit dans les stratégies de lutte biologique encouragées par les politiques publiques.
Soutenue par la FAO depuis 2013 pour répondre aux enjeux de sécurité alimentaire et de résilience climatique, la filière est présentée comme une alternative à des modes de production alimentaires qui atteignent leurs limites face aux changements climatiques et à l’épuisement des ressources. Dans les faits toutefois, son développement fait encore face à des défis majeurs.
La consommation directe d’insectes par les Occidentaux reste limitée en raison de préjugés. En revanche, selon l’ADEME, plus de 70 % des Français accepteraient les protéines d’insectes dans l’alimentation animale, en remplacement des farines de poisson ou des tourteaux de soja massivement importés.
Bien que 2 000 espèces d’insectes soient comestibles dans le monde, l’UE n’en autorise qu’un nombre restreint : huit pour l’alimentation animale (ténébrion meunier, mouche soldat noire, grillons) et quatre pour l’alimentation humaine (criquet migrateur, ténébrion meunier, ténébrion de la litière, grillon domestique).
La France, qui figure parmi les leaders européens de ce secteur, mise sur les débouchés de production de protéines et de lutte biologique. Malgré des difficultés financières récentes, la filière conserve un fort potentiel.
Dans le cadre d’un atelier sur le sujet mené à Orléans en septembre 2025, nous avons identifié trois défis techniques majeurs. Structurer cette filière émergente nécessite :
la maîtrise des cycles biologiques,
la garantie de la sécurité sanitaire
et le contrôle de la qualité nutritionnelle.
Un élevage à large échelle exige une connaissance fine de la biologie des insectes (physiologie, comportements, pathologies) et un contrôle strict des paramètres environnementaux (humidité, température, etc.). Par exemple, l’humidité influence la masse des larves de vers de farine. Les professionnels doivent donc instaurer des seuils d’alerte pour détecter les dysfonctionnements, tout en adaptant l’automatisation des procédés d’élevage aux spécificités de chaque espèce.
Comme pour tous les animaux de rente, la maîtrise du cycle biologique des insectes est essentielle pour la durabilité des élevages. Or, dans le cas de l’entomoculture, les professionnels ne maîtrisent pas encore bien leur production : la diversité des espèces, la sélection génétique débutante et la variabilité des substrats d’élevage compliquent à ce stade l’optimisation des paramètres d’élevage.
Pour l’instant, l’objectif n’est pas d’accélérer la croissance (comme cela peut l’être pour d’autres types d’élevage), mais au contraire de pouvoir la freiner en agissant sur des facteurs biologiques et environnementaux. L’enjeu est de mieux piloter les étapes suivantes de la production, comme la transformation, le stockage et le transport. C’est d’autant plus important pour ceux qui vendent des insectes vivants, comme les auxiliaires de lutte biologique contre les parasites et prédateurs.
Le contexte local (température, humidité, ressources) ajoute une couche de complexité, qui rend l’expertise humaine indispensable. Il faut combiner observation directe, expérience de terrain et adaptabilité. Afin de comparer les pratiques et identifier les facteurs de réussite, le recours à des indicateurs standardisés est nécessaire. Pour les mettre en place, la filière peut s’inspirer des référentiels techniques des élevages traditionnels, comme ceux de la filière porcine (GTTT, GTE), ou des bases de données collaboratives, comme le SYSAAF pour les filières avicoles et aquacoles.
Comme pour les élevages traditionnels, l’entomoculture exige par ailleurs un haut niveau de sécurité sanitaire, adapté à la destination des produits : alimentation animale et humaine, ou auxiliaires de culture.
Pour garantir ces exigences, les entreprises doivent compartimenter leurs unités, prévoir des vides sanitaires et des protocoles stricts (gestion des contaminations, éradication des nuisibles, nettoyage). La surveillance des substrats et des supports d’élevage est cruciale, surtout s’ils sont stockés longtemps.
Les producteurs utilisent à cette fin des indicateurs (taux de mortalité, rendement en biomasse, durée des cycles) pour détecter les anomalies. Leurs causes peuvent être multiples : insectes compétiteurs, vecteurs de pathogènes, ou pathogènes cryptiques (c’est-à-dire, dont les signes d’infection ne sont pas immédiatement visibles).
À ce stade toutefois, la connaissance de ces menaces reste limitée : les données sur les virus infectant la mouche soldat noire, par exemple, sont récentes. Pour accompagner l’essor de cette filière, il serait judicieux qu’une nouvelle branche de médecine vétérinaire spécialisée dans les insectes voie le jour. La collaboration avec les laboratoires de recherche en biologie des insectes reste également indispensable pour développer protocoles et procédures de biosécurité sans tomber dans une asepsie totale, qui serait contre-productive : le microbiote des insectes est essentiel à leur croissance et leur fertilité), en d’autres termes à leur santé.
La stimulation du système immunitaire des insectes, principalement innée, peut passer par une « vaccination naturelle », à travers l’exposition à de faibles doses de pathogènes. Cette approche, testée chez l’abeille contre la loque américaine, pourrait être étendue. Une autre piste est la récolte précoce en cas d’infection naissante, pour limiter les pertes.
Cette stratégie nécessite toutefois un arbitrage entre rendement optimal et gestion du risque sanitaire. Le cadre réglementaire actuel est inadapté : les élevages d’insectes ne sont pas couverts par la législation européenne sur la santé animale, et aucune obligation ne contraint à déclarer les pathogènes aux autorités sanitaires. Intégrer l’entomoculture au cadre réglementaire européen existant, tout en adaptant les normes à l’échelle et au budget des producteurs, semble donc indispensable.
Se pose enfin la question de la composition nutritionnelle des produits, qui dépend directement de l’alimentation des insectes.
Un substrat riche en acides gras insaturés, par exemple, enrichira les produits finaux en ces mêmes nutriments. Toutefois, cette donnée reste à nuancer selon les espèces et les autres paramètres de production. Les substrats sélectionnés doivent donc correspondre aux critères et aux marchés visés mais également aux comportements alimentaires des espèces élevées et être optimisés pour fournir un rendement optimal. Pour les auxiliaires, un insecte de bonne qualité montre des signes visibles de vitalité et d’adaptabilité aux conditions d’application (culture, serre, verger…).
D’autres paramètres influencent la qualité : le stade et l’âge des insectes, la méthode de mise à mort, le processus de transformation (risque de dégradation nutritionnelle) et le choix de l’espèce. Les professionnels doivent maîtriser les besoins nutritionnels de leurs insectes, la variabilité, la digestibilité des substrats d’élevage et les rendements des processus de transformation. La qualité des produits issus de l’entomoculture doit, enfin, être contrôlée tout au long de la chaîne de production, avec des exigences renforcées pour les marchés de l’alimentation.
Face à ces enjeux, la filière se trouve confrontée à un dilemme réglementaire. Faut-il appliquer directement les normes d’autres productions animales (filières aquacoles ou avicoles par exemple), au risque d’imposer des contraintes inadaptées et potentiellement contre-productives pour une filière aux spécificités biologiques et techniques très différentes ?
Ou bien attendre l’élaboration de réglementations spécifiques aux insectes, au risque de ralentir le développement du secteur et de créer une incertitude juridique ? Une approche pragmatique serait d’adapter progressivement les normes existantes aux réalités de l’entomoculture.
L’entomoculture représente une piste sérieuse pour relever les défis alimentaires et climatiques du XXIe siècle. Mais son succès dépendra de notre capacité collective à structurer cette filière naissante tout en préservant son potentiel innovant.
Pour qu’elle puisse répondre aux attentes futures, plusieurs défis doivent être relevés. D’abord, créer des référentiels et standardiser les pratiques : guides de bonnes pratiques partagés, protocoles cadrés par espèce, formations pour les opérateurs et décideurs. L’équilibre entre automatisation et expertise humaine reste crucial, notamment pour évaluer des paramètres non mesurables par des capteurs.
Ensuite, améliorer la gestion des risques en instaurant des seuils d’alerte et en hiérarchisant les causes possibles de dysfonctionnement pour les anticiper. Les élevages devront aussi s’adapter aux contextes locaux, particulièrement en matière d’énergie et de ressources disponibles.
Enfin, faire évoluer la législation pour inclure pleinement l’entomoculture, y compris dans les certifications, comme le bio, et les lois sur l’éthique animale dont les insectes restent aujourd’hui exclus. Cet angle mort réglementaire peut convenir provisoirement à certains opérateurs, mais constitue un frein à la crédibilité et à l’acceptabilité sociale de la filière dans son ensemble.
Caroline Wybraniec a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083).
Bertrand Méda a reçu des financements de l'Institut Carnot France Futur Elevage (projet PINHS, 2020-2023).
Christophe Bressac a reçu des financements de la région centre val de Loire (projet BioSexFly) et de la BPI (i-Démo FrenchFly)
Elisabeth Herniou a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083) et EU Marie Sklodowska-Curie grant agreement 859850 INSECT DOCTORS).
Matthis Gouin a reçu des financements de l'ANR FLYPATH (ANR-24-CE20-6083) et Région Centre Val de Loire
21.02.2026 à 09:15
François Charrier, Ingénieur de recherche en sciences de gestion, Inrae
Marc Barbier, Directeur de recherche, Inrae
La crise de la dermatose nodulaire bovine qui a frappé la France a mis en tension la gouvernance sanitaire française. Au-delà des mesures d’abattage contestées, elle révèle l’enjeu d’adapter les dispositifs de gestion aux réalités du terrain et souligne l’urgence à intégrer davantage les éleveurs en amont de la gestion de crise.
L’émergence du virus de la dermatose nodulaire contagieuse bovine (DNCB) (DNCB) en France a mis en tension l’organisation sanitaire française. Ceci tient à plusieurs raisons. D’abord sa longue durée d’incubation, qui retarde le diagnostic et implique un contrôle difficile des échanges d’animaux. Puis l’urgence de la situation, entraînant une fatigue opérationnelle de l’ensemble des professionnels. Aussi, les impacts sociaux et économiques (et moraux) des mesures de restriction et d’abattage ont conduit à des contestations de ces mesures. Le ministère de l’intérieur y a répondu par un recours à la force.
La crise de la DNCB a provoqué une véritable crise de gouvernance qui s’est cristallisée sur la contestation des mesures de gestion prises en aval de la crise (politiques d’abattage, régimes d’indemnisation…) Elle révèle pourtant l’importance des processus gestionnaires en amont de ces situations (préparation, investissements dans les ressources et l’intelligence collective) pour faire face aux potentielles futures épizooties.
À lire aussi : Dermatose nodulaire contagieuse : les vétérinaires victimes d’une épidémie de désinformation
La DNCB est qualifiée dans les réglementations européenne et française comme une « maladie à éradication immédiate ». Les autorités sanitaires ont ainsi dû agir en urgence pour mettre en œuvre les dispositifs de gestion prévus pour « gérer » ce type de maladie : dispositifs de surveillance, de vaccination, de confinement, de biosécurité, de dépeuplement ou d’abattage, d’indemnisation des éleveurs…
Ces dispositifs assemblent des éléments hétérogènes pour accomplir une finalité de stratégie sanitaire : des réglementations (par exemple le règlement européen UE 2016/429), des connaissances (modèles et savoirs épidémiologiques, savoirs règlementaires…), des individus (vétérinaires, préfets…), diverses organisations (services de l’État déconcentrés, laboratoires…), des protocoles (tels que le plan d’intervention d’urgence sanitaire ou les modes d’emploi des vaccins), des outils (vaccin, cartographies…), etc. Or, le déploiement de ces dispositifs a des effets, attendus ou inattendus, qui peuvent en affecter l’efficacité s’ils ne sont pas révisés et discutés en fonction de la situation dans laquelle on les met en œuvre.
Les gestionnaires de l’action publique sanitaire sont constamment pris dans un équilibre instable, intrinsèquement lié à l’activité de management. De ce point de vue, la détection et la propagation d’un virus dans un territoire provoquent ce qu’on appelle une « situation de gestion »
Il s’agit d’une situation où des participants sont mis à contribution, volontairement ou par obligation, pour trouver une solution à un problème et le résoudre, dans une temporalité et un espace donnés. Les solutions sont rarement immédiates, d’autant plus lorsque les problèmes sont peu structurés, où que de nouveaux problèmes surgissent (actions d’opposants aux mesures de dépeuplement par exemple). C’est un cadre théorique qui permet de comprendre comment s’engagent des processus collectifs de problématisation, de production de sens et de réorganisation pour résoudre progressivement la situation.
Toute la question est de savoir comment les gestionnaires de l’action publique peuvent favoriser (ou non) ces processus. Dans le cas de la DNCB, les processus gestionnaires « visibles » (ceux qui ont abouti aux mesures de dépeuplement ou d’indemnisation) ont avant tout reposé sur une rationalité régalienne implacable, justifiée par la réglementation et l’urgence de la situation. Pour faire accepter ces mesures de gestion, elle s’est appuyée sur deux instruments. D’un côté, une « pédagogie » basée sur des savoirs scientifiques élevés au rang d’argument d’autorité. De l’autre, sur des indemnisations pour réparer les dégâts et le recours à la force pour faire obtempérer les indociles.
Pour autant, l’étude d’autres situations sanitaires peut permettre de dégager des pistes pour piloter et favoriser des processus gestionnaires en amont des crises.
À lire aussi : Zoonose : cinq ans après le début du Covid, comment minimiser les risques d’émergence ?
En Corse, nous avons étudié plusieurs situations sanitaires : la crise de la fièvre catarrhale ovine (FCO) de 2013, l’échec de la vaccination contre la maladie d’Aujeszky sur les porcs (2011-2013), la réémergence de la tuberculose bovine, le processus de « biosécurisation » des élevages porcins lors de l’introduction de la peste porcine africaine (PPA) en Belgique (2018-2020).
Nos résultats montrent que l’articulation de nombreux dispositifs de gestion peut être améliorée en renforçant la coopération entre les acteurs qui les adaptent et les appliquent sur le terrain. Nous avons modélisé une « écologie de dispositifs dynamique » en analysant les adaptations locales de l’activité gestionnaire régalienne.
Reprenons ici le cas de la gestion de la crise liée à l’introduction de la FCO en Corse en 2013, qui est assez similaire à celle posée par la DNCB. Suite à la détection du virus en septembre 2013, l’État a déployé une stratégie basée sur une vaccination massive (ovins, caprins, bovins) et blocage des échanges commerciaux. Mais sur le terrain, plusieurs obstacles majeurs ont obligé l’administration et les éleveurs à réinventer ensemble la situation et la stratégie.
Par exemple, les exportations d’animaux, interdites depuis l’ensemble du territoire insulaire, engendraient un surcoût pour les éleveurs corses qui ne pouvaient plus exporter leurs agneaux vers la Sardaigne, leur principal client. À la demande des éleveurs, un accord inédit a alors été négocié avec l’Italie pour maintenir ces exportations. L’État s’est ainsi assuré de favoriser l’implication des éleveurs dans la stratégie sanitaire.
Aussi, alors que l’administration sanitaire s’est étonnée de la lenteur de la vaccination en octobre 2013, les éleveurs ont expliqué que c’était la pleine période des naissances (agnelages), un moment critique où l’acte vaccinal (manipulation de l’animal, stress), peut avoir des conséquences désastreuses (avortements, affaiblissement). Le calendrier fut décalé en conséquence, et il a été accepté de perdre du temps administratif (et « épidémiologique ») pour respecter le cycle biologique des animaux et le fonctionnement zootechnique des fermes.
Enfin, le dispositif de vaccination des chèvres a été abandonné en cours de route. Le vaccin utilisé n’étant pas officiellement homologué pour les chèvres, des éleveurs craignaient des effets secondaires et des vétérinaires refusèrent d’en prendre la responsabilité. Ce renoncement était pragmatique : contrairement aux ovins, les chèvres ne développaient pas de forme grave de cette maladie. Le risque de créer un réservoir du virus dans le compartiment caprin a été collectivement accepté.
Toutes ces problématiques et modifications, créations ou abandons de dispositifs ont pu être discutées et validées collectivement (parfois de manière conflictuelle, cela arrive et c’est normal) dans le cadre d’un comité de pilotage bimensuel. Il a impliqué une grande diversité d’acteurs : services de l’État, vétérinaires, associations d’éleveurs, chasseurs, chercheurs, etc.
Cet exemple illustre une forme de dialectique entre la situation de crise et les dispositifs de gestion sanitaire déployés. Quelle que soit la rigidité des règles, la problématisation collective est une mécanique majeure permettant la recombinaison et l’adaptation des dispositifs qui vont impacter la vie des éleveurs et des animaux. Cette dialectique ne sera jamais la même d’un territoire et d’une temporalité à l’autre, et la participation des éleveurs (et autres acteurs), en est le moteur principal.
Enfin, cette dialectique ne s’exprime pas seulement en temps de crise, elle peut également s’exprimer en routine… à la condition que les modalités de gouvernance sanitaire le permettent. Penser les émergences et crises à venir c’est précisément penser cette « écologie des dispositifs » et sa dynamique.
La gouvernance de la santé animale est l’expression, autant qu’elle en est captive, de ce que Foucault appellerait un « biopouvoir » qui structure le secteur de l’élevage. Il se manifeste par trois dispositifs en tension permanente et en équilibre instable, particulièrement lors de l’émergence de maladie :
Un dispositif « productif-marchand » dans lequel l’animal est vu comme un facteur de production ou une marchandise ;
Un dispositif « biosécuritaire » dans lequel l’animal est vu comme porteur d’un risque épidémiologique (pour lui, le troupeau, le cheptel national, l’humain dans le cas de zoonoses) ;
Un dispositif « écologie-éthique » qui replace l’animal dans son environnement, et le reconnaît comme être vivant sensible, associé au bien-être et à la reconnaissance du travail des éleveurs.
La crise de la DNCB montre comment le premier dispositif a été au cœur de l’expression de ce biopouvoir. Les savoirs épidémiologiques (dispositif « biosécuritaire ») ont été mobilisés dans une politique et une gestion sanitaires contraintes par les structures marchandes. Dans ce contexte, les autres connaissances, par exemple, les apports de la sociologie du travail sur la relation animal-humain ne « pesaient » plus guère, ou si peu.
Ainsi, alors que les réformes de la gouvernance sanitaire cherchent depuis longtemps à « responsabiliser les éleveurs », il parait paradoxal que ces derniers ne soient pas associés à la conception des stratégies sanitaires, à leur suivi et à la réévaluation de ces « écologies » de dispositifs.
Construire une gouvernance du sanitaire c’est établir des liens de confiance et d’inclusion. Alors que ces liens semblent aujourd’hui extrêmement ténus, une future situation pourrait devenir totalement incontrôlable si les éleveurs ne signalaient plus les suspicions à leur vétérinaire de peur de perdre tout leur troupeau. C’est aussi un phénomène connu, analysé et documenté.
Alors que la question, au regard du changement climatique et de l’ultra-connectivité de nos économies agricoles, n’est plus tant de savoir si le cheptel va être touché par tel ou tel pathogène, mais quand et avec quelle intensité, la reconstruction de ces liens de confiance est d’une brûlante nécessité.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
20.02.2026 à 16:43
Anne Parizot, Professeur des universités en sciences de l'information et de la communication émérite, Université Bourgogne Europe

Le goût n’est pas qu’une affaire de papilles gustatives. Certains légumes peuvent ainsi avoir celui de la guerre et de la privation. C’est le cas de divers légumes racines, comme les topinambours ou les rutabagas, associés à des traumatismes historiques. Aujourd’hui cependant, ils ont le vent en poupe et sont parfois considérés comme des trésors cachés que l’on redécouvre ou bien comme des « légumes authentiques ». Comment ce changement a-t-il pu s’opérer en quelques décennies quand les saveurs de ces légumes n’ont, elles, bien sûr pas changé ?
On les disait tristes, fades ou dépassés, les topinambours, rutabagas, panais ou crosnes font leur retour sur les étals, dans les paniers bio et sur les menus gastronomiques. Associés aux souvenirs de guerre et de pénurie, ils questionnent notre apport à l’alimentation. Comment des légumes associés à la contrainte alimentaire sont-ils devenus emblèmes d’une cuisine désirable et responsable ?
L’histoire des légumes varie selon les périodes : longtemps méprisés par l’élite jusqu’à la Renaissance, certains ont alors connu un engouement, lié au changement de statut social des légumes, à la transgression des prescriptions médicales, à l’influence italienne et à l’acclimatation de produits venus d’Espagne.
Historiquement, ces légumes constituaient une base ordinaire de l’alimentation européenne du début du Moyen Âge à l’époque moderne. Leur robustesse, leur capacité de conservation en faisaient des ressources fiables face aux aléas climatiques et aux pénuries. Cultivés sous terre, ils assuraient la sécurité alimentaire, notamment lors des crises frumentaires (XIVᵉ-XVIIᵉ siècles) et en période de conflit. Cette centralité s’érode à partir du XVIIIᵉ siècle, avec la rationalisation agricole et l’essor de cultures plus productives et standardisées, comme la pomme de terre qui s’impose durablement au XIXᵉ siècle.
Les guerres du XXᵉ siècle accentuent leur marginalisation. Moins stratégiques que la pomme de terre et les céréales, ces légumes échappent davantage aux prélèvements et aux destructions. Indissociables de la Seconde Guerre mondiale, cultivés massivement pour pallier l’absence des denrées confisquées, ils deviennent des aliments de survie, durablement associés, dans la mémoire collective, à la contrainte, la monotonie et la privation plutôt qu’au plaisir alimentaire.
Après la Libération, leur rejet est brutal. Manger du rutabaga rappelle un passé de privation que l’on souhaite effacer. L’industrialisation agricole et la standardisation des goûts les relèguent hors des pratiques alimentaires ordinaires.
Ce n’est pas un phénomène isolé. Le sociologue Claude Fischler montre que l’alimentation est un puissant vecteur de mémoire sociale. S’il n’analyse pas directement les légumes racines, ses travaux sur l’alimentation, notamment sur les crises de la vache folle ou des organismes génétiquement modifiés (OGM), permettent de comprendre comment certains aliments, associés à des expériences historiques de contrainte, de pénurie, se trouvent durablement chargés d’une valeur mémorielle négative.
Le sociologue Erving Goffman, évoque lui à cet égard, des aliments « disqualifiés » : leur consommation signale une contrainte plutôt qu’un goût rappelant une identité alimentaire associée à la privation.
Le déclassement des légumes racines s’inscrit également dans une hiérarchisation symbolique. Certains légumes sont perçus comme rustiques ou pauvres tandis que d’autres – asperges, artichauts, tomates – sont « nobles », valorisés par leur rareté, leur mode de culture et leur association historique aux cuisines urbaines ou aristocratiques. La valeur gustative se confond ainsi avec la valeur sociale, selon Pierre Bourdieu.
Consommer ces légumes relevait d’un « goût de nécessité » (aliments nourrissants, « tenant au corps » et peu coûteux, comme la pomme de terre, la soupe), en contraste avec le « goût de liberté » des classes dominantes (préparations légères et esthétisées). La raréfaction des cultures reflète un ajustement de l’offre agricole à une demande socialement construite : à mesure que ces légumes deviennent les emblèmes d’un « goût de nécessité » disqualifié, leur consommation recule, entraînant une contraction des surfaces cultivées et la marginalisation des filières correspondantes.
Leur retour au XXIᵉ siècle s’inscrit dans les critiques contemporaines de l’agro-industrie, la valorisation des circuits courts et la recherche d’une alimentation plus locale. Là où ils étaient imposés, ils deviennent des choix alimentaires revendiqués. Il faut dire que les générations, qui les ont associés à la privation et à la guerre, disparaissent peu à peu.
Leur consommation est désormais un marqueur de compétence gastronomique et de distinction culturelle, signalant un rapport éclairé à l’alimentation, au temps long et à l’histoire des produits.
Cette requalification repose sur un travail discursif. On ne parle plus de « légumes de guerre », mais de « légumes anciens », « oubliés », « racines de terroir ». Le glissement lexical désactive la mémoire douloureuse et valorise ces « trésors cachés » que l’on redécouvre.
L’authenticité alimentaire est avant tout un effet de discours.
Dire « ancien » plutôt que « dépassé », « oublié » plutôt qu’« indésirable » fonctionne comme marqueurs symboliques, signifiant un choix réfléchi et un engagement culturel ou écologique. Le consommateur achète une narration, pas seulement un légume.
« Légumes anciens » ne renvoie pas nécessairement à l’âge historique du légume ni à sa production locale. Des topinambours ou rutabagas dits « oubliés » n’ont pas disparu et ont continué à être depuis le Moyen Âge cultivés en continu dans certaines régions. Certains légumes très anciens sur le plan botanique – panais, scorsonère, cardons – n’ont jamais été oubliés et continuent de figurer dans des pratiques alimentaires locales ou rurales.
De même, l’argument de la localité peut être plus rhétorique que factuel. Ces légumes, vendus dans les circuits bio ou gastronomiques, peuvent provenir de régions éloignées ou de cultures industrialisées hors saison. La mise en avant du terroir relève davantage d’un effet de discours visant à renforcer la valeur symbolique et patrimoniale du produit que d’une réalité géographique stricte produisant une perception de proximité et d’authenticité, indépendamment de la chaîne d’approvisionnement réelle.
Diffusés dans les livres de cuisine, les médias, les marchés et la distribution spécialisée, ils dégagent une nostalgie recomposée, souvent sans souvenir vécu. Le passé convoqué est débarrassé de ses souffrances. « Oublié » suggère une nécessité de réhabilitation, là où le « légume de pénurie » enferme l’aliment dans un passé subi, ce qui correspond à une recomposition symbolique de la mémoire alimentaire.
Dans les rayons bio, sur les sites spécialisés, topinambour et panais sont des produits de saison inscrits dans un registre valorisant « légume ancien de saison ou de terroir, racine d’hiver, légumes patrimoniaux ».
Les médias français et anglo-saxons associent eux ces légumes, généralement robustes au froid et à la maladie, demandant peu de traitement chimiques ou agricoles, préservant la diversité génétique, à une cuisine durable, créative et engagée, renforçant leur dimension patrimoniale.
Les chefs et leurs collaborateurs légitiment à leur tour cette requalification symbolique avec des termes parfois de plus en plus abstraits. Ils sont pour cela présentés comme des artistes « en quête de vérité » à l’instar du chef Olivier Nasti qui louera les goûts authentiques des légumes racines. On passe ainsi d’adjectif descriptif (légume rustique par exemple) à des qualificatifs moraux, qui n’évoquent plus une qualité agronomique mais qui ont une fonction révélatrice : Il est désormais question de dire le paysage ou raconter le terroir , ce qui pose le légume comme médium.
Le maraîcher Joël Thiébault, qui fournit de nombreux chefs étoilés assure ainsi « expliquer aux cuisiniers le vécu d'un légume » lors de la vente, tandis que l’experte en image de marque Annie Ziliani voyait dans le succès des légumes racines « une envie de choses qui se sont frottées aux éléments, qui ont touché la terre ». Ces légumes, renchérit le chef Jérôme Guicheteau, sont de surcroît fourni par des « vrais gens, des gens de la terre » qui s’oppose à la grande distribution.
Ces légumes peuvent également se colorer politiquement : le chef Mauro Colagreco revendique ainsi l’usage de légumes anciens comme un acte engagé : préservation de la biodiversité, valorisation des variétés oubliées, respect de la saisonnalité et critique de l’agro-industrie.
Longtemps jugés laids, terreux ou informes, ils sont désormais qualifiés de « biscornus », de « singuliers », d’« imparfaits mais vrais ».
L’irrégularité devient une valeur esthétique et morale, opposée au calibrage industriel. La nostalgie suscitée est largement construite : la plupart des consommateurs n’en ont aucune mémoire vécue. Le passé mobilisé est recomposé à partir des valeurs du présent : rejet de la standardisation et désir de réenracinement.
Leur désirabilité ne tient pas à la saveur, mais au regard porté sur eux. À travers leur retour, ce sont nos manières de raconter l’alimentation, le passé et le territoire qui se recomposent. Certains semenciers proposent désormais des « coffrets de légumes oubliés » comme on offrirait un vin rare ou un objet culturel.
Le topinambour ou le panais deviennent ainsi des supports de récit, de transmission et de positionnement symbolique. Manger ces légumes devient une manière de dire quelque chose de soi, de son rapport au temps, à l’histoire et aux modèles de production.
Reste une question ouverte : ces « légumes oubliés » redeviendront-ils ordinaires ou resteront-ils des signes distinctifs d’un art contemporain de manger ?
Anne Parizot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.02.2026 à 13:08
Bastien Lange, Enseignant-chercheur en sciences du végétal, agroécologie, UniLaSalle
Michel-Pierre Faucon, Enseignant-chercheur en écologie végétale et agroécologie - Directeur délégué à la recherche à l'Institut Polytechnique UniLaSalle, UniLaSalle
Nicolas Honvault, Chercheur en agroécologie, UniLaSalle

On favorise souvent les variétés de céréales qui ont, en moyenne, les meilleurs rendements. Mais les hétérogénéités climatiques et aléas croissants viennent chahuter ce paradigme.
Blé, orge, maïs, riz… Ces cultures assurent près de la moitié des apports caloriques mondiaux, ce qui rend leur adaptation au changement climatique cruciale.
Mais alors que sécheresses, gels tardifs et coups de chaleur se multiplient, une question s’impose : quelles variétés choisir pour faire face à des conditions de plus en plus imprévisibles ?
Car toutes les variétés ne réagissent pas de la même façon : certaines voient leur rendement chuter rapidement sous stress, quand d’autres compensent mieux et conservent des performances plus stables. Choisir les variétés à sélectionner et à cultiver est donc à la fois difficile et capital pour assurer la sécurité alimentaire.
Faut-il miser sur une variété championne dans des conditions climatiques particulières ou sur des profils plus robustes face à l’imprévisibilité ? Comment connaître précisément les déterminants climatiques qui vont gouverner cette performance et cette stabilité ? Ces questions sont au cœur de notre travail afin d’amener de nouvelles connaissances pour la sélection variétale et accroître la pertinence du choix variétal.
Depuis des décennies, la sélection variétale repose sur des essais conduits dans de multiples lieux et sur plusieurs années. On y analyse les performances pour choisir des variétés nouvelles ou renforcer les recommandations de variétés existantes, comme les variétés Chevignon, Intensity et Prestance pour le blé tendre et Planet, Timber et Lexy pour l’orge de printemps brassicole. Historiquement, et encore très souvent, ces décisions sont prises en observant les moyennes de performance réalisées sur l’intégralité ou sur une grande partie du réseau d’essais, et en recommandant les variétés les plus performantes en moyenne.
Le problème est que, sous un climat qui évolue rapidement et qui apparaît de plus en plus imprévisible, cette valeur moyenne de performance est trompeuse, car elle ne nuance pas suffisamment les différences de performance relative des diverses variétés face aux variations climatiques et aux variations des facteurs du sol. Plus surprenant encore : les facteurs climatiques qui déterminent les niveaux de rendement ne sont pas toujours ceux qui provoquent les changements de classement entre variétés. Autrement dit, les conditions climatiques qui font varier le rendement de la culture ne sont pas nécessairement celles qui avantagent ou désavantagent certaines variétés par rapport à d’autres, révélant ainsi toute la complexité de l’adaptation des plantes cultivées à l’instabilité climatique et les défis qu’elle pose à la sélection variétale.
Une variété très performante une année – atteignant par exemple 9 tonnes par hectare (t/ha) en blé – peut subir une chute significative de rendement la campagne suivante, à 6–7 t/ha, tout en étant reléguée dans le classement par des variétés mieux adaptées aux conditions climatiques.
Face à ce constat, nous avons donc tâché de procéder autrement. Plutôt que de considérer chaque année ou chaque site comme un cas isolé, nous avons voulu identifier les grands types de situations climatiques et agronomiques auxquels les cultures sont confrontées ainsi que leur fréquence d’apparition, même si leur succession demeure difficilement prévisible.
Ces situations sont décrites à partir de variables clés – températures, disponibilité en eau, rayonnement… – analysées aux moments les plus sensibles du cycle des cultures, par exemple sur la période allant des semis à l’émergence, sur celle allant de la floraison jusqu’au début du remplissage des grains ou encore du remplissage à la maturité. Un découpage crucial qui permet dans un premier temps de mieux comprendre les réponses contrastées des variétés selon les conditions et, dans un second temps, de regrouper les années et les lieux en familles d’environnements historiquement comparables : c’est le principe de l’envirotypage.
Appliquée à l’orge de printemps, cette approche met en évidence trois grands types d’environnements en Europe, définis à partir des facteurs climatiques qui expliquent les réponses contrastées des variétés au sein du réseau d’essai : maritime, tempéré et continental.
Leur fréquence varie fortement selon les régions. En Irlande ou en Écosse, le scénario climatique est très majoritairement maritime d’une année sur l’autre. À l’inverse, dans le nord de la France, ces types alternent fréquemment (Figure 1), ce qui oriente la sélection et le choix variétal vers des génotypes à adaptation plus générale, c’est-à-dire capables de bien se comporter en moyenne dans des contextes contrastés. En Irlande et en Écosse, il sera donc judicieux de miser sur une variété championne pour des conditions particulières tandis que dans le nord de la France, il faudra plutôt plébisciter une variété robuste face à l’imprévisibilité.
Les analyses montrent également que des températures fraîches en début de cycle, entre l’émergence et le stade « épi 1 cm » – ce dernier correspondant au début de la progression du futur épi dans la tige –, peuvent maximiser le potentiel de rendement des variétés d’orge de printemps testées. Par ailleurs, l’intensité du rayonnement solaire durant la phase de remplissage des grains d’orge induit des réponses contrastées selon les variétés. Ces résultats constituent des leviers précieux pour orienter la stratégie de sélection.
Le cas du blé tendre d’hiver est également central. Première céréale cultivée au monde, il a bénéficié de progrès génétiques constants depuis la fin des années 1980, mais sa stabilité de rendement reste fragile, avec des niveaux moyens autour de 7,5 t/ha depuis la fin des années 1990. Les interactions entre variétés et environnements jouent un rôle majeur dans l’expression des niveaux de rendement, qui s’expriment également au plan régional.
L’envirotypage permet d’identifier les grands scénarios climatiques responsables des variations de rendement et de qualité, et de définir des zones d’adaptation générale ou spécifique. Un enseignement important est que les variétés les plus performantes ne sont pas nécessairement les plus stables pour le rendement : le progrès génétique n’a pas automatiquement renforcé la résilience climatique.
Ces travaux convergent vers un même message : comprendre le climat ne suffit plus, il faut organiser son imprévisibilité. En structurant les environnements réellement rencontrés par les cultures, l’envirotypage offre une approche à la fois scientifique, pour améliorer la connaissance en mettant en évidence les caractères des plantes impliqués dans l’adaptation au changement climatique, et pragmatique pour adapter dès aujourd’hui la sélection variétale au climat de demain.
Face à un climat de plus en plus instable, il ne suffit plus de raisonner le choix des variétés à partir de performances moyennes. En structurant la diversité des situations climatiques réellement rencontrées par les cultures, l’envirotypage permet de mieux comprendre pourquoi les variétés changent de comportement d’une année ou d’un contexte à l’autre, et d’orienter la sélection vers des profils plus robustes face à l’imprévisibilité.
Cette approche reste toutefois fondée sur des essais conduits dans des conditions souvent favorables (texture, structure, et profondeur de sol optimales) et avec des pratiques agricoles très conventionnelles. L’enjeu sera donc aussi d’intégrer l’effet des pratiques – dates de semis, les pratiques de travail du sol, de fertilisation et de protection des cultures – à partir des données issues du terrain et de la traçabilité agricole.
En les structurant avec et pour les agriculteurs, ces informations ouvriront la voie à des recommandations variétales plus réalistes, associées à des pratiques culturales mieux adaptées à la diversité des systèmes agricoles et aux contraintes du climat de demain.
Cet article a bénéficié de l’appui de Chloé Elmerich et Maëva Bicard dans le cadre de leurs thèses de doctorat réalisées au sein de l’unité de recherche AGHYLE (Agroécologie, hydrogéochimie, milieux et ressources, UP2018.C10) de l’Institut polytechnique UniLaSalle.
Bastien Lange a reçu des financements de Florimond Desprez, SECOBRA Recherches et LIDEA, la Région des Hauts de France et l’ANRT.
Michel-Pierre Faucon est membre du pôle Bioeconomy For change. Il a reçu des financements de Florimond Desprez, SECOBRA Recherches et VIVESCIA, la Région des Hauts de France, l'ANR, l'ANRT et l'UE.
Nicolas Honvault est membre de la chaire “Fermes resilientes bénefiques pour climat et la biodiversité”. Il a reçu dans ce cadre des financements de VIVESCIA.
19.02.2026 à 17:03
Marc Mormont, Sociologue, Université de Liège
Une belle vache, c’est quoi ? Les critères pour évaluer cette qualité ne manquent pas : l’expérience et le vécu de chaque éleveur, les avancées de la génétique qui s’immiscent de plus en plus dans le quotidien des fermes et, bien sûr, les « beautés des vaches », ces qualités morphologiques qui structurent le canon de chaque race. Au croisement de tous ces enjeux, la question de la beauté des bovins continue en tout cas d’être la source de discussions sans fin.
Qu’est-ce qui fait la beauté d’une vache ? Pour le promeneur qui s’attarde au bord d’un pré, ce peut être la qualité de celle qui sera la plus fringante, qui viendra à sa rencontre et lui rappellera les images qu’il a vues dans des livres d’enfant. Pour l’artiste, une vache se doit d’avoir de belles formes, une robe et des taches aux couleurs bien marquées. Mais pour les techniciens, les vétérinaires et surtout pour les éleveurs, c’est bien plus que cela. Ils vont d’ailleurs parler au pluriel des « beautés des vaches. »
Les « beautés » forment une liste de critères d’évaluation des animaux utilisés lors du pointage. Cette appréciation visuelle de la morphologie de l’animal se base sur plusieurs dizaines de mesures ou observations qui renseignent le potentiel de l’animal non seulement en termes de production de lait mais aussi de santé. Ainsi, par exemple, l’angle que forme le jarret avec le sol est un critère important car un mauvais angle fait courir le risque que la vache boite ce qui diminuera sa mobilité, importante pour des animaux qui pâturent très régulièrement.
Le pointage est l’affaire de techniciens du conseil agricole qui vont de fermes en fermes et aident les éleveurs à sélectionner leurs animaux. C’est donc une pratique technique et économique spécialisée de sélection des meilleures vaches. Mais c’est aussi une pratique des éleveurs eux-mêmes qui tiennent à maîtriser la composition de leurs troupeaux. Le pointage se pratique également avec ferveur dans les lycées agricoles où on l’apprend de manière méthodique. Les élèves, futurs éleveurs, s’y adonnent avec plaisir et enthousiasme, notamment tant cela fait partie de l’excellence professionnelle.
Il y aussi des concours de jeunes pointeurs qui désigneront les plus compétents. Enfin, cette pratique de pointage est aussi mise en scène de manière spectaculaire lors des comices, fêtes agricoles locales qui rassemblent toute la profession : des juges – éleveurs réputés – y décerneront des prix. Les vaches présentées sont préparées soigneusement pour y apparaître les plus belles. Les animaux primés peuvent ensuite poursuivre leur carrière à travers d’autres événements dont le plus prestigieux est évidemment le salon international de l’Agriculture à Paris.
Ces trois collectifs – jeunes pointeurs, techniciens, juges de concours – et leurs pratiques témoignent de la nature diverse du pointage : une activité à la fois technique, sociale et symbolique. Sa mise en œuvre les réunit dans la singularité des fermes ou lors de manifestations publiques, autant d’occasions d’échanger de « parler métier » entre collègues et de manière festive : « Faut qu’on soit devant la race, c’est notre métier, notre identité » affirme à cet égard un éleveur franc-comtois.
À lire aussi : L’enseignement agricole, un objet politique mal identifié
Dans cette région, une race de vache est particulièrement scrutée : la montbéliarde. Son lait entre dans la production de plusieurs fromages d’origine contrôlée comme le comté. Son histoire est ancrée dans le massif jurassien, où sa silhouette est iconique : une robe « pie rouge » blanche tachetée de rouge brun. Tête blanche, oreilles rouges, ses formes sont rassurantes et harmonieuses, c’est une « séductrice », assurent certains éleveurs. Le pointage reste alors le témoin d’une dynamique collective dans laquelle la confusion entre les compétences professionnelles, le métier et le plaisir ne peut être levée. C’est une culture, qui s’enrichit, se transforme en fonction de l’expérience, des connaissances accumulées pour améliorer le progrès génétique d’une race, l’arrimer à la modernité, tout en restant fidèle à son histoire.
Dans l’élevage laitier, étant donné que le niveau de lactation est lié à la reproduction, les vaches sont régulièrement inséminées, idéalement tous les ans et majoritairement de manière artificielle. De ce fait, le troupeau compte un grand nombre de jeunes animaux et tous ne pourront pas rester sur la ferme. Si les mâles sont rapidement vendus, la sélection des femelles est plus délicate. Les éleveurs trient donc leurs bêtes en continu suivant des choix composites ancrés tout à la fois dans l’histoire des familles humaines et dans celles des lignées animales.
Dans l’après-guerre, avec le développement de la génétique quantitative, la sélection s’est basée sur l’accumulation de données issues du pointage et de données de suivi des animaux quant à leur production et leur santé. Cela a permis d’identifier de bons reproducteurs, des taureaux pouvant donner lieu à des lignées performantes. Cela a également impliqué d’évaluer des descendances et donc d’accumuler des données, ce dont étaient chargées des coopératives départementales de sélection qui disposaient d’un monopole local de gestion de la race.
Ce paysage a complètement changé au début de notre siècle. C’est une chose que l’on sait peu mais depuis le début des années 2010, la sélection des animaux domestiques a radicalement été modifiée. Grâce au décryptage de l’ADN, la génomique a succédé aux acquis de la statistique quantitative. Elle rend désormais envisageable le choix des jeunes femelles dès leur naissance en cherchant à répondre aux défis de plus en plus nombreux rencontrés par les élevages modernes. Alors que jusqu’ici, les index ciblaient la production de lait, les caractères fonctionnels et les caractères morphologiques, il est désormais possible – ou ce sera bientôt le cas – de caractériser l’absence de cornes, la fromageabilité du lait, les pathologies liées aux aplombs, une moindre émission de gaz à effet de serre, la résistance à la chaleur…
Tous les domaines de l’élevage semblent concernés par ces avancées : la santé des animaux et leur bien-être, leur adaptation à des environnements moins contrôlés et plus diversifiés, la réduction des impacts environnementaux, l’amélioration de la qualité sanitaire des produits alimentaires… Il serait désormais possible d’identifier, dès la naissance, le potentiel de l’animal et donc d’indiquer à l’éleveur quels animaux faire entrer dans le troupeau.
Concomitant à ce changement technique, l’interprétation française d’une législation européenne sur la libre concurrence a conduit à dissoudre les coopératives de sélection au profit d’entreprises privées qui vendent désormais les doses de sperme mais aussi les données issues du génotypage. Car pour caractériser les animaux il leur faut disposer d’une masse la plus importante possible de données issues des élevages. Les éleveurs deviennent ainsi à la fois consommateurs d’évaluations et de doses de sperme mais aussi fournisseurs de données. L’évaluation visuelle de l’animal – le pointage – reste pertinent non plus comme jugement de l’animal à sélectionner mais comme production de données dans un processus obscur de classement par des entreprises privées.
Pour suivre cette innovation, une enquête universitaire au long cours a débuté en 2014 sur la conduite de la race montbéliarde dans le massif jurassien. Mais alors que l’investigation devait porter sur les premières réalisations technico-scientifiques de la sélection assistée par marqueurs (la SAM), il a été observé qu’éleveurs et techniciens mélangent constamment, dans un désordre apparent, des calculs, des réflexions, des souvenirs, des affects…
Toutes ces dimensions sont visibles alors que les éleveurs entrent dans l’étable, sortent au pré pour apprécier les animaux en leur présence, ou se connectent au big data agricole et aux informations multiples auxquelles il donne accès via un écran. Les éleveurs s’alignent-ils sur les préconisations de ces outils numériques ? Une interpellation d’un conseiller technique suggère que la réponse à cette question n’est pas encore écrite :
« Ce qui fait ton plaisir, tes actes de décision… Ça doit pas être l’algorithme qui fasse tes décisions, qui te fasse garder ou pas une vache… Mais on n’en est pas loin, hein ? Et moi, je m’inscris en faux là-dessus… Il peut t’aider l’algorithme… Mais si c’est cette vache-là que t’aime bien… Parce que c’est elle qui emmène le troupeau au pâturage… Elle te fait un veau par an sans problème et elle ne tape pas quand tu la trais et que tu l’aimes vraiment… Ah, ben tu la gardes… »
Car la sélection reste avant tout une affaire individuelle menée par chaque éleveur pour garder la vache « qui va ». À la recherche de la « toute bonne » ou de la « toute belle », ils poursuivent avec obstination des images de vaches qu’ils ont dans la tête.
Car l’élevage est un métier au cœur duquel il y a plusieurs manières de faire et d’exceller et dans chaque troupeau, il y a divers profils d’animaux qu’on peut valoriser ou non. Il y a bien sûr la meneuse, les indépendantes ou les amicales. Il y a celles dont les lignées sont connues et « qui font partie de la famille » humaine et animale. Celles qui ne font pas parler d’elles, qui marchent bien pour aller au pré et sont capables de s’adapter aux ressources disponibles, aux aléas de la pousse de l’herbe. Pour les prairies rocailleuses du Haut-Jura, il faut des pattes solides et un large museau pour brouter. Bien sûr, il y a aussi celles dont la robe et les formes sont conformes à l’idéal de la race.
À travers la sélection que mènent les éleveurs, le fonctionnel (la bonne vache) et l’esthétique (la belle vache) ne peuvent être dissociés, ils sont au cœur de l’émotion que procure un animal avec lequel travailler : « Bon, il y en a qui se rapprochent toujours du standard “montbéliarde”, bonne mamelle, bon corps, etc. Mais après, les vaches, c’est comme les gens… C’est pas parce qu’elles ont un défaut qu’elles ne sont pas bonnes… », juge ainsi un éleveur.
Elles sont alors d’autant plus belles qu’elles ont des qualités multiples qui débordent largement les critères du pointage, qu’elles se savent choisies et peuvent ainsi exprimer leur agency. Ce terme, qui désigne la capacité à agir, ne s’applique pas exclusivement aux humains. L’agency n’est en outre pas une qualité individuelle, distribuée a priori, elle est encastrée dans les situations et les relations. Dans le massif jurassien, il y a des éleveurs qui se « sentent éleveur s » et des vaches qui « savent qu’elles sont des vaches ». Ils travaillent ensemble dans l’impromptu autant que dans la durée. « Rester en contact avec l’animal, ce lien avec chacune de nos vaches, car elles sont toutes différentes, ce qui fait que chaque jour est différent et raconte notre histoire », souligne une éleveuse sur Facebook dans le groupe « Passionné de la race montbéliarde ».
À lire aussi : L’éternelle quête de la vache parfaite, de l’auroch nazi aux bovins sans cornes
La génomique permet de sélectionner dès la mise bas : plus qu’une meilleure qualité, c’est une accélération supplémentaire. Cela repose sur un outil numérique qui s’appuie lui-même sur une indispensable collecte de données auprès des éleveurs. Tout ceci confirme que la race est un bien commun : elle n’existe et ne s’améliore que par la participation de tous. Mais sa gestion est désormais privatisée. Les éleveurs sont aujourd’hui utilisateurs et non plus acteurs d’une gestion collective.
Quant à la sélection elle-même, aux choix concrets des éleveurs pour constituer et renouveler leurs troupeaux, ne tend elle pas à se substituer à leurs propres appréciations dont on voit qu’elles ne relèvent pas seulement d’un raisonnement d’efficacité mais aussi de logiques symboliques, affectives, relationnelles qui se traduisent dans une esthétique de la vache, la bonne et la belle ?
Pour aller plus loin, Élever des montbéliardes… Entre passion et productions animales, de Catherine Mougenot, préface de Bernard Hubert et dessins de Gilles Gaillard, Cardère Éditeur, septembre 2025.
Marc Mormont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.02.2026 à 11:48
Coline Deveautour, Enseignante-Chercheuse en Ecologie microbienne des sols, UniLaSalle
Pierre-Yves Bernard, Enseignant-chercheur en Agronomie - Directeur du Collège Agrobiosciences - Associé UR AGHYLE, UniLaSalle

Expérimentation à ciel ouvert avec des prairies recouvertes de Plexiglas ou bien avec des anneaux en carbone de 25 mètres, reproduction d’écosystèmes miniatures en laboratoire, utilisations de données historiques, suivis depuis l’espace, équations… Pour comprendre comment le changement climatique va impacter les écosystèmes, les méthodes sont nombreuses et souvent complémentaires.
« Gérer l’inévitable pour éviter l’ingérable. » À l’heure où les effets du changement climatique ne vont partout qu’en s’accroissant, telle est la formulation courante des climatologues pour exprimer très concrètement l’objectif stratégique des politiques climatiques.
Face aux prédictions préoccupantes, les écologues observent, cherchent à comprendre ce phénomène pour mieux prédire ses conséquences sur nos écosystèmes.
Il existe différentes approches pour tester comment le changement climatique influe sur les organismes, leurs interactions entre individus, entre espèces et avec leur environnement. Cela combine des observations, des expérimentations et de la modélisation. Voici un tour d’horizon de ces différentes approches mises en place en France et dans le monde.
Une première approche consiste à modifier un écosystème via des équipements et à étudier les changements qui en découlent. Que ce soit pour évaluer la sécheresse, les hausses de température ou l’augmentation du CO2 dans l’atmosphère, le principe reste le même. Cela permet de contrôler une ou plusieurs variables environnementales (la pluviométrie, la température et autres) comme si nous étions sous les conditions futures, pour simuler les scénarios climatiques à venir.
C’est le cas de la plateforme de Puéchabon, dans le sud de la France, ou de la plateforme DRI-GRASS, près de Sydney (Australie). Toutes deux cherchent à comprendre comment un changement dans les régimes de pluie impacte l’écosystème et son fonctionnement, mais dans deux écosystèmes bien distincts.
À Puéchabon (Hérault), un système de gouttières dans une forêt de chênes verts exclut partiellement l’eau de pluie pour simuler la sécheresse. Cette expérimentation a débuté en 2003, avec quatre parcelles de 140 mètres carrés dans la forêt de chênes verts. Ainsi, on évalue l’effet de la sécheresse sur des parcelles entières de forêt. Quels effets sur la forêt, sur les arbres, sur le sol ? Quels effets sur le stockage de carbone ?
À Sydney, la plateforme DRI-Grass utilise un système similaire dans un autre type d’écosystème : une prairie. À la place de gouttières, ce sont des toits en Plexiglas qui couvrent différentes parties de la prairie. Cette expérience, plus récente, a débuté en 2013 et couvre un peu plus de 120 m2.
Élément en plus, un système d’irrigation simule plusieurs scénarios possibles : une augmentation, diminution ou changement dans la distribution des eaux de pluie. Cette dernière permet d’étudier les scénarios d’événements extrêmes : des pluies plus rares mais plus fortes. Les chercheurs peuvent donc modifier les régimes hydriques pour se caler sur les scénarios de prédiction des climats futurs. L’un d’entre nous a ainsi travaillé sur cette plateforme pendant trois ans pour mieux comprendre la réponse des champignons et leur interaction avec les plantes face au changement climatique.
Toujours en Australie, mais beaucoup plus impressionnante par sa taille et le dispositif mis en place, la plateforme EucFACE teste l’effet de l’augmentation du CO2 dans l’atmosphère. Ici, ce sont des anneaux en fibre de carbone qui entourent des parcelles circulaires de forêt d’eucalyptus de 25 mètres de diamètre et hauts de 28 mètres !
Durant la journée, ces anneaux injectent du CO2 sur la forêt pour simuler une augmentation de CO2 à 550 ppm, la concentration attendue dans l’atmosphère pour l’année 2050. De nombreux chercheurs travaillent sur cette plateforme pour comprendre comment l’augmentation du CO2 risque de perturber le fonctionnement des forêts natives d’Australie.
Pour une simulation plus réaliste des changements à venir, certaines plates-formes allient plusieurs facteurs. La plateforme autrichienne ClimGrass par exemple, teste non seulement l’augmentation du CO2 mais aussi la température et la sécheresse. Cette plateforme de maintenant dix ans s’intéresse aux impacts du changement sur une prairie.
Quels que soient la plateforme et le scénario testé, des chercheurs de plusieurs disciplines travaillent et prennent des mesures pour étudier les effets du changement climatique sur les organismes (plantes, organismes du sol, herbivores et autres), la diversité des espèces et sur le fonctionnement de l’écosystème (sa capacité à fixer le carbone, par exemple).
Une des difficultés liées avec cette approche expérimentale est la multitude de facteurs qui ne sont pas contrôlés dans une expérimentation à ciel ouvert. Les résultats peuvent varier d’une année sur l’autre en fonction des aléas bien réels du terrain (une année exceptionnellement pluvieuse, par exemple). De plus, ces études sont en général plus coûteuses et demandent plus d’entretien.
Pour des conditions plus contrôlées, d’autres projets consistent à mettre en place des écosystèmes à échelle réduite en laboratoire. Par exemple, un microcosme terrestre peut contenir soit des assemblages artificiels d’organismes (une sélection de plantes en pots) soit des portions d’écosystème venant de l’environnement (des sols et plants extraits d’une prairie ou autre).
Ces mini-écosystèmes sont ensuite placés dans des chambres climatiques. Ces chambres varient en taille, mais peuvent être aussi réduites à deux mètres cubes. Elles confinent des communautés d’organismes et les exposent à des variables environnementales (température, humidité, CO2…) simulant des scénarios du changement climatique en conditions entièrement contrôlées.
Ce genre d’expérimentation a l’avantage d’avoir un environnement qui facilite l’interprétation et le suivi. Par exemple, simuler une hausse de température tandis que les autres paramètres (humidité, CO2…) sont constants et eux aussi contrôlés avec précision. Cela permet d’isoler et d’interpréter l’effet de la température, et uniquement de la température, sur le microcosme. Ainsi, les microcosmes ne sont qu’une portion de l’écosystème, et s’éloignent de conditions plus fluctuantes et réalistes.
Plutôt que modifier l’écosystème ou d’en isoler une partie, certains chercheurs utilisent des gradients naturels, soit les variations naturelles que l’on constate dans la nature. Sur les écosystèmes terrestres, on retrouve des gradients de température avec l’altitude en montagne, par exemple. Plus on monte en altitude, plus les températures chutent. Un gradient de température existe aussi en fonction de la latitude. En général, plus on se rapproche des pôles, plus les températures sont froides. Et, plus récemment utilisés, il existe aussi les gradients de température entre les zones rurales et urbaines avec leurs îlots de chaleur.
Ainsi, l’impact de la température peut être évalué en suivant un transect (ligne virtuelle) le long du gradient, mais pas seulement.
Il existe des expériences de « translocation », où les chercheurs déplacent soit des espèces soit des communautés entières de zones élevées en montagne vers des zones plus basses pour simuler un réchauffement. Par exemple, des chercheurs ont déplacé des placettes de prairie de 0,7 mètre sur 0,7 mètre à trois différentes élévations dans les Alpes : 950, 1 450 et 1 950 mètres au-dessus du niveau de la mer. À la suite de ces transplantations, un suivi régulier peut être effectué pour étudier les plantes, leurs abondances et les espèces associées.
Un autre type d’expérimentation consiste à déplacer un organisme vers des zones plus élevées, et donc actuellement plus froides. Ces zones, pour le moment inaccessibles aux organismes de basses altitudes (avec des températures plus clémentes), deviendront propices à leur développement avec le réchauffement global. L’intérêt de ces études est de mesurer l’impact de ces futures migrations sur les écosystèmes où ces espèces sont pour le moment absentes.
Bien qu’informatives, ces expériences ont, elles aussi, leurs biais. Le gradient de température est un facteur déterminant, cependant il existe toute une myriade d’autres facteurs environnementaux qui varient le long de ces gradients. Ces facteurs ne peuvent pas être contrôlés, mais on peut tout de même les prendre en compte pour interpréter les observations des chercheurs.
Certains écosystèmes sont étudiés depuis très longtemps. C’est le cas de la forêt expérimentale Hubbard Brook, au New Hampshire, dans le nord-est des États-Unis. Des mesures environnementales et les suivis d’espèces associées sont collectés depuis 1955 (soit soixante-et-onze ans cette année !). En France, le Centre d’études biologiques de Chizé effectue des recherches sur l’évolution des populations animales sauvages depuis 1968.
On peut ainsi corréler les données météorologiques avec l’activité, l’abondance et la diversité d’espèces. Les données permettent non seulement d’observer directement le changement du climat lors des décennies passées mais aussi comment la variabilité des événements climatiques influence le fonctionnement de l’écosystème.
Une autre manière d’obtenir des mesures sur le long terme et de réaliser des suivis à grande échelle se fait grâce aux sciences citoyennes. Que ce soit dans un jardin, en ville ou en randonnée, les données d’observation d’espèces permettent non seulement d’enregistrer la présence de l’espèce mais aussi leur phénologie, c’est-à-dire comment le climat influence la saisonnalité des espèces.
Ces fluctuations sont aussi mises en évidence grâce à des registres historiques. C’est le cas de la date de floraison des cerisiers de Kyoto, dont les registres remontent à 853. Ou encore plus proche de nous, les registres des dates des vendanges qui prouvent qu’elles ont avancées en moyenne de deux à trois semaines.
Ce genre de projet permet de répondre à plusieurs questions, par exemple : Est-ce que le printemps démarre de plus en plus tôt ? Est-ce que la distribution géographique de l’espèce change ? Lesquelles sont les plus impactées ?
Des mesures en continu, tous les jours, et qui recouvre toute la surface terrestre depuis l’espace pour mieux comprendre le fonctionnement terrestre et améliorer les modèles de prédiction. Parmi les nombreuses applications de cet outil, ça permet notamment de cartographier la végétation, son état de santé et sa capacité à fixer le CO2.
La modélisation est une activité incontournable en sciences, permettant de représenter de manière simplifiée un système, en l’occurrence ici, un écosystème. Ces modèles peuvent prendre des formes très différentes, de la simple équation mathématique jusqu’au modèle complexe reposant sur un grand nombre de paramètres (climatiques, pédologiques, biologiques et autres).
Un exemple très parlant de l’utilisation de la modélisation est la projection des feux de forêts. Cela permet de prédire comment le changement climatique influe sur l’intensité, la durée des saisons des feux, leurs étendues. Ces modélisations sont d’autant plus importantes car elles permettent aussi d’identifier des forêts jusque-là épargnées, mais qui avec le changement climatique, seront touchées.
Une fois que les risques d’incendie sont estimés, il est possible d’allier ces prédictions avec les observations de terrain : quelles espèces sont présentes ? Sont-elles adaptées aux feux ? Des simulations permettent aussi d’examiner l’implantation et l’extinction de différentes espèces en relation avec les feux et l’environnement.
De manière générale, les modèles sont adaptables à différents écosystèmes (forêts, prairies, lac, océans…), espèces modèles, climats (tempérés, tropicaux…). Avec l’avancée de nos technologies, ces modèles deviennent toujours plus performants. Bien que complexes, ces méthodes sont des outils puissants pour explorer les conséquences du changement climatique et laissent la porte ouverte à tout un champ des possibles.
Quelle que soit l’approche utilisée par les chercheurs, tous ces outils et méthodes sont complémentaires. Chacun apporte une pierre à l’édifice dans la construction d’une connaissance scientifique opérationnelle pour l’atténuation des causes du changement climatique et l’adaptation face à ses effets déjà observables.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.02.2026 à 11:48
Noèmie Collette, Doctorante en écologie, Université de Perpignan Via Domitia
Joris Bertrand, Maître de Conférences en Biologie des Populations et Écologie, Université de Perpignan Via Domitia
Sébastien Pinel, Chercheur, Université de Perpignan Via Domitia
Valérie Hinoux, Maître de Conférences Hors-Classe à l'Université de Perpignan Via Domitia, section C.N.U. 66

L’évolution des conditions climatiques menace, à l’horizon 2100, près de la moitié des espèces florales endémiques uniques des Pyrénées. Il est urgent de renforcer les suivis pour mener des stratégies de conservation plus efficaces. À cet égard, les modèles de distribution d’espèces constituent un outil précieux.
Situées à l’interface de l’influence climatique atlantique et méditerranéenne, les Pyrénées se distinguent par leur richesse exceptionnelle en espèces végétales. Ce massif montagneux accueille notamment plusieurs dizaines d’espèces endémiques, strictement limitées à ce territoire.
Leurs aires de répartition restreintes, parfois limitées à quelques sommets, les rendent particulièrement vulnérables au changement climatique. Nos travaux récemment publiés montrent que près de la moitié des espèces endémiques pyrénéennes considérées pourraient voir leurs conditions climatiques, aujourd’hui favorables, disparaître du massif d’ici à 2100.
Cette perte se traduirait par une réduction majeure des zones où ces espèces sont le plus à même de se maintenir ou de s’établir. Ceci fragiliserait durablement les populations et accroîtrait fortement leur risque d’extinction locale.
L’analyse couvre quatre périodes du climat actuel à l’horizon 2100 et repose sur quatre scénarios climatiques illustrant différentes trajectoires de réchauffement. Celles-ci vont d’une hausse modérée (environ + 2,16 °C) à un réchauffement nettement plus marqué (jusqu’à + 6,14 °C) à l’échelle des Pyrénées.
Les résultats dressent un constat alarmant. D’ici à la fin du siècle, 69 % des espèces endémiques étudiées pourraient perdre plus des trois quarts de la superficie des zones qui leur sont climatiquement favorables. Suivant les scénarios les plus pessimistes, plus d’une espèce sur deux verrait même l’intégralité de sa niche bioclimatique disparaître. Autrement dit, perdrait toutes les conditions climatiques nécessaires à sa survie.
Certaines plantes emblématiques du massif, telles que la Dauphinelle des montagnes (Delphinium montanum), l’endressie des Pyrénées (Endressia pyrenaica), ou encore l’esparcette des Pyrénées (Onobrychis pyrenaica), apparaissent particulièrement vulnérables. Les modèles indiquent que les conditions climatiques qui leur sont favorables pourraient déjà avoir disparu à l’échelle du massif, suggérant soit une survie temporaire dans des microrefuges, soit un décalage entre déclin climatique et extinction biologique. Ce phénomène est connu sous le nom de « dette d’extinction ».
Malgré une dynamique globalement défavorable, deux espèces (Linaria bubanii) et Pinguicula longifolia) pourraient toutefois voir leurs habitats favorables s’étendre dans le futur. Même si ces espèces pourraient théoriquement coloniser de nouveaux milieux, ces cas resteraient marginaux et ne compenseraient pas la tendance globale attendue.
À lire aussi : Dans les Pyrénées, la forêt ne s’étend pas aussi haut que le climat le lui permet
Les montagnes figurent parmi les écosystèmes les plus exposés aux bouleversements climatiques. Les températures y augmentent plus rapidement qu’en plaine, contraignant de nombreuses espèces à coloniser des altitudes toujours plus élevées pour suivre les conditions qui leur sont favorables.
Dans l’étude présentée sur les plantes endémiques pyrénéennes face au changement climatique, au-delà du déclin attendu des zones favorables, nos résultats montrent que les conditions climatiques adaptées à ces plantes pourraient se déplacer progressivement. La plupart des zones actuellement favorables ne le resteraient pas, et cela non pas parce que le climat deviendrait défavorable partout à la fois, mais parce que les conditions favorables à ces espèces pourraient se déplacer.
En moyenne, les zones climatiquement favorables aux espèces devraient s’élever d’environ 180 m en altitude et de 3 km vers le Nord d’ici à 2100. Cela ne signifie pas que les espèces suivront automatiquement ce mouvement : de multiples contraintes biologiques, écologiques ou physiques limiteront leur capacité de dispersion.
Ainsi, la plupart des lieux où ces plantes survivent aujourd’hui ne leur conviendront plus demain, augmentant le risque de déclin. Dans les scénarios les plus pessimistes, les aires propices à un maximum d’espèces se concentreraient au-delà de 2 000 m, et deviendraient très morcelées du fait de la topographie du massif, formant de petits « refuges » isolés. Cette fragmentation accentuerait les risques d’isolement génétique et d’extinction locale.
Ces résultats invitent à repenser les stratégies de conservation. Les sommets et crêtes, où subsisteront les dernières conditions favorables, doivent devenir des refuges prioritaires. Les espèces les plus menacées nécessitent un suivi renforcé et la protection de leurs micro-habitats, voire, dans certains cas, des mesures exceptionnelles, telles que la conservation ex situ ou la migration assistée.
Plus largement, cette étude souligne que la conservation doit intégrer les climats futurs, et pas seulement les distributions actuelles des espèces, sans quoi les efforts de conservation risquent d’être déployés là où les espèces ne pourront de toute façon plus se maintenir.
À lire aussi : Planter des arbres venus de régions sèches : la « migration assistée », une fausse bonne idée ?
Dans le cas des endémiques Pyrénéennes, l’étude repose sur un outil central de l’écologie contemporaine : les modèles de distribution d’espèces (Species Distribution Models, SDM). Ces approches se sont imposées au début des années 2000, avec des travaux méthodologiques fondateurs et les premières applications à grande échelle, montrant la forte vulnérabilité de la flore européenne face au réchauffement.
Dans leur forme la plus complète, les SDM peuvent intégrer de multiples dimensions de l’écologie : conditions bioclimatiques, capacités de dispersion, traits fonctionnels, interactions biotiques, ou encore des informations génétiques permettant de quantifier l’adaptation locale. Ils permettent ainsi de caractériser non seulement où une espèce vit, mais aussi pourquoi elle s’y maintient et comment elle pourrait répondre aux changements environnementaux. Toutefois, toutes ces informations ne sont pas disponibles pour l’ensemble des espèces, ce qui limite leur intégration lorsqu’on en étudie un grand nombre simultanément.
Dans ce contexte, l’approche la plus appropriée consiste à caractériser la niche bioclimatique d’une espèce, entendue comme l’ensemble des conditions climatiques, notamment de températures et de précipitations, compatibles avec son maintien. Cette approche repose sur le croisement de données de présence, provenant de relevés de terrain, d’herbiers ou de bases de données en ligne, avec des variables décrivant les conditions environnementales des sites occupés.
Les modèles permettent ainsi de définir les combinaisons climatiques associées à la présence (ou l’absence) de l’espèce, et donc les environnements où elle est susceptible de se maintenir. Une fois ce portrait établi, il devient possible d’étudier comment ces conditions favorables évolueraient sous différents climats futurs afin d’estimer où l’espèce pourrait subsister, migrer ou disparaître.
Afin de renforcer la robustesse des résultats, l’étude présentée mobilise cinq grandes familles de modèles couramment utilisés en biologie de la conservation, chacun doté d’avantages et d’inconvénients : certains captent mieux les relations non linéaires, d’autres sont plus adaptés aux espèces présentant peu d’occurrences dans une zone d’étude donnée. Les combiner dans une approche dite « d’ensemble », permet de réduire l’influence des incertitudes propres à chaque méthode et d’obtenir des prédictions plus robustes. Pour chaque espèce, plusieurs dizaines de modèles ont ainsi été calibrés, puis agrégés afin d’obtenir une prédiction consensus, plus robuste face aux incertitudes méthodologiques.
Face à l’accélération du changement climatique, le suivi scientifique et la protection des derniers sites favorables ne suffiront pas toujours à prévenir les déclins, mais ils demeurent essentiels pour préserver au mieux la richesse et la singularité de la flore pyrénéenne tout en accompagnant au mieux les transformations à venir. Les modèles de distribution des espèces n’ont pas vocation à prédire précisément l’avenir, mais à éclairer les trajectoires possibles.
Ici, leur message est clair et cohérent : si le réchauffement se poursuit au rythme actuel, une part importante du patrimoine végétal unique des Pyrénées pourrait disparaître d’ici la fin du siècle. Préparer la transition plutôt que la subir, renforcer la coordination entre la France, l’Espagne et Andorre, et protéger les derniers refuges de biodiversité montagnarde apparaissent désormais comme des leviers indispensables pour protéger ce patrimoine irremplaçable.
a bénéficié pour cette étude des financements de la Région Occitanie Pyrénées-Méditerranée (Émergence 2024), l’État-Commissariat de massif des Pyrénées (FNADT 2023) et du programme Interreg-POCTEFA dans le cadre du projet Floralab+ (EFA024/01).
Joris Bertrand a bénéficié pour cette étude du programme européen Interreg-POCTEFA dans le cadre du projet Floralab+ (EFA024/01). Il a par ailleurs été financé et est actuellement financé par l'Agence Nationale de la Recherche (ANR).
Sébastien Pinel a reçu des financements pour cette étude du financement d'un programme européen Interreg-POCTEFA dans le cadre du projet Floralab+ (EFA024/01).
Valérie Delorme-Hinoux a bénéficié pour cette étude du financement d'un programme européen Interreg-POCTEFA dans le cadre du projet Floralab+ (EFA024/01).
18.02.2026 à 17:04
Maxence Mautray, Doctorant en sociologie de l’environnement, Université de Bordeaux

En cette période d’élections municipales, tous les candidats ou presque s’en revendiquent et assurent connaître la solution pour y parvenir : la propreté des villes est dans toutes les bouches et la saleté semble être le mal du siècle. Pourtant, les données montrent que les quantités de déchets et d’encombrants collectés n’ont pas connu d’augmentation spectaculaire au cours des dernières années. Alors pourquoi ce décalage entre volumes réels et sentiment de saleté des villes ?
C’est une vidéo vue plus de 4 millions de fois. Postée sur les réseaux sociaux le 21 novembre, par Rachida Dati (Les Républicains, Modem et UDI), on y voit la candidate aux côtés des éboueurs, en tenue de travail. Face caméra, la candidate affirme qu’avec elle « la ville sera propre, elle sera tranquille. Et c’est justement ce qu’attendent les Parisiens », associant explicitement la propreté et la gestion des déchets à l’ordre urbain et à l’efficacité de l’action municipale. Cette mise en scène a immédiatement suscité des réactions de ses adversaires politiques qui, comme Emmanuel Grégoire (Union de la gauche), dénoncent une opération de communication jugée démagogique.
Cette focalisation sur les déchets n’est pas propre à la capitale. À Bordeaux, la question de la « saleté » de la ville est aussi un des axes principaux de la campagne de Thomas Cazenave (Renaissance, Parti radical, Modem, Horizons, UDI) contre le maire sortant, Pierre Hurmic (Les Écologistes, PS, PCF, Génération·s). Dans son programme, Thomas Cazenave formule même une proposition emblématique : la création d’une « force d’intervention rapide » vouée à la propreté, aux encombrants et à l’entretien de l’espace public.
À Marseille, le candidat et maire sortant Benoît Payan (Printemps marseillais) se veut quant à lui le « patron de la propreté » alors qu’aujourd’hui une grande partie de celle-ci est la charge de la Métropole Aix-Marseille-Provence. Lors de la présentation de son programme le 4 février 2025, Benoît Payan admettait pourtant : « La ville est sale, elle est pourrie et je suis interpellé tous les jours là-dessus, alors que ce n’est pas une compétence de la mairie. » Cette phrase a d’ailleurs provoqué une réaction de la part de son adversaire Franck Allisio (RN), ce dernier lui répliquant « Si vous n’êtes responsable de rien, restez chez vous » lors d’un débat, le 10 février matin, sur France Inter.
Ces exemples montrent que la propreté n’est pas abordée comme un simple enjeu de gestion technique, mais comme un symbole de pragmatisme et de proximité avec les préoccupations quotidiennes des habitants. Surtout, elle suscite des réactions rapides, tant de la part des adversaires que des citoyens, preuve qu’elle touche à des attentes largement partagées.
De fait, si la propreté occupe une place aussi centrale dans les campagnes municipales, c’est notamment parce qu’elle semble être le support idéal pour juger l’action politique des équipes sortantes. Dire qu’une ville est « propre » ou « sale », c’est souvent porter une appréciation globale sur la capacité du maire à gouverner, à faire respecter des règles et à garantir un cadre de vie jugé acceptable, sans nécessairement distinguer les compétences institutionnelles ni les causes précises des dysfonctionnements observés.
La mairie est effectivement bien responsable de la propreté de l’espace public, comme le nettoyage des rues, l’enlèvement des dépôts sur la voirie, ou la gestion des poubelles publiques en ville. Cependant, la collecte et le traitement des déchets ménagers relèvent, dans la majorité des cas, comme à Marseille et à Bordeaux, des intercommunalités et des métropoles. Les dysfonctionnements pouvant être observés viennent bien souvent d’un souci de coordination entre ces deux échelons ou avec les prestataires privés engagés pour réaliser le ramassage des ordures, ou plus simplement d’un souci logistique et ponctuel lors de la collecte.
Les maires se trouvent ainsi jugés sur la propreté et les déchets, alors qu’ils n’en maîtrisent directement que la dimension la plus visible, tandis que l’envers de leur production et de leur traitement échappent largement à l’échelon municipal.
Pour autant, les villes françaises sont-elles confrontées à une augmentation des déchets et à une dégradation de leur propreté ? Les données disponibles ne confirment pas vraiment ce diagnostic.
Les flux les plus visibles dans l’espace public ne suivent pas une trajectoire de hausse continue. En Île-de-France par exemple, les déchets occasionnels collectés hors déchetteries, dont les encombrants qui sont particulièrement remarqués dans les rues, sont restés relativement stables entre 2016 et 2021, avant de connaître une baisse marquée en 2023, selon un rapport de l’Observatoire régional des déchets d’Île-de-France.
À l’échelle nationale et concernant l’ensemble des déchets produits par les foyers, près de 41 millions de tonnes de déchets ménagers et assimilés ont été collectés par le service public en 2021, soit 615 kg par habitant et par an en moyenne, selon l’Insee. Ce chiffre inclut les ordures collectées chez les habitants, les encombrants et les déchets en déchetterie. Les volumes collectés ont augmenté d’environ 4 % en dix ans, selon ce même rapport. Cette croissance est donc loin de l’explosion parfois suggérée par les discours politiques.
Ces chiffres invitent ainsi à distinguer le sentiment de saleté, largement fondé sur l’expérience quotidienne de la vie, de l’évolution globale des volumes de déchets produits et collectés. La propreté urbaine renvoie moins à une augmentation généralisée nette des déchets qu’à la visibilité accrue de certains flux spécifiques et aux transformations des modalités de collecte et d’usage de l’espace public.
Cependant, la relative stabilité de la production des déchets des ménages ne représente pas l’absence d’un problème. Si les déchets stagnent, ils ne diminuent pas réellement, et c’est bien là que se situe le principal enjeu environnemental. C’est même précisément parce que la réduction effective des déchets reste difficile à atteindre que la propreté occupe une place si centrale dans les débats municipaux.
Car la propreté permet de parler d’écologie à l’échelle locale de manière consensuelle, sans ouvrir un débat plus profond sur les modes de consommation, la production industrielle ou les responsabilités économiques. L’objectif d’une « ville propre » fait largement accord et les différences entre les programmes politiques portent moins sur la finalité que sur les moyens pour y parvenir : renforcement ou externalisation des services, prévention ou sanction des comportements jugés inciviques, organisation du nettoyage et de la collecte.
Mais cette focalisation a un coût. Elle tend à reléguer au second plan la question centrale de la réduction à la source des déchets, pourtant au cœur des politiques environnementales nationales et européennes. La hiérarchie dite des « 3R » (réduire, réemployer, recycler) est connue, mais sa mise en œuvre reste limitée et inégale. Lorsqu’elle est poussée plus loin, notamment à travers des politiques de type « zéro déchet », elle peut même susciter des contestations locales. Celles-ci visent souvent moins l’objectif de réduction en lui-même que les modalités de sa mise en œuvre : responsabilisation individuelle accrue, tarification incitative, suppression du porte-à-porte ou réorganisation du service public. L’écologie des déchets devient alors un sujet de débat sur la répartition des efforts et sur la définition même d’une politique environnementale considérée comme juste par les citoyens.
En somme, l’omniprésence de la propreté dans les campagnes municipales ne dit pas seulement ce que les candidats promettent de faire, mais aussi ce qu’il est politiquement plus coûteux de mettre en débat. À défaut de parvenir à réduire durablement nos déchets par des mesures justes et efficaces, l’écologie locale se construit d’abord autour de ce qui se voit, se nettoie et se mesure.
Maxence Mautray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.02.2026 à 17:02
Joachim Benet Rivière, Sociologue de l'éducation et de la formation, Université Paris Nanterre; Université de Poitiers
Face aux urgences environnementales et au renouvellement des générations dans leur secteur, les lycées agricoles sont traversés par un certain nombre de tensions. Mais loin d’être de simples instruments des politiques agricoles, ils sont pris aussi dans des enjeux de socialisation et de professionnalisation des jeunes qui en font des espaces complexes. Quelques explications à l’occasion du Salon de l’agriculture de Paris qui débute le 21 février, porte de Versailles.
Conjuguée à la montée en puissance des enjeux environnementaux dans l’espace public, la question du renouvellement des métiers agricoles (dont les professionnels sont de plus en plus vieillissants) renforce l’attention portée aux conditions de formation des nouveaux entrants dans ces métiers.
Objet politique mal identifié, l’enseignement agricole comprend une majorité d’établissements privés et accueille également des publics visant d’autres secteurs, notamment les services aux personnes.
À lire aussi : Les élèves des lycées agricoles sont-ils hostiles à l’agroécologie ?
L’enseignement agricole a toujours été traversé par des tensions liées aux orientations des politiques agricoles, à la place laissée aux formations non agricoles et à la présence des organisations agricoles dans sa gestion. Ces tensions sont d’autant plus vives dans ce contexte de renouvellement des générations.
Cet espace d’enseignement est traversé par des logiques plurielles, parfois concurrentes, qui excèdent sa seule inscription dans la politique agricole. Il importe de les regarder de plus près pour dépasser une lecture réductrice qui en ferait un simple instrument des organisations professionnelles agricoles.
Depuis les mesures en faveur du développement de l’agroécologie dans l’enseignement agricole au début des années 2010, de nombreux dispositifs ont été mis en œuvre pour accompagner les publics en formation vers des pratiques plus respectueuses de l’environnement. Les lycées agricoles disposent désormais de référents parmi les enseignants, chargés d’accompagner cette politique.
Les changements portent principalement sur les exploitations et les ateliers technologiques, pensés comme des terrains d’expérimentation des pratiques agroécologiques. Mais cela provoque des réticences, voire des résistances, chez une partie des publics, car ces évolutions viennent bousculer les pratiques professionnelles au sein des familles.
En même temps, ces évolutions contribuent à attirer l’attention sur les freins au développement de l’agroécologie, principalement situés dans la gouvernance de l’enseignement agricole et dans la présence des organisations professionnelles. Les interventions de celles-ci dans les établissements sont de plus en plus décriées par les acteurs de l’enseignement agricole, qui revendiquent leur autonomie.
Dans une école forestière en Corrèze, la direction a renoncé à organiser une projection-débat autour d’un film sur les loups en raison de la pression exercée par la Fédération départementale des syndicats d’exploitants agricoles (FDSEA) et par les Jeunes Agriculteurs (JA), ce qui a donné lieu à des protestations de la part des enseignants. En Bretagne, une enquête a révélé le poids de ces organisations dans la gestion des lycées agricoles privés.
Ces controverses ne relèvent pas seulement de désaccords techniques ; elles traduisent des conceptions divergentes des métiers agricoles et du rôle que doit jouer l’enseignement dans la transformation du modèle productif. Les principes de l’agroécologie ne sont pas appliqués partout de la même façon : ils s’articulent avec des formations ayant des histoires différentes, avec des publics hétérogènes et dans des contextes où les organisations professionnelles n’ont pas le même poids.
Ainsi, certains établissements apparaissent comme des « forces motrices », comme la Bergerie nationale de Rambouillet ou certaines formations pour adultes, notamment les brevets professionnels de responsable d’entreprise agricole. Engagés dans des changements de mode de vie, leurs publics sont plus investis dans des démarches visant à réduire l’usage des intrants chimiques et à repenser la place de l’agriculture dans les écosystèmes.
À l’inverse, d’autres formations en machinisme agricole impliquent plutôt un renforcement de l’usage des outils et des capteurs numériques afin de lutter contre les gaspillages d’intrants et d’eau. Elles tendent ainsi à favoriser le maintien de la dépendance à l’égard de l’agro-industrie, sans remettre en cause le rapport d’exploitation du vivant induit par certaines activités agricoles.
L’enseignement agricole ne se limite cependant pas à un outil au service de la politique agricole ; il constitue en réalité un champ relativement autonome, c’est-à-dire doté de logiques propres. Cette autonomie relative ne signifie pas indépendance totale, mais renvoie à la capacité de l’institution à produire ses propres normes pédagogiques, qui peuvent être en décalage avec les attentes des organisations professionnelles.
Dans les années 1960, lorsque cet enseignement est passé sous l’unique tutelle du ministère de l’agriculture, il s’est constitué en cherchant à se démarquer de l’éducation nationale. L’ambition était de fonder un « nouvel ordre scolaire » : les lycées agricoles n’accueillent pas seulement un public spécifique (historiquement les enfants d’agriculteurs, aujourd’hui minoritaires), mais proposent également des modalités différentes de la relation pédagogique et des modes de circulation des savoirs.
Parmi ses spécificités, on peut souligner l’existence d’une discipline, l’éducation socioculturelle, célébrée en 2025 à l’occasion de son soixantième anniversaire, et qui s’est constituée comme un espace de médiation, orienté vers l’investissement culturel.
Visant notamment la réflexion sur le rapport au vivant dans le cadre de l’enseignement de l’agroécologie et l’apprentissage des compétences psychosociales, elle témoigne d’une recherche de désenclavement des lycées agricoles.
Cette politique est tout de même aujourd’hui fragilisée par les coupes budgétaires, qui réduisent les marges d’action et les projets des professeurs d’éducation socioculturelle. Hostiles à cette dimension, certaines organisations professionnelles ont défendu au contraire une approche de l’enseignement agricole limitée à son seul rôle de professionnalisation.
Cette opposition révèle une tension entre une définition étroite de la formation agricole et une conception plus large, portée par le ministère de l’agriculture et par les agents de l’enseignement agricole, intégrant des objectifs culturels et citoyens.
L’enseignement agricole joue également un rôle de remobilisation scolaire pour des élèves ayant rencontré des difficultés d’apprentissage au collège, en particulier ceux qui entrent en classe de quatrième en lycée agricole et ceux qui s’orientent vers les maisons familiales rurales (MFR). Dans ces MFR, où les élèves passent environ la moitié du temps en entreprise et l’autre en centre de formation, sont valorisés des savoirs pratiques, manuels et professionnels, qui leur permettent de retrouver des situations de réussite et de reconnaissance.
À lire aussi : Lycées agricoles : quelle place pour les filles ?
Cette remobilisation s’appuie sur les expériences des élèves en dehors de l’école, valorisées par les enseignants. Par exemple, pour Gaëlle, enseignante en aménagements paysagers, ses élèves souhaitent travailler en extérieur, car ils sont passionnés par le travail sur les machines. Ils demandent davantage d’heures de travaux pratiques. Ce qui est important pour eux, c’est de pouvoir commencer un travail et d’en observer le produit une fois achevé. Cette passion permet d’établir une relation de confiance et de proximité avec les élèves.
Dans une enquête, les descriptions des publics de l’agroéquipement faites par les professeurs de l’enseignement agricole présentent les élèves de cette filière comme ayant été orientés à la suite de difficultés d’apprentissage. L’expérience en lycée agricole peut alors être appréhendée comme exerçant une fonction de réparation symbolique et scolaire, en reconfigurant le rapport des élèves aux savoirs et à l’institution scolaire, comparable à celle exercée par la formation en lycée professionnel.
Ainsi, l’enseignement agricole trouve sa justification, d’une certaine façon, dans les insuffisances de l’éducation nationale qui ne parvient pas à prendre en charge la totalité des élèves en difficulté dans les apprentissages au collège.
Joachim Benet Rivière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.02.2026 à 17:00
Henri Boullier, Chargé de recherche en sociologie au CNRS, Université Paris Dauphine – PSL
Emmanuel Henry, Professeur de sociologie, Université Paris Dauphine – PSL
La critique des relations entre les industriels et l’État se concentre souvent sur la question des conflits d’intérêts. Une réflexion approfondie s’impose pour mieux comprendre les liens entre les industriels et les décideurs politiques, et leurs influences sur la production des réglementations.
La régulation des produits chimiques illustre la complexité des liens entre la science et la décision publique. Ces dernières années, les controverses autour du glyphosate ou de la contamination généralisée de différents milieux – dont les eaux potables – par les PFAS (substances per et polyfluoroalkyles, plus connues sous le nom de « polluants éternels ») ont illustré le poids des industries dans la régulation des substances qu’elles commercialisent.
Les révélations issues des Monsanto Papers (des documents confidentiels de la firme rendus publics en 2017 au cours d’une procédure judiciaire en Californie) ont mis en évidence différentes stratégies de Monsanto dans ce sens. Ces documents révèlent notamment le travail de ghostwriting développé par la firme : des scientifiques reconnus ont signé des articles rédigés par des salariés ou des consultants travaillant pour Monsanto, avec pour seul objectif de semer le doute sur la toxicité de leur molécule. Dans le cas des PFAS, des procès aux États-Unis et les tentatives actuelles de restriction de ces substances en Europe illustrent la manière dont l’industrie est parvenue à cacher les données de toxicité sur cette famille de milliers de composés et se mobilise aujourd’hui pour en maintenir leurs « usages essentiels ».
La capacité de l’industrie à produire, mobiliser ou cacher certaines données scientifiques fait l’objet de travaux réguliers relevant du champ aujourd’hui désigné comme la sociologie de l’ignorance, ou agnotologie. Ce courant de recherche s’est notamment structuré à partir du cas de l’industrie du tabac et son rôle dans la production de connaissances entretenant le doute sur la toxicité de leurs produits. Au-delà de cette seule production d’ignorance, de nombreux travaux récents en sciences sociales ont souligné l’emprise des industries sur la production des savoirs, la mise en œuvre des expertises et les modalités de l’action publique.
Pour autant, en termes de réponse publique, cet enjeu est souvent réduit à des dérives individuelles ou des dysfonctionnements ponctuels. Ainsi, une des principales réponses des pouvoirs publics a été de gérer les situations de « conflit d’intérêts » notamment en mettant en place des déclarations obligatoires des liens d’intérêt des experts. Cet article propose d’interroger les raisons de la problématisation de l’influence des acteurs économiques en termes de conflits d’intérêts et de réfléchir à ses limites dans le contexte de la régulation des produits chimiques.
À lire aussi : Conversation avec Laurent Chambaud : Santé et fake news, les liaisons dangereuses
Pour le sociologue Boris Hauray qui a conduit un important travail sur la trajectoire de cette catégorie sociale, la catégorie de conflit d’intérêts vise, « dans sa définition dominante, des situations dans lesquelles les jugements ou les actions d’un professionnel concernant son intérêt premier (notamment soigner son patient, produire des savoirs ou des expertises valides, prendre des décisions de santé publique) risquent d’être indûment influencés par un intérêt qualifié de second (le plus souvent des gains ou des relations financières ». Elle constitue aujourd’hui l’un des principaux modes de problématisation de l’influence des intérêts économiques sur les savoirs et les politiques dans de nombreux secteurs, notamment dans ceux qui concernent la santé et l’environnement.
Au cours des dernières décennies, des déclarations des liens d’intérêts obligatoires ont été mises en place de manière progressive dans différents contextes. Cela a d’abord été le cas dans les revues médicales (le prestigieux New England Journal of Medicine est le premier, en 1984), mais il a fallu attendre 15 à 20 ans pour que des revues du champ de la toxicologie les mettent en place, de manière parfois minimaliste. Annual Review of Pharmacology & Toxicoly s’y engage progressivement au début des années 2000 et la tristement célèbre Regulatory Toxicology and Pharmacology s’y plie en 2003, en réaction directe à la révélation des liens entre l’éditeur Gio Batta Gori et le Tobacco Institute. Les agences réglementaires françaises et européennes créées à partir du milieu des années 1990 imposent quant à elles aux experts qu’elles sollicitent de remplir des « déclarations publiques d’intérêts » (declaration of interest), qu’on connaît sous l’acronyme de DPI.
Ces dispositifs de déclaration des conflits d’intérêts sont utiles mais présentent aussi certaines limites. Ils permettent de pointer un type de problème (les liens financiers entre des industries des secteurs concernés et des auteurs ou des experts) et de le rendre « gérable ».
En même temps, ils font l’objet de raffinements parfois controversés : un lien d’intérêt constitue-t-il forcément un conflit d’intérêts ? Comment justifier que les déclarations d’intérêts européennes couvrent les cinq dernières années de l’activité d’un expert, alors que l’interdiction de siéger dans des comités d’experts (la « cooling-off period ») est souvent limitée aux deux dernières années ? Surtout, la catégorie de conflit d’intérêts tend à réduire l’influence industrielle à des liens d’intérêts financiers individuels. Celle-ci est au contraire multiforme : des travaux conduits sur un secteur proche, celui du médicament, parlent de “corruption institutionnelle” pour qualifier le caractère structurel de cette emprise.
De nombreuses recherches en sciences sociales ont montré que l’influence d’acteurs économiques, de l’industrie chimique notamment, ne se limite pas à ces relations individuelles entre certains individus et des industries. Si l’on prend le cas des réglementations chimiques, l’influence industrielle intervient bien en amont du processus d’expertise, y compris dans la conception même des textes de lois que les experts contribuent à mettre en œuvre.
Cela n’a rien de nouveau : dans les années 1970, l’industrie chimique américaine (via notamment la Manufacturing Chemists Association, MCA) se mobilisait déjà massivement pour limiter la portée du Toxic Substances Control Act de 1976, l’une des premières lois pour réglementer les substances chimiques quelle que soit leur source. Au point que certains des négociateurs industriels de l’époque décrivent le résultat comme amputé de ses ambitions, et comme une torture pour ceux qui la pratiquent.
Plus récemment, c’est la même dynamique de co-construction qui a conduit les autorités à co-construire les procédures de la réglementation chimique européenne avec l’industrie. À la fin des années 1990, le projet de règlement européen sur l’enregistrement, l’évaluation et l’autorisation des substances chimiques (connu sous l’acronyme REACH) était présenté par ses promoteurs comme révolutionnaire.
Très vite, le Conseil européen de l’industrie chimique (CEFIC), la principale organisation de représentation du secteur de chimie, écarte l’éventualité que l’enregistrement puisse concerner les substances commercialisées à moins d’une tonne par an, là où ce seuil était fixé à dix kilogrammes pour les substances existantes, excluant de facto de nombreux composés du champ d’application. Sur une autre procédure, l’autorisation, le CEFIC obtient que des substances puissent être maintenues sur le marché pour des raisons économiques, même quand leurs risques sont mal maîtrisés. Cette proposition sera inscrite dans le livre blanc de 2001 et maintenue dans le texte adopté en 2006.
À lire aussi : Comment fonctionne Reach, règlement européen qui encadre les substances chimiques ?
Pour limiter la portée des procédures, l’industrie chimique a fait en sorte que ces dernières permettent de multiplier les cas particuliers et les dérogations, via la création de nombreuses exceptions d’usages. Autrement dit, une substance peut être soumise à des mesures réglementaires contraignantes mais certains de ses usages peuvent être maintenus. Cela a par exemple été le cas pour trois des phtalates les plus utilisés (DEHP, DBP et BBP) en Europe, voués à disparaître mais dont certains usages ont pu être conservés, via la demande d’autorisations individuelles.
Certains usages sont par ailleurs exclus statutairement, comme les « articles » importés qui contiendraient des substances interdites en Europe. Cette concession a elle aussi été obtenue par l’industrie chimique et des pays producteurs/importateurs qui menaçaient d’attaquer Bruxelles devant l’Organisation mondiale du commerce (OMC) pour création de barrières techniques au commerce.
Les réglementations ont aussi des effets sur les modalités de conduite de l’expertise et les données sur lesquelles elle se base. La grande innovation censément apportée par REACH est l’obligation faite aux entreprises de fournir des données aux autorités pour obtenir la mise sur le marché d’une substance. C’est le précepte bien connu : « No data, no market. »
Or, au-delà des assouplissements obtenus suivant le tonnage des produits, les obligations de transmission de données restent relativement limitées. Elles conduisent ainsi à limiter les données disponibles pour les acteurs de la régulation à celles transmises par l’industrie, faute de moyens suffisants pour une expertise indépendante sur les dizaines de milliers de produits chimiques en circulation. Cette limitation est par exemple visible dans le fait que les industriels n’ont à transmettre que le résumé des études qu’ils ont menées et non l’intégralité de leurs articles. Or les résumés peuvent parfois donner une représentation trompeuse des résultats de l’étude.
L’observation du travail des experts montre aussi à quel point les données industrielles jouent un rôle décisif dans leur travail. La définition de certains seuils comme les valeurs limites d’exposition professionnelle permet de l’observer au plus près. La fixation d’une valeur limite relativement basse pour le formaldéhyde par un comité d’experts européen a été contestée par l’industrie, laquelle a financé et conduit une étude ad hoc dans le but d’augmenter la valeur maximale d’exposition pour les travailleurs.
Cette étude a été au centre des discussions de ce comité d’expert. Malgré les critiques méthodologiques formulées, elle a fortement contribué à limiter le cadre des discussions et réduit les options possibles pour fixer cette nouvelle valeur, qui a alors été augmentée par les experts en l’absence d’autres solutions disponibles. Le cas de cette étude, qui n’apparaît pourtant que parmi des dizaines d’autres dans le rapport final des experts, montre non seulement la capacité de veille de l’industrie (en mesure d’anticiper et de peser sur l’agenda de ce comité d’experts) mais aussi celle de mobiliser des ressources financières et humaines pour financer et mettre en œuvre une expérimentation coûteuse.
Ces différents exemples montrent que la question de l’influence de l’industrie chimique dépasse largement celle des conflits d’intérêts définis de façon individuelle. Derrière ces dispositifs de déclaration des liens d’intérêt qui donnent l’illusion du contrôle, c’est une dépendance structurelle aux règles négociées avec l’industrie et aux données produites par elle qui continue de façonner la régulation. Penser une véritable indépendance de l’expertise suppose donc de prendre plus directement en compte les rapports de pouvoir entre acteurs économiques, scientifiques et liés à la régulation, et de poser cette question sous un angle qui ne se limite pas aux individus.
Cet article fait partie du dossier « Politique publique : la science a-t-elle une voix ? » réalisé par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.02.2026 à 17:01
Christian Huyghe, Directeur scientifique pour l’agriculture, Inrae
Decio Karam, Chercheur, Empresa Brasileira de Pesquisa Agropecuária (Embrapa)
Si les pesticides ont longtemps assuré la protection des cultures, leurs effets délétères sont aujourd’hui largement documentés. Réduire cette dépendance est devenu une urgence sanitaire, environnementale et économique. Les stratégies de lutte contre les ravageurs intègrent aujourd’hui de nouvelles techniques innovantes. L’analyse de la situation en France et au Brésil livre un éclairage croisé sur cette question.
La protection des cultures est un enjeu majeur pour l’agriculture et pour la société au sens large. Elle permet de garantir une production suffisante en qualité et en quantité, tout en assurant des revenus à tous les acteurs des chaînes d’approvisionnement, des agriculteurs aux distributeurs.
Au cours des dernières décennies, la protection des cultures a reposé sur l’efficacité des pesticides de façon accrue. Dans le même temps, leurs effets négatifs sur la santé humaine, sur la qualité de l’eau, de l’air et sur la biodiversité sont de mieux en mieux documentés. Au plan économique, ces effets peuvent être considérés comme des coûts cachés pour la société. De plus, ces effets négatifs privent les agriculteurs de services écosystémiques précieux rendus par des sols en bonne santé.
À l’échelle mondiale, le recours aux pesticides peut également virer au casse-tête géopolitique, en fonction des pays où ils sont autorisés ou interdits. L’accord UE-Mercosur a récemment illustré les tensions que peuvent susciter des importations de produits traités avec des pesticides interdits dans les pays membres de l’Union européenne (UE), créant, de fait, des distorsions de concurrence entre les États.
Il apparaît donc urgent de façonner la protection des cultures de façon à alléger la dépendance des systèmes agricoles envers ces produits. Et si on adoptait un nouveau paradigme pour la protection des cultures, notamment inspiré par l’agroécologie et tenant davantage compte des nouveaux risques climatiques ? Des regards croisés sur la situation en France et au Brésil peuvent éclairer la question.
La lutte intégrée (ou protection intégrée) des cultures est un concept riche, établi depuis les années 1970. L’idée est de combiner des exigences écologiques, économiques et sanitaires.
Dans l’UE, la règle est de n’utiliser de produits chimiques phytopharmaceutiques qu’à la dose la plus faible possible (principes 5 et 6 du schéma ci-dessous) pour maintenir la présence des organismes nuisibles en dessous d’un seuil où les dommages ou pertes économiques deviennent inacceptables à court terme pour l’agriculteur. Pour limiter l’usage et l'impact de ces pesticides, il est donc essentiel d’enrichir la liste des alternatives aux pesticides (principe 4).
Cette approche implique qu’il est préférable d’agir en amont (principe 1) en mettant l’accent sur la prévention pour réduire au minimum la pression des maladies et des insectes. C’est une stratégie comparable à celle mobilisée en santé humaine, où il est recommandé d’avoir une hygiène de vie appropriée (sport, régime équilibré…) ou de se vacciner pour réduire le risque de maladies.
Cette stratégie de prophylaxie peut devenir active si, au cours de ses actions sur les cultures, l’agriculteur cherche à réduire le nombre de ravageurs. En diversifiant les moyens de lutte, cette stratégie permet également de limiter l’émergence de résistances chez les ravageurs. En effet, ces résistances apparaissent d’autant plus vite que les stratégies sont peu diversifiées.
L’utilisation de cultures de couverture, par exemple, est intéressante pour occuper l’espace au sol et éviter l’installation de mauvaises herbes. C’est d’autant plus pertinent dans les systèmes agricoles tropicaux, où la pression de sélection naturelle est plus élevée du fait des conditions de chaleur et d’humidité, et où ces résistances ont donc tendance à apparaître plus rapidement.
Associées à d’autres stratégies de gestion, les cultures de couverture sont donc un élément clé pour améliorer à la fois la qualité des sols, la productivité et la durabilité des systèmes agricoles.
À lire aussi : Les sols aussi émettent des gaz à effet de serre, et les pratiques agricoles font la différence
De nouvelles techniques innovantes ont vu le jour depuis la mise en place de ce paradigme.
L’une des plus connues s’appuie sur l’agroécologie et la diversification des cultures, et mobilise des services écosystémiques largement documentés par la recherche. Cela peut par exemple passer, au Brésil, par des rotations plus longues, des cultures en mélanges, ou encore par des cultures intermédiaires de maïs, sorgho, mil ou sésame pour optimiser la culture du soja.
La sélection variétale est un autre levier crucial pour améliorer la valeur agronomique des cultures. La recherche de résistances génétiques aux champignons, aux virus et, dans une moindre mesure, aux bactéries et aux insectes, a été – et est toujours au cœur – des programmes de sélection.
Demain, cette approche pourra bénéficier des progrès réalisés dans le domaine de l’édition génétique : il est ainsi envisageable de stimuler, chez l’espèce cultivée, des gènes de résistance actifs chez des espèces étroitement apparentées, ou d’en réactiver d’autres qui auraient été contournés pendant l’évolution. Cela pose évidemment de nouvelles questions (propriété intellectuelle, cadre éthique, etc.) à ne pas sous-estimer.
Au cours des dernières années, l’existence d'un microbiote végétal a aussi été mise en évidence sur les graines, les feuilles, les racines et même à l’intérieur des tissus végétaux. Ces microbiotes jouent un rôle clé dans la nutrition des plantes, en facilitant l’échange de nutriments avec le sol, et dans leur protection contre les bioagresseurs. Il s’agit d’une perspective intéressante pour développer des solutions de biocontrôle alternatives aux pesticides.
À lire aussi : Les plantes aussi ont un microbiote – pourrait-on s’en servir pour se passer de phytosanitaires ?
Poursuivons avec les composés organiques volatils (COV) émis dans l’environnement, qui conditionnent le comportement des insectes (recherche alimentaire ou de partenaires sexuels, par exemple). Ces signaux olfactifs sont un nouvel axe de recherche pour lutter contre les ravageurs.
Cette stratégie a l’avantage de présenter peu d’effets indésirables, car les COV sont très spécifiques. Ils peuvent par exemple être utilisés pour induire une confusion sexuelle qui limite la reproduction d’une espèce particulière d’insectes, les attirer dans un piège voire les éliminer grâce à un gel contenant les COV et un insecticide qui sera dès lors utilisé en très faible quantité par rapport à une application classique.
À lire aussi : Protéger les cultures sans pesticides grâce au langage olfactif des plantes
Ces stratégies de prévention en amont doivent, bien sûr, être pensées à l’échelle du paysage et être coordonnées entre les acteurs d’une zone géographique. Elles peuvent enfin être combinées à un dépistage plus précis des potentielles proliférations. Grâce aux outils de surveillance et d’aide à la décision (principes 2 et 3), on peut ainsi adapter la solution curative à mobiliser le cas échéant.
Une telle transition requiert un niveau élevé de coordination entre tous les acteurs du système agricole. Et ceci à tous les niveaux, des agriculteurs aux chaînes d’approvisionnement. Actuellement, près de 80 % des mesures mises en œuvre dans les plans d’action nationaux ciblent directement les agriculteurs. Les politiques publiques pourraient, à cet égard, mieux répartir l’effort de transition. La protection des cultures n’est pas seulement une question pour les agriculteurs : c’est un bien commun pour la société au sens large.
À lire aussi : Pesticides : les alternatives existent, mais les acteurs sont-ils prêts à se remettre en cause ?
La comparaison entre le Brésil et la France, situés dans des climats différents et avec des contextes sociopolitiques différents, est, à cet égard, instructive.
En France, au cours des quinze dernières années, les produits utilisés en protection des cultures ont fortement évolué, sous le triple effet de la réglementation encadrant le retrait de substances actives, en particulier les cancérigènes, mutagènes, reprotoxiques (CMR), des politiques publiques (plans Écophyto notamment) et de l’innovation. On utilise désormais moins de CMR et davantage de produits utilisables en agriculture biologique et/ou basés sur le biocontrôle.
Au Brésil, les ventes de pesticides (hors produits autorisés en agriculture bio et pour le biocontrôle) s’élevaient encore à 755 400 tonnes en 2023 – dont près de 50 % de glyphosate, un chiffre en timide baisse de 5,6 % par rapport à 2022.
Or, la France utilise actuellement 2,9 kg de substances actives par hectare de surface ensemencée, contre 7,78 pour le Brésil. Ces différences s’expliquent en partie par les surfaces agricoles cultivées (hors prairies) : 14 millions d’hectares pour la France, contre 97 pour le Brésil. Il faut aussi tenir compte du fait que la plupart des terres cultivées au Brésil donnent lieu à deux cultures par an, ce qui est plus rare en France.
Toutefois, le secteur des « biointrants » (produits d’origine naturelle ou organismes vivants) progresse rapidement au Brésil, qui les utilise depuis les années 1960. Ce marché s’est établi plus tardivement en France mais progresse également rapidement. Les biointrants peuvent être utilisés en agriculture biologique ou, dans certains cas, combinés à des pesticides dans le cadre des programmes de lutte intégrée contre les ravageurs, que l’on a présentés plus haut.
À l’échelle mondiale, le marché des agents de biocontrôle et des biostimulants (intrants biosourcés permettant d’améliorer les productions végétales) était, en 2025, estimé à 11 milliards de dollars (9,2 milliards d’euros), dont 7 milliards (5,9 milliards d’euros) pour le biocontrôle, avec des taux de croissance annuels estimés de 10,5 à 15,6 % (selon les secteurs) jusqu’en 2035. En 2035, ce marché pourrait atteindre environ 41 milliards de dollars (34,5 milliards d’euros), dont 30 milliards (25,2 milliards d’euros) pour le biocontrôle.
La mobilisation de la prophylaxie et les nouvelles options de biocontrôle seront-elles de nature à remettre en cause l’omniprésence des pesticides ?
Cet article est publié dans le cadre de la Conférence FARM 2026 – Repenser la protection des cultures : agir collectivement pour le vivant, qui se tient le 17 février 2026 à la Cité internationale universitaire de Paris et dont The Conversation France est partenaire.
Christian Huyghe a reçu des financements de l'ANR et de l'Union européenne (H2020, Life-PLP, COST action).
Decio Karam est membre de Association Brésilienne du Maïs et du Sorgho, ; Conseil Scientifique de l’Agriculture Durable (CCAS)
15.02.2026 à 17:02
Carine Saüt, Cheffe de Service « Applications des missions Terre & Atmosphère », Centre national d’études spatiales (CNES)

La somme d’informations que nous transmettent les satellites sur notre planète est colossale. Aujourd’hui, le défi est d’obtenir des données de meilleure qualité encore, et surtout de les faire parvenir jusqu’aux décideurs sous une forme utile et exploitable.
Depuis quarante ans, les données d’observation de la Terre se sont imposées comme l’un des outils les plus puissants pour mieux comprendre notre planète et suivre les effets de nos actions pour la préserver. Longtemps réservée aux chercheurs et aux agences spatiales, elle irrigue désormais l’action publique, l’économie et les aspects de politique de défense nationale. Mais cette richesse de données exceptionnelles reste largement sous-exploitée, notamment du côté des décideurs publics. Nous disposons d’un trésor dont nous ne tirons pas encore tout le potentiel pour éclairer les décisions ou accélérer la transition écologique.
Chaque jour, les satellites d’agences nationales, dont ceux opérés par le Centre national d’études spatiales (Cnes), ceux du programme européen Copernicus ou encore ceux des constellations commerciales observent la Terre. Ils produisent une somme gigantesque d’informations : températures de surface, concentrations de gaz, humidité des sols, couverture par la végétation, hauteur des vagues, courants marins… La liste est longue, il pleut littéralement de la donnée. La force de ces données ne réside pas seulement dans la quantité, mais surtout dans leur capacité à couvrir de façon homogène l’ensemble de la planète, y compris les zones les plus difficiles d’accès. L’espace se met donc au service de l’adaptation au changement climatique et les données d’observation de la terre deviennent un outil de décision pour mieux comprendre, agir et anticiper.
Les satellites offrent un niveau d’objectivité rare : ils observent tout, partout, sans être influencés par les frontières administratives ou les intérêts locaux. Alors que les données terrestres peuvent être fragmentées ou hétérogènes, les satellites offrent une mesure fiable, continue, homogène et donc comparable d’un pays à l’autre. Ensuite, les progrès technologiques ont permis des évolutions rapides : une résolution améliorée, une fréquence d’observation accrue, des capteurs de différentes natures. Autrefois on était seulement capable de prendre une photographie par mois, alors qu’aujourd’hui, la surveillance est quasi permanente. Depuis l’espace, nous obtenons une vision factuelle, indépendante et systématique du monde.
La donnée d’observation de la Terre soutient les politiques publiques en irriguant déjà une multitude de domaines. Concernant la sécurité alimentaire et la gestion des ressources en eaux, les satellites apportent des informations sur le stress hydrique pour anticiper des épisodes de sécheresse et ainsi mieux gérer les pratiques d’irrigation, mais également quant au suivi de la croissance des cultures ou pour estimer les rendements agricoles.
Ils aident également à gérer les risques naturels en fournissant une surveillance des zones à risque pour le suivi des incendies, notamment des mégafeux, ou des inondations. Ils permettent de dresser des cartographies entre avant et après les catastrophes naturelles pour aider l’intervention des secours et soutenir la reconstruction de l’écosystème endommagé. Le suivi par satellite permet également le suivi de la santé des arbres et de la déforestation, des zones côtières et de l’état des zones humides.
Enfin, l’observation depuis l’espace permet de mesurer les émissions de gaz à effet de serre. À l’heure actuelle, les inventaires nationaux, basés sur des modèles statistiques ou des estimations, sont trop lents pour réagir face à la rapidité de la crise climatique, puisqu’on constate un décalage de plusieurs années (entre deux à quatre ans) entre l’émission réelle et la donnée officielle. Dans un contexte où les décisions doivent être rapides, ce délai est problématique. En observant la composition de l’atmosphère, les satellites peuvent détecter les panaches de méthane et de CO2 quasiment en temps réel. Ils identifient ainsi des fuites ou des anomalies localisées qui échappent parfois totalement aux inventaires classiques.
D’autres acteurs peuvent bénéficier des informations issues des satellites, pour orienter les politiques publiques en termes d’aménagement du territoire, notamment par l’observation des îlots de chaleur urbains, la mesure de la qualité de l’air ou bien la planification d’actions de verdissements des zones et espaces urbains.
Les données d’observation de la terre s’inscrivent donc dans plusieurs domaines en dotant les décideurs publics d’un outil transversal diagnostiquant notre planète de manière continue, précise et à des échelles locales, régionales ou mondiales. C’est là que se joue l’un des défis majeurs : rendre ces outils accessibles aux acteurs publics, aux élus, et aussi aux entreprises et aux citoyens. Les plates-formes de visualisation et les services d’analyse qui émergent aujourd’hui répondent à ce besoin en traduisant la complexité scientifique en informations compréhensibles, opérationnelles, et donc à terme en actions.
Cependant, malgré leur potentiel considérable ainsi que leur qualité et leur performance opérationnelle déjà démontrée, les données spatiales peinent à trouver leur place au sein des administrations et des entreprises. En effet, il s’agit d’un univers technique complexe. Les données brutes sont massives, spécialisées, souvent difficiles à interpréter. Leur analyse requiert des expertises précises : traitement d’images satellitaires, science des données, modélisation atmosphérique…
Nous observons donc un gouffre entre l’accès de plus en plus facilité aux données d’observation de la Terre et la capacité à les utiliser en toute confiance en l’intégrant dans les chaînes de prise de décisions. Même si la majorité des données est ouverte et gratuite, cela ne suffit pas. Il faut des plates-formes, des services, des outils visuels pour les rendre intelligibles, avec des interfaces pensées pour le suivi d’une application de politique publique. Les élus, à titre d’exemple, n’ont pas vocation à manipuler des gigaoctets de données, ils ont besoin de visualisations simples, d’indicateurs synthétiques, de cartographies claires. L’expertise doit précéder pour interpréter les données et les rendre véritablement utiles pour les décideurs.
Pour déverrouiller ces usages, plusieurs leviers se développent. Il s’agit, entre autres, de croiser des données de natures différentes. Cette combinaison permet de fournir des informations fondées sur les données d’observation de la Terre directement exploitables, plus fiables, plus interprétables et mieux contextualisées au besoin de l’utilisateur.
Les données d’observation de la Terre changent la donne en offrant la capacité de voir notre planète autrement. L’observation spatiale ne résoudra pas d’elle-même la crise climatique mais, combinée à d’autres sources de données, elle apporte quelque chose d’essentiel : une vision objective, continue, indépendante et globale de l’état de la planète. Ces informations sont devenues indispensables aux collectivités qui doivent désormais anticiper, et non seulement réagir.
Les données d’observation de la Terre permettent de mesurer plus vite, comprendre plus finement et décider plus efficacement, dès lors que l’information qui en découle est accessible, lisible et traduite en indicateurs exploitables. Notre rôle au Cnes est de valoriser ces données pour leur donner du sens et en faire un levier d’action. Parmi les applications les plus prometteuses et stratégiques liées à l’adaptation au changement climatique dans les politiques publiques, il ressort que l’enjeu n’est pas seulement de mesurer, mais de mesurer plus vite et plus précisément, pour mieux anticiper.
Carine Saüt ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.02.2026 à 12:41
Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL
Le président Trump a annoncé l’abrogation de l’Endangerment Finding, un texte de l’Agence environnementale américaine (EPA) à la base de toutes les régulations fédérales concernant les émissions de gaz à effet de serre (GES) du pays. Après le retrait de l’accord de Paris et des institutions internationales traitant du climat, c’est un renforcement du backlash climatique qui souffle sur les États-Unis.
L’abrogation de l’Endangerment Finding (qu’on peut traduire par « constat de mise en danger »), annoncée depuis la Maison-Blanche, le 12 février 2026, marque un retour en arrière de près de vingt ans.
Ce texte de l’EPA réunit en effet les éléments scientifiques permettant l’application d’une décision de la Cour suprême des États-Unis datant de 2007, qui appelait l’Agence environnementale américaine (EPA) à inclure les six principaux gaz à effet de serre parmi les rejets atmosphériques qu’elle a mission de réguler.
Nouvelle illustration du backlash climatique de l’Amérique trumpienne, cette abrogation promet de multiples contentieux juridiques qui remonteront sans doute jusqu’à la Cour suprême, dont la décision de 2007 n’a pas été abrogée.
À lire aussi : La réélection de Donald Trump : quelles implications pour les politiques climatiques ?
Titre d’un livre de Susan Faludi paru en 1991, l’expression « backlash » a connu son heure de gloire aux États-Unis dans les années 1990. Elle désignait alors toute régression en matière de droits civiques, en particulier ceux des femmes et des minorités.
Le backlash est revenu en force en 2025, avec le démarrage du second mandat de Donald Trump. La guerre contre les droits civiques a repris avec une grande violence pour les migrants. Elle a été étendue à tout ce qui touche le changement climatique, autrement dit aux droits environnementaux, ainsi qu’à la science.
La guerre anti-climat a été déclarée le premier jour de la présidence. Le 20 janvier 2025, parmi les innombrables décrets signés par Donald Trump, figurait celui annonçant le retrait des États-Unis de l’accord de Paris sur le climat et un autre visant la relance des énergies fossiles.
En termes de politique extérieure, la dénonciation de l’accord de Paris a été complétée en janvier 2026 par le retrait des États-Unis de la convention-cadre des Nations unies sur le réchauffement climatique et du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). En se retirant de la convention-cadre, l’Amérique trumpienne s’est affranchie de toute obligation en matière climatique.
À lire aussi : La transition énergétique américaine à l’épreuve de Trump 2.0
Le retrait du Giec illustre un autre volet du backlash : la guerre déclarée contre les sciences du climat et toutes les institutions qui les hébergent.
Si les universités et les centres indépendants comme le World Resources Institute (WRI) ou le Berkeley Earth ont pu résister, trois grandes administrations fédérales ont été directement affectées : l’administration en charge de l’atmosphère et de l’océan (NOAA), les centres de recherche sur le climat de la NASA et l’agence environnementale (EPA), en charge de l’établissement de l’inventaire des émissions de gaz à effet de serre. Ces trois institutions produisent nombre de données et de modélisations utilisées par les scientifiques du monde entier.
Sur le plan de la politique intérieure, l’abrogation de l’Endangerment Finding ouvre la voie à la suppression de l’ensemble des régulations environnementales touchant le climat, notamment dans les transports et l’énergie. Elle a été préparée par la publication du rapport de juillet 2025 du Département de l’énergie, qui relativisait les impacts du réchauffement climatique, instillant le doute sur ses origines anthropiques et affirmant, dans son résumé pour décideurs, que « des politiques d’atténuation excessivement agressives pourraient s’avérer plus néfastes que bénéfiques ».
La question des preuves scientifiques était déjà au cœur de la décision d’avril 2007 de la Cour suprême des États-Unis, dite Massachusetts v. EPA, qui enjoignait à l’EPA d’intégrer les gaz à effet de serre (GES) parmi les polluants atmosphériques qu’elle avait en charge de réglementer. Ce faisant, la Cour a retourné, par une faible majorité (5 contre 4), la jurisprudence antérieure qui reposait sur les supposées incertitudes scientifiques quant au lien entre les émissions de GES et le changement climatique.
C’est à nouveau en contestant les diagnostics des sciences du climat que l’Amérique trumpienne tente de s’affranchir de toute responsabilité face au changement climatique. Cela ne va pas manquer de multiplier les contentieux judiciaires, qui risquent fort de remonter jusqu’à la Cour suprême, dont la décision de 2007 enjoignant à l’EPA de réguler les émissions de gaz à effet de serre n’a pas été abrogée.
L’abrogation de l’Endangerment Finding vise à inscrire dans la durée la stratégie trumpienne. Celle-ci est guidée par le rétroviseur, avec la promesse de retrouver un paradis énergétique reposant sur une abondance d’énergie fossile livrée à bas coût à la population.
C’est au nom de cette chimère que les dispositifs de soutien aux énergies renouvelables et à l’électrification des usages ont été démantelés en moins d’un an. Cela a conduit les constructeurs américains à mettre un grand coup de frein sur la voiture électrique. Dans les énergies renouvelables, la filière éolienne a été particulièrement visée, avec le gel ou l’arrêt de la plupart des grands projets offshore déjà engagés, généralement portés par des entreprises européennes.
Simultanément, le secteur des énergies fossiles a été cajolé par la « grande et belle loi budgétaire » qui prévoit, entre autres, la cession de nouvelles concessions pétrolières dans le golfe du Mexique et sur les terres fédérales, des allègements fiscaux sur les forages, le report de la redevance sur le méthane, la réduction des redevances minières pour le charbon, l’extension de son extraction sur les terres fédérales et enfin des crédits d’impôt pour le « charbon métallique » utilisé dans les hauts-fourneaux.
Ce cocktail de mesures a contribué à la remontée, estimée à 2,4 %, des émissions de gaz à effet de serre du pays en 2025. La tendance à la baisse des émissions observée depuis 2005 risque ainsi d’être interrompue.
Le tête-à-queue américain peut-il faire dérailler les scénarios globaux de sortie des énergies fossiles ? En 2025, les États-Unis ont été à l’origine de 13 % des émissions mondiales de carbone fossile. Tout dépendra de la façon dont va réagir le reste du monde.
À lire aussi : « Drill, baby, drill » : face à l'obsession de Trump pour le pétrole, une mobilisation citoyenne verra-t-elle le jour ?
Dans le reste du monde, ce n’est pas le backlash, mais l’accélération de la transition énergétique qui prévaut.
La Chine en est devenue l’acteur pivot. Grâce à un investissement sans pareil dans les énergies bas carbone, elle est en train de franchir son pic d’émission à 8 tonnes de CO2 par habitant, quand les États-Unis ont franchi le leur à 21 tonnes, et l’Europe à 11 tonnes. La question clé est désormais celle du rythme de la décrue après le pic.
Devenue le fournisseur dominant des biens d’équipement de la transition énergétique, la Chine a contré la fermeture du marché américain en redirigeant ses ventes vers le Sud global, qui accélère ses investissements dans l’économie bas carbone. L’agressivité trumpiste a même réussi à rapprocher la Chine de l’Inde.
L’accélération de la transition bas carbone est particulièrement forte en Asie. En 2025, l’Inde a stabilisé les émissions de son secteur électrique, grâce à la montée en régime du solaire. La même année, on a vendu, en proportion, plus de véhicules électriques au Viêt-nam ou en Thaïlande que dans l’Union européenne, et le Pakistan s’est couvert de panneaux photovoltaïques.
À lire aussi : La Chine, leader de la décarbonation des économies du Sud
Dans ce contexte, l’Europe s’enferme dans une position défensive face aux États-Unis, subissant les coups les uns après les autres. Les vents du backlash climatique trouvent même des relais au sein de l’Union européenne, où une partie de la classe politique cherche désormais à freiner, voire stopper, la transition bas carbone.
Cette attitude est contreproductive. Le vieux continent importe la grande majorité de son énergie fossile, et pourrait au contraire reconquérir une partie de sa souveraineté économique en accélérant sa transition énergétique. Cela contribuerait également à relever son taux d’investissement, car l’économie bas carbone est plus capitalistique que celle reposant sur l’énergie fossile.
L’Europe devrait, enfin, mobiliser toutes ses ressources scientifiques pour faire face aux attaques lancées contre les sciences du climat. Aux « faits alternatifs » que cherchent à imposer les « ingénieurs du chaos » – du nom de l’essai éponyme paru en 2019 – sur les réseaux sociaux, il est temps d’opposer avec détermination les faits scientifiques.
Christian de Perthuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
13.02.2026 à 09:23
Luc Aquilina, Professeur en sciences de l’environnement, Université de Rennes 1 - Université de Rennes
Pierre Brigode, Maître de conférences en hydrologie, École normale supérieure de Rennes
Les inondations, provoquées par la tempête Nils, qui touchent le sud-ouest de la France, pourraient alimenter à nouveau le débat sur le rôle l’aménagement du territoire dans la survenue de ces événements. Les inondations sont pourtant des phénomènes complexes et le rôle des aménagements reste difficile à estimer.
Depuis plusieurs années, l’Europe est frappée par des inondations majeures aux bilans humains terribles : 243 morts en juillet 2021 en Allemagne, en Belgique, au Luxembourg et aux Pays-Bas, 17 morts en mai 2023 en Italie du Nord, 27 morts en septembre 2024 lors de la tempête Boris en Europe Centrale, de l’Allemagne à la Roumanie, et 237 morts en octobre 2024 dans le sud de Valence. Plus près de nous, les inondations de la Vilaine de ce mois de janvier 2026 et celles de l’année dernière ont ravivé pour les habitants le spectre des inondations du passé.
Ces évènements frappent les esprits et font la une des médias, surtout s’ils se déroulent en Europe. Très vite, des causes liées à l’aménagement du territoire sont invoquées. En Espagne, l’extrême droite a condamné les écologistes qui ont prôné l’arasement des barrages. Vérification faite, il ne s’est agi que de la suppression de « barrières » peu élevées et le lien avec les barrages n’est pas attesté. En Bretagne, à l’inverse, suite à la crue de la Vilaine début 2025 et à l’inondation de plusieurs quartiers de Rennes et de Redon, plusieurs coupables ont été rapidement désignés dans les médias. Le changement climatique d’abord, puis le remembrement des territoires ruraux et le drainage des parcelles agricoles qui ont accompagné la révolution verte des années 1960 et 1970 ont été pointés du doigt.
Les scientifiques de l’eau soulignent le rôle des aménagements passés sur les sécheresses et les tensions autour de la ressource en eau. Pour autant, l’attribution des causes à des événements exceptionnels comme les crues intenses s’avère difficile. Faut-il chercher un seul coupable, ou bien plusieurs ? Changement climatique et modification des usages des sols contribuent à la genèse des inondations, mais leurs implications respectives dans ces évènements varient selon le type d’inondation ainsi qu’au cours du temps.
Isoler la part de responsabilité du changement climatique dans la survenue d’un événement climatique extrême est ce qu’on appelle un processus d’attribution. La science de l’attribution, relativement récente, est nécessaire pour quantifier les impacts du changement climatique dans des processus complexes et variables. Un exemple récent est l’étude menée suite aux pluies torrentielles d’octobre 2024 en Espagne, qui a montré que ce type d’épisode pluvieux présente jusqu’à 15 % de précipitations supplémentaires par rapport à un climat sans réchauffement. En d’autres termes, environ une goutte d’eau sur six tombée lors de cet épisode peut être imputée au changement climatique.
Si l’attribution des pluies est aujourd’hui de mieux en mieux maîtrisée, celle des crues reste moins bien déterminée. On confond souvent l’attribution de la pluie et celle de la crue, alors qu’elles ne sont pas équivalentes. Entre le moment où la pluie tombe et celui où la rivière déborde, il se passe beaucoup de choses au niveau du bassin versant : selon le degré d’humidité et la nature du sol et du sous-sol ou bien la manière dont il a été aménagé, il peut agir comme tampon ou accélérer les flux d’eau. Deux bassins versants différents auront des réponses également différentes pour un même volume de pluie, et un même volume de pluie tombant sur un même bassin versant peut avoir des conséquences très différentes selon le moment de l’année. La survenue d’une crue dépend donc de la combinaison de deux dés : la pluie qui tombe sur le bassin versant et la capacité de ce bassin à l’absorber.
Les études d’attribution des pluies montrent avec certitude que le réchauffement climatique — et donc les activités humaines qui en sont la cause — intensifient les pluies fortes et les rendent de plus en plus fréquentes. Si nos futurs étés seront plus secs, les hivers seront eux plus humides, notamment dans le nord de la France. Qu’en est-il du deuxième dé, la capacité d’absorption des bassins versants ? Le changement climatique l’affecte également, en modifiant l’humidité des sols au fil des saisons. Mais cette capacité dépend aussi largement des transformations opérées par certaines activités humaines.
C’est le cas par exemple des barrages, conçus pour stocker l’eau lors des saisons humides et qui ont la capacité de tamponner la puissance des crues. Mais d’autres phénomènes sont impliqués, comme l’urbanisation, qui imperméabilise les sols en remplaçant champs et prairies par du béton et de l’asphalte. Ces surfaces imperméables réduisent fortement l’infiltration et favorisent le ruissellement. Même si l’urbanisation reste marginale à l’échelle des grands bassins versants, elle peut jouer un rôle majeur localement, notamment en zones périurbaines, où les petits cours d’eau sont souvent canalisés ou recouverts.
Les aménagements agricoles comptent également. Le remembrement, qui a fait disparaître des milliers de haies et fossés au profit de grandes parcelles plus facilement exploitables pour des machines agricoles, a profondément modifié la circulation de l’eau. En parallèle, d’autres transformations ont réduit la capacité du paysage à retenir l’eau lors des pluies fortes, comme la pose de drains en profondeur dans les sols agricoles qui vise à évacuer l’excédent d’eau des terres trop humides durant l’hiver. La création de digues et de canaux pour limiter l’expansion des rivières, le creusement des cours d’eau et la rectification de leurs berges les ont recalibrées pour les rendre linéaires. Ces différents aménagements ont des effets importants. Ils modifient le cycle de l’eau continental en accélérant globalement les flux vers la mer. Les niveaux des nappes ont déjà été affectés par ces modifications. Dans les vastes marais du Cotentin, nous avons montré que le niveau moyen des nappes a chuté d’environ un mètre depuis 1950, alors que les aménagements des siècles précédents avaient déjà diminué ces niveaux. Le changement climatique va renforcer cette diminution des niveaux de nappe au moins sur une grande partie du territoire hexagonal.
Ces facteurs jouent différemment selon la surface des bassins versants et leur localisation : l’urbanisation a un effet très fort sur les crues des petits bassins versants côtiers de la Côte d’Azur, qui ont une surface inférieure à 10 km2, mais un effet moindre sur le bassin versant de la Vilaine, qui compte 1 400 km2 à Rennes après la confluence avec l’Ille. À l’inverse, les pratiques agricoles ont un effet plus important sur les crues du bassin de la Vilaine que sur ceux de la Côte d’Azur.
Aujourd’hui, il est difficile de quantifier précisément la part relative de ces facteurs dans l’occurrence des crues observées. En amont des cours d’eau, certaines transformations peuvent ralentir la propagation des crues en augmentant des capacités de stockage locales, par exemple dans les sols, les zones humides ou les plaines inondables, tandis qu’en aval, l’accélération des flux et leur addition tendent à dominer. Chacun des aménagements décrits influence la manière dont un bassin versant absorbe ou accélère l’eau, mais l’addition de leurs effets crée une interaction complexe dont nous ne savons pas précisément faire le bilan.
Lors d’événements exceptionnels comme la crue de Valence, ce sont avant tout les volumes de pluie qui déclenchent la crue et ses conséquences, le changement climatique pouvant intensifier ces précipitations. Les aménagements du territoire influencent de manière secondaire la façon dont l’eau s’écoule et se concentre dans les bassins versants. Il n’en reste pas moins que ces deux effets jouent un rôle de plus en plus important dans les événements de moindre ampleur, dont les impacts sont néanmoins importants et dont l’occurrence a déjà augmenté et va encore s’accentuer dans le futur. Pour deux degrés de réchauffement, l’intensité des crues décennales (d’une ampleur observée en moyenne une fois tous les 10 ans) augmentera potentiellement de 10 à 40 % dans l’Hexagone, et celle des crues centennales (observées en moyenne une fois tous les siècles) de plus de 40 %.
Ces événements ont provoqué des prises de position politique virulentes. Certains, en particulier à droite de l’échiquier politique, ont remis en question les politiques récentes de restauration de l’état naturel des cours d’eau, de protection des zones humides et de destruction des barrages. Elles ont conduit à des appels à la suppression de l’Office français de la biodiversité lors des manifestations agricoles, proposition reprise par le sénateur Laurent Duplomb devant le Sénat le 24 janvier 2024.
Les aménagements les plus récents, défendus par de nombreuses structures territoriales, visent à redonner au cycle de l’eau, et en particulier aux rivières, des espaces plus larges et à recréer ou protéger des zones humides. Tous ces aménagements conduisent à ralentir les flux et donc luttent contre les inondations, tout en préservant la biodiversité à laquelle notre santé est liée. Les zones humides sont par exemple les meilleurs ennemis des moustiques tigres, en permettant le développement de leurs prédateurs. Bien qu’ils exigent de concéder des terres agricoles aux milieux naturels, ces aménagements nourrissent les nappes qui restent le meilleur réservoir pour le stockage de l’eau des saisons humides.
Remettre en question les politiques de recalibration des cours d’eau, de remembrement et de drainage, tout comme l’imperméabilisation des zones urbaines, est une nécessité imposée par l’adaptation au changement climatique. Il s’agit de limiter ou éviter les tensions entre les besoins des activités humaines et les besoins des écosystèmes qui pourraient en faire les frais. Les inondations catastrophiques ne sont qu’en partie liées aux aménagements et ne peuvent pas justifier à elles seules les politiques de retour à l’état naturel des cours d’eau, qui sont en revanche une réponse aux sécheresses estivales à venir. Pour autant, ces inondations majeures sont là pour nous alerter sur les effets du changement climatique. Les étés vont devenir plus secs et les ressources vont manquer, mais les événements extrêmes vont également se multiplier. Une vie en catastrophes nous attend si nous ne transformons pas nos modes de consommation et de production. Tel est le message porté par les inondations. Sera-t-il mieux entendu que les appels des hydrologues ?
Luc Aquilina est co-titulaire de la chaire Eaux et territoires de la fondation de l’Université de Rennes qui reçoit des fonds d’Eau du Bassin Rennais, Rennes Métropole et du Syndicat Mixte Eau 50.
Pierre Brigode a reçu des financements de l'Université de Rennes, du Centre national de la recherche scientifique et de l'Agence nationale de la recherche.
12.02.2026 à 10:29
Clément Nedoncelle, Chercheur en economie INRAE, Inrae
Basak Bayramoglu, Directrice de recherche, Inrae
Estelle Gozlan, Chercheuse, Inrae
Thibaut Tarabbia, chercheur, Paris School of Economics – École d'économie de Paris
Une étude montre que les clauses environnementales contenues dans les accords de libre-échange sont ambivalentes : leur succès dépend, pour beaucoup, du contexte global et de la volonté politique à les mettre en œuvre. Le principal problème ? Elles ne contribuent pas vraiment à transformer les modèles et les pratiques qui nuisent le plus à l’environnement.
Les projecteurs sont actuellement braqués sur l’accord de libre-échange entre l’Union européenne et le Mercosur, signé le 17 janvier 2026 et déjà très contesté. Nombre de préoccupations portent sur les effets délétères qu’il pourrait avoir sur l’environnement.
Peut-on concilier commerce international et protection de l’environnement ? Cette question dépasse les forêts amazoniennes ou les bœufs brésiliens. Il touche aussi un bien commun trop souvent oublié : les océans et les pêcheries qui en dépendent.
Les pêcheries sont, en effet, un pilier de la sécurité alimentaire mondiale. Elles nourrissent des milliards de personnes, font vivre des communautés entières dans les pays côtiers et assurent une part cruciale des exportations des pays du Sud global. Et pourtant, elles s’épuisent : selon l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO), à peine 65 % des stocks mondiaux de poissons sont exploités durablement, contre 90 % dans les années 1970.
Face à ce déclin, les gouvernements mobilisent un éventail de politiques : quotas, aires marines protégées, taxes, subventions… Mais un autre outil, plus discret, joue un rôle croissant : celui es accords commerciaux, qui incluent désormais des « clauses environnementales » censées limiter les effets néfastes du commerce sur la nature. Certaines portent directement sur les pêcheries. Mais sont-elles efficaces ?
Notre étude récente publiée dans la revue World Development analyse les conséquences économiques et écologiques de ces clauses, appliquées au secteur des pêcheries. En examinant plus de 700 accords commerciaux conclus depuis la Seconde Guerre mondiale, nous avons comparé ceux qui comportaient des clauses sur la pêche à ceux qui n’en prévoient pas.
Nous avons ainsi étudié leur effet sur le niveau trophique moyen des prises, c’est-à-dire la position des poissons pêchés dans la chaîne alimentaire. Si cet indicateur baisse, cela signifie que l’on pêche des espèces de plus en plus petites et basses dans la chaîne, et donc que les grands prédateurs marins disparaissent.
À lire aussi : Que sait-on sur les captures accidentelles de dauphins dans le golfe de Gascogne, et pourquoi est-il si difficile de les éviter ?
Notre étude montre un résultat principal : les accords commerciaux sur la pêche détériorent la durabilité des ressources marines, mais l’inclusion de clauses environnementales atténue significativement cette dégradation. Ces clauses limitent les dégradations supplémentaires provoquées ou accentuées par la libéralisation des échanges.
En clair, ces dispositions environnementales jouent un rôle de filet de sécurité : elles empêchent la situation de se dégrade davantage, sans pour autant l’améliorer spectaculairement. Les effets positifs apparaissent lentement, entre cinq et neuf ans après la signature.
Ces résultats ont des implications au-delà des pêcheries. En effet, depuis une quinzaine d’années, les accords commerciaux ont intégré une multitude de clauses environnementales : sur les forêts, le climat, la pollution, la biodiversité… Toutefois, si ces dispositions ont parfois prouvé leur efficacité – pour réduire la déforestation ou les émissions polluantes, par exemple – leurs effets varient fortement selon les secteurs et les pays. Ils dépendent notamment largement de la qualité des institutions des pays signataires : les pays dotés d’une gouvernance solide en tirent bien plus de bénéfices écologiques.
Autrement dit, cela peut fonctionner, mais d’abord là où les États sont capables de les mettre en œuvre.
À lire aussi : Quel est le poids exact de la France dans la « déforestation importée » qui touche l’Amazonie ?
Notre étude souligne aussi le revers de la médaille, autrement dit l’ambivalence de ces politiques : elles peuvent atténuer les dégâts écologiques, mais pas nécessairement transformer les comportements économiques qui en sont à la source.
En effet, les améliorations écologiques observées, par rapport à un accord de libre-échange dépourvu de dispositions environnementales, ne sont pas tant liés à la transformation des pratiques de pêche – comme l’abandon du chalutage destructeur – qu’à la réduction forte des volumes pêchés et exportés.
Les clauses environnementales semblent donc d’abord agir comme des freins au commerce plutôt que comme des moteurs d’innovation durable. Elles freinent la pression commerciale, mais sans transformer le modèle de production vers davantage de soutenabilité.
Elles montrent surtout que la réussite de la transition écologique ne dépend pas uniquement des règles internationales, mais de la volonté politique et institutionnelle de les faire vivre par les États.
À lire aussi : À quelles conditions peut-on parler d’activités de pêche « durables » ?
La question dépasse donc le commerce international : tout se joue dans la capacité des États à appliquer localement des engagements pris au niveau supranational. Une clause environnementale n’a d’effet que si la capacité des administrations à contrôler et sanctionner suit.
Sans investissement dans la mise en application et l’accompagnement des secteurs concernés, ces accords ne peuvent donc agir qu’à la marge. L’enjeu n’est donc pas d’ajouter des obligations dans les traités, mais de s’assurer qu’elles sont réellement mises en œuvre, seule condition pour changer les pratiques plutôt que simplement freiner le commerce.
Dans le débat sur l’accord UE–Mercosur, beaucoup craignent que l’environnement serve à nouveau de variable d’ajustement aux intérêts commerciaux. Nos recherches montrent qu’il n’y a pas de fatalité : si les clauses environnementales sont ambitieuses, assorties de mécanismes de suivi et appliquées par des États capables de les faire respecter, elles peuvent réellement protéger les ressources naturelles.
Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.
Clément Nedoncelle, Estelle Gozlan et Thibaut Tarabbia ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
12.02.2026 à 10:29
Amaury Bardelle, Doctorant au laboratoire des sciences du climat et de l’environnement, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Anthony Foucher, Chercheur CEA au Laboratoire des Sciences du Climat et de l’Environnement, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Olivier Evrard, Directeur de recherche, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Université Paris-Saclay
Pierre-Alexis Chaboche, Chercheur au Laboratoire des Sciences du Climat et de l'Environnement (LSCE), Université Paris-Saclay
Renaldo Gastineau, Chercheur postdoctorant au laboratoire EDYTEM, Université Savoie Mont Blanc
Alors que l’accord UE-Mercosur suscite de vives inquiétudes chez les agriculteurs européens, il ne faut pas éluder ses conséquences environnementales potentielles en Amérique du Sud. Notre étude récente, qui s’appuie sur la datation radiométrique de sédiments, a permis de reconstituer une histoire des pollutions agricoles dans la Pampa uruguayenne. Or, en matière de pesticides, la terre n’oublie pas : on retrouve par exemple du DDT, pourtant interdit depuis des décennies, dans des prélèvements récents.
Alors que la récente signature de l’accord commercial entre l’Union européenne (UE) et le Mercosur fait encore débat, on a beaucoup parlé – à raison – de ses retombées pour les agriculteurs français et européens. On a, par contre, beaucoup moins évoqué les impacts que cet accord pourrait avoir sur l’environnement dans les pays du Mercosur (Argentine, Brésil, Paraguay et Uruguay).
L’Amérique du Sud est aujourd’hui devenue une puissance agricole mondiale, et l’un des premiers producteurs de soja dans le monde. La production de cette légumineuse est en effet passée de 297 000 tonnes en 1961 à 210 millions de tonnes en 2024, soit plus de la moitié de la production mondiale d’après les statistiques de l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO).
Cette expansion agricole se fait au détriment des espaces naturels. La région amazonienne retient souvent l’attention du grand public et des médias. Pourtant, il ne s’agit pas – loin s’en faut – du seul ensemble d’écosystèmes naturels (ou « biome ») à pâtir de l’expansion agricole. C’est également le cas de la Pampa, localisée entre le sud du Brésil, l’Uruguay et dans le nord-est de l’Argentine. Sa superficie dépasse les 1,2 million de kilomètres carrés (km²), soit plus de deux fois la superficie de la France hexagonale.
Ces vastes étendues de prairies naturelles constituent un vaste réservoir de biodiversité et un important puits de carbone. En 2023, une équipe de chercheurs brésiliens y avait identifié plus de 12 500 espèces différentes. L’accélération de la conversion de la Pampa en cultures, en prairies intensives et en plantations forestières commerciales au cours des dernières décennies menace ainsi les services fournis par ces écosystèmes.
Afin de reconstituer l’histoire agricole de ces écosystèmes depuis les 80 dernières années, nous avons collecté et analysé les sédiments qui se sont déposés au cours du temps dans le réservoir du barrage de Rincón del Bonete, sur le rio Negro, en étroite collaboration avec des chercheurs uruguayens.
Nous avons ensuite procédé à des analyses pour dater ces échantillons, en nous appuyant sur les traces de radionucléides à la fois naturels (qui retombent en continu avec les pluies) et artificiels (issus des essais nucléaires atmosphériques réalisés entre les années 1950 et les années 1970) qu’on y retrouve. Nous avons ainsi abouti à une remise en perspective historique inédite de l’histoire agricole de la région.
Ces sédiments jouent le rôle d’archives naturelles. En effet, chaque année, au fil des évènements pluvieux et des crues, les sédiments érodés à l’amont du rio Negro et transportés par la rivière se déposent dans le réservoir. Leur collecte et leur analyse permettent ainsi de reconstruire l’histoire des paysages de la région depuis l’inauguration du barrage hydroélectrique en 1945. C’est l’un des barrages l’un des plus anciens d’une telle ampleur en Amérique du Sud.
L’analyse de cette archive sédimentaire (intensité des flux sédimentaires, détection de pesticides…) a permis de reconstruire quatre grandes phrases de développement agricole dans la région :
De la fin de la Seconde Guerre mondiale à 1963 : une agriculture conventionnelle en continu, basée sur la mise en place de rotations annuelles, se développe. Ce système est associé, dans notre analyse, à des flux sédimentaires importants. Comprendre : une quantité importante de terres agricoles étaient alors lessivées par les pluies et transportées par le rio Negro.
De 1963 aux années 1990 : un système associant cultures et élevage se met en place. Il permet la réduction des flux sédimentaires. Cette période est caractérisée par la première détection de pesticides dans l’archive sédimentaire.
Des années 1990 au début des années 2000 : l’usage du semis direct, c’est-à-dire de cultures sans labour, commence à se répandre dans la région. Cette évolution est liée au développement de variétés de soja génétiquement modifiées, conçues pour être résistantes au glyphosate, qui pouvait ainsi être répandu pour détruire les adventices (les « mauvaises herbes ») sans endommager la culture principale.
Accompagnée d’une rotation entre polyculture et élevage, cette pratique semble avoir contribué à la réduction de l’érosion des sols, puisque cette période enregistre les plus faibles taux de sédimentation de la séquence. Cette période coïncide aussi avec d’importantes plantations d’arbres exotiques, principalement l’eucalyptus, utilisé pour produire de la pâte à papier.
À partir de 2007 : bien que le semis direct ait été adopté par la majorité des agriculteurs, les pratiques agricoles s’intensifient. La monoculture continue intensive ou une double récolte au cours de l’année (généralement une succession de soja et de céréales) est souvent de mise.
De nombreuses zones naturelles sont alors converties pour la culture du soja et la plantation d’eucalyptus. En conséquence, cette période enregistre les plus forts taux de sédimentation et les flux de pesticides les plus élevés depuis la fin de la Seconde Guerre mondiale.
Parmi les pesticides retrouvés au sein des sédiments déposés récemment dans le barrage uruguayen, on retrouve notamment des substances interdites en Europe et aux États-Unis, telles que le Mirex – utilisé dans les plantations d’eucalyptus – ou le DDT.
Ce pesticide nocif à la fois pour l’humain et l’environnement, désormais interdit dans la quasi-totalité du monde, a été historiquement utilisé comme insecticide pour l’agriculture. Il fut également largement répandu à travers l’Amérique lors de grandes campagnes d’éradication des vecteurs du paludisme au sortir de la Seconde Guerre mondiale.
L’explication la plus probable derrière la réapparition du DDT serait une remobilisation des quantités de ce pesticide déjà présentes dans l’environnement. Cela pourrait faire suite à l’augmentation de l’érosion des sols cultivés depuis des décennies, ainsi qu’à la mise en culture et à l’érosion de nouvelles terres, faisant partie d’espaces naturels qui avaient été traités avec du DDT au milieu du siècle dernier.
À lire aussi : Pesticides et biodiversité, les liaisons dangereuses
Dans notre étude, nous avons combiné plusieurs analyses à haute résolution des sédiments accumulés par le barrage. L’analyse historique a été rendue possible grâce à la datation des couches successives de sédiments, réalisée à travers l’analyse de radionucléides à la fois naturels (qui retombent en continu avec les pluies) et artificiels (liés aux essais nucléaires atmosphériques réalisés entre les années 1950 et les années 1970).
Ces essais nucléaires, menés principalement par les États-Unis, l’Union soviétique et la France, sont en effet associés à des émissions de césium et de plutonium spécifiques, dont ils sont, en quelque sorte, la signature. De quoi aider à reconstruire l’âge des couches successives de la séquence sédimentaire.
Nous avons ensuite pu mettre en relation les propriétés des sédiments avec des données historiques, telles que les statistiques agricoles ou d’usage des sols, afin de proposer cette analyse historique de l’impact des changements paysagers.
Les impacts environnementaux liés à la mise en culture de la Pampa sont déjà très nets, mais ce n’est malheureusement peut-être que le début.
À ce jour, seuls 20 % des prairies qui étaient encore en place en 1985 ont été transformées. Les prairies de la Pampa, qui recouvraient 83 % de la zone étudiée en 1985, ne représentaient plus que 60 % de la surface en 2022. Autant d’espaces où les activités agricoles et sylvicoles pourraient continuer à se développer.
Dans ce contexte, les accords commerciaux qui ont été conclus entre les pays du Mercosur et de l’Union européenne – mais aussi avec d’autres grandes puissances, telles que la Chine – auront un impact. Ils favoriseront les exportations et augmenteront la demande en produits tels que le soja et la pâte à papier. Ce faisant, ils risquent d’exacerber l’expansion et l’intensification agricole, ainsi que leurs impacts environnementaux.
L’approche développée, qui a donc permis de reconstruire une perspective historique inédite, pourrait être prolongée dans le temps pour suivre les impacts environnementaux à venir dans la région, en lien avec les évolutions réglementaires et commerciales en cours.
Amaury Bardelle a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).
Anthony Foucher a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).
Olivier Evrard a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).
Pierre-Alexis Chaboche a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).
Renaldo Gastineau a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001).