ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
27.07.2025 à 16:53
TotalEnergies : Objectif Wall Street
Texte intégral (2388 mots)

La société TotalEnergies souhaite être cotée aux États-Unis. Cette décision interroge : pourquoi un fleuron du CAC 40 tourne-t-il son regard vers Wall Street ? Quels bénéfices en attend-il ? Que révèle cette opération sur le fonctionnement des marchés, des régulations et du capitalisme énergétique européens ?
Le projet de double cotation de TotalEnergies aux États-Unis questionne sur ses motivations profondes et ses implications financières. Si l’entreprise insiste sur le fait que « TotalEnergies est déjà cotée à New York » et qu’elle souhaite « transformer les certificats American Depositary Receipt, qui sont aujourd’hui la base de [sa] cotation aux États-Unis, en actions ordinaires », cette décision n’en reste pas moins stratégique.
La double cotation permet à une entreprise d’être cotée directement sur deux places boursières. Dans le cas de TotalEnergies, il ne s’agirait plus de maintenir les American Depositary Receipts (ADR) – actuellement utilisés pour accéder au marché états-unien –, mais de coter ses actions ordinaires à la Bourse de New York, tout en conservant leur cotation sur Euronext Paris. Cela permettrait aux mêmes actions d’être échangées en euros en Europe et en dollars aux États-Unis.
Double cotation
L’objectif immédiat du projet est de convertir les certificats ADR, qui représentent environ 9 % du capital de l’entreprise, en actions ordinaires cotées sur le New York Stock Exchange (NYSE). Les ADR sont des certificats négociables, émis par une banque américaine, représentant la propriété d’une action d’une société étrangère, et permettant leur négociation sur les marchés du pays de l’Oncle Sam. La conversion des ADR permettrait aux investisseurs états-uniens d’acheter des titres TotalEnergies directement, sans passer par des véhicules intermédiaires. Elle réduit les coûts d’intermédiation et facilite la liquidité.
Cette mutation est d’autant plus crédible que les investisseurs des États-Unis détiennent déjà près de 40 % du capital de TotalEnergies, en 2024, contre 25,3 % pour les actionnaires français. La part des fonds d’investissement états-uniens y est déterminante, en particulier le fonds BlackRock qui, avec 6,1 % du capital, est le premier actionnaire du groupe). De plus, les valorisations des majors américaines restent généralement supérieures à celles de leurs homologues européens. Le titre TotalEnergies se négocie ainsi à Paris à environ 3,5 fois l’Ebitda (soldes intermédiaires de gestion, ndlr), contre 6,5 fois pour ExxonMobil. En clair, tout en conservant une cotation à Paris, le « centre de gravité » boursier de l’entreprise se déplacerait mécaniquement.
Arbitrage entre Paris et New York
L’arbitrage entre NYSE et Euronext Paris consisterait, en théorie, à acheter des actions à un prix plus bas sur un marché (Paris), puis à les revendre à un prix plus élevé sur un autre (New York), tirant profit du différentiel de valorisation. Dans les faits, cette stratégie est très difficile à mettre en œuvre pour une entreprise comme TotalEnergies. Plusieurs obstacles s’y opposent :
Il existe des délais de règlement entre les deux marchés, empêchant une exécution instantanée.
Les fiscalités et régulations diffèrent selon les juridictions, complexifiant les transferts d’actions.
Les fuseaux horaires et la structure des marchés rendent difficile la synchronisation des opérations.
Les volumes de marché et la liquidité ne sont pas strictement équivalents sur les deux places.
Les programmes de rachat d’actions sont encadrés par des règles strictes : prix maximum, période autorisée, finalités déclarées (rémunération, annulation, etc.).
TotalEnergies ne peut donc pas légalement racheter massivement ses actions à Paris pour les revendre sous une autre forme à New York. Autrement dit, la double cotation vise moins à exploiter un arbitrage immédiat qu’à créer un accès direct et stable au marché américain, dans l’objectif d’attirer les investisseurs, d’améliorer la liquidité du titre et, à terme, d’obtenir une meilleure valorisation.
Mise en conformité
Techniquement, ce transfert nécessite une mise en conformité avec les règles de l’autorité de marchés américaine, la Securities and Exchange Commission (SEC) :
Un reporting financier aux normes comptables du pays, l’United States Generally Accepted Accounting Principles (US GAAP).
Une application drastique de la loi Sarbanes-Oxley qui oblige toutes les sociétés publiques à faire rapport de leurs contrôles comptables internes à la SEC.
La nomination d’un représentant légal aux États-Unis.
L’adaptation des structures internes à cette nouvelle configuration réglementaire et boursière.
L’exemple de TotalEnergies renvoie à celui de STMicroelectronics, dont la double cotation (Paris et NYSE) existe depuis son introduction en bourse, en 1994. Dans les années 2000, la liquidité du titre s’est déplacée progressivement vers New York, en raison d’une valorisation plus favorable et d’une structure actionnariale influencée par les fonds d’investissements états-uniens.
Maximisation de la valeur actionnariale
Le choix d’une double cotation répond à une logique bien ancrée depuis la révolution libérale des années 1980, impulsée par Milton Friedman et l’école de Chicago : celle de la maximisation de la valeur actionnariale.
À lire aussi : Deux conceptions de l’entreprise « responsable » : Friedman contre Freeman
TotalEnergies s’illustre avec un retour sur capitaux employés de 19 %, le plus élevé de toutes les majors pétrolières. Le groupe offre un rendement exceptionnel pour ses actionnaires : un dividende de 3,22 euros par action en 2024, soit une progression de 7 %. Le rendement moyen est de 5,74 % sur les cinq dernières années, contre 3 % pour l’ensemble des valeurs du CAC 40.
Son président-directeur général Patrick Pouyanné défend le choix d’une politique de distribution de dividendes soutenue lors de son discours à l’assemblée générale du groupe du 23 mai 2025 :
« Je sais aussi ce qui vous tient le plus à cœur, à travers ces échanges, c’est la pérennité de la politique du retour à l’actionnaire et notamment du dividende. Laissez-moi vous rassurer tout de suite, TotalEnergies n’a pas baissé son dividende depuis plus de quarante ans, même lorsque votre compagnie a traversé des crises violentes comme celle liée à la pandémie de Covid-19, et ce n’est pas aujourd’hui ni demain que cela va commencer. »
Les résolutions sur l’approbation des comptes et l’affectation du résultat soumises à l’assemblée générale du 23 mai 2025 ont recueilli plus de 99 % de votes favorables. Ces scores confortent la direction dans sa trajectoire conforme aux principes de la gouvernance actionnariale.
Prime de valorisation
Dans cette optique, la cotation à New York est d’autant plus attrayante qu’elle s’accompagne d’une prime de valorisation. En 2024, les certificats ADR TotalEnergies ont progressé de 8,6 % en dollars contre 1,4 % pour l’action à Paris).
Les gains de valeur boursière générés par une double cotation sont clairement avérés. Dans une étude publiée en 2010, la Federal Reserve Bank of New York démontre que les entreprises cotées qui s’introduisent sur un marché de prestige supérieur (comme Wall Street) « enregistrent des gains de valorisation significatifs durant les cinq années suivant leur introduction en bourse ».
La littérature académique met en évidence que la cotation croisée favorise une couverture accrue par les analystes financiers, en particulier américains. Cette visibilité renforcée améliore la diffusion de l’information, réduit l’asymétrie d’information entre l’entreprise et les investisseurs et renforce ainsi la confiance des marchés. Elle influence directement le coût du capital : les investisseurs sont prêts à financer l’entreprise à un taux réduit, car ils perçoivent un risque moindre. En d’autres termes, une entreprise mieux suivie, plus claire et mieux valorisée sur les marchés peut obtenir des financements à des conditions avantageuses.
Green Deal européen
TotalEnergies justifie son projet par des considérations économiques et financières. Mais ce repositionnement intervient dans un contexte réglementaire européen tendu, marqué par une montée en puissance des exigences de transparence, de durabilité et de prise en compte des parties prenantes au-delà des seuls actionnaires. Cette logique, inspirée de l’approche dite de la stakeholder value, est promue, notamment, par R. Edward Freeman (1984).
Cette dynamique est aujourd’hui remise en question. Les débats se cristallisent autour de la législation Omnibus, qui cherche à assouplir certaines exigences du cadre ESG, issu du Green Deal (pacte vert) européen, souvent critiqué pour ses répercussions possibles sur la compétitivité des entreprises européennes.
Dans le cadre du Green Deal, la directive Corporate Sustainability Reporting et les normes ESRS E1 (European Sustainability Reporting Standards) renforcent la transparence des grandes entreprises de plus de 1 000 salariés, selon la dernière proposition de la Commission européenne, en matière de risques climatiques et de leurs impacts environnementaux. En ce sens, ces directives offrent des leviers de contrôle supplémentaires aux parties prenantes désireuses d’interroger certaines stratégies de grandes entreprises comme TotalEnergies, notamment climatiques.
ESG et monde décarboné
Selon les deux derniers rapports de durabilité de TotalEnergies, la part des investissements durables du groupe (au sens de la taxonomie verte européenne mise en place dans le cadre du Green Deal) est tombée à 20,9 % en 2024, contre 28,1 % en 2023.
Lors de la dernière assemblée générale, Patrick Pouyanné a défendu cette orientation en soulignant notamment :
« Tant que nous n’aurons pas construit un système énergétique mondial décarboné, fiable et abordable, nous devrons continuer à investir dans les énergies traditionnelles. »
En déplaçant partiellement son centre de gravité vers les États-Unis, TotalEnergies consoliderait de facto son ancrage à un marché financier américain globalement moins en attente en matière d’ESG. Ainsi, lors de son audition au Sénat en avril 2024, Patrick Pouyanné soulignait :
« Du fait notamment du poids des critères environnementaux, sociaux et de gouvernance en Europe, la base d’actionnaires européens de TotalEnergies diminue […] alors que les actionnaires américains achètent TotalEnergies. »

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
27.07.2025 à 10:14
Comment la modélisation peut aider à mieux gérer la ressource en eau
Texte intégral (2304 mots)

Alors que les arrêtés de restriction d’usage de l’eau en raison de la sécheresse se multiplient depuis le début du mois de juin 2025, une question se pose : peut-on mieux prévoir l’évolution de ces ressources grâce aux outils numériques ? Les aquifères (roches poreuses souterraines) et la complexité de leurs structures sont difficiles à appréhender pour les chercheurs depuis la surface de la Terre. La modélisation numérique a beaucoup à apporter à leur connaissance, afin de mieux anticiper les épisodes extrêmes liés à l’eau et mieux gérer cette ressource.
Les eaux souterraines, qui représentent 99 % de l’eau douce liquide sur terre et 25 % de l’eau utilisée par l’homme, constituent la plus grande réserve d’eau douce accessible sur la planète et jouent un rôle crucial dans le développement des sociétés humaines et des écosystèmes.
Malheureusement, les activités anthropiques affectent fortement la ressource, que ce soit par une augmentation de la demande, par l’imperméabilisation des surfaces ou par différentes contaminations…
À ces menaces s’ajoutent les perturbations des cycles et des processus naturels. Le changement climatique entraîne ainsi des modifications des régimes hydrologiques, telles que la répartition annuelle des pluies et leur intensité, ainsi que l’augmentation de l’évaporation.
Si remédier à cette situation passe par une adaptation de nos comportements, cela exige également une meilleure connaissance des hydrosystèmes, afin de permettre l’évaluation de la ressource et de son évolution.
Sa gestion pérenne, durable et résiliente se heurte à de nombreuses problématiques, aussi rencontrées dans le secteur énergétique (hydrogène, géothermie, stockage de chaleur, stockage de CO₂…
Il s’agit donc de considérer les solutions mises en place dans ces secteurs afin de les adapter à la gestion des ressources en eau. Ce savoir-faire vise à obtenir une représentation 3D de la répartition des fluides dans le sous-sol et à prédire leur dynamique, à l’instar des prévisions météorologiques.
Les aquifères : des formations géologiques diverses et mal connues
Comme l’hydrogène, le CO2 ou les hydrocarbures, l’eau souterraine est stockée dans la porosité de la roche et dans ses fractures, au sein de « réservoirs » dans lesquels elle peut circuler librement. On parle alors d’aquifères. Ces entités géologiques sont par nature très hétérogènes : nature des roches, épaisseur et morphologie des couches géologiques, failles et fractures y sont légion et affectent fortement la circulation de l’eau souterraine.

Pour comprendre cette hétérogénéité du sous-sol, les scientifiques n’ont que peu d’informations directes.L’étude de la géologie (cartographie géologique, descriptions des différentes unités lithologiques et des réseaux de failles et fractures, étude de carottes de forage) permet de comprendre l’organisation du sous-sol.
Les géologues utilisent également des informations indirectes, obtenues par les techniques géophysiques, qui permettent de déterminer des propriétés physiques du milieu (porosité, perméabilité, degré de saturation…) et d’identifier les différentes zones aquifères.
Enfin, grâce à des prélèvements d’échantillons d’eau et à l’analyse de leurs compositions (anions et cations majeurs ou traces, carbone organique ou inorganique, isotopes), il est possible de déterminer l’origine de l’eau (eau météorique infiltrée, eau marine, eau profonde crustale…), les terrains drainés, mais également les temps de résidence de l’eau au sein de l’aquifère.
Ces travaux permettent alors d’obtenir une image de la géométrie du sous-sol et de la dynamique du fluide (volume et vitesse d’écoulement de l’eau), constituant une représentation conceptuelle.
Modéliser le comportement des eaux sous terre
Cependant, les données de subsurface collectées ne reflètent qu’une faible fraction de la complexité géologique de ces aquifères. Afin de confronter les concepts précédemment établis au comportement réel des eaux souterraines, des représentations numériques sont donc établies.
Les modèles numériques du sous-sol sont largement utilisés dans plusieurs champs d’application des géosciences : les énergies fossiles, mais aussi le stockage géologique de CO₂, la géothermie et bien sûr… la ressource en eau !
Dans le domaine de l’hydrogéologie, différentes techniques de modélisation peuvent être utilisées, selon le type d’aquifère et son comportement hydrodynamique.
Les aquifères sédimentaires profonds constitués de couches de sédiments variés sont parfois situés à des profondeurs importantes. C’est, par exemple, le cas des formations du miocène, de plus de 350 mètres d’épaisseur, de la région de Carpentras, qui abritent l’aquifère du même nom. Celles-ci vont se caractériser par une forte hétérogénéité : plusieurs compartiments aquifères peuvent ainsi être superposés les uns sur les autres, séparés par des intervalles imperméables (aquitards), formant un « mille-feuille » géologique.
Représenter la complexité des aquifères
La distribution de ces hétérogénéités peut alors être modélisée par des approches géostatistiques, corrélées à des informations de structure (histoire géologique, déformations, failles…). On parle de « modèles distribués », car ils « distribuent » des propriétés géologiques (nature de la roche, porosité, perméabilité…) de manière spatialisée au sein d’une grille numérique 3D représentant la structure de l’aquifère.
Ces modèles distribués se complexifient lorsque l’aquifère est fracturé et karstique. Ces systèmes hydrogéologiques sont formés par la dissolution des roches carbonatées par l’eau météorique qui s’infiltre, le plus souvent le long des failles et fractures. Ces aquifères, qui sont très largement répandus autour de la Méditerranée (aquifères des Corbières, du Lez, ou des monts de Vaucluse…), ont une importante capacité de stockage d’eau.
Ils se caractérisent par des écoulements souterrains avec deux voire trois vitesses d’écoulement, chacune associée à un milieu particulier : lente dans la roche, rapide au sein des fractures, très rapide dans les drains et conduits karstiques avec des échanges de fluide entre ces différents milieux. Les approches distribuées s’appuient alors sur autant de maillages (représentation numérique d’un milieu) que de milieux contribuant à l’écoulement, afin de modéliser correctement les échanges entre eux.
Anticiper les épisodes extrêmes et alerter sur les risques
Le point fort des approches distribuées est de pouvoir définir, anticiper et visualiser le comportement de l’eau souterraine (comme on le ferait pour un front nuageux en météorologie), mais également de positionner des capteurs permanents (comme cela a été abordé dans le projet SENSE) pour alerter de façon fiable les pouvoirs publics sur l’impact d’un épisode extrême (pluvieux ou sécheresse).
En outre, elles sont le point de passage obligé pour profiter des derniers résultats de la recherche sur les « approches big data » et sur les IA les plus avancées. Cependant, les résultats obtenus dépendent fortement des données disponibles. Si les résultats ne donnent pas satisfaction, il est nécessaire de revoir les concepts ou la distribution des propriétés. Loin d’être un échec, cette phase permet toujours d’améliorer notre connaissance de l’hydrosystème.
Des modélisations dites « globales » assez anciennes reliant par des modèles de type boîte noire (déjà parfois des réseaux neuronaux !) les données de pluie mesurées aux niveaux d’eau et débits observés ont également été mises au point à l’échelle de l’aquifère. Elles sont rapides et faciles d’utilisation, toutefois mal adaptées pour visualiser et anticiper l’évolution de la recharge et des volumes d’eau en place dans un contexte de changements globaux, avec notamment la multiplication des évènements extrêmes.
Loin d’être en concurrence, ces approches doivent être considérées comme complémentaires. Une première représentation du comportement actuel de l’aquifère peut être obtenue avec les approches globales, et faciliter l’utilisation et la paramétrisation des approches distribuées.
Des outils d’aide à la décision
Ces dernières années, la prise en considération des problématiques « eau » par les pouvoirs publics a mis en lumière le besoin d’évaluation de cette ressource. Le développement d’approches méthodologiques pluridisciplinaires couplant caractérisation et modélisation est une des clés pour lever ce verrou scientifique.
De tels travaux sont au cœur de nombreux programmes de recherche, comme le programme OneWater – Eau bien commun, le programme européen Water4all ou l’ERC Synergy KARST et de chaires de recherche telles que GeEAUde ou EACC.
Ils apportent une meilleure vision de cette ressource dite invisible, et visent à alerter l’ensemble des acteurs sur les problèmes d’une surexploitation ou d’une mauvaise gestion, à anticiper les impacts des changements globaux tout en fournissant des outils d’aide à la décision utilisables par les scientifiques, par les responsables politiques et par les consommateurs.

André Fourno a reçu des financements de OneWater – Eau Bien Commun.
Benoit Noetinger a reçu des financements de European research council
Youri Hamon a reçu des financements de OneWater – Eau Bien Commun.
24.07.2025 à 20:05
La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance
Texte intégral (3398 mots)
Les aires marines protégées sont-elles vraiment efficaces pour protéger la vie marine et la pêche artisanale ? Alors que, à la suite de l’Unoc-3, des États comme la France ou la Grèce annoncent la création de nouvelles aires, une étude, parue ce 24 juillet dans la revue Science, montre que la majorité de ces zones reste exposée à la pêche industrielle, dont une large part échappe à toute surveillance publique. Une grande partie des aires marines ne respecte pas les recommandations scientifiques et n’offre que peu, voire aucune protection pour la vie marine.
La santé de l’océan est en péril, et par extension, la nôtre aussi. L’océan régule le climat et les régimes de pluie, il nourrit plus de trois milliards d’êtres humains et il soutient nos traditions culturelles et nos économies.
Historiquement, c’est la pêche industrielle qui est la première source de destruction de la vie marine : plus d’un tiers des populations de poissons sont surexploitées, un chiffre probablement sous-estimé, et les populations de grands poissons ont diminué de 90 à 99 % selon les régions.
À cela s’ajoute aujourd’hui le réchauffement climatique, qui impacte fortement la plupart des écosystèmes marins, ainsi que de nouvelles pressions encore mal connues, liées au développement des énergies renouvelables en mer, de l’aquaculture et de l’exploitation minière.
Les aires marines protégées, un outil efficace pour protéger l’océan et l’humain
Face à ces menaces, nous disposons d’un outil éprouvé pour protéger et reconstituer la vie marine : les aires marines protégées (AMP). Le principe est simple : nous exploitons trop l’océan, nous devons donc définir certaines zones où réguler, voire interdire, les activités impactantes pour permettre à la vie marine de se régénérer.
Les AMP ambitionnent une triple efficacité écologique, sociale et climatique. Elles permettent le rétablissement des écosystèmes marins et des populations de poissons qui peuvent s’y reproduire. Certaines autorisent uniquement la pêche artisanale, ce qui crée des zones de non-concurrence protégeant des méthodes plus respectueuses de l’environnement et créatrices d’emplois. Elles permettent aussi des activités de loisirs, comme la plongée sous-marine. Enfin, elles protègent des milieux qui stockent du CO2 et contribuent ainsi à la régulation du climat.

Dans le cadre de l’accord mondial de Kunming-Montréal signé lors de la COP 15 de la biodiversité, les États se sont engagés à protéger 30 % de l’océan d’ici 2030. Officiellement, plus de 9 % de la surface des océans est aujourd’hui sous protection.
Pour être efficaces, toutes les AMP devraient, selon les recommandations scientifiques, soit interdire la pêche industrielle et exclure toutes les activités humaines, soit en autoriser certaines d’entre elles, comme la pêche artisanale ou la plongée sous-marine, en fonction du niveau de protection. Or, en pratique, une grande partie des AMP ne suivent pas ces recommandations et n’excluent pas les activités industrielles qui sont les plus destructrices pour les écosystèmes marins, ce qui les rend peu, voire pas du tout, efficaces.
Réelle protection ou outil de communication ?
En effet, pour atteindre rapidement les objectifs internationaux de protection et proclamer leur victoire politique, les gouvernements créent souvent de grandes zones protégées sur le papier, mais sans réelle protection effective sur le terrain. Par exemple, la France affirme protéger plus de 33 % de ses eaux, mais seuls 4 % d’entre elles bénéficient de réglementations et d’un niveau de protection réellement efficace, dont seulement 0,1 % dans les eaux métropolitaines.
Lors du Sommet de l’ONU sur l’océan qui s’est tenu à Nice en juin 2025, la France, qui s’oppose par ailleurs à une réglementation européenne visant à interdire le chalutage de fond dans les AMP, a annoncé qu’elle labelliserait 4 % de ses eaux métropolitaines en protection forte et qu’elle y interdirait le chalutage. Le problème, c’est que la quasi-totalité de ces zones se situe dans des zones profondes… où le chalutage de fond est déjà interdit.
La situation est donc critique : dans l’Union européenne, 80 % des aires marines protégées en Europe n’interdisent pas les activités industrielles. Pis, l’intensité de la pêche au chalutage de fond est encore plus élevée dans ces zones qu’en dehors. Dans le monde, la plupart des AMP autorisent la pêche, et seulement un tiers des grandes AMP sont réellement protégées.
De plus, l’ampleur réelle de la pêche industrielle dans les AMP reste largement méconnue à l’échelle mondiale. Notre étude s’est donc attachée à combler en partie cette lacune.
La réalité de la pêche industrielle dans les aires protégées
Historiquement, il a toujours été très difficile de savoir où et quand vont pêcher les bateaux. Cela rendait le suivi de la pêche industrielle et de ses impacts très difficile pour les scientifiques. Il y a quelques années, l’ONG Global Fishing Watch a publié un jeu de données basé sur le système d’identification automatique (AIS), un système initialement conçu pour des raisons de sécurité, qui permet de connaître de manière publique et transparente la position des grands navires de pêche dans le monde. Dans l’Union européenne, ce système est obligatoire pour tous les navires de plus de 15 mètres.
Le problème, c’est que la plupart des navires de pêche n’émettent pas tout le temps leur position via le système AIS. Les raisons sont diverses : ils n’y sont pas forcément contraints, le navire peut se trouver dans une zone où la réception satellite est médiocre, et certains l’éteignent volontairement pour masquer leur activité.
Pour combler ce manque de connaissance, Global Fishing Watch a combiné ces données AIS avec des images satellites du programme Sentinel-1, sur lesquelles il est possible de détecter des navires. On distingue donc les navires qui sont suivis par AIS, et ceux qui ne le sont pas, mais détectés sur les images satellites.

Les aires sont efficaces, mais parce qu’elles sont placées là où peu de bateaux vont pêcher au départ
Notre étude s’intéresse à la présence de navires de pêche suivis ou non par AIS dans plus de 3 000 AMP côtières à travers le monde entre 2022 et 2024. Durant cette période, deux tiers des navires de pêche industrielle présents dans les AMP n’étaient pas suivis publiquement par AIS, une proportion équivalente à celle observée dans les zones non protégées. Cette proportion variait d’un pays à l’autre, mais des navires de pêche non suivis étaient également présents dans les aires marines protégées de pays membres de l’UE, où l’émission de la position via l’AIS est pourtant obligatoire.
Entre 2022 et 2024, nous avons détecté des navires de pêche industrielle dans la moitié des AMP étudiées. Nos résultats, conformes à une autre étude publiée dans le même numéro de la revue Science, montrent que la présence de navires de pêche industrielle était en effet plus faible dans les AMP réellement protégées, les rares qui interdisent toute activité d’extraction. C’est donc une bonne nouvelle : lorsque les réglementations existent et qu’elles sont efficacement gérées, les AMP excluent efficacement la pêche industrielle.
En revanche, nous avons tenté de comprendre les facteurs influençant la présence ou l’absence de navires de pêche industrielle dans les AMP : s’agit-il du niveau de protection réel ou de la localisation de l’AMP, de sa profondeur ou de sa distance par rapport à la côte ? Nos résultats indiquent que l’absence de pêche industrielle dans une AMP est plus liée à son emplacement stratégique – zones très côtières, reculées ou peu productives, donc peu exploitables – qu’à son niveau de protection. Cela révèle une stratégie opportuniste de localisation des AMP, souvent placées dans des zones peu pêchées afin d’atteindre plus facilement les objectifs internationaux.

Une pêche méconnue et sous-estimée
Enfin, une question subsistait : une détection de navire de pêche sur une image satellite signifie-t-elle pour autant que le navire est en train de pêcher, ou bien est-il simplement en transit ? Pour y répondre, nous avons comparé le nombre de détections de navires par images satellites dans une AMP à son activité de pêche connue, estimée par Global Fishing Watch à partir des données AIS. Si les deux indicateurs sont corrélés, et que le nombre de détections de navires sur images satellites est relié à un plus grand nombre d’heures de pêche, cela implique qu’il est possible d’estimer la part de l’activité de pêche « invisible » à partir des détections non suivies par AIS.
Nous avons constaté que les deux indicateurs étaient très corrélés, ce qui montre que les détections par satellites constituent un indicateur fiable de l’activité de pêche dans une AMP. Cela révèle que la pêche industrielle dans les AMP est bien plus importante qu’estimée jusqu’à présent, d’au moins un tiers selon nos résultats. Pourtant, la plupart des structures de recherche, de conservation, ONG ou journalistes se fondent sur cette seule source de données publiques et transparentes, qui ne reflète qu’une part limitée de la réalité.
De nombreuses interrogations subsistent encore : la résolution des images satellites nous empêche de voir les navires de moins de 15 mètres et rate une partie importante des navires entre 15 et 30 mètres. Nos résultats sous-estiment donc la pêche industrielle dans les aires protégées et éludent complètement les petits navires de moins de 15 mètres de long, qui peuvent également être considérés comme de la pêche industrielle, notamment s’ils en adoptent les méthodes, comme le chalutage de fond. De plus, les images satellites utilisées couvrent la plupart des eaux côtières, mais pas la majeure partie de la haute mer. Les AMP insulaires ou éloignées des côtes ne sont donc pas incluses dans cette étude.
Vers une véritable protection de l’océan
Nos résultats rejoignent ceux d’autres études sur le sujet et nous amènent à formuler trois recommandations.
D’une part, la quantité d’aires marines protégées ne fait pas leur qualité. Les définitions des AMP doivent suivre les recommandations scientifiques et interdire la pêche industrielle, faute de quoi elles ne devraient pas être considérées comme de véritables AMP. Ensuite, les AMP doivent aussi être situées dans des zones soumises à la pression de la pêche, pas seulement dans des zones peu exploitées. Enfin, la surveillance des pêcheries doit être renforcée et plus transparente, notamment en généralisant l’usage de l’AIS à l’échelle mondiale.
À l’avenir, grâce à l’imagerie satellite optique à haute résolution, nous pourrons également détecter les plus petits navires de pêche, afin d’avoir une vision plus large et plus complète des activités de pêche dans le monde.
Pour l’heure, l’urgence est d’aligner les définitions des aires marines protégées avec les recommandations scientifiques et d’interdire systématiquement les activités industrielles à l’intérieur de ces zones, pour construire une véritable protection de l’océan.

Raphael Seguin est membre de l'association BLOOM.
David Mouillot a reçu des financements de l'ANR.