11.04.2026 à 00:01
Emilie Letouzey
Que faire des déchets industriels, des gravats ou des résidus d’incinérateur produits au Japon ? Réponse : du territoire. C’est l’objectif du “plan Phenix” à Ôsaka, des terre-pleins construits dans la baie pour enfouir des déchets et prolonger la ville en gagnant sur la mer. Les colonies d’oiseaux menacés qui s’y réfugient pourront-elles s’y maintenir ?
L’article Trash territoire : gérer la technosphère au Japon est apparu en premier sur Terrestres.
« Étrangement, je ne pense pas un instant aux tonnes de déchets enfouis sous mes pieds », Lucie Taïeb, Freshkills, 2020 (p.66)
Baie d’Ōsaka, février 2024
Assise près de la fenêtre du bateau, je regarde s’éloigner les installations industrielles du port d’Ōsaka en essayant d’oublier l’odeur du gasoil qui imprègne la cabine. Quelques minutes plus tard, nous approchons déjà des digues en béton de Shintō, notre destination. Shintō, « l’île nouvelle », est le nom d’un terre-plein artificiel construit dans la mer de la baie d’Ōsaka afin d’y enfouir les déchets du centre du Japon. C’est un site d’enfouissement dit offshore, situé au large de la ville, à 6 km du port et à 2 km de Yumeshima, l’île la plus proche elle aussi constituée de déchets. À vrai dire, Shintō n’est pas encore une île : pour l’heure, c’est une sorte de giga-bassine de 95 hectares partiellement remblayée, où des déchets sont quotidiennement convoyés en barge pour y être enterrés – ou plutôt immergés. Le public n’y a pas accès, à l’exception de la « visite d’étude (kengaku) » qu’organise tous les mois le Centre d’amélioration environnementale du front de mer de la baie d’Ōsaka1, l’entreprise publique qui gère le site. Ce jour-là, nous sommes une vingtaine de participant·es.
Nous voilà sur le quai, assorti·es dans nos gilets de sauvetage orange fluo et nos casques blancs, tous deux floqués d’un logo en forme d’oiseau stylisé censé figurer un phénix. Car Shintō fait partie du « Plan Phenix », un ensemble de quatre terre-pleins destinés à l’enfouissement de déchets, répartis dans la zone portuaire d’Ōsaka. En plus de deux presqu’îles déjà comblées à Amagasaki et à Izumi Sano, deux îles sont en cours de remplissage : Shintō à Ōsaka donc, et Kōbe oki, un autre site distant de 7 kilomètres et rattaché à la ville de Kōbe dans le département voisin de Hyōgo. C’est dans ces deux îles artificielles, immenses infrastructures d’« entreposage contrôlé », que sont actuellement enfouis les déchets industriels et domestiques de la région du Kinki, correspondant à un bassin d’habitation de 22 millions de personnes, à hauteur de 8000 à 10 000 tonnes par jour2. Une partie de ces déchets est composée de mâchefers, ainsi que l’on nomme les cendres d’incinérateurs. D’où le nom de « Plan Phenix » pour le projet, et de « Centre Phenix » pour l’entreprise qui le réalise3 : des cendres renaissent de nouvelles terres. Une fois comblés, les sites d’enfouissement deviennent en effet du territoire. À Shintō, l’enfouissement des déchets a commencé en 2009. Le site est désormais rempli à 50% et pourra être utilisé pendant 10 années encore. Après quoi il sera plein, et deviendra à son tour un territoire.
Après un bref topo sur le déroulé du parcours par monsieur Kotani, l’employé du Centre Phenix qui anime la visite, notre petit troupeau orange et blanc est prestement conduit vers le promontoire d’observation, sans lequel on ne verrait pas grand-chose tant le site est plat, presqu’autant que la mer qui l’entoure. Nous restons un moment sur la petite plateforme à regarder de loin les camions-benne chargés de déchets faisant des allers-retours entre les barges et les bassins, semblables à des jouets colorés. Je reconnais à peine le site que j’ai scruté depuis les cartes satellite, avec ses parties comblées recouvertes de terre et d’autres encore en eau, encadrées par des digues larges de plusieurs dizaines de mètres – car les bassins d’enfouissement ne communiquent évidemment pas avec la mer.
Le vent couvre les explications de monsieur Kotani, que chacun·e fait toutefois mine d’écouter poliment. La plupart des participant·es sont des fonctionnaires des communes de la région ou des professionnels du domaine des déchets. Je suis la seule « habitante ordinaire », inscrite six mois plus tôt pour la visite. Entre temps, j’ai pu rencontrer monsieur Kotani dans les bureaux du Centre Phenix pour un entretien, visiter le site d’enfouissement de Kōbe et éplucher Ilandfill, le bulletin d’information du Plan Phenix publié quinze années durant. Je fais donc moi aussi semblant d’écouter, fascinée par le balai des petits camions-benne et par la vue dégagée sur la baie d’Ōsaka, que je sillonne depuis deux ans dans le cadre d’une enquête ethnographique : devant nous, l’île de Yumeshima et quelques immeubles de la métropole que l’on devine en arrière-plan ; à notre gauche, les terre-pleins d’Amagasaki ; à notre droite, la forêt de la presqu’île de Sakai, elle aussi faite de déchets. Et derrière nous, au loin, les montagnes de la grande île d’Awaji, dont la mythologie japonaise raconte qu’elle a été la première île à être créée par Izanami et Izanagi, le couple de divinités fondatrices du pays4.

Des îles, le Japon en compte 6000, majoritairement montagneuses et couvertes de forêts, souvent très petites mais dont beaucoup sont couvertes d’infrastructures et dont la principale, Honshū, est traversée par la première mégalopole au monde. Que faire des déchets industriels, des gravats, des terres de construction, des sédiments de dragage des ports ? Que faire des résidus produits chaque jour par les 1000 incinérateurs du pays ? Réponse : du territoire. Enterrer, boucher, combler, agrandir des ports et édifier des îles à partir de rien, comme dans les baies de Tōkyō et d’Ōsaka. Si les sites contrôlés d’enfouissement de déchets existent ailleurs dans le monde, au Japon ils n’ont pas seulement remplacé les décharges et autres empilements des bords de ville ou des fonds de vallée : le traitement des déchets est associé à l’agrandissement des zones portuaires. Dans un pays réputé pour son manque de territoire constructible, le Plan Phenix fait ainsi d’une pierre deux coups – « d’une pierre, deux oiseaux », comme on dit au Japon.
Ici, il faut que je précise comment je suis arrivée au Centre Phenix : par les oiseaux, justement. Pas ceux que l’on observe couramment au-dessus des décharges (vous l’aurez compris, les îles en déchets façon Phenix ne sont pas des empilements sauvages ouverts à tous les vents). Si je suis arrivée à Shintō, c’est via l’île voisine de Yumeshima, où des oiseaux migrateurs – sternes, limicoles, canards… – sont venus par milliers durant des décennies : sur le territoire construit avec des déchets et devenu terrain vague car trop longtemps délaissé, des zones humides s’étaient spontanément créées, comme pour remplacer les estrans de la baie, peu à peu bétonnés au cours du 20e siècle. Or, ces zones humides sont vitales pour des oiseaux qui font le trajet le long de la plus grande voie migratoire du monde, la voie de l’Est-Australasie (EAAF). Si l’artificialisation des côtes est la cause principale de leur déclin brutal, il arrive que les oiseaux y trouvent malgré tout un site où séjourner, aussi précaire qu’éphémère. C’est pourquoi, même si cet article porte sur les terre-pleins et les déchets, il se termine auprès des sternes naines (Sterna albifrons), qui nichent désormais à Shintō.
➤ Lire aussi | Perdre les oiseaux・Emilie Letouzey (2024)
Du point de vue des déchets, on devine l’immensité des questions que soulève une infrastructure telle que le Plan Phenix. Encore faut-il les formuler, ce qui n’est pas évident dès lors que l’on veut tenir ensemble les déchets et la fabrication du territoire. Au Japon, où le tri sélectif est méticuleusement ordonné, où le ramassage collectif des déchets est un sport national, où les camions de collecte diffusent des musiques familières et où les incinérateurs ont des mascottes, le monde des déchets paraît familier. Les terre-pleins de la baie d’Ōsaka donnent l’impression de le découvrir depuis un angle inédit, monumental. Pourtant, plus j’enquêtais sur le Plan Phenix, plus j’ai eu l’impression d’un continuum. Avant de dire pourquoi, il me faut partir des terre-pleins en déchets en tant qu’infrastructures : comment sont-ils faits ? Qu’impliquent-ils pour le traitement des déchets au Japon ?
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
Lorsqu’on est dans la zone du port à Ōsaka, on est souvent sur des déchets. En général on ne le sait pas, et même quand on le sait, on l’oublie. Mais j’ai été stupéfaite en découvrant les sites Phenix : malgré plusieurs années de vie à Ōsaka, je n’avais jamais fait attention à ces îles en forme de polygone pourtant bien visibles sur les cartes satellite, que j’utilise fréquemment. Je ne suis pas la seule : il est arrivé que des habitant·es de la région découvrent leur existence alors que nous en parlions. Certes, ces sites sont éloignés de l’expérience ordinaire puisqu’on ne peut pas y aller. Mais pour un enfouissement, c’est gagné : en plus de faire disparaître les déchets, le site lui-même est oublié.

En japonais, « terre-plein » se dit umetate, contraction de umeru, « enterrer » et tateru, « ériger ». Umetatechi, le territoire gagné sur la mer, signifie donc « construire en comblant » – on enfouit et on édifie en même temps – et peut désigner des extensions du territoire existant ou bien des îles créées de toute pièce. Pour la zone du port, le terme est vraiment approprié tant elle est le résultat de creusements et comblements successifs, d’énormes déplacements de matière. À commencer par les sédiments de dragage, qui ont constitué Tenpōzan (la « montagne [de l’ère] Tenpō [1830-1844] »), un monticule résultant d’une vaste opération de dragage des sédiments des fleuves se jetant de part et d’autre du port d’Ōsaka à l’époque d’Edo en 1831, encore bien visible aujourd’hui. Aux sédiments de dragage, produits en quantités d’autant plus grandes que les navires puis les cargos ont eu besoin d’un tirant d’eau de plus en plus profond, se sont ajoutés au 20e siècle – et surtout à partir de 1950 – les terres d’excavation des travaux d’infrastructure, les gravats de construction (produits eux aussi en quantité d’autant plus grande que le renouvellement du bâti est rapide et les séismes fréquents), puis les déchets.

Jusque-là, les déchets étaient entassés tels quels dans des décharges terrestres. À Ōsaka, dans les années 1960, la principale décharge est située sur la zone humide de Tsurumi au nord-est de la ville. Elle a produit un monticule de 40 mètres lui aussi toujours visible aujourd’hui, devenu un parc où affleurent des conduits pour le méthane qui continue à s’échapper du sous-sol5.
Avec la création de nouveaux terrains artificiels sur la mer, des décharges portuaires sont créées, d’abord sur le même principe élémentaire de déversement quotidien des déchets bruts. À Tōkyō, au début des années 1960, une montagne de déchets s’est ainsi formée sur l’île de Yume no shima (« l’île des rêves »). Elle est tellement envahie de mouches qu’on y largue de l’insecticide par hélicoptère. En 1965, les mouches infestent l’arrondissement voisin, provoquant une mobilisation des habitant·es et nécessitant l’intervention des forces d’autodéfense – l’épisode est connu sous le nom de « guerre des ordures »6. Il a engendré un effort national contre les méga-décharges à ciel ouvert.
Sur l’île de Yume no shima à Tōkyō, une montagne de déchets se forme dans les années 1960. Elle est tellement envahie de mouches qu’on y largue de l’insecticide par hélicoptère.
C’est à la même époque qu’apparaissent les premiers projets d’enfouissement des déchets dans des infrastructures maritimes conçues à cette fin. Avec les terre-pleins en déchets, non seulement des déchets sont employés pour combler la baie et fabriquer du territoire, mais combler la baie devient la manière de traiter des flux de déchets en augmentation constante. Une version maritime des « sites d’entreposage finaux (saigo shobunjō) », équivalent japonais des « Centres d’enfouissement techniques » français. L’île de Yumeshima à Ōsaka (autre « île des rêves » homonyme de celle de Tōkyō) et la presqu’île dite « Secteur 7-3 » de la ville voisine de Sakai sont alors les plus vastes sites d’entreposage maritimes du pays. Leur remplissage démarre au début des années 1970, alors qu’au Japon sont promulguées deux lois encadrant d’une part la gestion des déchets et d’autre part les activités industrielles en mer Intérieure de Seto, obligeant à modifier les plans de construction des terre-pleins pour les conformer (étanchéité avec la mer, zonage par catégorie de déchets…)7 ; au même moment, la Convention de Londres interdit les déversements de déchets dans la mer8. Désormais, ces sites accueillent l’essentiel des gravats, sédiments de dragage, terres d’excavation et terres polluées. L’île de Yumeshima est accréditée pour recevoir les cendres des déchets ménagers de la région et de nombreuses catégories de déchets dangereux, dont les PCB ou l’amiante.
De nombreux terre-pleins de la zone du port sont fait de déchets, mais pas tous : combler avec des déchets prend du temps (et l’objectif est justement de faire durer la capacité d’accueil des sites), or il arrive qu’il faille aller vite. Plusieurs îles au large de Kōbe sont par exemple issues du programme « De la montagne à la mer (Yama kara umi e) », qui consistait à extraire de la terre et des pierres dans les montagnes voisines de Sanda et à les convoyer sur d’immenses tapis roulants jusqu’à la côte, d’où elles étaient transportées en barge jusqu’aux chantiers maritimes. Quant à l’aéroport du Kansai (plus de 1000 hectares à près de 20m de profondeur), comblé avec des terres apportées depuis trois montagnes de la région et inauguré en 1994, il a été construit si vite que l’affaissement combiné de la structure et du fond alluvial sous-marin oblige à rehausser régulièrement les pistes9.

Du point de vue du métabolisme urbain, c’est-à-dire de l’étude des flux de matière et d’énergie sur le territoire de la ville, la zone du port est donc le résultat de gigantesques brassages : on y édifie du territoire avec des bouts de montagne ou des gravats, on y coule du béton, on y extrait des sédiments pour les déposer plus loin, on y enfouit les déchets de matières et de marchandises qui, pour beaucoup, y ont un jour transité… L’immense infrastructure qui s’étend en croissant sur 60 km, longtemps support de l’industrie lourde, est en effet lentement gagnée par la logistique et son monde (cargos, containers, grues, entrepôts, routes et camions). C’est dans ce contexte que s’est déployé le Plan Phenix.
La zone du port est le résultat de gigantesques brassages : on y édifie du territoire avec des bouts de montagne ou des gravats, on y coule du béton, on y enfouit les déchets.
Le Plan Phenix de la baie d’Ōsaka (Ōsakawan Fenikkusu keikaku), ou Centre Phenix, est une infrastructure multi-site d’entreposage contrôlé des déchets gérée par une entreprise publique, dont la construction et la maintenance sont assurées par des entreprises privées sous contrat. Le projet, élaboré au milieu des années 1970, est approuvé en 1977. La construction des deux premiers terre-pleins, les presqu’îles d’Izumi Ōtsu au sud d’Ōsaka (203 hectares) et d’Amagasaki au nord (103 hectares), démarre en 1982. Ces deux sites, où des déchets ont été enfouis tout au long des années 1990, ont fermé dans les années 2000 et accueillent désormais des entrepôts logistiques ou des événements (concerts, courses de voiture…). Les deux sites d’enfouissement offshore en cours de remplissage sont plus récents : celui de Kōbe réceptionne des déchets depuis 2001 (88 hectares), et Shintō, à Ōsaka, a donc ouvert en 2009.
Comment construit-on un site d’enfouissement en pleine mer ? Prenons le cas de Shintō, où les travaux d’établissement des fondations commencent en 2001. Première étape : l’amélioration du sol (jiban kairyō). Afin de stabiliser le fond marin situé de 13 à 15 mètres de profondeur et éviter un affaissement des couches alluviales anciennes sous le poids de l’infrastructure, on y enfonce d’épais pieux creux que l’on remplit de sable compacté10. Seconde étape : la construction des fondations. Des pierres – venues de carrières situées sur des îles de la mer Intérieure de Seto – sont empilées, qui vont supporter les digues. Troisième étape : l’installation des caissons sous-marins, qui à Shintō commence en 2005. Quinze caissons en béton de 300 m de long sont immergés et entourés d’une paroi de palplanches en acier destinée à isoler l’infrastructure de l’eau de mer. Les digues extérieures sont ensuite consolidées par un amas de béton destiné à produire un plan incliné11. Toutes ces étapes sont réalisées sous l’eau : c’est le domaine très développé au Japon de la construction marine (marine construction, abrégé en maricon, par opposition à zenecon, general construction, pour les travaux terrestres)12. Enfin, un ensemble de terrassements est réalisé en pierre et terre pour constituer des digues internes, délimiter des secteurs et permettre la circulation des véhicules.
L’ensemble requiert près de dix ans de travaux. C’est pourquoi ce n’est qu’en 2009 que démarre l’enfouissement des déchets à Shintō, déchets que l’on va progressivement déverser dans l’immense réservoir ainsi créé.

Les déchets sont convoyés depuis les neuf bases de chargement réparties sur l’ensemble de la baie, d’où les barges font des allers-retours avec Shintō13. Le Centre Phenix distingue jusqu’à une cinquantaine de catégories de déchets – gravats, boues et cendres contenant ou non du mercure, déchets métalliques, résidus de caoutchouc ou de verre, déchets traités par pyrolyse, etc. – mais les regroupe en 15 catégories sur la grille tarifaire. À l’instar de beaucoup d’infrastructures reconnues d’intérêt public, il faut en effet payer pour l’usage du Centre Phenix : entreprises et municipalités paient au prorata de la quantité et selon la catégorie de déchet, la tonne revenant de 50 à 135 euros (9000 et 25 000 yens)14. Elles doivent fournir des certificats de contenu, acheminer elles-mêmes les déchets sur les bases où ils sont inspectés visuellement et analysés à partir d’échantillonnages. Sur les sites d’enfouissement, les déchets sont ensevelis par catégories générales : les déblais, les déchets généraux, déchets industriels privés, sédiments de dragage, boues d’épuration…15 et des secteurs sont prévus pour les déchets dangereux (amiante, mercure, PCB, etc.), dont l’acceptation est limitée. Pour les autres catégories, les substances polluantes sont réglementées16. (Malgré cette diversité de catégories, les déchets que l’on voit être déversés par les camions benne ressemblent invariablement à du gros sable gris-noir mouillé, comme une purée de déchets.)
➤ Lire aussi | Zoner en territoire contaminé : dans les replis de Fukushima・Sophie Houdart (2026)
Les bassins d’enfouissement sont remplis l’un après l’autre. À Shintō, la quantité maximale de déchets pouvant être traitée en une journée est de 6 000 tonnes, soit 600 camions-bennes. Ces quantités peuvent être temporairement relevées lors d’aléas : à la suite du séisme de terre de Kōbe en janvier 1995, les deux îles du Plan Phenix ont par exemple accueilli 2,8 millions de tonnes de déchets supplémentaires, essentiellement des gravats.
À mesure qu’un bassin se remplit, l’eau de mer qui y est enfermée est évacuée et traitée dans une usine d’épuration flottante17. L’eau y subit une série de traitements – prétraitement mécanique, traitement bactérien, traitement dit de « floculation-décantation », traitement stérilisant – avant d’être rejetée en mer.

Dans son contour actuel, le site de Shintō s’étend sur 95 hectares – « environ 24 [fois la taille du stade de baseball de] Kōshien », pour reprendre l’unité de mesure des surfaces de référence dans la région – et est rempli à hauteur de 50%, ce qui laisse environ dix années supplémentaires d’enfouissement avant remplissage. Le site de Kōbe est quant à lui comblé à 85% et sera rempli d’ici à 2028. Sur les deux îles, des extensions dont on voit clairement les contours sur les photos satellite sont en cours de construction (109 hectares pour Shintō, au moins 200 hectares pour Kōbe). Mais le Centre Phenix ne communique pas sur ces extensions à venir pourtant visibles même depuis le port, et ses employé·es éludent les questions sur les extensions. La raison en est que des évolutions de la loi de protection de la mer Intérieure de Seto pourraient entraver la construction de nouveaux terre-pleins – dans une mer qui compte 700 îles naturelles et une quarantaine de terre-pleins artificiels.
Par ailleurs, à l’instar de nombreuses installations de traitement des déchets, le Centre Phenix se visite, communique auprès du public et a même une mascotte. En 2025, ses employé·es ont par exemple participé au tournage d’un clip vidéo qui met en scène des travailleur·ses des centres de tri, incinérateurs et sites d’enfouissement de la région d’Ōsaka, détournant une chanson du groupe à succès AKB48 afin d’en faire une « Version installations de traitement des déchets [dans la région du] Kansai » (ci-dessous). On peut y voir plusieurs installations Phenix : les bases de chargement, les sites d’enfouissement ou les usines flottantes de traitement de l’eau.
Évoquant davantage un poussin mignon qu’un oiseau mythique, la mascotte du Centre Phenix est donc l’emblème d’un plan de recyclage géant : « les déchets renaissent sous la forme de territoire (gomi ga tsuchi ni yomigaeru) ». On peut cependant demander, à la suite de l’écrivaine Lucie Taïeb à propos de la décharge de Freshkills à New-York : s’agit-il vraiment de « recycler la terre » ?18

Lorsque, de retour en France, je parlais des îles en déchets de la baie d’Ōsaka, la réaction de mes interlocuteur·ices était de les percevoir non pas comme du recyclage ou comme une « renaissance », mais comme une aberration écologique. Ne fuient-elles pas, polluant l’eau ? Ne vont-elles pas se rompre et se répandre dans la mer au prochain séisme ? La réponse rapide à ces questions est « non » : on ne peut exclure des fuites, mais en vertu de la loi déjà mentionnée sur la mer Intérieure de Seto, qui porte essentiellement sur la qualité de l’eau, il y a trop de contrôles pour laisser échapper des pollutions graves19 ; concernant les risques liés aux séismes, le puissant séisme de Kōbe en 1995, qui a affecté la côte nord de la baie, a provoqué de profondes brisures dans le béton des terre-pleins mais ceux-ci ont tenu, y compris les terrains Phenix20. Du fait des techniques d’ingénierie et du système bureaucratique et législatif propres au Japon, le Centre Phenix est un site effectivement contrôlé. Les déchets ne sont plus amoncelés dans des décharges, ils ne quittent pas la technosphère, ni d’ailleurs la région de consommation – même s’ils en sont soustraits (enfouis) et éloignés (offshore) –, alors que l’exportation des déchets des pays riches du Nord dans les pays pauvres du Sud reste courante. Avec Phenix, les déchets finissent dans la mer, non pas sous forme de décharge ou de soupe de plastique, mais confinés dans des boites. Bien rangés.
Avec Phenix, les déchets finissent dans la mer, non pas sous forme de décharge ou de soupe de plastique, mais confinés dans des boites. Bien rangés.
Cela ne veut pas dire que les îles du Centre Phenix ne posent aucun problème écologique : elles en posent.
D’abord non pas tant comme site d’enfouissement que comme terre-pleins construits dans la baie. Ainsi que l’explique le professeur Nabeshima Yasunobu, chercheur retraité du département des ressources halieutiques de la préfecture d’Ōsaka, les terre-pleins du front de mer, en plus d’ensevelir les fonds marins, ont causé leur asphyxie en immobilisant les sédiments pollués charriés par les fleuves et en faisant obstacle aux courants de la baie, ou en les inversant21. Si les populations de poissons sont effondrées depuis longtemps, les « marées bleues (aoshio) » dues à l’asphyxie, qui ont succédé aux « marées rouges (akashio) » causées par la pollution, les empêchent de se reconstituer. « Il aurait fallu interdire les terre-pleins », soutient Nabeshima, qui est encore aujourd’hui sidéré que la population tout entière se soit laissée séparer de la mer et de la pêche par le port industriel. « Mais c’est ainsi : à l’époque de la Haute croissance [1955-1973], tout le monde s’est résigné ». Les terre-pleins du Centre Phenix affectent donc l’écosystème, nonobstant leur programme dit de « Conservation des habitats marins », basé sur des digues sous-marines inclinées plantées d’algues et mené avec des scientifiques et l’ONG Blue Ocean. Nabeshima, qui en fait lui-même partie, déplore ce pis-aller, qui relève à ses yeux du pur greenwashing (un terme employé tel quel en japonais). Rien que pour cela, le « Centre d’amélioration environnementale du front de mer de la baie d’Ōsaka » porte mal son nom car il n’améliore pas la baie mais la détériore.
Quant au Plan Phenix en tant que site d’enfouissement des déchets, il oblige à étendre l’analyse environnementale à la chaîne des déchets : considéré seul, il semble se dérober.
Que les déchets soient massivement enfouis pour devenir du territoire n’est pas nouveau et on trouve partout dans le monde des villes en partie construites sur des détritus du passé. Mais le Plan Phenix date d’une époque bien particulière, les années 1970-1980, où dans de nombreux pays industriels, on passe d’un paradigme de l’abandon basé sur la décharge (on empile les déchets tels quels) à un paradigme de la gestion basé sur des techniques de « traitement », notamment l’incinération et l’enfouissement22. Au Japon, c’est par centaines que l’on construit des incinérateurs : le pays en compte aujourd’hui près de 1030 (contre 125 incinérateurs en France, pour une population deux fois moins importante), dans lesquels sont brûlés 80% des déchets courants (foyers, PME, établissements publics…), ce qui en fait le premier pays incinérateur au monde, en proportion comme en quantité23. Les incinérateurs ayant « besoin » de déchets à brûler pour fonctionner – déchets dont ils permettent de réduire la masse de 85% en moyenne – leur seule existence est un appel à alimenter un flux constant de déchets. L’existence d’infrastructures d’enfouissement telles que les terre-pleins en déchets a permis d’absorber l’explosion de la production d’artefacts de la société de consommation et du déménagement de territoire par le secteur du BTP, et même de la « valoriser » en produisant du territoire24.
Outre que la gestion technique des déchets est elle-même à l’origine de graves cas de pollution (notamment à la dioxine25), elle a non seulement permis l’explosion des quantités de déchets (davantage qu’elle ne l’a « solutionné ») mais également créé un puissant verrou technique du fait de son besoin de déchets. La gestion des déchets est donc structurellement dépendante de leur production, et empêche leur réduction. En tant qu’installation de traitement des déchets, le Plan Phenix participe de cette incitation systémique à la production : il n’est donc pas un problème écologique en lui-même mais en tant que maillon d’un système. Son modèle économique repose sur l’enfouissement constant de déchets puisque l’entreprise Centre Phenix dépend du paiement à la tonne des déchets qu’elle réceptionne. Surtout, sa configuration en « giga-bassine » incite au remplissage.
Les terre-plein en déchets ont permis d’absorber l’explosion des déchets du secteur du BTP et de la production d’artefacts, et même de la “valoriser” en produisant du territoire.
Les rares opposant·es au Plan Phenix qui se sont mobilisé·es à Ōsaka dans les années 1990 l’avaient bien compris. Parmi eux, l’Association pour éliminer la pollution à Ōsaka écrivait : « Avec des îles en déchets, tout ce que vous ferez pour réduire les déchets sera vain : à quoi bon réduire quand on peut remplir de tels volumes ? Les terre-pleins passent pour une solution mais ils sont l’obstacle suprême au problème des déchets26 ».
➤ Lire aussi | L’écologie de M. Propre・Baptiste Monsaingeon (2019)
Je disais plus haut que ma découverte du Plan Phenix est venue bouleverser l’expérience des déchets que j’avais jusque-là. Au Japon, l’importance accordée aux déchets dans la vie courante donne l’impression d’une véritable culture de la gestion des déchets. Mon enquête, suscitée par les îles en déchets de la baie, a d’abord confirmé cette impression. Alors que je découvrais, fascinée, les installations de traitement des déchets de la région, je constatais que toutes sont équipées pour recevoir du public – près de la moitié des Japonais·es en visitent au moins une au cours de leur vie27. Je participai régulièrement à des sessions de ramassage de déchets, à des ateliers sur les déchets et même à des fêtes des déchets. Je finissais par me dire : voilà un pays qui surproduit et qui le sait, mais qui prend le sujet à bras le corps.

Si le Plan Phenix m’a d’abord semblé si différent de ce petit monde des déchets devenu familier, c’est en raison de son ampleur. Dès lors qu’il s’agit de remplir la mer, de fabriquer du territoire et de refaçonner la baie, on ne peut plus se raconter que la gestion des déchets se résout avec du tri et des installations bien conçues. À mesure que j’explorais le Plan Phenix, cet écart s’atténua toutefois, et finit par disparaître : la raison en est que la communication de l’entreprise Phenix est elle aussi fondée sur cette même culture de la gestion des déchets du quotidien. Les bulletins Ilandfill publiés par l’entreprise ou les événements qu’elle organise promeuvent le ramassage citoyen des déchets ou les notions désormais bien connues de zéro déchet, d’upcycling, ou de « 5R » (acronyme pour « Refuser, Réduire, Réutiliser, Recycler et Rendre à la terre »). L’écart initial avait donc laissé la place à un continuum, celui des petits gestes individuels (bien ranger nos déchets), mais surtout celui de la gestion. C’est en effet le corolaire d’une culture du déchet largement partagée : elle enferme l’attention non seulement sur la gestion des déchets déjà là, mais aussi sur les seuls déchets à portée de gestion des citoyens : les déchets domestiques. Il n’est jamais question de production. Et surtout, il n’est jamais question de la part colossale des déchets : les déchets industriels.
Il n’est jamais question de production. Et surtout, il n’est jamais question de la part colossale des déchets : les déchets industriels.
Que se passe-t-il quand on regarde la littérature sur les déchets et sur les flux métaboliques ? « Apparaissent alors les 98,5% de déchets restants, cette masse incommensurable et toxique produite par nos industries », comme l’écrit Lucie Taïeb dans Freshkills28. Apparaissent les centaines et milliers de tonnes quotidiennement enfouies à Shintō et à Kōbe de sédiments, de gravats, de scories, de terres et de boues polluées, de plastiques et de caoutchouc, toutes ces catégories que l’on trouve dans les grilles tarifaires du Centre Phenix, mais que l’on ne distingue pas dans la purée noire des déchets déversés en continu par les camion-bennes. « Apparaître » est un bien grand mot : pas plus les photos ou les visites sur place que les données de la littérature ne laissent percevoir cette part de déchets industriels, écrasante partout dans le monde. 90% selon l’Association pour faire disparaître la pollution à Ōsaka, 97% selon l’anthropologue Max Liboiron, 98,5%, donc, selon les recherches de Lucie Taïeb – un pourcentage estimé qui dépend surtout de la manière de compter. Sans cette part industrielle, la raison d’être du Plan Phenix disparaitrait : quel besoin de produire une infrastructure parmi les plus lourdes et les plus compactes qui soient, si on n’avait à traiter que 3 ou même 10% du total des déchets ? L’énormité métabolique des déchets industriels est soustraite à l’expérience ordinaire, elle circule en circuit plus ou moins fermé dans les carrières, les cargos, les usines, les chantiers, les camions et enfin les barges et les bassins où elle est engloutie. De la même manière, la question des déchets se limite pour le public aux quelques pourcents dont il a l’expérience, dans un circuit tout aussi fermé.
➤ Lire aussi | Accumuler de la matière, laisser des traces・Nelo Magalhães (2019)
Que la gestion des déchets encourage systémiquement leur production et empêche leur réduction, et que la question des déchets soit polarisée sur la sphère domestique en laissant dans l’ombre la production détritique industrielle, ce sont là deux constats classiques pour les rudologues, ainsi qu’on appelle les spécialistes des déchets. Des constats si massifs que l’on bute sur eux sans pouvoir les dépasser. Pourtant, étrangement, une fois le vertige initial atténué, j’ai fini par m’y habituer, à ces constats. Peut-être parce que, dans mon exploration du Plan Phenix, j’ai trouvé je crois plus vertigineux encore : les projections d’aménagement des deux îles offshore d’Ōsaka et de Kōbe. Pour celle-ci, un dessin sur le site de la mairie figure l’île étendue et couverte de piles de containers ; pour Shintō à Ōsaka, une carte prospective de la zone du port indique plus de 80 hectares terminaux à containers. Ces territoires en déchets sont donc dévolus au transport de marchandises. Celles-ci étant amenées à devenir des déchets, la boucle est bouclée – et perpétuée.

Voilà donc le projet : faire transiter des petites boites à marchandise sur des grosses boites à déchets, du neuf sur du mort, sur l’immense envers mort et immergé de l’industrie et du libre-échange. Un projet qui entérine la production de masse et la croissance, précisément ce qu’il faudrait cesser pour diminuer les déchets. « L’obstacle suprême au problème des déchets » n’est-il pas là, dans ce monde de la logistique en constante expansion ? Plus encore que les sites du Plan Phenix, les ports à containers permettent et alimentent ce qu’on pourrait appeler une « chaîne détrimentale »29 de matières et de choses, qui se perpétue au détriment de : de l’environnement, des milieux de vie, des humains et du vivant. Pour finir en détritus.
Voilà donc le projet : faire transiter des petites boites à marchandise sur des grosses boites à déchets, du neuf sur du mort, sur l’immense envers mort et immergé de l’industrie et du libre-échange.
Retour sur l’île de Shintō.
Tous les jours à 17 heures, les employé·es du Centre Phenix repartent en bateau vers la ville, ne laissant derrière eux que le ronron des moteurs de l’usine de traitement de l’eau, entièrement automatisée. D’avril à juillet, un bruissement émane pourtant des terrains caillouteux qui bordent les bassins d’enfouissement. C’est celui des milliers de sternes naines (Sternula albifrons), une espèce d’oiseau maritime classée vulnérable au Japon.
Pendant plus de vingt ans, les sternes nichaient non loin de là, sur les terrains alors délaissés de l’île voisine de Yumeshima. Pour ces migratrices qui viennent nicher dans le sable ou les cailloux après avoir fait des milliers de kilomètres d’une traite depuis l’Australie le long de la voie migratoire austral-asiatique, la baie d’Ōsaka fait partie depuis toujours des habitats parfaits : une énorme zone humide faite d’estrans et de deltas. Du moins jusqu’à l’artificialisation du 20e siècle, qui s’est d’autant plus acharnée sur les zones humides du monde entier que la plupart sont sur des estuaires devenus entre temps des mégapoles. Alors, pour les sternes, qui nichent à même le sol, tout terrain caillouteux est bon à prendre, même celui des terre-pleins en déchets. Délogées de celui de Yumeshima par des chantiers dans les années 2020, c’est sur les terrains tout neufs de Shintō qu’elles sont venues s’établir.
Un lieu de repli propice : aucun humain la nuit, et pas de chat comme à Yumeshima où ils sont venus par la route. Si bien que, d’après l’ornithologue Moriya Toshifumi et son groupe de recherche sur les oiseaux de rivage, les îles du Plan Phenix sont désormais le premier site du pays pour les sternes : on estime que plus du tiers des sternes venues au Japon en 2025 a niché sur Shintō et sur l’île de Kōbe.

Durant les mois où les sternes sont là, le Centre Phenix fait dévier les trajets des camions afin qu’ils n’approchent pas des zones de nichée. L’entreprise coopère également à l’organisation d’enquêtes avec les membres de la Branche d’Ōsaka de l’Association des oiseaux sauvages et du Groupe d’enquête sur les êtres vivants de Yumeshima (deux collectifs dont je suis membre). Sur la base des données récoltées, on a estimé le nombre de sternes à 2500 en 2023 puis à plus de 5000 en 2025. Mais le Centre Phenix ne souhaite pas rendre l’information publique : même si le site est connu jusqu’au Ministère de l’environnement, consigne est donnée de ne pas avertir les journalistes. Une posture bien comprise par les associations de protection de la nature, s’agissant d’une situation advenue sur le site d’une entreprise dont l’activité n’est pas d’accueillir des oiseaux, ni de les protéger. Abriter officiellement une population d’oiseaux classés sur liste rouge des espèces menacées ne va en effet pas sans contraintes30.
Les îles du Plan Phenix sont désormais le premier site du pays pour les sternes : on estime que plus du tiers des sternes venues au Japon en 2025 a niché sur Shintō et sur l’île de Kōbe.
Lorsque Shintō sera plein et transformé en terrain, l’entreprise Phenix cèdera l’île au Bureau du port d’Ōsaka. Plutôt qu’un énième méga-port à container, ne peut-on pas y aménager un sanctuaire pour les oiseaux ? Un parc comme les îles en déchet de Tōkyō31 ou de Singapour32 ? C’est en tout cas ce que l’Association des oiseaux sauvages et du Groupe d’enquête sur les êtres vivants de Yumeshima se préparent aujourd’hui à demander, avec le soutien de l’ONG Bird life International. Car à Yumeshima, les années d’enquête et de plaidoyer ont échoué : outre un complexe avec casino prévu pour 2030, il est question de faire un circuit automobile sur le site de l’Expo 2025. C’est justement l’argument que les associations entendent utiliser : on n’a pas eu Yumeshima, donnez-nous Shintō pour les oiseaux. L’île leur reviendra-elle un jour ? Les mégaprojets seront-ils abandonnés ? Réponse dans 10 ans.
Restera-t-il seulement des sternes ?
Cet article est le troisième volet d’une série sur la baie d’Ōsaka. Déja parus dans Terrestres : Voitures volantes et vieux rêves capitalistes (juillet 2024) et Perdre les oiseaux (octobre 2024).

NOUS AVONS BESOIN DE VOUS !
Depuis 2018, Terrestres est la revue de référence des écologies radicales.
À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.
Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.
En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.
Merci
!
L’article Trash territoire : gérer la technosphère au Japon est apparu en premier sur Terrestres.
31.03.2026 à 14:58
Evgeny Morozov
Un socialisme avec IA peut-il être autre chose qu’un capitalisme avec une interface améliorée ? Si le socialisme entend employer l’IA pour contribuer à une vie meilleure, prévient Evgeny Morozov, alors il lui faudra revoir entièrement son rapport à la technologie, abordée jusque-là comme un outil neutre à intégrer dans la société et ses institutions.
L’article Le socialisme après l’IA est apparu en premier sur Terrestres.
Il y a quelques semaines, l’historien des techniques Guillaume Carnino pointait dans un article très documenté les limites d’une proposition de planification écologique venant de la gauche mélenchoniste. Il rappelait l’énorme matérialité du numérique, la puissance d’inertie des systèmes techniques et l’importance de l’histoire de l’industrialisation, dont la connaissance peut éviter de propager des représentations erronées sur la nature des changements colossaux à entreprendre.
Dans le sillage de ce débat, nous publions ce texte d’Evgeny Morozov, chercheur américain d’origine biélorusse, spécialiste du progrès technique et du numérique et de leurs implications politiques et sociales, connu notamment pour sa notion de « technosolutionnisme ».
Pour une part, ce texte poursuit l’analyse technocritique déployée par Carnino et Terrestres en montrant que la pensée socialiste se leurre en considérant la technologie comme un instrument neutre qui pourrait servir le « bien commun », une fois débarrassé des rapports de production capitalistes. La critique de Morozov est complémentaire au sens où elle formule d’autres arguments et ouvre encore davantage l’espace des problèmes que des mondes post-capitalistes auront à résoudre. Cependant, un aspect essentiel de cet article le fait diverger des analyses que nous publions régulièrement : Morozov passe sous silence la participation active des promoteurs de l’IA a l’écocide ainsi que l’énorme infrastructure qu’elle requiert.
Comme l’indique le chercheur Félix Tréguer dans un commentaire sur cet article de Morozov, « l’IA est fétichisée comme le véhicule idéal pour la fabrication de mondes socialistes – “expérimentation, découverte, le pouvoir de faire des mondes à partir d’idées” dont la médiation est désormais faite par le biais de cette technologie puissante. Le marché est fini, l’IA distribuée prend le relai – mais une nuance prométhéenne persiste. »
Alors que Morozov part d’un regard technocritique sur un courant du socialisme contemporain, son propos tombe ensuite sous le coup de cette même critique dès lors qu’il envisage une IA coupée de sa base matérielle, énergétique et infrastructurelle. Notre culture serait-elle si fondamentalement pro-technologie et habitée par l’idée que les sciences et les techniques permettent de nous arracher à la terre et à ses limites, que nous avons encore du mal à chausser durablement des lunettes technocritiques à même d’analyser le monde dans sa matérialité ?
Evgeny Morozov est le fondateur et éditeur de la plateforme The Syllabus et l’auteur de The Net Delusion : How Not to Liberate the World (non traduit) ; Pour tout résoudre, cliquez ici – L’aberration du solutionnisme technologique (Fyp éditions, 2014) ; ainsi que de Santiago Boys : les ingénieurs utopistes face aux Big Techs et aux agences d’espionnage (éditions Divergence, 2024).
Cet article est paru en décembre 2025 dans la revue The Ideas Letter sous le titre « Socialism after IA ». Traduction : Coby-Rae Crosbie.
L’intelligence artificielle a suscité une curiosité populaire rare. Non seulement auprès de ses investisseurs et fondateurs, mais également auprès de celles et ceux qui ouvrent leurs navigateurs, rédigent une question, et se sentent comme si quelque chose, de l’autre côté, réfléchissait avec elles et eux – aussi erronée que soit cette impression. Cette phénoménologie est importante. Quoi qu’on pense du battage médiatique, des fantasmes ou du tableau de capitalisation d’OpenAI, l’IA s’annonce comme une technologie aux limites poreuses, dont les utilités sont découvertes après son déploiement et dont les effets secondaires apparaissent là où personne ne les avaient envisagés. « Générative » n’est pas seulement un terme de marketing : il désigne une instabilité réelle.
Pour les socialistes, cette instabilité présente un défi spécifique. Et leurs réflexes sont bien connus : réguler les plateformes, taxer les profits, nationaliser les entreprises dominantes, brancher leurs modèles dans un système de planification centralisée. Mais si le socialisme veut être autre chose qu’un capitalisme avec une interface embellie – c’est-à-dire s’il est réellement un projet collectif de reconstruction de la vie matérielle, et pas seulement une redistribution de ses fruits -, il doit répondre à une question plus complexe : peut-il offrir une meilleure façon de vivre que le capitalisme avec cette technologie ? Peut-il proposer un mode de vie distinct, qui vaille la peine d’être désiré, plutôt qu’une simple répartition plus équitable de ce que le capital a déjà créé ?
Une fois la question posée de cette manière, quelque chose de gênant apparaît. Pour une tradition obsédée par l’optimisation des forces productives, le socialisme s’est montré étonnamment prompt à mettre certaines d’entre elles à l’écart sur le plan politique. Le socialisme traite la technologie comme un outil neutre à intégrer à de meilleures institutions – une fois que celles-ci existeront. Prenons les chemins de fer, les centrales nucléaires ou les modèles linguistiques : si le capitalisme en fait mésusage, le socialisme promet d’enfin les réorienter vers le bien commun. La véritable question, cependant, c’est de savoir si même la théorie socialiste récente la plus ambitieuse échappe à cette limite… ou si elle ne fait que reconduire la neutralité, en se contentant d’y ajouter de la sophistication.
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
La proposition d’Aaron Benanav pour une « économie à critères multiples », développée dans deux longs essais publiés dans la New Left Review, propose un cas d’école1. Son diagnostic est que le capitalisme et le socialisme d’État classique sont tous les deux organisés autour d’optimisation de critères uniques : le capitalisme autour du profit et le socialisme d’État autour de la production brute. Cela aura fonctionné, rudement, tant que la croissance du PIB pouvait servir de justification. Dans une ère de stagnation, de dégradation écologique et de crise des services sociaux, ce n’est plus le cas – ou du moins, pas dans le Nord impérial (malheureusement, les spécificités du Sud ne figurent pas vraiment dans l’analyse de Benanav).
Benanav veut une démocratie économique qui prend en compte, dès le départ, des objectifs multiples et incommensurables. La durabilité écologique, la qualité de travail, le temps libre et les services sociaux sont traités comme des biens distincts qui ne peuvent pas être compressés dans un seul indice. L’équilibre entre eux est composé et recomposé à travers des choix politiques explicites, plutôt que découverts par un marché ou un algorithme centralisé.
Pour ce faire, il propose un système bimonétaire. Chaque individu recevrait des crédits non-échangeables pour leur consommation personnelle, ainsi qu’un revenu de base ; les entreprises et les organismes publics échangeraient en « points » qui ne pourraient qu’être utilisés pour l’investissement et la production. L’investissement ne proviendrait plus de profits retenus, mais des « Conseils d’Investissements » démocratiquement gouvernés, qui alloueraient des points aux projets selon plusieurs critères.

Dans ce modèle, la coordination serait assurée par des conseils régionaux de travailleur·euses, consommateur·ices, de représentant·es communautaires et d’expert·es techniques. Ces conseils seraient aidés par une « Matrice de Données », un système statique de modélisation, gouverné démocratiquement, qui suivrait les flux, cartographierait les limites écologiques et sociales et rendrait visibles les compromis : si nous décarbonons à telle vitesse, construisons tel nombre de maisons, écourtons la semaine de travail de tant d’heures, voici ce qui s’ensuivrait. Les marchés persisteraient, mais perdraient leur logique de profit. Les entreprises ne pourraient ni accumuler de gains, ni décider de la direction de l’économie à long terme ; elles seraient en concurrence sur des critères démocratiquement choisis, non en fonction des rendements versés à des actionnaires privés. Des « Associations Techniques » organiseraient le travail, la formation et l’expertise à travers les secteurs.
Benanav insiste sur le fait que les valeurs ne sont pas fixées. S’appuyant sur le savant et penseur autrichien Otto Neurath, l’américain pragmatiste John Dewey et d’autres, il explique que les priorités évolueraient au travers des désaccords, de l’apprentissage et de l’expérience. En fonction des évènements, les plans devraient être révisés, les critères ajustés et les institutions reconstruites. Le socialisme, dans sa vision, est intrinsèquement expérimental. Il va jusqu’à façonner un « Secteur Libre », financé publiquement, pour que les artistes, les mouvements sociaux et les associations puissent explorer de nouveaux modes de vie et de valeurs, se servant de leurs innovations pour nourrir en retour les critères officiels.
Pour une vision post-capitaliste des institutions, cette proposition est exceptionnellement détaillée. Mais elle repose sur une supposition : que les échecs historiques du socialisme étaient des échecs de procédure – trop peu de démocratie, avec des critères trop simplistes. Et si le problème était plus profond ? Insérez une technologie aussi instable que l’IA dans l’architecture soigneusement dessinée de Benanav et aucune procédure démocratique ne pourrait effacer les failles qui apparaitraient alors.
➤ Lire aussi | “Chat GPT, c’est juste un outil !” Les impensés de la vision instrumentale de la technique・Olivier Lefebvre (2025)
La difficulté ne réside pas dans un schéma particulier ; elle est structurelle. La pensée socialiste s’est organisée autour d’une série de dichotomies – les forces productives contre rapports de production, base contre superstructure, moyens contre fins – et dans chaque cas elle aura placé la technologie sur le côté neutre et utilitaire : du côté des tapis roulants, des centrales nucléaires, des modèles de langage. Sous le capitalisme, la mauvaise classe détourne cette machinerie à ses propres fins ; sous le socialisme, cette même machinerie est redirigée à des objectifs meilleurs.
Une riche tradition critique, souvent dans des champs adjacents à celui du socialisme, rejette la thèse de la neutralité. Marcuse a montré que la domination est intrinsèque à la technologie et ne se contenterait pas simplement de la servir2. Harry Braverman (mentionné par Benanav) a montré comment les machineries tayloristes déqualifient les travailleur·euses de par leur conception même3. David Noble est allé plus loin en démontrant que l’automatisation elle-même n’était pas déterminée techniquement : quand une multitude de chemins existaient, le capital choisissait systématiquement ceux qui transféraient le savoir depuis l’atelier vers la direction, même au détriment de l’efficacité4. D’un autre côté, Cornelius Castoriadis expliquait que la technologie capitaliste matérialise un imaginaire capitaliste – expansion illimitée, maîtrise rationnelle, quantification – et ne peut pas simplement être réutilisée (du moins, pas avant qu’un autre imaginaire ne soit en place)5. Quant à Andrew Feenberg, il a synthétisé plusieurs de ces idées en décrivant la technologie comme « ambivalente », suspendue entre des trajectoires que l’intervention démocratique pourrait altérer6.
La pensée socialiste a placé la technologie sur le côté neutre et utilitaire : du côté des tapis roulants, des centrales nucléaires, des modèles de langage.
Mais ces idées finissent toujours comme des théories de restructuration du travail, ou de la procédure démocratique : comment restructurer le travail, comment ouvrir les décisions techniques à la participation. Elles transforment rarement l’imagination macro-institutionnelle qui ancrerait le socialisme comme une alternative systémique à grande échelle au capitalisme, plutôt que comme une simple alternative réformiste et procédurale. Quand les socialistes conçoivent des économies entières, la technologie redevient un matériel dont une autre classe saura mieux se servir. Benanav, en dépit de toute sa sophistication, travaille à l’intérieur de ce modèle : le « Demos » et le Conseil d’Investissement déterminent les critères, les entreprises et l’Association Technique les appliquent ; les technologies sont des instruments.
L’IA ne correspond pas complètement à ce modèle. Cela rend plus difficile le report de « la question concernant la technologie » – pour utiliser la phrase de Heidegger dans un registre qu’il n’aurait pas reconnu – et plus difficile à y échapper. Un GML (Grand Modèle de Langage) formé sur des textes plagiés bon marchés, calibré pour être le plus plausible possible et restreint par accès payant, ne saurait se réduire à de la statistique à grande échelle. C’est l’expression matérielle d’un monde spécifique : délais du capital-risque, marchés publicitaires, extraction de données, arbitrage de propriété intellectuelle. L’interface stylisée comme celle d’une conversation, qui donne l’impression que le modèle est un·e interlocuteur·ice plutôt qu’une bibliothèque, est le produit d’un choix conçu pour encourager certains types d’usage ainsi qu’une sensation de proximité. Les couches de sécurité encodent une conception particulière de ce qu’il est possible de dire, de ce qui est poli ou de ce qui est risqué.

Un tel système ne se contente pas de répondre aux relations sociales existantes ; il les cristallise et les alimente en retour, les présentant comme allant de soi. Même les définitions dominantes de l’IA – comme des modèles fermés destinés à un usage général et hébergés dans des centres de données éloignés, auxquels on accède via des conversations en temps réel (chat) – condensent une série de choix capitalistes concernant l’échelle, la propriété, l’opacité et la dépendance de l’utilisateur·ice.
Maintenant, imaginons un futur dans lequel un Conseil d’Investissement à critères multiples, sous pression pour éviter les biais cognitifs et la désinformation, impose aux systèmes d’IA d’être équitables selon des métriques décidées, de respecter la vie privée, de minimiser leur consommation énergétique et de favoriser le bien-être. Appelons cette IA « l’IA woke par mandat démocratique » : une infrastructure dont le contenu généré serait correct, diversifié et équilibré. Même ainsi, on a toujours l’impression que sa construction nous dépasse. Les modifications maladroites encodées à la main pour inclure un semblant d’impartialité aux générateurs d’image existants – et ainsi « encoder » la diversité – nous en ont donné un avant-goût7. Elles ont fait l’objet de moqueries, non pas parce que la diversité serait un mauvais objectif, mais parce qu’elles sont apparues comme un paramètre statique à satisfaire plutôt que comme une transformation issue d’un changement de pratique sociale. Une IA à critères multiples gouvernée par des Conseils d’Investissement risquerait de reproduire ce schéma en traitant les valeurs comme des cases à cocher, plutôt que comme des significations élaborées dans le processus compliqué de l’utilisation et du remodelage des outils eux-mêmes.
➤ Lire aussi | Cyber et libertaires : l’alliance des contraires ?・Sébastien Broca (2025)
C’est ici que la séparation nette que fait Benanav entre une économie qui exécute et des sphères qui décident devient coûteuse. Dans son schéma, les valeurs proviennent du dehors de la production – d’une délibération démocratique ou du Secteur Libre – et sont ensuite appliquées à la technologie au travers de Conseils d’Investissement ou d’autres organismes de contrôle. Mais l’IA expose une circularité que les procédures démocratiques, aussi nombreuses qu’elles soient, ne pourront résoudre : les valeurs que l’on utiliserait pour gouverner ces systèmes se forment elles-mêmes à travers nos interactions avec ces systèmes (en évolution perpétuelle). Personne n’a voté pour que la discussion avec des robots fasse partie de la vie de tous les jours. Personne n’a délibéré en amont sur ce que cela voudrait dire pour les droits d’auteur, la pédagogie ou l’intimité quand les machines ont commencé à imiter les êtres humains. Et les jugements à ce sujet se forment en ce moment même : non pas dans des assemblées qui pourraient ensuite appliquer de tels jugements à une technologie en attente, mais à l’intérieur d’« Équipes produit », de « Conditions d’utilisation » et de l’improvisation de millions d’utilisateur·ices.
Les solutions habituelles n’échappent pas à cette boucle. Encore plus de démocratie sur le lieu de travail, d’évaluation participative des technologies, de conseils de gouvernance inclusifs – tout cela suppose que l’on sait déjà ce qui est important pour nous et qu’il ne reste plus qu’à rassembler davantage d’avis pour arbitrer les compromis. Mais dès lors que la technologie en question transforme les capacités, les concepts de soi et les désirs de celleux qui l’utilisent, il n’y a aucun point de vue stable depuis lequel gouverner. On demande : « Selon quels critères devrions-nous façonner cette chose ? », alors même que cette chose est en train de façonner les êtres chargés de répondre à cette question. Ce n’est pas un problème qui pourra être réparé par de meilleures procédures. C’est une condition structurelle dont n’importe quel socialisme sérieux à propos de la technologie devra s’accommoder plutôt que de chercher à la résoudre.
On demande : « Selon quels critères devrions-nous façonner cette chose ? », alors même que cette chose est en train de façonner les êtres chargés de répondre à cette question.
Pour pluriel qu’il soit, le modèle à critères multiples de Benanav repose au final sur un unique critère supérieur aux autres : les décisions doivent passer par les bonnes procédures démocratiques. Sous-jacente à cela se trouve une image wébérienne familière de la modernité comme un ensemble de sphères différenciées – l’économie ici, la science là, la politique quelque part par là – retouchée avec un peu de Habermas selon qui on peut coordonner ces sphères entre elles au moyen de « l’agir communicationnel » (les échanges non hiérarchiques entre citoyens permettant le dialogue et la délibération rationnels et démocratiques).
Les socialistes ont rarement remis cette image en question. Frederic Jameson, dans son analyse célébrée du postmodernisme, s’en est approché8. Écrivant dans les années 1980, il observait que le capitalisme tardif a déjà dé-différentié les sphères : la haute culture et la basse culture (high culture and low culture) se sont mélangées et la logique de marchandisation sature tout, depuis les expositions jusqu’à la gastronomie moléculaire. Jameson a passé des décennies à cartographier de telles dé-différentiations dans la culture – cinéma, littérature, architecture – mais a étrangement laissé de côté l’économie. Or, si le capitalisme tardif brouille tellement les frontières entre les domaines – d’une manière que Jameson n’a pas complètement désapprouvé – pourquoi la planification socialiste devrait-elle opérer comme si ces frontières existaient encore ?

Pour Jameson, le jeu, l’impureté et le pastiche étaient partout – sauf dans la manière dont les socialistes devraient réfléchir aux aspects non-triviaux de la vie (y compris la technologie) situés au-delà de la haute et la basse culture. Dans un essai de 19909, Jameson est allé jusqu’à louer « l’approche admirablement totalisante » de l’économiste de Chicago Gary Becker (qui considérait tout comportement humain comme une activité économique)10, et a confessé partager « virtuellement tout » avec les néolibéraux – « sauf l’essentiel ». Ce que Jameson partageait avec les néolibéraux, expliquait-il, était la conviction que la politique consiste avant tout à « nourrir et s’occuper de la machine économique (economic apparatus) » ; ils ne divergeaient que sur la manière de nourrir la machine économique. Pour Jameson, cela faisait de ces deux camps – socialistes et néolibéraux – des alliés contre la vacuité de la philosophie politique libérale.
Mais cette symétrie est une projection de Jameson. Il imagine les néolibéraux comme des administrateurs beckeriens et le marché comme un mécanisme de contrôle, « un policier chargé d’empêcher Staline d’entrer ». Ce que ni lui ni aucun de ses collègues marxistes n’envisagent, c’est une politique orientée vers la découverte d’une multiplicité de connaissances que les technologies, les pratiques et les formes sociales pourraient atteindre lorsqu’elles germent, s’hybrident et mutent – non seulement dans les romans de Balzac ou les bâtiments de Koolhaas (terrain que la tradition Jamesonienne aura miné jusqu’à épuisement), mais dans le cours même de la production. Sur ce point, comme on le verra, les véritables néolibéraux – ceux de Silicon Valley, et non de Chicago – sont moins wébériens que leurs critiques marxistes. Ils ne sont pas administrateurs, mais fabricants de mondes ; ils se nourrissent de la contamination croisée des domaines et monétisent cette impureté que Jameson ne peut que diagnostiquer.
Les véritables néolibéraux sont moins wébériens que leurs critiques marxistes. Ils ne sont pas administrateurs, mais fabricants de mondes.
Et si l’introspection socialiste commençait ailleurs ? Non pas en restaurant les sphères différentiées comme Benanav, ni en réduisant tout à l’intérieur du domaine économie comme Jameson, mais en abandonnant l’idée que les politiques, l’expertise, la créativité et la technologie aient jamais été séparées dans des boites distinctes ?
Avec l’IA, de telles séparations sont particulièrement difficiles à défendre. Cette technologie est simultanément un outil, un médium, une forme culturelle, un instrument épistémique, un lieu de formation de valeur – de la même manière que ce qu’avait décrit autrefois Raymond Williams à propos de la télévision, mais avec bien moins de stabilité11. On ne peut pas la ranger dans une sphère unique et la gérer depuis l’extérieur.
Alors, la question se déplace. Au lieu de demander « Comment mieux coordonner cet ensemble technologique sous une multitude de critères démocratiques ? », on pourrait demander : « Quels types d’institutions rendent possible l’exploration systématique de différents ensembles technologiques, de différentes manières de vivre avec eux ? » Le problème est moins celui de la coordination optimale que de l’expérimentation organisée.
Cela implique des écologies d’expérimentation, et non pas une unique Matrice de Données nourrissant un unique ensemble de Conseils d’Investissements. Imaginons, aux côtés des géants industriels, une couche dense de projets d’IA municipaux, coopératifs et ancrés dans les mouvements sociaux, chacun avec ses priorités propres. Le gouvernement d’une ville maintiendrait peut-être un modèle ouvert, entraîné sur des documents publics et sur le savoir local, intégré aux écoles, aux cliniques et aux services de logements selon des règles établies par les habitant·es. Un réseau d’artistes et d’archivistes pourrait construire un modèle spécialisé dans les langues en voie de disparition et les cultures régionales, adapté au contenu ayant de l’importance pour les communautés.

Le propos n’est pas que ces exemples sont LA réponse, mais qu’un socialisme à la hauteur de l’IA institutionnaliserait la capacité d’essayer de tels agencements, de les investir, de les modifier ou de les abandonner – et ce à grande échelle et avec de véritables ressources. Un tel socialisme traiterait l’IA comme étant suffisamment plastique pour s’accommoder aux usages, aux valeurs et aux formes sociales qui émergent uniquement à mesure qu’elle est déployée. Il verrait l’IA moins comme un objet à gouverner (ou pour gouverner) que comme un champ de découverte collectif et d’auto-transformation.
Envisagée ainsi, la technologie n’est pas une surface sur laquelle projeter des valeurs préexistantes ; c’est l’un des principaux lieux où les valeurs sont formées. Les personnes qui travaillent avec des outils spécifiques développent de nouvelles compétences et sensibilités, apprenant que certains usages relèvent du soin et d’autres de la surveillance, que certaines interfaces appellent la pédagogie et d’autres encouragent la tricherie – tout en réexaminant ce que le soin, la surveillance, la pédagogie et la tricherie signifient réellement. Ces jugements ne peuvent pas être produits par délibération abstraite en amont ; ils émergent dans la pratique.
➤ Lire aussi | Adieu aux cybersoviets : sur les impasses de l’accélérationnisme de gauche・Guillaume Carnino (2026)
L’architecture de Benanav reconnaît ceci en soulignant le fait que les valeurs évoluent et en finançant un Secteur Libre de « créateur·ices de valeurs ». Mais sur le plan structurel, elle continue d’assumer une verticalité à sens unique : le Demos et le Secteur Libre génèrent des priorités, que le Conseil d’Investissement et les institutions économiques mettent en place ensuite. Ce qui manque est une analyse de la manière dont les valeurs émergent depuis la production et se forment elles-mêmes – et de la manière dont, autour d’une technologie comme l’IA, la distinction entre « économie fonctionnelle » et « libre créativité » devient poreuse au point de se dissoudre.
Gillian Rose, dont les premiers travaux ont révélé la manière dont la pensée post-kantienne avait brisé la « vie éthique » hégélienne en dualisme inertes – les valeurs versus les faits, les normes versus les institutions – a par la suite appelé ce terrain « le milieu brisé »12. Elle entend par là la zone où les moyens et les fins, la moralité et la légalité, sont élaborés dans des contextes particuliers plutôt qu’appliqués depuis l’extérieur13. Ce que Rose a appelé « le milieu sacré » était en fait le fantasme d’échapper à cette cassure dans une harmonie purifiée, qu’elle soit procédurale ou rédemptrice. Autour de l’IA, cette zone est politiquement décisive. Traiter la technologie comme une sphère purement instrumentale que la politique gouverne depuis l’extérieur n’est pas seulement naïf : cela nous empêche de voir où le pouvoir se situe désormais.
À ce stade, une inquiétude légitime apparaît : est-ce toute autre alternative ne mènerait pas simplement au chaos ? Le socialisme n’est-il pas censé nous libérer du tourbillon de l’innovation capitaliste, avec ses gadgets et son obsolescence programmée ?
La réponse dépend du type d’impureté que l’on est prêt·e à assumer. Il y a la violence technocratique dans la modernisation descendante qui détruit les modes de vies existants au bulldozer, puis nomme les décombres « progrès ». Et il y a ce que le philosophe équatorien-mexicain Bolívar Echeverría appelle un éthos « baroque » : accepter que la modernité est durablement installée mais refuser de la vivre dans la forme pure et ascétique que le capital préfère – notamment en tordant les normes, en obéissant sans se conformer tout à fait, en avalant le code pour en recracher autre chose.
Le socialisme n’est-il pas censé nous libérer du tourbillon de l’innovation capitaliste, avec ses gadgets et son obsolescence programmée ?
Bien sûr, le capitalisme a son propre baroque. L’entrepreneur de la Silicon Valley – contrairement à l’administrateur beckerien imaginé par Jameson – crée de nouvelles valeurs en construisant de nouveaux mondes et en accélérant la contamination croisée de la technologie, de la culture et du désir. Mais il s’agit d’un baroque mis au service de l’accumulation, d’une impureté canalisée sur une trajectoire unique.
L’argument d’Echeverría va plus loin. Au cœur de son raisonnement, on trouve une relecture de l’une des valeurs centrales du marxisme : la valeur d’usage. Chaque technologie, souligne-t-il, détient une infinité de mises en œuvre possibles – la pluralité des trajectoires qu’elle pourrait prendre, la variété des formes de vie qu’elle pourrait rendre possible. Le capitalisme n’élimine pas cette pluralité ; il la re-fonctionnalise, orientant son développement pour le limiter à l’unique voie de la valorisation. Les possibilités éliminées ne disparaissent pas ; elles subsistent comme des potentialités en attente, disponibles pour être redécouvertes sous d’autres conditions sociales.

Appliqués à l’IA, cela veut dire que la tâche n’est pas simplement de réguler et de redistribuer les technologies en considérant leur forme de base comme une évidence, mais d’explorer les voies que le développement capitaliste a fermées. Que deviendraient les modèles de langages s’ils n’étaient pas construits sur l’impératif de la monétisation et sur la gestion du risque corporatif ? Quelles formes de créativité, de mémoire ou de collaboration pourraient-ils permettre si les données d’entraînement étaient construites par des communautés plutôt que par une extraction de données à grande échelle, et si l’interface invitait à l’enquête plutôt qu’à l’attachement ? On ne peut pas le savoir à l’avance. La stratégie baroque consiste à traiter chaque rencontre avec ces systèmes comme un test qui vise à savoir si d’autres mises en œuvre restent possibles. À essayer, échouer, et essayer encore.
Le schéma de Benanav tire dans la direction opposée. En suivant Robert Brenner14, il traite le dynamisme capitaliste comme réel – des entreprises qui innovent à travers la compétition, le marché comme un véritable processus de découverte. Mais cela revient à mésinterpréter les sources du pouvoir du capitalisme. Prenons Google : son ascension est indissociable du contrôle américain sur les infrastructures de la communication, du projet politique de la libéralisation d’Internet et d’un ordre sécuritaire qui fait transiter le trafic mondial par les systèmes des États-Unis. L’innovation capitaliste est étroitement liée au pouvoir de l’État, des hiérarchies impériales et de l’ingénierie juridique. Confondre ceci avec une découverte spontanée du marché risque de conserver dans le socialisme ce qui n’a jamais été le véritable moteur du changement technique du capitalisme.
Benanav espère que la composition multicritère – la remise en question de l’efficacité, de l’écologie, des services sociaux, du temps libre – produirait le genre de réactivité dynamique qui manquait aux formes plus anciennes du socialisme. Mais une telle réactivité court le risque d’être administrative plutôt que créative : elle dirige (démocratiquement) plutôt qu’elle n’invente. C’est là que surgit un problème plus profond. Benanav propose le socialisme comme une réponse à une question que le capitalisme n’a jamais posée : comment devrions-nous équilibrer démocratiquement des valeurs concurrentes ? Mais il ne répond jamais à la question que le capitalisme pose réellement : d’où vient la créativité, en dehors des salles d’assemblée et des salles de concert ? Quel est le moteur de la contamination croisée des domaines, de l’invention de nouveaux désirs et de nouvelles capacités, ainsi que de la fusion de l’imagination et de la matière ? Quiconque a écouté Steve Jobs, Peter Thiel ou Elon Musk sait que le néolibéralisme n’est pas l’administrateur beckerien du schéma du marché imaginé par Jameson. C’est un projet de fabrication de mondes. Et sa proposition est claire : le marché est le véhicule depuis lequel les capacités humaines s’élargissent, à mesure que les consommateur·ices découvrent de nouveaux goûts et que les entrepreneurs construisent de nouveaux mondes.
Si le socialisme veut répondre au capitalisme sur son propre terrain, il lui faut un vecteur de fabrication de mondes à même de rivaliser – et pas simplement l’administration démocratisée d’une économie dont la créativité a lieu ailleurs. C’est ici que l’IA devient décisive. Le pari d’une société de l’IA socialiste serait que les fonctions génératives que les néolibéraux assignent au marché – l’expérimentation, la découverte, le pouvoir de faire des mondes à partir d’idées – puissent désormais passer à travers un médium différent. Appelons ça le baroque socialiste : des systèmes d’IA gouvernés collectivement, intégrés aux lieux de travail, aux écoles, aux cliniques ou aux coopératives, qui permettent la même fabrication de mondes revendiquée par les entrepreneurs au nom du capital, mais sans l’impératif de l’accumulation qui déforme et referme les chemins non empruntés.
Quiconque a écouté Steve Jobs, Peter Thiel ou Elon Musk sait que le néolibéralisme est un projet de fabrication de mondes.
L’impératif déterminant ne serait plus la « croissance » mesurée par les volumes toujours croissants de marchandises, mais l’élargissement de ce que les personnes auraient la capacité de faire et d’être, individuellement et collectivement.
Dans cette perspective, l’IA serait évaluée selon sa capacité à ouvrir de nouveaux espaces de compétences, de compréhension et de coopération – et selon à qui elle les adresse. Un outil qui permettrait aux professeurs et étudiant·es de travailler dans leurs propres dialectes, d’interroger l’histoire depuis leurs propres points de vue, et de partager et d’affiner les savoirs locaux, aurait un score élevé. En revanche, un outil qui réduirait les individus à des consommateur·ices passif·ves de bouillie auto-générée, ou qui concentrerait le pouvoir interprétatif dans une poignée de gourous de l’apprentissage automatique aurait un score bas – quelle que soit son efficacité.
La possibilité d’un socialisme avec un tel agrandissement des capacités — orienté vers la croissance des forces créatives, et pas uniquement vers celle des forces productives — reste une question ouverte. Ce qui importe ici, c’est que les schémas comme celui de Benanav nous permettent à peine de la poser. Ces schémas disposent de règles détaillées pour équilibrer des critères une fois ceux-ci définis, mais en disent très peu sur l’origine de ces critères, sur la manière dont ils évoluent ou dont la technologie elle-même participe à leur émergence. Même lorsqu’ils prennent en compte le fait que les besoins sont historiquement forgés, ils oublient que les capacités le sont également.

L’IA importe moins parce qu’elle serait la technologie la plus importante ou la route assurée vers l’émancipation ou vers le désastre, que parce qu’elle expose des failles dans la pensée socialiste – failles qui étaient plus faciles à ignorer lorsque le paradigme était la machine à vapeur ou la chaîne de montage. Ces machines plus anciennes pouvaient au moins être décrites, bien qu’incorrectement, comme des outils relativement stables dont les usages étaient largement fixés au moment de leur conception. Avec l’IA, c’est l’outil lui-même qui ne cesse de changer – et cela sous nos yeux. Ses usages sont découverts dans la pratique. Ses frontières se brouillent avec la culture, les médias, la cognition, l’affect. Dans ces conditions, un socialisme qui traite la technologie comme un scénario achevé et considère la politique comme un art de la diriger aura toujours un train de retard.
Un socialisme à la hauteur de l’IA ne pourra pas se cantonner à une division du travail dans laquelle la politique décide et la technologie accomplit. Il doit reconnaître la technologie comme un lieu fondamental d’autoformation collective. Le but n’est pas d’abandonner l’élaboration démocratique de critères, ni de romantiser le chaos. Le but est de construire des institutions qui envisagent l’existence collective comme un champ de lutte et d’expérimentation – un champ où de nouvelles valeurs, de nouvelles capacités, et de nouveaux modes de vie sont en constante élaboration.
Un socialisme qui traite la technologie comme un scénario achevé et considère la politique comme un art de la diriger aura toujours un train de retard.
Cela implique d’accepter l’impureté, non seulement comme un principe de conception mais comme une condition existentielle. Au lieu d’imaginer une économie soigneusement fonctionnelle supplantée par un Secteur Libre cordonné, nous avons besoin d’une organisation poreuse dans laquelle les expérimentations circulent entre les sphères, quitte à se heurter aux métriques officielles ou à les repenser. Les institutions ne feraient pas qu’équilibrer les critères ; elles laisseraient de la place aux projets indisciplinés qui ne rentreraient pas dans les métriques officielles – et n’y correspondraient sans doute jamais.
Ainsi, la question qui reste en suspens n’est pas de savoir si le socialisme peut socialiser l’IA tout en laissant intacte sa machinerie. Elle est de savoir si le socialisme peut devenir un projet de fabrication de mondes – qui ne se préoccupe pas seulement de savoir qui sont les propriétaires des machines, mais de ce que les machines permettent aux individus de faire et de devenir. Un socialisme qui se contente de redistribuer les fruits des technologies capitalistes courra toujours après un monde fabriqué ailleurs. Un socialisme qui prend au sérieux le pouvoir étrangement créateur mais instable de l’IA pourrait peut-être contribuer à créer un monde différent – et un peuple différent – dès le départ.
➤ Lire aussi | Comment le numérique est devenu l’utopie du capital・Sébastien Broca (2026)
Image principale : Photo de Viktor Forgacs sur Unsplash.

NOUS AVONS BESOIN DE VOUS !
Depuis 2018, Terrestres est la revue de référence des écologies radicales.
À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.
Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.
En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.
Merci
!
L’article Le socialisme après l’IA est apparu en premier sur Terrestres.
10.03.2026 à 12:05
Sébastien Broca
Il y a 30 ans, les promoteurs du numérique annonçaient un monde plus juste, libre et écologique, la fin du travail et l'érosion du capitalisme. Pourquoi ce même numérique façonne un monde chaque jour plus dystopique ? Dans son livre “Pris dans la toile”, Sébastien Broca revient sur les promesses et les illusions portées par l'utopie d'Internet. Extrait.
L’article Comment le numérique est devenu l’utopie du capital est apparu en premier sur Terrestres.

Extrait du livre de Sébastien Broca, Pris dans la toile. De l’utopie d’Internet au capitalisme numérique, Éditions du Seuil, 2025, p. 199-209.
Le développement des Big Tech s’est accompagné de discours ayant une dimension utopique. Les technologies numériques ont été présentées comme la promesse d’un avenir transcendant les limites matérielles à l’abondance et abolissant la nécessité du travail. Ces projections ont eu une fonction d’occultation du présent. Elles ont dissimulé le fait que la prospérité des grandes entreprises technologiques reposait sur l’appropriation et l’exploitation de nombreuses ressources productives : matières premières, énergie, travailleurs et travailleuses. La critique n’a pas toujours su mettre à distance ces utopies du capital, parfois guère éloignées des utopies sociales qu’elle a défendues.
Le pouvoir des Big Tech s’inscrit dans une dynamique historique longue. Ces entreprises prolongent, matériellement et symboliquement, une trajectoire empruntée dès les prémices du monde industriel. Elles entretiennent l’esprit du capitalisme, analysé par Max Weber dès le début du XXe siècle. Ce dernier décrivait alors le dépérissement de l’esprit « traditionaliste » : celui de l’homme qui ne cherche pas « à gagner de l’argent et toujours davantage d’argent, mais simplement à vivre, à vivre comme il a l’habitude de vivre et à gagner ce qui est nécessaire pour cela »1. Le capitalisme a ainsi marginalisé un certain nombre de valeurs, comme le respect de la coutume et la solidarité communautaire. Il a forgé des individus mus par un désir d’enrichissement et privilégiant un rapport instrumental à la nature. Il s’est appuyé sur le développement des technologies et, après la Seconde guerre mondiale, a érigé la croissance en objectif cardinal des politiques publiques.
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
Le capitalisme numérique perpétue cette promesse d’expansion, dont les Big Tech se veulent aujourd’hui les porteurs privilégiés. Ces entreprises ont réaffirmé l’idéologie progressiste propre à la modernité capitaliste, exacerbant le projet d’asseoir l’accumulation illimitée sur le développement de la science et de la technique. Elles ont propagé un « système de valeurs dans lequel la valeur ou le mérite découlent de la résolution de problèmes sociaux grâce à des moyens technologiques et à l’esprit d’entreprise »2. Le PDG d’OpenAI, S. Altman, a synthétisé cet esprit dans un texte publié en 2021 : « La loi de Moore pour tout ». Il y soutient que « le progrès technologique suit une courbe exponentielle » et que le développement fulgurant de l’IA engendrera une croissance soutenue et « un avenir radieux »3. Il promet « une société bien plus juste, heureuse et prospère »4 grâce à une source « “illimitée” d’intelligence et d’énergie »5. Dans une veine similaire, J. Bezos craint avant tout la stagnation : « si nous restons sur cette planète […], nous devrons arrêter de croître, ce qui est un très mauvais avenir »6 déclare-t-il pour justifier la création de « colonies » dans l’espace.
« Si nous restons sur cette planète, nous devrons arrêter de croître, ce qui est un très mauvais avenir ».
Jeff Bezos
Comme le suggèrent ces citations, le rapport au temps et à l’espace des grands dirigeants de la Silicon Valley a une dimension utopique, au sens d’une projection par-delà l’ici et le maintenant. Dans son versant le plus radical, cette projection prend la forme d’un avenir post-humain, par-delà les limites biologiques et terrestres. Même lorsqu’elle ne va pas si loin, l’utopie techno-entrepreneuriale des Big Tech est la promesse d’un avenir où le progrès technique aura résolu les problèmes du présent. Il importe peu que de telles projections puissent être mises en doute, parfois même moquées par les spécialistes des domaines concernées. L’esprit du capitalisme se préoccupe assez peu des faits. Sa fonction est de renforcer « la confiance que [les] membres [des classes dominantes] peuvent avoir dans la validité de leurs privilèges »7. Elle est aussi de dissimuler certaines réalités embarrassantes. L’utopie d’un avenir radieux a ainsi pour corollaire une présentation mystifiée du présent, dont je voudrais retracer brièvement la construction.
Dans les années 1940, le principal théoricien de la cybernétique, Norbert Wiener, soutenait que le monde peut être compris exclusivement en termes d’échanges d’information. L’information était selon lui de l’entropie négative, une mesure d’organisation. Il estimait qu’en vertu du second principe de la thermodynamique, l’univers évolue d’un état d’organisation vers un état de chaos uniforme. Il voyait l’information comme ce qui résiste à cette tendance, détermine les propriétés des êtres et permet l’émergence de poches d’organisation : les systèmes biologiques, sociaux et techniques. La cybernétique a ainsi popularisé l’idée que l’information serait séparable de la matière et plus fondamentale que celle-ci8.
Cette vision acquiert à partir des années 1970 une dimension socio-historique, en vertu de la tendance, paresseuse mais récurrente, à définir une époque par une matière, une technologie ou une source d’énergie. Quelques intellectuels influents soutiennent ainsi qu’après les âges du chemin de fer, du charbon et du pétrole s’ouvrirait un « âge de l’information », actant la fin de la civilisation industrielle. La notion de « société post-industrielle » apparaît sous la plume d’Alain Touraine en France, de Daniel Bell, Herman Kahn et Anthony Wiener aux États-Unis. Le syntagme voisin de « société de l’information » est adopté par plusieurs institutions internationales, l’OCDE (Organisation de coopération et de développement économiques) en 1975 et l’Union européenne en 19799. En 1980, le futurologue Alvin Toffler annonce dans un ouvrage à succès l’imminence d’une « troisième vague » : celle de l’information10.
Les années 1970 sont aussi celles où émerge, en Californie, l’idée d’une complémentarité entre l’informatique et la préservation de l’environnement. Dans le contexte de la guerre froide, les macro-technologies contrôlées par les États, comme la bombe nucléaire, représentent une menace de destruction pour la planète entière. Selon les hippies à l’origine du Whole Earth Catalog – une publication qui connaît à l’époque un grand succès en présentant toutes sortes de produits (outils de jardinage, fourneaux à bois, semences, calculatrices, synthétiseurs) utiles pour vivre en communauté – il ne faut pourtant pas renoncer aux technologies. Inspirés par la cybernétique de N. Wiener et les approches systémiques de l’écologie, ces « néo-communalistes »11 réunis autour de Stewart Brand établissent « un lien positif entre la technologie et la nature, en soulignant le potentiel écologique et même le caractère “naturel” des solutions technologiques »12. Ils développent un environnementalisme pragmatique et moderniste, qui associe mode de vie communautaire et objets high-tech. Dans ce cadre, l’ordinateur apparaît comme un instrument de libération individuelle et comme un outil écologique, qui aide à contrôler les écosystèmes pour assurer leur stabilité grâce à des échanges adéquats d’information.
➤ Lire aussi | Rapiécer le monde. Les éditions La Lenteur contre le déferlement numérique・François Jarrige (2019)
Vingt ans plus tard, la diffusion d’Internet donne un nouvel élan à ces proclamations enthousiastes. Dans les colonnes de Wired s’expriment les digerati, une élite d’entrepreneurs, éditorialistes et prospectivistes fascinés par le nouveau monde numérique. Ils soutiennent qu’Internet est une « révolution » comparable à celle de l’imprimerie. L’informatique et les réseaux sont présentés comme le triomphe des bits sur les atomes, le remplacement de la matière par quelque chose qui « n’a ni couleur, ni taille, ni poids, et peut voyager à la vitesse de la lumière »13. L’information apparaît comme un moyen de dépasser la rareté. Elle constitue une ressource non-rivale : sa consommation par une personne ne la dégrade pas et ne la rend pas indisponible pour d’autres14. L’humanité serait ainsi sur le point de s’affranchir des limites physiques à son développement, grâce aux propriétés prodigieuses de l’information.

Ces discours prêtent à conséquence, puisqu’ils recouvrent d’un voile idéologique la matérialité du numérique. Tandis que les digerati exaltent le remplacement des atomes par les bits, l’essor d’Internet suscite des investissements massifs dans les infrastructures matérielles : câbles sous-marins, fibre optique, data centers. Le discours de « l’abondance informationnelle » abstrait alors les technologies numériques des réseaux énergétiques et logistiques nécessaires à leur fonctionnement. Les Big Tech n’ont ensuite qu’à reprendre cet habillage discursif pour minimiser la dimension matérielle de leurs activités. Le terme éthéré de « cloud » désigne les services fournis par de grands bâtiments énergivores. La présentation des données comme un « nouveau pétrole » suggère le remplacement des industries fossiles par un nouveau capitalisme écologiquement vertueux.
Les pouvoirs publics participent à la diffusion de ces représentations mystificatrices. Aux États-Unis et dans l’Union européenne, le récit de la double transition (écologique et numérique) s’impose à partir des années 1990. Dès cette date, les responsables politiques sont majoritairement convaincus que « nous pouvons compter sur la révolution Internet pour nous aider à protéger et préserver notre environnement »15.
A partir des années 1990, les responsables politiques sont majoritairement convaincus que « nous pouvons compter sur la révolution Internet pour nous aider à protéger et préserver notre environnement ».
Al Gore, soutien historique de l’industrie informatique, joue un rôle important pour ancrer cette vision dans la Silicon Valley et au-delà. Membre des élus démocrates surnommés « Atari Democrats » dans les années 1980, apôtre des « autoroutes de l’information » en tant que vice-président de Bill Clinton, il devient après sa défaite controversée à l’élection présidentielle de 2000 conseiller spécial de Google et membre du conseil d’administration d’Apple16. Il se mue aussi en défenseur de la cause climatique, avec la sortie en 2006 du documentaire Une vérité qui dérange, dont il est le principal protagoniste. Tout en sensibilisant un large public aux dangers du réchauffement, le film diffuse la conviction que l’innovation peut résoudre le défi climatique. Il suffirait pour cela de remplacer l’ancien capitalisme fossile par un capitalisme vert, dont la Silicon Valley détiendrait les clés technologiques17. Héritier de l’écomodernisme du Whole Earth Catalog, A. Gore légitime ainsi une vision entrepreneuriale de la « transition écologique ». Le numérique y est l’essentiel de la solution, jamais un aspect du problème.
L’occultation du travail humain nécessaire à l’économie numérique se construit de manière parallèle au déni de sa matérialité. La « fin du travail » fait l’objet de nombreux débats au milieu des années 1990, suite au retentissement des thèses défendus par le prospectiviste Jeremy Rifkin18. Quinze ans plus tard, l’essor du numérique s’invite dans la discussion. Deux économistes d’Oxford font sensation, en affirmant que 47 % des emplois aux États-Unis sont susceptibles d’être automatisés dans les dix années à venir19. Leurs craintes trouvent un écho au sein des institutions internationales, qui publient par la suite de nombreux rapports sur le « Future of Work ». Ces écrits soulignent l’imminence d’une puissante vague d’automatisation liée à l’essor de l’IA.
L’occultation du travail humain nécessaire à l’économie numérique se construit de manière parallèle au déni de sa matérialité.
Les Big Tech diffusent elles aussi cette conviction. La focalisation médiatique sur quelques entrepreneurs stars (Steve Jobs, M. Zuckerberg, E. Musk) suggère que la réussite en affaires tient exclusivement au talent individuel et à l’innovation technologique. L’aptitude des grandes entreprises technologiques à organiser, pour en tirer profit, de multiples activités humaines dispersées aux quatre coins du monde passe ainsi au second plan. Les progrès de l’IA laissent aussi penser que de nombreux processus productifs sont déjà entièrement automatisés. Pendant longtemps, le grand public croit par exemple que les IA de Google et de Facebook filtrent automatiquement tous les contenus indésirables publiés sur les réseaux sociaux, alors qu’il n’en est rien20. Ce mythe de la fin du travail profite à la Silicon Valley. Il promet aux investisseurs la suppression des coûts engendrés par le travail salarié. Il soustrait également au regard du public des travailleurs précaires, dont l’exploitation cadre mal avec l’image que la Tech souhaite renvoyer.
Les mythes de l’immatériel et de la fin du travail maintiennent ainsi invisibles, et donc incontestables, les raisons de la prospérité des Big Tech. Ils participent pour cette raison de ce qu’on peut nommer – en détournant une expression de Marx – un fétichisme des technologies21, soit une idéologie qui abstrait celles-ci de leurs conditions de production. Les bénéfices qu’apportent les services numériques (gains de temps, d’efficacité) sont détachés de ce qui les rend possibles et de leurs contreparties, sociales et environnementales. Les technologies sont nimbées d’une aura quasi magique. Elles sont présentées comme apportant des bénéfices nets, alors qu’elles opèrent la plupart du temps un transfert de temps et de ressources. Les entreprises préfèrent en effet insister sur les économies d’énergies permises par l’utilisation de systèmes « intelligents », plutôt que sur l’énergie consommée pour produire les systèmes en question. Elles préfèrent présenter l’automatisation comme un moyen d’économiser du temps de travail humain, plutôt que de reconnaître l’importance du travail déployé « en amont » afin de permettre l’automatisation « en aval ».
Telle est la fonction des mythes : présenter les bénéfices associés aux technologies comme des qualités que celles-ci auraient « par nature », non comme le résultat de nouvelles formes d’exploitation de la nature et des travailleurs ; ne retenir que les gains, en somme, pour éviter d’interroger la balance entre les gains et les pertes.
Les mythes de l’immatériel et de la fin du travail ont exercé une séduction durable sur certains acteurs de la critique. La vision d’un « âge de l’information » mettant fin à la civilisation industrielle a eu un écho bien au-delà des institutions internationales et des idéologues de la Silicon Valley. Dans le monde académique, elle a été légitimée par l’influente trilogie du sociologue Manuel Castells22. De nombreuses formes de militantisme se sont par ailleurs appuyées sur l’idée que le numérique ouvrirait une nouvelle ère d’abondance.
➤ Lire aussi | Cyber et libertaire : l’alliance des contraires ?・Sébastien Broca (2025)
Dès le milieu des années 1980, R. Stallman distingue matière et information, afin de remettre en cause la légitimité des logiciels propriétaires. Il recourt à l’exemple imagé du « sandwich infini » pour expliquer ce qu’est un logiciel : il peut être consommé une infinité de fois par une infinité de personnes en une multitude d’endroits23. L’insistance sur l’abondance de l’information lui permet alors de dénoncer la création « artificielle » de rareté par la propriété intellectuelle, en la décrivant comme une absurdité contraire aux propriétés de l’information.
Quinze ans plus tard, les défenseurs des communs numériques, aux États-Unis comme en France, reprennent l’argument. Ils affirment que « le système de régulation que nous mettons en place pour les ressources rivales (terres, voitures, ordinateurs) n’est pas nécessairement approprié pour les ressources non-rivales (idées, musique, expression) »24. L’argument fait mouche. Le philosophe A. Gorz soutient lui aussi que « la connaissance, l’information sont par essence des biens communs, qui appartiennent à tout le monde »25. Les penseurs post-opéraïstes exaltent également les potentialités du « travail immatériel » et les promesses d’une « économie d’abondance »26. De nombreux critiques de l’économie industrielle de l’information participent ainsi à l’exaltation de l’information et de l’immatériel. Les mêmes motifs discursifs circulent dans différents espaces sociaux : la notion de bien non-rival, issue de l’économie mainstream, est reprise par les défenseurs des communs ; la culture hacker inspire les éditorialistes de Wired comme les théoriciens néo-marxistes.
Mettre en avant un exceptionnalisme informationnel a au début des années 2000 un intérêt stratégique. Dans le contexte des luttes contre les nouvelles enclosures, cela fait apparaître l’extension de la propriété intellectuelle comme absurde, artificielle et contraire à la nature des choses. Souscrire au mythe de l’immatériel, c’est donc faire avancer la cause des communs numériques. Cela occulte en revanche que les régimes juridiques appliqués aux biens, quels qu’ils soient, ne sont pas le reflet de leurs propriétés, mais le résultat de normes sociales, de jeux institutionnels et de rapports de force. Cela reconduit aussi le déni de la matérialité du numérique, véhiculé par la pensée dominante depuis les années 1970.
En souhaitant préserver le potentiel émancipateur du numérique, les défenseurs des libertés ont aussi conservé l’idéal de son développement illimité.
Cet oubli a été partagé par la plupart des défenseurs des libertés en ligne. Ceux-ci ont souvent prolongé l’exaltation de l’ « immatériel », qui imprégnait la Déclaration d’indépendance du cyberespace écrite par J. P. Barlow. Construite autour de l’idée de « défendre Internet » (cf. chapitre 1), cette tradition militante est demeurée majoritairement hostile au fait de prioriser certains usages ou de poser des limites au déploiement des technologies. En souhaitant préserver le potentiel émancipateur du numérique, elle a aussi conservé l’idéal de son développement illimité. En insistant sur la circulation de tous les discours et les savoirs sur Internet, elle a négligé le coût matériel et énergétique de cette abondance informationnelle.

Les défenseurs des libertés numériques n’ont pas accordé beaucoup plus d’attention à la question du travail. Jusqu’aux années 2010, ils ont souvent abordé Internet comme un espace de communication, en négligeant les rapports de production qui en déterminent le fonctionnement. Leurs luttes privilégiées (liberté d’expression, vie privée, circulation de l’information) ont été menées sous un angle technologique ou juridique, en accordant par exemple plus d’importance aux politiques de modération mises en place par les plateformes qu’aux conditions de travail des modérateurs de contenus chargés de les appliquer.
➤ Lire aussi | « ChatGPT, c’est juste un outil ! » : les impensés de la vision instrumentale de la technique・Olivier Lefebvre (2025)
Pourquoi de nombreux acteurs de la critique des Big Tech ont-ils succombé à des mythes, qui semblent renforcer le pouvoir des entreprises qu’ils ont combattues ? Les explications sont multiples. On rappellera tout d’abord que les influences ont été réciproques : si la critique s’est parfois laissé abuser par la communication des entreprises, celles-ci ont aussi puisé dans des mouvements sociaux préexistants leurs discours de légitimation. C’est bien parce qu’il existait déjà une utopie d’Internet défendue par différents acteurs non-marchands, que Google ou Facebook ont par la suite pu capitaliser sur ces espoirs d’émancipation et de partage. De même, la fin du travail est pour partie une utopie du capital (réduire les coûts salariaux), mais c’est aussi une très ancienne utopie sociale27 (se libérer des tâches pénibles et dépourvues de sens), qui a été ensuite instrumentalisée par la Silicon Valley.
Pourquoi de nombreux acteurs de la critique des Big Tech ont-ils succombé à des mythes, qui semblent renforcer le pouvoir des entreprises qu’ils ont combattues ?
Certains accords idéologiques entre les Big Tech et leurs contempteurs s’expliquent en outre par des proximités sociologiques. Parmi les critiques des Big Tech, ceux qui ont reçu la plus grande attention, en France comme aux États-Unis, ont été des hommes, blancs, de milieux sociaux privilégiés. Ce sont souvent des informaticiens, des universitaires ou d’anciens salariés de la Silicon Valley qui ont mis en cause le pouvoir de ces entreprises – ou, pour être plus précis, dont les capitaux économiques et culturels ont permis à ces mises en cause d’être entendues. Il ne s’agit pas ici de discréditer ces acteurs en raison de leurs propriétés sociales ; la critique peut parfois se déployer depuis des espaces sociaux favorisés, sans qu’il faille accuser ses protagonistes de duplicité ou d’inconséquence. L’homogénéité sociologique a en revanche eu des conséquences sur la teneur des contestations et sur leurs perspectives. Nombre d’acteurs de la critique des Big Tech étant issus du même monde social et/ou culturel que les cadres des entreprises mises en cause, il n’est guère étonnant qu’ils aient partagé avec eux certaines représentations, notamment la conviction que les technologies étaient fondamentalement émancipatrices et écologiquement vertueuses.
En matière numérique, les utopies sociales et les utopies du capital ont donc rarement été radicalement divergentes. Elles ont puisé à des références communes : la cybernétique, la science-fiction, la contre-culture, la subculture hacker. Elles ont toutes été nourries par l’imaginaire moderne d’une adéquation entre progrès technique et progrès social. Les mythes de l’immatériel et de la fin du travail ont par conséquent exercé une séduction durable, auprès des Big Tech comme des promoteurs d’un autre numérique. Il est revenu à d’autres acteurs d’essayer de mettre à mal ces représentations.
➤ Lire aussi | Numérique, la fin des illusions ? Anatomie d’une utopie・ (2026)
Photo d’ouverture : Les dirigeants (Verwaltungsrat) de IG Farben vers 1935, avec à gauche au premier plan Carl Bosch et à droite Carl Duisberg. Crédits : Hermann Groeber

NOUS AVONS BESOIN DE VOUS !
Depuis 2018, Terrestres est la revue de référence des écologies radicales.
À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.
Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.
En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.
Merci
!
L’article Comment le numérique est devenu l’utopie du capital est apparu en premier sur Terrestres.
04.03.2026 à 16:10
La rédaction de Terrestres
Trente ans après sa naissance, que reste-t-il des promesses d’émancipation portées par l’utopie d’Internet ? Le bilan s’amaigrit chaque jour, à mesure que l'industrie numérique accélère la victoire du techno-fascisme. Cette septième rencontre Terrestres reviendra aux sources de l'utopie numérique pour comprendre cette infrastructure et son idéologie.
L’article Numérique, la fin des illusions ? Anatomie d’une utopie est apparu en premier sur Terrestres.
Table ronde le mercredi 11 mars avec le sociologue Sébastien Broca, l’essayiste Karine Mauvilly et Félix Treguer, chercheur et membre de La Quadrature du Net. Une rencontre organisée par Terrestres à l’Académie du Climat à Paris (19h00-21h30). Entrée libre ! Inscription souhaitée ici.
Vous pouvez aussi suivre les rencontres Terrestres en direct le soir de l’évènement ou bien les écouter tranquillement en différé, grâce à notre partenariat avec la radio associative ∏node.
En 1999, Eric Schmidt, futur PDG de Google entre 2001 à 2011, énonce qu’« Internet est la première chose que l’humanité a construite et qu’elle ne comprend pas, la plus grande expérience d’anarchie que nous ayons jamais eue ». Un quart de siècle plus tard, « la plus grande expérience d’anarchie » est devenue le business le plus profitable de l’économie capitaliste : une poignée d’entreprises dominent l’économie numérique et occupent les sept premières places de la capitalisation boursière mondiale… devant Saudi Aramco huitième et plus grande capitalisation pétrolière mondiale.
Vingt ans plus tard, alors qu’il siège à la Commission de Sécurité Nationale sur l’Intelligence Artificielle, le même Eric Schmidt, devenu central dans la promotion des technologies à la jonction du politique et de l’économie, déclare : « Si nous voulons construire une économie et un système éducatif futurs basés sur le tout-à-distance, nous avons besoin d’une population entièrement connectée et d’une infrastructure ultrarapide. Le gouvernement doit investir massivement – peut être dans le cadre d’un plan de relance – pour convertir l’infrastructure numérique du pays en plateformes basées sur le cloud et les relier à un réseau 5G1 ».
Les sept premières capitalisations boursières mondiales sont toutes des entreprises de l’économie numérique, et regroupe une bonne partie des Big Tech.
Ce projet politique est en voie d’achèvement : en 2025, sans comptabiliser l’usage des écrans pour le travail, la population mondiale a passé en moyenne 6 heures et 45 minutes par jour devant les écrans, dont 2 heures et 31 minutes sur les réseaux sociaux2 ; le numérique est devenu la matrice qui reconfigure et optimise l’ensemble des processus industriels et des macro-systèmes techniques ; en raison de l’explosion de la demande en centres de données, la consommation électrique pourrait être multipliée par 3 entre 2023 et 2030, sachant qu’en 2024, plus de la moitié de la consommation mondiale d’électricité consommée par les centres de données est d’origine fossile3 ; les services publics ont été largement numérisés, tandis que le chantier pour l’école se fait à marche forcée, grâce à des milliards d’euros d’argent public (plan France Relance) ; la surveillance de masse à grande échelle s’approfondit à mesure que les outils se perfectionnent4, etc.
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
Si cet aperçu quantitatif ne dit pas tout des pratiques5, il souligne un fait massif : en quelques décennies, la civilisation des écrans et du numérique a enfanté un mode d’être, de relations et d’interactions profondément nouveaux. Lorsque les coordonnées de l’expérience humaine sont à ce point modifiées, les sciences humaines ont pour habitude de parler d’un « fait social total » : une réalité sociale complexe et multidimensionnelle, qui interfère sur la totalité de la société et de ses institutions, et façonne les individus.
Illustration de cette nouvelle norme qui concoure à une série de métamorphoses : durant la période de développement foudroyant du numérique, la France a perdu 18 000 de ses bars-tabac entre 2002 et 2022. Si ces lieux de sociabilité ordinaires, tant en ville qu’à la campagne, ont décliné progressivement durant tout le XXe siècle6, la vague de fermetures des deux dernières décennies a porté un coup fatal à une partie du tissu social. Une récente étude du Centre pour la recherche économique et ses applications fait d’ailleurs le lien entre ces fermetures et la progression du vote pour l’extrême droite :« ce n’est pas la fermeture elle-même qui affecte immédiatement les comportements électoraux, mais l’accumulation lente de ses conséquences : la raréfaction des interactions ordinaires, l’appauvrissement de la parole collective, la cristallisation progressive d’un récit de déclin qui peut nourrir un sentiment de relégation et finit par trouver son expression électorale7 ».

L’accélération « de la désagrégation des réseaux sociaux locaux » et « l’érosion d’un mode de vie populaire tout entier » pourraient être mises en regard avec l’impérialisme de l’économie numérique qui ambitionne de refondre l’essentiel des rapports humains et sociaux via l’infrastructure numérique. De la surveillance globale qui abolit la vie privée à l’école numérique en passant par le phénomène d’addictions et de santé mentale, le numérique et son infrastructure écocidaire occupent une place centrale dans la redéfinition du capitalisme contemporain et des pathologies qu’il génère. Comment comprendre la nature de ces transformations ? Pourquoi les promesses d’émancipation sociale et économique portées par les promoteurs d’Internet il y a 30 ans se sont révélées illusoires et ont même accentué les ravages du vieux capitalisme industriel ?
Cette septième rencontre Terrestres reviendra aux sources de l’utopie numérique née il y a plus de 30 ans. La soirée sera rythmée en quatre temps :
1/ Nous commencerons par une rapide généalogie pour rappeler la préhistoire et l’histoire de ce projet : cybernétique et utopie de la communication après la seconde guerre mondiale et les expériences totalitaires ; micro-informatique dans les années 1970 où se mêlent utopies hippies et libertariennes ; pionniers du numérique et culture hacker dans les années 1990 ; conquête hégémonique dans les années 2010 puis coup d’accélérateur avec le Covid et l’IA.
Au cœur de projet politique du numérique on retrouve l’idée de la neutralité des techniques : les machines numériques seraient de simples instruments au service de la société.
Dans chacun de ces contextes, nous interrogerons les promesses véhiculées à propos d’Internet et réfléchirons aux stratégies des acteurs qui ont participé à son développement. Ainsi, en 2021, Sam Altman, le PDG d’OpenAI, assure que « le progrès technologique suit une courbe exponentielle », annonce « une société bien plus juste, heureuse et prospère » et « un avenir radieux » grâce au développement de l’IA, qui conduira d’après lui à une croissance soutenue. Derrière l’art de la promotion inhérent à cette économie de la promesse et de la recherche incessante de nouveaux investisseurs, se cache un fond d’utopie qu’il convient de mettre à jour. Au cœur de ce projet politique se loge également une idée de la neutralité des techniques érigée en principe : prolongeant les outils, les machines numériques seraient de simples instruments au service de la société et ne feraient que servir les fins qu’on leur assigne : communication, transparence, liberté d’expression, décentralisation, horizontalité, biens communs, etc.
2/ Pour comprendre les mécanismes à l’œuvre, nous convoquerons deux exemples significatifs :
– avec Sébastien Broca et Félix Tréguer, nous reviendrons sur l’ascension des Big Tech au cours des trois dernières décennies. De récentes recherches permettent de comprendre sous un nouveau jour le rôle joué par les acteurs critiques des Big Tech. Malgré leur orientation libérale et leur défense d’un numérique émancipateur, nous verrons qu’ils ont le plus souvent agi de façon symbiotique avec les grandes compagnies de la Big Tech, favorisant in fine leur ascension.
– avec Karine Mauvilly, nous examinerons le chantier de l’école numérique (les justifications avancées, les acteurs qui l’ont soutenu, les coûts, etc.), afin d’en esquisser un premier bilan. Exemple significatif : pionnier du numérique à l’école, la Suède a décidé en 2023 de revenir … à l’école traditionnelle, sans écran8.
3/ Dans un troisième temps de la soirée, nous procéderons à un diagnostic transversal, en examinant la matérialité de cette infrastructure mondiale (ressources énergétiques et métalliques mobilisées, emprise terrestre, métabolisme global à travers les centres de données et les câbles maritimes et terrestres) ; le travail humain qu’elle requiert à travers le monde (travailleurs du clic exploités) ; les subjectivités qu’elle façonne. La description empirique d’une industrie qui n’a cessé de se présenter comme immatérielle permettra de montrer en quoi elle poursuit et accentue les dynamiques de fond du capitalisme industriel.
4/ Après avoir exposé les ressorts utopiques du numérique et identifié les manières dont les Big Tech se sont appuyées sur les critiques d’un numérique progressiste pour accroitre leur emprise sur la société, puis exposé l’arrière-monde matériel et humain de l’infrastructure numérique, nous réfléchirons à l’après-numérique. À quoi faisons-nous face politiquement ? Dès 1998, Upside, magazine parmi les plus lus à la fin des années 1990 dans la Silicon Valley, s’interrogeait « Entrons-nous dans le techno-fascisme ?9 ». Que penser de ce diagnostic un quart de siècle plus tard, alors que l’utopie d’Internet est devenue un empire économique et politique oligopolistique, dévorant d’immenses ressources et exploitant le travail dans les Suds, contrôlant l’espace public et maître d’une énorme infrastructure mise au service des techniques de gouvernement et de l’industrie de la surveillance ?
Pour sortir du Capitalocène, faudra-t-il également démanteler le numérique ? A quel point s’en émanciper ? Par où commencer ?
Pour sortir du Capitalocène, faudra-t-il également démanteler le numérique ? À quel point s’en émanciper ? Par où commencer ? Depuis la situation de verrouillage présent, est-il préférable d’ouvrir un chemin de désescalade et de réappropriation technologique, à travers l’alternumérisme et le cyberminimalisme, pour déboucher à terme sur une transformation radicale de l’infrastructure ? Mais alors comment ne pas reproduire les illusions passées du mouvement hacker qui a tenté d’inventer des usages subversifs ? Comment ne pas voir dans Mastodon ou Telegram des « compléments de gamme » qui laissent inchangé le cœur de la machine, à l’image du diagnostic de l’Atelier Paysan à propos de la cohabitation inoffensive d’une agriculture bio minoritaire avec le modèle agro-industriel écocidaire ?
L’accélération autoritaire du capitalisme numérique sous l’effet de l’IA ne devrait-elle pas nous inciter à ouvrir une ère de sabotage et de destruction ciblées des technologies numériques ? Comment mettre à l’arrêt une industrie qui ne cesse d’une part de produire des coups d’État technologiques permanents et d’autre part de façonner la part la plus intime de nos subjectivités ? Quelle que soit l’orientation privilégiée, peut-on imaginer une coalition politique qui serait en mesure de permettre une mutation de l’infrastructure numérique ? Comment lutter contre l’économie politique dominante de la Tech ? Nous discuterons des résistances, des alternatives et des stratégies.

Intervenant·es :
Photo d’ouverture : Aileen Devlin | Jefferson Lab.

NOUS AVONS BESOIN DE VOUS !
Depuis 2018, Terrestres est la revue de référence des écologies radicales.
À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.
Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.
En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.
Merci
!
L’article Numérique, la fin des illusions ? Anatomie d’une utopie est apparu en premier sur Terrestres.
12.02.2026 à 16:24
Guillaume Carnino
À mesure qu’une partie de la gauche découvre l’écologie, on ne cesse de constater qu’elle reste profondément industrialiste, prisonnière de sa foi dans le progrès et la neutralité des techniques. L’historien des techniques Guillaume Carnino adresse une série d’objections à C. Durand et R. Keucheyan, auteurs de “Comment bifurquer ? Les principes de la planification écologique”.
L’article Adieu aux cybersoviets : sur les impasses de l’accélérationnisme de gauche est apparu en premier sur Terrestres.

À propos de Cédric Durand et Razmig Keucheyan, Comment bifurquer ? Les principes de la planification écologique, Paris, La Découverte, 2024 (254 pages) et de Cédric Durand, Faut-il se passer du numérique pour sauver la planète ?, Paris, Amsterdam, 2025 (164 pages).
« Faut expliquer : tu vois, y’a le mauvais chasseur, il voit un truc qui bouge, il tire, il tire. Le bon chasseur, il voit un truc, il tire, mais… c’est un bon chasseur. »
Les Inconnus
À l’instar du bon et du mauvais chasseur, il y aurait, d’après Cédric Durand et Razmig Keucheyan, le bon et le mauvais numérique, le bon et le mauvais État, le bon et le mauvais marché, le bon et le mauvais capitalisme industriel. Respectivement économiste et sociologue, les deux auteurs tentent, dans leurs derniers ouvrages, de proposer des voies de sortie de la crise environnementale contemporaine. Si ces textes – dont la lecture est aussi ennuyeuse que celle d’un programme politicien – ne passeront probablement pas à la postérité, ils ont l’intérêt de révéler les stratégies industrialistes et technologiques d’une frange non négligeable de ces universitaires se revendiquant politiquement de la gauche. Les analyses de Cédric Durand et Razmig Keucheyan offrent en effet une base programmatique à la France insoumise, et reflètent une position commune au sein d’une partie de la gauche marxiste, condamnée à la cogestion du désastre et donc à l’impuissance – d’où ces tentatives accélérationnistes et éco-modernistes qui ne cessent de revenir sur le devant de la scène, alors même qu’elles ont déjà amplement révélé qu’elles constituaient des impasses.
Dans Comment bifurquer ? Les principes de la planification écologique (La Découverte, 2024), Durand et Keucheyan analysent les limites des positionnements économistes actuels face à l’urgence climatique : ils espèrent ainsi paver la voie d’une stratégie politique permettant de sortir de l’ornière écocidaire dans laquelle nos sociétés s’enfoncent un peu plus chaque année. Dans Faut-il se passer du numérique pour sauver la planète ? (Amsterdam, 2025), Durand retranscrit trois conférences présentées par l’Institut La Boétie (think tank de La France insoumise), et qui, à partir d’une critique de la concentration monopoliste des GAFAM, visent à infléchir le numérique vers davantage d’égalité sociale et de justice environnementale.
Notre critique de ces deux textes s’organise en quatre temps : après avoir fait part de notre étonnement quant à la référence appuyée à certaines politiques de la Chine contemporaine, nous proposons une analyse critique de leur conception du numérique mondialisé. Dans une troisième partie, nous discutons des conséquences de leur méconnaissance de l’histoire industrielle, une ignorance dommageable car elle engendre une série de contresens sur la nature des processus en cours. Enfin, nous terminons par la mention de plusieurs travaux montrant à quel point leur insistance sur la décision en matière de politique technologique évacue les principaux enjeux environnementaux du monde industriel contemporain.
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
Ce qui étonne assez directement à la lecture de Durand et Keucheyan, c’est leur admiration pour la Chine d’aujourd’hui du point de vue politique et environnemental : la Chine aurait mis en place de nombreux leviers bénéfiques, dont on pourrait s’inspirer afin de « bifurquer » vers un monde meilleur. Si les auteurs en appellent à plusieurs reprises à un renouvellement des formes démocratiques contemporaines, notamment en matière d’écologie, ils semblent néanmoins avoir quelque appétence pour les régimes politiques forts, puisqu’ils revendiquent la constitution de cybersoviets (D1181 ) et voient dans la dictature sud-coréenne de Park Chung-Hee une situation à certains égards inspirante (DK144). Mais c’est dans leurs louanges adressées aux politiques chinoises contemporaines que cette tendance est la plus visible. Il convient ici de citer directement ces propos.
À rebours des nombreux travaux dénonçant les ravages psychosociaux du crédit social chinois2, Durand vante les mérites de ce système, même s’il met en garde contre ses « dérives possibles » (D44) : « Contre l’ignorance créée par le marché, le système de crédit social permet de stabiliser les réputations et de réencastrer les échanges marchands dans le social. » (D44) Là où les sociétés du face-à-face ont été massivement transformées par l’anonymat urbain et la massification industrielle, recourir à un système de gestion numérique de la confiance permettrait de « partir des masses pour retourner aux masses » (Mao est ici directement convoqué et cité – D44, voir aussi D162).

Autre source d’inspiration théorique, Jack Ma (créateur du site internet marchand Alibaba.com et président d’Alibaba Group jusqu’en 2019) est longuement commenté au sujet de sa vision du big data et de la prédiction algorithmique, qui permettrait de devenir plus efficace que le marché lui-même en matière de planification et d’optimisation économique (D109-111). Partisan de la nationalisation étatique, Durand suggère que des représentants du gouvernement siègent dans les conseils d’administration des grandes entreprises du numérique, à l’instar de ce qui se fait en Chine : « Ce dispositif a été adopté par la Chine depuis quelques années : l’État chinois est actionnaire des grandes firmes, […] ce qui lui permet d’avoir un droit de regard sur toutes les décisions stratégiques et techniques des Big Tech » (D91, voir D151 aussi).
La stratégie de Temu (une plateforme de commerce en ligne, exploitée par la société chinoise PDD Holdings Inc., qui propose des produits à prix cassés, expédiés aux clients directement depuis les usines) est aussi convoquée comme moyen d’« établir une connexion permanente entre les besoins et la production, et d’orienter cette dernière selon des préférences et des choix collectifs qui ne se réduisent pas à de simples prix » (D120-121). Ce que Durand perçoit comme une vertu est depuis longtemps intégré au sein du marketing contemporain, les mécanismes les plus affûtés de la publicité contemporaine recourant au pair-à-pair (P2P) dont les recommandations commerciales sont bien plus efficaces que les messages publics impersonnels. Vantant à cet égard les mérites de la figure du prosumer (sic), contraction de producer (producteur) et consumer (consommateur), Durand et Keucheyan écrivent ainsi qu’« il ne s’agit plus là de sortir de l’échange marchand mais au contraire de rechercher les voies d’un engagement marchand approfondi » (DK174).
Comment peut-on, en 2025, percevoir la Chine de Xi Jinping comme un modèle environnemental tout en se revendiquant d’une certaine émancipation ?
Alors que de nombreux auteurs peu évoqués dans ces ouvrages dénoncent, depuis l’avènement du numérique, sa participation à un projet politique délétère3, Durand joint sa voix au cœur des pourfendeurs récents de la « mutation fasciste du capitalisme numérique » (D11), qu’il n’hésite pas à qualifier de « grand événement de l’histoire universelle » (D146). Ce revirement lui fait désormais percevoir les GAFAM comme l’incarnation d’un nouveau Mal. À l’inverse, la riposte industrielle chinoise est vantée comme un incomparable Bien : « Sous les coups de boutoir des prouesses numériques chinoises, le vernis des prétentions suprémacistes des géants de la côte Ouest s’écaille » (D164). Il est néanmoins probable que si Baidu, Alibaba, Tencent et Xiaomi font trembler les GAFAM, ce n’est pas pour leur programme politique émancipateur.

Mais la palme revient sans doute à cette assertion, commune aux deux auteurs qui voient dans la nation chinoise un modèle écologique : « La Chine est en avance sur ses objectifs de décarbonation » (DK152). Premier pays producteur de gaz à effet de serre (plus de 30 % des émissions mondiales), la Chine industrielle produit tous les trois ans, depuis 2003, autant de béton que les États-Unis au cours du XXe siècle4. Multiplier les statistiques sur les pollutions engendrées par ce territoire devenu l’usine du monde semble inutile tant l’affaire est scientifiquement et médiatiquement rebattue : la dégradation très rapide de l’environnement y est telle que le pays, comme toute puissance de premier plan, est contraint d’exporter ses pollutions pour maintenir sa trajectoire industrielle.

Comment peut-on, en 2025, percevoir la Chine de Xi Jinping comme un modèle environnemental tout en se revendiquant d’une certaine émancipation ? S’agit-il d’un soutien politique volontaire (à l’instar des communistes ayant longtemps défendu le régime stalinien ou de l’extrême droite contemporaine qui s’aligne invariablement sur la Russie de Poutine) ou d’un simple aveuglement idéologique ? Tous les projets de « décarbonation » issus de la pensée économique mainstream réduisent la crise écologique à un problème climatique, mesuré à partir des émissions de CO2, maintenant ainsi le réductionnisme économiciste largement à l’origine des ravages en cours. Dans tous les cas, il convient d’étudier plus avant la rhétorique des auteurs afin de voir comment s’enchâssent ces louanges à l’égard des politiques chinoises dans leur programme politique plus général.
Durand rêve d’une Europe numérique forte : déplorant le « décrochage européen […] manifeste » (D33) en la matière, et vantant le besoin de « technologies souveraines » (D93), il plébiscite l’interventionnisme étatique en faveur de l’environnement et de la justice sociale : « le numérique lui-même doit faire l’objet d’une planification écologique consciente » (D129). La récente crise sanitaire mondiale est le seul exemple donné quant aux potentialités concrètes de redéploiement du numérique vers davantage d’écologie : « pendant la pandémie de Covid-19, l’Union européenne a négocié avec Netflix une baisse de la qualité des images diffusées par la plateforme pour permettre le développement du télétravail » (D129). Pour le reste, il faut se contenter de déclarations de bonnes intentions quant à « l’utilisation ciblée du numérique à des fins de planification écologique et de décroissance matérielle » (DK123), car imaginer se passer du numérique serait « illusoire » (D140) : « Il nous faudra donc discriminer dans les usages du numérique, développer des mesures de sobriété dans l’usage des outils innovants qui émergeront » (D142). Cette croyance dans la possibilité de sélectionner les seuls effets écologiquement souhaitables d’un système technique aussi immense que l’agrégation d’ordinateurs et de réseaux que constitue le numérique aujourd’hui fait état d’une méconnaissance profonde de la nature de celui-ci. Il convient donc de rappeler quelques généralités quant au numérique mondialisé.
➤ Lire aussi | Planification écologique : frein d’urgence ou administration de la catastrophe ?・Geneviève Azam (2023)
Un rapport de 2021 indique ainsi qu’en Europe la part d’utilisation des ressources fossiles serait de 62 % pour les terminaux, de 14 % pour les réseaux et de 24 % pour les centres de données – des chiffres relativement similaires aux évaluations en termes de toxicité environnementale ou de d’impact climatique du numérique5.
La croyance dans la possibilité de sélectionner les seuls effets écologiquement souhaitables d’un système technique aussi immense que le numérique traduit une méconnaissance profonde de la nature de celui-ci.
Les terminaux utilisateurs constituent la face émergée de l’iceberg : ordinateurs, téléphones, tablettes, objets connectés, etc. sont la dimension visible du numérique pour l’utilisateur. Un smartphone contient de très nombreux matériaux, notamment métalliques : nickel, plomb, étain, bismuth, or, argent, tungstène, platine, rhodium, béryllium, cuivre, phosphore, arsenic, gallium, germanium, silicium, zirconium, ruthénium, néodyme, fer, bore, samarium, cobalt, praséodyme, chlore, dysprosium, tantale, niobium, palladium6 – composés qui doivent être extraits de la croûte terrestre pour fabriquer les 1,4 milliard d’appareils mis en circulation chaque année sur Terre7. Malgré les ravages déjà considérables de l’industrie minière, on s’apprête à extraire en quelques décennies davantage de métaux dans la croûte terrestre que l’on en a miné au cours de l’histoire humaine, sans compter le silicium, constituant de base des puces électroniques que l’industrie s’emploie à insérer dans tous les objets du quotidien8.

L’historien Christophe Lécuyer a ainsi montré combien la trajectoire environnementale de la « vallée du silicone » était délétère9. Dès les années 1950, la firme IBM mène des études et sait que la production électronique engendre des effets néfastes sur la santé, par la suite confirmés par des enquêtes toxicologiques : pollution des nappes phréatiques contaminant l’eau (consommée par les populations à proximité), maladies respiratoires faisant suite à des inhalations acides, destruction de la couche d’ozone liée à l’émission de chlorofluorocarbures (interdits par le protocole de Montréal en 1987, mais de nouveau illégalement émis en grande quantité depuis le début des années 2010), cancers et malformations infantiles engendrées par du trichloréthylène, etc.
Malgré les ravages déjà considérables de l’industrie minière, on s’apprête à extraire en quelques décennies davantage de métaux dans la croûte terrestre que l’on en a miné au cours de l’histoire humaine.
Au fondement de l’électronique réside la matérialité des puces : logiques pour les calculs, mémoires pour le stockage de données, analogiques pour numériser des signaux comme le son ou la lumière, capteurs divers, etc. La fabrication de ces dispositifs à semi-conducteurs est un procédé complexe – et qui ne cesse de se complexifier davantage – utilisant le plus couramment du silicium (extrait du quartz, puis transformé en silicium métal, avant d’être raffiné en polysilicium, soit environ 2933 kWh d’électricité pour produire 1 kilogramme de plaque de silicium à graver10– c’est-à-dire environ les deux tiers de la consommation annuelle d’un ménage français moyen). Les principales étapes au cours desquelles le circuit est peu à peu produit sur un disque de matériau semi-conducteur (le wafer) recouvrent notamment la photolithographie (qui inscrit le masque à graver), la passivation et l’oxydation thermique (création d’un film protecteur par projection d’un agent oxydant à haute température), le dopage (ajout d’impuretés en petites quantités afin de modifier la conductivité), la métallisation (revêtement de la surface avec un métal afin de créer un chemin de retour pour le courant électrique) et la gravure (étape critique qui consiste à retirer une ou plusieurs couches de matériaux à la surface du wafer).
Chacune de ces étapes doit être maîtrisée et contrôlée, c’est-à-dire réalisée dans un environnement hermétique et exempt de toute micropoussière, que l’on appelle conséquemment « salle blanche ». Produire une micropuce électronique consommerait ainsi 32 litres d’eau, soit 20 000 litres pour un ordinateur11 – des estimations très probablement sous-évaluées. Les entreprises qui réalisent cette production, bien que rarement médiatisées, sont parmi les plus cotées financièrement : la capitalisation boursière de TSMC (Taiwan Semiconductor Manufacturing Company) est de 600 milliards de dollars en 2021, soit l’une des dix entreprises les plus chères du monde. Sa nouvelle ligne de production entrée en service en 2022 a coûté 20 milliards de dollars : une salle blanche qui recouvre la surface de vingt-deux terrains de football12. En 2020, la Chine a acheté 350 milliards de dollars de puces électroniques, soit davantage que ses importations de pétrole. En 2021, l’industrie des semiconducteurs a produit 1,1 billion de puces (soit 140 par personne sur Terre) – le dispositif le plus complexe que l’être humain ait jamais produit, dont le cycle de vie (fabrication, tests, packaging) peut impliquer le franchissement de plus de 70 frontières pour un déplacement supérieur à 40 000 kilomètres13.

Si quelques rumeurs justifiant l’augmentation du prix des ordinateurs et téléphones suite à la pandémie de Covid-19 ont circulé au sujet des entreprises de microélectronique, l’historien Chris Miller parle sans ambages de la « guerre des semi-conducteurs » comme de l’enjeu stratégique mondial14 : ayant participé à asseoir la puissance militaire américaine, ces composants à la base de l’électronique se sont largement mondialisés et se spécialisent aujourd’hui (pour la performance graphique, pour l’intelligence artificielle, etc.) à mesure que leur coût de fabrication augmente avec leur miniaturisation. La première puce comptait quatre transistors, contre 15 milliards pour celles produites actuellement, alors que seules trois entreprises tiennent la course : TSMC en tête, talonnée par Samsung et Intel. Dès 1985, le physicien Richard Feynman envisageait une limite inférieure en termes de taille à trois atomes pour la construction de transistors15 : or, plus on descend technologiquement vers l’infiniment petit et l’ultimement précis, plus cela nécessite de l’énergie en quantité importante et donc, des coûts considérables.
Dans la fabrication des puces, plus on descend technologiquement vers l’infiniment petit et l’ultimement précis, plus cela nécessite de l’énergie en quantité importante et donc, des coûts considérables.
Par ailleurs, loin de se limiter à des rachats entre grandes firmes, la concurrence capitaliste liée aux micropuces engendre de véritables conflits, et de nombreux morts. Le sociologue Fabien Lebrun a étudié le cas du Congo (RDC) où, depuis les années 1990, l’explosion mondiale de la production de biens électroniques a déclenché une guerre des métaux technologiques qui n’a fait que gagner en intensité depuis16. La région des Grands Lacs en Afrique subit depuis des siècles les ravages de la mondialisation, dont l’extraction des « minerais de sang » (coltan pour les smartphones, cobalt pour les batteries « vertes ») constitue le dernier avatar : économie militarisée, criminalité institutionnalisée, pillage généralisé, travail forcé, viol comme arme de guerre, destruction des forêts et anéantissement de la biodiversité comptent parmi les fléaux qui prospèrent dans le sillage de la « dématérialisation » numérique17.
➤ Lire aussi | Un néo-colonialisme technologique : comment l’Europe encourage la prédation minière au Congo・Celia Izoard (2025)
Les infrastructures de transport font voyager les données dans les deux sens entre le fournisseur d’accès contacté depuis un terminal et le fournisseur de contenu. Ces informations peuvent emprunter plusieurs voies pour arriver à bon port (d’où d’ailleurs la robustesse du réseau des réseaux) : communication interne à un même fournisseur d’accès, réseaux de diffusion de contenu (CDN, pour Content Delivery Network), peering privé, points d’échange internet (IXP, Internet eXchange Point) et transporteurs de transit. Les CDN n’existaient pas au début de l’internet commercial, mais aujourd’hui, presque tous les acteurs marchands les emploient d’une manière ou d’une autre pour le contenu régulièrement sollicité. Le plus grand fournisseur tiers de services CDN aux États-Unis est Akamai, avec des revenus de 2,7 milliards de dollars en 201818. Bien que les réseaux de diffusion de contenu soient invisibles pour l’utilisateur, la grande majorité des données reçues passe directement par cette voie. S’il existe des centaines d’IXP aux États-Unis, le plus grand opérateur au monde est Equinix, avec un chiffre d’affaires de plus de 5 milliards de dollars et plus de 200 centres de données dans de nombreuses villes, dont certains sont directement configurés pour servir d’IXP19.

Si les satellites sont souvent présentés comme un symbole de la communication du futur, 99 % des données numériques transitent à la surface du globe via des câbles souterrains et sous-marins20. Internet repose ainsi autant sur les câbles terrestres (à l’instar de la fibre optique qui connecte 83 % des foyers en 2023 en France21) que maritimes (dont le plus long, SEA-ME-WE 3, qui connecte l’Asie du Sud-Est, le Moyen-Orient et l’Europe de l’Ouest, totalise 39 000 km, alors que 2Africa, son concurrent direct revendiquant 45 000 km, est en train d’être mis en service). À l’aube des années 2020, le globe est quadrillé par plus de quatre cents câbles sous-marins, pour un total d’environ 1,3 million de kilomètres. Même les zones les plus inhospitalières, comme l’océan Arctique, font l’objet de négociations et de batailles géopolitiques et industrielles afin d’y installer ces autoroutes de l’information, notamment parce que la mise en place d’une liaison internet stable dynamise et rend possible la montée en puissance d’autres activités industrielles (ainsi, le gouvernement russe et les agences fédérales états-uniennes responsables de la route maritime du Nord souhaitent développer le câble Polar Express pour y connecter les ports et les sites d’extraction de ressources tout le long du Passage du Nord-Est22).

L’aspect technique de ces explications ne doit pas nous égarer quant à la prétendue dématérialisation : sur Terre, les dix millions d’antennes-relais (2G à 5G), le milliard de box DSL/fibre, les deux cents millions d’équipements autres (routeurs, bornes WiFi, etc.), le million de kilomètre de câbles sous-marins et la centaine de millions de serveurs dédiés accaparent tant de matières et d’énergie qu’ils constituent l’une des plus vastes entreprises de matérialisation jamais engagées par l’humanité23.
Le cloud (qui ne peut être réduit aux GAFAM, comme le croit Durand, D75) est enfin constitué par les infrastructures de stockage de données réparties sur le globe dans un peu moins d’une dizaine de milliers de data centers. Un data center, ou centre de données, est l’infrastructure industrielle permettant d’héberger plusieurs milliers de serveurs informatiques en un même site24. Cela implique de calibrer le bâti (résistance au sol pour des baies de serveurs pouvant dépasser une tonne, faux-plancher ou chemins de câbles au plafond pour la connectique, allées froides et chaudes afin d’optimiser la climatisation, etc.), l’alimentation électrique (les six plus gros centres sur Terre sont alimentés à plus de 100 MW, soit davantage qu’une ville de plusieurs dizaines de milliers d’habitants25), la climatisation (toute panne pouvant déclencher un incendie tant la chaleur émise par les machines est importante), le câblage (chaque salle machine contient plusieurs tonnes de câbles savamment agencés26), l’interconnexion aux réseaux numériques (bien souvent à proximité des grandes villes où streaming, sites commerciaux, jeux vidéo et finance consomment beaucoup de puissance de calcul et de bande passante), la sécurité énergétique et physique (groupes électrogènes dotés de cuves de fioul de plusieurs hectolitres, sas biométriques, vigiles, etc.), et la maintenance de l’ensemble de ces activités (ce qui nécessite une main d’œuvre en permanence sur site afin de pallier les défaillances récurrentes des systèmes27).
Le numérique accapare tant de matières et d’énergie qu’il constitue l’une des plus vastes entreprises de matérialisation jamais engagées par l’humanité.
Même les petites structures de quelques centaines de mètres carrés sont soumises à de véritables contraintes industrielles d’optimisation, là où les plus grands centres de la planète sont de véritables usines à données : le China Telecom-Inner Mongolia Information Park dispose d’une capacité totale de 100 000 baies, soit 1,2 million de serveurs répartis sur 1 kilomètre carré et alimentés à 150 MW, pour un coût total évalué à 3 milliards de dollars. Comme le résume un consultant de la filière : « il n’y a pas de bâtiment qui, au mètre carré, coûte plus cher qu’un centre de données de haut niveau28 ».
Récapitulant l’histoire de la concentration industrielle des machines informatiques, l’historien Nathan Ensmenger énonce cette vérité simple mais trop méconnue : le cloud est une usine (« the cloud is a factory29 »). À l’échelle du globe, c’est d’ailleurs le charbon, bien plus que l’éolien ou le nucléaire, qui alimente ces gigantesques centres de calculs et de données. La multinationale Google tente ainsi de redorer son blason environnemental en promettant la mise en place d’infrastructures colossales visant à fournir une électricité renouvelable à l’ensemble de son parc de machines30) : puisque l’éolien ou le solaire ne sont pas des énergies suffisamment stables en termes calendaires, plutôt que de les suppléer intégralement par des énergies fossiles (comme c’est généralement le cas aujourd’hui), la firme construit des parcs continentaux d’infrastructures « renouvelables » afin de les activer algorithmiquement au gré de la météo et de ses besoins énergétiques. À terme, l’idéal consisterait à faire coïncider les aléas de la production d’électricité avec la répartition des calculs sur une zone étendue (voire la planète), afin de ne plus être tributaire du fossile.
Quand bien même ces énergies prétendument renouvelables ne dépendraient pas d’énergies carbonées pour la production de leurs infrastructures, on peine à imaginer comment le fait de recouvrir des déserts de panneaux solaires et des océans d’éoliennes pourrait être une solution face aux atteintes environnementales contemporaines. On saisit alors à quel point le déploiement du numérique implique une réorganisation colossale du monde afin de rendre à chaque instant disponibles les données requises : l’empreinte écologique d’internet est gigantesque, et elle ne fait que croître. Le numérique encapsule et optimise l’ensemble des processus industriels et des macro-systèmes techniques, tout en constituant lui-même un secteur industriel à part entière. Alors que s’accroît la longueur des chaînes industrielles grâce au numérique, l’empreinte géographique de celui-ci s’accentue ; et à mesure que l’emprise territoriale du numérique augmente, la capacité d’optimisation qu’il offre grandit ; ad infinitum.
Le numérique encapsule et optimise l’ensemble des processus industriels et des macro-systèmes techniques, tout en constituant lui-même un secteur industriel à part entière.
Avant l’explosion de l’industrie du data center liée au développement des intelligences artificielles génératives, une controverse existait quant au fait que l’amélioration de l’efficacité énergétique des machines puisse endiguer la croissance de l’impact environnemental liée au développement des centres de données31. Certains auteurs faisaient remarquer que la baisse relative de consommation électrique cachait en réalité une augmentation de la consommation d’eau32 (les nouvelles technologies de climatisation fonctionnant de façon plus « sobre » d’un point de vue électrique nécessitaient davantage de ressources hydriques). Autrement dit, la facture environnementale doit toujours être payée à un moment ou à un autre. David Bol, spécialiste des systèmes électroniques minimalistes, explique d’ailleurs que les arguments vantant l’amélioration de l’efficacité énergétique sont fallacieux et dangereux tant ils masquent la fuite en avant contemporaine33.

Quoi qu’il en soit, à l’heure des investissements massifs dans les technologies de l’intelligence artificielle, ces débats des années 2010 paraissent presque lunaires : « Amazon, Microsoft, Google et Meta (Facebook, Instagram) [investissent] en 2024 […] 200 milliards de dollars (187 milliards d’euros) en nouvelles infrastructures, soit 45 % de plus qu’en 2023 et 180 % par rapport à 201934 » – des placements logiques quand on sait qu’une requête sur un assistant d’intelligence artificielle générative consommerait dix fois plus d’électricité d’une simple recherche sur Google, elle-même pourtant déjà l’agrégat de calculs dispatchés dans les quelques 900 000 serveurs de la firme.
Dans la droite ligne du vieux projet de contrôle cybernétique intégral, l’idée de maintenir le quasi-million de serveurs de Google pour ne réaliser que des recherches internet bénéfiques pour l’environnement relève de la fable sociotechnique.
On comprend à quel point les volontés de faire « bifurquer le numérique » vers davantage de sobriété sont naïves et irréalistes : d’après Durand, « les data centers d’aujourd’hui regorgent d’informations ultra-précises couvrant un spectre immense d’activités et d’objets humains et non humains. Il y a là, potentiellement, une infrastructure informationnelle inouïe pouvant être mise au service de la bifurcation » (D121). Dans la droite ligne du vieux projet de contrôle cybernétique intégral, l’idée de maintenir le quasi-million de serveurs de Google pour ne réaliser que des recherches internet bénéfiques pour l’environnement relève de la fable sociotechnique. Véritable pensée magique du numérique, ces incantations sont aussi absurdes que si l’on entendait maintenir les infrastructures autoroutières, minières et pétrolifères de la civilisation automobile pour ne laisser circuler que les ambulances. Ce qui n’empêche pas Durand et Keucheyan de claironner qu’« un autre numérique est possible » (DK115), et de déplorer la « perte de contrôle sur nos existences, accaparées et contrôlées par le numérique » (D51), puisque d’après eux, ce sont les méchants GAFAM qui s’accaparent aujourd’hui indûment les bénéfices d’une industrie qui jadis profitait à tout le monde. Et l’on saisit alors qu’ils ne connaissent pas mieux les dynamiques historiques de l’industrialisation que celles du numérique.
D’après les dires de Durand lui-même (D19), son concept phare de technoféodalisme (qui vise à épingler l’hégémonie prédatrice des firmes monopolistiques étasuniennes du numérique35 – les GAFAM ou Big Tech) est emprunté à un ouvrage de jeu de rôle publié en 199036. De la même manière (D98), c’est dans le feuilleton télévisé Star Trek que Durand va chercher le concept de cyber-éco-communisme (quand la conscience numérique globale de l’humanité subordonnerait enfin l’économique au politique), revendiquant ainsi cette abondance technologique débridée qui percole l’ensemble des épisodes de la série. L’inspiration conceptuelle en dehors du champ académique n’est pas un problème en soi, mais que les notions centrales d’une critique qui se veut anticapitaliste soient directement issues de la culture de masse produite par l’industrie du divertissement a de quoi laisser perplexe.
On ne peut reprocher à un auteur d’avoir tout lu – une tâche impossible en l’état de la science numérique mondialisée. Mais il aurait néanmoins pu être judicieux, dans le cadre de livres programmatiques traitant de numérique, de capitalisme industriel et d’environnement, d’aller regarder quelques travaux d’histoire des technologies, de sociologie de l’industrie, de philosophie des techniques, d’économie de la subsistance, d’histoire de l’environnement, de critique de la valeur, d’écologie politique ou même de STS consacrés aux liens entre industrie, numérique et pollution.

Cette cécité par rapport aux travaux récents conduit à une série de contresens ou de fausses ruptures historiques. Durand perçoit ainsi la prédation des Big Tech sur des infrastructures et productions mutualisées comme une nouveauté radicale propre au technoféodalisme numérique (D73), là où en réalité l’histoire de l’industrialisation regorge, depuis deux siècles au moins, de ce type d’accaparement. Ainsi le déploiement du chemin de fer indien est-il entièrement préempté par des firmes britanniques : les bénéfices revenaient aux compagnies anglaises mais la main-d’œuvre était fournie par le gouvernement indien, qui devait par ailleurs garantir le remboursement des capitaux anglais en cas d’échec du projet (i.e. 95 000 000 £ investies entre 1845 et 1875 pour installer plus de 8 000 km de lignes37). La construction des infrastructures technologiques est le fruit d’une mutualisation des coûts par les gouvernements (y compris aux États-Unis, prétendue terre du libre-échange38), généralement suivie à plus ou moins brève échéance par une privatisation des bénéfices. L’histoire de la construction des réseaux numériques ne diffère aucunement de cette histoire industrielle : les acteurs de la téléphonie, financés par l’État, ont installé les infrastructures ayant rendu possible le déploiement des multinationales du numérique.
L’économiste Marianna Mazzucato montre que les fonds publics sont à l’origine du développement des plus grands succès de la firme Apple (iPod, iPhone et iPad), et que cette situation est la norme et non l’exception : le même type de soutien appuie le développement des nanotechnologies, des biotechnologies, des énergies renouvelables industrielles, des firmes pharmaceutiques, etc.39 L’histoire de l’industrialisation nous apprend que l’organisation duale État/entreprises permet invariablement de mutualiser les coûts et de privatiser les bénéfices.
La tranquillité apparente de la personne connectée au réseau est conditionnée par un encadrement serré de son intégration ; l’abondance tangible est arrimée sur une mise en dépendance globale.
De la même manière, Durand perçoit une situation inédite et spécifique au technoféodalisme des Big Tech dans la monétisation des rapports de dépendance à certaines productions (D155). La quasi-totalité de l’histoire des macro-systèmes techniques expose pourtant ces mêmes dynamiques à l’œuvre, et ce dès les débuts de la construction des grands réseaux technologiques (gaz, électricité, téléphone, etc.40 ). Car l’intérêt d’un macro-système technique réside dans sa capacité à délivrer de certaines contraintes en regroupant leur production en des lieux distants afin de pouvoir bénéficier de leurs effets en tout point du réseau : on croit alors posséder en propre une faculté disponible sur le lieu du branchement au système (la voiture sur la route, le smartphone tenu dans la main, le plat surgelé sorti du congélateur, etc.), faculté qui est en réalité conditionnée par d’immenses chaînes de traitement en amont et en aval, et dont le point réticulaire auquel on se branche a incessamment besoin pour continuer à exister. La tranquillité apparente de la personne connectée au réseau est conditionnée par un encadrement serré de son intégration ; l’abondance tangible est arrimée sur une mise en dépendance globale. Historiquement, cette dépendance est la source de nombreuses résistances face au développement de ces réseaux technologiques. Dès les débuts du XIXe siècle, les promoteurs français de l’éclairage au gaz sont ainsi confrontés aux réticences des élites mondaines, voyant d’un mauvais œil cette subordination des foyers à l’industrie qui remet en cause la hiérarchie sociale : le « père de famille [se verrait soumis] au pouvoir d’un industriel, ou pire, d’un quelconque employé qui peut à tout moment couper l’alimentation au gaz41 ». Que l’industrie s’immisce dans les relations familiales paraît alors inacceptable.

Mais ces controverses passées constitueraient un obstacle théorique et politique pour les auteurs, qui préfèrent vanter ce bon vieux temps du capitalisme à l’ancienne, vicieusement perverti par d’avides Big Tech : pour Durand, « le capitalisme industriel était un jeu à somme positive » (D50), car il s’agissait alors de produire des richesses matérielles le moins cher possible, donc potentiellement accessibles à tout le monde. On ne peut qu’inviter les auteurs à découvrir les travaux (en vérité bien trop nombreux pour être longuement cités ici) d’histoire de la colonisation42, du mouvement ouvrier43 ou de l’exploitation des femmes dans le commerce, l’industrie et l’administration44. Il faut à ce propos mentionner les études de flux matériel (material flow analysis), qui ont fait un sort définitif à ces visions classistes, sexistes, coloniales et eurocentrées, selon lesquelles l’industrialisation capitaliste aurait jadis in fine profité à tout le monde. Un collectif historien montre qu’entre 1830 et 2015, la France se comporte « comme un parasite », important massivement des matières premières pour alimenter son métabolisme industriel : sa consommation de ressources est multipliée par neuf sur la période45. Entre 1860 et 2010, l’Espagne passe de 58 à 570 millions de tonnes de consommation matérielle directe annuelle (soit de 2,8 à 11,6 tonnes par habitant)46.
Les études de flux matériel ont fait un sort définitif à ces visions classistes, sexistes, coloniales et eurocentrées, selon lesquelles l’industrialisation capitaliste aurait jadis in fine profité à tout le monde.
Cette croissance est progressive, mais s’accélère grandement dans la deuxième moitié du XXe siècle, quand le pays importe plus qu’il n’exporte de matières premières. La biomasse composait 98 % des ressources mobilisées sur la péninsule ibérique en 1860, une part qui se réduit à 16 % en 2010 – cette disparité provenant massivement de l’augmentation du recours aux ressources fossiles non renouvelables. Cette tendance est générale et concerne en premier lieu les États-Unis et l’Europe47 (bien que la Chine les dépasse aujourd’hui). Autrement dit, l’industrialisation implique, sur le long terme, l’intensification des circulations de matière à l’échelle du globe, au profit des populations dominantes48 : les pays les plus fortunés consomment en moyenne dix fois plus de ressources que les autres49. En 2022, la consommation énergétique est d’environ 36 000 kWh/hab./an en France, 194 000 au Qatar, 78 000 aux États-Unis, 7 100 en Inde, et 217 en Somalie50.
➤ Lire aussi | « Au Congo, l’extractivisme détruit une économie fondée sur la relation »・David Maenda Kithoko, Gloria Menayame et Celia Izoard (2025)
Sans mettre en avant de tels éléments, il est ainsi plus simple pour Durand et Keucheyan de prétendre qu’« au cours des XIXe et XXe siècle, le progrès technique était volontiers perçu comme un facilitateur d’utopie ou de projets plus sérieux pour dépasser les dominations » (D96-97) et que « l’écologie s’inscrit dans la grande épopée du progrès » (DK75), alors même que l’idéologie du progrès a été épinglée à plusieurs reprises comme faisant précisément partie d’un discours lénifiant visant à faire taire les nombreuses contestations de l’industrialisation51. Un véritable culte dédié aux « héros de l’invention52 » se déploie au XIXe siècle et permet de naturaliser la fable progressiste en l’adossant aux grandes étapes censées avoir mené au monde tel qu’on le connaît. L’institutionnalisation de l’innovation-panacée arrimant cette grande fresque du progrès est le fruit de stratégies délibérées mises en œuvre par les protagonistes au cœur de la production industrielle, bénéficiaires des rapports de force qui s’y sont cristallisés53 : ingénieurs, managers, consultants et décideurs politiques ont fait de l’innovation une solution politique. Juges et parties très intéressés au développement d’un tel retournement, ces divers acteurs ont tenté de bâillonner les contestations qui les visaient en donnant à leurs intérêts l’apparence de la nécessité historique : le progrès.

S’il est bien évidemment souhaitable d’élaborer des trajectoires d’émancipation et d’amélioration des conditions de vie collectives, revendiquer naïvement le progrès comme évidence politique sans avoir aucune conscience de ces débats passés revient à rejouer, volontairement ou non, ces rapports de force et à se positionner linguistiquement et politiquement du côté de l’exploitation. Poursuivant ces analyses sociocentrées, les deux auteurs abordent la question des besoins, dont Keucheyan a fait son cheval de bataille. Pourtant conscients du fait que le capitalisme crée des besoins factices, leur liste préfigurant le « gouvernement par les besoins » égrène les différents articles du mode de vie urbain contemporain : « un réfrigérateur pour conserver [les aliments]. Une surface de 30 m² pour deux est un minimum, auquel s’ajoutent 10 m² par personne. Avoir accès à l’électricité : le logement doit être éclairé, disposer d’un système de chauffage et/ou de climatisation selon les régions […] Un téléphone par personne paraît indispensable aujourd’hui, mais un ordinateur et une télévision par foyer suffisent » (DK73).
Toutes les sociétés humaines, quels que soient leurs environnements et techniques disponibles, ont invariablement considéré que leur mode de vie était le bon. Vouloir universaliser le mode de vie industriel contemporain est ainsi doublement problématique : d’une part, cela revient à imposer une vision industrialiste et eurocentrée du « bon mode de vie », même si les auteurs s’en défendent en invoquant « l’apport de la délibération démocratique » (DK78) ; d’autre part, cela ne permet aucunement de garantir une trajectoire sociotechnique mettant réellement fin aux ravages du capitalisme industriel (ergoter sur le nombre d’écrans par foyer, des technologies que les auteurs entendent déployer « à l’échelle de l’espèce humaine » [DK75], ne risque pas d’infléchir grandement les courbes d’émission de gaz à effet de serre dans les prochaines années). En son point limite, un tel positionnement n’est finalement aucunement incompatible avec les propos de George Bush père, qui déclarait en 1992 au Sommet de la Terre de Rio que « le mode de vie américain n’est pas négociable ».
On imagine aisément les deux auteurs s’offusquer d’une telle association. Pourtant, force est de constater que leur propos est profondément accélérationniste : « le capitalisme n’assurera pas la transition énergétique de manière suffisamment rapide » (DK22). Reprenant à leur compte la notion de transition, véritable fiction historique faisant croire à l’existence de basculements entre régimes énergétiques au cours de l’industrialisation, Durand et Keucheyan refusent visiblement de percevoir l’œuvre idéologique derrière la notion. Alors que le pétrole a augmenté la consommation de charbon, que le nucléaire a accru l’extraction pétrolifère, que l’éolien a fait croître la consommation électrique, etc.54, le capitalisme œuvrerait dans le bon sens, bien que trop lentement. Durand et Keucheyan colportent à leur façon le mythe d’une énergie qui nous sauverait des déboires écologiques contemporains – un fantasme irréaliste qui fait fi des leçons de l’histoire : le pétrole est (au départ) aisé à extraire et ses rendements sont extrêmement élevés. Sa massification a pourtant eu pour conséquence l’augmentation du recours à toutes les autres sources d’énergie. Quand bien même de nouveaux modes d’extraction moins polluants verraient le jour, ils ne feraient qu’augmenter la consommation énergétique globale, et donc in fine la dégradation des écosystèmes : aucune énergie miracle ne nous sauvera. À l’heure actuelle, les multinationales de l’énergie sont d’ailleurs en train de se repositionner afin de pérenniser au mieux la croissance énergétique capitaliste, en s’arrimant sur la décarbonation (et ce qu’elle soit une réalité ou un pur alibi55).
Contre tous les travaux qui ont pu pointer l’accélération comme dynamique motrice de l’industrialisation, Durand et Keucheyan croient toujours que le problème vient de la lenteur du capitalisme, qu’il faudrait politiquement accélérer.
Mais pour Durand et Keucheyan, le problème reste celui des temporalités de l’innovation : la « restructuration [des économies réelles] est difficile : elle demande du temps pour permettre aux effets de l’innovation technologique de se diffuser ou à l’évolution des comportements de se déployer » (DK25). Contre tous les travaux qui ont pu pointer l’accélération comme dynamique motrice de l’industrialisation56, Durand et Keucheyan croient toujours que le problème vient de la lenteur du capitalisme, qu’il faudrait politiquement accélérer.

N’étant visiblement pas à une contradiction près, Durand cite l’historien David Noble, à propos de son livre séminal Forces of Production57 où il montrait que « l’enjeu, pour les directeurs d’usine, était principalement de réduire [par le recours aux machines – notamment à commande numérique] la souveraineté exercée par les travailleurs et les syndicats sur le processus de travail lui-même, ce qui revenait à déqualifier le travail pour moins en dépendre » (D68). Cette analyse pionnière de Noble est aujourd’hui bien documentée historiquement, et concerne l’ensemble du processus d’industrialisation58 : déposséder les travailleurs de l’exclusivité de leurs savoirs et savoir-faire – c’est-à-dire les rendre disponibles et appropriables par toute personne – permet la mainmise croissante du capital sur le travail. Sans y voir de contradiction (puisque le seul enjeu pour lui est d’établir la coordination des acteurs sur une autre base que le marché), Durand cite comme source d’inspiration, littéralement deux pages plus loin, l’ultralibéral Friedrich Hayek, qui défendait le fait que la « libre circulation des connaissances est l’élément décisif pour permettre le progrès de l’humanité » (D70).
Hier comme aujourd’hui, le problème n’est pas l’inconscience écologique, mais l’impuissance collective face aux inerties colossales engendrées par le déploiement de gigantesques systèmes techniques.
La palme de l’ignorance en matière d’histoire industrielle revient probablement à ce mépris celé des populations contemporaines des débuts de l’industrialisation, qui n’auraient pas compris que les infrastructures manufacturières pouvaient polluer. D’après Durand, notre situation est bien différente, puisqu’aujourd’hui « la destruction de la planète perdure, mais en connaissance de cause » (D99). Jadis, nul n’aurait envisagé que l’industrie puisse polluer, alors qu’aujourd’hui, nous sommes bien plus éclairés. En réalité, nos ancêtres n’étaient aucunement aveugles aux ravages de l’industrialisation, une naïveté qui paraît absurde dès qu’on prend le temps de lire la presse du XIXe siècle, qui décrit parfois très précisément le détail des destructions en cours59. Hier comme aujourd’hui, le problème n’est pas l’inconscience écologique, mais l’impuissance collective face aux inerties colossales engendrées par le déploiement de gigantesques systèmes techniques. Le problème n’est pas la connaissance, ni même peut-être la volonté d’agir, mais l’inadéquation de nos moyens d’action, rendus inopérants par la complexification technologique et administrative à laquelle participe d’ailleurs directement le déploiement numérique.
L’ensemble du propos de Durand et Keucheyan est infusé d’une métaphysique instrumentaliste, qui ne voit dans les techniques qu’un moyen pouvant être utilisé à diverses fins – la seule question devenant alors celle de la décision : que faire de ces merveilleuses techniques ? Alors que la philosophie, l’histoire et la sociologie des dernières décennies ont totalement invalidé cette mythologie de la neutralité de la technique, les deux auteurs ne voient dans les dispositifs industriels contemporains qu’un outil que l’on pourrait aisément plier à notre volonté politique : « Si nous le décidons, production et consommation peuvent […] être subordonnées à la reproduction des écosystèmes et à la préservation des grands équilibres de la biosphère » (DK141). Cette banalité résume tout leur propos, et témoigne du fait qu’ils n’ont au fond pas grand-chose d’autre à dire. Durand fait mine de s’interroger à ce propos : « un outil si puissant de connaissance et de contrôle utilisé dans le seul objectif de générer du profit ne pourrait-il pas être détourné à d’autres fins ? » (D97). Et les deux compères de se lamenter : « La raison principale de cet échec [des actions écologiques entreprises au cours du dernier demi-siècle] tient au caractère second de la question environnementale par rapport aux objectifs de croissance économique » (DK18). Écrire deux livres pour aboutir à l’idée que le problème environnemental contemporain se résumerait à une question de volonté politique paraît quelque peu dérisoire quand on connaît la littérature qui a tenté d’attaquer sérieusement ces questions, et dont nous n’offrons ici que quelques morceaux choisis.
Le sociologue François Dedieu montre ainsi, au sujet des pesticides, que c’est l’organisation globale des activités et professions rattachées à la bonne gestion des normes sanitaires qui interdit toute opposition réelle au déploiement des intrants produits par l’industrie chimique60. Les lobbies agroindustriels œuvrent bien sûr en coulisse pour semer le doute. Mais l’inaction généralisée face à ces composés dont la dangerosité est avérée depuis plus d’un demi-siècle n’est pas tant le fait d’une manipulation machiavélique que d’un déni collectif engendré par une production active d’ignorance favorisée par les protocoles officiels d’évaluation des risques et résultant in fine de la complexité des formes d’organisation contemporaine du travail, dissolvant toute responsabilité dans des chaînes de causalité trop distendues pour être efficaces. Le problème n’est pas la connaissance, mais l’impuissance.

Dans leur étude des toxicités planétaires, les historiennes Soraya Boudia et Nathalie Jas discutent de cette impuissance de la science contemporaine (leur ouvrage est surtitré Powerless Science) : « Le constat dressé dans ce livre est très sévère : si la science joue un rôle déterminant dans la définition et la mise en évidence des effets sanitaires et environnementaux dangereux, si elle a parfois fourni des ressources aux mouvements de défense et contribué à l’adoption de nouveaux systèmes de régulation plus protecteurs, elle a aussi largement participé à invisibiliser et à pérenniser des situations problématiques. Elle l’a fait en leur conférant le sceau de l’objectivité, en produisant et favorisant certains résultats au détriment d’autres et en donnant aux politiques adoptées une apparence de décision raisonnée alors qu’il s’agissait en fait d’un renoncement. Ainsi, la science contribue à l’élaboration de systèmes de régulation produisant et diffusant l’ignorance, rationalisant et légitimant des politiques publiques qui naturalisent les asymétries entre ceux qui sont affectés par les contaminations et ceux qui en bénéficient, que ce soit financièrement ou en termes de confort de vie61 ». La production scientifique participe à des processus de normalisation pérennisant ignorance et inégalités.
Investiguant ces processus de normalisation, le sociologue Léo Magnin explique quant à lui que les haies, massivement détruites en France lors de la modernisation agricole après 1945, sont désormais plébiscitées en tant que réservoirs de biodiversité, et ce alors même que leur nombre ne cesse de diminuer. À la croisée de multiples normes (techniques, environnementales, politiques, économiques, etc.), les haies sont la cible de feux croisés dont le niveau d’intrication n’est maîtrisé par personne, et qui aboutissent à perpétuer les destructions écologiques : « Si l’environnement n’a jamais été aussi présent en tant que motif de préoccupation, on ne décèle cependant aucun sens de l’histoire vers l’écologie62 ». Le souci ne vient pas d’une absence de conscience, ni même d’un manque de volonté, mais d’une incapacité à traduire ces prises de position en autre chose qu’une poursuite des trajectoires écocidaires contemporaines.
Interrogeant les effets directs des stratégies d’optimisation énergétique et technologique, les ingénieurs prospectivistes Christopher Magee et Tessaleno Devezas ont suivi l’effet rebond de cinquante-sept innovations depuis les années 193063 : dans chacun des cas étudiés, l’élasticité de la demande couplée à l’amélioration du taux de performance technique a abouti à une augmentation et non à une diminution des ressources matérielles utilisées. Plus on innove, améliore et réduit le coût (y compris écologique) d’une technologie, plus on impacte les écosystèmes ! En dernière instance, la maîtrise technoscientifique et la puissance technologique ne se convertissent jamais en relâchement de la pression sur les environnements. La complexification industrielle engendre l’impuissance politique, notamment environnementale.

Analyse pionnière des effets délétères de cette complexification technologique, l’article de l’historien Thomas P. Hughes publié en 1969 et consacré à la synthèse ammoniacale64 montre que la vision conspirationniste de l’histoire ne permet pas de comprendre les dynamiques qui présidaient à la stratégie du groupe IG Farbenindustrie (anciennement BASF) lors de la montée du nazisme en Allemagne. La Première Guerre mondiale avait conduit à produire un important complexe industriel de synthèse d’ammoniac, utilisé pour fabriquer des gaz de combat, devenu inutile lors du désarmement. Dans les années 1920, le groupe était ainsi détenteur d’infrastructures gigantesques proposant une solution à un problème qui n’existait plus : il fallait donc en trouver un nouveau, ce que les velléités expansionnistes hitlériennes allaient idéalement fournir. Les modifications des dispositifs à réaliser étaient minimes pour obtenir des usines produisant de l’essence synthétique, une industrie en parfaite adéquation avec les visées autarciques de l’armée du Reich. Archives à l’appui, Hughes montre que les charges retenues contre la firme lors du procès de Nuremberg partaient du principe naïf de l’agentivité absolue des êtres humains, sans tenir compte de l’immense inertie que peuvent constituer les infrastructures techniques. Tout immense ensemble technologique est à la fois dépositaire et instigateur d’une prescription sociale à part entière : le momentum est pour Hughes la force inertielle, la persistance ontologique et l’élan déployés par un macro-système technique. Cette inertie macro-systémique mêle des facteurs matériels (infrastructures usinières), techniques (formation des personnels), socioculturels (pédagogie, traditions et habitudes), juridiques (institutionnalisation dans le droit), politiques (inscription dans les partis et pratiques de gouvernement à l’échelle d’un État), etc. Le momentum apparaît alors comme la direction vers laquelle le monde humain est orienté par un ensemble multifactoriel de trajectoires organisées autour d’un système technique65, jouant parfois avec les aléas politiques66.
Tout immense ensemble technologique est à la fois dépositaire et instigateur d’une prescription sociale à part entière : un macro-système technique est porteur d’une force inertielle et d’un élan qui lui donne une certaine direction.
Dans leur ignorance totale des travaux consacrés à ces questions, la plus grande naïveté de Durand et Keucheyan consiste peut-être de continuer à penser que tout est affaire de volonté, et qu’il faut avant tout emporter la conviction afin que tout le monde se dresse face aux méchants pollueurs, alors que les structures techniques du monde préemptent très largement les choix possibles : si on désire conserver l’automobile, routes, autoroutes, constructeurs, extraction minière, énergies, firmes et conglomérats industriels viendront avec. En dehors des élites qui ont tout intérêt à rester aveugles aux trajectoires réellement engagées, de nombreuses personnes sont déjà convaincues que le mode de vie contemporain fondé sur l’exploitation industrielle du monde n’est pas nécessairement la panacée, ce qui ne change malheureusement pas grand-chose à la situation : le problème se situe très largement du côté des infrastructures matérielles de nos sociétés, et ce n’est pas une simple décision qui permettra de transformer data centers, télévisions, ordinateurs, automobiles, plats surgelés et bombes nucléaires en vecteurs d’émancipation du capitalisme industriel.
Durand et Keucheyan se disent défenseurs de la démocratie. Pourtant, leur proposition politique principale consiste à décider que le monde industriel contemporain soit mis au service de la justice sociale et de l’environnement. Les populations doivent-elles simplement se ranger « démocratiquement » à leur avis, car il en va de leur intérêt ? Forcément, peut-on croire en les lisant, puisqu’ils se disent tous deux « de gauche » donc bien intentionnés. Envisagent-ils plutôt un modèle politique davantage musclé, à l’instar des politiques chinoises qu’ils encensent, afin de pousser les masses à se ranger à leurs vues ? Peut-être, si l’on en juge par les éloges qu’ils adressent à plusieurs reprises à divers régimes autoritaires. Quelles que soient les réponses à ces questions, les perspectives politiques esquissées ne sont guère réjouissantes.
Comment faire pour sauver le monde ? Suivons les recommandations d’un économiste et d’un sociologue afin que l’ensemble des systèmes contemporains nous mène vers des cieux plus cléments. Car n’oublions pas qu’il y a le bon numérique et le mauvais numérique, le bon et le mauvais État, les bonnes et les mauvaises multinationales, le bon et le mauvais capitalisme industriel. Après avoir lu plus de quatre cents pages, on comprend enfin que Cédric Durand et Razmig Keucheyan pensent très fort qu’un autre monde est possible, à condition de ne rien changer ou presque, si ce ne sont les rênes du pouvoir qu’il faudrait confier à Cédric Durand et Razmig Keucheyan.
Photo d’ouverture : Yaroslavl, Russia. Crédits : Valeriy Kryukov

NOUS AVONS BESOIN DE VOUS !
Depuis 2018, Terrestres est la revue de référence des écologies radicales.
À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.
Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.
En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.
Merci
!
L’article Adieu aux cybersoviets : sur les impasses de l’accélérationnisme de gauche est apparu en premier sur Terrestres.
06.02.2026 à 12:53
Dolorès Bertrais
Dans son livre “Désarmer le béton, ré-habiter la terre”, l’architecte et militante Léa Hobson règle son compte à la plus massive des armes de construction du capitalisme et appelle à se défaire de son emprise. Pas le choix : tôt ou tard, le béton armé qui structure nos sociétés terminera en gravats – autant le remplacer ! Compte-rendu de lecture.
L’article Made in ruines : en finir avec l’hégémonie du béton est apparu en premier sur Terrestres.

À propos du livre de Léa Hobson, Désarmer le béton, ré-habiter la terre, publié aux éditions La Découverte en 2025, dans la collection « Zones ».
Avec Désarmer le béton, ré-habiter la terre, Léa Hobson, architecte, scénographe et militante écologiste, s’inscrit dans une génération de praticien.ne.s et chercheur.e.s qui refusent de considérer les matériaux de construction comme de simples données techniques. Son travail se situe au croisement de l’enquête matérielle, de la critique politique et de l’engagement militant. Autrice du chapitre « Béton » dans On ne dissout pas un soulèvement : 40 voix pour les Soulèvements de la Terre (Seuil, 2023), elle est également co-autrice, au sein du collectif forty five degrees, de Radical Rituals (2024), une enquête itinérante menée à l’échelle européenne sur les pratiques spatiales vernaculaires, les rituels contemporains et les formes de réinvention des communs face aux crises écologiques et sociales. Ces ancrages constituent le socle politique, méthodologique et épistémologique de son livre Désarmer le béton, ré-habiter la terre.
Dès les premières pages de l’ouvrage (pp. 7–14), Léa Hobson pose un diagnostic sans détour, montrant que le béton a profondément transformé les manières de construire, d’habiter et de gouverner l’espace. Elle opère ainsi un déplacement fondamental : le béton n’est pas seulement un matériau problématique, il est un symptôme. Symptôme d’un régime de croissance (minérale) fondé sur l’accumulation, la standardisation, l’effacement ou encore la ruine. Le béton devient un analyseur privilégié des rapports de pouvoir contemporains. Autrement dit, en observant attentivement le béton depuis ses conditions de production et d’extraction, ses usages quotidiens, ses dispositifs normatifs, jusqu’à ses circulations à différentes échelles, se donnent à voir les alliances structurelles entre économie, politiques publiques, normes techniques et imaginaires professionnels. Ces coalitions ont progressivement stabilisé un régime de construction fondé sur l’irréversibilité, produisant un monde bâti et des édifices qui, comme le précise l’auteure, « ne se démontent plus, peu durables et qui finissent en décharge ou sont enfouies » (p. 11), et dans lesquels le pouvoir s’inscrit durablement dans la matière.
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
Cette incapacité à défaire rejoint ce qu’elle nomme le « gaspillage immobilier » massif (p. 11) : bâtiments vacants, friches inutilisées, logements inoccupés, alors même que l’on continue de construire. Le paradoxe est central dans l’ouvrage : l’industrie du béton prospère sur une pénurie qu’elle contribue elle-même à fabriquer. La logique d’« obsolescence programmée1 » du bâti alimente ce qu’elle qualifie de « civilisation de gravats » (p. 12), où la ruine n’est plus l’exception mais la condition ordinaire de la production spatiale contemporaine.
L’introduction annonce également un autre geste, plus discret mais structurant : faire place aux femmes, à la fois dans le récit et dans la critique. Léa Hobson signale dès ces premières pages la nécessité de réinscrire les femmes, travailleuses, architectes, théoriciennes, militantes, dans l’histoire de la construction et de l’architecture, une histoire largement « écrite au masculin » (p. 12). Cette attention, au-delà d’être réparatrice, ouvre la voie à une lecture féministe et matérialiste du bâti, qui traverse l’ouvrage jusqu’à la notion de « patriarcat bétonné » (p. 155) développée dans le dernier chapitre.
La logique d’obsolescence programmée du bâti alimente une « civilisation de gravats » où la ruine n’est plus l’exception mais la condition ordinaire de la production spatiale contemporaine.
Sur le plan de la structure, l’auteure explicite clairement son projet. Désarmer le béton, ré-habiter la terre, s’organise en trois grands mouvements, qui correspondent autant à des étapes analytiques qu’à des prises de position politiques. Il s’agit d’abord de suivre la filière béton dans toute sa matérialité, depuis l’extraction jusqu’aux ruines, afin de rendre visibles les chaînes de dépendance et les paysages et corps sacrifiés. Il s’agit ensuite d’interroger les politiques publiques et les dispositifs normatifs qui ont rendu ce matériau hégémonique, en montrant comment la norme bétonnée s’est imposée comme une évidence. Enfin, l’ouvrage se tourne vers le démantèlement, démontrant qu’il n’est pas qu’une simple substitution technique, mais une remise en cause de l’acte même de bâtir, de ses finalités, de ses cadres professionnels et de ses alliances possibles. En ce sens, le geste de Léa Hobson entreprend de désassembler les couches successives matérielles, normatives, institutionnelles qui ont rendu le béton à la fois omniprésent et invisible pour faire de « l’“habiter” une cause commune » (p. 12). À ce titre, Désarmer le béton, ré-habiter la terre, est un ouvrage dont de nombreuses mains devraient s’emparer : celles des cimentiers et des industriels, bien sûr, mais aussi celles des responsables politiques, des architectes, ingénieur.e.s, urbanistes et autres praticien.ne.s de la production de l’espace, tout autant que celles des étudiant.e.s, des citoyen.ne.s, militant.e.s ou non. Car le livre ne se contente pas de documenter un système : il invite explicitement à en sortir.

Le premier chapitre, Du sable à la ruine, permet aux lecteur.ice.s d’« entrer en matières », ces matières qui constituent les sols et qui nous (sup)portent, à la fois organiques et minérales. En préférant une entrée résolument infra-ordinaire par les sols et via les vers de terre, l’auteure opère un choix qui n’a rien d’anecdotique – alors que les lombrics pourraient sembler éloignés de la filière béton. Pourtant, leur disparition généralisée depuis les années 1950 (p. 15) éclaire l’arrière-plan écologique sur lequel repose toute l’industrie cimentière. Le ver de terre devient l’indice de sols vivants en perdition, une situation aggravée par l’artificialisation systématique opérée par l’industrie du béton. L’auteure rappelle qu’entre 1960 et aujourd’hui, en France métropolitaine, près de « 17 milliards de m² de sols ont été scellés » (p. 17), sans justification démographique. L’urbanisation, l’expansion des réseaux (routiers, ferroviaires, etc.), la logistique et la spéculation foncière ne progressent pas au rythme de la croissance des populations, mais selon une logique autonome d’accumulation de surfaces artificialisées.
Ces surfaces génèrent leurs propres catastrophes : les inondations, désormais exacerbées par l’imperméabilisation ; les îlots de chaleur, qui transforment les espaces urbains en fournaises estivales ; et l’effondrement de la biodiversité, conséquence directe de la disparition des habitats vivants. « Quand le béton ne nous noie pas, il nous fait frire » (p. 19) résume en quelques mots la brutalité ordinaire d’un modèle de production de l’espace et d’une urbanisation hors sol. Dans cette perspective, les politiques publiques se révèlent largement inefficaces face aux dynamiques qu’elles prétendent réguler. L’auteure met par exemple en évidence les limites structurelles de la loi ZAN (Zéro Artificialisation Nette), régulièrement ajustée au fil des négociations politiques, et qui peine à enrayer les logiques de bétonisation. En cause, le principe même d’« artificialisation nette », qui autorise la poursuite de l’artificialisation dès lors qu’elle est compensée ailleurs (p. 21). Cette logique comptable de l’espace ouvre la voie à toute une série de requalifications administratives révélatrices. Ainsi, des espaces aussi radicalement transformés que les carrières peuvent être assimilés, dans les nomenclatures statistiques, à des « surfaces naturelles dont les sols sont nus ou recouverts en permanence d’eau, de neige ou de glace » (p.22), au même titre que les glaciers…
Le même raisonnement prévaut lorsque les déblais et déchets inertes issus du BTP sont utilisés pour combler carrières et gravières : ces sols recomposés, bien que profondément artificiels, échappent pourtant à la catégorie de l’artificialisation. Ces ajustements techniques, souligne l’auteure, permettent à la fois d’intégrer l’ouverture ou l’extension de carrières dans les mécanismes de compensation et de poursuivre, dans le même mouvement, la mise en exploitation de nouvelles terres agricoles pour accéder à des gisements supplémentaires (ibid.). Face à la destruction des sols fertiles, certains acteur.ice.s vantent les « technosols », les « anthroposols construits » (p. 23), soit des projets de géo-ingénierie censés compenser la perte du vivant. Ces savant.e.s ont oublié l’essentiel : le sol n’est pas une ressource renouvelable et la renaturation, quand elle devient un moyen de légitimer l’extraction, n’est qu’une nouvelle forme de déni (politique).
➤ Lire aussi | Le béton, matériau extraterrestre・François Jarrige (2024)
À partir de là, l’auteure entreprend de suivre la filière béton dans toute sa matérialité : les sablières, les gravières, les carrières, les cimenteries, les centrales à béton, puis les décharges et ruines où se déposent les déchets du cycle minéral. La filière (béton) laisse de nombreuses traces sur son passage (p. 25) : traces matérielles, environnementales mais aussi psychologiques (p. 67). Elle reconfigure des vies humaines et autres qu’humaines, déplace, creuse, dynamite. L’après-1945 marque un moment de bascule : explosion de l’extraction, multiplication des concessions sur fonds marins et fluviaux, et mise en place de schémas départementaux fondés sur une rationalité technocratique qui rend les territoires lisibles, mesurables et exploitables à distance. Cette vision abstraite et surplombante, qui réduit les milieux à des stocks et efface les usages et savoirs locaux, s’inscrit pleinement dans ce que le politologue et anthropologue James C. Scott analysait à travers l’« œil de l’État » : un mode de gouvernement qui simplifie le réel pour mieux l’administrer (Scott 1998).
En moins de deux siècles, une innovation chimique et technique, le ciment, puis le béton armé, s’est muée en infrastructure politique, en ordre socio-économique, en matrice spatiale.
Mais Désarmer le béton, ré-habiter la terre ne se contente pas d’analyser la machine industrielle, il documente également les nombreuses résistances.
Il donne à voir une constellation de mobilisations : des organisations militantes locales telles que Peuples des Dunes en Bretagne (p. 43) ou l’association Gandalf en Normandie (p. 51) aux côtés de mouvements plus largement structurés, tels qu’Extinction Rebellion et la campagne « Fin de chantiers » lancée en 2019 (p. 63), ou d’autres actions relayées par Youth for Climate et Extinction Rebellion (p. 65). Loin de constituer une juxtaposition d’initiatives disparates, ces luttes politiques révèlent une même dynamique puisqu’elles rendent visibles les chaînes extractives du béton, des sites planifiés ou existants, d’où la matière est prélevée, jusqu’aux usines de béton prêt à l’emploi. Ces collectifs agissent précisément là où l’extractivisme opère et transforment ces espaces en lieux repolitisés. En s’attaquant aux cimentiers et aux grands groupes du BTP, ils contestent des projets ponctuels et surtout un régime matériel et institutionnel plus large. L’enjeu réside dans la production de contre-savoirs, de récits alternatifs et de nouvelles alliances entre milieux, habitant.e.s et militant.e.s.

Dans le second chapitre, La norme bétonnée, au-delà du matériau, Léa Hobson montre comment, en moins de deux siècles, une innovation chimique et technique, le ciment, puis le béton armé, s’est muée en infrastructure politique, en ordre socio-économique, en matrice spatiale. À travers une généalogie minutieuse, elle rappelle que les noms devenus familiers de l’ingénierie : Vicat, Hennebique, Pavin de Lafarge (p. 80) renvoient aux origines mêmes des entreprises capitalistes qui ont bâti leur fortune sur la détention de brevets offrant l’exclusivité commerciale de formules et de procédés constructifs. La chimie innovante épouse alors l’esprit d’entreprise ; elle s’en mêle au point de devenir indissociable de l’industrialisation française qui est elle-même alimentée par la production de l’espace et son expansion. Le maillage se déploie rapidement dans presque tous les secteurs de puissance : « la construction, les autoroutes, les aéroports, l’énergie, les concessions, les télécommunications, puis la promotion immobilière » (p. 81). Dès les années 1950, les lobbies du secteur de la construction via la Fédération Française du Bâtiment (FFB), et la Fédération Nationale des Travaux Publics (FNTP), s’allient efficacement pour finalement adopter en 2017 l’appellation unificatrice de « Filière béton » (ibid.).
L’État, loin de constituer un contre-pouvoir, devient souvent le premier client de l’industrie du béton.
Cette structuration progressive du secteur ne se limite pas à une coordination économique, mais prépare et consolide un rapport privilégié à la puissance publique. L’État, loin de constituer un contre-pouvoir, en devient souvent le premier client : via les infrastructures de transport, les équipements publics, les logements sociaux, les grands projets urbains reposent massivement sur le béton, renforçant une dépendance structurelle aux grands groupes du BTP. Les liens entre le BTP et la sphère politique sont anciens. En 1972, l’affaire dite Aranda, caractérisée par des scandales politico-financiers, des pratiques de corruption et de trafic d’influence, connaît une visibilité nationale à travers des « permis autorisés sur des zones inondables ou non constructibles, appels d’offres biaisés et terrains monnayés » (p. 90). Cet épisode, sans être entièrement assimilable à des controverses plus récentes – l’A69 par exemple – révèle toutefois une continuité : dans un régime où les infrastructures deviennent autant de vecteurs de pouvoir, la production de l’espace est régulièrement façonnée par des alliances opaques entre intérêts privés et décisions publiques. La loi de 1995 interdisant le financement des partis politiques sous forme de dons par les grands groupes n’a pas pour autant fait disparaître les arrangements, d’autant que l’État dépend massivement du BTP puisque 70 % des marchés publics concernent les travaux publics, et 20 % le bâtiment (p. 91). Les grandes entreprises du béton, intégrées verticalement, du cimentier au promoteur, en passant par les négociants et les aménageurs, maintiennent un contrôle systémique, renforcé par la proximité sociale entre dirigeants et responsables politiques, formés dans les mêmes grandes écoles publiques (p. 93). L’enchevêtrement des parcours fait système.
Par ailleurs, dans la méga-machine béton, la France occupe une place disproportionnée tant elle coule son béton sur tous les continents. Septième puissance économique mondiale, elle est surtout le deuxième producteur de béton prêt à l’emploi nous rappelle l’auteure (p. 89). Ce secteur continue de perpétuer un « certain impérialisme industriel » (p. 95), alors que la deuxième plus grande cimenterie du monde, située à Settat, au Maroc, appartient à (Lafarge)Holcim. Ici apparaît la dimension coloniale d’un secteur qui continue de puiser et d’épuiser ses anciennes colonies pour entretenir le cœur industriel. Car un siècle après les créations de filiales Lafarge (années 1920 et 1930) : « Nord-Africaine de Ciments Lafarge » en Algérie, « Société indochinoise de fondu Lafarge », « Chaux et Ciments du Maroc », « Société tunisienne Lafarge »2, les procédés coloniaux continuent d’opérer. Ce bétonnage global nécessite d’autres territoires-pièces, mangés à la périphérie pour alimenter la croissance minérale d’un centre toujours plus exigeant.

Revenir sur la généalogie des grands cimentiers et de leurs filiales, c’est aussi comprendre que les filières changent de nom, se recomposent, déplacent leurs responsabilités, mais que les mêmes logiques persistent (p. 99). Les scandales se succèdent – comme ceux liés aux chantiers de Vinci Constructions Grand Projets (VCGP) au Qatar, pour lesquels le groupe a été mis en examen en 2025 pour travail forcé – les « fusibles » sautent, à l’image d’Éric Olsen, PDG de LafargeHolcim contraint à la démission en 2017 après une enquête interne sur des soupçons de financement de l’État islamique en Syrie. Pourtant, les grands groupes s’en sortent grâce à des bataillons d’avocats, des aides publiques européennes ou nationales, et une capacité à maintenir l’édifice. L’excellent article de Léon Baca « Accusé Lafarge : on n’oublie pas », qui retrace près de deux siècles d’épopée Lafarge2, fait écho à la pensée de l’auteure. Alors que le procès du cimentier s’est ouvert le mardi 4 novembre 2025 devant le tribunal, pour versements d’argent à des groupes armés en connaissance de cause, dont l’État islamique responsable des attentats du 13 novembre 2015 à Paris, afin de maintenir l’activité d’une cimenterie en Syrie, Léon Baca décrypte : « Aujourd’hui Lafarge n’est plus – il fallait sans doute symboliquement se faire oublier après la lune de miel daeshienne, et LafargeHolcim (2014) est devenue Holcim (2021). La firme [Lafarge] a donc été tour à tour royaliste, réactionnaire, ultra-catholique, paternaliste, colonialiste, collaborationniste, djihadiste [en revenant sur presque deux siècles d’activités] ». Nous pourrions y ajouter le témoignage poignant de Gaëlle (une survivante du Bataclan) lors de ce procès, relayé par Médiapart le 10 décembre 2025 : « Peut-on, au nom d’un intérêt économique, financer directement ou indirectement une organisation terroriste, en sachant, ou en choisissant d’ignorer, que cette organisation tue, torture, asservit et détruit. La réponse est non. Le droit le dit. La morale le dit. L’Histoire le dit. »3 La décision de justice sera rendue le 13 avril 2026… Lafarge, LafargeHolcim (2014), Holcim (2021), note à nous-mêmes : ne jamais oublier !
➤ Lire aussi | Accusé Lafarge : on n’oublie pas・Léon Baca (2025)
Le chapitre du livre de Léa Hobson se déplace ensuite vers les métropoles et leurs périphéries, où ne règnent pas seulement la consommation accélérée des sols et la captation des terres arables mais aussi la reconfiguration en profondeur de l’acte de bâtir. La standardisation du béton, notamment à travers les dispositifs normatifs produits par le Centre scientifique et technique du bâtiment (CSTB), constitue une étape décisive de cette double domination, territoriale et sociale. La norme, ici, n’est pas un simple outil technique : elle fixe un horizon du possible, verrouille les alternatives matérielles et façonne les gestes professionnels. Après 1945, bâtir en pierre devient progressivement marginal ; la norme dite “B10.001”, en définissant la gélivité (sensibilité au gel) des pierres, contribue à disqualifier durablement leur usage (p. 107). Ce basculement s’accompagne d’une profonde dépossession du rapport à la matière. On ne taille plus la pierre : on coule du béton. Cette dépossession, à la fois matérielle et symbolique, efface le travail derrière le produit fini, masque les conditions de production du bâti et naturalise un régime constructif présenté comme inéluctable. Les savoir-faire se trouvent réduits à des procédures standardisées, les corps relégués à de simples fonctions d’exécution, tandis que la machine industrielle supplante l’intelligence du geste. Si le béton semble s’affranchir de la « main » (p. 85), cette fiction d’un matériau autonome, coulé comme une évidence technique, se heurte à la réalité des corps qui le produisent. Car le béton abîme et tue : lésions cutanées, « gale du ciment », pathologies liées à la poussière de silice (classée cancérogène), rappellent combien cette industrie repose sur une exploitation ancienne, discrète et persistante. La faiblesse de la réglementation française en matière de protection des travailleur.se.s révèle cette asymétrie fondamentale, car derrière l’apparente neutralité du matériau se dissimule la violence d’une chaîne productive largement invisibilisée. Cette dimension se donne à voir avec une acuité particulière dans les géographies sociales de l’exploitation. Les travailleur.se.s du BTP, souvent issu.e.s de l’immigration, occupent des positions structurellement vulnérables au sein d’un secteur où les capacités de mobilisation collective se sont dégradées.
La standardisation du béton constitue une étape décisive d’une double domination, territoriale et sociale.
Cette vulnérabilité structurelle s’inscrit également dans un rapport de forces plus large, où les asymétries sociales se prolongent dans les arènes normatives et discursives. Les batailles de normes qui opposent bétonneurs et défenseurs des matériaux naturels sont aussi des batailles sociales ; et, là encore, l’industrie l’emporte le plus souvent. Cette hégémonie normative se double d’une remarquable capacité d’adaptation discursive. Bétons dits « verts », « bas carbone » (p. 115), labels environnementaux et certifications durables prolifèrent, tandis que des fondations industrielles, comme la fondation (Lafarge)Holcim finançant une chaire de « construction durable » à l’ETH Zurich (Eidgenössische Technische Hochschule en allemand ou « École polytechnique fédérale » (EPF) en français) (p. 113), contribuent à redéfinir les termes légitimes du débat. Le greenwashing devient une stratégie structurelle où il s’agit de transformer marginalement le produit tout en préservant intact le système qui le rend nécessaire.

La crise du logement offre un terrain supplémentaire pour observer l’hégémonie bétonnée. Léa Hobson rappelle que les politiques publiques, via les dispositifs fiscaux et les règles de construction, ont alimenté une spéculation immobilière déconnectée des besoins réels : 850 dérogations ont par exemple permis de reclasser des communes entières (p. 124), renforçant l’attractivité fictive et les rentes foncières. La pénurie supposée de logements ne résiste pas à la statistique : 18 % des logements ne sont pas occupés en permanence, parmi lesquels 3 millions de logements sont vacants. Une minorité de 24 % des ménages détient les deux tiers du parc, signe d’inégalités structurelles (p. 127). La construction neuve l’emporte, tandis que la rénovation reste sous-financée. Quant au binôme démolition-reconstruction, qui entretient une obsolescence programmée du bâti souvent justifiée au nom de la rénovation urbaine, de la performance énergétique ou de la modernisation, il permet en réalité de relancer en continu le flux minéral. Détruire pour reconstruire en est l’un des rouages.
Face à ce constat, des alternatives émergent. Des initiatives citoyennes comme House Europe (p. 129) proposent de limiter les démolitions et constructions neuves, afin de favoriser la réparation et de redonner une valeur d’usage et de sens au bâti existant au-delà des actifs financiers qu’ils représentent pour certain.e.s. À l’inverse, la rénovation urbaine institutionnelle, dont l’Agence nationale pour la rénovation urbaine (ANRU) constitue une figure centrale, est analysée par l’auteure comme une réponse largement illusoire aux inégalités urbaines (pp. 132-135). Les opérations qu’elle promeut, fréquemment fondées sur des logiques de démolition-reconstruction, produisent des effets sociaux particulièrement violents. Elles effacent non seulement des bâtiments, mais aussi des mémoires sociales, des usages et des formes d’attachement au lieu. En s’appuyant sur la pensée d’Henri Lefebvre (p. 139 et 140), l’auteure, comme de nombreu.ses.x autres avant elle, rappelle que le béton agit ici comme un opérateur d’inégalités socio-spatiales, en figeant les rapports de pouvoir dans la matière, en stabilisant des formes d’exclusion durable, et en rendant toute transformation ultérieure coûteuse, techniquement et politiquement. Le béton est une infrastructure de pouvoir, indissociable des régimes normatifs, économiques et institutionnels qui organisent la production de l’espace au sens lefebvrien.
➤ Lire aussi | Araser, creuser, terrasser : comment le béton façonne le monde・Nelo Magalhães (2024)
C’est précisément contre la naturalisation du béton, analysée dans les chapitres précédents, que le dernier mouvement de Désarmer le béton, ré-habiter la terre affirme un projet explicite de désarmement. Le terme n’est ni métaphorique ni consensuel. Emprunté aux luttes pacifistes et écologistes, il engage une rupture nette avec les registres technocratiques de l’« amélioration » ou de l’« optimisation ». Pour l’auteure, certaines infrastructures sont trop destructrices pour être simplement corrigées à la marge, et le béton, tel qu’il est produit, normé et mobilisé aujourd’hui, relève de cette catégorie (pp. 141–148).
Cette perspective permet à Léa Hobson d’articuler étroitement les luttes locales contre l’extraction à une critique systémique de la production de l’espace. Les mobilisations rurales contre les carrières, les gravières ou les cimenteries, souvent reléguées aux marges du débat urbain, apparaissent ici comme des foyers d’élaboration politique majeurs (pp. 148–155). L’auteure montre que ces luttes accumulent des savoirs situés tels que les connaissances juridiques, les expertises environnementales, les pratiques de coalition ou encore les récits alternatifs du territoire. Elles constituent ainsi des laboratoires d’un autre rapport au sol, au bâti et au temps long. Elles permettent surtout de faire réémerger les questions centrales autour de l’habiter telles que : comment construire sans s’imposer ? Comment habiter sans déposséder ? (p. 152). Ces interrogations prennent une épaisseur particulière lorsque l’enquête s’ouvre aux présences plus-qu’humaines qui peuplent ces territoires en lutte, dont la chauve-souris, la genette, le hibou grand-duc, ou encore la linotte mélodieuse. Cette co-présence signale que la conflictualité engage des mondes écologiques entiers. Construire n’est jamais neutre ; c’est toujours intervenir sur des milieux, des usages, des vies humaines et non humaines. Le béton, parce qu’il fige durablement ces interventions, rend cette responsabilité particulièrement aiguë.
Dans cette perspective, des gestes souvent perçus comme mineurs, faire avec l’existant, réparer, entretenir, transformer sans démolir, ralentir les rythmes de production, acquièrent une portée profondément politique (pp. 177–180). Ils s’opposent frontalement à un système fondé sur l’accélération, la standardisation et le renouvellement permanent du bâti. Le désarmement du béton apparaît alors moins comme une solution clé en main que comme une éthique du bâtir, faite de renoncements, de négociations et de pratiques situées.

L’une des forces majeures de l’ouvrage réside dans l’articulation étroite que Léa Hobson opère entre critique matérialiste, féminisme et perspectives décoloniales. En introduisant la notion de « patriarcat bétonné » (p. 155 et 156), l’auteure réalise un déplacement analytique décisif afin de relire l’histoire de l’architecture et de la construction depuis ses angles morts. Loin d’une critique abstraite, elle montre comment cette histoire, largement masculine, occidentale et productiviste, s’est constituée par une série d’exclusions : invisibilisation des femmes, disqualification des savoirs vernaculaires, marginalisation des pratiques situées, souvent associées à des contextes non occidentaux ou ruraux (pp. 157–164). Le béton, en tant que matériau standardisé, reproductible et exportable, a joué un rôle central dans cette entreprise d’uniformisation, en effaçant les différences locales et les relations sensibles aux milieux.
Désarmer le béton, c’est aussi désarmer les imaginaires de maîtrise, de conquête et d’universalité qui lui ont donné forme.
La critique féministe et décoloniale débouche alors sur une interrogation profonde sur le rôle de l’architecte et des dispositifs de formation. Léa Hobson analyse la manière dont l’architecture s’est progressivement constituée comme un service industrialisé, éloigné des pratiques artisanales et des responsabilités matérielles directes (pp.165–173). Les écoles d’architecture, en reproduisant les normes professionnelles dominantes, participent à cette dépolitisation du geste de bâtir. Repolitiser l’architecture implique dès lors de sortir des silos disciplinaires, de reconnecter l’acte de construire aux luttes sociales et écologiques, et de reconnaître que dire non, collectivement, constitue aussi un geste professionnel à part entière. En écho aux travaux récents de Mathias Rollot (Décoloniser l’architecture, 2024) et de Philippe Simay (Bâtir avec ce qui reste, 2024), Léa Hobson s’inscrit dans une critique frontale de la réduction du champ de l’architecture à une pratique formelle et disciplinaire, largement détachée de ses conditions matérielles, sociales et écologiques4 C’est dans ce prolongement que la notion de soin vient compléter et approfondir le projet de désarmement. Prendre soin des bâtiments, des sols, des infrastructures vieillissantes, c’est rompre avec la logique de la table rase et de l’innovation permanente (pp. 174–180). L’auteure propose de lire les fissures, les pathologies du béton comme les symptômes matériels de l’épuisement d’un modèle de développement. Le béton devient ainsi un matériau « malade », dont la fragilité contredit le mythe de la durabilité infinie.
Faire de l’entretien, de la réparation et de la maintenance un enjeu politique central revient alors à renverser les hiérarchies de valeur qui structurent la production de l’espace. Ces gestes, historiquement dévalorisés car associés au féminin, au domestique ou à l’invisible, acquièrent une portée critique majeure. Ils déplacent l’attention depuis l’acte héroïque de construire vers les pratiques ordinaires de maintien en vie des milieux bâtis. En ce sens, la politique du soin esquissée par l’auteure représente une véritable alternative au régime bétonné, attentive aux temporalités longues, aux interdépendances et aux vulnérabilités partagées. Désarmer le béton, c’est aussi désarmer les imaginaires de maîtrise, de conquête et d’universalité qui lui ont donné forme.
➤ Lire aussi | Le retour à la terre des bétonneurs・Aldo Poste (2020)

En définitive, Désarmer le béton, ré-habiter la terre s’impose comme un ouvrage précieux et dense, tant par la richesse de ses matériaux empiriques que par ses références théoriques. Il articule finement critique matérielle, analyse politique et attention aux pratiques ordinaires du bâtir. En dialoguant habilement avec de nombreux travaux récents sur le sujet5, Léa Hobson montre que le béton relève d’une infrastructure mentale, sociale et matérielle qui organise la production de l’espace, invisibilise ses chaînes extractives et dépolitise ses violences. En réinscrivant le bâti dans ses conditions écologiques, sociales et historiques, elle contribue à déplacer la critique architecturale vers une écologie politique des matériaux.
Car tout projet anti- ou post-capitaliste se joue dans sa capacité à affronter l’héritage matériel du productivisme, non pour le prolonger sous d’autres couleurs, mais pour apprendre enfin à le défaire.
Si l’ouvrage s’inscrit principalement dans un champ francophone, ce que l’on peut éventuellement regretter, il pourrait néanmoins ouvrir une question décisive : comment cartographier, de manière multiscalaire, les géographies du béton, ses régimes d’extraction, ses imaginaires et ses effets différenciés sur les territoires et les corps ? Cette question appelle, dans le prolongement critique du livre, à penser ces géographies sans céder à une idéalisation du local ni à un repli communautaire. Car si les luttes bretonnes, normandes, ardéchoises, haut-saônoises ou encore euréliennes, et les expérimentations territoriales qu’elles portent, constituent des foyers essentiels de résistance, d’invention et de politisation des pratiques constructives, elles ne sauraient à elles seules répondre à l’ampleur d’un système productif désormais pleinement mondialisé. C’est également dans la mise en relation de ces expériences, à l’échelle européenne voire planétaire, que se joue une part décisive de la transformation à venir.
Si une partie du continent européen est aujourd’hui marquée par la saturation, la démolition-reconstruction ou l’accumulation d’infrastructures, d’autres régions du monde, en particulier en Asie et en Afrique, connaissent une phase d’expansion spatiale et urbaine massive, appelée à engloutir, dans les décennies à venir, des volumes de granulat sans précédent, soit autant de trous dans les paysages et de processus d’artificialisation qui les accompagnent. Dès lors, l’enjeu consiste à mettre en dialogue ces initiatives au-delà des frontières nationales et continentales, afin de tisser patiemment des solidarités translocales. Celles-ci doivent permettre d’articuler savoirs situés, pratiques constructives alternatives et luttes écologiques, pour penser collectivement ce que pourrait signifier habiter et bâtir autrement dans un monde déjà profondément façonné par le béton. Car tout projet anti- ou post-capitaliste se joue dans sa capacité à affronter l’héritage matériel du productivisme, non pour le prolonger sous d’autres couleurs, mais pour apprendre enfin à le défaire.
Image d’accueil : Photo de Francisco Andreotti sur Unsplash.

NOUS AVONS BESOIN DE VOUS !
Depuis 2018, Terrestres est la revue de référence des écologies radicales.
À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.
Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.
En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.
Merci
!
L’article Made in ruines : en finir avec l’hégémonie du béton est apparu en premier sur Terrestres.
05.02.2026 à 18:45
La rédaction de Terrestres
Souhaitable, la réindustrialisation ? Déroutées par la course impériale à la puissance, les élites ultralibérales chantent le retour de l'industrie en Europe. Et si on réfléchissait plutôt à la dynamique technologique incontrôlable et à ses effets de domination ? Pour cette sixième rencontre Terrestres, retour sur la pensée du philosophe Herbert Marcuse.
L’article La guerre contre la nature : penser l’Anthropocène avec Marcuse est apparu en premier sur Terrestres.
Table-ronde le jeudi 5 février avec les philosophes Aurélien Berlan, Haud Gueguen et Jean-Baptiste Vuillerod. Une rencontre organisée par Terrestres à l’Académie du Climat à Paris (19h00-21h30). Entrée libre ! Inscription souhaitée ici.
Vous pouvez aussi suivre les rencontres Terrestres en direct le soir de l’évènement ou bien les écouter tranquillement en différé, grâce à notre partenariat avec la radio associative ∏node.
Qui connaît encore le philosophe allemand Herbert Marcuse (1898-1979) ? À la mort de celui-ci, André Gorz, figure de l’écologie politique alors en pleine ébullition, lui rend hommage : « Nous sommes tous enfants de Marcuse ». Peut-on lire cette formule comme une invitation à voir dans Marcuse un intellectuel qui a contribué à nourrir le fond théorique et politique de l’écologie politique ?
Cette sixième Rencontre Terrestres explorera cette hypothèse en revenant sur son œuvre, relue à l’aune de l’effondrement écologique et de notre dépendance extrême aux technologies. Dès 1955, alors que l’enchantement par la consommation de masse domine, Marcuse développe depuis les États-Unis une critique du consumérisme et du type d’être humain qu’il produit.
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
Dans Éros et civilisation (1955) et L’homme unidimensionnel (1964), Marcuse analyse la nature de la technologie moderne afin de comprendre dans quelle mesure elle participe d’un projet politique et capitaliste de domination. Cet examen le conduit à développer des thèses ambivalentes, voire contradictoires : il perçoit à la fois le caractère aliénant du pouvoir technologique, mais également ses potentialités émancipatrices dans l’optique d’une révolution permettant une réappropriation de l’infrastructure du capitalisme industriel. Dans ces conditions, comment hériter de Marcuse ? Comment actualiser les chantiers théoriques et politiques qu’il a ouverts ? Comment le lire à l’heure de la prédation généralisée et de l’emballement technologique et climatique ?
Dans un colloque intitulé « Écologie et révolution » et organisé à Paris par André Gorz en 1972, Marcuse proposait de voir dans la « guerre contre la nature » le phénomène central pour analyser le capitalisme dans sa contradiction avec les écosystèmes et les milieux de vie. À l’heure de la catastrophe écologique, il est urgent de redécouvrir les leçons stratégiques de cet auteur en vue de s’atteler à la grande tâche politique qui demeure plus que jamais la nôtre : en finir avec le productivisme et les formes de subjectivité qui en soutiennent la destructivité.

La rencontre abordera les thèmes suivants :
1/ Pourquoi relire Marcuse aujourd’hui ? Les intervenant·es nous parleront de leur intérêt pour cette œuvre et analyseront le renouveau éditorial qu’il suscite dans divers pays.
2/ Retour sur le contexte de l’écriture de l’œuvre de Marcuse : rappel biographique ; brève présentation de la théorie critique de l’Ecole de Francfort et de son rapport à Theodor W. Adorno-Max Horkheimer ; engagement politique de Marcuse aux côtés des mouvements de jeunesse des années 1960-1970 et découverte de la question écologique.
3/ Discussion autour du diagnostic de Marcuse sur la technologie moderne : quelle est la nature de l’ordre socio-technique produit par la dynamique de rationalisation et d’industrialisation ? Comment le travail, l’ordre politique et les sujets sont-ils façonnés par le développement continu des forces productives ? Comment penser avec Marcuse une transformation du travail et des techniques, au service de l’émancipation et de l’autonomie ?
4/ Analyse de la pensée écologique de Marcuse : son élaboration théorique se fait en lien étroit avec une réflexion sur le féminisme, l’anticolonialisme et l’anti-autoritarisme, dans la mesure où il s’agit à chaque fois de mettre au jour une dimension spécifique de la domination capitaliste. Penser l’Anthropocène et le Capitalocène avec Marcuse signifie qu’une écologie politique conséquente est nécessairement anticapitaliste, féministe et anticoloniale.
5/ Comment articuler une critique du mode de production capitaliste et une critique de la modernité fondée sur un partage du monde où les êtres et les choses sont hiérarchisés selon la distinction nature/culture ? On fera ici dialoguer Marcuse avec les critiques contemporaines de la nature et du naturalisme (Descola, Latour) : le philosophe allemand défendait une approche où l’idée de nature, réélaborée dans le sillage de Marx, offre un point d’appui essentiel pour appréhender et penser la domination sociale et capitaliste de la nature. Dans cette perspective, le concept de nature est indépassable ; c’est le fondement à partir duquel on peut critiquer à la fois la modernité et le capitalisme.
Le jeudi 5 février 2026, de 19h00 – 21h30, à l’Académie du Climat – Salle des mariages – 2 place Baudoyer – 75004 Paris.
Entrée libre ! Inscription souhaitée ici.

Aurélien Berlan est maître de conférence au département de sciences économiques et gestion de l’Université Toulouse 2 – Jean Jaurès. Il a contribué aux écrits du Groupe Marcuse (De la misère humaine en milieu publicitaire, La Découverte, 2004 ; La Liberté dans le coma, La Lenteur, 2013). Il a publié un essai sur la critique de la modernité industrielle par les sociologues allemands : La Fabrique des derniers hommes (La Découverte, 2012), et une théorie de la liberté articulée au féminisme de la subsistance : Terre et liberté. La quête d’autonomie contre le fantasme de délivrance (La Lenteur, 2021).
Il a notamment écrit dans Terrestres : Autonomie : l’imaginaire révolutionnaire de la subsistance et Snowden, Constant et le sens de la liberté à l’heure du désastre.
Haud Guéguen est maîtresse de conférences en philosophie au Conservatoire national des arts et métiers. Ses travaux portent sur les sciences humaines et sociales du possible et sur l’histoire du néolibéralisme. Elle a notamment publié Herbert Marcuse. Face au néofascisme (Paris, Amsterdam, 2025) ; avec Pierre Dardot, Christian Laval et Pierre Sauvêtre : Le Choix de la guerre civile. Une autre histoire du néolibéralisme (Lux, 2021), et avec Laurent Jeanpierre : La Perspective du possible. Comment penser ce qui peut nous arriver, et ce que nous pouvons faire (La Découverte, 2022).
Elle a notamment écrit dans Terrestres : Désirer après le capitalisme.
Jean-Baptiste Vuillerod est agrégé et docteur en philosophie. Ses travaux portent sur la philosophie de Hegel et ses réceptions dans les pensées critiques contemporaines : la philosophie française des années 1960, l’École de Francfort, les théories féministes, l’écologie politique. Il a notamment écrit Theodor W. Adorno : La domination de la nature (Amsterdam, 2021).
Il a écrit dans Terrestres : L’héritage de la Dialectique de la raison chez les écoféministes.
Pour écouter les anciennes Rencontres Terrestres, c’est ici.
Photo d’ouverture : Herbert Marcuse with his then UC San Diego graduate student Angela Davis, 1969. Crédits : Monoskop.

SOUTENIR TERRESTRES
Nous vivons actuellement des bouleversements écologiques inouïs. La revue Terrestres a l’ambition de penser ces métamorphoses.
Soutenez Terrestres pour :
Des dizaines de milliers de personnes lisent chaque mois notre revue singulière et indépendante. Nous nous en réjouissons, mais nous avons besoin de votre soutien pour durer et amplifier notre travail éditorial. Même pour 2 €, vous pouvez soutenir Terrestres — et cela ne prend qu’une minute..
Terrestres est une association reconnue organisme d’intérêt général : les dons que nous recevons ouvrent le droit à une réduction d’impôt sur le revenu égale à 66 % de leur montant. Autrement dit, pour un don de 10€, il ne vous en coûtera que 3,40€.
Merci pour votre soutien !
L’article La guerre contre la nature : penser l’Anthropocène avec Marcuse est apparu en premier sur Terrestres.
22.01.2026 à 19:34
Stéphane Lalut
Derrière le monde des marchandises, il y a les arrière-mondes de la production ou du transport. Derrière les écrans, il y a une énorme infrastructure matérielle et physique. Et derrière les clouds, il y a les indispensables data centers, qui prolifèrent en avalant l’espace et l’électricité. À Marseille, assaillie par les câbles, la résistance s’organise.
L’article “Votre cloud, notre fournaise”: résister à la dématérialisation depuis Marseille est apparu en premier sur Terrestres.
Marseille. Porte d’Aix. Mars 2024.
Une cinquantaine de corps — femmes, hommes, enfants — figés devant un chantier.
Des banderoles tendues entre deux barrières métalliques : « Pas de cloud sans béton », « Nos quartiers ne sont pas vos serveurs ».
Dans les journaux, silence. Ou presque.
Dans les rues, colère.
Le cube de béton en construction derrière les grilles n’a rien de virtuel. Il est massif, épais, hérissé de gaines d’aération. Il avalera bientôt l’équivalent électrique de 30 000 foyers. Dans une ville où un quart des habitants vit sous le seuil de pauvreté.
Fatima, 62 ans, désigne les fenêtres de son appartement, à cinquante mètres :
« L’été dernier, on dormait plus. Le bruit des groupes électrogènes, la chaleur qui montait du bitume… Et maintenant, ils nous disent que c’est le progrès. Trois emplois, des vigiles, et le reste ? »
« Votre cloud, notre fournaise. »
Ce qui se joue ici n’est pas une exception. C’est un condensé — de ce que la novlangue numérique cherche à dissoudre : les résistances, les conflits, les corps, les lieux.
Derrière les mots — cloud, virtualisation, immatériel —, il y a des serveurs qui chauffent, des camions qui passent, des transformateurs qui vrombissent, des métaux qui s’arrachent.
Il faut reprendre depuis le sol. Depuis l’endroit exact où l’on vit. C’est cela, partir des luttes situées : non pas appliquer une théorie au réel, mais laisser le réel produire ses propres catégories.
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
Pourquoi Marseille ?
Parce qu’une quinzaine de câbles sous-marins y atterrissent, faisant de la ville un nœud stratégique entre l’Europe, l’Afrique et l’Asie1. Parce que cette connectivité — qui n’a jamais fait l’objet d’un vote — attire les opérateurs. Parce que les quartiers nord, moins chers, moins visibles, moins défendus, offrent les conditions « idéales » pour déployer ces infrastructures.
Résultat : une dizaine de data centers déjà actifs, et autant en projet. Puissance électrique cumulée : près de 80 MW aujourd’hui, environ 180 MW à terme2 — davantage que ce qui est prévu pour électrifier les quais du port. Impact carbone : celui d’une ville moyenne, concentré dans quelques arrondissements populaires.
Ce que les riverains reçoivent en échange n’est pas la promesse du numérique. Ce sont des nuisances. Des moteurs de secours qui tournent nuit et jour. Des rejets d’air chaud à 40°C dans des rues déjà suffocantes. Et cette évidence brute : l’énergie que ces centres absorbent n’ira pas ailleurs.

Guillaume Pitron l’a montré dans L’Enfer numérique3. Gauthier Roussilhe le cartographie ligne par ligne4. Le numérique est un système de transfert. Il extrait ici, refroidit là, connecte là-bas — mais les gains ne sont jamais là où se loge le désordre.
Netflix ne « flotte » pas. ChatGPT ne « s’évapore » pas. Une seconde de streaming : quelques grammes de CO₂. Une requête IA : plusieurs wattheures. Des milliards de fois par jour.
Le numérique promet la fluidité. Il produit la friction, ailleurs.
Google annonce des data centers « 100 % renouvelables ». Microsoft jure être « négatif en carbone » d’ici 2030. Amazon aligne des rapports ESG comme des titres en bourse.
Mais ce verdissement est comptable, pas physique.
Lorsque Google achète de l’électricité verte, c’est souvent par certificat — les fameux Power Purchase Agreements. L’énergie renouvelable est produite ailleurs, parfois à des milliers de kilomètres. Le certificat voyage ; les électrons, eux, viennent du réseau local — et quand la demande est forte, ce sont les centrales d’appoint qui répondent.
La « neutralité carbone » ? Une fiction à échéance glissante. On émet aujourd’hui. On promet de compenser demain. En plantant des arbres au Brésil. En misant sur la croissance, l’absence d’incendies. Une dette écologique gagée sur des hypothèses de long terme — pendant que le dérèglement, lui, est immédiat.

Le mot « externalité » est trop faible. Il suggère un à-côté, un effet secondaire. Or ici, le transfert est central. Ce n’est pas un dommage collatéral — c’est la condition même du fonctionnement.
Par dette entropique, j’entends la somme des dégâts matériels et sociaux qu’un système rejette sur d’autres lieux et d’autres corps pour continuer à fonctionner. Pour qu’un data center soit « propre » à Paris, il faut qu’un quartier surchauffe à Marseille. Pour qu’une batterie soit « verte » en Europe, il faut qu’un enfant creuse à Kolwezi (RDC).
Le concept vient de la thermodynamique. Le second principe stipule qu’on ne peut pas réduire le désordre ici sans l’augmenter ailleurs. Pas d’îlot de fraîcheur sans chaleur rejetée. Pas de machine sans perte.
Ce mécanisme prolonge ce que Gérard Dubey et Alain Gras nomment le « modèle Edison »5 : une technologie qui fait disparaître la nuisance au point d’usage, tout en la reportant ailleurs et en programmant l’oubli de ce déplacement.
Transposée aux infrastructures sociales, cette logique devient un outil d’enquête : qui absorbe le désordre ? Où le transfert s’effectue-t-il ? Par quelles techniques est-il invisibilisé ?
Ce cadre dialogue avec des travaux déjà publiés dans Terrestres. Malcom Ferdinand et Françoise Vergès6 ont analysé le « colonialisme vert » — cette écologie qui nettoie le Nord en salissant le Sud. Antoinette Rouvroy et Thomas Berns7 ont théorisé la « gouvernementalité algorithmique » — ce pouvoir qui anticipe les conduites par le calcul, court-circuitant la délibération au profit du profilage. La dette entropique prolonge ces analyses en insistant sur les circuits concrets : par quels chemins le désordre passe-t-il de Palo Alto à Kolwezi, de la Silicon Valley aux quartiers nord de Marseille ?
Le « colonialisme numérique » n’est pas une métaphore : c’est une chaîne logistique.
En République Démocratique du Congo, des enfants extraient du cobalt à mains nues, à quinze mètres sous terre. Ce métal entre dans les batteries — y compris celles des serveurs. Plus au nord, dans le Kivu, le tantale et l’étain des circuits imprimés alimentent depuis trente ans une économie de guerre documentée par l’ONU : mines contrôlées par des groupes armés, travail forcé, viols comme stratégie militaire. Comme l’a montré Celia Izoard dans ces pages, l’accord minier signé en 2024 entre l’Union européenne et le Rwanda — principal bénéficiaire du pillage — a coïncidé avec une intensification des combats8. Le « colonialisme numérique » n’est pas une métaphore : c’est une chaîne logistique.
En janvier 2023, à Lützerath, en Rhénanie, des militants ont été expulsés par la police. Le village devait disparaître pour faire place à la mine de lignite de Garzweiler. Ce charbon alimente les centrales qui fournissent l’électricité des data centers allemands.
Question posée par les occupants : Pourquoi ici ? Pourquoi nous ? Aucune réponse légitime. Seulement celle de la « nécessité énergétique » — comme si cette nécessité-là, au service de ces usages-là, allait de soi.
La carte de la dette entropique est globale. De nos écrans lisses à leurs sols creusés.
À Marseille, à Montpellier, à La Courneuve : des collectifs se lèvent. Ils refusent de porter le poids du progrès des autres. Ce n’est pas du nimbysme — ce réflexe du « pas dans mon jardin » qui délocalise le problème sans le résoudre. C’est une politique du refus situé : partir d’un lieu précis pour contester le système entier. Non pas « pas chez moi », mais « pourquoi ici plutôt qu’ailleurs ? » — et surtout : « pourquoi tout court ? »
Partir des luttes situées, c’est refuser d’appliquer une grille théorique au réel pour laisser les conflits produire leurs propres catégories. Les data centers ne sont pas des équipements neutres. Ce sont des dispositifs de pouvoir — et c’est comme tels qu’ils doivent être contestés.
Maria Kaika et Erik Swyngedouw9 ont proposé le concept de « politisation de l’infrastructure » : réintroduire le conflit démocratique là où régnait la fatalité technique. C’est exactement ce qui se joue à Marseille.

Face à l’expansion du numérique, le solutionnisme technique promet que l’IA va tout « optimiser », réduire les émissions, verdir les data centers. C’est le discours de la Commission européenne, de McKinsey. Ce qu’il oublie : l’optimisation ne supprime pas le désordre — elle le déplace. Les smart cities brillent sur le dos des territoires extractifs, des travailleurs du clic à Madagascar, payés quelques centimes pour entraîner les IA.
À ce solutionnisme, la tradition technocritique — d’Illich à Ellul, de Dubey et Gras aux collectifs actuels — oppose une tout autre démarche : non pas le refus abstrait de « la technique », mais l’enquête concrète sur les systèmes techniques. Quelles technologies créent de la dépendance ? Lesquelles permettent l’autonomie ? Comment distinguer l’outil convivial de l’infrastructure qui asservit ?
La notion de dette entropique s’inscrit dans cette lignée. Elle invite à une question simple : qui paie ? Et elle conduit à deux exigences indissociables : d’abord réduire — car aucun « verdissement » ne compensera la croissance exponentielle des flux de données et de matière — puis politiser la répartition des coûts qui subsistent.
Qui décide où installer un data center ? Quels critères président à ce choix ? Quelles compensations pour les territoires qui absorbent le désordre ? Quels droits pour refuser, contester, infléchir ?
Ce sont des questions politiques. Pas techniques. Elles doivent être traitées comme telles. Dans les conseils municipaux. Dans les enquêtes publiques. Dans la rue s’il le faut.
Ce que demandent les habitants du 2e arrondissement de Marseille pourrait devenir un principe :
→ Pas d’infrastructure entropique sans délibération locale.
→ Pas de transfert de désordre sans droit de veto.
→ Pas de modernité qui ne soit négociée.
Il n’y a pas de numérique propre. Il n’y a pas de cloud neutre. Il n’y a pas de progrès sans friction.
Mais il y a une exigence : faire que la répartition de cette friction soit un objet de délibération. Non pas décider pour les autres — mais décider avec eux, ou pas du tout.
À Marseille, les câbles plongent. Les data centers s’installent. Et dans les quartiers nord, des habitants commencent à demander : pourquoi ici ?
Ce que d’autres décrivent comme un « système d’invisibilité » climatique prend ici une forme très concrète : certains quartiers, certains corps, absorbent le désordre numérique des autres.
C’est de cette question que naît la politique.
Photo de Hunter Harritt sur Unsplash.

NOUS AVONS BESOIN DE VOUS !
Depuis 2018, Terrestres est la revue de référence des écologies radicales.
À travers des essais, enquêtes, traductions inédites et récits de résistances, nous explorons les nouvelles pensées et pratiques nécessaires pour répondre à la catastrophe écologique.
Chaque semaine, nous publions en accès libre des articles qui approfondissent les enjeux écologiques, politiques, et sociaux, tout en critiquant l’emprise du capitalisme sur le vivant. Plus qu’une revue, Terrestres est un laboratoire d’idées et un lieu de réflexions critiques, essentielles à l’élaboration d’alternatives justes et émancipatrices.
En nous lisant, en partageant nos articles et en nous soutenant, par vos dons si vous le pouvez, vous prenez le parti de l’écologie radicale dans la bataille culturelle qui fait rage.
Merci
!
L’article “Votre cloud, notre fournaise”: résister à la dématérialisation depuis Marseille est apparu en premier sur Terrestres.
20.01.2026 à 10:58
Bernadette Bensaude-Vincent
La recherche scientifique joue un rôle central pour documenter l’étendue et la gravité de la catastrophe écologique. Mais la science n’est-elle pas aussi un moteur de cette crise ? Dans son livre “Décroiscience”, Nicolas Chevassus-au-Louis revient sur l’époque charnière des années 1970, où s’est développé un double mouvement d’autocritique de la science et de l'économie.
L’article Comment faire bifurquer la recherche scientifique ? est apparu en premier sur Terrestres.

À propos du livre Décroiscience de Nicolas Chevassus-au-Louis, paru aux éditions Agone en 2025.
En 2016, Nicolas Chevassus-au-Louis livrait un diagnostic pessimiste sur l’état de la recherche scientifique dans Malscience. Fraudes, dérapages, malversations, compétition, quelque chose est pourri dans le royaume des sciences. Près de dix ans après, la situation ne s’est guère améliorée, tandis que l’état de la planète ne fait qu’empirer. Une analyse critique du régime normal de production scientifique sous l’angle de la crise planétaire est donc bienvenue. Dans quelle mesure la science contribue-t-elle à cette crise, quel est son rôle, quel pourrait-il ou devrait-il être ? Autant de questions qu’un journaliste « critique de science » comme Nicolas Chevassus-au-Louis aborde courageusement avec l’humour du dessinateur Stéphane Humbert-Basset qui illustre agréablement chaque chapitre. L’ouvrage évite l’écueil des polémiques entre les gardiens autoproclamés de la raison et prétendus complotistes en rapprochant l’histoire de la décroissance économique de celle des autocritiques de scientifiques. L’alliance entre les deux se noue autour de la figure d’Alexandre Grothendieck. Ce célèbre mathématicien, lauréat de la médaille Field en 1966, qui cesse de publier ses recherches à partir de 1972, année du rapport Meadows, pour se consacrer à l’enseignement et au militantisme écologique, est le véritable héros de Décroiscience.
Dans quelle mesure la science contribue-t-elle à la crise planétaire, quel est son rôle, quel pourrait-il ou devrait-il être ?
Le titre accrocheur, Décroiscience (néologisme introduit par Jaques Testart1), est source de malentendu. Car le champion incontesté de la décroiscience en 2025 est Donald Trump. Depuis le début de son deuxième mandat à la Maison Blanche il met tout en œuvre pour porter un coup d’arrêt au régime normal de la recherche scientifique. Réduction des crédits aux agences de recherche, censure de programmes, atteintes à la liberté académique, refus de coopérations internationales… Ces mesures affecteront la dynamique de croissance des connaissances sur plusieurs générations. Assurément, ce n’est pas le genre de décroiscience que propose ce livre. Il reste que l’analogie suggérée par le titre entre décroissance économique et décroissance de la production scientifique est discutable. Les limites auxquelles se heurte l’augmentation du savoir scientifique ne sont pas de même nature que les limites planétaires de la croissance économique. Par-delà le coût environnemental des activités de recherche et d’innovation, ce sont surtout des choix politiques qui sont à questionner. Or la politique de Trump vise moins à étouffer la recherche scientifique qu’à la mettre au pas, au service de ses intérêts et de ses idées. Il finance les recherches compatibles avec ses objectifs. Michael Kraitsos, conseiller scientifique du président, se présente en restaurateur de « la Gold Standard Science » rappelant les principes de l’intégrité scientifique. La brutalité de ces mesures révèle en fait la vulnérabilité des communautés scientifiques, entièrement dépendantes des politiques pour leur fonctionnement et leurs orientations de recherche. La situation de subordination de la science aux impératifs politiques n’est pas vraiment diagnostiquée dans le livre, bien qu’elle soit au cœur de la question de la contribution de la science à la crise planétaire actuelle.
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
L’argument du livre suppose en toile de fond l’évolution de la recherche scientifique depuis la Seconde Guerre mondiale, qu’il est utile de rappeler en quelques phrases. Le rôle clé de la science pour la puissance nationale et le rôle stratégique de l’état dans la poursuite de la science sont, en effet, deux grandes leçons retenues de cette guerre. La recherche scientifique devient une affaire d’état. Le plan Vanevar Bush – Science the Endless Frontier – aux États-Unis, comme les grands plans stratégiques lancés en France durant les années gaulliennes illustrent ce régime de « patronage » de la recherche par les gouvernements. Mais patronage n’implique pas pilotage. Dans ce schéma qu’on appelle « modèle linéaire », les gouvernements financent, soutiennent et régulent la recherche académique sans attendre un retour immédiat sur investissement. Dans les années 1970, suite au rapport de Harvey Brooks à l’ODCE, Science croissance et société (1971), les politiques scientifiques changent de cap. D’une part, le généreux financement de la recherche par les états commence à faiblir. Le modèle linéaire tend à être remis en question : il faut se préoccuper de rentabiliser la recherche, s’ouvrir à l’économie comme à la société. D’autre part, les objectifs stratégiques militaires cessent d’être privilégiés et c’est la compétitivité industrielle qui devient la priorité. Dans les années 1990 s’amorce un deuxième tournant, avec l’entrée en scène de l’Union européenne. Le Livre blanc de Jacques Delors en 1993 suggère de créer un « espace européen de la recherche » qui serait non pas une entité juridique mais une collaboration compétitive jouant de la diversité européenne et de l’émulation entre pays. En 1997, la Commission européenne publie un rapport signé par deux économistes : Society, the Endless Frontier2. Et l’agenda défini par l’Union européenne à Lisbonne en mars 2000 fixe comme objectif : « Devenir l’économie de la connaissance la plus compétitive et la plus dynamique, capable d’une croissance économique durable, accompagnée d’une amélioration quantitative et qualitative de l’emploi et d’une plus grande cohésion sociale3 ». L’ambition de porter le budget de la recherche à 3% du PIB de chaque état-membre n’a pas été tenue, mais le régime de compétitivité s’est durci avec les tensions géopolitiques.

La force de ce livre réside, à mes yeux, dans le flash-back sur les années 1970, riches de protestations et d’autocritiques. La conjonction entre la remise en cause de la croissance économique dans le rapport Meadows de 1972 ou dans le livre pionner de Nicholas Georgescu Roegen4 et la contestation interne à la recherche scientifique fait surgir un horizon de possibles. Le 3 novembre 1971, Grothendieck ouvre son cours de mathématiques au Collège de France par une séance intitulée « Science et technologie dans la crise évolutionniste actuelle : allons-nous continuer la recherche scientifique ? ». Ouverture d’une fenêtre, vite refermée. Ce geste spectaculaire a été inscrit dans l’histoire sous forme d’un épisode anecdotique jalonnant la marche triomphale du progrès, tout comme la révolte des luddites au XIXe siècle auxquels Chevassus-au-Louis a consacré un autre ouvrage5. L’ambition du présent livre est de rouvrir la fenêtre, de réactiver le possible esquissé dans les années 1970, en réfléchissant sur les raisons de l’échec de deux mouvements d’autocritique : des milieux économiques, d’une part, dans le rapport Meadows, et des milieux scientifiques, d’autre part. Tirer des leçons de l’histoire récente est essentiel pour bifurquer. Le rapport Meadows a été critiqué, fustigé, puis balayé par le slogan de « développement durable » fondé sur la promesse que de nouvelles technologies pouvaient repousser les limites de la planète. La magie de ce pari technosolutionniste opère toujours en 2025 dans la mobilisation pour l’intelligence artificielle, malgré l’accumulation des promesses non tenues par les OGM, les nano et biotechnologies. Chevassus-au-Louis souligne à juste titre que l’évolution de la crise écologique valide a posteriori le diagnostic du rapport Meadows discrédité par les analyses de l’OCDE, justement parce qu’il ne prenait pas en compte le pouvoir du progrès technologique, ce qui lui a été longtemps reproché pour le discréditer.
Le geste spectaculaire de Grothendieck a été inscrit dans l’histoire sous forme d’un épisode anecdotique jalonnant la marche triomphale du progrès, tout comme la révolte des luddites au XIXe siècle.
Le parallèle avec le sort des mouvements d’autocritique de la science des années 1970 pareillement balayés par l’OCDE et les politiques de recherche technoscientifique est si remarquable qu’il aurait mérité de plus amples développements. Les protestations contre l’alliance entre la science et le militaire mise en place dès 1945 aux États-Unis dans la foulée du projet Manhattan cristallisent en effet au début des années 1970, sous diverses formes qui ont ouvert des fenêtres. Par exemple, la mise en place d’instances d’évaluation technologique (Technology Assessment) aux Etats-Unis6. En France, l’autocritique attisée par le programme nucléaire national est en grande partie animée par des physiciens comme Jean-Marc Lévy-Leblond qui a développé d’autres formes d’activisme depuis lors7. Pour pouvoir vraiment tirer des leçons de l’histoire récente, Chevassus-au-Louis aurait pu évoquer une autre fenêtre entr’ouverte dans les décennies suivantes par les études sur les Science Technology Studies (STS) qui ont rendu poreuse la ligne de démarcation entre science et société dans leurs travaux sur les controverses, la circulation des connaissances, leurs modes de légitimation dans différents espaces publics, et les modes de construction conjointe des connaissances et des publics. Au tournant des années 2000, les STS se sont engagées dans l’aventure de la co-construction des technosciences et de la société au travers d’une participation active aux programmes de recherche lancés par la Commission européenne. Ainsi le programme Converging Technologies for the European Knowledge Society (CTEKS) a tenté d’orienter les choix technologiques en incluant la société civile, dans le but de changer la politique en actionnant le levier des technologies8. Les sciences humaines ont cru pouvoir changer d’un seul coup et la recherche et la société. Une tentative vite enlisée dans le soft power de slogans creux comme Public Engagement in Science, ou Responsible Research and Innovation destinés à rassembler les parties prenantes sur un modèle managérial issu de l’économie néolibérale9. D’autres leçons seraient à tirer du gâchis des politiques de recherche sur les énergies alternatives – solaire, éolien, hydrogène – initiées après la crise du pétrole de 1973 qui ont été abandonnées dès que le prix du pétrole a baissé dans les années 198010.

Car l’alignement de la recherche sur les lois du marché est la cible centrale de Décroiscience. L’ouvrage s’appuie sur les travaux qui dénoncent la gestion managériale de la recherche et « les ravages du productivisme scientifique »11. Mais il se distingue par la volonté d’activer l’histoire récente au lieu de la survoler, de faire réfléchir sur les rapports de forces en présence au lieu d’étaler les scandales.
L’alignement de la recherche sur les lois du marché est la cible centrale de “Décroiscience”.
Lutter contre l’amnésie des politiques de recherche n’est pas le seul bienfait de ce livre. Chevassus-au-Louis a aussi le mérite de pointer et de bien formuler les problèmes dans son analyse de la situation contemporaine de la recherche. Ainsi note-t-il dès la page 20 que le savoir ne fonde plus les décisions politiques. C’est un élément clé de ce que les médias désignent comme « crise de confiance dans la science ». De fait, ce n’est pas un problème de confiance : les sondages attestent que le public européen a toujours confiance en la Science, un imaginaire de science idéale, neutre. Mais ce qui semble brisé ou du moins très menacé, c’est le lien entre savoir et action, entre science et politique qui fonde le recours aux experts convoqués pour « dire le vrai au pouvoir » et orienter les décisions. Ce lien postulé dans la formule d’Auguste Comte : « savoir pour prévoir, afin de pouvoir » repose lui-même sur le postulat de la neutralité des résultats scientifiques à l’égard des opinions partisanes. Les scientifiques en rébellion contre l’inaction des politiques face aux rapports d’expertise du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) adhèrent toujours à ces deux postulats qui sont sans cesse démentis par l’actualité et qui demandent à être sérieusement questionnés.
➤ Lire aussi | Sortir des labos sans lâcher la recherche・Des scientifiques en rébellion (2024)
Au lieu de se lamenter sur les contestations de l’autorité des experts, Chevassus-au-Louis établit une relation entre ce nouveau rapport à la vérité et deux autres problèmes : celui de la liberté académique et celui de la valeur sacrée de la connaissance. C’est le nœud entre les questions épistémiques, écologiques et politiques qui fait tout l’intérêt de cet ouvrage et qui justifie d’ailleurs la préface du philosophe Pascal Engel. Concernant la liberté académique, Chevassus-au-Louis est très réservé, comme le suggèrent deux chapitres tout en contrastes, l’un sur l’impasse des moratoires, l’autre sur l’efficacité des interdictions politiques. L’appel de quelques chercheurs au moratoire sur le génie génétique à la conférence d’Asilomar en 1975 et ses lointains avatars comme le bref moratoire sur les recherches impliquant des virus fonctionnalisés en 2011 ou le récent appel au moratoire sur les bactéries miroir en 202512, sont d’une efficacité nulle et ne servent finalement qu’à favoriser la publicité de telles recherches. Chevassus-au-Louis ne défend pas la liberté académique à tout prix car la « république des sciences » ayant ses propres normes a plutôt tendance à se placer au-dessus du commun et à préférer l’auto-régulation aux normes ou interdits imposés par les politiques. Il salue, en revanche, l’efficacité des interventions étatiques imposant des interdits ou des normes strictes sur certaines pratiques de recherche comme l’expérimentation animale ou l’utilisation d’embryons humains. Clairement il opte pour une stricte règlementation politique de la recherche. Ce qui pose problème car c’est précisément ce que fait Trump.

D’une manière générale, les mesures proposées dans les deux derniers chapitres pour une politique de décroiscience ne sont pas à la hauteur du diagnostic. Animé par un souci de « partir de l’existant », Chevassus-au-Louis se borne à déterminer « un certain niveau » de recherche nécessaire pour lutter contre les maladies et préserver l’environnement. Il prône par exemple de renoncer aux manipulations de virus et aux expériences de géoingénierie, ce qui relève de la prudence. Mais il n’affronte pas vraiment la question du prix de la connaissance en disant qu’il « va falloir se résigner à renoncer à certaines recherches » (p. 204) ayant un coût environnemental élevé en astrophysique ou en physique des hautes énergies ou même en proposant une Cour des comptes écologiques chargée d’évaluer le coût environnemental des programmes de recherche, sur le modèle de leur coût financier (p. 205).
C’est un premier pas, mais l’évaluation des impacts environnementaux de la recherche est une pratique déjà recommandée par plusieurs organismes comme l’Autorité Internationale des Fonds Marins par exemple. En amont de la recherche on doit évaluer son empreinte carbone, ses impacts potentiels sur l’objet d’étude, impacts environnementaux, sociétaux et géostratégiques. Une telle évaluation met en jeu la responsabilité des communautés de recherche dans l’aggravation de la situation climatique mais aussi leur non-contribution à la recherche de solutions. Il faudrait aller plus loin et dénoncer le recours aux instruments les plus high-tech et les plus performants pour publier des résultats crédibles. La course aux innovations technologiques qui sous-tend le régime actuel de recherche comme l’économie de marché absorbe une grande partie des budgets de recherche et en plus exclut de la compétition scientifique les pays du Sud. Aller plus loin c’est aussi et surtout s’interroger sur la valeur de la connaissance dès lors qu’elle est un moyen en vue d’une fin explicite comme la conquête de marchés, le leadership, la puissance. Ainsi reconfigurée dans le cadre de la compétition économique, la connaissance a perdu sa valeur intrinsèque. Cette question n’est pas suffisamment approfondie et c’est dommage car cela conduit l’auteur à des conclusion paradoxales. Alors que tout le livre critique la soumission des politiques de recherche aux impératifs de la croissance économique, il érige les bilans-carbone en outil pour amorcer la décroiscience : « Ce livre soutient que l’empreinte carbone de toute activité scientifique pourrait être un critère de cette appréciation du « certain niveau » (p. 25). Cette métrique instaurant une compatibilité universelle où tout devient commensurable et scalable est, à mes yeux, le parangon de la logique économique, comptable, qui domine aujourd’hui tous les champs de recherche. Or, elle n’est jamais questionnée.
Le livre encourage une orientation low science en évoquant le geste ostentatoire des physiciens du l’Institut Néel qui demandent une diminution de leur budget de 10% par an sous condition de ne plus dépendre des appels d’offre concurrentiels.
L’ouvrage propose seulement des mesures de bon dosage visant à ralentir la course instaurée par le productivisme et l’inflation des publications scientifiques. Il reprend le slogan de la Slow Science Academy créée dans les années 2000 par un groupe de chercheurs allemands, qui a posté sur la toile un manifeste dénonçant les orientations de la recherche vers la compétition, la course aux publications, les évaluations de chercheurs à coup de dispositifs bibliométriques (indices de citations, classement des revues, facteur h…). Plus original, il encourage une orientation low science sur le modèle des low tech labs en évoquant le geste ostentatoire des physiciens du l’Institut Néel qui demandent une diminution de leur budget de 10% par an sous condition de ne plus dépendre des appels d’offre concurrentiels (p. 198)
Prôner le ralentissement et la sobriété cela ne permet pas de s’interroger sur la temporalité propre à la recherche scientifique. On a vu pendant la pandémie de COVID combien la hâte de publier des résultats a conduit à des publications peu fiables qu’il a fallu rétracter. Cette course dans un climat d’urgence et de compétition a contribué à accroître la méfiance envers la science. Dans quelle mesure est-il légitime de financer des recherches au long cours qui demandent des années pour produire des résultats stabilisés et robustes ? Chaque secteur d’activité sociale économique et politique a son régime temporel propre mais c’est une affaire de pouvoir et relèvent de choix politiques13.

Enfin, les citoyennes et citoyens sont totalement absents de ce beau travail de critique de science. Vouloir planifier la décroiscience témoigne d’une grande confiance dans le pouvoir des institutions politiques mais où est passée la société civile ? Quel peut être le rôle des organisations non-gouvernementales, des associations de patients, de riverains, de consommateurs ? N’ont-elles pas ouvert des fenêtres et parfois inséré un coin pour empêcher de les refermer ?
Bref, ce livre soulève une bonne question – dans quelle mesure la science contribue-telle à la crise planétaire – et il y répond partiellement en dénonçant la soumission des milieux scientifiques aux impératifs économiques. Toutefois il ne va pas jusqu’au bout des problèmes ni des mesures à envisager pour mener des recherches plus soutenables. C’est en tous cas une lecture agréable et stimulante, susceptible d’inspirer de nouvelles propositions pour transformer en profondeur le régime actuel de la recherche scientifique.
Photo d’ouverture : manifestation « Printemps Bruyant », 5 avril 2025, Paris. Crédits : Scientifiques en rébellion.

SOUTENIR TERRESTRES
Nous vivons actuellement des bouleversements écologiques inouïs. La revue Terrestres a l’ambition de penser ces métamorphoses.
Soutenez Terrestres pour :
Des dizaines de milliers de personnes lisent chaque mois notre revue singulière et indépendante. Nous nous en réjouissons, mais nous avons besoin de votre soutien pour durer et amplifier notre travail éditorial. Même pour 2 €, vous pouvez soutenir Terrestres — et cela ne prend qu’une minute..
Terrestres est une association reconnue organisme d’intérêt général : les dons que nous recevons ouvrent le droit à une réduction d’impôt sur le revenu égale à 66 % de leur montant. Autrement dit, pour un don de 10€, il ne vous en coûtera que 3,40€.
Merci pour votre soutien !
L’article Comment faire bifurquer la recherche scientifique ? est apparu en premier sur Terrestres.
19.12.2025 à 10:35
Jacopo Rasmi
“Qu’est que ça fait d’être un problème dans la chaine d’approvisionnement de quelqu’un ?”, demandent Fred Moten et Stefano Harney dans “All incomplete”, un essai théorique sur les infrastructures du capitalisme logistique, vues à travers le prisme de la tradition radicale afro-américaine. Compte-rendu de lecture pour regarder autrement Amazon et son monde.
L’article Logique du capitalisme logistique, de la plantation à l’entrepôt est apparu en premier sur Terrestres.

À propos du livre All incomplete. Alternatives au capitalisme logistique, de Fred Moten et Stefano Harney, paru en 2025 aux éditions Les Liens qui Libèrent ; traduction collective finalisée par Mabeuko Oberty.
Récemment traduit en langue française, All Incomplete, le dernier essai de Stefano Harney et Fred Moten, met au centre de sa réflexion la question du « capitalisme logistique ». Les auteurs, tous deux étasuniens – le premier enseignant à la KHM de Cologne, le second poète, performeur et enseignant à la New York University – sont surtout connus pour leur premier livre écrit à quatre mains : Les sous-communs (Brook, 2022), sur lequel nous reviendrons. Disons-le d’emblée : leur dernier ouvrage est ardu et diffère du style classique en sciences humaines et sociales. Il ne faut pas s’attendre à une prose didactique et progressive. Ce livre assez dense et foisonnant propose une réflexion qui mêle philosophie et sciences politiques, poésie et culture radicale black (tradition de pensée nord-américaine dont certains auteurs essentiels comme Cedric Robinson commencent à peine à circuler dans l’espace francophone1).
Quiconque réfléchit aux limites écologiques de notre système socio-productif trouvera des intuitions importantes dans les trajectoires théoriques vertigineuses que Motent et Harney élaborent autour de la question cardinale de la logistique. Dès 2009, l’antropologue Anna Tsing affirmait l’importance d’analyser notre situation en termes de « capitalisme de la chaîne d’approvisionnement (supply chain capitalism) » :
Le « capitalisme de la chaîne d’approvisionnement » désigne ici les chaînes commerciales basées sur la sous-traitance, l’externalisation et les accords connexes dans lesquels l’autonomie des entreprises impliquées est légalement établie, tout en les soumettant à une discipline au sein de la chaîne dans son ensemble.2
C’est ce double mouvement corrélé de séparation en entités autonomes et compétitives, d’une part, et d’enchainement à un écosystème économique hégémonique, d’autre part, que nous retrouvons dans les analyses philosophiques d’All Incomplete. Les terrains de recherche anthropologiques d’Anna Tsing nous suggéraient, à ce propos, de ne pas nous attarder excessivement sur l’épouvantail de la standardisation globale, en nous invitant à voir plutôt comment cette forme de productivité capitaliste se fondait sur une variété (diversity) de « niches économiques fragmentés mais reliées ».
L'infolettre des Terrestres
Toutes les deux semaines, dans votre boîte mail : un éditorial de la rédaction, le résumé de nos dernières publications, un conseil de lecture des Terrestres et des articles tirés de nos archives, en écho à l'actualité.
« La nature aime se cacher », disait une maxime célèbre d’Héraclite3. Tout un courant intellectuel qui peut être qualifié de « post-naturel » s’est consacré depuis un certain nombre d’années à déconstruire l’évidence fuyante de cette nature à partir de traditions hétérogènes. Du marxisme à l’anthropologie en passant par les gender studies, de Bruno Latour à Timothy Morton en passant par Donna Haraway, on nous a appris à observer de manière critique les mécanismes culturels et politiques qui instaurent le périmètre du « naturel ».
Au sein de « l’écologie-monde4 » contemporaine, il y a cependant une chose qui, bien qu’elle soit partout, « aime se cacher » : la logistique. On pourrait la considérer comme une sorte de seconde nature d’origine technique et qui demande, elle aussi, un effort de compréhension critique. Nous ne pouvons pas comprendre les relations matérielles que nous entretenons avec l’écosystème planétaire en faisant l’économie d’une lecture méticuleuse des chaînes de déplacement et d’approvisionnement qui structurent le métabolisme de nos communautés interconnectées. À l’heure de l’économie globalisée, de la production just in time ou de la consommation à la demande de biens et de services, la reproduction de nos modes de vies dépend d’un immense régime logistique qui soutient la production et la livraison de ce qui nous permet de communiquer, manger, lire, nous habiller…5
La logistique aussi aime se cacher. La logistique préfère disparaître derrière ses effets, ses derniers maillons, ses services accomplis. Elle tente d’apparaitre comme neutre afin éviter d’être appréhendée comme un exercice de pouvoir et gouvernement6. Nous recevons le livre commandé par Amazon : en quelques jours à peine, voilà qu’il arrive « magiquement » dans notre boite aux lettres. Et voilà aussi que cette « magie » fait oublier les entrepôts de stockage, les serveurs de traitement des commandes, l’exploitation salariale, la sous-traitance compétitive de la livraison, le carburant brûlé par les navires cargo…
Dans l’essai Planète B, Gwenola Wagon écrit à propos du protagoniste B, avatar explicite de Jeff Bezos :
B a profité de l’accélération de l’information comme de l’envoi des colis pour raccourcir le temps de livraison. Réduire l’attente et court-circuiter l’espace-temps pour répondre instantanément au désir d’achat. Diminuer le coût de la consultation du site. Faire disparaître les traces de la locomotion et simuler que le produit est déjà là.7

Le fonctionnement de la logistique peut être inscrit dans la tendance plus générale des médiations techniques à se cacher derrière le résultat qu’elles livrent – du moins tant que rien ne coince ou ne bugge8. Si aujourd’hui la montée en puissance de la logistique évoque immédiatement les infrastructures de la plateforme numérique et ses black boxes, elle s’inscrit dans la continuité historique de phénomènes majeurs tels que l’exploitation des énergies fossiles (charbon, pétrole…) ou l’invention du container.
Une des façons de rendre compte de cette réalité cruciale dans le champ théorique contemporain a été le développement d’études sur les questions infrastructurelles (Infrastructure Studies / Critical Infrastructure Studies), un domaine ancré surtout dans les sciences sociales9. L’infrastructure constitue dans ce champ de recherche un objet composite qui permet d’analyser autant des écosystèmes matériels de connexion, coordination et transport, que des formes de gouvernementalité et subjectivation. Voici la définition qu’en donne la chercheuse Keller Esterling dans un essai ayant marqué cette approche théorique :
Le mot « infrastructure » évoque généralement des associations avec des réseaux physiques permettant le transport, la communication ou les services publics. L’infrastructure est considérée comme un substrat caché, le moyen de liaison ou le courant entre des objets caractérisés par des conséquences, des formes et des lois positives. Pourtant, aujourd’hui, au-delà des réseaux de tuyaux et de câbles, l’infrastructure comprend des micro-ondes émises par des satellites et des appareils électroniques miniaturisés que nous tenons dans nos mains. Les normes (standards) et les concepts qui déterminent à peu près tout – des objets techniques aux styles de gestion – constituent également une infrastructure. Loin d’être cachée, l’infrastructure est désormais le point de contact et d’accès manifeste entre nous tous – les règles qui régissent l’espace de la vie quotidienne10.

Bien qu’on puisse ressentir une dilution face à cette ouverture de la focale conceptuelle, la perspective proposée par Esterling nous permet d’appréhender plus efficacement les dispositifs qu’on appelle « infrastructures » comme des objets complexes impliquant autant des couches matérielles et que des couches abstraites, des modifications des paysages terrestres tout comme des protocoles politiques internationaux ou des modulations d’espaces intérieurs subjectifs. Moten et Harney nous invitent précisément à observer le capitalisme logistique comme une combinaison d’éléments hard (des routes, des câbles, des zones de stockage, des canaux d’approvisionnement énergétique…) et d’éléments soft (programmes informatiques, ingénierie des flux, management des stocks, attentes sociales…). Si on prend, par exemple, l’infrastructure d’UberEats, nous pouvons comprendre la logistique de cet acheminement de repas à domicile comme un assemblage qui réunit une série de composantes enchevêtrées mais disparates : des véhicules particuliers, des algorithmes d’appariement demande/offre, un certain droit du travail, des smartphones connectés au réseau 5G, le désir de confort alimentaire dans un rythme de vie frénétique, des systèmes de paiement sécurisé en ligne, une cartographie interactive intégrant la géolocalisation en temps réel, une culture diffuse de l’auto-entrepreneuriat…

Le travail universitaire des études infrastructurelles n’épuise pas le spectre des gestes qui explorent ce domaine. De nombreuses opérations performatives et artistiques tentent d’entrainer collectivement une « proprioception infrastructurelle », selon le terme de l’artiste-chercheur Jamie Allen11. Des cartes du collectif Bureau d’études12 aux démontages analytiques du tandem Raffard-Roussel13 en passant par les essais cinématographiques de Gwenola Wagon et Stephane Degoutin14, les artistes essayent d’alimenter la sensibilité et la conscience des environnements infrastructurels qui façonnent notre quotidien par des gestes hétérogènes : par des ateliers pratiques de démontage, par des représentations graphiques synthétiques, par des balades-enquêtes dans l’espace urbain et numérique, par des récits spéculatifs. Comment percevoir les écosystèmes infrastructurels sur lesquels nous sommes branchés ? Et pourquoi le faire ?15 Si on les connait, alors on peut les débrancher.
Le simple sabotage des antennes 5G ou la cartographie visuelle du stack numérique ne suffisent pas tactiquement : elles doivent être accompagnées par la fabrication d’écosystèmes différents et plus désirables en termes écologiques et démocratiques.
Le même Jamie Allen a mis en évidence les limites d’un simple « dévoilement constructiviste » des infrastructures techniques, qui serait dépourvu de propositions tactiques pour des infrastructures alternatives. Il parle à ce propos de la nécessité d’une « rêverie infrastructurelle » qui activerait d’autres organisations socio-techniques par l’imagination et l’exploration16. Les limites d’un simple sabotage des infrastructures dominantes méritent également d’être questionnées. En d’autres termes, la conscience des chaînes logistiques hégémoniques et leur obstruction est nécessaire mais non suffisante. Comme l’écrit la chercheuse Fanny Lopez, il faut envisager le problème logistique des infrastructures techniques par de multiples opérations qui prolongent et dépassent les gestes d’exploration et de blocage : « débrancher des segments, réinventer les liens techniques sans forcer ni arraisonner le vivant ; repenser les structures et la gouvernementalité des réseaux »17. Cela équivaut à dire que le simple sabotage des antennes 5G ou la cartographie visuelle du stack numérique ne suffisent pas tactiquement : elles doivent être accompagnées, si on reste dans l’exemple du numérique, par la fabrication d’écosystèmes différents et plus désirables en termes écologiques et démocratiques (comme dans le cas du permacomputing ou du cloud associatif).
Ce court cadrage théorique permet de situer l’abstraction poétique de l’essai All Incomplete de Moten et Harney dans un contexte de réflexion et d’action politique plus vaste, ainsi que ses « alternatives au capitalisme logistique » mises en avant par le sous-titre de la traduction en français.

Mais qu’est-ce que donc le « capitalisme logistique » ? En trahissant partiellement la densité organique de l’écriture des auteurs, j’essaie de tracer les contours de cette perspective à la fois intellectuelle et lyrique après avoir participé à l’aventure collective de traduction de ce texte fascinant et fuyant. Cet exercice souhaite moins épuiser en la synthétisant sa prose originale qu’attiser le désir de se perdre dans le tourbillon de pensée et d’images d’All Incomplete.
Si le récit philosophique de la logistique dans « All Incomplete » s’échafaude autour de l’implication violente des corps, c’est aussi et surtout à cause de la référence raciale et esclavagiste qui l’inspire transversalement.
Le problème de la logistique se manifeste pleinement dans le contre-jour de l’histoire coloniale – donc en amont de la motorisation, de l’automatisation ou encore de la numérisation qui ont alimenté la période d’expansion technologique et productive la plus récente, entre les XIXe et XXIe siècles. Ancré dans l’expérience passée et présente des communautés afro-américaines, All Incomplete présente « la logistique » comme « la science blanche » par excellence (p. 37). C’est dans l’appropriation et l’organisation déployées au sein de la traite esclavagiste et de la plantation que se forge à une échelle aussi grande que décisive cette science du flux : « Bien sûr, la logistique existait déjà en tant que pratique dans les affaires militaires, depuis qu’il y a des sièges, des invasions et des forts. […] La traite esclavagiste africaine et transatlantique a représenté la grande et hideuse introduction de la logistique de masse à des fins commerciales plutôt que militaires ou étatiques » (p. 180). Si le récit philosophique de la logistique dans All Incomplete s’échafaude autour de l’implication violente des corps (opposés au principe d’une expérience plus fugitive et moins individuelle de ce qu’on appelle dans le texte la « chair »18) c’est aussi et surtout à cause de la référence raciale et esclavagiste qui l’inspire transversalement.
Tout en faisant un clin d’œil aux manifestations numériques contemporaines du pouvoir logistique, chez Moten et Harney l’emploi récurrent du terme « algorithme » résume une mise en forme plus vaste et profonde que le domaine des technologies digitales. Elle s’impose corporellement comme une pulsation musicale et chorégraphique (riddim) : « Être formé·e, c’est être formé·e dans ce rythme, être composé·e algorithmiquement, être contraint·e de porter ce rythme mais aussi de le développer, de l’améliorer, de l’exporter et de l’importer, ce qui revient à dire qu’être composé·e algorithmiquement, ce n’est pas seulement être battu·e, mais battre. » (p. 99). Cette représentation ample et poétique du capitalisme logistique esquissée par Moten et Harney peut surprendre car elle n’est pas immédiatement « infrastructurelle » comme celle de beaucoup d’analyses en sciences sociales19. Sans exclure la pertinence de l’infrastructure, en effet, All Incomplete propose une interprétation plus-qu’infrastructurelle de la question logistique qui s’infiltre dans les pulsations physiques et affectives du sujet.

Dans l’élan initial du livre, Moten et Harney se demandent : « que devons-nous tirer du fait qu’aujourd’hui la science qui semble avoir le plus réalisé la Doctrine du Cœur du bouddhisme Zen est la logistique ? » (p. 34). Cette doctrine prône une fluidité, une mobilité ou un vide qui s’avèrent être des conditions de prolifération idéales pour les opérations du régime logistique. Est-ce donc un hasard si ces disciplines orientales connaissent un si grand succès dans le monde contemporain ? La stratégie logistique adhère avec enthousiasme au ji ji muge bouddhiste entendu comme « non blocage » : « C’est la science de la logistique qui rêve de flux sans blocage et essaie de faire de ces rêves une réalité. La logistique hard et la logistique soft fonctionnent ensemble. Le yang de la Nouvelle Route de la Soie et le yin de l’algorithme fantasment tous les deux sur le non blocage. » (p. 34). Adepte acharnée de cette discipline zen, la logistique envisage la fluidité du vide comme une opportunité d’aménagement stratégique voué à la réalisation d’une accessibilité universelle et d’une mobilité sans frein. Le détournement du zen est l’emblème des aspirations totalisantes du capitalisme logistique.
Adepte acharnée de cette discipline zen, la logistique envisage la fluidité du vide comme une opportunité d’aménagement stratégique voué à la réalisation d’une accessibilité universelle et d’une mobilité sans frein.
Pour Moten et Harney, « la science capitaliste de la logistique » est condensée par la formule « mouvement + accès » (p. 71). Toute maladresse, toute déviation ou tout épuisement équivalent donc à un « sabotage » qui ralentit ou entrave ces principes de fonctionnement : « tout repos dans la vie sociale – ce que nous appellerions, avec Valentina Desideri, notre conservation militante, la fermentation de nos désirs – [est amené à être] dénoncé comme antisocial » (p. 186). Ici, il n’est pas question spécifiquement de « soulèvements infrastructurels » (infrastructural unrest) qui troublent au premier degré les flux de marchandises dans les entrepôts Amazon ou les flux de pétrole dans les pipelines20. Ce sont des phénomènes mineurs et diffus d’inaccessibilité et d’interruption – pas décorrélés, au fond, des évènements majeurs et médiatiques mentionnés que Moten et Harney célèbrent par leurs réflexions : le « repli » d’une danse, d’un barbecue, une crèche, un atelier de mécanique (p. 217)… All Incomplete nous encourage à penser des résistances « anti-héroiques » qui prennent forme dans une multitudes de moments « fugitifs » de socialité quotidienne où se réalise une soustraction au flux de la production et de l’organisation logistique. Si on reprend les catégories du matérialisme féministe, la pensée des deux auteurs étasuniens s’intéresse davantage aux couches « reproductives » de notre existence collective qu’à celles « productives ». Access denied : refuser l’accès signifie consentir au partage, précieux paradoxe.
La logistique tend ainsi à phagocyter les valeurs supposément émancipatrices de droit d’accéder et se déplacer dont devrait abstraitement jouir tout sujet. Ou, du moins, elle sème des doutes au sein de toute adhésion hâtive à la liberté d’accès ou de mouvement21. All Incomplete nous apprend à nous méfier de l’universalité positive de ces droits, à y ressentir l’intrusion impitoyable des logiques capitalistes, bien qu’on ne doive pas arrêter de célébrer contextuellement la nécessité d’un accès culturel démocratique dans le champ numérique (open access, creative commons…) ou le droit de circulation contre les frontières. À cette conception du mouvement qui fait l’objet d’une critique en tant que volonté souveraine de l’individu et processus d’accumulation capitaliste on peut opposer le « mouvementement » dont parle la théoricienne Emma Bigé : une activation corporelle et un déplacement animé plutôt par de forces environnementales et transindividuelles22. Être mouvementé est une condition irréductible à la mobilité capitaliste, dépend d’une solidarité physique ingouvernable avec ce qui nous entoure et nous traverse. En somme, le contraire de la logistique ne coïncide pas nécessairement avec une stase.
Le capitalisme logistique n’est pas uniquement Zen. Il aspire aussi au « kaizen », dans ses volontés de gestion pointilleuse. La logistique fonctionne selon une logique « d’optimisation » permanente et capillaire. Telle est la signification du terme japonais « kaizen » qui a été mobilisé historiquement pour exprimer l’esprit du toyotisme et la mutation du management industriel vers une flexibilité allégée (lean)23. Il faut s’améliorer et améliorer, sans cesse. Il est surtout question, ici, d’une amélioration du flux, toute amélioration individuelle ayant pour fin l’accélération du processus général : « L’importance de la marchandise n’est rien en comparaison de la qualité du flux qu’elle emprunte, qui est l’infrastructure que les travailleureuses fabriquent et rendent meilleure, plus résiliente. » (p. 185). Améliorer signifie conquérir plus de communication, plus d’accessibilité, plus de connexion, plus de vitesse, plus de production. S’améliorer signifie se rendre davantage disponible à ces augmentations, embrasser activement sa propre insuffisance comme un travail infini (donc éreintant) au service des chaînes de valorisation24. Telle est la circularité perverse de cette injonction : « La logistique vise à nous corriger, à nous démêler et à nous ouvrir à son usufruit, son amélioration ; un tel accès à nous, à son tour, améliore la ligne de flux, la ligne droite » (p. 39).
« L’importance de la marchandise n’est rien en comparaison de la qualité du flux qu’elle emprunte, qui est l’infrastructure que les travailleureuses fabriquent et rendent meilleure, plus résiliente. »
Fred Moten et Stefano Harney
Les systèmes d’évaluation et de mesure viennent au secours de cette optimisation ubiquitaire. Ils la guident, ils nous guident vers de nouvelles frontières d’efficacité et d’optimisation. Si le principe du kaizen trouve son ancrage historique dans le dépassement de la chaîne fordiste par le flux just in time toyotiste, il anime une tension plus générale de la modernité individualiste et capitaliste obsédée par ce que Moten et Harney appellent « l’usufruit » : à savoir, « la réunion de deux types d’amélioration – l’amélioration de soi et l’amélioration de la propriété au XVIIIe siècle et au début du XIXe siècle » (p. 177). D’une part rendre plus fluide et efficace la structure productive et sa rentabilité, de l’autre inculquer cette soif de perfection et performance au sein de l’intimité personnelle.
Vous pouvez traduire « amélioration » par « progrès », si cela rend le raisonnement plus clair. Et il n’y a progrès que si on peut s’approprier quelque chose pour exercer pleinement son droit/devoir d’amélioration contre celleux qui n’en seraient pas capables. Le capitalisme logistique perfectionne voracement, il souhaite compléter ce qui est incomplet en chacun·e. Mais cette incomplétude imparfaite constitue le partage social le plus précieux et profond, ce qui nous rassemble et nous anime. L’améliorer signifie perdre cette socialité fondamentale, la dissiper ou la canaliser productivement : « Pouvons-nous accepter et embrasser une telle imperfection, pour continuer à imparfaire chaque effondrement logistique ancien et nouveau ? » (p. 201)

Moten et Harney reprennent la structure binaire qui triomphe dans la technologie informatique pour résumer la tension qui structure le capitalisme logistique. Cette structure n’évoque pas uniquement le fonctionnement numérique, elle est présentée également sous la forme déjà mentionnée d’un rythme. C’est un « rythme qui tue » (p. 98). Il a deux temps corrélés : « Le premier temps sépare, délimite, isole chaque marchandise de la suivante. Le deuxième temps rend chaque chose égale à toutes les autres. Le premier temps fait de chaque chose une entité discrète. Le deuxième temps rend toutes choses identiques. » (p. 97) On ne sépare que pour mieux relier, on n’identifie que pour mieux homogénéiser.
D’une part, le gouvernement de la logistique impose de se posséder soi-même, de devenir individu autonome et agent souverain, de s’affirmer comme productivement autonome, de s’isoler, « d’être des fins en soi » (p. 167). De l’autre, il met inexorablement les entités individuelles au service du flux, enchaîne cette prétendue autonomie à un processus frénétique et global de valorisation où l’individualité est finalement emportée, subsumée : « Aujourd’hui la logistique nous mobilise et nous met en réseau comme elle ne l’a jamais fait auparavant. Elle fait de nous des moyens comme elle ne l’a jamais fait auparavant. Elle ouvre l’accès partout et à tout » (p. 166-167). Pour le dire autrement, l’univers socio-économique contemporain encourage un individualisme forcené tout en le mettant au service de dynamiques économiques et politiques qui dépassent largement la conscience et la volonté individuelle. D’où le corollaire du point suivant.
D’une part, le gouvernement de la logistique impose de se posséder soi-même. De l’autre, il met inexorablement les entités individuelles au service du flux.
On pourrait opposer instinctivement l’échelle personnelle et individuelle aux logiques impersonnelles et systémiques des écosystèmes infrastructurels, mais on risque de se tromper de solution, de penser qu’on résiste alors qu’on alimente l’ennemi. All Incomplete nous démontre avec véhémence ce que nous ressentons souvent comme un malaise sourd et confus : que les processus d’individuation et de subjectivation sont mis au service de la production d’un « surplus : volé, accumulé, régulé » (p. 166) qui nourrit le métabolisme capitaliste. En ce sens, Moten et Harney s’attellent à mettre à l’épreuve une certaine matrice foucaldienne et ses perspectives d’émancipation fondées sur un « souci de soi ». Ils rejettent les politiques du sujet et de l’individu, autant celles libérales basées sur des principes marchands que celles plus subversives basées sur une volonté d’émancipation individuelle : « toute forme de subjectivation, ou d’identité individuelle dématérialisée et isolée de l’écologie générale et générative de la société par le régime de travail propre au capitalisme logistique, est déjà liée à une chaîne de valeur attachant cerveau, esprit, identité et sujet. » (p. 187).
Penser contre la logistique ou contre l’échelle des systèmes infrastructurels ne signifie pas s’enfermer dans la forteresse de l’autonomie individuelle qui s’avère en être largement complice. La critique du capitalisme logistique déployée par Moten et Harney fait plutôt appel à un principe d’« antagonisme général ». La crête qui sépare ces expériences politiques opposées semble parfois fine et ambiguë – ce qui permet au premier de mieux s’accaparer les puissances du second et devenir moins intelligible. Bien que la dynamique impersonnelle et collective de l’antagonisme général pourrait rappeler certaines spécificités de la dimension logistique, il en constitue une subversion foncièrement radicale : « Au cœur de sa production [d’un tel antagonisme], il y a une certaine absence de discernement, une certaine différenciation qui ne divise pas, une consolation sans bornes contre l’isolement, une résonance haptique qui rend possible et impossible ce rythme meurtrier, la musique sous-commune qui échappe sans cesse à la logistique émergente de ce rythme mortel et l’épuise » (p. 98). Être antagoniste, généraliser cet antagonisme signifie concevoir et entretenir une résistance qui échappe à la confrontation guerrière et frontale, qui ne découle pas d’une précise rationalité stratégique. L’antagonisme qui est loué par All Incomplete consiste en une puissance solidaire et ubiquitaire qui ne cesse pas de se reproduire et de s’expérimenter dans le sous-sol d’une organisation capitaliste et étatique à laquelle la vie sociale refuse de se réduire.
La logistique strie l’espace et le temps pour organiser des lignes de flux qui orientent les agitations locales et spontanées : « La logistique cherche à imposer une position, une direction et un flux à notre mouvement, à notre pédèse, à notre marche aléatoire, à notre errance vagabonde » (p. 166). Ainsi elle dessine des grilles dans lesquelles on canalise les lignes de fuites de ce qui s’oppose à l’appropriation et au gouvernement logistique. Ces fuites émergent sans cesse sous la forme de ce que Moten et Harney n’appellent pas seulement « antagonisme général » mais aussi « informalité ». Si le mantra de la logistique est l’accès, alors le principe de la socialité informelle est l’excès.
Si le commun demeure une perspective fondée sur des catégories politiques classiques comme l’individu ou la contractualisation, le sous-commun y échappe farouchement.
Ce qui excède renvoie à une impossibilité d’appropriation où nous nous retrouvons ensemble, donc à une sorte de puissance plutôt qu’à une diminution : « la préservation militante de ce que vous avez (un vous entendu comme un nous), dans la dépossession commune, qui est la seule forme possible de possession, de manière d’avoir en excès de celleux qui ont. » (p. 57). Et bien qu’il lui soit étranger et antagoniste, « le capital […] cherchera néanmoins à calculer, exproprier et brûler cet excès » (p. 149). La posture devient diagonale. Parler d’antagonisme permet d’éviter de parler d’ennemi, déplacer le terrain de l’affrontement, trahir moins la complexité de la situation politique dans laquelle nous sommes embourbé·es.

Dans leurs travaux précédents, Motent et Harney avaient forgé une formule devenue célèbre pour décrire la dimension informelle : « les sous-communs » (undercommons). Cette formule dialoguait explicitement avec le concept de communs devenu si central dans les mouvements politiques et écologistes contemporains pour en rejeter une certaine racine contractualiste et économiciste : « L’idée des communs comme un ensemble de ressources et de relations que nous (qui sommes par ailleurs exploité·es et exproprié·es) construisons ou protégeons, gérons ou exploitons » (p. 218). Si le commun demeure une perspective fondée sur des catégories politiques classiques comme l’individu ou la contractualisation, le sous-commun y échappe farouchement : « Être sous-commun·e, c’est vivre de manière incomplète au service d’une incomplétude partagée, qui reconnaît et insiste sur la condition inopérante de l’individu et de la nation, alors que ces fantasmes brutaux et insoutenables, avec tous les effets matériels qu’ils génèrent, oscillent dans l’intervalle toujours plus court entre le libéralisme et le fascisme. Ces formes inopérantes tentent toujours d’opérer à travers nous » (p. 218).
Dans les sous-communs s’exprime ce que Moten et Harney appellent une « force jurisgénératrice » (p. 89), aux antipodes des régulations du « contrat antisocial » (selon leur jeu de mot). Ils défendent par ce concept de « jurisgenerativité » la capacité de produire des formes de vie collective par le bas et dans le partage, au lieu d’être gouverné·es par une souveraineté transcendante (ne serait-ce que celle d’un individu maître qui négocie avec un autre individu maître). Le simple fait de traverser ou habiter ensemble un certain espace public d’une certaine façon (par exemple dans le cadre d’une socialité afro-américaine) peut être appréhendé comme un moment « jurisgénératif » : « la vie noire, qui (con)sent à ne pas être seule en son irréductible socialité, est prise en flagrant délit de marcher – avec toute sa fécondité jurisgénératrice – au milieu de la rue » (p. 84)25. La théorie d’All Incomplete exprime, en ce sens, un anarchisme qui ne croit ni à la souveraineté de l’État ni à celle du sujet individuel. Et sa façon de ne pas y croire n’est pas la même, bien entendu, que cette logistique qui déborde sans cesse états et individus.
Qu’est que génère la logistique ? Un monde, essentiellement. Et ce monde infrastructuré par le capitalisme logistique se sert d’une façon extractive de la vie terrestre. À ce dernier élément se rattache la puissance de l’informalité qu’on a mentionné : « l’informalité terreuse de la vie » (p. 204), ou pour le dire autrement « la capacité résidente de vivre sur la terre » (p. 101). Par ces figures conceptuelles (monde/terre), le discours de Fred Moten et Stefano Harney exprime philosophiquement le fondement écologique sous-jacent à sa critique du capitalisme logistique qui, en ce sens, est appréhendé comme une saisie de la terre, comme un effort de la piéger et de la posséder : « Le mouvement de la terre doit être interrompu, contenu, ou affaibli ; ou alors, il faudrait pouvoir y avoir accès. Les terreux·ses doivent devenir clair·es et transparent·es, responsables et productif·ves, unifié·es dans la séparation » (p. 206).
L’appel à « tout bloquer » du 10 septembre 2025 exprimait la conscience de cette promesse de puissance qui vient de la soustraction aux injonctions du flux socio-économique du « capitalisme logistique ».
« Qu’est que ça fait d’être un problème dans la chaine d’approvisionnement de quelqu’un ? » se demandent les deux auteurs au milieu du livre. La question est bonne et complexe. Cela peut faire mal, si le quelqu’un en question décide de se débarrasser avec violence des entraves à la fluidité de sa productivité et de son progrès : de la violence sournoise d’un harcèlement administratif pour cellui qui chôme, jusqu’à la violence furieuse de l’expulsion policière d’une ZAD qui empêche le trafic aérien de s’améliorer par l’installation d’un nouvel aéroport. Le décret Sicurezza du gouvernement Meloni – par exemple – a récemment alourdi la criminalisation d’actions non-violentes propres au mouvement du soi-disant « terrorisme climatique » comme le délit d’obstruction du trafic routier ou ferroviaire26. Mais cela peut faire du bien, également, lorsque l’interruption de cette chaîne d’approvisionnement constitue un levier de mobilisation collective qui pèse dans le rapport de force contre des pouvoirs publics et privés qui soutiennent les projets les plus déchainés du capitalisme logistique. Le problème de quelqu’un peut ainsi devenir la puissance de quelqu’un d’autre. L’appel à « tout bloquer » du 10 septembre 2025 exprimait – ne serait-ce que d’une façon instinctive – la conscience de cette promesse de puissance qui vient de la soustraction aux injonctions du flux socio-économique nommé par Moten et Harney « capitalisme logistique ». Une lecture d’All Incomplete ne peut qu’approfondir et élargir la résonance de cet appel qui demeure suspendu à une mobilisation inachevée.
Image d’accueil : Pedro Farto sur Unsplash.

SOUTENIR TERRESTRES
Nous vivons actuellement des bouleversements écologiques inouïs. La revue Terrestres a l’ambition de penser ces métamorphoses.
Soutenez Terrestres pour :
Des dizaines de milliers de personnes lisent chaque mois notre revue singulière et indépendante. Nous nous en réjouissons, mais nous avons besoin de votre soutien pour durer et amplifier notre travail éditorial. Même pour 2 €, vous pouvez soutenir Terrestres — et cela ne prend qu’une minute..
Terrestres est une association reconnue organisme d’intérêt général : les dons que nous recevons ouvrent le droit à une réduction d’impôt sur le revenu égale à 66 % de leur montant. Autrement dit, pour un don de 10€, il ne vous en coûtera que 3,40€.
Merci pour votre soutien !
L’article Logique du capitalisme logistique, de la plantation à l’entrepôt est apparu en premier sur Terrestres.