URL du flux RSS
Comprendre la société des calculs

▸ les 10 dernières parutions

30.04.2025 à 07:00

L’administration Trump compromet le développement de l’IA

Hubert Guillaud

L’avenir du leadership américain en matière d’IA est compromis, estime Matteo Wong pour The Atlantic. Les produits d’IA générative développés par les grandes entreprises de l’IA américaine s’appuient sur des travaux de recherche, alors que le financement des universités est attaqué par le gouvernement Trump. Si Trump se présente comme le défenseur de l’IA, notamment en finançant le projet Stargate, c’est oublier que « l’IA générative n’est pas seulement une industrie : c’est une technologie qui repose sur des innovations » et de la R&D. « L’industrie de l’IA a transformé des recherches fondamentales antérieures en avancées majeures, propulsant les modèles de génération de langage et d’images vers des sommets impressionnants. Mais si ces entreprises souhaitent aller au-delà des chatbots, leurs laboratoires d’IA ne peuvent fonctionner sans étudiants diplômés. »  « Aux États-Unis, on ne décroche pas de doctorat sans financement fédéral », rappelle le journaliste.

« De 2018 à 2022, le gouvernement a soutenu près de 50 milliards de dollars de projets universitaires liés à l’IA, qui ont simultanément reçu environ 14 milliards de dollars de subventions non fédérales, selon une étude menée par Julia Lane, économiste du travail à l’Université de New York. Une part importante des subventions est consacrée à la rémunération des professeurs, des étudiants de troisième cycle et des chercheurs postdoctoraux, qui enseignent généralement eux-mêmes en licence, puis travaillent ou créent des entreprises privées, apportant leur expertise et leurs idées nouvelles. Jusqu’à 49 % du coût de développement de modèles d’IA avancés, tels que Gemini et GPT-4, est reversé au personnel de recherche« . Dans un article pour Nature, Julia Lane tentait d’évaluer le poids des dépenses de recherche et des investissements publics dans l’IA, en soulignant la difficulté, notamment parce qu’elle ne se limite pas aux seuls laboratoires d’IA. Certains chercheurs estiment même que quatre cinquièmes des économies de certains pays avancés peuvent désormais être qualifiés de « difficiles à mesurer ».

« L’innovation est le fruit d’investissements fédéraux, c’est un investissement dans les personnes », explique Mme Lane. « Si les entreprises d’IA souhaitent appliquer leurs modèles à des problèmes scientifiques – par exemple en oncologie ou en physique des particules – ou construire des machines « superintelligentes », elles auront besoin de personnel doté d’une formation scientifique sur mesure qu’une entreprise privée ne peut tout simplement pas fournir. Réduire drastiquement le financement du NIH, de la NSF et d’autres organismes de financement de la recherche, ou retirer directement des fonds aux universités, pourrait entraîner une baisse de l’innovation, une diminution du nombre de chercheurs en IA formés aux États-Unis et, in fine, une industrie américaine moins prospère ».

29.04.2025 à 07:00

Doge : la privatisation des services publics

Hubert Guillaud

Il reste difficile de suivre ce qui se déroule de l’autre côté de l’Atlantique depuis l’arrivée de Trump au pouvoir, ce démantèlement de l’Amérique, comme nous l’appelions. Nous avons tenté également de faire le point de ce qu’était le Doge, de quelle efficacité il était le nom, à savoir un piratage, un remplacement démocratique, une porte ouverte pour la corruption et l’escroquerie… Depuis, les articles s’accumulent encore. Un son de cloche complémentaire le présente souvent comme une privatisation inédite des services publics. Explorons cette piste. 

Une privatisation inédite : les délégataires aux commandes

Le Doge tient d’une privatisation inédite des services publics, assène Brett Heinz pour The American Prospect, rappelant que si Musk a dépensé 290 millions de dollars pour l’élection de Trump, ses entreprises ont reçu plus de 38 milliards de dollars d’aides gouvernementales au cours des deux dernières décennies. 

En fait, le Doge ne vise pas à accroître l’efficacité gouvernementale, mais bien à démanteler la fonction publique en ciblant les dépenses que Musk et Trump désapprouvent, tout en centralisant le pouvoir décisionnel à la Maison Blanche. Mais surtout, le Doge entérine une nouvelle stratégie : « l’accession de sous-traitants gouvernementaux comme Musk au rang de décideurs politiques ». Ce sont ceux qu’on appellerait en France les délégataires des services publics qui prennent les commandes. 

« La seule classe parasitaire qui profite de l’inefficacité du gouvernement est constituée de sous-traitants gouvernementaux à but lucratif comme Musk, qui s’enrichissent sur l’argent des contribuables en fournissant des services hors de prix pour compenser le manque de capacités de l’État, tout en utilisant leurs milliards pour manipuler le système à leur avantage. Permettre à des sous-traitants comme lui de décider de la façon dont le gouvernement dépense l’argent est à la fois un affront à la démocratie et une invitation ouverte à davantage de corruption », explique Heinz.

« La plupart des Américains ignorent à quel point leur gouvernement a déjà été privatisé. On estimait en 2017 que plus de 40 % des personnes travaillant pour le gouvernement ne sont pas réellement des fonctionnaires. Ce sont des sous-traitants d’entreprises privées, embauchés pour prendre en charge une tâche particulière du secteur public. Dans certains secteurs gouvernementaux, comme l’armée, le recours aux sous-traitants est monnaie courante : en 2019, on comptait 1,5 sous-traitant pour chaque soldat américain en Irak et en Afghanistan. »

Pour le dire autrement, le gouvernement fédéral ne souffre pas d’un effectif pléthorique, au contraire : il y a moins d’employés fédéraux en 2015 qu’en 1984. Par contre, la sous-traitance privée, elle, a explosé. « Entre 2013 et 2023, les dépenses totales consacrées à l’attribution de contrats fédéraux ont augmenté de près de 65 % »

La croyance dans l’efficacité de la sous-traitance privée n’a jamais été corroborée par des preuves solides, rappelle Heinz. Reste que, désormais, ces contractants ne veulent pas seulement résoudre pour plus cher les problèmes du secteur public, ils veulent aussi pouvoir décider, pour le gouvernement, de la nature du problème. « Les entrepreneurs ne veulent pas simplement obéir aux ordres du gouvernement, mais fonctionner comme un para-État capable d’influencer les ordres que le gouvernement leur donne. À l’instar du rêve de Musk de construire des voitures autonomes, l’industrie rêve d’un entrepreneur auto-contractant. Et Musk lui-même teste ce concept. » Brett Heinz rappelle que les rafles de données du Doge ont d’abord ciblé des agences fédérales où Musk avait des conflits d’intérêts. « En le qualifiant d’ailleurs d’« employé spécial du gouvernement », la Maison Blanche lui impose des normes éthiques moins strictes que la plupart des fonctionnaires qu’il licencie. » Et Musk n’est pas le seul sous-traitant du gouvernement à y étendre son pouvoir. « On entend souvent dire que le gouvernement devrait être géré « davantage comme une entreprise ». Le cas du Doge nous montre pourtant le contraire. Si nous voulions réellement un gouvernement plus efficace, il faudrait réduire le nombre de sous-traitants et embaucher davantage de fonctionnaires, souvent plus rentables et toujours plus responsables et transparents. Musk fait le contraire, offrant à ses entreprises et alliés davantage d’opportunités d’intervenir et de proposer des travaux surévalués et de qualité douteuse. »

L’effondrement des services publics

Le Washington Post raconte l’effondrement de la Sécurité sociale américaine. L’agence fédérale, qui verse 1 500 milliards de dollars par an en prestations sociales à 73 millions de retraités, à leurs survivants et aux Américains pauvres et handicapés a vu ses effectifs fondre. Son site web est souvent en panne depuis que le Doge a pris les commandes, empêchant de nombreux bénéficiaires de mettre à jour leurs demandes ou d’obtenir des informations sur des aides qui ne viennent plus. 12% des 57 000 employés ont été licenciés. Des milliers d’Américains s’inquiètent auprès de leurs députés ou de l’agence des versements à venir. « La sécurité sociale est la principale source de revenus d’environ 40 % des Américains âgés ». En sous-effectif et en manque de budgets de fonctionnement depuis longtemps, la purge est en train de laminer ce qu’il restait du service. Mais, face aux retraités inquiets, les employés ont peu de réponses à apporter, et ce alors que les escroqueries en ligne se multiplient, profitant de l’aubaine que l’inquiétude génère auprès d’eux. Certains bureaux estiment que les gens pourraient être privés de prestations pendant des mois. 

Wired rapporte que le Doge a décidé de réécrire le code du système de la Sécurité sociale américaine, afin de se débarrasser du langage Cobol avec lequel il a été écrit depuis l’origine et que peu de développeurs maîtrisent. Réécrire ce code en toute sécurité prendrait des années : le Doge souhaite que cela se fasse en quelques mois. Qu’importe si cela bloque les versements d’allocation de millions d’Américains. 

En 2020, pour Logic Mag, Mar Hicks avait exploré les enjeux du langage Cobol depuis lequel nombre d’applications des services publics sont construites (et pas seulement aux Etats-Unis, notamment parce que ces systèmes sont souvent anciens, héritages de formes de calcul précédant l’arrivée d’internet). Mar Hicks rappelait déjà que ce vieux langage de programmation avait été, durant la pandémie, un bouc-émissaire idéal pour expliquer la défaillance de nombre de services publics à répondre à l’accroissement des demandes d’aides des administrés. Pourtant depuis 6 décennies, les programmes écrits en Cobol se sont révélés extrêmement robustes, très transparents et très accessibles. C’est sa grande accessibilité et sa grande lisibilité qui a conduit les informaticiens à le dénigrer d’ailleurs, lui préférant des langages plus complexes, valorisant leurs expertises d’informaticiens. Le problème c’est que ces systèmes nécessitent surtout une maintenance constante. Or, c’est celle-ci qui a fait souvent défaut, notamment du fait des logiques d’austérité qui ont réduit le personnel en charge de la maintenance des programmes. “C’est ce manque d’investissement dans le personnel, dû à l’austérité, plutôt que la fiction répandue selon laquelle les programmeurs aux compétences obsolètes partaient à la retraite, qui a éliminé les programmeurs Cobol des années avant cette récente crise.“ Hicks souligne que nous ne manquons pas de programmeurs Cobol. En fait, explique-t-elle : “la technologie actuelle pourrait bénéficier davantage de la résilience et de l’accessibilité que Cobol a apportées à l’informatique, en particulier pour les systèmes à fort impact”. 

“Les systèmes anciens ont de la valeur, et construire constamment de nouveaux systèmes technologiques pour des profits à court terme au détriment des infrastructures existantes n’est pas un progrès. En réalité, c’est l’une des voies les plus régressives qu’une société puisse emprunter ». “Le bonheur et le malheur d’une bonne infrastructure, c’est que lorsqu’elle fonctionne, elle est invisible : ce qui signifie que trop souvent, nous n’y accordons pas beaucoup d’attention. Jusqu’à ce qu’elle s’effondre”.

28.04.2025 à 07:00

Dégouverner ?

Hubert Guillaud

En 2021, après les confinements de la pandémie de Covid-19, la question des chaînes d’approvisionnement et de leur pilotage s’est reposée depuis de nouvelles perspectives. Comment assurer la gouvernance du monde ? Et pourquoi nos organisations savent-elles être si vulnérables dans les tensions ?

Si le monde nous semble si incompréhensible, c’est qu’il l’est devenu !, explique l’écrivain Tim Maughan, auteur notamment d’un roman de science-fiction, Infinite Detail (MCD Books, 2019, non traduit), sur One Zero. Des chaînes d’approvisionnement automatisées aux échanges commerciaux à haute fréquence, la complexité rend le monde « inconnaissable » à toute intelligence humaine. Pire souligne-t-il, pour générer toujours plus de croissance, les systèmes automatisés doivent augmenter sans cesse leur complexité. Aucun humain n’est capable de comprendre ce qu’il se passe derrière les écrans : chaque jour, 82,2 ans de vidéo sont téléchargés sur YouTube ; 500 millions de tweets sont échangés, l’équivalent d’un livre de 10 millions de pages ! En 2014 déjà, l’écrivain a passé une semaine sur un porte-conteneur… Et ce qui l’a le plus frappé, c’était de constater combien chaque décision était prise par la technologie. Du grutier au capitaine, chacun recevait des instructions via des algorithmes de gestion, acceptés et respectés sans conteste par des professionnels compétents, quand bien même ces décisions ne se motivaient d’aucune explication. Ainsi, explique-t-il, le capitaine du bateau recevait régulièrement des courriels automatisés lui demandant de ralentir le navire, sans que la compagnie maritime lui en explique la raison. Comme si nous avions déjà lâché prise sur la motivation des décisions et l’explicabilité du monde…

Qu’importe, tant qu’il y a de la nourriture et des vêtements dans les magasins, de l’argent dans les distributeurs, des histoires sur notre Instagram… Tout semble désormais se faire tout seul, sans avoir besoin de s’en inquiéter ! Pourtant, ces systèmes complexes peuvent tomber en panne. 2020 par exemple, a permis de constater combien les chaînes d’approvisionnement pouvaient être sous pression, entraînant leurs lots de pénuries. Les chaînes d’approvisionnement subissent également régulièrement les offensives de logiciels malveillants… Pourtant, à ce jour, aucune défaillance n’a été réellement catastrophique, comme si l’effondrement lié à la complexité était finalement bien plus résilient qu’escompté. C’est à se demander si ces réseaux finalement ne fonctionnent pas trop bien, malgré leur opacité intrinsèque. Nous leur avons donné un grand pouvoir décisionnel pour atteindre leurs objectifs le plus efficacement possible et ils y arrivent relativement bien… pour autant qu’on ne les inspecte pas en détail, souligne Maughan, car ils ne sont pas dotés de capacité à prendre des décisions éthiques ou des jugements moraux sur ce qu’ils font – nous rappelant les propos de Miriam Posner sur les limites de la transformation logicielle de la chaîne logistique. En fait, rappelle Maughan, par sa conception même, le réseau de la chaîne d’approvisionnement mondial fait perdurer et accroît les inégalités : son rôle est de tirer parti des écarts de niveaux de vie pour faire produire dans les pays où cette production est la moins chère et expédier les marchandises à l’autre bout du monde pour les vendre à profit. Ces constats se prolongent jusqu’aux plateformes de streaming qui fournissent des contenus de divertissement illimités, au détriment des revenus de ceux qui les produisent. Tout comme le capitaine du porte-conteneur, nous avons de moins en moins de contrôle politique sur nos démocraties elles-mêmes, explique Maughan. Pour paraphraser le cinéaste Adam Curtis, au lieu d’élire des dirigeants visionnaires, nous ne faisons en fait que voter pour des cadres intermédiaires dans un système mondial complexe que personne ne contrôle entièrement. Le résultat de cette situation ressemble de plus en plus à un vide démocratique. Nous vivons à une époque où les électeurs ont un niveau record de méfiance envers les politiciens, en partie parce qu’ils peuvent sentir cette déconnexion, soutient Maughan : ils voient dans la réalité quotidienne que, malgré leurs revendications, les politiciens ne peuvent pas apporter de changements, comme si nul ne pouvait plus agir sur le système décisionnel automatisé. Pire, souligne Maughan, nombre de politiques pensent qu’on ne doit pas réparer le système, mais accélérer le processus de déréglementation, c’est-à-dire donner plus de pouvoir encore à l’automatisation en réseau.

Pour Maughan, il nous faut trouver des moyens pour accroître notre connaissance de l’inconnaissable et des stratégies pour contrer l’impuissance et l’anxiété que le système produit, conclut-il. Nous pourrions être tout à fait d’accord avec lui, si l’on ne constatait pas, avec le temps, que cette demande d’explication et d’éthique, à force d’être répétée, semble s’éloigner de nous à mesure que les systèmes se déploient et s’enracinent. Plutôt que d’exiger une transparence qui semble partout reculer à mesure qu’on la mobilise, ne faut-il pas mieux regarder ce qui l’empêche ? Pourquoi ces chaînes semblent-elles de plus en plus fortes et de moins en moins gouvernables ? Peut-être faut-il entendre qu’elles n’ont pas pour but d’être gouvernables justement – ou plus exactement que leur structuration (qui elle est bien gouvernée) tend surtout à produire, volontairement, de l’ingouvernabilité, c’est-à-dire à réduire la portée de ceux qui peuvent les gouverner…

Un monde sans gouvernance accessible ?

La revue juridique Transnational Legal Theory se saisissait justement dans un numéro récent du concept de « non-gouvernance » (ungovernance). Dans les différentes contributions à ce numéro, plusieurs sens ressortaient, montrant que le concept avait certainement encore besoin d’être affiné. Pour certains auteurs, la non-gouvernance semblait plutôt tenir d’une ingouvernabilité, d’une impossibilité à gouverner du fait de l’absence de structures et d’instruments pour se faire. Pour d’autres, la non-gouvernance semblait plutôt relever d’une dégouvernance, d’un recul de la gouvernementalité, comme le proposent les procédures reposant sur les algorithmes et l’intelligence artificielle par exemple (en suivant le concept de gouvernementalité algorithmique défini par Antoinette Rouvroy et Thomas Berns, qui est un changement de modalités de gouvernement justement visant à faire disparaître le « projet même de gouverner »).

Ainsi, les juristes Deval Desai et Andrew Lang, dans leur article introductif définissent la non-gouvernance comme des projets globaux qui poursuivent de grandes visions sous des revendications d’universalité sans pour autant proposer de prescriptions adéquates, sans possibilité de faire correspondre les structures institutionnelles aux résultats.

Plus précisément, expliquent-ils, la non-gouvernance globale ne signifie pas une absence de gouvernance, mais des tensions entre le fait que le côté mondial trouble la gouvernance et le fait que la gouvernance trouble son projet mondial. Pour eux, la non-gouvernance fonctionne dans un contexte de grandes visions (comme le marché ou l’État de droit) qui ne disposent pas de voies de recours adaptées… et qui donc souffrent d’une impossibilité d’action (c’est-à-dire que les structures institutionnelles ne peuvent pas matcher avec les résultats souhaités), ce qui conduit à la fois à poursuivre leur action et à en constater l’impossibilité, tant et si bien que le succès ne se mesure pas dans sa capacité à construire des institutions adaptées, mais plutôt à réarranger sans cesse les grandes visions initiales.

Pour leurs confrères Dimitri Van Den Meerssche et Geoff Gordon, le risque et la résilience sont la nouvelle architecture normative. En prenant l’exemple du fonctionnement de la banque mondiale, les deux chercheurs soulignent que le risque et la complexité ne sont plus considérés comme des conditions limitant un projet, mais comme des éléments constitutifs, visant à gouverner depuis des outils qui reposent sur l’inconnaissabilité. Un autre article signé Stephen Humpreys s’intéresse à la non-gouvernance de la question climatique. Pour ce dernier, le GIEC par exemple a souvent souligné que la gouvernance de la question climatique – ou plutôt son absence – était justement un obstacle majeur au règlement du problème climatique. Ou pour le dire autrement, que les structures de gouvernance existantes sont en elles-mêmes un obstacle à la gestion du climat. Pour Humphreys, la non-gouvernance signifie ici plutôt un refus provisoire, stratégique ou conscient de mécanismes de contrôles par rapport aux compétences institutionnelles existantes. Le régime de droit construit pour contenir le changement climatique est imparfait et complexe et s’inscrit dans un vaste réseau d’appareils réglementaires interconnectés. Si la question climatique est d’abord un problème de connaissance que le GIEC éclaire et cartographie, celui-ci ne gouverne pas la politique climatique qui est laissée aux décideurs politiques (ainsi qu’aux organisations internationales, aux institutions scientifiques, aux ONG voire même aux entreprises ou aux individus…). Quand on regarde certains secteurs par exemple, comme le pétrole ou l’aviation, toute la question est de savoir ce qui doit être régi, par qui et comment… et selon quelles pratiques réglementaires. La question de la non-gouvernance ne consiste pas à reconnaître la complexité ou l’incohérence des politiques, mais à comprendre comment leurs interactions peuvent être comprises comme quelque chose de nécessaire, de rationnel ou d’utile, plutôt que comme quelque chose de contingent, irrationnel, erroné ou inévitable.

Il distingue plusieurs modes de non-gouvernance : agnostique, expérimentale, inoculative ou catastrophique. Pour lui, explique-t-il, la non-gouvernance est le résultat accidentel ou fortuit d’un ensemble de décisions rationnelles, soutenues par un vaste appareil réglementaire, mais qui se révèle au final très sélectif et qui surtout intègre et présume l’incertitude à toute résolution. Pour Christine Belll’ingouvernance n’est pas hors du droit, mais dans ses failles, ses assemblages, ses mises à jour, ses dissonances… Pour Zinaida Millerla justice transitionnelle par exemple relève d’une forme de non-gouvernance où les objectifs de justice, d’apaisement, de vérité et réconciliation semblent plus importants que les solutions mobilisées (voir son article). Pour Michelle Burgis-Kasthala, les accords d’Oslo qui ont défini les modalités des rapports entre Israéliens et Palestiniens reposent beaucoup plus sur une absence de gouvernance que sur des modalités de gouvernements claires, qui ont permis aux acteurs d’y introduire d’innombrables perturbations (voir son article).

Le numéro de Transnational Legal Theory ne s’intéresse pas au numérique. Mais le concept de non-gouvernance voire de dégouvernance par les systèmes techniques mériteraient certainement d’être explorés et précisés plus avant. À l’heure où les systèmes techniques nous font entrer dans une gestion à vue, agile et réactive en continue, où les outillages de la décision n’ont jamais été aussi nourris pour modéliser le futur, ceux-ci peinent pourtant à dessiner un futur, comme le soulignait très justement le chercheur Olivier Ertzscheid en rendant compte d’une discussion avec Antoinette Rouvroy justement. « De fait, c’est peut-être précisément parce que les gouvernements sont noyés par les (en partie) fausses capacitations à prévoir « le » futur qu’ils se retrouvent aussi incapables de dessiner « un » futur. La quasi-certitude de pouvoir juguler la part d’incertitude du monde, diminue plus qu’elle n’augmente la capacité d’agir en situation d’incertitude. »

La désorganisation : mode de fonctionnement des organisations ?

Nous voici confrontés à des errements répétés que la crise sanitaire a d’autant plus amplifiés qu’elle a mis de côté les questions d’équité et d’égalité, au profit d’une efficacité qui serait seule essentielle quand tout le reste ne le serait plus. Reste que l’efficacité de la réponse à la pandémie a elle aussi buté sur les modalités de réponse, sur ses réponses opérationnelles, comme le soulignaient les chercheurs en sociologie des organisations, Henri BergeronOlivier BorrazPatrick Castel et François Dedieu dans leur très stimulant bilan de la pandémie Covid-19 : une crise organisationnelle (Presses de SciencesPo, 2020). Les chercheurs s’y interrogeaient : pourquoi les situations de crises donnent lieu à une telle créativité organisationnelle rendant les plans préparés avec tant d’attention caduque avant d’être mis en oeuvres ? Pourquoi ce foisonnement augmente-t-il les problèmes de coordination qu’ils sont censés résoudre ?

Pour les chercheurs, nous questionnons le poids des défaillances ou des mérites individuels et négligeons les dimensions collectives et organisationnelles des décisions. Nous minimisons les risques et signaux certainement parce que les organisations sont mal équipées pour les faire remonter. « La coopération et la coordination demeurent le maillon faible – le « peu-pensé » – des dispositifs organisationnels », d’où le fait qu’ils sortent des cadres en cas de crise, mais souvent au détriment de ce qui en est exclu (comme les considérations économiques exclues du cadrage très hospitalier de la crise). Dans un monde saturé d’organisations, nous peinons toujours à les organiser ! Certainement parce que cette organisation est intimement liée au pouvoir (ce qui n’est pas sans évoquer pour moi, les questions posées par Frédéric Laloux dans Reinventing organisations). Dans la gestion élitaire et sanitaire de la crise que nous connaissons, les organisations et protocoles créés ont favorisé une décision à courte vue, top-down, conflictuelle… expliquent-ils. Derrière leurs analyses, les auteurs consacrent tout un chapitre sur comment apprendre des crises, comment passer de la recherche de culpabilités à la réforme des causes structurelles, appelant à créer une sorte d’observatoire des crises pour en tirer des enseignements qui ne soient plus singuliers – car les crises ne le sont pas – mais systémiques. En dénonçant, avec rigueur, l’excès de confiance, la saturation désorganisationnelle, la gestion élitaire, l’exubérante créativité procédurale, l’épuisement décisionniste et contradictoire… les chercheurs soulignent néanmoins que ces défauts demeurent le lot commun de toutes nos organisations.

Le « command and control » autoritaire produit rarement ce qu’on en attend. Il produit surtout de la défiance. Finalement, à les lire, on se dit que la non-gouvernance, la désorganisation ou la production de l’ingouvernabilité… sont peut-être les diverses facettes d’une réponse à une même complexité. Sous cet angle, la non-gouvernance tiendrait plus d’une réponse infrastructurelle aux incertitudes. En ce sens, finalement, l’opacité, la coupure démocratique et l’absence d’éthique semblent plutôt tenir de réponses pour entretenir l’inactionnabilité du monde, un moyen pour réduire, même dans l’adversité, le nombre de ceux qui peuvent gouverner ? Ne pas gouverner n’est pas tant un moyen de désinnover, comme le prônait le philosophe Alexandre Monnin dans nos pages, mais plutôt un moyen pour assurer la continuité du monde. Dégouverner, tient du symptôme plus que du remède. Dégouverner, c’est assurément invisibiliser toute gouvernance.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net, le 6 janvier 2021.

24.04.2025 à 07:00

Du rôle du logiciel dans la chaîne d’approvisionnement

Hubert Guillaud

En 2019, dans une tribune pour le New Yorker, Miriam Posner explique le rôle du logiciel dans les chaînes d’approvisionnement, pour mieux nous en pointer les limites. Si les chaînes logistiques ne sont pas éthiques, c’est parce que l’éthique n’est pas une donnée que traite leurs logiciels. Explication.

Professeure à l’université de Californie et spécialiste des questions technologiques, Miriam Posner signe dans le New Yorker une très intéressante tribune sur la transformation logicielle de la chaîne logistique.

En consultant un rapport (« cauchemardesque ») du China Labor Watch (l’Observatoire du travail en Chine, une association qui informe et dénonce les conditions de travail sur les chaînes de fabrication des usines chinoises) sur les conditions de fabrication de jouets en Chine, Miriam Posner s’interrogeait : comment se fait-il que nous ne sachions pas mieux tracer l’origine des produits que nous consommons ?

De l’abstraction des chaînes d’approvisionnements

Quand elle a demandé à ses étudiants de travailler sur la question de la chaîne d’approvisionnement de matériel électronique, elle s’est rendu compte que, quand bien même certaines entreprises se vantent de connaître et maîtriser leur chaîne logistique de bout en bout, aucune ne sait exactement d’où proviennent les composants qu’elles utilisent. « Cette ignorance est inhérente au mode de fonctionnement des chaînes d’approvisionnement ». La coque de plastique d’une télévision par exemple peut-être construite dans une petite usine n’employant que quelques personnes qui n’interagit qu’avec des fournisseurs et acheteurs adjacents (un fournisseur de plastique et une entreprise de montage par exemple). Cette intrication favorise la modularité : si une entreprise cesse son activité, ses partenaires immédiats peuvent la remplacer rapidement, sans nécessairement avoir à consulter qui que ce soit, ce qui rend la chaîne très souple et adaptable… Mais rend également très difficile l’identification des multiples maillons de la chaîne logistique.

Nous avons une vision souvent abstraite des chaînes d’approvisionnements que nous n’imaginons que comme des chaînes physiques. Or leur gestion est devenue complètement virtuelle, logicielle. Les personnes qui conçoivent et coordonnent ces chaînes logicielles elles non plus ne voient ni les usines, ni les entrepôts, ni les travailleurs. Elles regardent des écrans et des tableurs : leur vision de la chaîne d’approvisionnement est tout aussi abstraite que la nôtre, explique la chercheuse.

Le leader logiciel de la chaîne d’approvisionnement est l’allemand SAP. SAP est une suite logicielle que vous ne pouvez pas télécharger sur l’App Store. C’est un logiciel industriel spécialisé qui se déploie à l’échelle d’entreprises pour piloter la chaîne d’approvisionnement (et qui comprend de nombreux modules additionnels de comptabilité ou de ressources humaines). Pour comprendre son fonctionnement, Miriam Posner a suivi une formation en ligne dédiée.

Le logiciel est complexe. Il se présente comme un ensemble de dossiers de fichiers qu’on peut agencer pour former la chaîne d’approvisionnement (commande, fabrication, emballage, expéditions…). La conception d’une chaîne est un processus qui implique plusieurs opérateurs et entreprises, sous forme de « composants ». Un spécialiste de la demande par exemple entre des informations sur les ventes passées (variations saisonnières, promotions planifiées, etc.) et le logiciel calcule combien de produits doivent être fabriqués. Un autre spécialiste utilise des informations sur les délais d’expéditions, les coûts de stockage, les capacités d’usine pour créer un « plan de réseau logistique » qui détermine le moment où chaque engrenage du processus de fabrication doit tourner. Ce plan est ensuite transmis à un autre spécialiste pour planifier la production et calculer le calendrier détaillé qui vont déterminer la manière dont le processus se déroulera sur le terrain le plus précisément possible. Tout cela prend la forme de séries de feuilles de calcul, de cases à cocher, de fenêtres contextuelles… qui n’est pas sans rappeler l’analyse que faisait Paul Dourish sur la matérialité de l’information qui s’incarne aujourd’hui dans le tableur. C’est « pourtant là que les prévisions de marchés sont traduites en ordre de marche des travailleurs », explique Posner. La planification de la production et le calendrier détaillé reposent sur des « heuristiques », des algorithmes intégrés qui répartissent la production et donc la main d’oeuvre pour que les installations fonctionnent à leur capacité maximale. D’ailleurs, souligne Miriam Posner, l’exécution d’une heuristique implique de cliquer sur un bouton de l’interface qui ressemble à une petite baguette magique, comme s’il suffisait d’une action simple pour activer la chaîne.

L’utilisation de SAP est difficile reconnaît la chercheuse. Chaque tâche est compliquée à configurer, avec d’innombrables paramètres à valider. Le plus souvent, ce travail est divisé et nécessite de multiples interventions différentes. En fait, « aucun individu ne possède une image détaillée de l’ensemble de la chaîne d’approvisionnement. Au lieu de cela, chaque spécialiste sait seulement ce dont ses voisins ont besoin. »

« Dans un tel système, un sentiment d’inévitabilité s’installe. Les données dictent un ensemble de conditions qui doivent être remplies, mais rien n’explique comment ces données ont été obtenues. Pendant ce temps, le logiciel joue un rôle actif, en peaufinant le plan pour répondre aux conditions le plus efficacement possible. Les optimiseurs intégrés de SAP déterminent comment répondre aux besoins de la production avec le moins de « latence » et au moindre coût possible (le logiciel suggère même comment optimiser un conteneur pour économiser sur les frais d’expédition). Cela implique que des composants particuliers deviennent disponibles à des moments particuliers. Les conséquences de cette optimisation incessante sont bien documentées. Les sociétés qui commandent des produits transmettent leurs demandes déterminées par calcul à leurs sous-traitants, qui exercent ensuite une pression extraordinaire sur leurs employés. Ainsi, China Labour Watch a constaté que les travailleurs de la ville de Heyuan en Chine chargés de fabriquer une poupée Disney que Miriam a achetée à ses enfants (vendue au prix 26,40 $) travaillent vingt-six jours par mois, assemblent entre 1800 et 2500 poupées par jour et gagnent un centime pour chaque poupée qu’ils complètent. »

De la distance spatiale, temporelle et informationnelle

Pour la chercheuse, le défi majeur dans la gestion de la chaîne d’approvisionnement est la grande distance – « spatiale, temporelle et informationnelle » – qui sépare le processus du monde réel de la fabrication et de la consommation. Ces distances introduisent de nombreux problèmes, comme l’effet « coup de fouet », qui consiste à ce que chaque niveau produise plus que prévu pour mieux répondre à la demande ou ajuster ses bénéfices avec ses coûts. Le battement d’ailes d’un consommateur peut-être amplifié de manière démesurée par la chaîne. En fait, la demande temps réel du pilotage que produit le logiciel ne correspond pas vraiment à la réalité effective des multiples chaînes de production, où chaque acteur fait ses ajustements (qui prennent en compte d’autres commandes, des délais, la disponibilité de fournitures ou la surproduction pour réduire les coûts…). Pourtant, le logiciel procède d’une vision qui maximise le temps réel et donne l’illusion d’être au coeur de la tour de contrôle de la production.

L’autre effet coup de fouet, bien sûr, s’applique directement aux travailleurs des différentes usines prestataires de la chaîne. Quand les exigences des commandes parviennent jusqu’aux travailleurs, elles se révèlent plus exigeantes et plus punitives.

Dans le numéro 4 de l’excellent magazine Logic, Miriam Posner avait déjà livré une réflexion sur le sujet. Elle y rappelait déjà que si les questions de l’architecture physique de la chaîne d’approvisionnement mondialisée était souvent étudiée (notamment dans The Box de Marc Levinson qui s’intéressait au rôle du conteneur ou encore dans The Deadly life of logistics de Deborah Cowen), ce n’était pas beaucoup le cas de son aspect logiciel comme des échanges de données et d’informations qui la sous-tendent. L’industrie logicielle de la gestion de la chaîne d’approvisionnement est pourtant l’un des domaines d’activité qui connaît la plus forte croissance, mais qui opère de manière assez discrète, car les informations qu’elle traite sont très concurrentielles. Amazon, par exemple, n’est pas tant un commerçant qu’une chaîne d’approvisionnement incarnée et peu de personnes connaissent le logiciel qui l’optimise. Pour Leonardo Bonanni, PDG de Sourcemap, une entreprise qui aide les entreprises à construire leurs chaînes d’approvisionnement, l’incapacité des entreprises à visualiser cette chaîne est une fonction même de l’architecture logicielle. Pour Miriam Posner, le terme de chaîne d’approvisionnement est finalement trompeur : cette chaîne « ressemble beaucoup plus à un réseau de voies navigables, avec des milliers de minuscules affluents composés de sous-traitants qui s’écoulent dans de plus grandes rivières d’assemblage, de production et de distribution. »

Pour Bonanni, nous ne voyons qu’une parcelle des abus sur les lieux de travail qui sont portés à notre connaissance : c’est surtout le cas de quelques chaînes prestigieuses, comme dans l’électronique grand public. Mais les conditions de travail sont souvent plus opaques et les abus plus répandus dans d’autres industries, comme l’habillement ou l’agriculture, des lieux où la chaîne se recompose à chaque approvisionnement, à chaque saison, avec un nombre de noeuds et de sous-traitants, qui sont loin d’être tous intégrés à la chaîne logicielle. Les usines géantes de Foxcon masquent d’innombrables petits ateliers et usines beaucoup moins présentables qui permettent à la chaîne d’être extrêmement résiliente et robuste. En fait, « il n’y a pas de tour de contrôle supervisant les réseaux d’approvisionnement », les noeuds ne parlent qu’à leurs voisins immédiats.

Du rôle de l’échelle pour gérer l’information et de la modularité pour gérer la complexité

« Ces infrastructures physiques distribuées ressemblent finalement beaucoup au réseau invisible qui les rend possibles : internet ». À chaque étape de la transformation, le produit est transformé en marchandise. Et l’information qui l’accompagnait transformée à son tour. Du plastique devient une coque qui devient une télévision… En fait, la transformation et l’échelle d’action impliquent une perte d’information. Pour récupérer une tonne d’or, vous devez en acheter à plein d’endroits différents que la fonte va transformer en une marchandise unique : la tonne d’or que vous vendez.

Un fonctionnement assez proche de la programmation modulaire, remarque Miriam Posner. La programmation modulaire est une méthode familière à tout programmeur et architecte de systèmes. Elle consiste à gérer la complexité par des unités fonctionnelles distinctes. Chaque programmeur travaille ainsi sur un module qui s’interface aux autres en spécifiant les entrées et sorties où les modalités qu’il prend en charge. Les systèmes modulaires permettent notamment de gérer la complexité et d’améliorer un module sans avoir à toucher les autres : chacun étant une sorte de « boite noire » vis-à-vis des autres.

Comme l’explique Andrew Russell, historien de l’informatique, la modularité, née dans l’architecture, a été un moyen de structurer les organisations comme l’économie. « C’est une sorte de caractéristique de la modernité ». Et les chaînes d’approvisionnement sont hautement modulaires, à l’image du conteneur, standardisé et interchangeable, qui peut contenir n’importe quoi pour se rendre n’importe où, ce qui permet aux marchandises transportées de passer à l’échelle globale.

« Les informations sur la provenance, les conditions de travail et l’impact sur l’environnement sont difficiles à gérer lorsque l’objectif de votre système est simplement de fournir et d’assembler des produits rapidement. « Vous pouvez imaginer une manière différente de faire les choses, de sorte que vous sachiez tout cela », explique Russell, « afin que votre regard soit plus immersif et continu. Mais ce que cela fait, c’est inhiber l’échelle ». Et l’échelle, bien sûr, est la clé d’une économie mondialisée. »

Pour Miriam Posner, le passage à l’échelle – la fameuse scalabilité – explique pourquoi les branches d’un réseau d’approvisionnement disparaissent. Cela aide également à expliquer pourquoi la syndicalisation transnationale a été si difficile : pour répondre aux demandes du marché, les ateliers ont appris à se rendre interchangeables. Un peu comme si « nous avions assimilé les leçons de la modularité d’une manière psychologique ».

La traçabilité de bout en bout ! Mais pour quelle transparence ?

Reste à savoir si la technologie peut remédier au problème qu’elle a créé. Miriam Posner constate que l’internet des objets et la blockchain sont deux technologies qui ont reçu beaucoup d’engouements chez les praticiens des systèmes de gestion de la chaîne d’approvisionnement.

La première permet de localiser et tracer les composants alors que la seconde permet d’y attacher un numéro d’identification et un journal qui enregistre chaque fois qu’une fourniture change de main. Leurs partisans affirment que ces technologies pourraient apporter une transparence radicale aux chaînes d’approvisionnement mondiales. Le problème est que l’une comme l’autre peuvent vite être vidées de leurs sens si elles ne sont qu’une chaîne d’enregistrement de prestataires, sans informations sur leurs pratiques. Et ni l’une ni l’autre ne résolvent les problèmes liés à la transformation de produits. Pour Bonanni, elles ne résolvent pas non plus le manque de visibilité : quand tout le monde est incité à agir toujours plus rapidement et efficacement, il est difficile d’imaginer qui sera chargé de fournir plus d’informations que nécessaire. Si ces technologies pourraient certes fournir des informations détaillées sur les conditions de travail et le respect des normes de sécurité, il reste difficile de croire que l’internet des objets et la blockchain, qui sont surtout des objets techniques visant à accroître l’efficacité, le contrôle, la rapidité et la sécurité des informations puissent devenir demain des moyens pour s’assurer de chaînes d’approvisionnement socialement responsables.

Dans le domaine de la gestion des chaînes d’approvisionnement, l’autre technologie source d’innovation, c’est bien sûr l’apprentissage automatique, via des algorithmes capables de faire de meilleures prévisions et de prendre des décisions. Appliqué à la chaîne logistique, le machine learning pourrait aider à déterminer les fournisseurs et les itinéraires qui livreront les marchandises de la manière la plus rapide et la plus fiable. Les algorithmes pourraient prédire les performances des fournisseurs et des transporteurs, en leur attribuant des scores de risques selon l’historique de leurs résultats. Et demain, les réseaux d’approvisionnement pourraient se reconfigurer automatiquement, de manière dynamique, selon cette évaluation de risques… Pas sûr que cette piste améliore la cécité collective des outils, pointe Posner. Pas sûr non plus qu’elle soit si accessible quand déjà les données utilisées ne savent pas grand-chose de la qualité des fournisseurs.

En fait, ces technologies nous montrent que les spécialistes de la gestion de la chaîne logistique ne parlent pas de la même transparence ou de la même visibilité que le consommateur final. La transparence de la chaîne logistique ne vise pas à aider à comprendre d’où vient un produit, mais vise à améliorer son efficacité : diminuer le coût tout en maximisant la rapidité.

Quel levier pour transformer l’approvisionnement ?

Les défis politiques pour transformer ces constats sont immenses, conclut Miriam Posner. En l’absence de véritables efforts pour créer un contrôle démocratique des chaînes d’approvisionnement, nous en sommes venus à les considérer comme fonctionnant de manière autonome – davantage comme des forces naturelles que des forces que nous avons créées nous-mêmes.

En 2014, le Guardian a signalé que des migrants birmans travaillaient dans des conditions qui tenaient de l’esclavagisme à bord de crevettiers au large des côtes thaïlandaises. Pour un importateur de crevettes, l’esclavagisme semblait un symptôme plus qu’une cause des modalités d’approvisionnement elles-mêmes. Et effectivement, il est possible d’avoir une chaîne d’approvisionnement parfaitement efficace, mais également parfaitement ignorante des conditions de travail qu’elle implique.

Reste que nous avons construit les réseaux décentralisés tels qu’ils opèrent, rappelle la chercheuse. L’anthropologue Anna Tsing dans ses travaux sur la chaîne d’approvisionnement souligne que Walmart par exemple exige un contrôle parfait sur certains aspects de sa chaîne d’approvisionnement : notamment sur les prix et les délais de livraison, et ce au détriment d’autres aspects comme les pratiques de travail. L’absence d’information sur certains aspects de la chaîne d’approvisionnement est profondément liée à un système conçu pour s’adapter à la variété de produits que nous produisons et à la rapidité avec lesquelles nous les produisons. Et cette absence d’information est intégrée dans les logiciels mêmes qui produisent la mondialisation. Exiger une chaîne logistique plus transparente et plus juste nécessite d’intégrer des informations que peu d’entreprises souhaitent utiliser, notamment parce que par nature, elles remettent en question les paradigmes de l’efficacité et de la scalabilité qui les font fonctionner.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net, le 17 mars 2019.

22.04.2025 à 07:00

De la matérialisation des données

Hubert Guillaud

En 2017, Paul Dourish publiait « The Stuff of Bits », un livre qui s’intéressait à notre rapport aux tableurs et aux impacts matériels de l’information numérique sur la réalité. Une manière de saisir et comprendre comment le monde réel est piloté par les outils numériques dans les organisations. Relecture.

La couverture du livre Stuff of bits.

Paul Dourish (Wikipedia) a signé au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une manière un peu cavalière par « La substance de l’information »), un livre qui s’intéresse aux impacts matériels de l’information numérique. Comment la simulation numérique, nos outils de modélisation et nos outils de travail façonnent-ils à rebours notre expérience ? Pour le professeur d’informatique et anthropologue, les arrangements matériels de l’information, c’est-à-dire la manière dont elle est représentée, dont elle est façonnée, dont on peut l’utiliser, ont une importance significative dans notre rapport à l’information. Comme le soulignait le philosophe Donald Schön, le design reflète notre conversation avec les matériaux. Dourish regarde comment le numérique impacte désormais nos modalités d’usage. Pour lui, « les matérialités de l’information reposent sur des propriétés et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces représentations peuvent être créées, transmises, stockées, manipulées et mises à profit ». A la suite par exemple de Lev Manovich, il souligne combien la base de données est devenue la forme culturelle majeure du XXIe siècle (après le roman au XIXe et le film au XXe siècle).

Dourish prend de nombreux exemples pour explorer son idée. Il développe longuement les différentes façons de représenter une même image au format numérique, en observant les multiples manières de la coder : une image peut-être effectivement une image, mais également peut-être produite par un programme ou une itération. Reste que, même dans le programme, des choses échappent à la représentation, comme ce peut-être le cas par exemple de la vitesse d’exécution d’un programme pour représenter cette image ou de la taille de la mémoire de l’ordinateur utilisé. Un programme est une série d’instructions, mais l’expérience qui résulte de son exécution, elle, n’est pas spécifiée par le programme. Or, bien sûr, la manipulation de cette image sera très différente selon la manière dont elle est codée. C’est bien à cette relation entre les formes et les possibilités que permettent les matériaux numériques que s’intéresse Dourish. Comment leurs affordances, c’est-à-dire leurs propriétés relationnelles, façonnent-elles nos pratiques ?

Du rôle du tableur dans les organisations

Dans son livre Dourish évoque longuement un exemple significatif qui permet de mieux saisir là où il souhaite nous emmener, ce qu’il estime qu’il nous faut désormais regarder avec attention. Il revient longuement sur ce qu’il appelle les « spreadsheet events » des réunions organisées autour de la projection de tableurs, comme elles se pratiquent dans de plus en plus d’entreprises – avec les « powerpoint events », plus anciens et plus documentés, qui sont des rencontres organisées autour de la présentation de documents projetés qui forment l’essentiel des réunions ou des conférences professionnelles – voir notamment « Les transformations de l’écosystème de l’information dans le monde du travail » ou « PowerPoint, voilà l’ennemi ! »).

Image : Exemple d’un « spreadsheet event » tiré d’un blog local américain – qui montre qu’il n’est pas si simple de trouver des images de ce type de pratiques pourtant courantes.

Les réunions spreadsheet ne sont pas vraiment des réunions Tupperware : ce sont des réunions de travail autour d’un écran qui projette un tableur dont l’accès est parfois partagé. Souvent utilisé pour travailler de manière collaborative autour d’un budget (avec toutes les limites que cela peut avoir, comme le faisait remarquer récemment Bjarte Bogsnes), le tableur est utilisé pour une multitude de raisons. C’est à la fois un artefact de coordination et d’archivage des décisions prises lors de l’événement. Dourish rappelle d’ailleurs l’importance de l’enchevêtrement des organisations et de leurs systèmes d’information : combien les « workflows » encodent les procédures, les processus et les règles d’organisation. Cet exemple permet à Dourish de poser des questions sur comment nos outils façonnent nos usages. « Comment la matérialité d’un spreadsheet – à la fois outils interactifs et systèmes de représentation – modèle, contraint et habilite la façon dont on travaille ? Comment projetons-nous notre travail dans la forme des tableurs ou comment avons-nous (ou pas) la main sur un ensemble de règles, de limites, de possibilité ou d’opportunités ? » Bref, comment les gens bricolent et s’approprient ces contraintes logicielles en pratique ?

Dourish souligne d’ailleurs la complexité d’action que permettent ces tableurs qui sont à la fois des grilles de cellules qui permettent des formes de regroupement et qui permettent d’activer certains contenus : c’est-à-dire que certains contenus ne sont pas fixés, mais calculés selon des formules via des données pouvant provenir d’autres cellules ou d’autres tableurs ou bases de données. C’est en cela que, malgré leur sécheresse apparente (des listes de chiffres le plus souvent), ces outils se révèlent commodes pour rendre visibles de la complexité comme du détail. Si la plupart de ces tableurs ne sont pas hautement dynamiques (assez souvent, la plupart des données ne sont pas calculées), ils permettent, alors qu’ils ne sont pas conçus pour cela, de générer de la planification d’activité ou de la priorisation d’activité, tout en facilitant le partage et d’information et de données.

Dourish insiste également sur les limites de ces outils (par exemple, la difficulté à manipuler des blocs non contigus) ou leur potentiel (la possibilité d’ajouter des données et de faire grandir le tableur). Bien souvent, souligne-t-il, le tableur sert de guide à la réunion : il révèle l’organisation elle-même, les participants discutant des données cellule après cellule, colonne après colonne… Le tableau spécifie ce qui est à l’ordre du jour et écarte tout ce qui n’apparaît pas sur le tableur. La distinction entre les données joue souvent comme une séparation des responsabilités – ce qui pose d’ailleurs des questions sur les responsabilités qui relèvent de ce qui n’est pas sur le tableur ou de ce qui est à l’intersection des données ou de leur calcul.

Dourish souligne aussi qu’il faut distinguer différents types d’objets dans les tableurs : on ne sait pas facilement par exemple si une donnée est une donnée directe – inscrite – ou dérivée, c’est-à-dire calculée – c’est-à-dire si un chiffre est un nombre ou le résultat d’une formule. Si le rôle du tableur semble de faire ressembler les données à un document papier où toutes les valeurs auraient le même statut, il faut saisir que ce n’est pas le cas, puisque ces données sont éditables et calculables, recomposables… Il souligne par là comment les usages que nous inventons depuis ces objets manquent de conception : un tableur n’a pas été conçu pour être le pilote de réunions. Si le côté dynamique de ces objets explique en grande partie leur utilisation, ce dynamisme par exemple créé des lacunes de fonctionnalités, comme le fait de ne pas pouvoir faire de recherche sur une donnée résultant d’un calcul dans un très grand tableau.

Enfin, il montre également que cet enregistrement d’activité est également un enregistrement d’accord : l’important devient ce qui est noté dans le tableau et non pas la discussion ou le calcul qui conduit à inscrire cette information. Pire, souligne-t-il, l’utilisation de tableurs comme outils de pilotage ou de budgétisation s’impose par reproduction. « Les documents deviennent des enregistrements ; les enregistrements deviennent des modèles : les modèles deviennent des routines ; les routines deviennent des processus. » Ces outils encodent et fixent des relations à la fois dans le tableur lui-même (cette cellule doit toujours être la moyenne des chiffres de cette colonne) comme entre les entités que ces chiffres recouvrent (ce budget et ce que ça implique doit toujours être le résultat de tel autre…).

Le développement de l’usage de ces outils, malgré leurs lacunes de conception, provient certainement du fait que ce sont des outils performatifs, qui permettent via le calcul, les formules et les liens entre les données d’être toujours à jour et de réaliser ce qu’ils énoncent. « L’usage de formules est une façon de montrer que le tableur continuera à faire son travail, même si son contenu change : c’est un moyen de produire de la stabilité dans une forme qui ne l’est pas. » Ces réunions qui consistent à éditer et mettre à jour ces tableurs soulignent que ce qui se joue ne tient pas seulement de la communication comme peuvent l’être les réunions powerpoint, mais bien de la délibération et que le document qui fixe la réunion n’est pas seulement produit, mais transformé par la réunion elle-même. Si les tableurs détrônent l’édition collaborative de documents textuels, selon Dourish, c’est parce qu’ils permettent de mieux rendre compte de la complexité des données et des interactions entre elles. S’ils détrônent le tableau blanc, c’est parce que les tableurs ont une vie avant et après la réunion, d’une certaine manière qu’ils doivent être vivants, dynamiques… Enfin, note encore Dourish, contrairement à ce qu’on pourrait penser, la plupart de ces séances utilisent un tableur non connecté à l’internet. Alors qu’un document partagé en ligne permet de maintenir des versions synchrones, les documents offline permettent d’avoir un point de contrôle qu’une seule personne ajuste selon les discussions.

Des conséquences de la matérialité du numérique sur nos usages

Cet exemple illustre assez bien l’ambition de Dourish. « Explorer comment le calcul devient un objet avec lequel les gens doivent lutter »… Comment le calcul façonne la forme des objets numériques, contraint nos interactions humaines elles-mêmes et créent de nouvelles structures d’interaction qui ne sont pas seulement numérique ou qui rétroagissent au-delà de leur caractère numérique ? L’exemple des tableurs et des bases de données pour la coordination de groupe montre comment les organisations passent d’une forme linéaire, narrative, à des formes profondément relationnelles. « La base de données est à la fois une forme de représentation et une forme effective ».

Force est pourtant de constater que hormis cet exemple – passionnant – Dourish ne parvient pas vraiment à cerner les enjeux de la matérialité de l’information. Les autres objets sur lesquels il pose son regard d’anthropologue ne sont pas aussi parlant et parfois trop techniques pour être facilement compréhensibles.

Reste que l’analyse qu’il livre sur comment les bases de données façonnent désormais le monde matériel – et inversement – pointe bien sûr leurs limites : « Si les organisations ne peuvent agir que sur les données dont elles disposent, alors les limites de leurs bases de données deviennent leurs contraintes d’action sur le monde. » Or, dans ce qui est projeté lors de ce type de réunion, les bases de données et les données demeurent bien souvent l’objet caché… La matérialité du numérique a donc des conséquences sur la façon même dont on communique, on partage et se connecte.

Comme il le souligne en conclusion, « les bits ne sont pas que bits. Certains comptent plus que d’autres. Certains arrangements de bits sont plus facilement manipulables que d’autres…(…) tout comme les systèmes numériques indo-arabes et romains, différentes représentations impliquent différentes conséquences pour les sortes de choses que l’on peut faire avec. » La rhétorique du « virtuel » suggère que le numérique serait indépendant des configurations et contraintes matérielles qui pèsent sur lui. Or, si le numérique dépend de grandes infrastructures matérielles, le numérique impose en retour des contraintes matérielles à ceux qui les utilisent. Les objets numériques ont des particularités propres et les systèmes de représentation qu’ils déterminent ont des manifestations directement matérielles. Et Dourish d’en appeler à mieux comprendre à la fois les pratiques culturelles et leurs manifestations techniques. Certes, il n’est pas le premier à le dire, à signaler les limites des intentions dans la production des systèmes numériques et leurs détournements ou leurs bricolages. Pour lui, il est nécessaire de prendre au sérieux la matérialité du numérique. Cette matérialité explique-t-il encore relève le plus souvent d’une « traduction », du passage d’une représentation à une autre. Bien souvent, on néglige l’aspect matériel de ces transformations, alors qu’elles sont éminemment importantes, comme le soulignait déjà Frédéric Kaplan en s’intéressant au fonctionnement du traducteur de Google, qui passe toujours par une traduction par l’anglais pour traduire d’une langue à une autre. Il invite d’ailleurs à parler plutôt de transduction pour parler de ce type de conversions, comme c’est le cas de notre voix transformée en signal électrique par l’usage du téléphone et réassemblé en sons à la fin, produisant une nouvelle production qui n’est pas qu’une simple copie. Le calcul n’est pas indépendant de ses manifestations matérielles insiste Dourish (« l’informatique ne concerne pas plus l’ordinateur désormais que l’astronomie ne concerne les télescopes« , disait le mathématicien Edsger Dijkstra), qui invite à refonder la science informatique en s’inspirant du Manifeste pour la pensée computationnelle (.pdf) de Jeanette Wing qui invitait déjà à changer de mode de pensée. Une conclusion hélas un peu convenue.

On aurait aimé que Dourish, plutôt que de se perdre parfois dans la dissection de la matérialité du réseau, évoque les succédanés de ces tableurs par exemple, comment les tableaux de bord de pilotage, comme les tableaux de bord urbains, les systèmes de visualisation de données, prolongent les effets qu’il pointe avec les « spreadsheets events ». On aurait aimé qu’il souligne d’autres exemples de simulations numériques, de virtualisation de la réalité (à l’image des bombes nucléaires américaines qui continuent d’évoluer alors qu’aucune n’est testée en situation réelle, mais uniquement par simulation numérique ce qui implique que leurs limites reposent désormais plus sur les capacités de calcul que sur leur niveau de radioactivité) en s’intéressant par exemple plus avant aux contraintes qu’imposent les formes de modélisation à la réalité. La conception d’armes nucléaires est devenue une science informatique, rappelle-t-il. Et c’est le cas de nombre de domaines des sciences de l’ingénieur. La réalité est façonnée par la modélisation que nous faisons du monde. D’où la nécessité de s’y intéresser toujours plus avant. De regarder toujours avec acuité l’enchevêtrement toujours plus complexe du numérique au reste du monde et sa matérialisation.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net le 5 septembre 2017.

5 / 10

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   Fiabilité faible
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌞