LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

22.02.2026 à 08:20

La place méconnue des ingénieurs dans l’histoire du management

Matthieu Mandard, Maître de conférences en sciences de gestion, Université de Rennes 1 - Université de Rennes

Les ingénieurs sont indissociables de l’histoire du management. Quelle est leur place exacte ? Et comment l’expliquer ?
Texte intégral (1818 mots)
Le Français Henri Fayol (1841-1925), ingénieur des mines, occupe une place importante dans l’histoire du management. Il est pourtant peu connu du grand public. Wikimedia commons, CC BY

On sait que les ingénieurs sont tous formés au management, et que nombre d’entre eux en seront des praticiens au cours de leur carrière. Ce qui est nettement moins connu, en revanche, c’est que le management est né au dix-neuvième siècle de l’activité même des ingénieurs, et que des ingénieurs ont systématiquement été au nombre de ses principaux théoriciens.


Les ingénieurs, dont le diplôme est réglementé en France par la Commission des titres d’ingénieurs (CTI), mais dont l’usage du titre au plan professionnel est libre, sont des spécialistes de la conception et de la mise en œuvre de projets techniques. Ils se doivent donc par définition de maîtriser les principes de base du management. Mais à quel point le métier d’ingénieur est-il lié à cette discipline, consacrée à l’élaboration de théories et de pratiques relatives au pilotage des organisations ?

À rebours d’une idée saugrenue, mais pourtant actuellement populaire, selon laquelle le management devrait son origine au nazisme, il s’avère que c’est plutôt du côté des ingénieurs qu’il faut regarder. Car leur activité est en effet historiquement liée à l’essor du management, comme nous l’écrivions dans un article récent dont nous retraçons les conclusions ici.

Révolutions technologiques et management

Le management a de toute évidence toujours existé, puisque de la construction des pyramides aux débuts de la première révolution industrielle en Angleterre au milieu du XVIIIᵉ siècle, en passant par l’édification des cathédrales, la conduite de grands projets a de tout temps nécessité le pilotage de collectifs importants. Mais il s’agissait alors d’initiatives locales, répondant à des contextes techniques et sociaux particuliers, qui ne faisaient pas encore système. Il faut en fait attendre le milieu du XIXᵉ siècle, et la deuxième révolution industrielle, pour voir le management constitué en tant que corpus de réflexion de portée générale relatif aux modalités de conduite des organisations.

Si le management apparaît à cette époque aux États-Unis, c’est en raison de l’essor du chemin de fer entamé au tournant du XIXᵉ siècle, qui implique la mise en place de grandes entreprises destinées à en assurer le pilotage de manière efficace et dans des conditions de sécurité satisfaisantes. Ce modèle de la grande entreprise se diffusera par la suite dans d’autres industries, telles que celle de l’acier, et se substituera progressivement aux petites entreprises artisanales jusqu’alors majoritaires.


À lire aussi : Le management par objectifs n’est pas une invention nazie


À cette première révolution technologique en succède une seconde, amorcée au milieu du XIXᵉ siècle, qui résulte du développement du machinisme et de la hausse des rythmes de production associés. Elle donne elle aussi lieu à des changements dans les modes d’organisation des entreprises, puisque l’on assiste, à partir de 1890, à la naissance d’usines performantes dont le fonctionnement doit être rationalisé et planifié de manière à en tirer parti au maximum.

Vient ensuite la révolution des transports, soutenue par l’essor de l’automobile et par le déploiement d’infrastructures routières. Celle-ci entraîne, au milieu du XXᵉ siècle, l’extension géographique des opérations des entreprises et l’élargissement de leurs périmètres d’activité afin de satisfaire de nouveaux marchés, et l’apparition de l’entreprise qualifiée de multi-divisionnelle.

Enfin, la quatrième révolution technologique habituellement retenue apparaît après la Seconde guerre mondiale, avec l’essor de l’informatique et des télécommunications. Celle-ci renforce la tendance à la dispersion géographique des entreprises déjà amorcée précédemment, et donne lieu à partir des années 1990 à un modèle de management de référence qualifié d’organisation en réseau.

Au total, ce que montrent les observations, et notamment les travaux récents de Bodrožić et d’Adler, c’est que les révolutions dans les modes et les méthodes de gestion des organisations ont systématiquement été la résultante de révolutions technologiques, qui furent elles-mêmes le fruit des activités d’ingénieurs.

Ingénieurs et théorisation du management

Les changements dans le fonctionnement des entreprises induits par ces révolutions technologiques ont nécessité l’élaboration de nouveaux modèles de management, entendus comme des préceptes quant à la meilleure manière de piloter les activités des organisations. Et ici encore, il s’avère que des ingénieurs ont toujours fait partie des principaux théoriciens de ces modèles.

L’essor des grandes entreprises du secteur des chemins de fer au XIXᵉ siècle est ainsi accompagné par les réflexions d’ingénieurs de ce secteur, Benjamin H. Latrobe, Daniel C. McCallum, et J. Edgar Thomson, qui mettent au point ce qui est alors appelé les structures hiérarchico-fonctionnelles. Face aux conditions de travail particulièrement rudes induites par ce modèle, des programmes de réformes sociales sont ensuite développés par des auteurs tels que l’ingénieur George Pullman, fondateur de la compagnie de wagons-lits du même nom.

Le fonctionnement des usines performantes qui apparaissent ensuite est quant à lui rationalisé par des auteurs bien connus, dont on oublie parfois qu’ils étaient tous trois des ingénieurs : le Français Henri Fayol, et les États-Uniens Henry Ford et Frederick Taylor. Ici encore, la rudesse des conditions de travail engendrées par la mise en place d’un management scientifique, ou du travail à la chaîne, amène à des réflexions, quant à la manière de restaurer un climat social dégradé, en partie conduites par un ingénieur du nom de George Pennock, tombé dans l’oubli.

Et les pratiques managériales induites par les deux révolutions technologiques les plus récentes sont à l’avenant. L’entreprise multidécisionnelle fut en bonne partie théorisée par un ancien président de General Motors, l’ingénieur Alfred Sloan, et les problématiques de qualité qu’elle engendra furent largement examinées par un ingénieur de Toyota du nom de Taiichi Ohno. Quant au modèle de l’organisation en réseau, il fut notamment pensé et amendé par des ingénieurs spécialistes des systèmes d’information, tels que Michael Hammer et James Champy, ou par un ingénieur de Hewlett-Packard, Charles Sieloff.

Comment expliquer cette importance historique des ingénieurs en matière de théorisation du management ? Ceci tient à deux raisons pratiques. Leur proximité avec les évolutions technologiques de leur époque les amène à identifier précocement les problèmes managériaux que ces changements soulèvent, et les rend aussi mieux à même de résoudre.

Arts et métiers, Alumni 2020.

Ingénieur et management, un lien à cultiver

Ainsi, le métier d’ingénieur a toujours eu partie liée au management. On ne sera donc pas surpris d’apprendre que, en Europe, l’enseignement du management a d’abord été dispensé en école d’ingénieurs au milieu du XIXe siècle, avant d’être confié aux écoles de commerce au tournant du XXe siècle. Et c’est ce qui explique également que deux des plus prestigieuses écoles d’ingénieurs françaises, l’École des mines de Paris et l’École polytechnique, disposent chacune d’un laboratoire de recherche dédié aux sciences de gestion et du management (respectivement, le Centre de gestion scientifique et le Centre de recherche en gestion), ou que des spécialistes du management interviennent plus généralement dans toutes les écoles d’ingénieurs.

En raison des défis technologiques qui s’annoncent (robotisation, essor de l’IA, sobriété énergétique), il s’avère que ce lien ingénieurs/management doit être affirmé et cultivé. Car ces évolutions s’accompagneront nécessairement de changements organisationnels qu’il sera nécessaire de penser si nous ne voulons pas les subir.

The Conversation

Matthieu Mandard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

22.02.2026 à 08:17

What is ‘Edge AI’? What does it do and what can be gained from this alternative to cloud computing?

Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)

Does cloud-free AI have the cutting-edge over data processing and storage on centralised, remote servers by providers like Google Cloud? Is AI-powered edge computing safer? More trusted?
Texte intégral (1921 mots)

“Edge computing”, which was initially developed to make big data processing faster and more secure, has now been combined with AI to offer a cloud-free solution. Everyday connected appliances from dishwashers to cars or smartphones are examples of how this real-time data processing technology operates by letting machine learning models run directly on built-in sensors, cameras, or embedded systems.

Homes, offices, farms, hospitals and transportation systems are increasingly embedded with sensors, creating significant opportunities to enhance public safety and quality of life.

Indeed, connected devices, also called the Internet of Things (IoT), include temperature and air quality sensors to improve indoor comfort, wearable sensors to monitor patient health, LiDAR and radar to support traffic management, and cameras or smoke detectors to enable rapid-fire detection and emergency response.

These devices generate vast volumes of data that can be used to ‘learn’ patterns from their operating environment and improve application performance through AI-driven insights.

For example, connectivity data from wi-fi access points or Bluetooth beacons deployed in large buildings can be analysed using AI algorithms to identify occupancy and movement patterns across different periods of the year and event types, depending on the building type (e.g. office, hospital, or university). These patterns can then be leveraged for multiple purposes such as HVAC optimisation, evacuation planning, and more.

Combining the Internet of things and artificial intelligence comes with technical challenges

Artificial Intelligence of Things (AIoT) combines AI with IoT infrastructure to enable intelligent decision-making, automation, and optimisation across interconnected systems. AIoT systems rely on large-scale, real-world data to enhance accuracy and robustness of their predictions.

To support inference (that is, insights from collected IoT data) and decision-making, IoT data must be effectively collected, processed, and managed. For example, occupancy data can be processed to infer peak usage times in a building or predict future energy needs. This is typically achieved by leveraging cloud-based platforms like Amazon Web Services, Google Cloud Platform, etc. which host computationally intensive AI models – including the recently introduced Foundation Models.

What are Foundation Models?

  • Foundation Models are a type of Machine Learning model trained on broad data and designed to be adaptable to various downstream tasks. They encompass, but are not limited to, Large Language Models (LLMs), which primarily process textual data, but can also operate on other modalities, such as images, audio, video, and time series data.
  • In generative AI, Foundation Models serve as the base for generating content such as text, images, audio, or code.
  • Unlike conventional AI systems that rely heavily on task-specific datasets and extensive preprocessing, FMs introduce zero-shot and few-shot capabilities, allowing them to adapt to new tasks and domains with minimal customisation.
  • Although FMs are still in the early stages, they have the potential to unlock immense value for businesses across sectors. Therefore, the rise of FMs marks a paradigm shift in applied artificial intelligence.

The limits of cloud computing on IoT data

While hosting heavyweight AI or FM-based systems on cloud platforms offers the advantage of abundant computational resources, it also introduces several limitations. In particular, transmitting large volumes of IoT data to the cloud can significantly increase response times for AIoT applications, often with delays ranging from hundreds of milliseconds to several seconds, depending on network conditions and data volume.

Moreover, offloading data – particularly sensitive or confidential information – to the cloud raises privacy concerns and limits opportunities for local processing near data sources and end users.

For example, in a smart home, data from smart meters or lighting controls can reveal occupancy patterns or enable indoor localisation (for example, detecting that Helen is usually in the kitchen at 8:30 a.m. preparing breakfast). Such insights are best derived close to the data source to minimise delays from edge-to-cloud communication and reduce exposure of private information on third-party cloud platforms.


À lire aussi : Cloud-based computing: routes toward secure storage and affordable computation


What is edge computing and edge AI?

To reduce latency and enhance data privacy, Edge computing is a good option as it provides computational resources (i.e. devices with memory and processing capabilities) closer to IoT devices and end users, typically within the same building, on local gateways, or at nearby micro data centres.

However, these edge resources are significantly more limited in processing power, memory, and storage compared to centralised cloud platforms, which pose challenges for deploying complex AI models.

To address this, the emerging field of Edge AI – particularly active in Europe – investigates methods for efficiently running AI workloads at the edge.

One such method is Split Computing, which partitions deep learning models across multiple edge nodes within the same space (a building, for instance), or even across different neighbourhoods or cities. Deploying these models in distributed environments is non-trivial and requires sophisticated techniques. The complexity increases further with the integration of Foundation Models, making the design and execution of split computing strategies even more challenging.

What does it change in terms of energy consumption, privacy, and speed?

Edge computing significantly improves response times by processing data closer to end users, eliminating the need to transmit information to distant cloud data centres. Beyond performance, edge computing also enhances privacy, especially with the advent of Edge AI techniques.

For instance, Federated Learning enables Machine Learning model training directly on local Edge (or possibly novel IoT) devices with processing capabilities, ensuring that raw data remain on-device while only model updates are transmitted to Edge or cloud platforms for aggregation and final training.

Privacy is further preserved during inference: once trained, AI models can be deployed at the Edge, allowing data to be processed locally without exposure to cloud infrastructure.

This is particularly valuable for industries and SMEs aiming to leverage Large Language Models within their own infrastructure. Large Language Models can be used to answer queries related to system capabilities, monitoring, or task prediction where data confidentiality is essential. For example, queries can be related to the operational status of industrial machinery such as predicting maintenance needs based on sensor data where protecting sensitive or usage data is essential.

In such cases, keeping both queries and responses internal to the organisation safeguards sensitive information and aligns with privacy and compliance requirements.

How does it work?

Unlike mature cloud platforms, such as Amazon Web Services and Google Cloud, there are currently no well-established platforms to support large-scale deployment of applications and services at the Edge.

However, telecom providers are beginning to leverage existing local resources at antenna sites to offer compute capabilities closer to end users. Managing these Edge resources remains challenging due to their variability and heterogeneity – often involving many low-capacity servers and devices.

In my view, maintenance complexity is a key barrier to deploying Edge AI services. At the same time, advances in Edge AI present promising opportunities to enhance the utilisation and management of these distributed resources.

Allocating resources across the IoT-Edge-Cloud continuum for safe and efficient AIoT applications

To enable trustworthy and efficient deployment of AIoT systems in smart spaces such as homes, offices, industries, and hospitals; our research group, in collaboration with partners across Europe, is developing an AI-driven framework within the Horizon Europe project PANDORA.

PANDORA provides AI models as a Service (AIaaS) tailored to end-user requirements (e.g. latency, accuracy, energy consumption). These models can be trained either at design time or at runtime using data collected from IoT devices deployed in smart spaces. In addition, PANDORA offers Computing resources as a Service (CaaS) across the IoT–Edge–Cloud continuum to support AI model deployment. The framework manages the complete AI model lifecycle, ensuring continuous, robust, and intent-driven operation of AIoT applications for end users.

At runtime, AIoT applications are dynamically deployed across the IoT–Edge–Cloud continuum, guided by performance metrics such as energy efficiency, latency, and computational capacity. CaaS intelligently allocates workloads to resources at the most suitable layer (IoT-Edge-Cloud), maximising resource utilisation. Models are selected based on domain-specific intent requirements (e.g. minimising energy consumption or reducing inference time) and continuously monitored and updated to maintain optimal performance.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

PDF

21.02.2026 à 16:29

La Stratégie de sécurité nationale des États-Unis : 2022 contre 2025, continuités et ruptures

Olivier Sueur, Enseigne la compétition stratégique mondiale et les enjeux transatlantiques, Sciences Po

Une comparaison entre les stratégies de sécurité de Biden (2022) et de Trump (2025) met en évidence des points communs plus nombreux qu’on le croit, mais aussi une distinction fondamentale.
Texte intégral (1481 mots)

Aux États-Unis, chaque président a l’obligation de publier une Stratégie de sécurité nationale (National Security Strategy, NSS). Celle que l’administration Trump a rendue publique en novembre 2025 – un texte ouvertement partisan et centré sur les intérêts de Washington conformément à la doctrine « America First » – a heurté de front de nombreux responsables européens, qui se remémorent avec une certaine nostalgie l’époque de Joe Biden. Or, la comparaison de la NSS « Made in Trump » avec celle de l’administration Biden montre qu’il existe entre les deux documents plus de continuité qu’on le croit, même si une distinction majeure apparaît sur la question de l’idéologie sous-jacente.


La Stratégie de sécurité nationale des États-Unis publiée en novembre 2025 par l’administration Trump a déjà fait couler beaucoup d’encre, allant jusqu’à parler à propos de la relation à l’Europe d’un « divorce consommé, en attendant la séparation des biens ». Or, sa version précédente, publiée en octobre 2022 par l’administration Biden, constituait déjà une rupture sur bien des points : l’article que j’y avais consacré en janvier 2023 s’intitulait « Prendre acte de la fin d’un monde ».

Naturellement, le ton joue beaucoup : le document de l’administration de Joe Biden – « le bon » – était bien plus lissé et, soyons francs, plus aimable que celui de l’administration de Donald Trump – « la brute ». Néanmoins, si l’on cherche à dépasser la forme et à analyser le fond, ruptures et continuités s’affichent sous des couleurs nettement plus nuancées.

Des visions géopolitiques en réalité très proches

Les deux présidents démocrate et républicain, avec leurs administrations, font preuve d’une très grande continuité quant à, d’une part, la fin de la mondialisation économique et du libre-échange et, d’autre part, la priorisation des intérêts états-uniens à l’échelle mondiale.

La NSS 2022 était porteuse d’une virulente charge à l’encontre du bilan de la mondialisation des échanges économiques des trente dernières années et en tirait les conséquences : selon Jake Sullivan, conseiller à la Sécurité nationale de Joe Biden tout au long du mandat de celui-ci, « l’accès au marché a été pendant trente ans l’orthodoxie de toute politique commerciale : cela ne correspond plus aux enjeux actuels ».

L’enjeu clé est à présent la sécurité des chaînes d’approvisionnement, qui implique pour un certain nombre de produits stratégiques un découplage entre la Chine et les États-Unis : la sécurité économique redevient partie intégrante de la sécurité nationale.

Sur le plan domestique, le message était le grand retour de l’État dans l’économie avec la promotion d’« une stratégie industrielle et d’innovation moderne », la valorisation des investissements publics stratégiques et l’utilisation de la commande publique sur les marchés critiques afin de préserver la primauté technologique. La NSS 2025 ne dit pas autre chose en soulignant que « la sécurité économique est fondamentale pour la sécurité nationale » et reprend chaque sous-thème. La continuité est ici parfaite.

La priorisation géographique entre les deux NSS est également remarquable de continuité : 1) affirmation de la primauté de l’Indopacifique sur l’Europe ; 2) importance accordée aux Amériques, passées de la dernière place d’intérêt en 2015, derrière l’Afrique, à la troisième en 2022 et à la première en 2025.

Le premier point implique une concentration des efforts de Washington sur la Chine, et donc que le continent européen fasse enfin l’effort de prendre en charge sa propre sécurité afin de rétablir un équilibre stratégique vis-à-vis de la Russie. Le deuxième point se manifeste dans la NSS 2022 par la remontée des Amériques à la troisième place, devant le Moyen-Orient, et dans la NSS 2025 l’affirmation d’un « corollaire Trump à la doctrine Monroe », consistant à dénier à des compétiteurs extérieurs aux Amériques la possibilité d’y positionner des forces ou des capacités ou bien d’y contrôler des actifs critiques (tels que des ports sur le canal de Panama).

Dissensions idéologiques

Les deux présidents divergent sur deux points de clivage idéologique, à savoir la conception de la démocratie et le système international, y compris les questions climatiques.

La NSS 2022 avait réaffirmé le soutien sans ambiguïté des États-Unis à la démocratie et aux droits humains de par le monde, en introduisant néanmoins une nuance dans leurs relations internationales : sur le fondement du vote par 141 États de la résolution de l’ONU condamnant l’agression russe de l’Ukraine en mars 2022, l’administration Biden se montrait ouverte au partenariat avec tout État soutenant un ordre international fondé sur des règles telles que définies dans la Charte des Nations unies, sans préjuger de son régime politique.

La NSS 2025, au contraire, ne revendique rien de semblable : elle affirme avec force qu’elle se concentre sur les seuls intérêts nationaux essentiels des États-Unis (« America First »), proclame une « prédisposition au non-interventionnisme » et revendique un « réalisme adaptatif » (« Flexible Realism ») fondé sur l’absence de changement de régime politique, preuve en étant donnée avec le Venezuela, où le système chaviste n’a pas été renversé après l’enlèvement par les États-Unis de Nicolas Maduro.

De plus, la NSS 2025 redéfinit la compréhension même de la notion de démocratie autour d’une conception civilisationnelle aux contours très américains (liberté d’expression à la « sauce US », liberté religieuse et de conscience).

Second point de divergence : la NSS 2022 avait réaffirmé l’attachement de Washington au système des Nations unies, citées à huit reprises, et faisait de l’Union européenne (UE) un partenaire de choix dans un cadre bilatéral UE-États-Unis. C’est l’exact inverse dans la NSS 2025 : non seulement les Nations unies ne sont pas mentionnées une seule fois, mais les organisations internationales sont dénoncées comme érodant la souveraineté américaine.

En revanche, la primauté des nations est mise en exergue, et présentée comme antagoniste aux organisations transnationales. De plus, la notion d’allié est redéfinie à l’aune de l’adhésion aux principes démocratiques tels qu’exposés plsu haut. Cette évolution s’exprime plus particulièrement à l’égard de l’Europe.

La NSS 2025 et l’Europe

La partie de la NSS 2025 consacrée à l’Europe a été vivement critiquée dans les médias du Vieux Continent pour sa tonalité méprisante ; or le sujet n’est pas là. En effet, l’administration Trump opère une distinction fondamentale entre, d’une part, des nations qu’il convient de discriminer selon leur alignement avec la vision américaine de la démocratie et, d’autre part, l’UE, qu’il convient de détruire car elle constitue un contre-pouvoir nuisible. En d’autres termes, elle ne s’en prend pas à l’Europe en tant qu’entité géographique, mais à l’Union européenne en tant qu’organisation supranationale, les États-Unis se réservant ensuite le droit de juger de la qualité de la relation à établir avec chaque gouvernement européen en fonction de sa trajectoire idéologique propre.

La NSS 2025 exprime donc un solide consensus bipartisan sur les enjeux stratégiques auxquels sont confrontés les États-Unis et les réponses opérationnelles à y apporter, s’inscrivant ainsi dans la continuité du texte publié par l’administration Biden en 2022. Mais elle souligne aussi une divergence fondamentale sur les valeurs à mobiliser pour y faire face. C’est précisément ce que le secrétaire d’État Marco Rubio a rappelé dans son intervention lors de la conférence de Munich du 14 février 2026.

The Conversation

Olivier Sueur est chercheur associé au sein de l'Institut d'études de géopolitique appliquée (IEGA).

PDF
3 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓