URL du flux RSS

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 50 dernières parutions

13.10.2025 à 16:30

Tony Blair est-il l’homme de la situation pour Gaza ?

Dana El Kurd, Assistant Professor of Political Science, University of Richmond
L’ancien premier ministre britannique Tony Blair sera chargé de superviser l’Autorité internationale de transition pour Gaza prévue par le plan Trump.
Texte intégral (2499 mots)

Au vu de ce qui transparaît du plan élaboré pour Gaza par l’administration Trump, qui lui confère un rôle éminent, il semble que l’action de l’ancien premier ministre britannique Tony Blair sera comparable à son travail en tant qu’envoyé spécial du Quartet en Palestine (2007-2015), qui s’était soldé par un échec, plus qu’à son implication dans l’accord du Vendredi saint qui, en 1998, avait mis fin à trente ans de conflit armé en Irlande du Nord…


Tony Blair, l’homme choisi par Donald Trump pour jouer un rôle clé dans la supervision de la gouvernance de Gaza après la guerre, n’en est pas à sa première négociation d’un plan de paix.

Premier ministre du Royaume-Uni de 1997 à 2007, Blair a contribué en 1998 à la conclusion de l’accord du Vendredi saint, qui a permis de mettre un terme aux violences sectaires en Irlande du Nord. Après son départ du 10, Downing Street, Blair est immédiatement devenu envoyé spécial du Quartet – un groupe diplomatique regroupant l’Organisation des Nations unies (ONU), l’Union européenne (UE), les États-Unis et la Russie pour élaborer une solution durable au conflit israélo-palestinien. Il est demeuré à ce poste jusqu’en 2015.

Comme l’ont tragiquement montré le carnage commis le 7 octobre 2023 par le Hamas et les ravages qui ont été ensuite infligés à Gaza par Tsahal, récemment qualifiés de génocide par un organe des Nations unies, le Quartet a échoué dans sa mission.

Le plan de paix en 20 points actuellement en discussion par les parties prenantes en Égypte est succinct : il insiste sur le retour des otages israéliens encore détenus par le Hamas, la démilitarisation de la bande de Gaza et la création d’une force de sécurité internationale pour opérer sur place.

Par ailleurs, ce plan ne soutient pas l’expulsion des Palestiniens de Gaza – contrairement à certaines propositions précédentes formulées par l’administration Trump et qualifiées par des associations de défense des droits humains de plans de « nettoyage ethnique ».

Le 8 octobre 2025, Trump a annoncé le lancement d’une phase initiale du plan de paix. Un accord a été trouvé sur l’échange des otages contre des prisonniers ainsi qu’une trêve des combats. Mais les négociations sont toujours en cours sur divers points d’achoppement, notamment le désarmement des groupes combattants gazaouis.

L’accord prévoit également qu’après la guerre, Gaza soit gouvernée par un comité palestinien provisoire « technocratique » et « apolitique ». Cet organe temporaire sera supervisé par un « Conseil de paix » dirigé par Trump lui-même. D’autres membres dont les noms n’ont pas été communiqués y siégeront également, mais le seul nom qui a été annoncé à ce stade est celui de Tony Blair, qui, selon certaines informations, était en pourparlers avec l’administration Trump depuis un certain temps pour élaborer le plan de paix actuel.

En tant que spécialiste des relations internationales et de la politique palestinienne, je crains que cette proposition ne comporte les mêmes limites et les mêmes défauts que les précédents plans de paix imposés aux Palestiniens par des organismes extérieurs, notamment les efforts du Quartet de Blair et les précédents accords d’Oslo, et qu’elle soit très éloignée des mécanismes qui ont permis de consolider la paix en Irlande du Nord.

Un plan qui prend racine dans une « paix illibérale »

La faille principale que les critiques voient dans le plan actuel est qu’il ne mentionne pas le droit des Palestiniens à l’autodétermination et à la souveraineté, un droit pourtant inscrit dans le droit international.

Le plan ne prévoit pas non plus de participation significative des Palestiniens, que ce soit par l’intermédiaire de leurs représentants légitimes ou par le biais de mécanismes visant à garantir l’adhésion de la population.

Au contraire, le nouveau cadre est asymétrique, puisqu’il permet au gouvernement israélien d’atteindre bon nombre de ses objectifs politiques tout en imposant plusieurs niveaux de contrôle international et en n’évoquant que des garanties vagues pour le peuple palestinien, et ce, uniquement si celui-ci se conforme aux exigences des auteurs du texte.

En l’état, ce plan s’inscrit dans la continuité de ce que les politologues qualifient de « paix illibérale » en matière de résolution des conflits.

Dans un article publié en 2018, des chercheurs ont défini la « paix illibérale » comme une paix dans laquelle « la cessation du conflit armé est obtenue par des moyens […] ouvertement autoritaires ».

Une telle paix est obtenue grâce à « des méthodes qui évitent les véritables négociations entre les parties au conflit, rejettent la médiation internationale et les contraintes à l’usage de la force, ignorent les appels à s’attaquer aux causes structurelles sous-jacentes du conflit et s’appuient plutôt sur des instruments de coercition étatique et des structures hiérarchiques de pouvoir ».

Parmi les exemples passés, on peut citer la gestion des conflits au Kurdistan turc, en Tchétchénie ou encore, tout récemment, au Haut-Karabakh.

Le cas de l’Irlande du Nord

Cela contraste avec d’autres accords de paix conclus ailleurs, dans des cadres diplomatiques plus inclusifs, comme en Irlande du Nord.

Pendant plus de trente ans, le territoire avait été embourbé dans des violences sectaires entre les « loyalistes », majoritairement protestants et désireux de rester rattachés au Royaume-Uni, et la minorité catholique, qui entendait faire partie d’une république irlandaise unifiée et indépendante.

Pour mettre fin à ce conflit armé, le processus de paix a inclus toutes les parties concernées, y compris les différents groupes combattants.

De plus, le processus de paix en Irlande du Nord a explicitement impliqué la population irlandaise et lui a permis de s’exprimer à travers deux référendums distincts. Les habitants d’Irlande du Nord ont voté pour ou contre le plan, tandis que ceux de la République d’Irlande ont voté pour ou contre l’autorisation donnée à l’État irlandais de signer l’accord.

Grâce à ce processus inclusif et démocratique, le conflit n’a toujours pas repris depuis vingt-sept ans.

Si Tony Blair n’a pas lancé le processus de paix en Irlande du Nord, son gouvernement a joué un rôle central, et c’est lui qui a déclaré que « la main de l’histoire » reposait sur l’épaule de ceux qui ont participé aux derniers jours des négociations.

Échec à Oslo

Le processus nord-irlandais, couronné de succès, contraste fortement avec les nombreux processus de paix qui ont échoué au Moyen-Orient, lesquels s’inscrivent davantage dans le concept de « paix illibérale ».

La tentative la plus sérieuse en faveur d’une paix durable a été celle des accords d’Oslo de 1993, par lesquels l’Organisation de libération de la Palestine (OLP) a accepté le droit d’Israël à exister, renonçant à ses revendications sur une grande partie de la Palestine historique, en échange de la reconnaissance par Israël de l’OLP comme représentant légitime du peuple palestinien.

Ce processus a conduit à la création de l’Autorité palestinienne, qui était censée exercer une gouvernance limitée à titre provisoire, et à la tenue d’élections présidentielles et parlementaires afin d’impliquer la population palestinienne. Mais comme l’ont depuis admis de nombreux anciens responsables américains, les accords étaient asymétriques : ils offraient aux Palestiniens une reconnaissance sous l’égide de l’OLP, mais peu de perspectives pour parvenir à une solution négociée dans un contexte d’occupation par un pays souverain bien plus puissant.

Le processus de paix s’est effondré lorsque cette asymétrie est apparue clairement. Les deux parties entendaient des choses très différentes par le mot « État ». Le gouvernement israélien envisageait une forme d’autonomie limitée pour les Palestiniens et poursuivait l’expansion des colonies et l’occupation militaire. Les Palestiniens, quant à eux, envisageaient un État légitime exerçant sa souveraineté.

Pour aggraver les problèmes, les Palestiniens n’ont jamais eu un pouvoir de négociation égal, et les accords manquaient d’un arbitre neutre, les États-Unis, le principal médiateur, penchant clairement en faveur de la partie israélienne.

Oslo était censé être un processus limité dans le temps afin de donner aux négociateurs le temps de résoudre les questions en suspens. Dans la pratique, il a servi à couvrir diplomatiquement, des années durant, un statu quo dans lequel les gouvernements israéliens se sont éloignés d’une solution à deux États tandis que les Palestiniens sont devenus de plus en plus fragmentés politiquement et géographiquement dans un contexte de difficultés et de violences croissantes.

Le processus de paix d’Oslo s’est effondré au début du mandat du gouvernement Blair, alors même que celui-ci contribuait à mettre la touche finale à l’accord du Vendredi saint.

Répéter les erreurs à Gaza ?

Dans le contexte israélo-palestinien actuel, Blair risque de répéter les erreurs d’Oslo. Il s’apprête à siéger au sein d’un organisme international non démocratique chargé de superviser un peuple soumis à une occupation militaire de facto.

De plus, bien que le plan Trump dépende de l’approbation du Hamas, ce mouvement n’aura aucun rôle à jouer après la phase initiale. En effet, le cadre stipule explicitement que le Hamas doit être exclu de toute discussion future sur l’après-guerre à Gaza. De plus, aucun autre groupe palestinien n’est directement impliqué ; le principal rival du Hamas, le Fatah, qui contrôle l’Autorité palestinienne en Cisjordanie occupée, n’est mentionné que brièvement. Quant à l’Autorité palestinienne, il n’y a qu’une vague allusion à la réforme de cet organisme.

De même, il n’a été fait aucune mention de ce que le peuple palestinien pourrait réellement souhaiter. À cet égard, l’organe proposé rappelle la création de l’Autorité provisoire de la coalition dirigée par les États-Unis lors de l’invasion de l’Irak (2003-2004). Cet organisme, qui a gouverné l’Irak immédiatement après l’invasion, a été sévèrement critiqué pour sa corruption et son manque de transparence.

L’échec de la guerre en Irak et l’implication du Royaume-Uni dans ce conflit ont contribué à la démission de Tony Blair de son poste de premier ministre en 2007, après quoi il a occupé la fonction d’envoyé spécial du Quartet. Formé par l’ONU, les États-Unis, l’UE et la Russie, le Quartet était chargé de préserver une forme de solution à deux États et de mettre en œuvre des plans de développement économique dans les villes palestiniennes.

Mais lui aussi a échoué à répondre aux réalités politiques changeantes sur le terrain, alors que les colonies israéliennes s’étendaient et que l’occupation militaire s’intensifiait.

Selon ses détracteurs, le Quartet aurait largement ignoré le droit des Palestiniens à l’autodétermination et à la souveraineté, se concentrant plutôt sur une amélioration marginale des conditions économiques et sur des initiatives superficielles.

La dernière proposition soutenue par les États-Unis s’inspire largement de cette approche. Même si elle apporte à court terme un répit bienvenu aux souffrances des Gazaouis, une résolution durable et mutuellement acceptée du conflit israélo-palestinien qui dure depuis plusieurs décennies nécessite ce que le plan de Trump met de côté : l’autodétermination palestinienne.

En Irlande du Nord, Blair avait compris l’importance d’une médiation neutre et de l’adhésion de toutes les parties au conflit et de la population elle-même. Le plan auquel il participe aujourd’hui semble fonctionner selon un calcul très différent.

The Conversation

Dana El Kurd est membre de l'Arab Center de Washington.

13.10.2025 à 16:29

Le bond en avant de l’industrie automobile chinoise de 1953 à nos jours

Fabien M. Gargam, Associate Professor of Management, Renmin University of China et Chercheur Associé, Université Paris-Saclay
Depuis 1953, la République populaire de Chine monte en puissance dans l’industrie automobile. Comment a-t-elle pu réaliser ce bond en avant en un peu plus de soixante-dix ans seulement ?
Texte intégral (2808 mots)
En Chine, les ventes de véhicules à énergie nouvelle atteignent le premier rang mondial en 2015. RomanZaiets/Shutterstock

Depuis 1953, la République populaire de Chine monte en puissance dans l’industrie automobile. Comment a-t-elle pu réaliser ce bond en avant en un peu plus de soixante-dix ans seulement ?


En avril 2025, les ventes en Europe de véhicules entièrement électriques du fabricant chinois BYD dépassent pour la première fois celles de Tesla, propulsant l’entreprise dans le top 10 du classement européen des ventes de véhicules à énergie nouvelle. Ce tournant marque non seulement un moment important dans la croissance du plus grand constructeur automobile de la République populaire de Chine, mais symbolise aussi la montée en puissance de l’industrie chinoise des véhicules à énergie nouvelle.

Yuwu Fu, président honoraire de la Société des ingénieurs automobiles de Chine, estime que le développement de l’industrie automobile chinoise a connu trois phases distinctes. De 1953 à 2000, elle établit ses fondements industriels. Après 2000, elle accélère son développement. Depuis 2020, elle progresse vers le statut de grande puissance automobile.

En 2016, le plan directeur du Conseil d’État chinois pour une stratégie nationale de développement axé sur l’innovation stipule que les capacités nationales devraient passer d’une coexistence d’approches « suivre », « rattraper », « mener », avec une prédominance de l’approche « suivre », à un modèle où les approches « rattraper » et « mener » prennent le dessus.

En combinant perspective historique et perspective stratégique, le présent article décrit les principaux moteurs des trois phases afin de dégager la logique qui sous-tend le bond en avant de l’industrie automobile chinoise.

La phase « suivre », de 1953 à 2000

Si l’industrie automobile occidentale est née au milieu du XIXᵉ siècle, le secteur automobile chinois voit le jour environ un siècle plus tard. En 1953, la première usine automobile de l’entreprise FAW est fondée à Changchun (au nord-est de la Chine) avec l’aide de l’Union soviétique. Elle marque les débuts de la République populaire de Chine dans la fabrication automobile.

Le modèle Dongfeng CA71, ce qui signifie « Vent d’est », produit par le constructeur chinois First Automobile Works (FAW), en 1958. Wikimediacommons

À partir de 1985, la Chine met en place des mesures protectionnistes telles que des droits de douane élevés et des quotas d’importation. Parallèlement, elle attire les investissements étrangers pour implanter des usines sur son sol, en s’appuyant sur une main-d’œuvre bon marché et un énorme potentiel commercial. En 1994, pour sortir de sa dépendance aux technologies étrangères, la politique industrielle automobile exige que la participation étrangère dans les coentreprises ne dépasse pas les 50 %.

Durant cette phase, la Chine commence à explorer le secteur des véhicules à énergie nouvelle. En 1992, le scientifique Xuesen Qian suggère :

« L’industrie automobile chinoise devrait passer directement à l’étape des énergies nouvelles pour réduire la pollution environnementale, sans passer par celle de l’essence et du diesel. »

La phase « rattraper », de 2001 à 2019

Après l’adhésion de la Chine à l’Organisation mondiale du commerce (OMC) en 2001, son industrie automobile connaît un développement rapide. Les droits de douane sur les importations automobiles sont réduits, les politiques de protection commerciale sont supprimées, et l’ouverture du marché contraint l’industrie à améliorer sa qualité et à accélérer sa croissance.

L’utilisation du modèle des coentreprises stimule le développement d’entreprises automobiles nationales, établissant rapidement un système industriel complet. En 2009, la Chine devient, pour la première fois, le premier producteur automobile mondial.

Sous l’effet de plusieurs pressions, notamment le monopole des brevets des constructeurs automobiles européens et états-uniens, la sécurité énergétique et les contraintes écologiques, le secteur automobile chinois s’oriente vers le développement accéléré de véhicules à énergie nouvelle.

En 2009, la République populaire de Chine devient le premier producteur automobile mondial. MikeDotta/Shutterstock

L’exploration des véhicules électriques commence dans les années 1830 en Europe et aux États-Unis. Elle stagne ultérieurement en raison de l’exploitation à grande échelle du pétrole et de l’essor de la technologie des moteurs à combustion interne. En République populaire de Chine, lors du 10e plan quinquennal, le programme national 863 pour les véhicules électriques pose, en 2001, le cadre de la recherche et du développement autour de « trois verticaux et trois horizontaux ».

Les « trois verticaux » désignent les véhicules électriques purs, les véhicules électriques hybrides et les véhicules à pile à combustible. Les « trois horizontaux » englobent les trois systèmes électriques : batteries, moteurs électriques et systèmes de contrôle électronique. Le scientifique en chef du projet Gang Wan déclare que si la Chine a environ vingt ans de retard sur les leaders internationaux dans le domaine des véhicules à moteur à combustion interne, l’écart dans le domaine des véhicules électriques n’est que de quatre à cinq ans.


À lire aussi : Véhicules électriques : la domination chinoise en 10 questions


L’État introduit une série de subventions spécifiques pour développer l’industrie des véhicules électriques. Un certain nombre de marques nationales apparaissent, comme BYD, qui passe de la fabrication de batteries à celle de véhicules complets. Les ventes de véhicules à énergie nouvelle en Chine atteignent, pour la première fois, le premier rang mondial en 2015. La même année, la publication du guide pour le développement des infrastructures de recharge des véhicules électriques (2015-2020) pose les fondations du plus grand réseau de recharge au monde.

La phase « mener », de 2020 à aujourd’hui

L’industrie automobile chinoise effectue un bond en avant technologique en passant des véhicules traditionnels à carburant aux véhicules intelligents à énergie nouvelle. Pour ce faire, quatre conditions sont nécessaires selon les économistes Elise Brezis, Paul Krugman et Daniel Tsiddon.

Premièrement, il doit exister un écart salarial important entre les pays leaders et les pays retardataires. Par rapport aux puissances automobiles établies, la République populaire de Chine affiche toujours une différence significative en matière de coût de main-d’œuvre par véhicule. Selon les derniers chiffres de la société de conseil Oliver Wyman, les constructeurs automobiles chinois engagent des dépenses de main-d’œuvre de 597 dollars par véhicule contre 769 dollars au Japon, 1 341 dollars aux États-Unis, 1 569 dollars en France et 3 307 dollars en Allemagne.

Deuxièmement, les technologies émergentes présentent initialement une efficacité relativement faible. Le secteur des véhicules électriques est confronté à des difficultés importantes à ses débuts. On peut citer, par comme exemple, la Roadster, première voiture électrique pure de Tesla, et la F3DM, première voiture hybride rechargeable au monde de BYD.

La nouvelle voiture électrique BYD Atto 1, lancée en Indonésie, est présentée au Salon international de l’auto 2025 de Gaikindo Indonésie (GIIAS), le mardi 29 juillet 2025. fotopix/Shutterstock

Troisièmement, l’expertise acquise dans la recherche et le développement des réservoirs, des moteurs et des boîtes de vitesse des véhicules à combustion interne ne peut pas être appliquée aux trois systèmes électriques des véhicules à énergie nouvelle. Créée en 2011, l’entreprise Contemporary Amperex Technology Co. Limited (CATL) n’a aucune expérience dans le domaine des véhicules à combustion interne, mais elle devient en seulement six ans le leader mondial des batteries électriques avec, actuellement, 37,5 % de parts de marché.

Quatrièmement, les technologies des véhicules à énergie nouvelle arrivées à maturité améliorent la productivité dans trois domaines : l’optimisation des coûts, l’accélération de la recharge et la création de futures applications.

« Dépasser en changeant de voie »

De ses débuts où elle suivait le rythme des normes internationales jusqu’à sa position de leader mondial, l’industrie automobile chinoise suit une trajectoire complète consistant à éviter les écueils, à tirer parti de ses atouts et à réaliser des bonds en avant. Cette logique, nommée en Chine « dépasser en changeant de voie », fait écho aux principes de l’innovation disruptive proposés par l’universitaire Clayton Christensen.

Néanmoins, le développement futur du secteur automobile chinois reste semé d’embûches. La concurrence « involutive » est devenue un obstacle majeur pour la pérennité de l’industrie. Les entreprises chinoises de véhicules à énergie nouvelle, impactées par la concurrence nationale et les droits de douane, accélèrent leur expansion à l’étranger tout en étant confrontées à un double défi matériel et culturel.


Cet article a été corédigé par Yuzhen Xie (écrivaine et conférencière), diplômée de Renmin University of China.

The Conversation

Fabien M. Gargam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.10.2025 à 15:33

Catastrophes industrielles, ferroviaires, maritimes… L’erreur individuelle existe-t-elle vraiment ?

Chauvin Christine, Professeur en ergonomie cognitive, facteurs humains, Université Bretagne Sud (UBS)
Attribuer un accident à l’erreur humaine en occulte les causes : des défaillances systémiques, un enchaînement de décisions aux différents niveaux d’une organisation.
Texte intégral (1848 mots)

L’erreur humaine est considérée comme un facteur déterminant dans la survenue d’accidents majeurs. Elle a été ainsi désignée comme une cause principale dans le naufrage du « Titanic », l’explosion de l’usine de pesticide de Bhopal, l’explosion du réacteur de Tchernobyl ou encore la collision aérienne de Tenerife. Lorsque de tels accidents surviennent, les médias mettent souvent en exergue l’erreur commise par l’équipe ou l’opérateur qui pilotait le système et l’associent parfois à la responsabilité individuelle d’une personne. Est-ce vraiment pertinent ?


Prenons l’exemple de la collision frontale entre un train de voyageurs et un convoi de marchandises survenue en Grèce, dans la nuit du 28 février au mercredi 1er mars 2023. Faisant 57 morts et 81 blessés graves, c’est l’accident ferroviaire le plus meurtrier qu’a connu la Grèce. Dans un article paru le 1er mars, le lendemain de la catastrophe, le journal le Monde titrait Accident de train en Grèce : le premier ministre pointe « une tragique erreur humaine », puis précisait plus loin que le chef de la gare de Larissa avait été arrêté et était poursuivi pour « homicides par négligence ».

Deux trains avaient circulé pendant plus de dix minutes sur la même voie, en sens opposé, sans qu’aucun système d’alarme ne soit déclenché avant la collision. Le rapport d’enquête rédigé par la HARSIA (Hellenic Air & Rail Safety Investigation Authority, l’équivalent du Bureau d’enquêtes sur les accidents de transport terrestre en France ou BEA-TT), publié le 27 février 2025, montre que la cause immédiate de l’accident est une erreur d’aiguillage. Le train de passagers IC 62 en provenance d’Athènes aurait dû rester sur la voie principale (ascendante), mais le chef de gare orienta l’aiguillage vers la voie descendante qui était occupée par un train de fret venant en sens inverse.

Malheureusement, le chef de gare ne détecta pas cette erreur et il n’y eut pas de communication claire avec le conducteur du train qui aurait permis de l’identifier. En effet, le chef de gare donna un ordre ambigu qui ne mentionnait pas la voie qu’allait emprunter le train. Le conducteur aurait dû répéter l’ordre en demandant au chef de gare de préciser la voie (ascendante ou descendante). Il s’agit de la procédure dite de « readback/hearback » qui consiste à répéter et à confirmer chaque instruction critique pour éviter tout malentendu. De plus, le conducteur aurait dû contacter le chef de gare lorsqu’il a constaté qu’il ne se trouvait pas sur la voie montante.

Le rapport met en évidence les circonstances dans lesquelles cette erreur a été commise (notamment la charge de travail élevée du chef de gare, un pupitre de contrôle comportant de nombreuses commandes et informations). De plus, il fait ressortir les défaillances du système ferroviaire grec comme constituant des facteurs sous-jacents (infrastructure dégradée et insuffisamment entretenue, sous-effectif chronique, absence de maintenance préventive des dispositifs de contrôle-commande et de la signalisation, problème de formation et de gestion des compétences des personnels, défaillance du système de communication, absence de retour d’expériences qui aurait permis d’apprendre des incidents et accidents passés).

Les auteurs de ce rapport n’examinent donc pas seulement les activités du chef de gare et du conducteur de train ; ils s’intéressent aussi aux décisions d’acteurs institutionnels : la compagnie ferroviaire chargée de l’exploitation des trains, l’entreprise publique gestionnaire du réseau ferré et, donc, l’État.

Cet accident a entraîné de nombreuses manifestations en Grèce ; les manifestants pointant les dysfonctionnements du réseau ferroviaire. Le chef de gare de Larissa a été le premier à être placé en détention provisoire, puis trois autres employés des chemins de fer ont été poursuivis pour « homicide involontaire par négligence ». Le 15 septembre 2025, le procureur d’appel de Larissa a demandé, à l’issue d’un rapport de 996 pages, que 33 autres personnes soient renvoyées devant la cour d’assises. Il s’agit d’acteurs opérationnels ou administratifs responsables de la sécurité ferroviaire.

Cet exemple montre qu’il est important, lors d’un accident majeur, d’opérer un déplacement de point de vue :

  • ne plus se focaliser sur l’opérateur, mais examiner l’ensemble des éléments qui compose le système au sein duquel il opère ;

  • ne plus se focaliser sur l’action ou sur la décision d’un opérateur « de première ligne », mais considérer l’impact des décisions prises à tous les niveaux d’une organisation.

Erreur humaine ou défaillances systémiques ?

Nombre de travaux menés depuis la Seconde Guerre mondiale invitent à considérer une action erronée non pas comme une action fautive, mais comme le symptôme d’une mauvaise adéquation entre les capacités de l’opérateur et les caractéristiques de sa situation de travail.

En 1990, le psychologue anglais James Reason publie un ouvrage de référence intitulé Human Error dans lequel il distingue les « erreurs actives » et les « erreurs latentes » ou « conditions latentes ». Les premières ont un effet immédiat. Il s’agit d’actions « erronées » commises par les opérateurs « de première ligne ». Les secondes sont présentes au sein du système depuis parfois de nombreuses années, mais sont « dormantes ». Elles se développent à partir d’activités humaines éloignées de l’activité qui déclenche le dommage (activités de conception, de maintenance, management). C’est en se combinant à d’autres facteurs qu’elles se révèlent et contribuent à l’accident.

Nous avons utilisé ce cadre pour analyser des collisions entre navires. L’analyse menée fait apparaître trois grandes classes d’accidents.

La première classe est typique d’accidents qui surviennent dans des eaux dites « resserrées » (des chenaux principalement) alors qu’un pilote se trouve à bord du navire. Les principaux facteurs d’accidents sont des problèmes de communication (entre navires et au sein de l’équipage). Ce résultat met en exergue l’importance des formations au travail d’équipe, tout particulièrement pour les situations dans lesquelles un pilote doit interagir avec le commandant et l’équipage du navire. Ce facteur fait écho à l’ambiguïté de la communication entre le chef de gare et le conducteur de train qui participa à la collision ferroviaire de Larissa.

La deuxième classe d’accidents résulte de l’interaction de facteurs appartenant à différents niveaux du système : mauvaise visibilité et non-utilisation ou mauvaise utilisation des instruments, planification d’opérations inappropriées à la situation – comme une vitesse excessive au regard des conditions extérieures ou un nombre insuffisant de personnes affectées à la tâche (facteurs relevant du leadership), système de management de la sécurité incomplet (facteur organisationnel).

La troisième classe d’accidents se caractérise, quant à elle, par le non-respect du système de management de la sécurité ; il s’agit, dans ce cas, de violations (erreurs intentionnelles) relevant du leadership.

De l’analyse des erreurs à l’analyse des décisions

Jens Rasmussen, qui fut l’un des chercheurs les plus influents dans le domaine de la sécurité et de l’étude de l’erreur humaine, explique que la notion d’erreur (supposant un écart à une performance définie) n’est pas vraiment pertinente, parce qu’elle entre en contradiction avec la capacité d’adaptation humaine, avec le fait que les acteurs – au sein d’un système – ont une certaine liberté dans la façon de réaliser leur activité et peuvent ainsi opter pour différentes stratégies.

Adaptation et variabilité sont même nécessaires pour garantir la performance des systèmes. S’intéressant aux interactions « verticales » au sein d’une organisation, Rasmussen propose d’identifier tous les acteurs (acteurs étatiques, législateurs, syndicats, concepteurs de système, dirigeants d’entreprises, managers, opérateurs) dont les décisions ont contribué à l’accident ; il souligne que les contraintes et possibilités qui s’imposent à un acteur donné et à un niveau donné dépendent de décisions prises par d’autres acteurs.

Dans le secteur de la pêche maritime, il est intéressant d’analyser l’impact des décisions prises par les législateurs (au niveau national et international) sur les choix réalisés par les concepteurs des navires et des équipements et, finalement, sur les pêcheurs eux-mêmes. Ainsi plusieurs études ont examiné l’impact, sur la sécurité des marins-pêcheurs, du type de quotas de pêche (quotas individuels qui donnent à un opérateur le droit de prélever une quantité déterminée de poissons sur un stock ou quotas collectifs). D’une façon générale, l’allocation individuelle de quotas réduit la « course au poisson » et diminue les prises de risque.

Dans la lignée de ces travaux, nous avons montré que la législation impose aux marins-pêcheurs des contraintes qui ont une forte incidence sur leurs décisions, sur les arbitrages qu’ils font au quotidien et sur la prise de risque.

Il est nécessaire d’adopter une perspective systémique pour comprendre la survenue des accidents. Dans ce cadre, il apparaît plus pertinent de s’intéresser aux décisions des différents acteurs d’un système, et aux interactions entre ces décisions, qu’aux erreurs qu’ils peuvent commettre.

The Conversation

Chauvin Christine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.10.2025 à 15:01

Pop culture sud-coréenne : les raisons d’un succès mondial

Sylvie Octobre, Chercheuse, Ministère de la Culture
Vincenzo Cicchelli, Maître de conférences en sociologie, Université Paris Cité
Le soft power coréen se distingue par des caractéristiques originales et, en particulier, par la diversité des produits culturels qu’il recouvre.
Texte intégral (1748 mots)
Les héroïnes de _KPop Demon Hunters_ (2025), pop stars et chasseuses de démons. Netflix

La « hallyu » (ou, vague coréenne) désigne la diffusion mondiale de la culture sud-coréenne depuis la fin des années 1990. Elle englobe la popularité croissante de la musique K-pop, des dramas coréens, du cinéma, de la mode, de la cuisine et même des jeux vidéo et des cosmétiques provenant du sud de la péninsule. Ce phénomène, soutenu par Internet et les réseaux sociaux, a permis à Séoul de renforcer son influence culturelle et économique internationale. Mais comment expliquer un succès aussi durable et aussi général ?


En 2021, la série Squid Game, distribuée par Netflix dans 190 pays, bat des records d’audience avec 266 millions de vues et remporte 52 prix de la critique pour la saison 1. En 2025, le film d’animation musicale K-pop Demon Hunters explose les compteurs de la plate-forme (avec 236 millions de vues depuis sa sortie en août, ce qui en fait le film le plus regardé de tous les temps sur Netflix), tandis que le single principal du film Golden occupe les premières des charts partout dans le monde et atteint 503 millions de streams sur Spotify.

Ces deux succès d’audience et de critique ne sont pas des phénomènes isolés : ils font partie de la Hallyu (ou K-Wave), vague de produits culturels sud-coréens qui déferlent depuis plus de deux décennies sur le monde et modifient les équilibres en matière de production et consommation culturelle, en défiant la domination d’anciens centres dans les domaines aussi bien esthétique qu’économique. L’une des caractéristiques les plus remarquables de cette vague est sa diversité : Squid game fait de la critique du capitalisme débridé et des inégalités qui en découlent son message principal, tandis que K-pop Demon Hunters raconte l’histoire fantastique d’un groupe de trois jeunes filles, membres d’un groupe de K-pop féminin le jour et chasseuses de démons la nuit

La consommation de la différence

Comment comprendre cet attrait international pour les produits culturels d’un « petit » pays ? Les explications culturalistes qui renvoient alternativement au registre de la proximité ou de la distance préexistante entre les contenus des produits et la culture audiences sont inopérantes pour l’expliquer.

L’argument de la proximité ne peut rendre compte d’un succès mondial, car celle-ci est par nature variable d’une aire géographique à une autre, et les produits sud-coréens peuvent bien paraître « familiers » ou « proches » aux pays voisins – Japon et Chine (exception faite des conflits de mémoire qui continuent de les opposer) – et « lointains » de la France, qui n’a pas de lien historique avec la Corée du Sud, accueille une diaspora sud-coréenne très minoritaire (quelques dizaines de milliers de personnes seulement) et est dotée d’un terreau culturel assez étranger au néoconfucianisme de la Corée du Sud.

L’explication par la distance « exotique » ne rend pas non plus compte de l’attrait international envers les produits sud-coréens, tant la Corée du Sud projette l’image d’un pays moderne, que l’on considère ses indicateurs économiques, ses performances dans le domaine éducatif ou ses avancées technologiques.

Il importe par conséquent de chercher d’autres explications à cette appétence qui relève plutôt d’un penchant pour la consommation de la différence, ce goût des autres étant devenu le moteur du consumérisme moderne, notamment dans les jeunes générations. Se manifestant dans les paysages, la langue et les traits anthropologiques, cette différence réside également dans le cas des produits sud-coréens dans la présentation d’une modernité critique mais non désenchantée (car la résolution des tensions entre l’individu et le collectif est possible), qui semble savoir concilier les legs du passé et les enjeux du présent (comme en témoigne le genre sagueuk, qui, tout en traitant des contenus historiques, aborde souvent des sujets modernes, comme la place des femmes, l’inclusion des classes laborieuses, etc.). Cette modernité est présentée comme une alternative à ses concurrentes occidentales (notamment états-uniennes) et orientales (notamment chinoises et japonaises) qui, chacune à leur manière, cherchent à faire prévaloir un récit hégémonique.

Du soft au « sweet power »

La hallyu a souvent été prise en exemple du déploiement de ce qu’il est convenu d’appeler le soft power. En effet, les produits audiovisuels sud-coréens, le plus souvent assortis d’une image fun, cool et innovante, ont permis de faire connaître un pays, jusqu’alors resté marginal dans la globalisation de la culture et des imaginaires.

Néanmoins, à la différence des vagues culturelles dominantes, et notamment de la vague états-unienne, la hallyu n’ambitionne pas de coréaniser le monde ni de diffuser une « Korean way of life ». Au contraire, les standards des productions audiovisuelles sud-coréennes sont de plus en plus réappropriés par les industries internationales. Alors que Squid Game a été écrit, réalisé (par Hwang Dong-Hyuk) et produit en Corée du Sud (par Siren Pictures Inc, basée à Séoul), K-pop Demon Hunters est écrit, réalisé (par Maggie Kang et Chris Appelhans, basés à Hollywood et Los Angeles) et produit aux États-Unis (par Sony Pictures Animation). Le « K » n’est donc plus seulement l’indicateur d’une nation mais d’une esthétique qui lui échappe à mesure que son succès s’accroît.

Le soft power culturel de la Corée du Sud prend donc un visage particulier. D’abord, il ne s’accompagne pas du déploiement d’un hard power de type militaire (comme cela a été le cas pour les États-Unis, dont les marques globales ont fait irruption sur le marché européen et japonais après la Seconde Guerre mondiale, parallèlement à une forte présence militaire), alors même que la Corée du Sud est, dans les faits, une puissance militaire.

Il ne réactive pas non plus des souvenirs douloureux d’un passé impérialiste ou colonial (comme cela a pu être le cas des produits culturels japonais en Asie de l’Est), puisque la Corée a plutôt été une terre de conquête et qu’elle subit encore les attaques régulières de la Corée du Nord, pays avec lequel la paix n’a jamais été signée.

Ensuite, le succès de la hallyu n’est pas instrumentalisé par le gouvernement sud-coréen dans des rapports de forces géopolitiques et géoéconomiques, comme pouvait l’être l’arrivée massive de produits états-uniens en France après la Seconde Guerre mondiale, dans le cadre du règlement de la dette de guerre française (accords Blum-Byrnes de 1946). C’est pourquoi nous avons proposé de désigner cette forme originale de soft power par le terme de sweet power. Bien entendu, le sweet power reste inscrit dans un rapport de force, comme les réactions de rejet qu’il suscite, notamment chez les anciens dominants, l’indiquent : la Chine bloque régulièrement l’importation des produits sud-coréens pour défendre son nationalisme culturel, de même que des mouvements anti-coréens ont vu le jour au Japon et aux États-Unis depuis le succès de la hallyu.

Un exemple de globalisation alternative

Ce sweet power naît dans le cadre d’une transformation de la globalisation de la culture, devenue une mosaïque culturelle. La domination des acteurs historiques de la globalisation de la culture est en effet battue en brèche par l’émergence de nouveaux centres de production, qui ont connu une forte élévation des niveaux de vie et de consommation de leurs populations désormais démographiquement dominantes dans les équilibres mondiaux.

Elle l’est aussi via la prolifération des plates-formes numériques (YouTube, Netflix, Naver, Viki, iQIYI, Disney +, Prime Vidéo, Rakuten, etc.) et par l’essor concomitant des réseaux sociaux (Tik Tok, We Chat, KakaoTalk, LINE, etc.) qui permettent à des productions locales de toucher rapidement une audience globale.

La globalisation culturelle ne correspond donc plus à la diffusion unidirectionnelle des modèles occidentaux vers le reste du monde et la hallyu s’inscrit dans une histoire qui a vu se succéder la vague des films de Hongkong, de Bollywood et de Nollywood, mais également les anime japonais, les télénovelas brésiliennes, les diziler turcs, etc. La globalisation de la culture devient donc multipolaire, même si tous les pays producteurs ne disposent pas des mêmes ressources pour promouvoir leurs contenus culturels, leurs styles, leurs imaginaires et leurs récits.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

13.10.2025 à 12:25

Derrière la promesse d’autonomie du travail hybride, de vrais risques de surcharge cognitive

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Offrant flexibilité, autonomie et meilleure articulation des temps de vie, l’hybridation est source d’une hyperconnectivité, propice à la surcharge cognitive.
Texte intégral (1608 mots)

La multiplication des outils numériques peut produire de nouvelles formes de stress au travail, quand ils sont utilisés dans le cadre du travail hybride. Quelles en sont les raisons ? Comment y remédier ?


L’hybridation s’est pérennisée et apparaît comme une forme durable d’organisation du travail. Près de 75 % des cadres adaptent désormais leurs jours de télétravail à leurs missions. Ce mode d’organisation est désormais incontournable, car de nombreux salariés et notamment les cadres : 67 % d’entre eux déclarent qu’ils seraient mécontents d’une réduction du télétravail et 82 % d’une suppression. Du côté des employeurs, 70 % des entreprises privées de plus de 250 salariés, révèlent que ne pas proposer le télétravail constitue un frein pour le recrutement d’après l’étude APEC de mars 2025 Il s’agit d’un élément fort de la marque employeur.

L’hybridation recouvre plusieurs réalités : le nomadisme, le travail à domicile, le coworking. Il offre une forme de flexibilité dans l’organisation et une meilleure articulation des temps de vie. Pourtant, derrière cette apparente flexibilité se cache cependant une hyperconnectivité. L’hyperconnectivité correspond à un usage important des outils numériques notamment en dehors de toute obligation contractuelle et durant une amplitude horaire excédant les dispositions acceptables et décrites dans le Code du travail.


À lire aussi : Le télétravail est-il devenu le bouc émissaire des entreprises en difficulté ?


L’usage des outils numériques accroît la porosité entre les sphères privée et professionnelle particulièrement en situation hybride, pouvant ouvrir la voie à des troubles psychosociaux, comme le stress chronique, l’isolement ou l’épuisement. De nouvelles formes de harcèlement peuvent également se révéler à distance, associées au technostress.

Le multitâche : juste une illusion, à peine une sensation

C’est une forme de « servitude volontaire » qui contribue à cette hyperconnectivité et augmente l’amplitude des journées de travail – parfois sans même que les télétravailleurs en aient conscience. L’hyperconnectivité correspond à un usage important des outils numériques notamment en dehors de toute obligation contractuelle et durant une amplitude horaire excédant les dispositions acceptables et décrites dans le Code du travail.

Face à l’accélération de ces sollicitations numériques constantes, certains s’imposent un autocontrôle constant pour être capables de répondre à tout, à tout moment, dans un souci de performance ou de reconnaissance, soumis à des injonctions de disponibilité et de réactivité. Les sollicitations en visio et demandes de reporting augmentent (observatoire du télétravail).

Certains souffrent d’une forme de syndrome du bon élève ! Ceci pourrait soulever des problèmes de santé au travail.

Les limites du cerveau humain

Pour faire face aux exigences de ces environnements hyperconnectés, notre cerveau sollicite intensément ses réseaux attentionnels, notamment ceux de la vigilance. Cela entraîne des situations de « multitâche » auxquelles il est en réalité très mal adapté. Contrairement aux idées reçues, notre cerveau n’est pas multitâche, il ne traite pas les informations en parallèle, mais en série, c’est-à-dire l’une après l’autre, en basculant rapidement entre elles. S’il est extrêmement rapide et puissant, capable de passer d’une tâche à l’autre en quelques dizaines de millisecondes, cela n’est pas sans coût.

Chaque changement demande une réinitialisation coûteuse en énergie mentale. Plus les interruptions s’enchaînent, surtout lorsqu’elles échappent à notre contrôle, plus ce « carburant attentionnel » s’épuise vite. Comme une voiture qui consomme davantage en ville qu’à vitesse constante, notre cerveau brûle son énergie à force de passer d’un mail à une réunion, d’une notification à un rapport. La conséquence de ce phénomène ? Nous nous épuisons plus vite et commettons davantage d’erreurs. Il est donc plus que temps, d’une part, de prendre conscience des contraintes neurobiologiques de notre cerveau afin d’améliorer les méthodes de travail en mode hybride, et d’autre part, de développer les compétences nécessaires pour mieux collaborer.

D’ailleurs, une étude menée auprès de plus de 1500 étudiants montre que 63 % pensent pouvoir gérer plusieurs tâches simultanément. Pourtant, lorsque des étudiants bénéficient d’un apprentissage explicite et d’une mise en situation concrète, ils ne sont plus que 22 % à maintenir cette croyance.

Xerfi Canal 2022.

Former à l’attention : une urgence dans un monde fragmenté

Des programmes existent pour renforcer certaines compétences mentales clés :

  • la flexibilité cognitive : capacité à passer d’un objectif à un autre rapidement ou encore à envisager un sujet sous différents angles ;

  • le monitoring attentionnel : capacité à suivre, modifier et améliorer ses stratégies attentionnelles ;

  • la réactivité : capacité à réagir rapidement face à des situations ou sollicitations inattendues et à ajuster ses priorités en fonction ;

  • la planification : capacité à hiérarchiser des tâches et à les effectuer dans le temps imparti tout en respectant les délais.

Ces compétences permettent de mieux s’adapter à l’environnement numérique, de limiter la surcharge et de préserver l’énergie mentale.

Un cadre à rappeler collectivement

Les risques posés par le travail numérique ont été pris au sérieux par les pouvoirs publics. Dès 2015, le rapport Mettling s’est intéressé à la transformation numérique et préconisait de « compléter le droit à la déconnexion par un devoir de déconnexion du salarié ». Le droit à la déconnexion a ensuite été inscrit dans la loi du 8 août 2016 (article L. 2242-17 du Code du travail). Il garantit aux salariés la possibilité de ne pas être sollicités en dehors des horaires de travail. Ce droit est une protection contre les dérives de l’hyperconnexion.

L’employeur encourt d’ailleurs des sanctions pénales (emprisonnement et amende) s’il n’a pas respecté son obligation de négocier sur la qualité de vie au travail incluant le droit à la déconnexion (art. L.2243-2). Il s’agit d’organiser la déconnexion par accord, charte, notes de service en formalisant une utilisation responsable des outils de travail à distance, en permettant le respect des horaires légaux et des temps de pause (déconnexion automatique avec envoi différé des mails par exemple).

La culture du résultat doit ainsi prendre le pas sur celle du présentéisme. Les managers doivent veiller à :

  • évaluer la charge réelle de travail,

  • organiser les conditions d’exercice à distance,

  • repérer les éventuelles inégalités entre collaborateurs,

  • mesurer et prévenir aux risques psychosociaux.

Au-delà de la liberté promise, une nouvelle forme d’aliénation numérique se développe en mode hybride. Malgré des perspectives encourageantes en matière d’organisation des temps de vie, il impose en contrepartie une vigilance accrue quant à ses impacts sur la santé mentale et cognitive des travailleurs.

Former à l’attention, reconnaître les risques de surcharge, garantir un droit effectif à la déconnexion : autant de conditions indispensables pour que flexibilité ne rime pas avec épuisement.

Sans accompagnement, sans régulation, sans pédagogie, l’épuisement cognitif présente un risque pour la santé mentale des télétravailleurs.

Travailler en mode hybride, oui mais à condition de veiller à notre santé mentale !


Cet article a été rédigé avec Dr Nawal Abboub, cofondatrice et directrice scientifique de Rising Up et cocréatrice du Core Skills Scan.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

7 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞