05.05.2025 à 11:46
Sophie Hennekam, Associate Professor in Human Resource Management, specialized in Diversity Management, Audencia
La cause : elles sont moins portées à négocier des arrangements personnalisés ou des « i-deals » (Idiosyncratic Deals Employees) avec leur (futur) employeur.
Le 10 avril dernier, le secrétaire à la santé états-unien Robert Kennedy Junior a annoncé qu’une étude menée par les autorités sanitaires permettrait d’établir les causes de l’« épidémie d’autisme, d’ici septembre ». Dans le cadre de son plan « Make America Healthy Again », il promet de les éliminer, en pointant du doigt la vaccination.
Une actualité qui sidère les associations états-uniennes, comme françaises, spécialisées dans le trouble du spectre de l’autisme (TSA). La Haute Autorité de santé française estime qu’environ 100 000 jeunes de moins de 20 ans et près de 600 000 adultes présentent des troubles du spectre de l’autisme. Ce dernier se caractérise par des difficultés de communication et des interactions sociales. Des difficultés pouvant mener ces personnes à quitter le marché du travail.
Des pratiques de travail flexible pourraient faciliter les choses pour les personnes autistes. Paradoxalement, de nombreuses recherches que nous allons détailler, montre qu’elles sont moins susceptibles d’obtenir cette flexibilité, au contraire de leurs collègues non autistes. Pourquoi ? En menant 300 enquêtes qualitatives et douze entretiens avec des personnes autistes occupant un emploi, nous mettons en lumière l’importance des accords idiosyncrasiques, i-deals (Idiosyncratic Deals Employees) ou arrangements, qui pourraient les aider au travail.
Alors, comment créer des arrangements de travail personnalisé, négocié entre un employé et employeur, pour les personnes présentant un trouble du spectre autistique ?
Selon l’Organisation mondiale de la santé (OMS), on estime qu’environ une personne sur cent est autiste dans le monde. Cette population est confrontée à de grandes difficultés sur le marché du travail, telles que le chômage et le sous-emploi). Pour améliorer cette situation, ils bénéficieraient grandement de la flexibilité. Le premier pas : répondre aux questions quand, comment, avec qui et où l’on travaille. Des discussions favorisées par les arrangements personnalisés, ou i-deals (Idiosyncratic Deals Employees).
Ces accords idiosyncrasiques constituent une forme de soutien individuel pour répondre aux besoins, aux désirs et aux aspirations de divers groupes de travailleurs. Ces accords individualisés peuvent être utilisés pour modifier les conditions de travail ou d’emploi, afin de s’adapter aux besoins individuels d’une personne. L’objectif : créer un meilleur équilibre pour répondre à la fois à ses propres besoins et aux exigences de l’organisation. Malheureusement, l’homogénéisation des politiques et des pratiques en matière de ressources humaines n’a pas pris en compte les besoins d’une main-d’œuvre de plus en plus diversifiée. Et ce n’est pas les politiques antidiversité et antiDEI de Trump qui vont dans ce sens…
À travers notre étude, nous constatons que les personnes autistes aimeraient bénéficier d’une certaine flexibilité en ce qui concerne la manière, le lieu, le moment et la personne avec laquelle elles travaillent. Elles préfèrent notamment des espaces calmes pour gérer leurs sensibilités sensorielles. Un tel équilibre est nécessaire pour faciliter l’emploi durable de ces travailleurs. De facto, des Arrangements personnalisés, ou i-deals, peuvent être particulièrement pertinents pour les employés autistes, dont les besoins sont susceptibles d’aller au-delà des politiques de ressources humaines standards.
Abonnez-vous dès aujourd’hui !
Chaque lundi, des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH, marketing, finance…).
Ces i-deals ont tendance à être négociés de manière informelle. Généralement, ces demandes sont initiées par les salariés eux-mêmes. La nature sociale et relationnelle de ce processus de négociation est rendue particulièrement difficile par les personnes autistes. Cela implique d’être conscient de ses besoins et de se sentir en mesure de s’engager dans ce processus de négociation. Surtout que la recherche montre que les salariés particulièrement performants, ainsi que les personnes intéressées par la domination et le pouvoir au sein des organisations, recherchent et obtiennent des i-deals.
Les personnes autistes socialisent différemment de leurs homologues neurotypiques. Elles peuvent exprimer moins d’intérêt pour le statut social, ou trouver que la dynamique du pouvoir social dans les organisations est difficile à comprendre.
Comme la socialité des personnes autistes est en contradiction avec les normes sociales neurotypiques, elles peuvent rencontrer des difficultés dans le milieu professionnel. Cela peut, à son tour, entraver leur accès aux i-deals. Comme les personnes autistes ont souvent honte de révéler leur état ou d’évoquer leurs difficultés au travail, elles ne bénéficient pas d’un soutien supplémentaire qui leur permettrait de s’orienter plus facilement. Or, les personnes qui entretiennent de bonnes relations avec leur supérieur sont plus susceptibles de créer des moments propices aux arrangements personnalisés.
La relation avec le supérieur hiérarchique est une fois de plus liée aux compétences sociales. Les salariés autistes peuvent se trouver dans une situation paradoxale. Alors qu’ils ont le plus besoin d’i-deals, notamment pour obtenir et conserver un emploi, l’inadéquation entre l’autisme et la nature relationnelle de la vie en l’entreprise peut simultanément entraver leur accès à ces arrangements personnalisés.
Bien que les i-deals peuvent conduire à des résultats positifs à la fois pour les employeurs et les employés, nous soutenons qu’il est préférable de changer les politiques et les pratiques d’une organisation pour répondre aux besoins de tous les employés. Serait-il préférable de supprimer l’accès négocié individuellement à ces Idiosyncratic Deals ?
Sophie Hennekam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.05.2025 à 11:45
Billel Ferhani, Assistant Professor, Université Paris 1 Panthéon-Sorbonne
Cela a tout de l’idée de bon sens : pour réduire les fraudes, il faut embaucher des personnes vertueuses. D’où le développement de tests censés mesurer le degré d’honnêteté des candidats pour un poste. Un processus qui pourrait être illusoire, les tests s’avérant discriminatoires et se trompant sur la cause réelle des fraudes.
Une batterie de tests préalables devrait-elle s’imposer avant un recrutement ? Certaines entreprises semblent le croire. Face à la multiplication des scandales, ces firmes pensent avoir le remède : des tests psychométriques pour détecter les « candidats les plus moraux », avant même qu’ils ne franchissent la porte de l’organisation. Une étude récente met en évidence l’essor des tests psychométriques, présentés comme des outils fiables pour évaluer compétences et traits de personnalité. Pourtant, l’analyse scientifique nuance cette confiance : leur efficacité dépend fortement de leur conception et de leur mise en application, et ils restent incapables, à eux seuls, d’assurer une prise de décision réellement éthique. Sous couvert de rigueur scientifique, ces outils prétendent filtrer les profils “à risque” et renforcer ainsi l’intégrité organisationnelle. Cette logique, c’est celle du tout prédictif.
En prétendant prédire l’éthique à travers des traits fixes, cette approche ignore une dimension centrale des décisions éthiques : les biais inconscients. Comme la montre une méta-analyse récente, ceux-ci déterminent nos comportements quand nous ne sommes même pas conscients de leur existence. Les biais implicites, ces automatismes cognitifs, influencent les jugements moraux à hauteur de 20-30 %, même chez les professionnels formés à l’éthique, et ce, sans aucune conscience des sujets.
Les outils traditionnels sont donc inadaptés pour évaluer les capacités éthiques des candidats. Derrière l’obsession de la mesure de l’éthique, des questions fondamentales se posent : l’éthique peut-elle être réduite à un score ? L’intégrité peut-elle être évaluée sans reproduire de biais sociaux, culturels, genrés ? Plus grave encore : ces pratiques détournent l’attention des véritables causes des dérives. Bien souvent, derrière ces graves dysfonctionnements « moraux » se trouvent aussi des systèmes organisationnels toxiques encourageant les comportements déviants, quelles que soient les vertus individuelles des salariés individuellement. Loin d’être une solution miracle, cette quête de « l’éthique prédictive » pourrait bien masquer une discrimination systémique, sous couvert de science et d’évidences.
À lire aussi : Éthique : comment, comme Orpea, les entreprises font peser la responsabilité sur leurs salariés
Pour détecter les candidats « intègres », « honnêtes », « transparents », les recruteurs s’appuient sur des modèles psychométriques comme les Big Five ou le modèle Hexaco, dont le facteur « honnêteté-humilité » se prétend prédictif des comportements éthiques. Selon ses promoteurs, un individu à un haut niveau d’honnêteté-humilité serait moins enclin aux comportements opportunistes, comme le mensonge ou la fraude.
Deux postulats, qui sont remis en question, permettent d’orienter cette logique. L’éthique serait une prédisposition acquise, stable et mesurable, alors que des recherches montrent que les comportements des individus dépendent largement du contexte dans lequel ils évoluent et interagissent.
En outre, l’intégrité individuelle serait un facteur suffisant afin de prévenir les dérives organisationnelles. Pourtant, les entreprises qui affichent des valeurs éthiques comme l’intégrité ou la transparence, peuvent aussi connaître des scandales, les principes étant sacrifiés sur l’autel de la performance.
Selon une analyse des cas Wells Fargo et Volkswagen, ces organisations affichaient des chartes éthiques exemplaires, mais des incitations internes ont été mises en place qui favorisaient, in fine, la fraude et les comportements opportunistes. Ce décalage entre discours et pratiques révèle une vérité gênante : les valeurs individuelles ne peuvent compenser voire faire face à des défaillances systémiques.
Ainsi, on constate que les comportements éthiques sont largement façonnés par des facteurs contextuels, comme les pressions organisationnelles ou les dynamiques de groupe. Même un candidat doté d’un profil « éthiquement exemplaire » peut adopter des comportements déviants s’il évolue dans un environnement toxique. Peut-on réellement anticiper les comportements futurs d’un individu avec un simple score ? Cette prétendue neutralité scientifique ignore les nuances de l’éthique en entreprise, qui ne se résume ni à une somme de traits de personnalité ni à un résultat figé.
Abonnez-vous dès aujourd’hui !
Chaque lundi, recevez gratuitement des informations utiles pour votre carrière et tout ce qui concerne la vie de l’entreprise (stratégie, RH marketing, finance…).
Les tests psychométriques, même s’ils sont scientifiquement valides, reposent sur des normes culturelles. L’honnêteté ou l’humilité comme on les mesure ne tiennent pas compte des différences culturelles de perception :
dans certaines cultures, la loyauté vis-à-vis du groupe prime sur la franchise envers les individus ;
l’expression des « comportements coopératifs » ou de la « modestie » varie selon les normes sociales et de genre. Pour autant, ces outils risquent de sanctionner des candidats compétents uniquement parce qu’ils ne correspondent pas à un idéal moral défini par des biais invisibles.
Une étude très récente a montré que les femmes se classaient mieux sur des items comme la modestie ou la coopération, les hommes sur l’assertivité. En valorisant certains critères au détriment d’autres, les tests psychométriques renforceraient ainsi les inégalités structurelles sous couvert de critères « objectifs ». Par exemple, dans un contexte de recrutement pour des postes de direction, une forte assertivité est souvent perçue comme un atout, tandis que la coopération est davantage valorisée dans des rôles de soutien. Ce biais implicite peut ainsi conduire à une sous-représentation des femmes dans les fonctions de leadership, non pas en raison d’un manque de compétences, mais parce que les critères de sélection favorisent des traits historiquement associés aux hommes.
Les personnes issues de milieux socio-économiques défavorisés et n’ayant pas été baignées dans les normes comportementales appréciées par les tests y seront forcément moins performantes. Résultat : ce type de profil se retrouverait davantage exclu avant même d’avoir eu l’opportunité de faire ses preuves. En prétendant prédire l’éthique, ne risque-t-on pas d’exclure les gens qu’on prétend évaluer ?
L’éthique est avant tout systémique. Les récentes dérives médiatisées (Wells Fargo, Volkswagen…) mettent en scène un paradoxe : la personne n’est pas toujours le principal responsable des dérives. Prenons l’exemple de Wells Fargo : des milliers d’employés y ont ouvert des comptes inexistants poussés par des objectifs commerciaux délirants. Le problème ne venait pas de la « toxicité » des individus, mais d’une culture managériale qui valorisait seulement la performance.
Chez Volkswagen, la fraude aux émissions polluantes n’a pas été commise par quelques « moutons noirs » mais par une direction qui a piloté la fraude pour contourner la réglementation. Là encore, ce n’est pas l’échec des employés, mais d’un système qui a délibérément sacrifié l’éthique au profit de la rentabilité. Si l’éthique ne peut se résumer à des traits de caractère, elle est façonnée par les environnements organisés, les leaders et les politiques internes. Croire qu’il suffira de filtrer les candidats « vertueux » relève au mieux de la naïveté.
Les tests psychométriques vendent une illusion : l’idée d’une éthique mesurable, prévisible et maîtrisable. Mais cette vision simpliste cache de nombreux dangers : biais cachés, exclusions injustifiées et détournement des vraies responsabilités. Plutôt que de chercher à détecter les candidats « parfaits », les entreprises devraient :
faire évoluer leur culture, pour valoriser la transparence, la responsabilité et la vertueuse exemplarité de leurs dirigeants ;
modifier leurs pratiques de management, pour que la pression de performance ne relègue pas la morale au second rang ;
former leurs employés aux dilemmes moraux, pour reconnaître que l’éthique se forge dans l’action et le contexte, pas dans un questionnaire.
L’éthique ne se décrète pas, elle se fait. Les entreprises ne doivent pas se tromper de cible : il ne s’agit pas de changer les candidats, mais les systèmes qui les accueillent.
Billel Ferhani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
05.05.2025 à 08:43
Kathleen Desveaud, Docteur en sciences de gestion, professeur de marketing, Kedge Business School
L’intelligence artificielle promet un soulagement face à l’ennui des tâches répétitives au travail, mais son usage excessif pourrait entraîner une déqualification progressive et une nouvelle forme de frustration professionnelle. Entre automatisation bénéfique et risque de « travail zombie », comment faire de l’IA un allié du développement des compétences plutôt qu’une source d’appauvrissement cognitif ?
L’impact de l’intelligence artificielle (IA) sur les métiers est un sujet majeur, qui a été traité dans de nombreuses études. Si la question de la disparition des emplois retient souvent l’attention, une autre question de fond mérite d’être considérée : comment ces technologies transforment et transformeront-elles concrètement le quotidien, les compétences et la motivation des travailleurs ?
L’IA est parfois présentée comme un parfait remède au bore-out, ce syndrome d’épuisement et de désengagement professionnel causé par l’ennui. Le bore-out touche de nombreux salariés contraints d’effectuer des tâches monotones et intellectuellement peu stimulantes. En pratique, ce phénomène apparaît lorsque les compétences d’un employé sont sous-exploitées : passer ses journées à copier-coller des données dans Excel ou à réaliser des tâches administratives répétitives finit par miner la motivation.
Face à cela, l’IA émerge comme une solution prometteuse, grâce à sa capacité à automatiser les tâches répétitives. Libérés de ces activités fastidieuses, les travailleurs peuvent alors voir leur temps de travail réduit, ce qui permet de diriger leur énergie vers des missions plus créatives. Ainsi, une enquête récente révèle que 63 % des salariés français estiment que l’automatisation aide à lutter contre la fatigue et améliore la satisfaction au travail.
À lire aussi : Intelligence artificielle : vers une destruction créatrice d’emplois
L’idée est simple : en déléguant le « sale boulot » à la machine, les humains pourraient se concentrer sur des activités plus épanouissantes et à plus forte valeur ajoutée. Par exemple, dans l’administration française, l’État expérimente l’utilisation d’un agent IA baptisé « Albert » pour assister les fonctionnaires. Cet agent est conçu pour prendre en charge les tâches administratives les plus rébarbatives comme remplir des formulaires, classer des dossiers ou traiter des demandes identiques à répétition, afin de permettre aux agents publics de se consacrer à des échanges plus personnalisés avec les usagers.
Mais ce gain de confort pourrait se retourner contre les travailleurs. En effet, les IA ne se contentent pas d’automatiser les tâches ingrates, elles suppriment aussi des opportunités d’apprentissage par la pratique. Peu à peu, les compétences s’érodent et la motivation en pâtit.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
On parle alors de syndrome de déqualification (deskilling syndrome), défini comme le remplacement de travailleurs qualifiés par d’autres moins qualifiés, ou la réduction des opportunités d’exercer leurs compétences. En s’appuyant régulièrement sur l’IA, les travailleurs perdent leurs compétences par manque de pratique.
Par exemple, une étude académique récente rapporte des cas d’entreprises où l’automatisation a rendu des comptables incapables d’effectuer certaines tâches clés comme la rédaction de rapports fiscaux conformes. Ce phénomène, qualifié de « cercle vicieux de l’érosion des compétences », se manifeste lorsque les employés deviennent excessivement dépendants de la technologie. Cette dépendance engendre une diminution de la réflexion critique et de la compréhension des processus sous-jacents, ce qui a de vrais effets sur l’engagement des employés.
De plus, quand la performance des IA est bonne, les entreprises sont tentées de recruter des travailleurs moins qualifiés car moins coûteux, ce qui peut poser un vrai problème, surtout dans des secteurs particulièrement sensibles. Prenons l’exemple de la santé. Il a été démontré que les IA étaient plus performantes que les médecins pour identifier une pathologie comme le cancer du sein à partir d'une mammographie. Naturellement, l’imagerie médicale a été l’une des premières applications pratiques de ces IA de reconnaissance d’image. Si cela a aidé dans la réalisation de diagnostics, on constate cependant un phénomène de déqualification potentiellement dangereux, comme l’explique ce médecin radiologue dans ce thread X :
De plus, ces pertes de compétences entraînent une vraie perte d’autonomie et une dépendance cognitive : la dépendance à l’IA peut éroder des compétences cognitives essentielles comme la pensée analytique ou la résolution de problèmes.
Ainsi, paradoxalement, alors que l’automatisation semblait initialement simplifier le travail et réduire l’ennui, elle peut par la même occasion créer une déqualification progressive, qui impacte les aptitudes cognitives et crée une nouvelle forme de frustration au travail : les salariés se sentent démotivés, vulnérables, inutiles voire incompétents.
A ce titre, une étude révèle que 42 % des managers interrogés ont abandonné leur pouvoir décisionnel au profit des systèmes d’IA après avoir pris une mauvaise décision. Le constat est alarmant : face à l’incertitude, on préfère laisser faire la machine. Or, quand les employés ne peuvent plus utiliser et développer leurs compétences, la démotivation s’installe.
Une étude académique sur les UX designers a montré qu’avec l’IA on passe progressivement de rôles de « participation active » à des « rôles de surveillance passive ». Les employés risquent ainsi de devenir des opérateurs passifs, validant les décisions de l’IA sans implication intellectuelle. Ce risque se développe à mesure que les IA gagnent en performance. Comme le montre cette même étude, plus l’IA assume des tâches fondamentales du métier, moins les professionnels sont exposés aux processus cognitifs de leur métier.
David Graeber définissait les « bullshit jobs » comme des emplois que même ceux qui les occupent considèrent comme vides de sens. Avec l’IA, nous pourrions voir émerger une nouvelle catégorie : les « emplois assistés par l’IA » où les travailleurs deviennent de simples validateurs de ce que l’IA a produit. Ce phénomène, que Bernard Stiegler qualifiait de « prolétarisation cognitive », capture l’essence de ces savoir-faire progressivement absorbés par les systèmes techniques.
On assisterait ainsi à un nouveau type de frustration professionnelle : celle d’être réduit à un « complément humain » de la machine plutôt qu’un créateur ou un penseur autonome.
Pour échapper à cette déqualification programmée, repenser l’automatisation est crucial. L’IA doit augmenter les capacités humaines plutôt que simplement les remplacer. Cette approche nécessite d’encourager l’apprentissage continu et de valoriser l’expertise humaine.
Comme le montre la récente étude publiée dans le Journal of Marketing, les personnes qui connaissent peu l’IA sont plus enclines à l’utiliser aveuglément, la percevant comme « magique ». Il est donc nécessaire de former les salariés à ces technologies, et surtout les encourager à développer un véritable esprit critique. Il ne s’agit pas simplement de suivre les recommandations algorithmiques, mais d’apprendre à les questionner avec discernement. Cette capacité à porter un regard critique sur les résultats générés par l’IA représente une compétence fondamentale à l’ère de l’automatisation.
Ainsi, pour tirer au mieux les fruits de l’IA comme solution intéressante contre l’ennui au travail, l’enjeu est de transformer l’automatisation en un levier d’enrichissement des compétences, plutôt qu’en un facteur de dépendance et d’appauvrissement cognitif, où les employés se retrouveraient réduits à de simples validateurs de décisions automatisées.
Kathleen Desveaud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.05.2025 à 11:27
Pierre Jamet, Professeur des Universités, Université de Franche-Comté
L’environnement numérique change profondément notre façon d’écrire. Moins de règles, plus de réflexes : l’écriture devient rapide, spontanée, souvent dictée à la voix ou copiée-collée. Un nouveau chapitre d’une histoire entamée il y a plus de 5000 ans.
L’écriture naît sous le signe de l’économie et de la mémoire (comptabilité pastorale, enregistrement de dettes). Vers 3200 avant J.-C., à Sumer, les symboles écrits prirent une apparence proche de la convention abstraite (c’est l’écriture dite cunéiforme) mais l’étape capitale dans l’évolution des systèmes d’écriture apparut chez les Grecs à la fin du deuxième millénaire avant J.-C. C’est le système alphabétique.
Les symboles consonantiques d’un alphabet sémitique furent mélangés à la langue grecque pour créer des voyelles. Cette innovation eut une immense influence puisque les Romains empruntèrent ensuite l’alphabet grec pour créer celui que nous utilisons ici.
Les écrits rendaient superflue la présence du détenteur du souvenir puis se déportèrent vers l’abstraction pour représenter également des idées. Au Moyen-Âge, l’invention de la ponctuation contribua au découpage plus précis de la pensée mais il faut également dire un mot de l’importance du support. En observant les tablettes mésopotamiennes, on remarque qu’il s’agissait de plaques de glaise qui tenaient dans la main.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Or l’intérêt de la tablette moderne, numérique, est similaire : on favorise la portabilité de l’objet. Avec le papyrus apparut la possibilité de fabriquer des rouleaux qui ne révélaient encore qu’une partie du texte à la fois, comme aujourd’hui sur un écran d’ordinateur lorsque nous devons faire « dérouler » l’écran. Le parchemin, une page en peau d’animal, pliable et solide, démontra ensuite la supériorité du codex (plusieurs pages de parchemin cousues ensemble) et le codex devint le type de livre le plus répandu.
Le lecteur de codex pouvait passer d’une page à une autre en obtenant une impression d’ensemble instantanée. Le codex pouvait aussi se cacher sous les vêtements et participer de la diffusion de textes interdits.
Les formes de livres les plus populaires furent toujours celles qui permettaient de tenir le livre facilement. Le livre qui tenait dans la main est devenu propriété privée du lecteur. Après Gutenberg, l’imprimerie permit une production de livres rapide et en énormes quantités, favorisant la lecture individuelle.
De même le texte écrit en tant que tel, et non plus seulement l’objet-livre, devint propriété du lecteur au sens où il était alors commun de lire silencieusement.
On put établir en silence une relation illimitée avec les mots, qui n’occupaient plus le temps nécessaire à les prononcer et existèrent dans un espace intérieur permettant des comparaisons, accroissant la puissance de l’esprit.
Dans tout cela, on remarque un processus de dématérialisation et d’éloignement par rapport à la langue parlée qui se prolongea encore par la suite. Dès la fin du XIXe siècle, on découvrit que l’hémisphère cérébral gauche constitue la partie utilisée par le cerveau pour les fonctions de codage et de décodage.
Pour le langage, coder c’est écrire et décoder c’est lire. Nous serions donc capables de lire avant de savoir lire. Or Platon affirme que la connaissance est présente en nous avant la perception de l’objet : nous découvrons un mot parce que quelque chose lui préexiste dans le monde des Idées. Cette affirmation illustre une méfiance vis-à-vis de l’écriture. Dans le Phèdre, Socrate déclare que les mots écrits ne font que nous rappeler ce que nous savons déjà.
Pourtant, avec l’écriture, une langue objective s’est émancipée d’une langue invisible et de la voix. Cette mise au silence corrélative à un accroissement de l’esprit est fondamentale pour l’espèce humaine. Ils ont démultiplié les possibilités de la mémoire contre la disparition, l’oubli, la mort. Cette mémoire a favorisé la connaissance du monde et de nous-mêmes autant que la richesse matérielle.
Or nous pouvons constater que la somme d’information sur Internet, impossible à maîtriser individuellement, rend tous les jours plus nécessaire une hiérarchisation des données qui dépend de notre capacité à les interpréter et les classer selon des buts précis. Une « netocratie » de l’information a donc surgi, une catégorie de personnes qui tirent leur pouvoir d’un avantage comparatif en connaissances technologiques et de la mise en réseau de leurs compétences. La netocratie participe d’un nouveau rapport des forces.
Songeons aux « vérités alternatives », « fake news », « trolls » et aux tentatives parfois étatiques d’influencer numériquement les opinions publiques.
L’idée apparaît également parmi les avant-gardes de la création qu’il n’est plus nécessaire de créer des textes ex nihilo mais de savoir transférer les textes disponibles. C’est la question du copier-coller. Dans L’Ecriture sans écriture, le théoricien des avant-gardes Kenneth Goldsmith avance que le renouvellement de l’écriture rendu nécessaire par le numérique doit se faire par l’appropriation de textes existants, réarrangés voire plagiés, dans une sorte d’extension du geste devenu commun de copier-coller. La notion d’auteur et de propriété est mise en jeu.
Ce geste de régression infinie dans l’utilisation des textes et des sources va cependant à l’encontre du principe aristotélicien aristotélicien selon lequel il faut bien, quelque part, s’arrêter et toute chose a une cause première. Au contraire, la régression vers l’origine doit être infinie.
La question posée est finalement de déterminer où se trouve l’origine de l’acte créateur. Il n’y aurait donc jamais de fond et toujours une cause plus lointaine à aller chercher, celle-ci fût-elle tacite ou inconsciente, ce que la technologie rend chaque jour plus facile à vérifier.
L’écriture est donc moins liée à une authenticité de contenu qu’à son processus de production. Elle se déplace vers des pratiques toujours plus liées à une décharge pulsionnelle – on fait aujourd’hui des achats en parlant uniquement à son téléphone, actant l’annulation de l’écriture pour des transactions commerciales. Elle revient à l’oralité et à une insurrection du corps dans l’écrit : un émoticône est l’expression muette d’un affect, la multiplication des points d’exclamation réitère les signes d’un affect et la « reconnaissance vocale » permet d’en finir avec l’écriture.
Les scripteurs contemporains peuvent donc se diviser en deux classes : l’une s’apparente à un prolétariat de la consommation dont les désirs sont fractionnés, créés ou provoqués par l’autre classe, la netocratie, grâce à la publicité par exemple, sous toutes les formes subtiles que celle-ci peut prendre. L’horizon du lexique, de la syntaxe, de la ponctuation et de la grammaire recule alors au profit d’une satisfaction pulsionnelle liée à la jouissance du support technologique.
Ceux qui appartiennent à la première classe ont donc une compréhension du monde limitée à ce que veulent bien leur fournir les autres, qui sont capables de hiérarchiser (décoder) l’information et produire du sens (coder) qui correspond à leurs valeurs.
Pierre Jamet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.05.2025 à 11:24
Nora Avjin Goffre, Sociologue à l'université de Rennes 2, Université Rennes 2
Christelle Hamel, Sociologue, spécialiste de l'étude des violences contre les femmes et des discriminations, Ined (Institut national d'études démographiques)
Au procès des viols de Mazan, les figures du conjoint formidable et du père exemplaire ont souvent été mises en avant par les proches des accusés. Une « stratégie de l’homme parfait », typique des conjoints violents, qui permet aux agresseurs de tromper la vigilance de leur victime et de l’entourage, assurant ainsi leur impunité.
L’affaire des viols perpétrés par Dominique Pelicot et ses co-accusés a donné lieu à une forme de sidération collective face à ce qui a été largement vu comme un insondable paradoxe : celui du « monstre » derrière ce « Monsieur Tout-le-monde ».
Un « Monsieur Tout-le-monde » aimé et estimé de ses proches, au point que les commentaires émis par Gisèle Pelicot sur son mari lors de sa première convocation par la gendarmerie furent d’abord des éloges : il était un mari formidable et un bon père. Les attentions qu’il lui a portées pendant des années n’ont pourtant rien de paradoxal : elles sont l’arme du crime parfait, qui le plaçait au-dessus de tout soupçon.
Si Dominique Pelicot préparait les repas et les apportait au lit à son épouse, ce n’était nullement par souci d’équité domestique ni par sollicitude, mais uniquement parce que cela lui permettait de la sédater à son insu, tout en façonnant l’image d’un homme exceptionnel.
De même, l’accompagner systématiquement chez le médecin n’était pas une marque d’attention, mais visait à empêcher le corps médical de poser les questions qui auraient pu mener Gisèle Pelicot à s’interroger sur ce qu’elle ingérait – stratégie qui s’est avérée payante. Il l’accompagnait jusque dans le cabinet du gynécologue : il lui fallait en effet éviter qu’une recherche de maladie sexuellement transmissible lui soit prescrite, car cela aurait immanquablement révélé un problème, voire le problème. En accompagnant son épouse chez le gynécologue, Dominique Pelicot a empêché le gynécologue de prescrire une recherche d'IST à sa patiente. Une telle prescription aurait sous-entendu l'existence de relations extraconjugales. Or, il est très peu probable qu'un médecin s'autorise à sous-entendre l'existence possible d’adultère avec une patiente en présence de son conjoint.
Cette omniprésence qui passait pour l’attention d’un mari aimant, était en réalité l’un des rouages d’une stratégie de contrôle bien huilée, se traduisant par une intrusion dans tous les aspects de la vie de sa victime.
Tel un « pompier pyromane », il a volontairement porté atteinte à la santé de son épouse, non seulement pour la réduire à l’état d’objet sexuel, mais aussi pour se poser en sauveur, alors qu’il était en train de la tuer à petit feu.
Faire perdre toute agentivité à la conjointe est une stratégie classique du compagnon violent. La faire passer pour folle, ou sénile, en est une autre. Si elle s’était souvenu de quoi que ce soit, qui aurait cru une femme qui perd la tête ? Si elle avait succombé aux sévices de son conjoint, qui aurait suspecté autre chose que l’issue inexorable d’une maladie dégénérative ? Qui aurait soupçonné ce mari si présent pour son épouse en perte d’autonomie, dans un monde où le risque d’être quittée en cas de maladie grave est six fois plus élevé pour les femmes que pour les hommes ?
Dominique Pelicot a déployé une large gamme de l’arsenal stratégique typique des conjoints violents, et tout particulièrement celles relevant du « contrôle coercitif » : isoler son épouse, contrôler le moindre détail de son existence, dégrader son estime de soi, sa santé, la rendant ainsi dépendante et peu crédible.
Pas plus qu’ils ne sont paradoxaux, ces procédés ne sont hors norme. Nombre de ses co-accusés ont également été dépeints comme des conjoints et pères « normaux » ou « idéaux ».
Parmi les autres affaires médiatisées récemment, on pourrait citer des dizaines d’hommes s’étant soigneusement forgé une image de « saint-n’y-touche », à commencer par l’abbé Pierre, personnalité préférée des Français pendant près de vingt ans, dont 57 victimes ont fait connaître leur témoignage.
Citons également Jacques Salomé, chantre du développement personnel et de la communication non violente, accusé d’agressions sexuelles et de viols par cinq femmes, ou Pierre-Alain Cottineau, assistant familial agréé, président d’une association de défense des droits des personnes LGBT et membre d’un collectif de lutte contre les violences conjugales et familiales, mis en examen pour « viols avec actes de torture ou de barbarie » sur des enfants – dont une fillette handicapée de quatre ans – qui lui avait été confiés par les services sociaux.
Ces cas, systématiquement qualifiés de « hors norme », en raison du nombre de victimes connues et de la capacité des mis en cause à duper l’entourage, ne sont probablement que quelques arbres qui cachent la forêt des agresseurs anonymes, souvent violeurs en série, perçus comme « des hommes bien sous tous rapports ».
Or, un problème individuel de masse est un problème sociologique.
Cette stratégie est bien connue des spécialistes des violences conjugales. La psychologue Lenore Walker, qui fut la première à décrypter le cycle de la violence conjugale, Lundy Bancroft, expert des conjoints maltraitants, ou encore Evan Stark, sociologue à l’origine du concept de « contrôle coercitif », ont souligné que la dualité « Docteur Jekyll et Mister Hyde » constitue la norme chez ces hommes.
La façade « Docteur Jekyll » leur permet de gagner la confiance de leur cible, de l’entourage et, le cas échéant, de l’opinion publique. Cette vitrine d’homme sensible et attentionné, parfois fragile, bienfaiteur de la communauté, leur offre simultanément le sésame pour la commission des violences et leur impunité, car la victime passera souvent des années à tenter – en vain – de faire sens de ce « paradoxe » et, si elle parvient à s’en dépêtrer et à le dénoncer, l’entourage aura d’autant plus de mal à la croire que la magie de l’homme parfait aura opéré.
Aujourd’hui, dans un contexte de réprobation croissante du machisme, les hommes violents ont davantage recours aux procédés de mise sous emprise généralement labellisés « perversion narcissique ». À l’ère post-MeToo, les agresseurs ont intérêt à davantage recourir à des procédés comme la soumission chimique, qui semble ainsi se diffuser, car ils leur évitent de recourir à la violence physique pour contraindre leurs victimes. La soumission chimique n’est ainsi qu’une tactique de plus dans la panoplie du contrôle coercitif.
Elle leur permet de surcroît de brouiller, si ce n’est d’effacer, les souvenirs de leurs crimes. Le masque de « l’homme parfait » peut ainsi continuer à être exhibé, sans dévoiler le visage de l’homme violent – pas même à la victime. Pas vu, pas pris !
Loin de se limiter aux violences conjugales, la stratégie de « l’homme parfait » arbore, telle une hydre, d’innombrables visages.
Proposer du soutien moral, ou de l’aide matérielle, à une femme ou un enfant en difficulté fait partie des stratégies d’agressions sexuelles. Elle est par exemple utilisée par les proxénètes pour amener des adolescentes à la prostitution, ou par les pédocriminels adeptes du « cybergrooming ».
Raccompagner une femme après une soirée en prétextant vouloir s’assurer de sa sécurité dans l’objectif de créer l’opportunité du viol – voire du féminicide – repose sur des logiques analogues.
À l’instar de Dominique Pelicot, certains agresseurs jouent les pompiers pyromanes en créant de toutes pièces le problème qu’ils offrent de résoudre, dans le seul but de passer à l’acte. C’est ce qu’ont fait les violeurs et assassins de Priyanka Reddy, jeune vétérinaire indienne, en crevant les pneus de son scooter avant de lui proposer de la dépanner.
La tactique consistant à mettre en scène une détresse ponctuelle pour tendre une embuscade, comme l’a fait l’homme qui a violé la journaliste Giulia Foïs, ou à se faire passer pour vulnérable afin de susciter la pitié de leur cible, est une variante de la stratégie de l’homme parfait, en ce qu’il s’agit de tromper la vigilance de la victime.
S’engager pour les droits des femmes, des enfants ou d’autres groupes opprimés est une autre variante de la stratégie de l’homme insoupçonnable, qui fait florès depuis #MeToo. Harvey Weinstein avait lui-même soutenu publiquement des films féministes et promu des réalisatrices.
Lors de la vague féministe Ni Una Menos (« Pas une de moins ») en Amérique latine, un homme avait fait le buzz en défilant torse nu lors d’une manifestation à Santiago, au Chili, avec une pancarte « Je suis à moitié nu entouré du sexe opposé… Je me sens protégé, pas intimidé. Je veux la même chose pour elles ». Les posts de son ex-compagne le dénonçant pour violences conjugales et paternelles avaient fait nettement moins de bruit.
Toujours dans le cadre de Ni Una Menos, en Argentine, un homme avait aussi battu le pavé aux côtés de sa compagne avant de l’assassiner de 30 coups de couteaux deux ans plus tard.
Loin d’être victimes de pulsions inexplicables, ces hommes agissent au contraire de manière rationnelle et stratégique : s’ils s’adonnent aussi largement à ce double jeu, c’est parce qu’il est éminemment rentable pour eux, affirme ainsi Lundy Bancroft.
Dans son sillage, nous aimerions « que les gens ne soient pas si surpris. […] La plupart des agresseurs cultivent une image publique positive, ce qui conduit régulièrement à des cas où les observateurs disent : “Oh, j’en doute, il n’a pas du tout l’air d’être ce genre de personne.” Se donner une bonne image publique est le genre », écrit-il dans ce post de blog sur Eric T. Schneiderman, ancien procureur général de l’État de New York ayant démissionné après avoir été accusé de violences par d’anciennes compagnes.
En somme, il va falloir s’habituer aux procès « hors norme ».
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
04.05.2025 à 11:23
Marco Daturi, Professeur de chimie, Université de Caen Normandie
Christian Serre, Directeur de recherches spécialiste en chimie des matériaux, Université Paris Dauphine – PSL
Le formaldéhyde pollue l’air intérieur, car il est utilisé pour conserver le mobilier et les vêtements lors des longs voyages en bateau depuis leurs lieux de production. Il est très nocif pour la santé, mais les filtres à air le retiennent mal. De nouveaux matériaux, poreux à toute petite échelle, agissent comme des éponges et montrent une bonne efficacité de capture de ce polluant.
La qualité de l’air intérieur, invisible mais crucial, est un enjeu majeur de santé publique. Parmi les polluants les plus préoccupants figure le formaldéhyde, un composé organique volatil présent dans de nombreux produits du quotidien tels que les peintures, meubles, colles ou les produits ménagers. Bien qu’il soit souvent présent dans l’air en très faibles concentrations, à hauteur de quelques dizaines de « parties par milliards » (une molécule de formaldéhyde pour un milliard d’autres molécules), ses effets pour la santé peuvent être graves, notamment des risques accrus de cancers et d’irritations des voies respiratoires.
À l’heure actuelle, les solutions pour réduire son impact sur notre santé restent insuffisantes. En effet, les filtres traditionnels à base de charbons actifs ont des limites notables : leur efficacité décroît avec le temps et les conditions environnementales, notamment lorsque la température ambiante et l’humidité varient. Ces filtres peuvent même devenir des sources de formaldéhyde en fin de vie. Ils sont donc très limités en termes d’innocuité.
D’autres solutions pourraient être envisagées, comme l’utilisation de filtres à base de zéolithes. Cependant, ces matériaux poreux sont sensibles à la présence d’eau et sont pénalisés par des demandes en énergie considérables lors de leur régénération. La minéralisation du formaldéhyde (et d’autres polluants) à température ambiante nécessite, quant à elle, des catalyseurs à base de métaux nobles, donc très coûteux.
Bien évidemment, il serait plus judicieux de diminuer à la source ce type de polluants, mais ils sont présents de façon diffuse dans la plupart des matériaux de construction, ainsi que dans l’ameublement et les vêtements, car le formaldéhyde est un conservateur très utilisé pour éviter la formation de mousses et champignons, notamment lorsque les biens de consommation sont acheminés par bateau depuis leurs centres de production. Dans l’attente de changer notre modèle économique, il faudrait donc trouver une solution à cette pollution.
Pour chercher des solutions plus efficaces que celles qui existent, nous nous sommes penchés sur des matériaux poreux à très petite échelle (taille des « pores » de l’ordre de la molécule ou la centaine de molécules) appelés « MOF » (pour Metal-Organic Frameworks), et avons ajouté au sein des pores des fonctions chimiques particulières, les pyrazoles.
Ces matériaux hybrides, de vraies éponges moléculaires, ont montré un potentiel exceptionnel pour la capture de formaldéhyde. Ils permettent de capturer sélectivement des traces infimes de formaldéhyde en présence d’humidité, offrant une nouvelle voie pour améliorer la qualité de l’air intérieur.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Dans des espaces fermés, l’air intérieur peut être jusqu’à cinq fois plus pollué que l’air extérieur. Le formaldéhyde, présent dans presque tous les environnements intérieurs, dépasse fréquemment les seuils recommandés par l’OMS. Par exemple, dans les maisons neuves, ses concentrations peuvent atteindre entre 20 et 60 microgrammes par mètre cube d’air, voire plus de 100 microgrammes par mètres cubes d’air dans des pièces mal ventilées (pour un seuil à 100 microgrammes par mètre cube d’air pendant trente minutes).
Beaucoup de gens ne réalisent même pas que l’air qu’ils respirent chez eux peut être aussi, voire plus, pollué que celui dans une grande ville. Dans ces conditions, il n’est pas facile de réduire ce risque invisible et méconnu.
Les Metal-Organic Frameworks ou MOF sont des matériaux poreux extrêmement modulables. La découverte de ces solides poreux hybrides cristallisés a débuté il y plus de vingt-cinq ans. À l’image des Lego, ils sont constitués de briques de constructions qui peuvent être assemblées à façon en fonction des propriétés physico-chimiques recherchées. Leur production à l’échelle industrielle, ainsi que les premières applications industrielles, ont été reportées il y a quelques années et concernent essentiellement la capture du CO2, la dégradation des polluants ou le stockage de gaz.
Ces briques sont de deux types : d’une part des entités inorganiques, constituées de métaux sous leur forme cationique, et d’autre part des molécules organiques majoritairement constituées de carbone et d’oxygène ou d’azote, appelés ligands.
L’assemblage de ces deux types de briques conduit à la formation d’un réseau de pores ou cavités de taille nanométrique (un milliardième de mètre). À l’image des éponges qui peuvent stocker de l’eau dans leurs pores, les MOF sont capables de capturer une large diversité de polluants, par exemple le toluène avec une efficacité bien supérieure aux filtres classiques.
Nous avons fabriqué et testé une famille de MOF avec une brique organique très spécifique, contenant des groupements pyrazoles, qui forment des liens très forts avec les molécules de formaldéhyde et permettent ainsi de les capturer de manière très efficace.
Ainsi, l’un de nos MOF possède une capacité d’adsorption autour de 20 % en masse soit près de 2 à 3 fois plus que les filtres commerciaux, et conserve son efficacité même dans des conditions de forte humidité, typiques de nos maisons ou lorsque la température de la pièce augmente.
Nous pouvons de plus le synthétiser dans de l’eau, à pression ambiante et une température en deçà de celle de l’ébullition de l’eau, ce qui facilite sa production à grande échelle. Les premiers essais de production montrent la possibilité de fabriquer aisément des dizaines de kilogrammes de ce matériau et tout laisse à penser qu’une production à très grande échelle (1-100 tonnes) est faisable.
L’un des défis des filtres à air est leur saturation, c’est-à-dire le moment où le filtre n’est plus efficace car tous les pores sont pleins.
Les filtres actuels doivent ainsi la plupart du temps être changés et le filtre incinéré. Au contraire, le MOF que nous avons développé peut-être régénéré, c’est-à-dire que ses pores vont être vidés, en plongeant le filtre dans de l’eau à température ambiante pendant quelques heures, le formaldéhyde étant ensuite évacué dans l’évier.
De plus, notre MOF ne relâche pas de formaldéhyde en deçà d’une température de 75 °C – alors que d’autres relarguent toutes les molécules polluantes accumulées à des températures plus basses, ce qui peut résulter en un « pic de pollution » plus important que dans les conditions initiales où le polluant est diffus. Pour donner une idée, dans une voiture en plein été, les températures peuvent varier drastiquement entre son utilisation avec la climatisation (20 °C) et à l’arrêt en plein soleil, où la température peut se rapprocher des 50 °C.
Enfin, ce nouveau MOF est très « sélectif », c’est-à-dire que son efficacité de capture du formaldéhyde est très peu impactée par la présence des autres polluants de l’air intérieur.
En termes de perspectives, des essais sont en cours avec des industriels ou spécialistes reconnus dans le domaine de la qualité de l’air intérieur afin d’intégrer ces nouveaux adsorbants dans des systèmes, actifs ou passifs, de purification d’air. La production à grande échelle de ces MOF devrait permettre également de réduire le coût de fabrication du MOF.
À plus long terme, il sera intéressant de coupler la capture du formaldéhyde à un processus de régénération catalytique permettant d’allonger la durée d’utilisation de ces MOF pour purifier l’air intérieur. D’autres applications potentielles sont envisagées par la suite pour la capture d’autres polluants nocifs de l’air intérieur tels que les acides pour la protection des œuvres d’art ou pour la détection de composés organovolatils.
Cet article a été écrit avec le concours de Nicolas Sadovnik et Mathilde Renouard, tous deux employés par SquairTech, une start-up, issue de laboratoires de recherche, qui développe un catalogue de matériaux poreux pour la capture de polluants de l’air.
Marco Daturi a reçu des financements de l'ADEME sur ce sujet. Il détient des parts dans la société SquairTech.
Christian SERRE détient des parts dans la société SquairTech. Et son laboratoire un contrat de collaboration avec cette société.