URL du flux RSS
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

30.04.2025 à 11:01

Quand la mouche déploie ses ailes

Joel Marthelot, Chercheur au CNRS, Aix-Marseille Université (AMU)
Simon Hadjaje, Docteur en physique, Aix-Marseille Université (AMU)
La mouche déploie ses ailes très rapidement à la sortie de son cocon. Mais comment fait-elle ?
Texte intégral (1681 mots)
Une mouche sort de son cocon avec les ailes pliées comme un origami. Simon Hadjaje, Fourni par l'auteur

Après des jours à se préparer patiemment dans son cocon, la mouche émerge et déploie ses ailes. En quelques instants, ces appendices, au départ pliés et froissés, forment des structures planes, translucides, résistantes et surtout… prêtes à décoller !


La vie des insectes est ponctuée par des phases de transformation impressionnantes, au cours desquelles leurs corps subissent des métamorphoses spectaculaires : de la larve à la nymphe protégée dans son cocon, jusqu’à l’insecte adulte.

Lors de la transformation finale, l’insecte émerge de sa nymphe et déploie ses ailes en seulement quelques minutes. À partir d’une structure compacte et pliée, semblable à un origami, les ailes s’étendent pour devenir des surfaces rigides et fonctionnelles, prêtes pour le vol, qui permettront à la mouche adulte d’échapper aux prédateurs, de rechercher de la nourriture et de se reproduire.

Ce déploiement se fait par une augmentation de la pression sanguine dans des ailes – un mécanisme que nous sommes désormais en mesure d’imager et d’étudier avec une précision sans précédent, comme nous l’avons rapporté récemment dans Nature Communications. Ces recherches éclairent la mécanique des structures souples capables de changer de forme – elles ouvrent ainsi de nouvelles perspectives pour des applications dans les structures déployables, utilisées aussi bien en aérospatiale qu’en chirurgie mini-invasive et en robotique flexible.

Les ailes se forment lentement et se déploient d’un coup

Aux stades larvaire et nymphal, les ailes se forment progressivement grâce à des processus de divisions cellulaires, d’élongation et de réarrangement de tissus. Ces étapes relativement longues s’étendent sur une dizaine de jours chez la drosophile, petite mouche du vinaigre et modèle privilégié des biologistes. Puis, en seulement quelques minutes, la mouche adulte déploie ses ailes.

Cette métamorphose spectaculaire intrigue les scientifiques depuis des siècles. Au XVIIIe siècle, le naturaliste français René-Antoine Ferchault de Réaumur observait que, durant cette phase d’expansion, « l’insecte boit l’air pour s’en bien remplir le corps ».

Un siècle plus tard, Georges Jousset de Bellesme observa, en piquant délicatement une aile de libellule en déploiement avec une aiguille fine, qu’elle était en réalité remplie de liquide, et non d’air, pendant cette phase.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Imager l’expansion des ailes

On sait aujourd’hui que, pour générer cette pression de liquide dans les ailes, l’insecte active un ensemble de muscles situés à la base de la trompe, habituellement impliqués chez la mouche adulte dans l’ingestion de nourriture – Réaumur avait raison.

Ces muscles lui permettent d’avaler de l’air, ce qui gonfle son intestin comme un ballon. Simultanément, la contraction des muscles abdominaux réduit le volume de l’abdomen, augmentant ainsi efficacement la pression sanguine. Celle-ci atteint progressivement quelques kilopascals, environ un quart de la pression artérielle chez un humain adulte, et génère un flux sanguin dans la structure de l’aile – de Bellesme aussi était sur la bonne piste.

Dans notre étude, nous avons mesuré l’augmentation de pression du sang chez l’insecte, à l’aide d’une sonde reliée à un capillaire en verre inséré dans son abdomen.

De plus, en injectant des traceurs fluorescents dans le sang de l’insecte, nous avons pu visualiser le flux de sang dans l’aile. De façon surprenante, nous avons observé que lors de cette phase de dépliement de l’aile, le sang se diffuse dans l’ensemble de l’aile – ceci contraste avec le reste de la vie de la mouche adulte, où le sang reste confiné aux veines qui parcourent les ailes.

Des ailes comme un matelas gonflable

Pour mieux comprendre où va précisément le sang lors du dépliement, nous avons imagé les ailes par microtomographie aux rayons X. Cette technique permet de reconstruire en trois dimensions la structure interne de l’aile à partir d’un grand nombre de radiographies. Nous avons ainsi montré que l’aile est constituée de deux fines plaques séparées par des piliers espacés, se pressurisant comme un matelas gonflable. Contrairement aux structures artificielles, la surface de l’aile s’étire au cours du dépliement.

À une échelle plus fine, des observations au microscope électronique révèlent que chaque plaque est composée d’une monocouche de cellules recouvertes d’une fine couche rigide initialement plissée : la cuticule.

En observant le déploiement des ailes chez des mutants dont les contours cellulaires sont visibles grâce à un marquage fluorescent, nous avons découvert que les cellules s’étirent pendant l’expansion tandis que la fine couche se déplisse, mais sans s’étirer davantage, fixant ainsi la forme finale de l’aile. Une fois l’aile entièrement déployée, les cellules meurent et sont aspirées hors de l’aile, tandis que la fine couche se rigidifie, ce qui permet à l’aile de garder sa forme chez l’adulte.

Ainsi, nous avons montré que le déploiement des ailes de drosophile est un processus hiérarchique à deux échelles : un dépliage macroscopique à l’échelle de l’organe et un déplissage microscopique à l’échelle du tissu.

Un point de fonctionnement pour déployer sans effort

Le déplissage engendre également une propriété mécanique intéressante. Lorsqu’on tire sur l’aile, la force n’augmente pas de manière linéaire, comme ce serait le cas pour un ressort. Au début, c’est surtout les cellules qui résistent tandis que la fine couche plissée joue un rôle très faible. Mais au fur et à mesure que cette couche se déplisse puis s’étire, elle commence à participer à ce qui se traduit par une augmentation rapide de la rigidité globale du tissu.

Nous avons montré que cette propriété mécanique, combinée à la géométrie de la structure de l’aile, constitue une configuration efficace pour le déploiement – appelée « point de fonctionnement » – où une faible augmentation de la surpression exercée par la mouche entraîne une augmentation significative de la taille de l’aile. L’insecte exploite naturellement cette configuration pour déployer largement son aile dans le plan, sans avoir à générer de grandes variations de pression.

Dynamique de déploiement

Ainsi, l’essentiel du déploiement se produit pour une pression constante, maintenue par la pression sanguine de la mouche. Nous avons ensuite étudié les facteurs limitant la vitesse de ce déploiement.

Pour le savoir, nous avons déformé l’aile à des vitesses croissantes. Ce que nous avons observé, c’est que l’aile apparaît plus rigide à mesure que la vitesse augmente, ce qui montre que sa réponse est « viscoélastique ». Cela signifie que l’aile peut s’étirer comme un matériau élastique, mais à grande vitesse, elle se comporte aussi comme un matériau visqueux, offrant une résistance à la déformation et ralentissant le mouvement. Cette viscosité interne nous permet de prédire la vitesse du déploiement et de mieux comprendre la dynamique du processus.

Les changements de forme par actionnement hydraulique sont fréquents dans le règne végétal, comme on peut le constater lorsqu’on arrose une plante desséchée. Cependant, ces mécanismes restent encore peu explorés chez les animaux. Les insectes présentent une diversité remarquable de formes et d’échelles de taille d’ailes.

Dans notre laboratoire, nous explorons actuellement une question ouverte : dans quelle mesure les mécanismes mis en évidence chez la mouche sont-ils génériques et applicables à d’autres ordres d’insectes ? Chez la drosophile, certains aspects du processus de déploiement restent encore à éclaircir, notamment les mécanismes garantissant l’irréversibilité du processus (la forme de l’aile est fixée : celle-ci ne se replie pas après déploiement), ainsi que ceux garantissant la planitude finale de l’aile.

The Conversation

Joel Marthelot a reçu des financements de l'Agence Nationale de la Recherche, de la Fondation pour la Recherche Médicale et du CNRS.

Simon Hadjaje a reçu des financements de la Fondation pour la Recherche Médicale (FRM Fin de Thèse, FDT FDT202304016556).

30.04.2025 à 11:01

Humains, animaux, cellules, plantes : tous conscients ?

François Bouteau, Pr Biologie, Université Paris Cité
Etienne Grésillon, Géographe, Université Paris Cité
Lucia Sylvain Bonfanti, Doctorante interdisciplinaire en géographie et biologie, Université Paris Cité
De nos plus proches cousins, les primates, jusqu’aux mollusques, où placer la limite de la (non-) conscience ?
Texte intégral (1920 mots)

Nous sommes des êtres doués de conscience mais qu’en est-il des autres animaux ? De nos plus proches cousins, les primates, jusqu’aux mollusques, où placer la limite de la (non-) conscience ? Certaines théories vont jusqu’à reconnaître cette capacité à toute forme de vie. Faisons le tour de la question.


L’année 2024 a été riche en évènements autour de la question de la conscience. La « déclaration de New York sur la conscience animale », signée en avril par plus de 300 chercheurs, a proposé qu’une possibilité de conscience existe chez la plupart des animaux.

En juin, toujours à New York, a eu lieu la première présentation des résultats de la collaboration adversariale Cogitate, qui organise une collaboration entre des équipes qui s’opposent autour de deux théories de la conscience. Le but étant qu’ils définissent entre eux les expériences à mener pour prouver l’une ou l’autre des conceptions qu’ils défendent.

Cette confrontation regroupe des experts de neurosciences et des philosophes cherchant un consensus entre : la théorie de l’espace de travail global (GNWT), portée par Stanislas Dehaene, et la théorie de l’information intégrée (IIT), proposée par Giulio Tononi. La GNWT propose que l’interaction entre plusieurs régions et processus spécifiques du cerveau soit nécessaire à la conscience, celle-ci n’émergeant suite à un premier traitement automatique que si l’information est amplifiée par différents réseaux de neurones spécialisés. L’IIT propose que la conscience émerge d’un système qui génère et confronte des informations. Dans cette proposition la possibilité de conscience n’est pas réduite au cerveau.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La revue Neuron, une des revues scientifiques les plus influentes dans la communauté des neurosciences, a proposé en mai 2024 un numéro spécial sur la conscience. Les articles montrent que si les substrats neurobiologiques de la conscience ont suscité de nombreux efforts de recherche au cours des dernières décennies, il n’en demeure pas moins que les neuroscientifiques ne sont pas d’accord. Ils analysent cinq théories différentes de la conscience. Malgré l’absence de définition commune du terme « conscience », utilisé à la fois comme une « expérience », incluant les perceptions sensibles du monde extérieur (vision des couleurs), et comme une expérience subjective, qui se construit a posteriori en intégrant différentes sources d’informations, le groupe élabore des convergences entre ces théories concurrentes et apparemment contradictoires.

Des bases biologiques de la conscience toujours inconnues

Sans rentrer dans les détails et les arguments concernant ces différentes, les travaux montrent qu’il n’existe pas de théorie unifiée de la conscience et que nous ne connaissons toujours pas les bases biologiques de la conscience. Les anciennes questions autour du dualisme, qui distinguent monde physique et monde psychique et du monisme soutenant l’unicité des deux mondes ne semblent toujours pas prêtes d’être tranchées.

Cependant, même sans théorie unifiée, la possibilité d’une expérience consciente n’est plus l’apanage des humains. Elle se diffuse à travers l’arbre phylogénétique, étant désormais reconnue chez de nombreux groupes d’animaux, y compris les insectes. Le dénominateur commun entre toutes ces approches semble être la présence d’un cerveau, caractéristique partagée par la majorité des animaux, même si celui-ci est petit et de structure simple. Les éponges dépourvues de cerveau et de systèmes nerveux ne sont pas incluses dans la famille des êtres conscients. Mais qu’en est-il des bivalves (huîtres ou moules par exemple) qui ne sont pourvus que de ganglions regroupant leurs neurones, rejoindront-ils prochainement la famille des êtres conscients ?

Mais la conscience pourrait-elle exister en dehors de ce fameux système nerveux ? Cette idée radicale a été notamment proposée il y a déjà quelques années par Frantisek Baluska, biologiste cellulaire, professeur à l’Université de Bonn, et Arthur Reber, psychologue, professeur à l’Université British Columbia.

Une conscience dans chaque être vivant ?

Ils ont proposé que la conscience aurait émergée très tôt au cours de l’évolution chez les organismes unicellulaires, et serait même coïncidente avec l’apparition de la vie. La conscience serait donc une propriété intrinsèque de la vie. Cette proposition repose sur l’observation que toutes les cellules, qu’elles soient isolées ou intégrées dans un organisme multicellulaire, possèdent une capacité impressionnante à percevoir leur environnement, à traiter des informations leur permettant de prendre des décisions basiques en réponse à des stimuli externes. Certains organismes unicellulaires peuvent par exemple libérer des molécules pour se signaler les uns aux autres.

Ces processus pourraient être considérés comme une forme de conscience primitive. Et si cette proposition fait fi de la présence d’un système nerveux, elle s’appuie toutefois notamment sur l’excitabilité électrique des cellules. Le neurone et le cerveau sont considérés comme des systèmes hyperoptimisés dans l’une des parties du vivant, permettant la conscience humaine.

Cette théorie reste bien sûr très controversée, notamment en raison de l’absence de définition partagée de la conscience. De nombreux scientifiques considèrent que cette « conscience cellulaire » serait simplement une métaphore pour décrire des processus biochimiques et biophysiques complexes, sans qu’il soit nécessaire d’y inclure une notion de conscience. Ils critiquent cette théorie, en utilisant une définition traditionnellement de la conscience impliquant un système neurobiologique et une expérience subjective, peu probable ? En tout cas difficile à démontrer au niveau cellulaire.

Des plantes conscientes ?

Poursuivant leurs réflexions, Frantisek Baluska et d’autres collègues ont proposé la théorie de l’IIT développée par Giulio Tononi comme cadre possible pour explorer la question d’une forme de « proto-conscience » chez les plantes.

Appliquer l’IIT aux plantes implique d’examiner comment les plantes perçoivent, intègrent et répondent à l’information dans leur environnement sans posséder de système nerveux central. Les plantes pourraient agir de manière consciente suivant l’IIT. Elles reçoivent et intègrent des signaux de diverses sources et y répondent de manière coordonnée grâce à un réseau de communication interne constitué de connexions cellulaires, de faisceaux vasculaires connectant toutes les parties de la plante notamment par des signaux électriques. Ils considèrent que ces caractéristiques et ces réseaux de communication hautement interconnectés pourraient correspondre à l’exigence d’intégration d’informations de l’IIT permettant aux plantes une réponse unifiée malgré l’absence d’un système nerveux centralisé. Bien que les auteurs considèrent qu’il ne s’agisse que d’un niveau de conscience minimale, ces données ont bien sûr étaient immédiatement récusées.

Les principaux arguments opposés sont que les théories de la conscience sont basées sur l’existence de neurones et l’impossibilité de prouver que les plantes aient une expérience subjective de leur environnement. L’IIT autorisant de plus la conscience dans divers systèmes non vivants, elle ne serait pas suffisante pour prouver la conscience des plantes. Même si cette hypothèse reste spéculative et nécessite certainement davantage de recherche pour mieux comprendre la relation entre la complexité biologique et la conscience, l’idée que les plantes puissent être étudiées à l’aide de la théorie de l’IIT pourrait permettre d’explorer d’autres formes de traitement de l’information dans des systèmes biologiques, qu’ils soient ou non dotés de cerveaux. Il n’est par contre pas certain que ces approches aident les tenants de l’IIT, celle-ci ayant été récemment controversée, et qualifiée de « pseudoscience non testable » dans une lettre rédigée par 124 neuroscientifiques.

À notre connaissance aucune tentative de démonstration d’une autre théorie de la conscience n’a été tentée sur des organismes sans cerveau. Par contre, faisant suite aux travaux de Claude Bernard qui indiquait, dès 1878, « Ce qui est vivant doit sentir et peut être anesthésié, le reste est mort », différentes équipes dont la nôtre, se sont intéressées aux effets des anesthésiques, un des outils importants de l’étude de la neurobiologie de la conscience, sur des organismes sans cerveau.

La théorie de la conscience cellulaire, tout comme l’exploration de la théorie de l’IIT chez des organismes sans neurones peuvent apparaître provocantes, elles offrent cependant une perspective fascinante et ouvrent de nouvelles voies pour comprendre les fondements de la conscience et l’émergence des comportements dans le règne vivant. Tout comme l’attribution progressive d’une conscience à des groupes d’animaux de plus en plus éloignés des humains dans l’arbre phylogénétique, qui relancent et étendent une épineuse question philosophique et scientifique.

Ces réflexions ouvrent évidemment aussi de nombreux questionnements éthiques concernant les organismes non humains et, bien sûr, les machines connectées à des intelligences artificielles, qui pourraient s’inscrire dans un continuum de conscience. De nombreux outils et protocoles sont encore à développer pour tester ce qui reste des hypothèses et, pourquoi pas, envisager une collaboration adversariale sur la conscience sans cerveau.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

30.04.2025 à 11:01

Pourquoi ne peut-on pas se chatouiller soi-même ?

François Dernoncourt, Doctorant en Sciences du Mouvement Humain, Université Côte d’Azur
Une même chatouille, selon qu’elle vienne d’une autre personne ou de soi-même, ne provoquera pas du tout la même réaction. Une question cérébrale
Texte intégral (1444 mots)
Pour se chatouiller, une plume ne suffit pas. Il faut être deux. Thomas Park/Unsplash, CC BY

Lorsque vous vous grattez la plante de pied ou que vous frottez vos aisselles sous la douche, cela ne provoque probablement pas de réaction particulière en vous. Pourtant, si cette même stimulation tactile venait de quelqu’un d’autre, elle serait perçue comme une chatouille. Ce phénomène, bien connu de tous, soulève une question intrigante : pourquoi est-il si difficile de se chatouiller soi-même ?


À première vue, cette interrogation peut sembler anodine, mais elle révèle un mécanisme fondamental du système nerveux : la prédiction. Le cerveau n’est en effet pas un simple récepteur passif d’informations sensorielles. Il anticipe activement l’état du monde extérieur ainsi que l’état interne du corps afin de sélectionner les actions les plus appropriées. Cette capacité prédictive lui permet de filtrer les informations : les sensations inattendues, susceptibles de signaler un danger ou une nouveauté, retiennent particulièrement notre attention, tandis que les sensations prévisibles sont ignorées.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La difficulté à se chatouiller soi-même illustre parfaitement ce principe de cerveau prédictif. Pour réaliser un mouvement, le cerveau envoie une commande aux muscles et, simultanément, une copie de cette commande (appelée « copie d’efférence ») est transmise à d’autres aires cérébrales, notamment le cervelet. Ce dernier anticipe alors les conséquences sensorielles du mouvement en créant une sorte de simulation interne, quelques centaines de millisecondes à l’avance, de façon inconsciente mais extrêmement précise. Cette prédiction permet de différencier une sensation prévisible, générée par le corps lui-même, d’une sensation inattendue. Par exemple, si vous manquez une marche en descendant les escaliers, la discordance entre le contact anticipé et la réalité permet de corriger le mouvement très rapidement, avant même que votre pied ne touche le sol. Les prédictions du cerveau filtrent ainsi les perceptions sensorielles en sélectionnant les stimuli pertinents, évitant à notre capacité attentionnelle – très limitée – d’être submergée par une surcharge d’informations.

Si vous échouez à vous chatouiller vous-même, c’est donc parce que votre cerveau prédit parfaitement la sensation cutanée à venir et l’atténue. En revanche, lorsqu’une autre personne vous chatouille, le stimulus n’est pas anticipé de façon aussi précise : l’information sensorielle passe à travers le filtre et est donc perçue avec plus d’intensité.

Des études expérimentales confirment ce mécanisme : lorsque des participants se chatouillent eux-mêmes par l’intermédiaire d’un bras robotisé qui reproduit exactement leurs mouvements, la sensation de chatouille est atténuée. Cependant, si le mouvement du dispositif est légèrement décalé (par un délai ou une rotation), la sensation de chatouille devient plus intense. Ces résultats, fondés sur le ressenti subjectif des participants, sont également corroborés par des données d’imagerie cérébrale. Ainsi, pour un même stimulus tactile, l’activité du cortex somatosensoriel (zone du cerveau responsable de la perception du toucher) est plus élevée lorsque la stimulation est externe que lorsqu’elle est auto générée. Ce contraste suggère que le cervelet anticipe nos propres gestes et atténue l’intensité des sensations qui en découlent.

L’atténuation sensorielle façonne notre perception

Le principe d’atténuation des sensations produites par nos propres mouvements est omniprésent dans notre interaction avec le monde. Restons tout d’abord dans le domaine des perceptions somesthésiques – notre sens du toucher et du mouvement. Il a été démontré que l’atténuation sensorielle nous conduit à sous-estimer la force que nous exerçons. Ce biais perceptif pourrait contribuer à « l’escalade de la violence » que l’on observe parfois entre deux enfants qui chahutent. En effet, deux enfants qui jouent à la bagarre sous-estiment chacun la force qu’ils déploient, et ont l’impression que leur partenaire répond avec une intensité supérieure. Dans une logique de réciprocité, ils vont avoir tendance à progressivement augmenter la force de leurs coups, pensant seulement répliquer la force de l’autre.

Le second exemple concerne cette fois le sens de la vision. Bien que nos yeux soient constamment en mouvement, nous percevons un monde stable. Pourtant, les seules informations visuelles ne permettent pas de faire la distinction entre le scénario où l’on balaie un paysage du regard et le scénario où le paysage tourne autour de nous alors que nous gardons le regard fixe – ces deux situations produisent des images identiques sur la rétine. Le fait que nous percevons un monde stable s’explique par le fait que le système nerveux anticipe les changements d’images induits par les mouvements oculaires et filtre les informations autogénérées. Pour l’expérimenter, fermez un œil, et appuyez légèrement sur le côté de l’autre œil en le gardant ouvert (à travers la paupière bien sûr). Cette manipulation crée une légère rotation de l’œil qui n’est pas générée par les muscles oculaires, donnant l’impression que le monde extérieur se penche légèrement.

Mieux comprendre certaines pathologies ?

Le modèle du cerveau prédictif offre un cadre conceptuel intéressant pour comprendre certaines pathologies. En effet, une défaillance dans la capacité du système nerveux à prédire et atténuer les conséquences sensorielles de ses propres actions pourrait contribuer à des symptômes observés dans certaines maladies mentales. Par exemple, il a été constaté que l’atténuation sensorielle est souvent moins marquée chez les patients schizophrènes – et qu’ils sont d’ailleurs capables de se chatouiller eux-mêmes, dans une certaine mesure. Cela pourrait expliquer pourquoi ces patients perçoivent parfois leurs propres mouvements comme provenant d’une source externe, dissociée de leur volonté. De même, des monologues intérieurs qui ne sont pas suffisamment atténués pourraient être à l’origine des hallucinations auditives, où la voix perçue semble venir de l’extérieur.

Ainsi, une question aussi simple et amusante que celle des chatouilles peut, lorsqu’on la prend au sérieux, révéler des mécanismes profonds de notre cerveau, et contribuer à une meilleure compréhension de notre rapport au monde.

The Conversation

François Dernoncourt a reçu des financements du ministère de l'enseignement supérieur (bourse de thèse).

29.04.2025 à 17:23

L’interaction humain-machine, des années 1960 à l’intelligence artificielle, itinéraire d’un pionnier

Michel Beaudouin-Lafon, Chercheur en informatique, Université Paris-Saclay
Chloé Mercier, Chercheuse en modélisation informatique et cognitive pour l'éducation, Université de Bordeaux
Serge Abiteboul, Directeur de recherche à Inria, membre de l'Académie des Sciences, École normale supérieure (ENS) – PSL
Michel Beaudouin-Lafon est un chercheur en informatique français, il est l’un des pionniers de l’interaction humain-machine.
Texte intégral (4213 mots)

Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.


Michel Beaudouin-Lafon est un chercheur en informatique français dans le domaine de l’interaction humain-machine. Il est professeur depuis 1992 à l’Université de Paris-Saclay. Ses travaux de recherche portent sur les aspects fondamentaux de l’interaction humain-machine, l’ingénierie des systèmes interactifs, le travail collaboratif assisté par ordinateur et plus généralement les nouvelles techniques d’interaction. Il a co-fondé et a été premier président de l’Association francophone pour l’interaction humain-machine. Il est membre senior de l’Institut universitaire de France, lauréat de la médaille d’argent du CNRS, ACM Fellow et, depuis 2025, membre de l’Académie des sciences.


Binaire : Pourrais-tu nous raconter comment tu es devenu un spécialiste de l’interaction humain-machine ?

Michel Beaudouin-Lafon : J’ai suivi les classes préparatoires au lycée Montaigne à Bordeaux. On n’y faisait pas d’informatique, mais je m’amusais déjà un peu avec ma calculatrice programmable HP29C. Ensuite, je me suis retrouvé à l’ENSEEIHT, une école d’ingénieur à Toulouse, où j’ai découvert l’informatique… un peu trop ardemment : en un mois, j’avais épuisé mon quota de calcul sur les cartes perforées !

À la sortie, je n’étais pas emballé par l’idée de rejoindre une grande entreprise ou une société de service. J’ai alors rencontré Gérard Guiho de l’université Paris-Sud (aujourd’hui Paris-Saclay) qui m’a proposé une thèse en informatique. Je ne savais pas ce que c’était qu’une thèse : nos profs à l’ENSEEIHT, qui étaient pourtant enseignants-chercheurs, ne nous parlaient jamais de recherche.

Fin 1982, c’était avant le Macintosh, Gérard venait d’acquérir une station graphique dont personne n’avait l’usage dans son équipe. Il m’a proposé de travailler dessus. Je me suis bien amusé et j’ai réalisé un logiciel d’édition qui permettait de créer et simuler des réseaux de Pétri, un formalisme avec des ronds, des carrés, des flèches, qui se prêtait bien à une interface graphique. C’est comme ça que je me suis retrouvé à faire une thèse en IHM : interaction humain-machine.

Binaire : Est-ce que l’IHM existait déjà comme discipline à cette époque ?

M. B.-L. : Ça existait mais de manière encore assez confidentielle. La première édition de la principale conférence internationale dans ce domaine, Computer Human Interaction (CHI), a eu lieu en 1982. En France, on s’intéressait plutôt à l’ergonomie. Une des rares exceptions : Joëlle Coutaz qui, après avoir découvert l’IHM à CMU (Pittsburgh), a lancé ce domaine à Grenoble.

Binaire : Et après la thèse, qu’es-tu devenu ?

M. B.-L. : J’ai été nommé assistant au LRI, le laboratoire de recherche de l’Université Paris-Sud, avant même d’avoir fini ma thèse. Une autre époque ! Finalement, j’ai fait toute ma carrière dans ce même laboratoire, même s’il a changé de nom récemment pour devenir le LISN, laboratoire interdisciplinaire des sciences du numérique. J’y ai été nommé professeur en 1992. J’ai tout de même bougé un peu. D’abord en année sabbatique en 1992 à l’Université de Toronto, puis en détachement à l’Université d’Aarhus au Danemark entre 1998 et 2000, et enfin plus récemment comme professeur invité à l’université de Stanford entre 2010 et 2012.

En 1992, au cours d’un workshop au Danemark, j’ai rencontré Wendy Mackay, une chercheuse qui travaillait sur l’innovation par les utilisateurs. Un an plus tard, nous étions mariés ! Cette rencontre a été déterminante dans ma carrière pour combiner mon parcours d’ingénieur, que je revendique toujours, avec son parcours à elle, qui était psychologue. Wendy est spécialiste de ce qu’on appelle la conception participative, c’est-à-dire d’impliquer les utilisateurs dans tout le cycle de conception des systèmes interactifs. Je vous invite d’ailleurs à lire son entretien dans Binaire. C’est cette complémentarité entre nous qui fait que notre collaboration a été extrêmement fructueuse sur le plan professionnel. En effet, dans le domaine de l’IHM, c’est extrêmement important d’allier trois piliers : (1) l’aspect humain, donc la psychologie ; (2) le design, la conception, la créativité ; et (3) l’ingénierie. Ce dernier point concerne la mise en œuvre concrète, et les tests avec des vrais utilisateurs pour voir si ça marche (ou pas) comme on l’espère. Nous avons vécu la belle aventure du développement de l’IHM en France, et sa reconnaissance comme science confirmée, par exemple, avec mon élection récente à l’Académie des Sciences.

*Binaire : L’IHM est donc une science, mais en quoi consiste la recherche dans ce domaine ? *

M. B.-L. : On nous pose souvent la question. Elle est légitime. En fait, on a l’impression que les interfaces graphiques utilisées aujourd’hui par des milliards de personnes ont été inventées par Apple, Google ou Microsoft, mais pas vraiment ! Elles sont issues de la recherche académique en IHM !

Si on définit souvent l’IHM par Interface Humain-Machine, je préfère parler d’Interaction Humain-Machine. L’interaction, c’est le phénomène qui se produit lorsqu’on est utilisateur d’un système informatique et qu’on essaie de faire quelque chose avec la machine, par la machine. On a ainsi deux entités très différentes l’une de l’autre qui communiquent : d’un côté, un être humain avec ses capacités cognitives et des moyens d’expression très riches ; et de l’autre, des ordinateurs qui sont de plus en plus puissants et très rapides mais finalement assez bêtes. Le canal de communication entre les deux est extrêmement ténu : taper sur un clavier, bouger une souris. En comparaison des capacités des deux parties, c’est quand même limité. On va donc essayer d’exploiter d’autres modalités sensorielles, des interfaces vocales, tactiles, etc., pour multiplier les canaux, mais on va aussi essayer de rendre ces canaux plus efficaces et plus puissants.

Ce phénomène de l’interaction, c’est un peu une sorte de matière noire : on sait que c’est là, mais on ne peut pas vraiment la voir. On ne peut la mesurer et l’observer que par ses effets sur la machine et sur l’être humain. Et donc, on observe comment l’humain avec la machine peuvent faire plus que l’humain seul et la machine seule. C’est une idée assez ancienne : Doug Engelbart en parlait déjà dans les années 60. Et pourtant, aujourd’hui, on a un peu tendance à l’oublier car on se focalise sur des interfaces de plus en plus simples, où c’est la machine qui va tout faire et on n’a plus besoin d’interagir. Or, je pense qu’il y a vraiment une valeur ajoutée à comprendre ce phénomène d’interaction pour en tirer parti et faire que la machine augmente nos capacités plutôt que faire le travail à notre place. Par extension, on s’intéresse aussi à ce que des groupes d’humains et de machines peuvent faire ensemble.

La recherche en IHM, il y a donc un aspect recherche fondamentale qui se base sur d’autres domaines (la psychologie mais aussi la sociologie quand on parle des interactions de groupes, ou encore la linguistique dans le cadre des interactions langagières) qui permet de créer nos propres modèles d’interaction, qui ne sont pas des modèles mathématiques ; et ça, je le revendique parce que je pense que c’est une bonne chose qu’on ne sache pas encore mettre le cerveau humain en équation. Et puis il y a une dimension plus appliquée où on va créer des objets logiciels ou matériels pour mettre tout ça en œuvre.

Pour moi, l’IHM ne se résume pas à faire de nouveaux algorithmes. Au début des années 90, Peter Wegener a publié dans Communications of the ACM – un des journaux de référence dans notre domaine – un article qui disait « l’interaction est plus puissante que les algorithmes ». Cela lui a valu pas mal de commentaires et de critiques, mais ça m’a beaucoup marqué.

*Binaire : Et à propos d’algorithmes, est-ce que l’IA soulève de nouvelles problématiques en IHM ? *

M. B.-L. : Oui, absolument ! En ce moment, les grandes conférences du domaine débordent d’articles qui combinent des modèles de langage (LLM) ou d’autres techniques d’IA avec de l’IHM.

Historiquement, dans une première phase, l’IA a été extrêmement utilisée en IHM, par exemple pour faire de la reconnaissance de gestes. C’était un outil commode, qui nous a simplifié la vie, mais sans changer nos méthodes d’interaction.

Aux débuts de l’IA générative, on est un peu revenu 50 ans en arrière en matière d’interaction, quand la seule façon d’interagir avec les ordinateurs, c’était d’utiliser le terminal. On fait un prompt, on attend quelques secondes, on a une réponse ; ça ne va pas, on bricole. C’est une forme d’interaction extrêmement pauvre. De plus en plus de travaux très intéressants imaginent des interfaces beaucoup plus interactives, où on ne voit plus les prompts, mais où on peut par exemple dessiner, transformer une image interactivement, sachant que derrière, ce sont les mêmes algorithmes d’IA générative avec leurs interfaces traditionnelles qui sont utilisés.

Pour moi, l’IA soulève également une grande question : qu’est-ce qu’on veut déléguer à la machine et qu’est-ce qui reste du côté humain ? On n’a pas encore vraiment une bonne réponse à ça. D’ailleurs, je n’aime pas trop le terme d’intelligence artificielle. Je n’aime pas attribuer des termes anthropomorphiques à des systèmes informatiques. Je m’intéresse plutôt à l’intelligence augmentée, quand la machine augmente l’intelligence humaine. Je préfère mettre l’accent sur l’exploitation de capacités propres à l’ordinateur, plutôt que d’essayer de rendre l’ordinateur identique à un être humain.

*Binaire : La parole nous permet d’interagir avec les autres humains, et de la même façon avec des bots. N’est-ce pas plus simple que de chercher la bonne icône ? *

M. B.-L. : Interagir par le langage, oui, c’est commode. Ceci étant, à chaque fois qu’on a annoncé une nouvelle forme d’interface qui allait rendre ces interfaces graphiques (avec des icônes, etc.) obsolètes, cela ne s’est pas vérifié. Il faut plutôt s’intéresser à comment on fait cohabiter ces différentes formes d’interactions. Si je veux faire un schéma ou un diagramme, je préfère le dessiner plutôt que d’imaginer comment le décrire oralement à un système qui va le faire (sans doute mal) pour moi. Ensuite, il y a toujours des ambiguïtés dans le langage naturel entre êtres humains. On ne se contente pas des mots. On les accompagne d’expressions faciales, de gestes, et puis de toute la connaissance d’un contexte qu’un système d’IA aujourd’hui n’a souvent pas, ce qui le conduit à faire des erreurs que des humains ne feraient pas. Et finalement, on devient des correcteurs de ce que fait le système, au lieu d’être les acteurs principaux.

Ces technologies d’interaction par la langue naturelle, qu’elles soient écrites ou orales, et même si on y combine des gestes, soulèvent un sérieux problème : comment faire pour que l’humain ne se retrouve pas dans une situation d’être de plus en plus passif ? En anglais, on appelle ça de-skilling : la perte de compétences et d’expertise. C’est un vrai problème parce que, par exemple, quand on va utiliser ces technologies pour faire du diagnostic médical, ou bien prononcer des sentences dans le domaine juridique, on va mettre l’être humain dans une situation de devoir valider ou non la décision posée par une IA. Et en fait, il va être quand même encouragé à dire oui, parce que contredire l’IA revient à s’exposer à une plus grande responsabilité que de constater a posteriori que l’IA s’est trompée. Donc dans ce genre de situation, on va chercher comment maintenir l’expertise de l’utilisateur et même d’aller vers de l’upskilling, c’est-à-dire comment faire pour qu’un système d’IA le rende encore plus expert de ce qu’il sait déjà bien faire, plutôt que de déléguer et rendre l’utilisateur passif. On n’a pas encore trouvé la façon magique de faire ça. Mais si on reprend l’exemple du diagnostic médical, si on demande à l’humain de faire un premier diagnostic, puis à l’IA de donner le sien, et que les deux ont ensuite un échange, c’est une interaction très différente que d’attendre simplement ce qui sort de la machine et dire oui ou non.

Binaire : Vous cherchez donc de nouvelles façons d’interagir avec les logiciels, qui rendent l’humain plus actif et tendent vers l’upskilling.

M. B.-L. : Voilà ! Notre équipe s’appelle Ex Situ, pour Extreme Situated Interaction. C’est parti d’un gag parce qu’avant, on s’appelait In Situ pour Interaction Située. Il s’agissait alors de concevoir des interfaces en fonction de leur contexte, de la situation dans laquelle elles sont utilisées.

Nous nous sommes rendus compte que nos recherches conduisaient à nous intéresser à ce qu’on a appelé des utilisateurs « extrêmes », qui poussent la technologie dans ses retranchements. En particulier, on s’intéresse à deux types de sujets, qui sont finalement assez similaires. D’un part, les créatifs (musiciens, photographes, graphistes…) qui par nature, s’ils ont un outil (logiciel ou non) entre les mains, vont l’utiliser d’une manière qui n’était pas prévue, et ça nous intéresse justement de voir comment ils détournent ces outils. D’autre part, Wendy travaille, depuis longtemps d’ailleurs, dans le domaine des systèmes critiques dans lequel on n’a pas droit à l’erreur : pilotes d’avion, médecins, etc.

Dans les industries culturelles et créatives (édition, création graphique, musicale, etc.), les gens sont soit terrorisés, soit anxieux, de ce que va faire l’IA. Et nous, ce qu’on dit, c’est qu’il ne s’agit pas d’être contre l’IA – c’est un combat perdu de toute façon – mais de se demander comment ces systèmes vont pouvoir être utilisés d’une manière qui va rendre les humains encore plus créatifs. Les créateurs n’ont pas besoin qu’on crée à leur place, ils ont besoin d’outils qui les stimulent. Dans le domaine créatif, les IA génératives sont, d’une certaine façon, plus intéressantes quand elles hallucinent ou qu’elles font un peu n’importe quoi. Ce n’est pas gênant au contraire.

Binaire : L’idée d’utiliser les outils de façon créative, est-ce que cela conduit au design ?

M. B.-L. : Effectivement. Par rapport à l’ergonomie, qui procède plutôt selon une approche normative en partant des tâches à optimiser, le design est une approche créative qui questionne aussi les tâches à effectuer. Un designer va autant mettre en question le problème, le redéfinir, que le résoudre. Et pour redéfinir le problème, il va interroger et observer les utilisateurs pour imaginer des solutions. C’est le principe de conception participative, qui implique les acteurs eux-mêmes en les laissant s’approprier leur activité, ce qui donne finalement de meilleurs résultats, non seulement sur le plan de la performance mais aussi et surtout sur l’acceptation.

Notre capacité naturelle d’être humain nous conduit à constamment réinventer notre activité. Lorsque nous interagissons avec le monde, certes nous utilisons le langage, nous parlons, mais nous faisons aussi des mouvements, nous agissons sur notre environnement physique ; et ça passe parfois par la main nue, mais surtout par des outils. L’être humain est un inventeur d’outils incroyables. Je suis passionné par la facilité que nous avons à nous servir d’outils et à détourner des objets comme outils ; qui n’a pas essayé de défaire une vis avec un couteau quand il n’a pas de tournevis à portée de main ? Et en fait, cette capacité spontanée disparaît complètement quand on passe dans le monde numérique. Pourquoi ? Parce que dans le monde physique, on utilise des connaissances techniques, on sait qu’un couteau et un tournevis ont des propriétés similaires pour cette tâche. Alors que dans un environnement numérique, on a besoin de connaissances procédurales : on apprend que pour un logiciel il faut cliquer ici et là, et puis dans un autre logiciel pour faire la même chose, c’est différent.

C’est en partant de cette observation que j’ai proposé l’ERC One, puis le projet Proof-of Concept OnePub, qui pourrait peut-être même déboucher sur une start-up. On a voulu fonder l’interaction avec nos ordinateurs d’aujourd’hui sur ce modèle d’outils – que j’appelle plutôt des instruments, parce que j’aime bien l’analogie avec l’instrument de musique et le fait de devenir virtuose d’un instrument. Ça remet en cause un peu tous nos environnements numériques. Pour choisir une couleur sur Word, Excel ou Photoshop, on utilise un sélecteur de couleurs différent. En pratique, même si tu utilises les mêmes couleurs, il est impossible de prendre directement une couleur dans l’un pour l’appliquer ailleurs. Pourtant, on pourrait très bien imaginer décorréler les contenus qu’on manipule (texte, images, vidéos, son…) des outils pour les manipuler, et de la même façon que je peux aller m’acheter les pinceaux et la gouache qui me conviennent bien, je pourrais faire la même chose avec mon environnement numérique en la personnalisant vraiment, sans être soumis au choix de Microsoft, Adobe ou Apple pour ma barre d’outils. C’est un projet scientifique qui me tient à cœur et qui est aussi en lien avec la collaboration numérique.

Binaire : Par rapport à ces aspects collaboratifs, n’y a-t-il pas aussi des verrous liés à la standardisation ?

M. B.-L. : Absolument. On a beau avoir tous ces moyens de communication actuels, nos capacités de collaboration sont finalement très limitées. À l’origine d’Internet, les applications s’appuyaient sur des protocoles et standards ouverts assurant l’interopérabilité : par exemple, peu importait le client ou serveur de courrier électronique utilisé, on pouvait s’échanger des mails sans problème. Mais avec la commercialisation du web, des silos d’information se sont créés. Aujourd’hui, des infrastructures propriétaires comme Google ou Microsoft nous enferment dans des “jardins privés” difficiles à quitter. La collaboration s’établit dans des applications spécialisées alors qu’elle devrait être une fonctionnalité intrinsèque.

C’est ce constat qui a motivé la création du PEPR eNSEMBLE, un grand programme national sur la collaboration numérique, dont je suis codirecteur. L’objectif est de concevoir des systèmes véritablement interopérables où la collaboration est intégrée dès la conception. Cela pose des défis logiciels et d’interface. Une des grandes forces du système Unix, où tout est très interopérable, vient du format standard d’échange qui sont des fichiers textes ASCII. Aujourd’hui, cela ne suffit plus. Les interactions sont plus complexes et dépassent largement l’échange de messages.

C’est frustrant car on a quand même fait beaucoup de progrès en IHM, mais il faudrait aussi plus d’échanges avec les autres disciplines comme les réseaux, les systèmes distribués, la cryptographie, etc., parce qu’en fait, aucun système informatique aujourd’hui ne peut se passer de prendre en compte les facteurs humains. Au-delà des limites techniques, il y a aussi des contraintes qui sont totalement artificielles et qu’on ne peut aborder que s’il y a une forme de régulation qui imposerait, par exemple, la publication des API de toute application informatique qui communique avec son environnement. D’ailleurs, la législation européenne autorise le reverse engineering dans les cas exceptionnels où cela sert à assurer l’interopérabilité, un levier que l’on pourrait exploiter pour aller plus loin.

Cela pose aussi la question de notre responsabilité de chercheur pour ce qui est de l’impact de l’informatique, et pas seulement l’IHM, sur la société. C’est ce qui m’a amené à m’impliquer dans l’ACM Europe Technology Policy Committee, dont je suis Chair depuis 2024. L’ACM est un société savante apolitique, mais on a pour rôle d’éduquer les décideurs politiques, notamment au niveau de l’Union européenne, sur les capacités, les enjeux et les dangers des technologies, pour qu’ils puissent ensuite les prendre en compte ou pas dans des textes de loi ou des recommandations (comme l’AI ACT récemment).

Binaire : En matière de transmission, sur un ton plus léger, tu as participé au podcast Les petits bateaux sur Radio France. Pourrais-tu nous en parler ?

M. B.-L. : Oui ! Les petits bateaux. Dans cette émission, les enfants peuvent appeler un numéro de téléphone pour poser des questions. Ensuite, les journalistes de l’émission contactent un scientifique avec une liste de questions, collectées au cours du temps, sur sa thématique d’expertise. Le scientifique se rend au studio et enregistre des réponses. A l’époque, un de mes anciens doctorants ou étudiants avait participé à une action de standardisation du clavier français Azerty sur le positionnement des caractères non alphanumériques, et j’ai donc répondu à des questions très pertinentes comme “Comment les Chinois font pour taper sur un clavier ?”, mais aussi “Où vont les fichiers quand on les détruit ?”, “C’est quoi le com dans.com ?” Évidemment, les questions des enfants intéressent aussi les adultes qui n’osent pas les poser. On essaie donc de faire des réponses au niveau de l’enfant mais aussi d’aller un petit peu au-delà, et j’ai trouvé cela vraiment intéressant de m’adresser aux différents publics.

Je suis très attaché à la transmission, je suis issu d’une famille d’enseignants du secondaire, et j’aime moi-même enseigner. J’ai dirigé et participé à la rédaction de manuels scolaires des spécialités informatiques SNT et NSI au Lycée. Dans le programme officiel de NSI issu du ministère, une ligne parle de l’interaction avec l’utilisateur comme étant transverse à tout le programme, ce qui veut dire qu’elle n’est concrètement nulle part. Mais je me suis dit que c’était peut-être l’occasion d’insuffler un peu de ma passion dans ce programme, que je trouve par ailleurs très lourd pour des élèves de première et terminale, et de laisser une trace ailleurs que dans des papiers de recherche…

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

29.04.2025 à 17:22

Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique

Anne Blavette, Chargée de recherche CNRS en génie électrique, École normale supérieure de Rennes
En Espagne, au Portugal et dans le sud de la France, une coupure massive de courant a eu lieu lundi 28 avril. Alors que les causes sont encore inconnues, une spécialiste répond à nos questions sur les instabilités des réseaux.
Texte intégral (2440 mots)
À Grenade, en Andalousie, où le courant a été coupé de 12h33 le 28 avril à 5h30 du matin le 29 avril 2025. Dexter Benjamin, CC BY-SA

Lundi 28 avril, l’Espagne, le Portugal et une partie du Pays basque français ont été touchés par une coupure d’électricité majeure qui a perturbé l’ensemble de la région. Alors que la situation est presque rétablie moins de 24 heures plus tard, les causes de l’incident sont encore inconnues. Anne Blavette travaille sur l’optimisation de la gestion de l’énergie au sein des réseaux électriques avec un fort taux d’énergies renouvelables et répond à nos questions sur les instabilités des réseaux.


The Conversation : L’événement d’hier a surpris la population par son ampleur et ses conséquences sur le fonctionnement de pays entiers — des trains aux distributeurs de billets, en passant par l’accès à Internet perturbé jusqu’au Maroc — qui nous rappellent notre dépendance aux systèmes électriques. Quel est votre regard de spécialiste sur un tel événement ?

Anne Blavette : L’évènement qui s’est déclenché hier est assez incroyable, car un incident de cette ampleur géographique est très rare.

À l’heure actuelle, ses causes sont en cours d’investigation. Cependant, il est déjà impressionnant de voir que l’alimentation a presque entièrement été rétablie à 9h le lendemain matin, que ce soit au Portugal ou en Espagne, tandis que l’impact a été mineur en France (quelques minutes d’interruption).

On peut saluer l’efficacité des équipes des différents gestionnaires de réseau (espagnols, portugais et français) qui ont réalisé et réalisent encore un travail très important après les déconnexions et arrêts automatiques de liaisons électriques et centrales électriques, notamment avec des redémarrages zone par zone et le rétablissement progressif des connexions internationales. Ces opérations se font en parallèle des vérifications minutieuses de l’état du réseau. Cette procédure rigoureuse est nécessaire pour éviter que le réseau ne s’effondre à nouveau. Le travail ne sera pas encore achevé même lorsque l’ensemble de la population sera reconnecté, car les investigations sur l’origine de l’incident se poursuivront.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le Portugal et le Pays basque français ont aussi été touchés. Est-ce parce que les réseaux sont connectés localement ?

A. B. : Oui, le Portugal est connecté au réseau européen via l’Espagne, et des connexions existent entre l’Espagne et la France. Cela permet de mieux échanger de l’énergie et d’assurer en général une bien meilleure stabilité du réseau que des réseaux non interconnectés. D’ailleurs, la France participe à la réalimentation électrique de l’Espagne via les interconnexions.

Quelles sont les fragilités typiques d’un réseau électrique ?

A. B. : Un point important pour qu’un réseau électrique soit stable est que l’équilibre entre la consommation et la production d’électricité soit assuré à chaque instant (on parle d’équilibre production-consommation ou offre-demande).

Or, on a vu hier sur le réseau espagnol un brusque décrochage de la production/consommation de l’ordre d’une dizaine de gigawatts. Cela correspond à une perte d’environ 60 % de la consommation pour ce jour. Je cite le journal le Monde : « M.Sanchez a affirmé qu’il n’y avait “jamais” eu un tel “effondrement” du réseau électrique espagnol, précisant que “15 gigawatts” d’électricité avaient été “soudainement perdus"sur le réseau, le tout "en à peine cinq secondes” […] "Quinze gigawatts correspondent approximativement à 60 % de la demande" en électricité de l’Espagne à cette heure-là de la journée, a décrit le chef du gouvernement, qui a présidé une réunion de crise sur cette panne géante. »

La charge électrique en Espagne, telle qu’elle avait été prévue en orange, et celle, réelle, en violet. entsoe

Dans le cas d’un brusque décrochage de cet ordre, il y a une coupure électrique sur une grande région (qu’on qualifie de blackout), car le système devient instable. La raison du décrochage d’hier en Espagne semble encore inconnue et est en cours d’investigations par les gestionnaires de réseau et les autorités publiques.

Qu’est-ce qu’une instabilité du réseau électrique ? Qu’est-ce qui peut provoquer de telles instabilités ?

A. B. : Un réseau stable fonctionne dans des plages définies pour plusieurs grandeurs, notamment la fréquence et la tension électrique. En dehors de ces plages, le réseau peut être instable. Par exemple, si la tension en un point du réseau devient brusquement excessive, cela peut entraîner des déconnexions d’appareils qui se mettent en protection. Prenons, par exemple, le cas de panneaux photovoltaïques : s’ils se déconnectent, l’énergie qu’ils devaient produire peut manquer aux consommateurs, créant ainsi un déséquilibre entre la consommation et la production électrique. Sans opération de remédiation à ce problème, ce déséquilibre pourrait entraîner de graves conséquences pour le réseau électrique.

La seule opération à réaliser à ce stade est de délester très rapidement les consommateurs (c’est-à-dire réaliser une coupure électrique) afin de rétablir l’équilibre entre consommation et production, avant de pouvoir les réalimenter progressivement dans une configuration stable pour le réseau.

Si un incident peut provoquer un blackout, ce dernier peut aussi être provoqué par une succession d’éléments : on parle ainsi de « pannes en cascade ». Mais une panne, en cascade ou isolée, peut entraîner également une propagation à d’autres régions ou d’autres pays et accroître la sévérité de l’incident initial.

De nombreuses causes d’incident sont possibles : pannes de centrales électriques, phénomènes météorologiques extrêmes, etc.

Cependant, l’état du réseau électrique européen est contrôlé avec une grande vigilance par les gestionnaires de réseaux et bénéficie de systèmes automatisés permettant de réagir de façon de façon instantanée et adéquate dans l’urgence : cela a permis notamment de couper la propagation éventuelle vers la France en déconnectant la liaison de la France vers la Catalogne.

Cette carte présente le réseau de transport d’électricité existant (lignes de haute et très haute tension, pylônes électriques), ainsi que les ouvrages (lignes, postes électriques) en projet, ayant obtenus une déclaration d’utilité publique (DUP). RTE

Comme la consommation électrique de chacun varie tout le temps, la consommation à l’échelle d’un pays est variable. De même, certains moyens de production d’électricité utilisés (éolien, photovoltaïque…) présentent une production variable avec la météo. Les déséquilibres entre la production d’électricité et la consommation sont donc permanents, et une des tâches des gestionnaires de réseaux de transport d’électricité est d’équilibrer ce qui est produit et ce qui est consommé. Comment ces déséquilibres sont-ils gérés d’habitude ?

A. B. : Il y a tout d’abord un effet de foisonnement à l’échelle d’un pays qui permet de « lisser » les variations individuelles de chaque consommateur ou producteur : la consommation nationale est, par exemple, beaucoup plus lisse que les consommations individuelles. Cela la rend par ailleurs beaucoup plus prédictible, et l’équilibre offre-demande commence par un aspect de prédiction de la consommation, mais également des productions d’énergies renouvelables.

On vient ensuite compléter avec des moyens de production ou de stockage entièrement contrôlables (centrales thermiques, hydroélectricité…) qui permettront d’atteindre l’équilibre à chaque instant.

Bien entendu, certains déséquilibres imprévus peuvent exister et ils sont corrigés par de la réserve qui permet de maintenir la stabilité du réseau. Cette réserve est tirée par exemple d’une marge obligatoire de fonctionnement de centrales électriques (qui peuvent donc produire un peu plus ou un peu moins, selon les besoins). Or, dans le cas de l’Espagne, le déséquilibre était trop important pour réaliser cette compensation, étant plusieurs dizaines de fois supérieure aux réserves disponibles.

Mais il y a aussi d’autres moyens d’ajuster l’offre-demande en amont, notamment en déplaçant la consommation grâce à des tarifs incitatifs (par exemple des heures creuses lorsque la production photovoltaïque est à son maximum) ou par des informations citoyennes, comme ce qui est réalisé via EcoWatt. Dans ce dispositif géré par le gestionnaire de réseau de transport français RTE, les utilisateurs peuvent être alertés en cas de forte demande sur le réseau (généralement en hiver en France, à cause du chauffage électrique), afin de réduire leur consommation sur de courtes plages horaires qui peuvent être critiques pour le réseau ou nécessiter des moyens de production fortement émetteurs de CO2.

The Conversation

Anne Blavette a reçu des financements pour ses travaux de recherche de diverses agences et partenaires de financements, notamment l'ANR, l'ADEME, la région Bretagne, etc. et a collaboré/collabore avec divers partenaires publics et privés dont RTE, SRD, EDF, etc.

5 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   Fiabilité faible
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌞